Datacrazia: Politica, cultura algoritmica e conflitti al tempo dei big data 3208036613


245 41 5MB

Italian Pages 386 Year 2018

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Datacrazia: Politica, cultura algoritmica e conflitti al tempo dei big data
 3208036613

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

ESCHATON Collana diretta da Raffaele Alberto Ventura

a cura di Daniele Gambetta

Datacrazia Politica, cultura algoritmica e conflitti al tempo dei big data

Datacrazia a cura di Daniele Gambetta Prefazione di Raffaele Alberto Ventura Saggi di: Massimo Airoldi, Xabier E. Barandiaran, Antonio CallejaLópez, Tommaso Campagna, Andrea Capocci, Mauro Capocci, Emanuele Cozzo, Donatella Della Ratta, Andrea Fumagalli, Corrado Gemini, Giorgio Griziotti, Geert Lovink, Alberto Manconi, Javier Toret Medina, Arnau Monterde, Federico Nejrotti, Angelo Paura, Roberto Paura, Simone Pieranni, Flavio Pintarelli, Roberto Pizzato, Eleonora Priori, Daniele Salvini, Andrea Daniele Signorelli, Lelio Simi. Editing di Adria Bonanno Progetto grafico di Ercolani Bros. - DoKC Lab Questo libro è stato edito da D Editore, per la collana ESCHATON Per i suoi libri, D Editore utilizza soltanto carta certificata FSC

D Editore Via fiume 109 00055 Ladispoli (RM) Tel: +39 3208036613 eMail: [email protected] www.deditore.com Questo libro è disponibile sotto licenza Creative Commons BY-NC-SA 4.0. Alcuni diritti sono riservati. D Editore adotta la procedura della double blind peer review.

INDICE

p. I

p. 14

La società panottica Prefazione di Raffaele Alberto Ventura Divenire cyborg nella complessità Introduzione di Daniele Gambetta

p. 45 p. 46 p. 70 p. 100

Parte I - Geopolitica e macroeconomia dei big data Per una teoria del valore-rete, di Andrea Fumagalli Big emotional data, di Giorgio Griziotti Cina e big data, di Simone Pieranni

p. 113

p. 124 p. 138 p. 150

Parte II - La teoria è morta, evviva la teoria! - L'analisi dati nella ricerca Pratiche scientifiche ai tempi del capitalismo di piattaforma, di Emanuele Cozzo Is correlation enough? (spoiler: No!), di Eleonora Priori I big data e il corpo, di Andrea Capocci e Mauro Capocci L'illusione della psicostoria, di Roberto Paura

p. 171 p. 172 p. 188

Parte III - Macchine intelligenti La guerra dei bias, di Andrea Daniele Signorelli I dati sono il sangue dell'IA, di Roberto Pizzato

p. 203 p. 204 p. 214 p. 228 p. 238 p. 252 p. 268 p. 280 p. 296

Parte IV - Vite datificate Sull'etimologia della parola "dato", di Flavio Pintarelli L'output non calcolabile, di Massimo Airoldi Il potere degli algoritmi, di Angelo Paura Come i dati hanno cambiato (per sempre) il giornalismo, di Lelio Simi Rock'n'Roll Bot, di Corrado Gemini Estetiche interattive, di Tommaso Campagna Hapax Legomenon, sulla guerra per le parole, di Federico Nejrotti Son grossi dati, servon grossi diritti, di Daniele Salvini

p. 114

Parte V - Strategie dei corpi-macchina Nuovi codici della politica nel caos, di Alberto Manconi Uno sguardo tecnopolitico sui primi giorni del #15m, di Javier Toret Dalle reti sociali alle reti (tecno)politiche, di Antonio Calleja López, Xabier Barandiaran e Arnau Monterde

p. 307 p. 308 p. 334 p. 350

From Data to Dada, di Donatella Della Ratta e Geert Lovink

p. 362

Glossario minimo (di parte) della datacrazia Biografie

p. 366 p. 376

Farò il mio rapporto come se narrassi una storia, perché mi è stato insegnato, sul mio mondo natale, quand'ero bambino, che la Verità è una questione d'immaginazione […]. La storia non è completamente mia, né sarò io solo a narrarla. In realtà, neppure sono sicuro di chi sia questa storia; voi potrete essere giudici migliori. Ma è tu 'una, e se in certi momenti i fa i parranno cambiare, con una voce cambiata, ebbene, allora voi potrete scegliere il fa o che più vi piace; eppure, nessuno di essi è falso, e si tra a di una sola storia La mano sinistra delle tenebre, Ursula Le Guin

Prefazione

La società pano ica Di Raffaele Alberto Ventura

Raffaele Alberto Ventura - Prefazione

N

el modello di carcere concepito da Jeremy Bentham alla fine dell’O ocento, una stru ura nella quale ogni detenuto è tenuto costantemente so o sorveglianza, Michel Foucault individuava il paradigma del controllo sociale contemporaneo. Foucault parlava di Panoptisme o Societé panoptique, dal nome del diabolico dispositivo, il Panopticon, che perme e al custode di vedere ogni cosa, o meglio ad ogni detenuto di essere visto senza vedere. La figura evoca gli invisibili meccanismi di potere che vengono perfezionati a partire dal Se ecento per amministrare la popolazione, e che oggi ancora garantiscono il governo delle nostre ci à: statistica, demografia, urbanistica, archite ura, epidemiologia, economia politica, eccetera. Ai le ori di George Orwell, però, il dispositivo ricorderà piu osto l’ipertrofia sensoriale degli stati totalitari, con i loro infiniti occhi e orecchie che dissolvono la sfera individuale in una forzata pubblicità. Eppure nulla ha impedito a quella che per altri aspe i dimostra di essere una società particolarmente paranoica di cedere in maniera sistematica e spontanea la sua privacy ai colossi della società dell’informazione. Perché in fin dei conti non c’è nulla di più rassicurante di sapere che qualcuno ti controlla, ti coccola, ti da a enzione; sopra u o se non sei nessuno e «non hai nulla da nascondere». Quando, nella primavera del 2017, Daniele Gambe a si è proposto per realizzare un libro sui Big Data nella collana Eschaton — appena nata — il tema era già piu osto a uale; nel fra empo lo è diventato, se possibile, ancora di più. In linea con il principio della collana, abbiamo deciso di dargli la forma di un’antologia: decisione anche questa piu osto felice, vista la vaI

Ultimamente YouTube mi consiglia i video di una pornostar. L’algoritmo ha stabilito che, in base ai miei precedenti consumi, questo dovrebbe interessarmi. E ha ragione! Ma, a enzione, non si tra a dei soliti filmini pseudo-amatoriali che me ono in scena un rapporto sessuale idealizzato, artificioso, costruito su misura per lo sguardo maschile. Qui invece c’è una ragazza vestita che parla e cita i filosofi, si chiama Valentina Nappi. Quella di Nappi è indubbiamente una perfe a strategia di marketing per distinguersi dalla massa delle sue concorrenti — ma quello che dice è interessante, perché indire amente tocca l’argomento di questo libro. Valentina Nappi ha una teoria: se il sesso nella nostra società viene considerato una merce di scambio è perché si tra a di una risorsa scarsa; le donne tendono a essere sessualmente più sele ive degli uomini e invece, sempre secondo Nappi, dovrebbero concedersi spontaneamente affinché il prezzo simbolico della loro prestazione raggiunga lo zero. Soltanto in questo modo sarà raggiunta la totale parità trai generi. «Datela via», conclude. Per quanto eccentrica, questa teoria ci dice molto anche sul nostro rapporto con i dati, che d’altronde etimologicamente sono proprio questo, delle cose date. Ma, ecco, prima di «darli via» pensiamoci un a imo: questa antologia curata da Daniele Gambe a è qui per aiutarci a farlo; quanto alla vostra vita sessuale fate quel che vi pare. Un dato è merce di scambio fintanto che qualcuno, un privato o una pia aforma, lo possiede in esclusiva: ma nel momento in cui diventa pubblico, allora il suo valore precipita. Seguendo il ragionamento di Valentina Nappi, in un mondo totalmente trasparente nessuno potrebbe possedere o peggio vendere i nostri dati, ma ci sono tante ragioni per le quali non possiamo vivere in un mondo II

Raffaele Alberto Ventura - Prefazione

rietà e la chiarezza degli scri i qui raccolti da Gambe a, perfe i per introdurre questi temi al le ore profano e fornire spunti originali ai cultori della materia.

Raffaele Alberto Ventura - Prefazione

totalmente trasparente — né, probabilmente, concederci sessualmente a tu i — diversamente legate al conce o di privacy. Il nostro mondo invece è semi-trasparente, e quindi semi-opaco. Nappi sarebbe sicuramente d’accordo con noi nel sostenere che se qualcosa che ci appartiene deve essere usato come merce di scambio, be’, tanto vale che a trarne vantaggio non siano delle aziende private, delle potenze straniere o ancora degli oscuri data scientists. Eppure è proprio quello che sta accadendo, e Datacrazia lo racconta nel de aglio. Prendiamo Facebook. Il potere dell’azienda fondata da Mark Zuckerberg consiste oggi nel detenere la più grande base dati del mondo, con oltre due miliardi di conta i. Sfru ando questa base, Facebook riesce a vendere miliardi di inserzioni pubblicitarie al giorno, ciascuna ritagliata su misura del profilo socio-demograficocomportamentale dell’utente. Se volessimo suddividere e spartire l'enorme profi o generato dal social network sul totale dei suoi utenti o erremo qualche bruscolino, ma la massa accumulata a partire da una materia prima tanto astra a è davvero impressionante. Non è certo qui che andremo a recuperare il plusvalore scomparso nel movimento incessante della concentrazione capitalistica, tu avia ci sono varie ragioni per ritenere preoccupante che una tale mole di dati venga manipolata in questo modo. Né si tra a di riesumare la vecchia “teoria del proie ile magico” e seguire a ruota le narrazioni giornalistiche sui fantomatici sistemi capaci di influenzare l’esito delle elezioni, ma di rifle ere su cosa significa affidare la nostra vita sociale a un algoritmo. Molta a enzione è dedicata, nelle pagine che seguono, a una fondamentale questione epistemologica: cosa succede nel momento in cui sono le macchine a decidere cosa è vero e cosa è giusto per noi? Che poi è un altro modo di formulare la domanda che mi a aIII

Raffaele Alberto Ventura - Prefazione

naglia dal momento in cui ho iniziato a scrivere questa prefazione: perché YouTube continua a consigliarmi video di Valentina Nappi? Anche qui, l’algoritmo decide per noi, ci rinchiude dentro una bolla di filtraggio e a raverso dei bias di conferma polarizza le nostre posizioni. Per fortuna Gambe a e gli autori coinvolti in questa antologia non sono degli irrimediabili pessimisti, e restano convinti che si potrà un giorno me ere le macchine al servizio dell’uomo — e non il contrario. Acceleriamo?

IV

Daniele Gambe a

Introduzione

Introduzione

Divenire cyborg nella complessità di Daniele Gambe a

F

,

Datacrazia - Introduzione

V

erso la metà del dicio esimo secolo, in varie ci à europee si diffuse la pratica di numerare sistematicamente le abitazioni di ogni via in ordine crescente. Prima di allora, per poter consegnare una le era, il postino doveva sapere dove viveva il destinatario, e non sempre questo era facile. È difficile a ribuire una data precisa all'invenzione del numero civico, ma quel che è certo è che la sua introduzione non fu accolta felicemente dall'intera popolazione. Più che per esigenze degli abitanti, si iniziò a numerare le case per venire incontro alle richieste del fisco, dei militari e della polizia, per mappare e rintracciare più rapidamente ci adini che avessero problemi con la giustizia. Di questo malcontento ne fece i conti il re Giuseppe II d'Asburgo, contro il quale si scagliò la popolazione ungherese, contraria alla misura. Ma a pagarne le conseguenze furono i sogge i vi ime di discriminazioni, come gli ebrei in Boemia alla fine del Se ecento, obbligati a installare numeri civici in cifre romane anziché arabe per essere meglio riconosciuti. Come racconta Ivo Andric nel suo romanzo Il ponte sulla Drina, nell'Impero Austro-Ungarico la popolazione escogitò a lungo stratagemmi per eludere la sorveglianza dei numeri: targhe capovolte o imbra ate "per sbaglio" durante una verniciatura del cancello erano all'ordine del giorno. Ma è Walter Benjamin, nei suoi scri i del 1938, che si scaglia senza mezzi termini contro la pratica di numerazione urbana: Sin dalla Rivoluzione Francese, una vasta rete di controllo serra nelle proprie maglie in maniera sempre più salda la vita borghese. La numerazione delle case nelle grandi ci à 14

Benjamin continua, a ribuendo all'invenzione della fotografia un punto di svolta nello sviluppo del controllo amministrativo e dell'identificazione. Rileggendo oggi queste parole è inevitabile chiedersi cosa penserebbero, Benjamin o Baudelaire, dei tempi in cui viviamo. Identità digitalizzate, geolocalizzazione e registrazione quasi costante di spostamenti, ma anche transazioni finanziare, dati relativi al nostro stato di salute e ai nostri gusti musicali. Mai come ora, nella storia dell'umanità, si è disposto di una quantità così grande di informazioni immagazzinate su fenomeni e comportamenti sociali. Questo fenomeno ha raggiunto una tale importanza nei processi sociali odierni che si è sentita la necessità di dover coniare un termine specifico: big data. Se fino ad ora, con piccole quantità di dati, un esperto o un gruppo di ricerca poteva avvalersi di macchine e algoritmi classici per l'analisi e l'estrapolazione di informazioni utili, i big data rendono insoddisfacenti e quindi obsoleti i vecchi metodi, me endoci nel-

15

Daniele Gambe a - Divenire cyborg nella complessità

può essere utilizzata per documentare la progressiva standardizzazione. L'amministrazione di Napoleone aveva reso tale numerazione obbligatoria per Parigi nel 1805. Nei quartieri proletari, in verità, questa semplice misura di polizia aveva incontrato resistenza. Ancora nel 1864 a SaintAntoine, il quartiere dei carpentieri, fu riportato quanto segue: "Se si chiede a un abitante di questo sobborgo quale sia il suo indirizzo, darà sempre il nome della sua casa, e non il suo freddo, ufficiale numero.” [...] Baudelaire trovava questa azione di forza come un'intrusione di un criminale qualsiasi. Cercando di fuggire ai suoi creditori, ava nei bar o ai circoli le erari. A volte aveva due domicili allo stesso tempo - ma nei giorni in cui l'affi o incombeva, passava spesso la no e in un terzo posto con gli amici. [...] Crépet ha contato qua ordici indirizzi per Baudelaire negli anni dal 1842 al 18581

Datacrazia - Introduzione

la condizione, mai avuta prima, di possedere una quantità di dati maggiore di quella che i mezzi più accessibili ci perme ono di gestire. Per avere una stima delle quantità di cui parliamo, e dell'accelerazione che il processo di digitalizzazione e datificazione sta subendo, Martin Hilbert della Annenberg School for Communication and Journalism (California del Sud) ha calcolato che, mentre nel 2000 le informazioni registrate nel mondo erano per il 25% supportate da formato digitale e per il 75% contenute su dispositivi analogici (come carta, pellicola o nastri magnetici), nel 2013 le informazioni 2 digitalizzate, stimate a orno i 1200 exabyte , sono il 98% del tota3 le, lasciando all'analogico solo il 2% . Se si stampasse una tale quantità di informazioni in libri, questi coprirebbero l'intera 4 superficie degli Stati Uniti 52 volte . Vi è poi da considerare come la proprietà di questi dati sia in larga parte accentrata in poche mani. Come riportava Tom Simonite in un suo editoriale pubblicato sul MIT Technology Review, «Facebook ha collezionato il più vasto insieme di dati mai assemblato sul comportamento sociale umano. Alcune delle tue informazioni personali ne fanno proba5 bilmente parte» . La peculiarità di questi dati, oltre alla loro quantità, è il fa o di provenire da fonti e metodi di estrazione estremamente variegati, costituendo così dataset infinitamente ricchi ma destru urati, dai quali estrapolare regolarità e pa ern richiede elevate capacità di calcolo ed efficienza algoritmica. Allo stesso tempo i dati non sono raccolti solo da veri e propri adde i ai lavori del se ore, ma anche estra i dalle azioni quotidiane di milioni di utenti, autisti, lavoratori diffusi. La pervasività delle nuove tecnologie apre la strada del possibile a scenari fino ad ora considerati fantascientifici. La polizia di Los Angeles sta già implementando un programma, Predpol6, che grazie all'analisi di dati online dovrebbe riuscire a prevedere i futuri 16

I Ma hew Fontaine Maury era un ufficiale della marina americana10. Nel 1836 la diligenza su cui viaggiava si ribaltò, procurando al soldato una fra ura scomposta al femore. A seguito di un'operazione, Maury divenne claudicante a vita, vedendo per sempre interro a la sua carriera in mare. Fu quindi messo a lavorare al Depot of Charts and Instruments, un deposito di mappe e giornali di bordo. Caso volle che Maury avesse una vera passione per i numeri, così che si mise quindi a spulciare e raccogliere informazioni catalogando quella marea di documenti, sestanti e barometri lasciati a prendere la polvere. Maury colse al volo l'opportunità 17

Daniele Gambe a - Divenire cyborg nella complessità

crimini, come nella dickiana Precrimine di Minority Report (e non mancano le distorsioni dovute ai pregiudizi razziali), mentre negli ultimi mesi del 2016 si è molto discusso di una proposta del partito comunista cinese che vorrebbe fornire un voto complessivo di ogni ci adino basandosi sui dati online, secondo un metodo di social credit system che a tanti ha ricordato l'episodio Caduta libera di Black Mirror7. Un testo molto recente, che analizza in maniera de agliata vari casi di usi e abusi dell'analisi dati e degli algoritmi in vari ambiti sociali, dall'istruzione al luogo di lavoro, è Armi di distruzione mate8 matica di Cathy O'Neil, dove l'autrice me e giustamente a nudo le disparità economiche e i soprusi sociali al tempo della “di atura degli algoritmi”. È importante so olineare, in questo contesto, che i processi di controllo sociale, di valutazione come strumento disciplinare, di estrazione di valore dalla vita quotidiana, non sono certo fenomeni nati con i social network. Si può invece provare a ragionare di come le nuove tecnologie, ai tempi della datacrazia9, costituiscano spesso una lente di ingrandimento per studiare le dinamiche di questi processi.

Datacrazia - Introduzione

che aveva, e mise pure all'opera i suoi so oposti per aiutarlo nell'impresa. Iniziò così a elaborare ro e migliori di quelle a uali, disegnare carte nautiche e studiare la meteorologia a partire dai diari di bordo rinvenuti. Oltre a ciò, distribuì appositi moduli a navigatori e commercianti, incaricandoli di annotare informazioni durante il viaggio da riconsegnare una volta tornati a terra. Con il lavoro di decine di collaboratori e più di un milione di osservazioni raccolte, Maury pubblicò The Physical Geography of the Sea. Alla fine della sua vita, Maury aveva creato il sistema di ro e che è rimasto in uso sostanzialmente per tu o il XX secolo. I casi in cui il risultato di lavori colle ivi viene scambiato e sfru ato economicamente come opera di un lavoro individuale abbondano in ogni campo della produzione. Chi ha avuto a che fare con la ricerca scientifica e i suoi perversi meccanismi questo lo sa bene, ed è d'altronde proprio su questa rivendicazione che si basano le argomentazioni contro la proprietà intelle uale. Potremmo dire però che certe tecnologie, per il livello di complessità e diffusione capillare, hanno recentemente mostrato in maniera più esplicita i processi di capitalizzazione e sussunzione del lavoro vivo, immateriale, colle ivo. La digitalizzazione e quindi l'automazione dei processi, insieme alla datificazione delle vite, determinano spostamenti di capitali enormi, riportando al centro la questione della precarizzazione del lavoro culturale e cognitivo, e rendendo sempre più simbiotico il rapporto tra mente e macchina. Sarà un caso se uno degli uomini più ricchi e influenti del pianeta abbia guadagnato la sua posizione grazie a una pia aforma che come prima cosa alla ma ina ti chiede “a cosa stai pensando?”. La data e sentiment analysis, la profilazione di utenti e l'interesse per il monitoraggio delle amicizie ci ricordano che l'estrazione che oggi avviene, e che determina i flussi, è un'estrazione di un lavoro diffuso nei tempi di vita, un plusvalore prodo o non solo dalla 18

Se nella fabbrica tradizionale la produ ività, ad esempio il co imo, era basato su precisi meccanismi tecnici che perme evano (e tu ora perme ono) di misurare la produ ività individuale, nel capitalismo contemporaneo la produ ività della cooperazione sociale non è misurabile in termini di produ ività individuale. Questo è un primo nodo problematico. Il secondo nodo è che lo stesso prodo o della cooperazione sociale non è misurabile. Quando si producono simboli, linguaggi, idee, forme di comunicazione, dati, controllo sociale, c'è un problema di misurazione. Non possiamo più dire: “tu fai “tot” quindi, ti pago “tot”: questo non è più possibile

Un capitalismo, quello delle pia aforme, che sta dando vita a un potere politico ed economico tale da far sì che le proprie policy di utilizzo si trasformino di fa o in leggi internazionali. Pia aforme che forniscono servizi basati su standard proprietari la cui effi19

Daniele Gambe a - Divenire cyborg nella complessità

creazione immateriale individuale, ma dal valore aggiunto che è quello di corpi e menti messe in relazione, un plusvalore di rete. Vari testi usciti in tempi recenti, come le antologie Salari rubati¹¹ o Gli algoritmi del capitale¹², cercano di tessere il filo rosso che lega le nuove tecnologie con lo sfru amento dei nostri tempi di vita e relativa diffusione e intensificazione della precarietà. “Se non paghi, il prodo o sei tu” recita uno slogan sempre più calzante nel descrivere la nostra epoca. Facebook è gratis, Google è gratis. Perché a lavorare siamo anche noi. Non è facile stimare l'esa o contributo che diamo a queste pia aforme, ma certo è che la retorica dell'economia della condivisione (oltre alle già citate, si pensi anche ad Arbnb, Uber e simili) ha creato stru ure fortemente verticali e verticalizzanti. Citando Andrea Fumagalli, da un dialogo con Francesco Maria Pezzulli pubblicato su Effimera a fine marzo:

cienza, garantita dal lavoro vivo diffuso, è tale spesso da superare quella dei servizi classici e pubblici, innescando processi di privatizzazione consensuale e silenziosa. Si pensi a come i colossi del web si stanno imponendo nella ricerca scientifica e nella formazione. Non è facile immaginare soluzioni pratiche né tanto meno immediate. In un'intervista rilasciata sul Manifesto, Morozov ha riproposto forme di tassazione maggiore per i colossi dell'high-tech:

Datacrazia - Introduzione

La politica europea potrebbe fare molte cose. Ma è necessario che ci sia un ripensamento radicale dell'approccio dell'UE alle questioni tecnologiche, a cominciare dall'uso dei dati e dell'intelligenza artificiale (AI). Bisogna uscire dall'idea che i dati generati quotidianamente siano proprietà esclusiva degli operatori delle pia aforme, non dovrebbero appartenere a loro ma ai ci adini che li producono, in forma di common. Ad esempio, si potrebbero far pagare loro delle tasse e investire quei soldi in start-up o in associazioni di ci adini che studino quei dati per il benessere della colle ività, per un loro uso socialmente utile o a fini scientifici13. [...] Non ho soluzioni a portata di mano ma, in questo scenario, l'Europa deve trovare il modo di uscire dalla narrazione neoliberista e da questo sonno in cui è caduta da anni, per quanto riguarda i dati e il resto

Una proposta per regolamentare internet potrebbe suonare antilibertaria, e quindi anomala, se immaginata per contrastare un eccessivo potere. Ma in questa contraddizione resta proprio il nocciolo del conflitto “Stato VS piattaforme” che pervade il dibattito politico sulla rete. Non ci sarebbe ora né il tempo né lo spazio per 14 affrontare la questione in modo approfondito , ma la rete, anche in virtù della sua deterritorializzazione, ha permesso il ritorno in auge di un'etica hacker anarcocapitalista, che mira a emancipare il libero mercato dal giogo della regolamentazione statale. Non è un 20

21

Daniele Gambe a - Divenire cyborg nella complessità

caso se nel dibattito sulla Net Neutrality la contraddizione riemerge, vedendo schierati i colossi della Silicon Valley a difesa della neutralità insieme a mediattivisti e democratici, contro provider ISP e tentativi di regolamentazione governativa. La circostanza è complessa, ma certamente riconoscere il ruolo attivo della moltitudine diffusa come produttrice diretta di informazione, quindi di valore, nella costituzione di questo impero digitale è un passo fondamentale per iniziare a ragionare sulle possibilità di costruzione di tecnologie e piattaforme utili alla collettività. Qualcuno potrebbe pure osservare (comunque adottando un punto di vista miope che non considera l'accumulazione originaria a monte) che chi accede a una piattaforma accetta le condizioni previste, quindi anche quella di essere “sfruttato” dal colosso grazie al proprio lavoro messo a disposizione. Ma si potrebbe rispondere mettendo in evidenza come l'oligopolio e il fagocitamento dello spazio virtuale all'interno di poche piattaforme (grazie alla connivenza delle istituzioni) ne rendono ormai spesso impossibile la fuoriuscita individuale (oltre che renderla un'opzione politica non praticabile). Vi sarebbe poi da considerare quanto il materiale condiviso su piattaforme proprietarie altrui, o addirittura open, possa essere utilizzato da terzi per compiere analisi dati o come materia prima per l'apprendimento automatico e lo sviluppo di intelligenza artificiale. All'inizio del 2017, la Chan Zuckerberg Initiative (organizzazione filantropica fondata da Mark Zuckerberg e sua moglie Priscilla Chan) ha acquistato Meta15, un sito specializzato nell'analisi di ricerche e pubblicazioni scientifiche grazie all'utilizzo di intelligenza artificiale. La fondazione si promette di accelerare i progressi scientifici e sostenere lo sviluppo tecnologico e medico, arrivando a «prevenire e gestire tutte le malattie entro la fine del secolo». Le grosse capacità di calcolo ed elaborazione dati possono consentire oggi a un colosso dell'informatica di fornire analisi in qua-

Datacrazia - Introduzione

lunque settore, potendo attingere non solo alle risorse del proprio recinto proprietario ma anche da fonti ad accesso aperto. Il 9 novembre 2015 Google ha rilasciato sotto licenza FOSS (Free and Open Source Software) la libreria per l'apprendimento automatico TensorFlow, sapendo così di poter usufruire di un contributo mondiale di una vasta comunità di programmatori. Per l'occasione, il CEO Sundar Pichai ha dichiarato: «Noi speriamo che questa scelta permetterà alla community del machine learning – ricercatori, ingegneri, amatori – di scambiare le idee più velocemente, attraverso il lavoro sul codice anziché soltanto su papers di ricerca»16. È da notare che in entrambi i casi – Facebook Initiative e TensorFlow – la volontà estrattiva si traveste da capitalismo umanitario, nel quale il lavoro individuale diventa opportunità di contribuire al progresso. Sempre restando nel campo della ricerca, c'è un altro caso interessante da considerare. Nel maggio del 2016, l'archivio accademico ad accesso (quasi) aperto SSRN ha annunciato che sarebbe stato acquistato da Elsevier17. Il timore maggiore di molti ricercatori era quello di vedere i propri documenti diventare ad accesso chiuso o a pagamento, conoscendo le policy del più grande editore al mondo in ambito medico e scientifico. Come spiega Christopher M. 18 Kelty in It's the Data, Stupid , l'acquisto della piattaforma punta invece a un nuovo modello, cioè poter utilizzare la mole di dati (e metadati) caricati dai ricercatori per sviluppare statistiche e modelli di impact factor da fornire poi come servizio a pagamento a università e centri di ricerca. Il mondo accademico che ci siamo costruiti, scrive Kelty, è un mondo in cui «un gran quantità di giudizi su qualità, reclutamento, avanzamento di carriera, conferimento di cattedre e premi è decisa da metriche poco trasparenti offerte da aziende a scopo di lucro». Tema, quest'ultimo, che aprirebbe anche la questione della valutazione metrica e algoritmica.

22

23

Daniele Gambe a - Divenire cyborg nella complessità

Anche se si potrebbe continuare a elencare per pagine e pagine casi di sfruttamento del lavoro collettivo, vale la pena citare un ultimo caso, più vicino all'esperienza quotidiana. Il meccanismo alla base delle nuove forme di intelligenza artificiale è il cosiddet19 to apprendimento automatico o machine learning . Mentre nell'algoritmica "classica" la macchina ha il compito di eseguire determinati calcoli in un prefissato ordine, nel machine learning l'algoritmo si nutre dei dati, dunque questi ne costituiscono la materia prima. Ad esempio, se si vuole creare un programma che sappia distinguere le foto dei cani da quelle dei gatti, occorre dargli in pasto un enorme dataset (insieme) di foto di cani e di gatti, ognuna contrassegnata da un'etichetta che ne identifichi la specie del soggetto. “Studiando” per lungo tempo queste foto, e ricalibrandosi in modo da commettere meno errori possibili, alla fine l'algoritmo sarà in grado di riconoscere con buona approssimazione un animale in una foto che non aveva ancora “visto”. La potenza incredibile di questo processo è che può essere applicato praticamente a ogni cosa. Questo significa che quando sentiamo di nuovi software che riconoscono tracce musicali o identificano la persona in base a come cammina, dalla voce o da una tra mille variabili, si tratta semplicemente di riapplicare il processo descritto 20 sopra a un nuovo contesto . L'unica cosa di cui abbiamo bisogno per poter applicare questo processo è, in ogni caso, un dataset sufficientemente grande di informazioni adatto al contesto su cui far lavorare l'algoritmo. Ed è qui che torniamo a interfacciarci con il general intellect, la produzione diffusa, il valore user-generated. Prendiamo il caso del sentiment analysis, branca del Natural Language Processing, ovvero quei sistemi sviluppati per determinare il livello di “positività” emotiva di un determinato testo. Per creare tale algoritmo è necessaria una grossa mole di testi “etichettati” come positivi o negativi, su cui fare training. Una possibile soluzione, oltre a quella di assumere a basso costo manovalanza per

scrivere testi e catalogarli, è quella di usare i commenti delle recensioni di TripAdvisor, o siti simili, disponibili pubblicamente e costituiti da un testo annesso a una valutazione in stelline, che già ne costituisce una catalogazione sentimentale. Il dataset è lì, a portata di mano, pronto per essere usato per poter costruire un eventuale algoritmo di riconoscimento testuale, che poi sarebbe stato brevettato e diffuso in licenza proprietaria. Riconoscere che il valore estratto in rete è già prodotto da un lavoro, e che il plusvalore relazionale costituisce l'input principale per il capitalismo contemporaneo, è infine fondamentale per elaborare una teoria sul reddito di base incondizionato che sappia essere attuale, come scrivono Andrea Fumagalli e Cristina Morini in un 21 puntuale articolo pubblicato su Effimera :

Datacrazia - Introduzione

Siamo tutte e tutti, nessuno escluso, “produttori di dati e di relazioni” che entrano in modo sempre più diretto nei processi di accumulazione capitalistica, o per via di espropriazione o per via di assoggettamento. La remunerazione simbolica tende a sostituirsi alla remunerazione monetaria. Per questo è necessario ribadire che il reddito di base, lungi dall'essere forma di assistenza, è lo strumento della remunerazione del lavoro contemporaneo (relazionale e della cooperazione sociale) sfruttato – ora organizzandolo esplicitamente; ora in modo parassitario – dal biopotere del capitale22

I Italo Calvino scrisse nel saggio Cibernetica e fantasmi: Nel modo in cui la cultura d'oggi vede il mondo, c'è una tendenza che affiora contemporaneamente da varie parti: […] Il pensiero, che fino a ieri ci appariva come qualcosa di fluido, evocava in noi immagini lineari come un fiume che scor24

re o un filo che si dipana […], oggi tendiamo a vederlo come una serie di stati discontinui, di combinazioni di impulsi su un numero finito di organi sensori e di controllo23

“Quo facto, calculemus”. Era il diciassettesimo secolo quando il filosofo e matematico Gottfried Leibniz, ancora giovane, sperava di poter elaborare un modello logico capace di risolvere ogni dibattito in un mero calcolo, che fornisse risposte precise e inconfutabili. Oggi, per i profeti della Silicon Valley e i loro adepti, quel mito è più vivo che mai. Ad alimentarlo sono i proprietari dei dati e delle grandi capacità di calcolo, che si autoproclamano così detentori di verità. Nel giugno 2008 su Wired viene pubblicato The 24 End of Theory , il celebre articolo col quale Chris Anderson proclama l'inizio dell'Era dei Petabyte, nella quale il metodo scientifico è reso obsoleto dall'analisi dei dati, e l'elaborazione di modelli teorici non è quindi più necessaria. Dall'articolo di Anderson, emerge 25

Daniele Gambe a - Divenire cyborg nella complessità

La percezione che i rapporti personali siano definitivamente digitalizzati è ormai diffusa. La fantascienza recente è spesso tornata sul dilemma della personalizzazione dell'automa che diventa distopia della delega affettiva algoritmica (Her, Ghost in the Shell, Black Mirror, Westworld…). Un processo di discretizzazione avviene anche nel pensiero scientifico, per quanto riguarda i metodi della ricerca e la sua interpretazione. Nelle fasi storiche della scienza è possibile riscontrare un passaggio dall'utilizzo di metodi qualitativi a metodi via via più quantitativi, numerici, formalizzati. Pensiamo alla chimica, nata dal sistema esoterico alchemico e formalizzatasi solo nel 1661 con Boyle e Lavoisier sotto forma di formule codificate. Laddove il processo di quantificazione si applica alle scienze umane e sociali, emerge il tentativo di analizzare e modellizzare ogni fenomeno in termini formali, matematici.

Datacrazia - Introduzione

una fiducia cieca verso l'algoritmo e la correlazione statistica, non solo in termini di efficienza e velocità ma di decisionalità, delegando alla macchina capacità di analisi obiettive. L'algoritmo valuta gli insegnanti, come e quanto investire in Borsa, quando ci ammaleremo e di cosa. Ci dice cosa ci piace, quali libri fanno per noi e che musica ascoltare. In virtù di una pretesa misurabilità di ogni cosa, l'algoritmo si sostituisce al critico, all'esperto e al giudizio. Una tale visione, senza dubbio, è accompagnata dai sempre più frequenti successi ottenuti nel campo del machine learning nel simulare le capacità intuitive dell'intelletto umano. L'algoritmo apprende, elabora, dando vita a una black box capace di fornire valutazioni o risultati senza che il programmatore sia a conoscenza dei specifici criteri che agiscono nel risultato finale. Per riuscire a far compiere ad una macchina ragionamenti “intuitivi”, abbiamo costruito macchine capaci di affidarsi a valutazioni probabilistiche, più che deterministiche, lasciandogli, in un certo senso, la possibilità di sbagliare (cosa che, ad esempio, non è concessa a un algoritmo dedicato al riconoscimento di una password). Ma soprattutto, la fase di apprendimento di un metodo intuitivo è un processo in cui la macchina si appropria anche di bias, distorsioni ed errori eventualmente presenti nel dataset di partenza. Ce lo ricorda il celebre caso di Tay25, il Twitter-bot di Microsoft ritirato perché antisemita, o il software affetto da pregiudizi sessisti dopo aver imparato a scrivere da Google News26. Ma sarebbe un errore dedurre da questi casi che gli algoritmi non siano in grado di scrivere tweet o articoli, così come sarebbe superficiale concludere che il giudizio di qualità non è affare delle macchine. Il vero mito irrealizzabile, semmai, è proprio quello – auspicato o strumentalizzato a seconda delle occasioni – di una oggettivazione del giudizio, della neutralizzazione (nel senso di “divenire neu26

27

Daniele Gambe a - Divenire cyborg nella complessità

trale”) della valutazione. La delega algoritmica si avvale di una retorica scientista, che tende a eclissare i processi di rappresentazione e le scelte che avvengono nella costruzione dei modelli. Al pari di un essere umano, la cui capacità di analisi e valutazione non può essere oggettiva essendo influenzata dalle sue esperienze e dalla sua cultura, così l'algoritmo di machine learning si sviluppa apprendendo. Vi sono quindi certamente da considerare le implicazioni politiche di questa dinamica, ovvero di come spesso un dataset possa essere costruito ignorando le minoranze culturali e le diversità, rischiando così di dare origine a una macchina con opinioni e gusti aderenti all'interpretazione dominante e allo stesso tempo forte di una retorica oggettiva. Oltre ai casi già citati di Tai e Google, esistono tanti esempi di algoritmi fortemente condizionati da pregiudizi. «Gli algoritmi di deep learning sono intelligenti tanto quanto chi li programma»27. Compas è un software prodotto dalla Northpointe, il cui algoritmo è coperto da brevetto, utilizzato da molti tribunali americani per valutare la probabilità che un imputato commetta un crimine in futuro. Nel 2016 ProPublica ha diffuso un'inchiesta nella quale accusano il software di essere soggetto a distorsioni razziali. Dopo aver analizzato oltre 7.000 imputati della Broward Country, in Florida, si è riscontrato che «solo circa il 20% di queste persone ha commesso un crimine dopo che l'algoritmo l'aveva previsto». Inoltre, dal report si legge che l'algoritmo falsifica in misura doppia i risultati degli imputati di colore rispetto a quelli bianchi. Di Compas (acronimo di correctional offender management profiling for alternative sanctions) si è tornato a parlare recentemente, dopo la 28 pubblicazione di un altro studio, su Science Advances , nel quale i ricercatori del Dartmouth college Julia Dressel e Hany Farid hanno dimostrato che Compas non è più affidabile di un gruppo di volontari scelti a caso. Non è possibile sapere con esattezza il metodo di funzionamento e apprendimento del software in questione,

Datacrazia - Introduzione

ma come in altri casi simili è evidente che il problema deriva dalla particolarità dell'intelligenza artificiale di riprodurre bias e distorsioni presenti nei dati originali. Un problema simile sorge anche in contesti diversi da quello del machine learning, proprio perché rappresenta una criticità sempre presente nella statistica applicata. Nella sua tesi di dottorato, Lucía Ciccia29 confuta la tesi, supportata da numerose pubblicazioni di neuroscienza, secondo cui esisterebbero differenze nel cervello tra uomini e donne. Oltre al fatto che spesso questi studi si basano su piccoli campioni statistici, studi del genere tendono a ignorare che i soggetti presi in esame provengono da contesti sociali connotati da culture sessiste e patriarcali. Le differenze tra uomo e donna, laddove presenti, sarebbero allora da considerare frutto della diversa educazione e della cultura che si ripercuote nella morfologia di un organo (il cervello) che si distingue per la sua plasticità e capacità di adattamento. Confondere semplicisticamente correlazione con causalità può portare a conclusioni fuorvianti, oltre che validare, e quindi riprodurre, pregiudizi già esistenti. Allo stesso tempo quindi, anche la fantomatica morte delle teorie scientifiche a favore dell'era dei petabyte o la promessa di algoritmi che riconoscono fake news in modo insindacabile, sono da ripensare in favore di un'analisi che rimetta sempre al centro la non neutralità della scienza e i rapporti di forza che agiscono in essa.

S Da anni, il dibattito politico sulla tecnologia, e in particolare sulla rete, è incagliato in un discorso dualistico tra apocalittici e integrati. Lo scorrere unidirezionale e monodimensionale nel tempo ci ha messo di fronte alla difficoltà di distinguere le opportunità offerte dal progresso tecnologico, dalla tecnicizzazione della vita e dall'antropizzazione brutale del nostro pianeta. La tecnologia, 28

quindi la macchina, diventa allora simbolo dell'annientamento dell'essere umano, nemesi della qualità della vita. Scriveva addirittura nel 1991 Antonio Caronia:

La dicotomia macchina-natura è centrale se vogliamo capire gli umori e i timori sull'avvento della robotizzazione e della pervasività della tecnologia nella vita. Nel suo celebre Manifesto Cyborg, Donna Haraway parla proprio di “dualismi” quando afferma che questi sono sempre esistiti nella tradizione occidentale, «e sono stati tutti funzionali alle logiche e alle pratiche del dominio sulle donne, sulla gente di colore, sulla natura, sui lavoratori, sugli animali: dal dominio cioè di chiunque fosse costruito come altro col compito di rispecchiare il sé» Non siamo mai stati umani, siamo sempre stati ibridi cibernetici, siamo sempre stati cyborg. Non vi sarebbe qui lo spazio ed esulerebbe dal tema del testo approfondire il tema del postumano, ma è proprio dalle teorie del femminismo cyborg, dal quale emerge la critica alla natura umana come dispositivo di potere, che può emergere un'intuizione di prassi che sappia rompere con il dualismo sulle tecnologie, ripensando alle potenzialità liberanti che queste offrono, se spogliate dall'apparenza di forze neutrali e considerate invece prodotto sociale. È partendo dalle posizioni della Haraway che il collettivo internazionale Laboria Cuboniks stende il Manifesto Xenofemminista per rilanciare l'azione tecnopolitica: 29

Daniele Gambe a - Divenire cyborg nella complessità

Se nel mondo antico la macchina può essere ancora un simbolo dell'unità con la natura, o il prodotto di una ingegnosità fuori dal comune (come gli automi semoventi di Erone Alessandrino), con l'arrivo della civiltà industriale e della modernità quella lacerazione fra uomo e natura è ormai insanabile. [...] Riusciremo mai a sfuggire all'alternativa falsa e paralizzante fra la demonizzazione della macchina e la sua esaltazione acritica?

Datacrazia - Introduzione

Perché lo sforzo esplicito e organizzato per reindirizzare le tecnologie a fini politici progressisti di genere è così carente? XF vuole schierare strategicamente le tecnologie esistenti per riprogettare il mondo. In questi strumenti sono incorporati gravi rischi; essi tendono verso gli squilibri, gli abusi e lo sfruttamento de* deboli. Piuttosto che far finta di non rischiare nulla, XF propone il necessario assemblaggio di interfacce tecno-politiche reattive a questi rischi

In un interessantissimo, e ancora attuale articolo pubblicato su Giap nel settembre del 2011, i Wu Ming si interrogavano sulla compresenza di pratiche assoggettanti e pratiche liberanti nell'uso della tecnologia, partendo dal caso Apple e dai suicidi nelle fabbriche Foxconn. Anche in quel caso si parlava di tecno-utopie e tecnopessimismi, di apocalittici e integrati, anche se su temi diversi dal rapporto uomo-macchina. Ma il discorso non cambia. Disinnescare l'aut-aut tra tecnofeticismo e tecnofobia significa «smettere di pensare alla tecnologia come forza autonoma e riconoscendo che è plasmata da rapporti di proprietà e produzione, e indirizzata da relazioni di potere e di classe». Come esempio viene citata l'eolipila, un prototipo di macchina a vapore concepita nel I secolo a.C. dal matematico greco Erone di Alessandria, che avrebbe potuto anticipare la tecnologia a vapore di diciotto secoli, ma che non trovò alcuna applicazione pratica, in quanto la grande disponibilità di schiavi rendeva superfluo investire su questa tecnologia. Rimettere al centro i rapporti di forza è imprescindibile se si vuole affrontare il reale in tutta la sua complessità. Se può sembrare che ci siamo discostati dal tema centrale della pubblicazione, il dibattito sui dati non è esule da quanto appena detto. Lo sa bene chi ha avuto modo di studiare o fare ricerca in accademia su temi di data analysis e machine learning, in tempi in cui l'istruzione tende a una neutralizzazione del discorso politico, 30

U Se in questi tempi è evidente la necessità di elaborare analisi e riflessioni sull'influenza delle nuove tecnologie nella vita quotidiana e nella società, è anche facile accorgersi di come oggi, voler parlare di dati e algoritmi, significa voler parlare praticamente di tutto. Non è facile, in questo contesto, decidere cosa approfondire e cosa tralasciare in un'eventuale pubblicazione su queste tematiche, considerando il numero massimo di pagine entro le quali è doveroso restare. Oltre a questo, nel tempo di realizzazione di un pro31

Daniele Gambe a - Divenire cyborg nella complessità

se non addirittura a un soggiogamento nei confronti del privato. È quasi impossibile, se non in pochi e fortuiti contesti, trovare spazio per la messa in discussione critica delle nuove tecnologie, dove si possa al tempo stesso progettare e fare ricerca in una direzione politicamente ragionata. Al tempo stesso, il data scientist diventa sempre più una figura sponsorizzata dal mercato da una parte e demonizzata dall'altra, da chi mette a critica il ruolo coercitivo delle tecnologie di dominio. È possibile, allora, schierare strategicamente le tecnologie esistenti per riprogettare il mondo? Di certo la soluzione alla questione non la troverete direttamente in queste pagine, anche se l'intento è quello di fornire analisi che portino nella direzione di questa possibilità. La realizzazione stessa del testo che state leggendo, è frutto di una rete di relazioni, di progetti di ricerca collettiva e critica distribuita sia territorialmente che virtualmente, e vuole costituire un esperimento di autoformazione e co-ricerca. Elaborare piattaforme collaborative e non estrattive, creare strumenti di indagine e inchiesta che svelino i meccanismi, spesso proprietari e oscuri, degli algoritmi che determinano le nostre vite, far emergere contraddizioni utili nel rivendicare il proprio ruolo di sfruttati diffusi rimettendo al centro la questione del reddito, sono strade senz'altro percorribili.

Datacrazia - Introduzione

dotto editoriale come quello che avete tra le mani il mondo attorno a noi si trasforma con una velocità vertiginosa, tanto da rischiare di rendere obsoleti (o poco attuali) i punti di vista assunti in precedenza. Ci sono testi, scritti in anni passati più o meno lontani, che a ogni rilettura continuano a stupire per la capacità di sopravvivere nella loro attualità per decenni. Penso non solo ad antropologi e sociologi come Bateson o McLuhan, ma anche al già citato Antonio Caronia, così come appunto al mondo cyberpunk che lui stesso analizzava, dai romanzi alle fanzine degli anni '70, o ancora ai testi di alcuni movimenti sociali, che negli anni '90 già indagavano i riflessi delle nuove tecnologie sull'identità, sulle trasformazioni delle forme di lavoro. Rileggendo questi testi, e tanti altri che condividono gli stessi pregi, emerge la potenza del processo di astrazione, nel senso di passaggio del discorso a un livello di generalizzazione superiore, che rende possibile la descrizione di più casi singoli contemporaneamente, e consente l'analisi di processi emergenti che, se presi nei vari contesti specifici in cui si riscontrano, potrebbero sembrare poco determinanti, ma la cui influenza nel tempo risulta preponderante, in forme e modi che in una prima fase non è possibile prevedere con precisione. Sempre partendo da esempi come i testi citati sopra, è evidente il ruolo dell'interdisciplinarietà e del confronto tra forme diverse del sapere, nell'elaborazione di un punto di vista comune, dove resta forte la volontà di critica sociale. Non si può quindi di certo dire che viviamo tempi brillanti da questo punto di vista, considerando l'elogio dell'individualismo competitivo che dilaga negli ambienti accademici, accompagnato da una rincorsa alla specializzazione, che qualcuno ha brillantemente definito “il sapere tutto di niente”. A questo si aggiunge la diffusa pretesa di apprendere e insegnare un sapere neutrale, oggettivo, e privo di analisi sui fattori sociali che lo determinano, che finisce per estrarre il processo dal contesto, perdendo il senso dato dai rapporti reciproci tra le parti in gioco. 32

33

Daniele Gambe a - Divenire cyborg nella complessità

Negli ultimi anni si è fatto uso in vari contesti, anche sociali, del termine black box, un concetto della teoria dei sistemi usato per indicare un modello a “scatola nera” descrivibile solo in termini di output fornito per un determinato input, senza che siano noti i precisi meccanismi di funzionamento interno. Le macchine che oggi determinano le nostre vite, sia burocratiche che tecnologiche, sono spesso macchine complesse e proprietarie, closed-source, che ci restituiscono un'informazione o un servizio senza descriverci gli algoritmi (decisionali, burocratici, matematici) che lo hanno generato. Una complessità, quella della nostra epoca, che rischia di far emergere la figura dell'esperto intoccabile, incontestabile se non da parte dei suoi simili, perché ritenuti degni di prendere parola da parte di enti accademici, al di sopra della possibilità di contraddittorio. In questo scenario, la scelta di scrivere un saggio su algoritmi e big data, non poteva che andare nella direzione, almeno in volontà, di portare una riflessione multidisciplinare, critica, per certi versi anche narrativa e personale, che provasse a delineare orizzonti di immaginario. Circa un anno prima della pubblicazione, discutendo della realizzazione del progetto, emerse l'idea di un'antologia di più autori e autrici, sembrandoci questa la modalità più consona per aprire un dibattito che fosse stimolante sotto diversi punti di vista. Nei mesi di lavoro mi sono sempre più convinto che questa strada era la più ovvia e adatta nel tentare di descrivere l'overcomplessità di una tecnologia ai limiti della comprensione. Al momento di dover sbrogliare la matassa della scelta dei temi da trattare, ci siamo confrontati con i dilemmi di cui parlavo a inizio paragrafo. Per i motivi elencati finora, piuttosto che dover compiere una selezione di pochi argomenti, la cui analisi non sarebbe comunque mai potuta dirsi esaustiva per la profondità delle questioni, abbiamo optato per mantenere uno sguardo più ampio, delineando alcune tematiche che potessero fare da traccia ma

Datacrazia - Introduzione

lasciando ampio margine per mostrare la presenza di simili dinamiche nei più disparati contesti, dall'economia al giornalismo, dalla politica all'arte, dalla ricerca scientifica alla musica. I contatti maturati negli ultimi mesi e anni, insieme agli ambienti di discussione nati attorno ad alcune riviste online, mi hanno permesso di trovare con relativa facilità persone interessate a inserirsi in questo progetto, e che ringrazio una ad una. È stato interessantissimo, nei mesi di elaborazione di Datacrazia, vedere l'emergere di discorsi comuni da autrici e autori che non si conoscono neppure tra loro (e che alcuni non ho ancora avuto l'occasione di incontrare di persona). Il risultato è una vera e propria playlist di sottotracce, in cui questioni come il mito della neutralità, l'estrazione di lavoro vivo, l'impero delle piattaforme, rispuntano in momenti inaspettati e declinati in maniera di volta in volta leggermente diversa, come melodie e ritornelli che si susseguono in una polifonia. Penso di poter affermare con tranquillità che nessuno dei partecipanti di questa antologia avrebbe potuto descrivere, esclusivamente grazie alle proprie conoscenze personali, tutti i temi qui trattati, rendendo questo progetto ben più che la somma delle parti. L'indice dei contributi è stato costruito suddividendo la pubblicazione in cinque sezioni. Una prima più introduttiva, per descrivere l'impatto economico e politico delle nuove tecnologie su larga scala, con contributi di Andrea Fumagalli, Giorgio Griziotti, entrambi partecipanti del gruppo di ricerca indipendente Effimera, e Simone Pieranni, che porta un approfondimento sul caso della Cina. La seconda sezione, con i testi di alcuni ricercatori (Emanuele Cozzo, Eleonora Priori, Andrea e Mauro Capocci, Roberto Paura), è dedicata alla ricerca, al dibattito scaturito dall'utilizzo massivo dei big data nelle indagini scientifiche ma anche storiche, con un focus particolare sul mito della fine della teoria profetizzata 34

Nei giorni in cui stiamo portando a conclusione quest'antologia infuria sui giornali la bufera attorno al caso di Facebook e Cambridge Analytica e all'eventuale ruolo di questa azienda nella vittoria di Trump. Al di là di quanto si possa discutere dell'effettiva importanza o anomalia rappresentata dal caso specifico, varrebbe la pena sottolineare come questo “scandalo da prima pagina”, permetta di porre, forse per la prima volta, la lente di ingrandimento sul nuovo modello produttivo del capitalismo delle piattaforme. Una vicenda come questa, con queste tempistiche, è a conferma delle questioni appena: la profondità dei temi di cui stiamo trattando e la loro rapida evoluzione. Non era ovviamente possibile dire tutto quello che c'era da dire. I processi in corso sono tanti e 35

Daniele Gambe a - Divenire cyborg nella complessità

dai data-entusiasti. Dopo un terzo breve capitolo che fa da parentesi sull'intelligenza artificiale a cura di Andrea Daniele Signorelli e Roberto Pizzato, un quarto, il più lungo, vuole essere un compendio di esempi che diano la percezione della pervasività delle nuove tecnologie nel determinare le azioni quotidiane. Si ragiona sul significato e l'etimologia del dato (Flavio Pintarelli) nell'emergere della cultura algoritmica (Massimo Airoldi, Angelo Paura), per poi parlare di dati nel giornalismo (Leilo Simi), nel mondo della musica on-demand (Corrado Gemini), nell'arte (Tommaso Campagna) e nella produzione di identità e linguaggio (Federico Nejrotti e Daniele Salvini). Una quinta parte, a cura di Alberto Manconi, è composta da una sua introduzione e due testi tradotti dallo spagnolo (rispettivamente di Javier Toret e di Antonio Calleja López, Xabier E. Barandiaran e Arnau Monterde), che propongono strategie tecnopolitiche ispirandosi a progetti sperimentati durante e a seguito delle mobilitazioni del 15M. A chiudere, la traduzione di un breve testo di Donatella della Ratta e Geert Lovink, From Data to Dada. In appendice, un glossario minimo (di parte) della datacrazia.

Datacrazia - Introduzione

tutti da esplorare, come il divenire delle piattaforme in "organismi sovranazionali diffusi", con le proprie leggi (policy) e le loro misure (sospensioni account, eliminazione), nella difficile articolazione del conflitto tra Silicon Valley e Stato-Nazione. Si potrebbe parlare di più di privacy, di come questa sia ormai interpretata come una difesa di una sfera privata, piuttosto che uno strumento per costituire zone sicure dalle ingerenze repressive dello Stato e del Capitale. Ancora, avremmo potuto spendere più tempo riguardo il mondo delle criptovalute, nel quale si ritrovano le retoriche anarcocapitaliste in declinazione finanziaria… Questioni che, se le condizioni lo permetteranno, abbiamo ancora tutta l'intenzione di affrontare in futuro. Una cosa è certa: quello che abbiamo davanti è uno scenario sul quale vale la pena prendere parola, senza alcuna pretesa di mettere il punto alle questioni o fornire strategie di uscita, ma provando a rilanciare la discussione, auspicando la costruzione di gruppi di ricerca indipendente, critica, transmediale, capaci di sovvertire l’onnipresente realismo capitalista. Il futuro sembra oscillare, nel campo delle possibilità, tra l'utopia e la distopia senza continuità, senza forme intermedie. Allo stesso tempo, sono evidenti le capacità della tecnologia nel poter migliorare sensibilmente le nostre vite, che restano comunque confinate in un limbo di precarietà, mentre attorno a noi tutto sembra cambiare e nulla cambia. Una ricerca scientifica e culturale, se vuole avere un senso, deve riconoscere il ruolo dell'immaginario nella produzione di discorso e di prassi, deve mettersi in gioco nell'invenzione di un futuro possibile che sia all'altezza delle aspettative umane e della ricerca della felicità all'interno di un mondo complesso, com-plexus, composto da tante parti.

36

1) Walter Benjamin, The Paris of the Second Empire in Baudelaire, in (a cura di: Howard Eiland, Michael W. Jennings) Walter Benjamin: Selected Writings, vol. 4: 1938–1940, Belknap Press of Harvard University Press, Cambridge 2003. 2) 1 exabyte =1012 megabyte. 3) Martin Hilbert, Priscila López, The World's Technological Capacity to Store, Communicate, and Compute Information, in Science vol. 332, 2011. Disponibile al link: science.sciencemag.org/content/332/6025/60 4) Kenneth Cukier, Viktor Mayer-Schonberger, Big Data: A Revolution That Will Transform How We Live, Work, and Think, Houghton Mifflin Harcourt. Boston 2013, p. 9. 5) Tom Simonite, What Facebook Knows, in MIT Technology Review, luglio/agosto 2012, disponibile al link: www.technologyreview.com/s/428150/what-facebook-knows/ 6) Vedi: Andrea Daniele Signorelli, Quando l'algoritmo diventa sbirro: pro e contro della polizia predi iva, in Motherboard Italia, disponibile al link: motherboard.vice.com/it/article/qk3ynb/pro-e-contro-della-poliziapredi iva 7) Dile a Parlangeli, La Cina darà un punteggio social ai suoi ci adini dal 2020, in Wired Italia, disponibile al link: wired.it/internet/web/2017/10/25/cina-punteggio-social-ai-ci adini2020/ 8) Cathy O'Neil, Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy, Crown Publishing Group, Danvers 2016. 9) Francesco Cancellato, De Kerckhove: «Benvenuti nella datacrazia, il mondo governato dagli algoritmi», in Linkiesta, disponibile al link: linkiesta.it/it/article/2017/06/23/de-kerckhove-benvenuti-nelladatacrazia-il-mondo-governato-dagli-algor/34689/ 10) Hakan Özkösea, Emin Sertac Ari, Cevriye Gencerb, Yesterday, Today and Tomorrow of Big Data, in Procedia - Social and Behavioral Sciences, Volume 195, Elsevier, Amsterdam 2015, pp 1042-1050.

37

Daniele Gambe a - Divenire cyborg nella complessità

N

Datacrazia - Introduzione

11) Francesca Coin (a cura di), Salari rubati. Economia politica e confli o ai tempi del lavoro gratuito, Ombre Corte, Verona 2017. 12) Ma eo Pasquinelli (a cura di), Gli algoritmi del capitale, Ombre Corte, Verona 2014. 13) Marco Liberatore, Morozov: la privacy presto sarà a pagamento, in Il Manifesto, disponibile al link: ilmanifesto.it/la-privacy-presto-sara-a-pagamento/ 14) Ippolita, Nell'acquario di Facebook, Ippolita 2017. 15) Daniele Gambe a, Angelo Piga, Zuckerberg entra nel flusso della scienza on line, in Il Manifesto, disponibile al link: ilmanifesto.it/zuckeberg-entra-nel-flusso-delle-scienza-on-line/ 16) Kunal Parikh, 6 reasons why Google open-sourced TensorFlow, in Datahub (traduzione dell'autore), disponibile al link: datahub.packtpub.com/deep-learning/google-opensorced-tensorflow/ 17) Maria Chiara Pievatolo, “Sono i [meta]dati, stupido”: perché Elsevier ha comprato SSRN, in Bolle ino telematico di filosofia politica, disponibile al link: btfp.sp.unipi.it/it/2016/05/ssrn/ 18) Christopher M. Kelty, It's the Data, Stupid: What Elsevier's purchase of SSRN also means, in Savage Minds, disponibile al link: savageminds.org/2016/05/18/its-the-data-stupid-what-elsevierspurchase-of-ssrn-also-means/ 19) È curioso come da Google Trends emerga negli ultimi anni un'inversione di tendenza tra il termine artificial intelligence e il più recente machine learning, ormai divenuto quasi un sinonimo e non più ristre o all'ambito accademico: goo.gl/sjv5MC 20) Esistono ovviamente diversi algoritmi di machine learning, ognuno con le proprie peculiarità, diversificate e in divenire. Con tale categoria però si includono processi che includono appunto una fase di apprendimento, quindi per cui valgono i ragionamenti qui esposti, in particolare per quanto riguarda l'analisi politica. 21) Andrea Fumagalli, Francesco Maria Pezzulli, Cooperazione sociale, trasformazioni del capitalismo ed economie di rete. Un dialogo sul reddito di base, in Effimera, disponibile al link: goo.gl/c1VzJJ

38

39

Daniele Gambe a - Divenire cyborg nella complessità

22) Andrea Fumagalli, Cristina Morini, Dell'uso strumentale del reddito per finalità politiche, in Effimera, disponibile al link: goo.gl/A4ELUk 23) Italo Calvino, Cibernetica e fantasmi, in Una pietra sopra, Einaudi, Milano 1980, p. 209. 24) Chris Anderson, The End Of Theory: The Data Deluge Makes The Scientific Method Obsolete, in Wired, disponibile al link: h ps://www.wired.com/2008/06/pb-theory/ 25) Sarah Jeong, How to Make a Bot That Isn't Racist, in Motherboard, disponibile al link: motherboard.vice.com/en_us/article/mg7g3y/how-to-make-a-notracist-bot 26) Daniele Gambe a, Un'intelligenza artificiale è diventata sessista leggendo Google News, in Fanpage, disponibile al link: tech.fanpage.it/una-rete-neurale-artificiale-e-diventata-sessistaleggendo-google-news/ 27) Simone Scardapane, Il mito dell'accuratezza, in IAML, disponibile al link: iaml.it/blog/mito-accuratezza 28) Julia Dressel, Hany Farid, The accuracy, fairness, and limits of predicting recidivism, in Science Advances vol. 4, 2011, disponibile al link: advances.sciencemag.org/content/4/1/eaao5580 29) Lucía Ciccia, Las neurociencias respaldan la jerarquía de los sexos, in Página 12, disponibile al link: pagina12.com.ar/59356-las-neurociencias-respaldan-la-jerarquia-delos-sexos 30) Il mito della neutralità algoritmica è un naturale discendente del mito della neutralità scientifica, già criticato da testi come L'ape e l'archite o, testo degli anni '70 di Giovanni Cicco i che ha dato il via a un accesissimo diba ito sul ruolo della scienza. Tramite la critica marxista il saggio riesce a centrare la questione sui condizionamenti reciproci tra scienza (applicata e teorica) e rapporti sociali di produzione, proponendo, sul conce o marxiano di feticismo delle merci, quello di feticismo della neutralità tecnologica: «Da quanto de o risulta chiara l'insussistenza di ogni teoria della neutralità della tecnologia. Il conce o di neutralità

Datacrazia - Introduzione

non è infa i che una forma specifica del feticismo, che a ribuisce a proprietà ogge ive intrinseche di questo prodo o dell'a ività lavorativa intelle uale e manuale degli uomini ciò che discende dai rapporti sociali che tra di essi intercorrono». Giovanni Cicco i, Marcello Cini, Michelangelo de Maria, Giovanni Jona-Lasinio, L'Ape e l'Archite o, Feltrinelli, Milano 1976. 31) Antonio Caronia, Robot tra sogno e lavoro, in Occhio meccanico braccio meccanico. I robot nelle fotografie d'oggi, ABB, Museo della scienza e della tecnica, Milano 1991, p. 1. 32) Donna Haraway, Manifesto cyborg. Donne, tecnologie e biopolitiche del corpo, Feltrinelli, Milano 1995, p. 78. 33) Per approfondire le intersezioni tra femminismo e teoria cyborg un testo recentissimo è Carlo a Cossu a, Valentina Greco, Arianna Mainardi, Smagliature digitali. Corpi, generi, tecnologie, AgenziaX, Milano 2018. 34) Laboria Cuboniks, XENOFEMINISM, A Politics for Alienation, disponibile al link: laboriacuboniks.net, mentre una traduzione del manifesto è disponibile al link: lesbitches.wordpress.com/manifesto-xenofemminista 35) Wu Ming 1, Feticismo della merce digitale e sfru amento nascosto: i casi Amazon e Apple, in Giap, disponibile al link: wumingfoundation.com/giap/2011/09/feticismo-della-merce-digitalee-sfru amento-nascosto-i-casi-amazon-e-apple 36) Esistono interessanti esperimenti a ivi che possono indicare strade percorribili per un “data ivismo”: Facebook Tracking Exposed (facebook.tracking.exposed) è uno strumento per poter studiare i meccanismi di Facebook nella selezione dei contenuti sulla nostra bacheca, per studiare i filtri a cui siamo so oposti e come questi cambiano in base alle nostre azioni , InsideAirBnB (insideairbnb.com) è pensato per studiare l'utilizzo nelle ci à della pia aforma di house-sharing. Per quanto riguarda le contro-mappature come mezzo di inchiesta, Anopticon (tramaci.org/anopticon) è una mappa delle telecamere di videosorveglianza su territorio nazionale, utile per evidenziare un problema di diffusa violazione della privacy, mentre Obiezione Respinta (obiezionerespinta.info) è un proge o nato dal movimento femminista Non Una Di Meno per segnalare stru ure, medici e farmacisti obie ori. 40

41

Daniele Gambe a - Divenire cyborg nella complessità

37) «In telematica si danno infinite possibilità di giocare con la propria identità, si può cambiare il proprio nome e costituirsi un nuovo personaggio, una nuova identità. Alcuni retrogradi reazionari, sono convinti che tu o ciò sia semplicemente immorale, che fingersi qualcun altro sia un a o da vigliacchi. Sbagliano, e di grosso». Luther Blisset, Per l'abolizione del nome proprio!, in fabula, disponibile al link: fabula.it/testi/inediti/NOMEIMPR.HTML 38) «Il capitalismo post-moderno che si costruisce sulle basi dell'economia dell'informazione me e in crisi il conce o classico di lavoro: la creazione di valore non passa più (o non tanto) per lo sfru amento della sogge ività operaia tradizionale (operaio della fabbrica fordista) e della sua forma (il lavoro salariato). L'economia dell'informazione si configura come il complesso apparato tecno-economico che incarna sia la dimensione sociale della produzione (estensivamente: la cooperazione) sia i motori della sua valorizzazione (intensivamente: il linguaggio, la comunicazione e l'informazione). [...] Le tecnologie numeriche ed ele roniche producono reversibilità e ricorrenza tra l'umano e la macchina: lo sviluppo delle reti informatiche (le hihgways dell'informazione) non fa che potenziare infinitamente queste condizioni. Il valore nel capitalismo post-moderno è estra o da ogni a ività generica, previa so omissione e riconduzione al modello-lavoro». Agostino Mantegna, Andrea Tiddi, Reddito di ci adinanza: verso la società del non lavoro, Castelvecchi, Roma 1999. 39) Samuel Arbesman, Overcomplicated: Technology at the Limits of Comprehension, Portfolio, New York 2016. 40) Un ringraziamento speciale alle assemblee di eXploit ed eigenLab, che mi hanno accompagnato in questi anni di vita universitaria, luoghi di discussione viva e impegno politico, fondamentali per sopravvivere nel mezzo alla grigia monotonia accademica, dimostrandosi incredibili spazi di ricerca e gioia colle iva. 41) Tra le tante: Prismo, il Tascabile, Effimera, DinamoPress, Vice Motherboard, Le Macchine Volanti, CheFare, L'Indiscreto, Quaderni d'Altri Tempi, Not. 42) «La maggior parte dei fornitori di servizi, i serbatoi di dati, i portali, le aziende legate alla rete sono situati nella stessa zona geografica: una striscia di terra a sud di San Francisco. Queste aziende possiedono i cana-

Datacrazia - Introduzione

li a raverso cui noi comunichiamo i nostri messaggi. Affermare quindi che la rete è un prodo o colle ivo è totalmente falso: proprio come nel caso delle monadi di Leibniz noi siamo solo i terminali di un flusso di informazioni – ma le centrali globali che armonizzano queste connessioni sono industrie private. Non c'è nulla di colle ivo nella rete: l'arcaico principio della sovranità per emanazione è ancora valido ai nostri giorni. Fra lo stato-nazione moderno e le a uali reti dei social network non esistono sostanziali differenze a parte la natura dell'estensione. Mentre la rete di corpi costituta dall'assemblaggio dello stato racchiude e protegge un'unità territoriale e linguistica gli a uali network ricoprono gran parte del pianeta. A raverso Facebook abbiamo tu i potenzialmente diri o ad un corpo araldico, alla possibilità di auto-rappresentarci in forma d'immagini che potranno sopravvivere alla nostra morte in archivi dislocati in zone oscure della terra. Così come nella forma contra uale dello stato moderno noi stipuliamo una riduzione della nostra libertà di uccidere il prossimo in cambio della possibilità di una protezione continua, allo stesso modo nell'iscrizione ad un network noi cediamo una parte delle informazioni che ci riguardano in cambio della possibilità di auto-esporci. Di nuovo ritroviamo l'intersezione di Panopticon e Panorama che era già stata annunciata nel XVII secolo: i social network rappresentano oggi l'intersezione di una prigione e di un immenso teatro: ognuno può avere il suo personale stemma araldico – a pa o di aderire ad una tecnica di sorveglianza costante». Tommaso Guariento, Ontologie del limite. Analisi della produzione di spazi al termine della modernità, 2015, inedita, XXV ciclo, Università di Palermo, p. 203.

42

Parte I

Geopolitica e macroeconomia dei big data Ad ogni tipo di società si può far corrispondere un tipo di macchina. […] Ma le macchine non spiegano nulla, si devono invece analizzare i concatenamenti colle ivi di cui le macchine non sono che un aspe o.  Gilles Deleuze

Per una teoria una teoria del valore-rete Big data e processi di sussunzione di Andrea Fumagalli

₁. I

Parte I- Geopolitica e macroeconomia dei big data

N

egli ultimi anni, abbiamo assistito a una notevole accelerazione tecnologica. Diversi se ori sono stati contaminati. Si tra a di se ori che hanno sempre più a che fare con la gestione (governance) della vita umana. La le ura del genoma umano, a partire dal 2003, ha aperto spazi enormi nella possibilità di manipolazione della vita individuale e della sua procreazione. Gli effe i sulla medicina, a partire dall'utilizzo delle cellule staminali, sono stati assai importanti. Così come la tavola periodica degli elementi naturali di Mendeleev del 1869 ha aperto la strada alla creazione di materiali artificiali, oggi la decri azione del genoma umano apre alla possibilità di creare artificialmente tessuto umano e combinarlo con elementi macchinici, altre anto artificiali. Siamo così di fronte alla nascita di una nuova tecnologia biopolitica, ovvero di una “bio-tecnica”. Contemporaneamente, lo sviluppo degli algoritmi di II generazione sta consentendo un processo di automazione senza precedenti nella storia umana. Applicati, tramite le tecnologie informatiche e le nanotecnologie, alle macchine utensili, essi sono in grado di trasformarle in strumenti sempre più flessibili e du ili, sino ad assimilarsi alle potenzialità umane nella capacità sensoriale. Tali tecnologie sono sopra u o applicate (e spesso nascono o ne vedono la sperimentazione) nei se ori militari e negli scenari bellici (ad esempio, i droni), ma lo sono sempre più anche nei comparti legati alla logistica internazionale (dalla gestione di un magazzino, al trasporto, alla grande distribuzione). Lo sviluppo dell'Intelligenza Artificiale e della robotica ha oramai sperimentato con suc46

47

Andrea Fumagalli - Per una teoria del valore-rete

cesso la diffusione di magazzini e sistemi di pagamento del tu o automatizzati, con il rischio che nei prossimi anni si debba fronteggiare una crescente disoccupazione tecnologica. Se il paradigma tecnologico dell'ICT ha duramente colpito i livelli occupazionali dell'industria manifa uriera, la nuova ondata biotecnologica rischia di avere effe i ancor più pesanti sui se ori del terziario tradizionale e avanzato, che nelle ultime decadi aveva svolto un ruolo di compensazione all'emorragia di posti di lavoro nell'industria tradizionale. La bio-tecnica a uale, tu avia, non sarebbe possibile se non si fosse sviluppata una serie di tecniche che hanno accelerato (rispe o al recente passato) il grado di raccolta e manipolazione di dati in grandissima quantità in spazi sempre più ristre i e con velocità sempre più elevata. Condizione necessaria (anche se non sufficiente) affinché un algoritmo sia in grado di essere sfru ato alla massima potenza è l'esistenza di un processo di standardizzazione e catalogazione dei dati necessari al suo funzionamento, in relazione allo scopo prefissato. Ciò è reso possibile dalle tecniche di manipolazione dei cosidde i big data e dai processi di data mining (estrazione dei dati). In questo saggio, cercheremo di analizzare tale fenomeno come fonte di valore economico ad uso e consumo del sistema delle grandi corporation, con brevi cenni anche alle forme di organizzazione del lavoro che vi so ostanno. In ultima analisi, cercheremo di proporre una teoria del valore dei big data.

Parte I- Geopolitica e macroeconomia dei big data

₂. V

-

:

-

L'utilizzo e la raccolta dei dati hanno sempre fa o parte della storia dell'umanità sin dai suoi albori. Ma è solo con l'inizio della rivoluzione industriale che le tecniche di calcolo, affinate dalla ro ura “metodologica” iniziata da Cartesio e Galileo, cominciano a essere applicate non più solo alla necessità di “misurare” nel campo fisico-naturale2 ma dire amente al controllo e alla gestione dell'a ività di produzione. Con l'avvento del capitalismo e con l'irrompere della “macchina”, l'a o della produzione (finalizzata all'accumulazione) diventa sempre più discrezionale, sganciato dai capricci della natura, e quindi necessita, appunto, di una o più unità di misura. Il (plus)valore prodo o dall'accumulazione capitalistica necessita, infa i, di essere noto per poter poi influenzarne la distribuzione. Finché la produzione capitalistica è stata prevalentemente materiale, sia nel capitalismo artigianale dell'O ocento che nel periodo taylorista del Novecento, le unità di misure convenzionalmente fissate per la misura della natura (metro, chilo, litro, volt, wa , cavalli vapore, numerazione decimale, eccetera) erano più che sufficienti. Quando invece, con la crisi del paradigma fordista, la produzione tende a diventare sempre più immateriale e il capitale sempre più intangibile, il problema della misura acquista una dimensione che va al di là delle tradizionali geografie naturali. Le stesse fonti di valorizzazione si modificano e l'innovazione tecnologica, fondata ieri sull'ICT e oggi sulle bio-tecniche, richiede un approccio del tu o nuovo. A partire dalla diffusione dell'informatica, la velocità di calcolo è esponenzialmente aumentata. Il volume dei dati creati ha richiesto, non a caso, nuove forme di misurazione, continuamente in fase di ridefinizione, perché velocemente diventano obsolete. 48

Al cuore di [Google] si trova l'algoritmo PageRank che Brin e Page scrissero mentre erano studenti a Stanford negli anni '90. Notarono che ogni volta che qualcuno con un sito Web pone un link a un altro sito, costui esprime un giudizio, dichiara che considera quel sito importante. In seguito, realizzarono che mentre ogni link contiene un po' di intelligenza umana, tu i i link insieme contengono una grande quantità di intelligenza – molta di più, in effe i, di quanto qualsiasi singola mente possa possedere. Il motore di ricerca di Google scava in questa intelligenza, link dopo link, e la usa per determinare l'importanza di tu e le pagine del Web. Più grande è il numero di link che porta a una pagina, più grande è il suo valore. Come dice John Markoff, il software di Google “sfru a sistematicamente la conoscenza e le scelte umane su ciò che è significante”. Ogni volta che scriviamo un link, o anche solo lo clicchiamo, alimentiamo il sistema di Google con la nostra intelligenza. Rendiamo la macchina un po' più intelligente – e Brin, Page e tu i gli azionisti di Google un po' più ricchi6

L'algoritmo, oggi, si sta affermando come l'espressione del general intellect, in grado di adeguarsi alla varietà degli ambiti di riferimento. Più che riguardare dire amente il bios, l'algoritmo intera-

49

Andrea Fumagalli - Per una teoria del valore-rete

Se inizialmente le tecniche di data mining erano la sofisticata evoluzione di tecniche di calcolo statistico (e ancora oggi vengono stu3 diate in questa prospe iva impolitica e neutrale ) oggi sono sempre più fortemente interrelate alle cara eristiche personali, in grado di definire raccolte differenziate (individualizzate) di dati da commerciare poi liberamente. Un noto esempio, su cui si è soffermato Ma eo Pasquinelli, riguarda l'algoritmo PageRank di Google4. Ecco come tale algoritmo viene descri o da Nicholas Carr5:

Parte I- Geopolitica e macroeconomia dei big data

gisce con la sfera del cognitivo. È oggi lo strumento per misurare il valore dell'intensità cognitiva. È allo stesso tempo sussunzione re7 ale e formale . Ma è anche qualcosa di più. È misura matematica del valore di rete, in grado di condensare il wetware e il netware sulla base di un software. È quindi base di accumulazione e valorizzazione. Ciò che PageRank identifica e misura è un valore di rete in una forma molto numerica. Se una merce è descri a tradizionalmente da un valore d'uso e da un valore di scambio, il valore di rete può essere considerato un ulteriore livello annesso ai precedenti che ne descrive la rete delle relazioni sociali. Questo termine può risultare alquanto ambiguo in quanto può essere frainteso come “valore delle reti” secondo la tanto celebrata “ricchezza delle reti” descri a da Yochai Benkler8. Al contrario, una nozione di plusvalore di rete dovrebbe essere qui introdo a per fare maggiore chiarezza9. In effe i, PageRank produce quello che Deleuze e Gua ari descrissero come plusvalore macchinico riferendosi al plusvalore accumulato a raverso il dominio cibernetico, ovvero la trasformazione di un plusvalore di codice in plusvalore di flusso10. A raverso PageRank, Google non ha semplicemente conquistato una posizione dominante nel controllo e possesso di estesi indici del web, ma sopra u o un monopolio nella produzione di tale valore di rete11

L'esempio citato è paradigmatico di un'evoluzione dei processi di valorizzazione contemporanea che, partendo dal cognitivo, hanno sempre più pervaso il bios, al punto che l'evoluzione tra uomo e macchina tende a diversificarsi sempre più lungo due dire rici parallele e sinergiche: il rapporto tra sogge ività e macchina e quello tra corpo fisico e macchina.

50

51

Andrea Fumagalli - Per una teoria del valore-rete

Del primo si è scri o molto, a partire dai primi anni '70, quando si è indagato il rapporto tra mente e macchina. È su tale ibridazione che Franco Berardi conia nei primi anni 2000 il temine cognitaria12 to . La definizione del termine fornito dal dizionario Garzanti 13 («precariato di chi svolge un lavoro di tipo intelle uale» ) non coglie la complessità che ne consegue. È infa i il conce o di lavoro intelle uale che viene messo in discussione. Se nell'ultimo decennio del secolo scorso potevamo assistere a una sorta di «taylorizzazione del lavoro intelle uale e di intelle ualizzazione del lavoro manuale»14, oggi tale processo è andato ben oltre la dicotomia, seppur ridefinita, tra manualità e intelle ualità, sino a rendere superata tale differenza. Una differenza che oggi è stata ricompresa all'interno del termine “lavoro cognitivo” e ampliata in quello di “lavoro relazionale”. È infa i da tale prestazione lavorativa che ha origine il valore di rete, che oggi tende a pervadere, in modo differenziato e diversificato, molte a ività produ ive, da quelle di magazzinaggio (sempre più digitalizzate), a quelle dei grandi centri commerciali sino ai se ori della consulenza immateriale. Ovunque c'è un app, c'è valore di rete, cioè valore biopolitico. A fronte delle recenti evoluzioni, ritorna di estrema a ualità, con riferimento al contesto taylorista, l'osservazione di Romano Alquati riguardo l'informazione valorizzante ai tempi della fabbrica olive iana: «il lavoro produ ivo si definisce nella qualità delle informazioni elaborate dall'operaio ai mezzi di produzione, con la mediazione del capitale costante»15. Il valore di rete è allo stesso tempo esito di un processo di sfru amento, di estrazione e di imprinting. È la forma di plusvalore del cognitivo, a cui bisognerà aggiungere il plusvalore del bios. Esso è dato dalla compenetrazione del sistema sensoriale umano (da quello perce ivo dei cinque o più sensi a quello nervoso) con la rete informazionale e digitale che sempre più avvolge l'a ività di produzione e accumulazione.

Da questo punto di vista, assistiamo al divenire macchinico dell'umano16, al divenire spaziale (ovvero relazionale) dell'uma17 18 no , ma allo stesso tempo al divenire umano delle macchine . *** Nel processo di data mining, i dati raccolti non sono fini a sé stessi, ma perme ono di cogliere delle opportunità e di interpretare i fenomeni. Si tra a di processi che vanno oltre la pura constatazione e osservazione di fa i, in quanto il fine è quello di me ere in a o azioni traducibili nella creazione di valore. È per questo che la le eratura manageriale mainstream ha cercato di individuare i parametri che meglio consentono di catalogare i dati raccolti e di poterne individuare una grandezza. Si tra a eminentemente di qua ro misure (de e anche le qua ro V)19:

Parte I- Geopolitica e macroeconomia dei big data

a. Volume (V1): è la misura più facile da intuire, in quanto riguarda l'accumulo dei dati; Ogni minuto vengono caricate sulla pia aforma di sharing Youtube 300 ore di video, il social network Facebook genera 4 petabyte di dati al giorno, il social network Twi er vanta oltre 500 milioni di tweet ogni 24 ore, il numero di mail scambiate al giorno su scala mondiale si a esta su oltre 200 miliardi di unità20 Non è facile rendersi conto di cosa significa in concreto questa grande mole di dati. Se fossero tu i racchiusi in libri cartacei, coprirebbero l'intera superficie degli Stati Uniti 52 volte21

52

53

Andrea Fumagalli - Per una teoria del valore-rete

b. Velocità (V2): si riferisce alla necessità di ridurre al minimo i tempi di analisi dei dati, molte volte effe uate in real time o quasi. Inoltre, alcuni dati potrebbero diventare obsoleti in tempi molto brevi, perciò è necessario che l'estrazione delle informazioni avvenga velocemente. La rapida elaborazione ed archiviazione può consentire di o enere un vantaggio competitivo rispe o alla concorrenza; c. Varietà (V3): è una delle cara eristiche più importanti, in quanto introduce alcuni elementi di valore e complessità che possono incidere sul valore di rete generato. A un livello di base, la varietà può essere suddivisa in tre classi: Dati stru urati: si tra a di dati organizzati in tabelle e in schemi rigidi, raccolti all'interno di un database e che hanno una lunghezza definita e un formato. Questa tipologia viene utilizzata per i servizi tradizionali di Business Intelligence e nelle moderne pia aforme di Analytics. I dati stru urati costituiscono solo il 20% di tu i quelli esistenti. Dati non stru urati: sono i dati conservati senza alcuno schema, composti da un elevato numero di metadati, ossia informazioni che specificano il contenuto e il contesto di una pagina web. Si tra a di file audio, video o linguaggio umano. In questo caso vengono utilizzati sistemi di information retriveval, insieme di tecniche finalizzate a gestire la rappresentazione, l'organizzazione e l'accesso a ogge i contenenti informazioni quali documenti, pagine web e cataloghi online. Dati semi-stru urati: in essi si incontrano le cara eristiche delle prime due classi. Questa tipologia non è conforme alla stru ura formale dei modelli di dato associato con le basi di dati relazionali o altre forme di tabelle di dati, ma comunque contiene etiche e o altri marcatori per separare gli elementi semantici. Un esempio sono i dati in XML. Insieme ai dati non stru urati essi rappresentano l'80% dei dati esistenti.

Parte I- Geopolitica e macroeconomia dei big data

Il livello di varietà di dati da cui trarre informazioni valorizzanti è quindi molto elevato. Al riguardo possiamo parlare di una sorta di divisione cognitiva dei dati. Tale divisione non è solo verticale ma si delinea anche sul piano dell'orizzontalità degli stessi dati, a seconda se sono prodo i dire amente dalle macchine – grazie 22 all'evoluzione tecnologica – (Computer or machine generated) o 23 dall'interazione con l'intervento umano (Human generated) . A tali dati, occorre poi aggiungere quelli derivanti dai processi di automazione di varie a ività umane (ad esempio, le immagini satellitari, i dati scientifici e le fotografie e video degli strumenti di sicurezza e sorveglianza) e quelli invece generati dall'a ività relazionale umana (Social Media Data: ad esempio Facebook, Youtube, Twi er, LinkedIn, Flickr; Mobile Data: ad esempio i messaggi di testo o le informazioni sulla posizione geografica e, più in generale, i dati contenuti nei siti web: ad esempio, Youtube o Instagram24). Tale tassonomia può essere riassunta nel seguente grafico, dal quale si evince che i dati più difficili da analizzare sono quelli non stru urati provenienti dalle pia aforme di social media. Non è un caso che tali dati siano quelli a più alto valore aggiunto.

Fonte: dataskills.it/cara eristiche-dei-big-data/ 54

I qua ro parametri, velocemente descri i, sono legati da processi di interdipendenza. Ad esempio, la varietà implica maggior accuratezza e specificità ma minor volume. Maggiore è la velocità computazionale di elaborazione di un insieme di dati, maggiore è la versatilità e la varietà del suo utilizzo ma, allo stesso tempo, minore è la sua durata nel tempo e più precoce la sua possibile obsolescenza. La società di consulenza Gartner, proprio partendo da questi parametri, definisce i big data nel seguente modo: «I big data sono un patrimonio informativo cara erizzato da velocità, volume e variabilità elevati, che richiede forme innovative di analisi e gestione finalizzate a o enere una migliore comprensione nei processi decisionali»25. 55

Andrea Fumagalli - Per una teoria del valore-rete

d. Veridicità (veracity) (V4): indica il grado di accuratezza e di a endibilità dei dati. È condizione necessaria (anche se non sufficiente) per poter estrarre valore dai dati. È anche il parametro che definisce una sorta di divisione cognitiva dei dati, a seconda del loro grado di replicabilità più o meno automatizzata. I dati sono conoscenza, e quindi è possibile distinguere tra conoscenza (dati) standardizzata e conoscenza (dati) tacita. Tale distinzione opera all'interno di un ciclo di vita dei dati. Più un dato è, nella sua specificità, a endibile e accurato (in quanto in grado di fornire informazioni più de agliate), tanto più tale dato è so oposto a diri i di proprietà intelle uale che ne limitano la diffusione. Un nuovo dato è per definizione fonte di conoscenza tacita che solo successivamente può socializzarsi e divenire patrimonio comune, tramite un processo di standardizzazione nella sua diffusione, sino a diventare prima o poi obsoleto, nel momento in cui tale dato viene sostituito da nuovi dati più accurati. Maggiore è l'accuratezza e la specificità del dato, più le sue fonti sono secretate e più acquista potenzialmente valore.

Tale definizione risulta essere più convincente di tante altre26, in quanto unisce al suo interno sia le cara eristiche tecniche sia la necessità di nuove tecnologie di elaborazione e gestione diverse da quelle tradizionali. Lo scopo è infa i quello di creare “valore di rete”. Le qua ro V precedentemente descri e, infa i, confluiscono e convergono nel definire una quinta V, quella più importante: il valore di scambio che ne deriva. A tal fine si a ua un processo di trasformazione (immateriale) dal dato come valore d'uso al dato come valore di scambio.

Parte I- Geopolitica e macroeconomia dei big data

₃. V

-

:

-

La creazione del valore di rete, tramite l'elaborazione dei big data, avviene prevalentemente in alcuni se ori. Il dato, in sé e per sé, è cara erizzato da valore d'uso, come la forza-lavoro o il comune (al 27 singolare) . Esso si trasforma in valore di scambio all'interno di contesti di produzione in grado di utilizzare la tecnologia algoritmica appropriata. Tale processo, tu avia, è lungi dall'essere omogeneo e preciso. Di fa o nella gestione dei cloud di big data regna la confusione, l'approssimazione e l'eterogeneità, anche per l'imperfezione delle tecnologie utilizzate, continuamente in fase di miglioramento, anche grazie il coinvolgimento degli stessi fornitori e utenti di dati. Si consideri ad esempio il servizio di traduzione offerto da Google: la differenza rispe o agli altri sistemi riguarda proprio l'utilizzo di un dataset più vasto e molto caotico. Non si tra a di una traduzione parola per parola, ma di una analisi di milioni di testi ufficiali che arrivano da fonti come l'ONU e che forniscono una grande quantità di dati:

56

L'esa ezza quindi passa in secondo piano nel momento in cui la vastità perme e di identificare il trend generale e di ca urare l'intero fenomeno. La tassonomia a cui si è da sempre abituati viene rimpiazzata da meccanismi più disordinati e flessibili come il tagging, ampiamente utilizzato su internet. Questo sistema perme e di etiche are principalmente foto o video, in modo da rendere rintracciabili i numerosi contenuti presenti in rete, a raverso tag creati dagli utenti. La confusione in questo caso può essere dovuta alla scri ura errata dei tag e nel modo in cui essi sono organizzati. Tu o questo però perme e di avere un accesso più ampio ai vari dati con un universo più ricco di etiche e. L'eterogeneità dei dati e le possibili varianti dei big data possono essere evidenziati in questa tabella: Stile dei dati

Fonte dei dati

Se ore interessato

Funzione interessata

Grande volume

Online

Servizi finanziari

Marketing

Non stru urati

Video

Sanità

Logistica

Flusso continuo

Sensori

Manifa ura

Risorse umane

Formati multipli

Genomica

Turismo/trasporti

Finanza

Tab. 1: Possibili varianti di big data29

Andrea Fumagalli - Per una teoria del valore-rete

Nonostante la confusione dell'input il sistema di Google funziona meglio. Le sue traduzioni sono più accurate di quelle offerte da altri sistemi. Ed è molto, molto più ricco. A metà del 2012 il suo dataset copriva oltre 60 lingue. Era persino in grado di acce are input vocali in 14 lingue per rendere più fluide le traduzioni. E siccome tra a il linguaggio semplicemente come una massa caotica di dati a cui applicare il calcolo delle probabilità, può persino tradurre tra due lingue come l'hindi e il catalano28

Tale ripartizione, opinabile come ogni tassonomia, pone alla ribalta un se ore trasversale che possiamo definire Business Intelligence. Si tra a di una funzione aziendale che serve a estrarre valore per le diverse finalità produ ive dall'elaborazione e dalla ripartizione dei dati. Essa si riferisce «all'insieme di processi aziendali per raccogliere dati e analizzare informazioni strategiche, alla tecnologia utilizzata per realizzare questi processi e alle informazioni o enute come risultato di questi processi»30. La Business Intelligence quindi è un sistema di modelli, metodi, processi, persone e strumenti che rendono possibile la raccolta regolare e organizzata del patrimonio dati generato da un'azienda e a raverso elaborazioni, analisi e aggregazioni, ne perme e la trasformazione in informazioni, la conservazione, la reperibilità e la presentazione in forma semplice, flessibile ed efficace tale da costituire un supporto alle decisioni strategiche, ta iche e operative. Il sistema di Business Intelligence comporta dunque: la raccolta dei dati del patrimonio dell'azienda; Ÿ la loro pulizia, validazione e integrazione; Ÿ la successiva elaborazione, aggregazione e analisi; Ÿ l'utilizzo fondamentale di questa mole di informazioni nei processi strategici e di valorizzazione31.

Parte I- Geopolitica e macroeconomia dei big data

Ÿ

Si stru ura in tal modo un vero e proprio ciclo di vita e di valorizzazione del sistema dei big data che può essere descri o nella figura seguente, sulla base di una successione di operazioni, ossia: “ca ura/appropriazione dei dati”, la loro “organizzazione”, “integrazione”, “analisi”, “azione”. Nella stragrande maggioranza dei casi, sopra u o per quanto riguarda i dati non stru urati (circa l'80% del totale), tali dati si 58

Fonte: slideshare.net/TakrimulLaskar/big-data1st-presentation

Tale ciclo di vita descrive, in estrema sintesi, il processo di valorizzazione dei big data. Vale la pena soffermarsi sulle due operazioni di “organizzare” e “integrare”. Si tra a di due operazioni che solo negli anni recenti hanno potuto raggiungere un certo grado di sofisticazione, grazie all'evoluzione tecnologica degli algoritmi di II generazione. L'organizzazione e l'integrazione dei dati è alla base della produzione del valore di rete. È l'aspe o produ ivo di valore di scambio, mente “l'analisi” e “l'azione” ne rappresentano la commercializzazione, ovvero la realizzazione monetaria sui mercati di sbocco. 59

Andrea Fumagalli - Per una teoria del valore-rete

presentano come valore d'uso, prodo i e socializzati dagli utenti/consumatori nell'espletazione degli a i di cooperazione e relazione che vengono svolti quotidianamente. Non a caso si parla di ca ura, o meglio di espropriazione, più o meno forzosa o volontaria.

Parte I- Geopolitica e macroeconomia dei big data

È infa i in queste due fasi che comincia a stru urarsi il “capitalismo delle pia aforme”32. Con il termine capitalismo delle pia aforme, facciamo riferimento alla capacità da parte delle imprese di definire una nuova composizione del capitale in grado di gestire in modo sempre più automatizzato un processo di divisione di dati in funzione dell'utilizzo commerciale che ne può derivare. Esso si basa sulla partecipazione, più o meno consapevole, dei singoli utenti, trasformati ora in prosumer. Sono infa i gli utenti delle diverse pia aforme a fornire la materia prima che viene poi sussunta nell'organizzazione capitalistica produ iva. Possiamo affermare che se oggi le relazioni umane, la cooperazione sociale, la produzione di intelligenza colle iva, la riproduzione sociale sono espressione del comune come modo di produzio32 ne , al momento a uale esse sono alla base del comunismo del capitale, ovvero della capacità del capitale di sussumere e ca urare quelle che sono le istanze di vita degli esseri umani34. Lo strumento principale di questa capacità di ca urare il comune umano è costituito dal machine learning. Fino a qualche tempo fa erano in pochissimi a sapere cosa si intendesse per algoritmi, mentre oggi essi sono presenti nella quotidianità come un aspe o fondamentale della società odierna: Non sono solo nel vostro cellulare o nel laptop, ma anche nelle automobili, a casa vostra, nei vostri ele rodomestici e nei gioca oli. La vostra banca è un intreccio gigantesco di algoritmi e gli esseri umani si limitano a girare qualche manopola qua e là. Gli algoritmi decidono l'orario dei voli e governano gli aeroplani. Fanno funzionare le fabbriche, comprano e spediscono merci, ne incassano i proventi e tengono la contabilità. Se all'improvviso tu i gli algoritmi sme essero di funzionare, sarebbe la fine del mondo così come lo conosciamo35

60

La rivoluzione industriale ha automatizzato il lavoro manuale, e la rivoluzione dell'informazione ha fa o lo stesso con quello intelle uale. Il machine learning, invece, automatizza l'automazione stessa: se non ci fosse, i programmatori diventerebbero i colli di bo iglia che frenano il progresso38

Gli algoritmi ci aiutano a navigare tra la vastità di dati presenti in rete, ma sopra u o sono in grado di influenzare le nostre decisioni e il contesto culturale. Quelli che svolgono maggiormente questa funzione sono gli algoritmi delle pia aforme di social networking: ogni volta che le utilizziamo, lasciamo informazioni che vengono registrate, elaborate e usate per gli altri utenti. Si tra a di 61

Andrea Fumagalli - Per una teoria del valore-rete

Gli algoritmi lavorano senza che noi ci rendiamo conto della loro presenza e del loro funzionamento. Per algoritmo si intende “un procedimento di calcolo” o ancora un metodo per la soluzione di un problema, «una sequenza di istruzioni che dice a un computer 36 cosa fare» . Gli algoritmi sono alla base delle machine learning. Per capire la potenza del machine learning si può ricorrere a un’analogia riportata da Pedro Domingos37, in cui questo tipo di tecnologia viene paragonato all'agricoltura: gli algoritmi di apprendimento sono i semi, i dati sono il terreno e i programmi appresi sono le piante adulte. L'esperto di machine learning è l'agricoltore il quale pianta i semi, irriga e concima il terreno senza interferire ulteriormente. Grazie a questa metafora emergono due aspe i. Il primo è legato alla grande quantità di dati, poiché più ne possediamo, più possiamo imparare. La diffusione del machine learning è stre amente legata alla comparsa dei big data. Il secondo aspe o invece evidenzia come con una montagna di dati a disposizione possa ridurre la complessità che cara erizza questi processi. Con il machine learning il processo subisce una forte accelerazione:

Parte I- Geopolitica e macroeconomia dei big data

una raccolta di informazioni individuali destinate successivamente alla colle ività. Nel momento in cui gli algoritmi ci suggeriscono ciò che ci piace e ci aiutano nelle nostre relazioni, iniziano a plasmare la nostra identità e a influire sulle nostre scelte. Nella società dell'informazione il problema principale risiede nella quantità, o meglio, nella scelta illimitata che i big data creano: tra la molteplicità di prodo i da scegliere o di occasioni da cogliere, quale può essere quella più ada a per noi? Gli algoritmi e il machine learning offrono una soluzione. Nelle stesse aziende le operazioni da svolgere aumentano con il passare del tempo a dismisura, così come può crescere sensibilmente il numero dei suoi clienti. Di conseguenza il machine learning diventa fondamentale: Amazon non può codificare adeguatamente i gusti di tu i i suoi clienti in un programma, e Facebook non è in grado di scrivere un programma che scelga gli aggiornamenti migliori da mostrare a ogni suo utente. Walmart, il colosso della distribuzione, vende milioni di prodo i e deve prendere miliardi di decisioni al giorno: se i suoi programmatori cercassero di scrivere un programma dedicato, non finirebbero mai. La soluzione ado ata da aziende del genere, invece, è sguinzagliare gli algoritmi di apprendimento sulle montagne di dati che hanno accumulato e lasciarli indovinare cosa vogliono i clienti39

Questi algoritmi non sono perfe i, ma nel fornire i loro risultati influenzano l'utente e le sue decisioni. Essi sono gli intermediari tra i dati e il consumatore, concentrando al loro interno il potere e il controllo. Sono le moderne catene di montaggio.

62

:

L'industria dei big data crea valore sulla base di un processo di produzione la cui “materia prima” è costituita dalla vita degli indi40 vidui . Tale “materia prima” è in buona parte fornita gratuitamente, in quanto finalizzata alla produzione di valore d'uso. Il “segreto”41 dell'accumulazione sta nella trasformazione del valore d'uso in valore di scambio. Oppure, de o in altri termini, la trasformazione del lavoro concreto in lavoro astra o. Secondo Marx, il lavoro concreto, qualitativamente definito, è volto a produrre valore d'uso; il lavoro astra o è invece pura estrinsecazione di forza-lavoro umana, che prescinde dagli aspe i qualitativi e dalle determinazioni specifiche riferite all'utilità dei singoli lavori e la cui quantità determina il valore creato. Nel sistema capitalistico di produzione, il lavoro astra o è il lavoro socialmente necessario per produrre una merce che si realizza sul mercato finale, ovvero valore di scambio, sulla base della tecnologia disponibile. Nell'industria dei big data, il lavoro astra o è costituito dall'organizzazione e dall'integrazione dei dati. Tale a ività presuppone un rapporto salariale con gli adde i assunti per tale scopo. La materia prima è invece lavoro concreto e non materia in senso stre o: sono i dati grezzi della vita quotidiana, da cui si estrae valore. Per questo parliamo di “valore-dato”, un valore che si somma al valore-lavoro necessario perché tale valore-dato, che appare inizialmente come valore d'uso, possa trasformarsi in valore di scambio. Nella valorizzazione dei big data, il processo di sussunzione si scompone quindi in due parti e cambia pelle. Nella prima fase si a ua un processo di accumulazione originaria come estensione della base produ iva sino a inglobare il tempo di vita, che non viene tu avia salarizzato, ovvero remunerato: nella maggior parte dei casi è partecipazione passiva non sogge ivata. Al riguardo, non possiamo quindi parlare di vera e propria sussunzione formale42. 63

Andrea Fumagalli - Per una teoria del valore-rete

C

Parte I- Geopolitica e macroeconomia dei big data

Nella seconda fase, subentra l'utilizzo di forza lavoro organizzata (e salariata) che procede all'a ività di processing, secondo i canoni più di tradizionali della sussunzione reale. Per questo, possiamo concludere che il processo di valorizzazione 43 dei big data è un o imo esempio di sussunzione vitale dell'uomo al capitale.

64

1) Ringrazio Giorgio Grizio i e Tiziana Saccani per una prima le ura e per i miglioramenti suggeriti. Per il supporto psichedelico, mi sono avvalso, come al solito, della musica dei Grateful Dead, Jimi Hendrix e The Phish. 2) Esigenza, che, come è noto, è stata alla base dello sviluppo della geometria e della matematica già nell'antichità, dagli egiziani, ai greci, agli arabi. 3) Ad esempio, Susi Dulli, Sara Furini e Edmondo Peron. Data Mining, Springer Verlag, Roma-Berlino, 2009 e Paolo Giudici, Data Mining, Mc Graw-Hill, Milano, 2005. Per data mining si intende «l'insieme di tecniche e metodologie che hanno per ogge o l'estrazione di un sapere o di una conoscenza a partire da grandi quantità di dati (a raverso metodi automatici o semi-automatici) e l'utilizzo scientifico, industriale o operativo di questo sapere»: it.wikipedia.org/wiki/Data_mining 4) Ma eo Pasquinelli, L'algoritmo PageRank di Google: diagramma del capitalismo cognitivo e rentier dell'intelle o comune, in Federico Chicchi, Gigi Roggero (a cura di), Sociologia del lavoro, Milano, Franco Angeli 2009. 5) Nicholas Carr, The Big Switch: Rewiring the World, from Edison to Google, W.W. Norton, New York 2008 [trad. it. di Ma eo Vege i: Il lato oscuro della rete. Libertà, sicurezza, privacy, Etas, Milano 2008]. 6) Brano trado o da Ma eo Pasquinelli. 7) Andrea Fumagalli, L'economia politica del comune, DeriveApprodi, Roma, 2017. 8) Yochai Benkler, The Wealth of Networks: How Social Production Transforms Markets and Freedom, Yale University Press, New Haven 2006 [versione italiana a cura di Franco Carlini, La ricchezza della rete. La produzione sociale trasforma il mercato e aumenta le libertà, EGEA Università Bocconi, Milano 2007]. 9) Questo valore di rete dovrebbe essere distinto dalla definizione scientifica: secondo la legge di Metcalfe il “valore” di ogni network di telecomunicazioni è dire amente proporzionale al quadrato del numero di nodi o utenti connessi al sistema (n2). 10) Gilles Deleuze e Felix Gua ari, L'Anti-Oedipe. Capitalisme et schizophrénie, Minuit, Parigi 1972. 47

Andrea Fumagalli - Per una teoria del valore-rete

N

Parte I- Geopolitica e macroeconomia dei big data

11) Ma eo Pasquinelli, op. cit. 12) Franco Berardi Bifo, La fabbrica dell'infelicità. New economy e movimento del cognitariato, DeriveApprodi, Roma, 2002 e Il sapiente, il mercante, il guerriero. Dal rifiuto del lavoro all'emergere del cognitariato, Derive Approdi, Roma, 2004. 13) Vedi: garzantilinguistica.it/ricerca/?q=cognitariato 14) Andrea Fumagalli, Bioeconomia e capitalismo cognitivo, Carocci, Roma, 2007. 15) Romano Alquati, Composizione organica del capitale e forza-lavoro alla Olive i, in Quaderni Rossi, n. 2, 1963, pag. 121, citato da Ma eo Pasquinelli, Italian Operaismo and the Information Machine, in Theory, Culture & Society Vol. 32(3), 2015 [versione italiana: Ma eo Pasquinelli, Capitalismo macchinico e plusvalore di rete: note sull'economia politica della macchina di Turing, disponibile al link: uninomade.org/capitalismomacchinico]. Si veda anche Giorgio Grizio i, Neurocapitalismo, Mediazioni tecnologiche e vie di fuga, Mimesis, Milano, 2016, p. 60. 16) Rosi Braido i, Il postumano. La vita oltre l'individuo, oltre la specie, oltre la morte, DeriveApprodi, Roma, 2014. 17) Ma eo Pasquinelli Oltre le rovine della Ci à Creativa: la fabbrica della cultura e il sabotaggio della rendita, in Marco Baravalle (a cura di) L'arte della sovversione. Multiversity: pratiche artistiche contemporanee e a ivismo politico, Manifestolibri, Roma 2009. Scrive Pasquinelli: «Il general intellect si presenta quindi non solo “cristallizzato” nelle macchine ma diffuso a raverso l'intera “fabbrica società” della metropoli. Quindi, logicamente, se la conoscenza industriale proge ava e operava macchine, anche la conoscenza colle iva al di fuori della fabbrica deve essere in qualche modo macchinica. Qui dobbiamo guardare con a enzione alle manifestazioni del general intellect a raverso la metropoli per capire quando lo incontriamo “morto” o “vivo”, già “fissato” o potenzialmente autonomo. Per esempio, a quale livello oggi il tanto celebrato Free Software e la cosidde a free culture sono complice delle nuove forme di accumulazione del capitalismo digitale? E a quale livello, l'ideologia della creatività e le Ci à Creative preparano semplicemente il terreno alla speculazione immobiliare e a nuove forme di rendita metropolitana?». 18) Gerard Raunig, A Thousand Machines: A Concise Philosophy of the Machine as Social Movement, Semiotexte, New York, 2010 e il più recente 66

67

Andrea Fumagalli - Per una teoria del valore-rete

Dividum: machinic capitalism and molecular devolution, Semiotexte, New York, 2016 e Andrea Fumagalli, L'economia politica del comune, DeriveApprodi, Roma, 2017. 19) Per approfondimenti, si veda Rosalba Scaccianoce, Big Data e creazione di valore: il caso Carrefour, Tesi di Laurea, Università di Pavia, 2017. Si veda anche Ippolita. Tecnologie di dominio, Lessico minimo di autodifesa digitale, Meltemi, Milano, 2017, in particolare la voce “Big Data”, p. 27. 20) Thomas H. Davenport, Big data @l lavoro. Sfatare miti, scoprire le opportunità, Franco Angeli, Milano, 2015, pag.11 21) Viktor Mayer Schoenberger, Kenneth N. Cukier, Big data. Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà, Garzanti, Milano 2013. 22) I dati stru urati generati dalle macchine includono: Sensor data: esempi sono la tecnologia RFID (Radio Frequency Identification) basata sulla propagazione nell'aria di onde ele romagnetiche che consentono la rilevazione a distanza di ogge i, animali e persone; i dispositivi medici e i dati del GPS (Global Positioning System), che se analizzati perme ono di capire i comportamenti dei consumatori; Web Data: sono i dati ca urati dai server e dalla rete; Dati finanziari: dati generati dai sistemi di trading. 23) I dati stru urati generati dall'uomo includono invece: Input data: sono i dati che possono essere immessi nel computer da qualsiasi persona, riguardo nome, età, reddito, eccetera; Click-stream data: dati generati da qualsiasi click da parte degli utenti. Questo tipo di dati perme e di analizzare il comportamento del cliente e di realizzare nuovi modelli di acquisto; Game related data: altri tipi di dati possono provenire dai giochi, all'interno dei quali ogni mossa dell'utente viene registrata; 24) Per approfondimenti, si veda Judith Hurwi , Fern Halper, Marcia Kaufman, Alan Nugent, Big Data for Dummies, John Wiley&Sons, Hoboken, New Jersey 2013. 25) Leonardo Camicio i, Christian Racca, Creare valore con i Big Data. Gli strumenti, i processi, le applicazioni, Edizioni LSWR, Milano 2015. 26) Ad esempio, IBM definisce i Big Data «un set di dati la cui dimensione va al di là della capacità dei tipici strumenti di gestione, memorizzazione e analisi», mentre Mckinsey considera i Big Data dei «dati che pos-

Parte I- Geopolitica e macroeconomia dei big data

sono essere riuniti e analizzati per individuare nuovi modelli e prendere decisioni migliori» (citazioni tra e da Leonardo Camicio i, Christian Racca, op. cit.). 27) Vedi Carlo Vercellone, Alfonso Giuliani, Francesco Brancaccio, Pierluigi Va imo (a cura di), Il comune come modo di produzione, Ombre Corte, Verona 2017 e Andrea Fumagalli, L'economia politica del comune, DeriveApprodi, Roma 2017. 28) Viktor Mayer Schoenberger, Kenneth N. Cukier, op. cit. 29) Fonte: Thomas H. Davenport, Big data @l lavoro. Sfatare miti, scoprire le opportunità, FrancoAngeli, Milano 2015. 30) Leonardo Camicio i, Christian Racca, op. cit. 31) Cos'è la Business Intelligence, in Dataskills, disponibile al link: dataskills.it/business-intelligence/cos-e-business-intelligence/ 32) Benede o Vecchi, Il capitalismo delle pia aforme, Manifestolibri, Roma, 2017. 33) Carlo Vercellone, Alfonso Giuliani, Francesco Brancaccio, Pierluigi Va imo, op. cit., e Tony Negri, Il comune come mezzo di produzione, 10 giugno 2016, disponibile al link: euronomade.info/?p=7331, e Andrea Fumagalli, op. cit. 34) Al riguardo, molto interessante è il conce o di Bioipermedia, coniato da G. Grizio i: «Il Bioipermedia si può definire in modo ampio come l'ambito in cui il corpo nella sua integralità si conne e ai dispositivi di rete in modo talmente intimo da entrare in una simbiosi in cui avvengono modificazioni e simulazioni reciproche». Vedi Giorgio Grizio i, Neurocapitalismo, Mimesis, Milano 2016, p. 120. 35) Pedro Domingos, L'algoritmo definitivo. La macchina che impara da sola e il futuro del nostro mondo, Bollati Boringhieri, Torino 2016. 36) Ibidem. 37) Ibidem. 38) Ibidem. 39) Ibidem. 40) Al riguardo, rimando al saggio di Giorgio Grizio i, Big emotional data. Cybermarcatori somatici del neuro capitalismo, in questo stesso volume e a Giorgio Grizio i, Megamacchine del neuro capitalismo. Genesi delle pia aforme globali, disponibile al link effimera.org/megamecchine-del-

68

Andrea Fumagalli - Per una teoria del valore-rete

neurcapitalismo-genesi-delle-pia aforme-globali-giorgio-grizio i. 41) Il riferimento è K. Marx, Das Kapital - Bd. I, VII. Der Akkumulationsprozeß des Kapitals, 24. Die sogenannte ursprüngliche Akkumulation, disponibile al link: textlog.de/kapital-geheimnis.html. “Geheimnis” significa “segreto” in italiano. 42) Non è un caso che negli Stati Uniti siano sorti dei movimenti per chiedere a Facebook che la partecipazione alla pia aforma venga in qualche modo remunerata. Tra i tanti, ft.com/content/5103204e-7b5b-11e7-ab01a13271d1ee9c 43) Per un approfondimento del conce o di “sussunzione vitale” si rimanda a: Andrea Fumagalli, op. cit., specie cap. I, pp. 39-68.

69

Big emotional data Cybermarcatori somatici del neurocapitalismo Di Giorgio Grizio i

I T

Parte I- Geopolitica e macroeconomia dei big data

E

,

sprimendosi di recente a Parigi in un eccellente francese, 1 Richard Stallmann ha lanciato una delle sue proverbiali e provocatorie denunce: «le téléphone portable, c'est le rêve de Staline devenu réalité»2. Come spiega Stallmann, il processore-modem che conne e il cellulare con le reti distanti (Wide Area Network o WAN) è pilotato da software proprietari che perme ono di controllare e di registrare qualsiasi interazione e comunicazione. È impossibile sostituirlo con software libero come avviene per i processori applicativi, cuore dei PC. Questo implica quindi che la massa dei dati che transitano sulle reti degli operatori telefonici è captata e so omessa a controlli, anche completamente illegali, come denunciato da Snowden riguardo la NSA americana. La reale dimensione dei big data, intesi in senso lato3, nasce con l'allargamento di internet alle dimensioni spazio-temporali della 4 vita e la nascita del bioipermedia , un ambiente d'immersione sempre più totalizzante. Nel sistema economico capitalista i big data sono uno dei prodo i del bioipermedia, estra o nella messa a lavoro della vita e della natura, ed esso viene mercificato tanto allo stato grezzo quanto a quello raffinato. Questa terminologia fossile non è casuale: secondo la visione di una delle grandi compagnie di “consulenza strategica”, i big data sono il «petrolio del XXI secolo e gli algoritmi che 5 li tra ano sono il motore a combustione» . Fino a questo punto però, a parte la natura immateriale della nuova merce e i modi di 70

71

Giorgio Grizio i - Big emotional data

produzione differentemente inquinanti, restiamo nei canoni della catena del valore capitalista. Ma come riporta Chris Anderson, ex caporeda ore di Wired, in un articolo sobriamente intitolato La fi6 ne della teoria , grazie ai big data non vi è più, in alcuna disciplina, necessità di speculazione: dalla ricerca scientifica alle scienze umanistiche. Secondo il giornalista e imprenditore americano, il metodo scientifico costruito su ipotesi verificabili, ma che include anche dosi di intuizioni e creatività, verrebbe reso obsoleto dallo sfru amento dei big data tramite algoritmi efficienti e sofisticati. Non a caso, a suffragio della sua tesi, Anderson cita gli esperimenti di Craig Venter che, dopo aver tentato di privatizzare il genoma umano, viene da lui promosso a primo biologo contemporaneo grazie ai sequenziamenti genetici di interi ecosistemi come gli oceani o l'aria. Anderson si piazza nel campo del soluzionismo tecnologico, denunciato da Morozov7, dell'ogge ivismo e del cognitivismo dove tecnologie, algoritmi, dati e correlazioni corroborano il principio di una razionalità neoliberale del “fare”. Le correlazioni sostituirebbero le modalità di riflessione e di modellizzazione tipiche del pensiero umano, così come ogni necessità di conoscere e di comprendere le cause dei fenomeni. Potremmo integrare tale approccio nell'ontologia contemporanea che in contrapposizione, o forse in reazione, all'era “ideologica” della fase precedente8, vede il “fare” prevalere sulla teoria, o perlomeno precederla, anche in movimenti, ambienti o istanze non infeudati alla logica neoliberale9. La problematica non sta nella scelta di dove porre il cursore della separazione fra teoria e prassi, ma in una sorta di determinismo algoritmico che, ispirato dalla ricerca scientifica, viene acriticamente trasposto e applicato alle scienze umanistiche. Anderson, ed i suoi sostenitori, sono convinti che:

Parte I- Geopolitica e macroeconomia dei big data

Esiste nel sociale qualcosa di determinato e di calcolabile, se lo si vuole acchiappare dal basso [a raverso le “correlazioni”, NdA] come nelle correlazioni fra atomi, e non dall'alto, come i gruppi sociali in relazioni gli uni con gli altri10

Senza negare l'interesse cognitivo di principio dei big data, in particolare nella ricerca scientifica, evitando in tal modo qualsiasi tentazione neoluddista, è nel nostro proposito di confutare la pretesa neutralità scientifica di chi, come Anderson, ome e di precisare chi siano i principali operatori e usufru uari dei big data sociali, e quale sia la reale dimensione politica dell'estrazione di informazione e conoscenza. Anche i media mainstream di prima generazione11 ormai pubblicano frequenti articoli sulle minacce che le grandi pia aforme del web ed i big data rappresentano per una generica privacy, ma rare sono le analisi sulle dinamiche delle loro metodologie e dei loro obie ivi economici, politici e sociali. Ci sfuggono, infa i, ancora parti essenziali delle interazioni esercitate dal Platform Capitalism12 nella nuvola del bioipermedia che ci avvolge a tempo pieno. Ci sfuggono, per esempio, molti degli effe i non perce ibili dalla coscienza e costituenti un sistema di 13 asservimento macchinico , di una pervasività e potenza inimmaginabili all'epoca in cui questo conce o venne sviluppato da Deleuze e Gua ari. L'obie ivo principale di questo saggio è di esplorare alcune modalità del ruolo dei big data e dei processi di analisi delle emozioni (emotion AI) e dei sentimenti (sentiment analysis e opinion mining) nell'asservimento macchinico. Per raggiungere tale fine, abbiamo considerato le interfacce, in particolare quelle umano-macchina (IUM), come fondamento e parte costituente dei big data. Da dispositivi di funzionamento fra macchine, fra so oinsiemi o fra componenti, le interfacce investono 72

gli umani sino a diventare, con la nascita della GUI (Graphical User Interface), lo snodo centrale di un'integrazione che si trasforma in divenire-macchina. Un secondo passaggio riguarda la genealogia funzionale dei big data che prende forma con la nascita del conce o di Business Intelligence e, molto in seguito, si concretizza con la nascita all'interno della grande impresa di strumenti di Datawarehouse e Data mining. In seguito, tra eremo del ruolo dei big data come strumenti d'asservimento macchinico che contribuiscono alla produzione di sogge ività, me endo in evidenza alcuni aspe i salienti: lo shift dall'economia dell'a enzione a quella delle emozioni e la nascita dei big data emozionali, che danno il titolo al saggio; Ÿ l'affermarsi dell'economia comportamentale, e in particolare della teoria di origine americana del “paternalismo libertario”, che dà vita al conce o di nudge14 e della sua implementazione utilizzando i big data. Per noi elementi simbolici del neurocapitalismo, che definiamo Cybermarcatori somatici in un'evoluzione del conce o originale del neurofisiologo Antonio Damasio; Ÿ genealogia dei big data.

I

-

Nella loro visione dell'asservimento macchinico, Deleuze e Guat15 tari, influenzati da Mumford , che aveva sviluppato il conce o di megamacchine e degli umani come loro ingranaggi, avevano intuito qualche cosa di essenziale del nostro contesto a uale: il frammentarsi degli individui in moduli “dividuali” che si plasmano nelle interfacce con le macchine. Questo li rende a i a diventare meccanismi di quelle megamacchine che oggi sono le grandi pia aforme. Nella visione che il Platform Capitalism sta implementando16: 73

Giorgio Grizio i - Big emotional data

Ÿ

gli individui sono diventati “dividuali” e le masse [sono diventate] dei campioni, dei dati, dei mercati o delle «banche». Il dividuale funziona nell'asservimento come parti “non umane” di macchine tecniche, come procedure organizzative, come la semiotica17

Queste succinte considerazioni ci spingono a guardare le interfacce sia come elemento tecnico essenziale dei big data, sia come fondamento ontologico del divenire-macchina. Negli anni '60, le tecnologie del “Tempo Reale” (Real Time Computing) perme ono ai computer di interagire dire amente col mondo esterno e, fra l'altro, di raccogliere dati18. Anche in questa evoluzione maggiore il perno gira a orno alle interfacce, intese come dispositivi che perme ono l'interoperabilità fra due o più entità di tipo diverso:

Parte I- Geopolitica e macroeconomia dei big data

ogni sistema espone una sua faccia, con il suo particolare protocollo di comunicazione, e il dispositivo viene interposto fra di esse creando un punto comune19

Le interfacce, sin dalle origini, sono le porte da cui transitano obbligatoriamente i dati e che contribuiscono a modellarli. Fanno parte delle interfacce anche i dispositivi capaci di effe uare traduzioni tra entità che non utilizzano lo stesso linguaggio, per esempio fra istanze software e hardware, o tra umani e computer. Soffermiamoci su alcune cara eristiche di quei particolari meccanismi che sono le interfacce software, che, per esempio, fanno dialogare fra loro le applicazioni. Da semplici utenti, le incontriamo quotidianamente quando un'app ci chiede se può utilizzare i nostri dati: i conta i del nostro carnet ele ronico, gli “amici” di Facebook, la nostra geolocalizzazione, eccetera. In una prima fase dell'era pre-internet, le interfacce riguardano essenzialmente i flussi operativi fra le singole applicazioni azienda74

75

Giorgio Grizio i - Big emotional data

li. Ogni applicazione funzionale interna possiede il proprio database specifico, come la produzione, la gestione contabile o le vendite. Nelle grandi compagnie, man mano che l'informatica si estende a più funzioni, vengono create interfacce per condividere i dati necessari al buon funzionamento ma per il momento non esiste un grande archivio centrale dove confluiscano dati da tu e le applicazioni che possa essere consultato. Le interfacce fra programmi, moduli o applicazioni diverse sono forse le componenti software più delicate e difficili da concepire, sviluppare e rendere operative. Tramite un'interfaccia si può accedere dall'esterno alle risorse centrali di un computer e in caso di errore si possono avere conseguenze imprevedibili o a volte disastrose per la funzionalità e la stabilità di uno o più sistemi interconnessi. Un principio chiave della concezione è quello di limitare l'accesso a tu e le risorse, consentendo l'accesso solo a raverso punti di ingresso ben definiti, ossia usando metodi d'incapsulamento. L'occultamento dell'informazione (information hiding) è il principio teorico su cui si basa la tecnica dell'incapsulamento. Da un punto di vista generale – quindi non solo applicato alla proge azione del software – l'incapsulamento può essere visto come la suddivisione di un sistema complesso in unità modulari aventi ciascuna una funzionalità ben definita. Ad esempio, un'automobile è un macchinario piu osto complesso. Per facilitarne il proge o, la fabbricazione e la manutenzione, è vantaggioso suddividerla in "moduli" dotati di mutue interfacce, in modo che la proge azione dell'insieme possa prescindere dalla definizione dei de agli dei singoli moduli, rendendo in questo modo l'insieme non solo più facile da proge are, ma anche più economico da produrre. Queste considerazioni possono essere allargate, nel quadro neurocapitalista, anche agli umani (e non-umani) in quanto dividuali, componenti di sistemi complessi talvolta «semplici ingressi e usci-

Parte I- Geopolitica e macroeconomia dei big data

te, input od output, punti di congiunzione o disgiunzione di processi economici, sociali, comunicativi da pilotare e governare»20. Per riuscire nell'integrazione dei dividuali nelle megamacchine, è necessario implementare opportune interfacce che li rendano compatibili al funzionamento sistemico, proprio come avviene per le componenti software. È necessario che siano rido e al minimo le possibilità di perturbare la megamacchina o un so osistema accedendo a risorse riservate. Per prevenire e impedire tali interferenze e perturbazioni da parte degli umani, la concezione delle interfacce umano-macchina è fa a in modo che anche la nostra comunic/azione sia opportunamente “incapsulata”. Una situazione ideale da cui siamo molto lontani. Il termine di interfaccia umano-macchina (IUM) è volutamente generico e comprende le macchine in generale di qualsiasi epoca, tipo e genere; limiteremo la genealogia dell'evoluzione dell'IUM al passaggio dall'era del capitalismo industriale a quello contemporaneo, cara erizzato dalle macchine del bioipermedia e dai dispositivi delle tecnologie dell'informazione e delle comunicazioni (ICT, nell'acronimo anglosassone). L'IUM dell'era industriale è sopra u o cara erizzata dal “metodo di organizzazione scientifica del lavoro”, inventato da Charles Taylor, e che è all'origine del fordismo e della catena di montaggio. Si tra a di un'interfaccia basata su una razionalizzazione del ciclo produ ivo secondo criteri di o imizzazione del profi o. La scomposizione e la parcellizzazione dei processi di lavorazione nei singoli movimenti costitutivi, cui venivano assegnati tempi standard di esecuzione, erano basati chiaramente su un principio di ada amento dell'uomo alla macchina. Facevano parte del processo, oltre all'analisi de agliata delle mansioni, anche quella della creazione del prototipo di lavoratore ada o alla funzione e il modo di selezione dei lavoratori stessi.

76

Man mano che la riflessione progrediva, si sviluppò il conce o per cui era possibile vedere l'organizzazione del sistema macchina da guerra aereo-uomo come un singolo organismo e che era possibile studiare il comportamento di un simile organismo nel suo complesso22

Tornando alla visione di Deleuze e Gua ari, l'organismo pilotacaccia è un modulo della megamacchina “WWII”, dove la problematica non è più quella di ada amento ma di scelta dell'elemento appropriato, umano o non umano. Lo stesso si potrebbe dire del sistema driver-auto nella megamacchina della logistica ai tempi di Uber e di Amazon. 77

Giorgio Grizio i - Big emotional data

Siamo in un contesto in cui è l'uomo che deve ada arsi alla macchina; solo dopo la Seconda guerra mondiale cominciano i primi passi nel campo dell'ergonomia, come poi sarebbe stata chiamata, e che gli anglosassoni definiscono come ergonomics & human factor (E&HF). Al contrario di quanto avvenne nel fordismo, l'ergonomia mira genericamente ad ada are la macchina produ iva alla natura psicofisiologica umana. La prima ricerca di ergonomia prende origine dagli studi nell'industria aeronautica, per far fronte alle necessità di coordinamento del processo decisionale, dell'a enzione, della consapevolezza situazionale e dell'azione del pilota. Tale coordinamento era richiesto dalle accresciute performance degli aerei da guerra della WWII. Era quindi necessaria una ricerca approfondita per determinare le capacità umane e le limitazioni su ciò che doveva essere compiuto in tempi di decisione sempre più corti. In questa occasione la dicotomia dell'enunciato umano-macchina comincia a ridursi21 ed entriamo in una dinamica in cui il complesso pilota-caccia acquisisce una sua autonomia come modulo autonomo:

Parte I- Geopolitica e macroeconomia dei big data

In seguito, McLuhan inizia una riflessione sui media ele rici23 e in particolare sulla televisione, un medium che inaugura la prima interfaccia visuale di massa in tempo reale, anche se il flusso resta unidirezionale. I mass media sono concepiti appunto per agire a senso unico sulla figura centrale dell'epoca: l'operaio-massa. Il reale salto di paradigma mediatico delle IUM inizia con il concatenamento tecnologico che, partendo dai PC, si allarga alle reti locali e a internet, sino ad arrivare ai flussi multicanale e alle ergonomie del bioipermedia che alimentano i big data. L'interazione umano-computer (Human Computer Interaction - HCI) e la nascita 24 delle interfacce grafiche GUI , sono decisive nell'affermare la centralità della produzione biocognitiva. HCI e GUI forniscono, in linea di principio, nuovi gradi di libertà all'utente, perme endo scambi non più solo codificati dalla rigidità del linguaggio scri o, ma anche sensoriali implicando estensioni ed interazioni visive, uditive e ta ili25. A questo si aggiungono gli scambi che avvengono so o la soglia di percezione cosciente, come la geolocalizzazione delle nostre posizioni o l'auscultazione di ritmi e stati biologici. Per esempio, dei comuni smartwatch possono effe uare il monitoraggio del ba ito cardiaco, della temperatura corporea, della pressione, del sonno, degli spazi percorsi a piedi (pedometro), eccetera. Possono inoltre includere, oltre al GPS, funzioni di SOS, di comunicazione di emergenze e rilevamento di caduta. Nel contesto neoliberista, i gradi di libertà e la ricchezza di questi big data personali e biologici sono captati e spesso sfru ati per fini commerciali, o comunque di controllo sociale26. Diventano «valore di rete [che] è allo stesso tempo esito di un processo di sfru amento, di estrazione e di imprinting. È la forma di plusvalore del cognitivo, a cui bisognerà aggiungere il plusvalore 27 del bios» . Nel passaggio all'internet of everything, il bioipermedia è in grado d'interagire con i corpi tramite i sensi e la razionalità e di misurare, 78

d'interce are, di captare sempre con più finezza i minimi cambiamenti del corpo ma anche della mente, in funzione dei nostri comportamenti nelle a ività su internet. A questo punto esiste un quadro tecnologico completo con un salto ulteriore d'integrazione umano-macchina che passa a livello di emozioni, affe i e sentimenti.

G

Il conce o di Business Intelligence (BI), introdo o da IBM sin dagli anni '60, spinge le direzioni d'azienda a sviluppare «la capacità di interpretare le interrelazioni dei fa i presenti in modo da guidare 28 l'azione verso un obie ivo aziendale desiderato» . A partire da tale o ica vengono sviluppati dagli anni '90 i Data Warehouse (DWH), archivi informatici aziendali costruiti integrando i dati interni e altri provenienti dall'esterno. I DWH includono gli strumenti per l'estrazione e la gestione dati, al fine di creare statistiche e predizioni utili nei processi decisionali dell'impresa. Nelle grandi entità private o pubbliche, questi archivi assumono grandi proporzioni, e come conseguenza logica della creazione dei DWH prende forma il data mining. Gli algoritmi di data mining costituiscono una svolta rispe o a quelli usati nei calcoli statistici. Mentre la statistica «perme e di elaborare informazioni generali riguardo ad una popolazione (per esempio, percentuali di disoccupazione, nascite, eccetera), il data mining viene utilizzato per cercare correlazioni tra più variabili relativamente ai singoli individui»29. Per esempio: sulla base del comportamento medio dei clienti di un operatore telefonico si cerca di prevedere quanto spenderà il cliente medio nell'immediato futuro. L'esempio citato non è casuale, perché storicamente il data mining viene lanciato inizialmente nell'allora nascente se ore della telefonia mobile, che si prestava particolarmente bene alla sperimentazione di questa tecnologia. Sia perché i servizi di telefonia mobi79

Giorgio Grizio i - Big emotional data

U

Parte I- Geopolitica e macroeconomia dei big data

le sono immateriali, automatizzati e producono grandi volumi di dati a disposizione dell'operatore, sia perché i comportamenti dei clienti di fronte a un nuovo medium di comunicazione sono sconosciuti e l'operatore, di fronte ai grandi investimenti di dispiegamento di nuove reti, vuole disporre di un'analisi predi iva. Da questo caso esemplare possiamo dedurre che i genomi dei big data si formino proprio nell'emergere della BI, nella concezione degli algoritmi e nell'implementazione tecnica dei DVH e del data mining. Ci sono, fra gli altri, due fa ori predominanti: il primo è il principio d'uso della ricerca di correlazione come modalità del funzionamento algoritmico, il secondo è la scelta d'alimentare i DVH/BIG DATA estraendo dalle nuove reti mobili le tracce dell'uso quotidiano dei clienti/utenti. Quest'ultimo punto ha un particolare significato biopolitico, perché dà vita alla famiglia algoritmica predi iva, basata sulle tecniche d'apprendimento automatico del machine learning. Una tecnica oggi estesa al punto che ogni app “traccia” in de aglio le nostre a ività coscienti o noncoscienti (come abbiamo accennato in precedenza) tramite nume30 rosi tracker. I tracker sono algoritmi nascosti “so o il web” e costituiscono una categoria molto diversa da quella, per esempio di Page Rank di Google che, ricercando «la forza sociale di una pagi31 na» nell'universo del web, si situa “al di sopra del web” e degli utenti, per stabilire un ordine meritocratico. Le riflessioni sulla nascita dei big data me ono in evidenza una similitudine con quanto abbiamo scri o32 sulla genesi delle grandi pia aforme che dominano internet. Big data e Megaplatform hanno una matrice comune che nasce nel contesto dell'espansione dell'informatica d'impresa prima di internet. I package dell'Enterprise Resources Planning (ERP) che estraggono il know how umano per riorganizzare, automatizzare (almeno in parte) e controllare l'a ività produ iva del lavoro cognitivo (e anche industriale) sono precursori delle grandi pia aforme. Queste ultime, so o la 80

copertura di servizi “gratuiti”, sono macchine di estrazione di know how e di plusvalore, che estendono le funzionalità di controllo e obie ivi finanziari dell'ERP all'esterno del recinto aziendale. In modo simile e parallelo, i DWH e gli algoritmi del data mining, che nelle aziende captano e stoccano l'informazione predi iva sui comportamenti dei clienti e del “mercato”, prefigurano la funzione dei big data a livello globale. La trasposizione delle nuove modalità di funzionamento biopolitico dell'impresa verso società e natura contribuisce inoltre a spiegare il declino del lavoro salariato e delle organizzazioni gerarchiche. La realizzazione neoliberista “dell'imprenditore di sé stesso” cerca d'incarnarsi proprio in questi passaggi dove procedure, applicazioni e algoritmi d'impresa vengono allargati alla società. Non c'è più bisogno di gerarchizzare e pagare stipendi e contributi sociali dell'epoca del welfare nel boom economico, visto che si sta me endo in a o l'estensione allo spazio-tempo delle forme di controllo, spesso volontario, di produzione gratuita e di assogge amento, che erano prima riservate ai soli salariati. I pac33 kage di gestione aziendali sono trasmutati nelle megaplatform dell'assogge amento sociale, e i DWH nei big data dell'asservimento macchinico e viceversa.

:

Se è vero che il neurocapitalismo esercita una delle sue principali azioni biopolitiche a raverso i flussi dell'ambiente bioipermediatico, allora quali sono le modificazioni e stimolazioni reciproche fra umani e reti? Qual è il ruolo dei dispositivi tecnologici nelle apparenti contraddizioni fra stimoli a comportamenti abitudinari e prevedibili e la produzione di sogge ività competitive e individualiste, compatibili con le logiche neoliberali? 81

Giorgio Grizio i - Big emotional data

B

Parte I- Geopolitica e macroeconomia dei big data

In che modo le simbiosi fra il sistema nervoso umano e le complessive reti ele roniche perpetuano il dogma della proprietà come fondamento costituzionale giuridico ed economico del mondo? Da tempo è stato messo in evidenza che i sentimenti e gli affe i fossero ingranaggi essenziali della produzione biocognitiva. Già negli anni '80 venivano pubblicati saggi sull'analisi sociologica della gestione delle emozioni nei se ori professionali, dove queste erano particolarmente importanti come per esempio quello, prevalentemente femminile, delle hostess nelle compagnie aeree pre-low cost34. In seguito, ritroviamo in molti scri i provenienti 35 dal movimento neo-operaista italiano, a cominciare da Impero , un'analisi politica sull'importanza degli affe i nella messa a lavoro della vita, senza però che, almeno in una prima fase, vengano approfondite le modalità e il ruolo invasivo delle ICT. Tu a la catena composta da sensazioni/percezioni (processi neurologici e psichici), emozioni (stati mentali e fisiologici), affe i/ sentimenti/umori (stati d'animo), è implicata in un'interoperabilità con i dispositivi di rete che, come sostengono le teoriche femministe del postumano, si muta in un'ibridazione umanomacchina. Si tra a di un divenire-macchina, oggi accompagnato da una forte tonalità politica. Una tonalità che ispira il termine neurocapitalismo come un capitalismo in cui tendenzialmente ogni anello della catena dei processi neuro-psico-fisiologici sopra accennati viene messo al lavoro nella creazione di valore. Diversi approcci si sono avvicendati, sovrapposti e integrati nella storia dello studio di affe i ed emozioni. La ricerca neuroscientifica e gli studi neuropsicologici hanno cominciato a essere più stre amente integrati, aprendo nuove e talvolta sorprendenti prospe ive. Benché, come fa osservare giustamente Tony D.

Sampson in una recente intervista³⁶, Antonio Damasio vada criticato per le sue collusioni con il neuromarketing, non possiamo negare che il neurofisiologo abbia dato ha dato un for82

83

Giorgio Grizio i - Big emotional data

te impulso a queste ricerche in una visione pluridisciplinare che implica filosofia, epistemologia e psico-sociologia, rendendole largamente accessibili tramite le sue qualità di divulgatore scien37 tifico . Mosso dall'intuizione di una so ovalutazione di sensazioni, emozioni e sentimenti, Damasio riesce a provare scientificamente L'errore di Cartesio38 – titolo del suo saggio più conosciuto – l'errore cioè della separazione ne a fra emozioni e razionalità. Osservando pazienti con lesioni cerebrali che menomano l'emotività e i sentimenti, Damasio nota una incapacità a condurre una vita normale e gestire lavoro e relazioni in «una perpetua violazione di quel che voi e io riterremmo socialmente appropriato e vantaggioso 39 dal punto di vista personale» . Dimostra come le emozioni siano parte costitutiva e indispensabile dell'intelle o, al contrario del pregiudizio corrente che «le decisioni solide scaturiscono da una mente fredda, e che emozioni e ragione non si mescolano di più che olio e acqua»40. Focalizzando sul ruolo di emozioni e sentimenti, Damasio considera che entrambi facciano parte di uno stesso processo ma che non vadano confusi, come spesso accade nell'interpretazione corrente. Secondo lo studioso americano di origine portoghese, i risultati delle sue ricerche scientifiche portano a dar ragione a Spinoza, a cui dedica un altro dei suoi saggi, quando quest'ultimo afferma a proposito di un affe o quale l'amore che «l'Amore è Gioia concomitante con l'idea di una causa esterna»41. Spinoza separa ne amente il processo costituito dal sentimento da quello che consiste nell'avere l'idea d'un ogge o che può causare 42 43 un'emozione . Anche Shakespeare , per Damasio, intuisce come le emozioni precedano i sentimenti e come esse si manifestino nel vasto teatro del corpo, e spaziando dalle espressioni facciali e dalle diverse posture, alle modificazioni che interessano i visceri e il milieu interno, mentre i sentimenti restano nell'ambito della mente.

Anche gli organismi semplici come gli inse i, che dispongono di un sistema nervoso estremamente limitato, hanno delle emozioni che provocano reazioni visibili, il che non significa che possano “sentirle” o averne coscienza.

Parte I- Geopolitica e macroeconomia dei big data

I sentimenti infa i non sarebbero altro che la consapevolezza dell'aver provato un'emozione, dell'essere stati perturbati da un ogge o, interno o esterno, che ha provocato nell'organismo una determinata reazione a un tempo biologicamente determinata e in parte culturalmente appresa, e quindi altro non sarebbero se non l'idea che il corpo sia in un certo stato. I sentimenti, ad ogni modo, non nascono solamente dalle emozioni ma sorgono a partire da qualsiasi reazione omeostatica del corpo traducendo tu o questo in una sorta di linguaggio della mente; non sono altro che percezione delle mappe cerebrali del corpo, di pensieri e di modalità del pensiero44

La messa in valore di emozioni e sentimenti nella razionalità umana non è evidentemente sfuggita alla “razionalità economica” (e forse dovremmo dire piu osto “all'emotività economica”) neoliberista, e sta diventando centrale nel processo di valorizzazione. Dal cognitivismo eravamo partiti con le tesi di Anderson sui big data e la fine delle teorie ed ora, logicamente, al cognitivismo torniamo con la scuola dell'economia comportamentale (Behavioral economics). Una scuola che, basandosi sulla psicologia cognitiva45 e con lo scopo di descrivere e spiegare perché in certe situazioni gli esseri umani ado ino un comportamento che può sembrare paradossale o non razionale, studia gli effe i dei fa ori psicologici, sociali, cognitivi ed emotivi sulle decisioni economiche degli individui e delle istituzioni e le conseguenze per i prezzi di mercato, i profi i e le allocazioni delle risorse.

84

Due premi Nobel per l'economia so olineano l'importanza dell'economia comportamentale nel neurocapitalismo: Daniel Kahneman nel 2002 e nel 2017 Richard Thaler, autodefinitosi un 46 «Paternalista libertario» . Questo è quindi il quadro nel quale algoritmi e tecnologie dei big data (sopra u o quelli socioeconomici) entrano in gioco, costituendo il principale meccanismo d'asservimento macchinico contemporaneo.

'

'

-

Le prime riflessioni sull'economia dell'a enzione vengono da Gabriel Tarde, che all'inizio del secolo scorso, di fronte alla sovrapproduzione industriale, nota la necessità di a irare l'a enzione per fissarla sulla cosa da vendere. Herbert Simon47 formula un conce o più preciso, che me e in evidenza una proporzionalità inversa tra informazione e a enzione, l'abbondanza della prima comporta una penuria della seconda. Con lo sviluppo delle reti e dei dispositivi mobili l'a enzione diventa frammentata e rara. Con il passare del tempo l'invasività delle interruzioni aumenta, e alla chiamata sul cellulare vocale si passa all'irrompere di un flusso continuo di mail, di spam, di chat, di notifiche, di bip e di trilli in provenienza dalle app. Una quantità d'informazioni che diventa impossibile da classificare, contenere, limitare, digerire ed eliminare, il che costituisce un contesto in cui si sviluppano stati di dipendenza o di servitù volontaria. Ci vuole la forza di volontà e anche i mezzi economici sufficienti per esercitare il diri o a discon48 ne ersi e a essere dimenticati, come sostiene Morozov . Al punto che digital disconnected diventa un nuovo status symbol urbano. La continua ricerca d'a enzione ha innanzitu o l'obie ivo di suscitare emozioni più intense possibile, sfru ando fra l'altro la gerarchia emotiva in cui per esempio paura e collera sarebbero più influenti di gioia e tristezza. Il legame fra la ca ura dell'a en85

Giorgio Grizio i - Big emotional data

D

Parte I- Geopolitica e macroeconomia dei big data

zione e la produzione di emozioni porta dall'economia dell'a enzione a quella delle emozioni e all'emergere di un web affe ivo49, che si sviluppa in connessione con il nuovo filone del neuromarketing. Il neuromarketing basa le sue ricerche sulla scarsa conoscenza dell'inconscio nel processo decisionale umano. Le ricerche di mercato classiche e i focus group non raggiungono sufficientemente la sfera inconscia, il che si traduce in sfasamenti tra i risultati della ricerca e l'effe ivo comportamento esibito dal target di mercato al momento dell'acquisto50. Combinando marketing, psicologia e neuroscienze, il neuromarketing si propone di analizzare anche i comportamenti inconsci per essere «in grado di o enere una conoscenza approfondita delle intenzioni». Per arrivare a tali scopi il neuromarketing esamina gli stati della mente e del corpo. In un primo tempo, gli esperimenti di neuromarketing si basano sopra u o sull'utilizzo di tecnologie da laboratorio e comunque implicano delle misurazioni di visualizzazione dell'a ività cerebrale51. In seguito, tali misure si estendono in generale a un gran numero di variazioni dello stato fisiologico. Due fa ori contribuiscono a tale allargamento e perme ono di percepire, analizzare e valutare emozioni e sentimenti rispe ivamente sul piano del corpo e della mente: i sensori biometrici52, che misurano sempre più de agliatamente gli stati e le posizioni del corpo. Sono dispositivi che portiamo su di noi o fanno parte del paesaggio bioipermediatico e possono essere disposti appositamente come le telecamere di controllo, o appartenere al mondo degli ogge i connessi (IOT); Ÿ i dati provenienti dai tracker, in senso lato, come le frequenze d'uso delle app, i siti consultati, le cara eristiche, le frequenze e le sequenze delle interazioni multimediali, gli a i compulsivi, i tempi di parola al cellulare, e quelli passaŸ

86

ti al computer, eccetera. Dati che, indicando i de agli dei comportamenti d'uso dei dispositivi mobili o no, forniscono informazioni su abitudini, modi di vita, umori, eccetera. In questa valanga di informazioni molte perme ono di misurare sempre più de agliatamente gli stati di corpo e mente, e sono all'origine dei Big Emotional Data che cambiano la natura dell'equazione che lega neuromarketing e big data. A questo punto il neuromarketing non è più soltanto dipendente da una ricerca qualitativa basata su test costosi e complessi, e con i Big Emotional Data dispone dei grandi volumi di correlazioni “emotive” per arrivare a riconoscimenti di pa ern (schemi) affe ivi ed emozionali. Un contesto che perme e d'anticipare non solo la decisione ma anche l'intenzione, e nel quale in funzione dell'umore dell'utente si può proporre il servizio o il prodo o più pertinente.

C

,

-

Le api non posseggono coscienza, ma solo un sistema neurale non specifico con una memoria a breve termine di capacità limitate che usa un neurotrasme itore53 per scambiare informazioni operative con il corpo. Uno studio comportamentale a loro dedicato mostra che, dopo un breve apprendimento54 esse sono in grado di scegliere, in base al colore, i fiori più carichi di polline. Il loro apparato rudimentale è in grado infa i di percepire uno stimolo in cui il cara ere a ra ivo è una ricompensa stabilita in modo innato (il polline) e di associare a questa ricompensa il colore (per esempio, il giallo dei fiori più carichi di polline). In seguito, quando il colore entra nel campo visivo dell'ape, l'apparato neurale manda i segnali al sistema visivo e motorio per realizzare la raccolta della ricompensa. Fino a quando l'uomo non interviene con i suoi veleni, 87

Giorgio Grizio i - Big emotional data

'

Parte I- Geopolitica e macroeconomia dei big data

questo sistema neurale semplice perme e di realizzare compiti complessi. Si tra a, secondo Damasio, di un “marcatore somatico”, che porta a una scelta non deliberata, ma dovuta a un sistema automatico di comando delle azioni in funzione delle preferenze. Anche gli umani, posti di fronte a una decisione, possono talvolta 55 provare una sensazione fisica sgradevole all'addome quando visualizzano mentalmente, in un a imo sfuggente, le possibili conseguenze nefaste di una delle scelte. Si tra a di uno stato somatico che agisce come contrassegno o marcatore di quell'immagine istantanea. I marcatori somatici fanno parte dei meccanismi emotivi automatici, che si formano nel corso di tu a la vita ma che si costituiscono più intensamente nell'infanzia e nell'adolescenza. Essi hanno, secondo Damasio, un'importanza fondamentale nel rendere efficaci i processi decisionali, riducendo le possibilità di scelta: La mia idea è che i marcatori somatici assistano il processo di cernita... Anzi, essi riducono il bisogno di cernita perché forniscono una rilevazione automatica dei componenti dello scenario che è più probabile siano rilevanti. Dovrebbe risultare così evidente l'associazione tra processi cosidde i cognitivi e processi chiamati emotivi56

Gli studiosi di economia comportamentale e della branca di neuroeconomia, non solo hanno implicitamente ado ato le tesi di Damasio sui marcatori somatici, ma sembrano volerle utilizzare a ivamente. Mentre Damasio evoca come le origini naturali dei marcatori somatici e i processi di educazione e di socializzazione umana, Thaler (il Premio Nobel a cui abbiamo accennato in precedenza) e Sunstein li fanno entrare in quelle economiche e politiche con il con57 ce o di nudge , trado o in italiano con “spinta gentile” (sic). Si tra a, per i neuroeconomisti, di creare degli opportuni marcatori 88

89

Giorgio Grizio i - Big emotional data

somatici capaci di “stimolare”, a raverso le emozioni, determinati comportamenti. La teoria del nudge trova applicazioni pratiche sia in politica che nel marketing. In pratica si tra a di creare dei marcatori che, so o un'apparente inoffensività (ma chi decide quanto essi siano “gentili” e inoffensivi?) influenzano i nostri comportamenti e le nostre scelte. Dei politici come Cameron e Obama hanno usato i nudge, ispirandosi alle teorie del Paternalismo libertario. Più recentemente, pare che il presidente francese Macron abbia usato un nudge, trado o in francese con coup de pouce, abolendo la “tassa dei ricchi” (ISF, Impôt sur les Grandes Fortunes)58 per orientare il grande capitale verso investimenti produ ivi. Nel marketing, l'uso combinato di big data – e in particolare quelli in provenienza dal Web affe ivo – apre con la teoria dei nudge nuove prospe ive sui livelli di asservimento macchinico indo o nel contesto delle reti e della trasformazione dell'Internet of Things in Internet of everything. Azioni ed esperimenti in questo senso non mancano, anche senza arrivare al caso limite di Facebook che modifica in parte le informazioni mostrate in bacheca per costatare e 59 misurare quale “contagio emotivo” avvenga a distanza . Resta comunque un fa o inquietante quando si intensificano i rumori di Zuckerberg come possibile prossimo candidato presidenziale USA. Le modalità marketing per istallare dei marcatori somatici certo non sono cosa recente: basti pensare alle operazioni commerciali del tipo Black Friday nel mondo anglosassone o Singles' Day in Cina. L'avere a disposizione i big data dei profili emozionali e affe ivi individuali e colle ivi conduce alla creazione di cybermarcatori somatici. Ci si può a endere che, conformandosi all'acce azione volontaria perseguita dal neurocapitalismo, le “spinte digitali gentili” dei cybermarcatori somatici siano più indolori, ma anche più imperce ibili di quelle violente e compulsive impiantate in Alex nella scena del “tra amento Ludwig van”60 di Arancia meccanica, a meno che…

Parte I- Geopolitica e macroeconomia dei big data

C Come tu e le tecnologie, i big data non sono neutri. Le modalità di estrazione e raccolta come quelle d'utilizzo politico-economico sono fortemente influenzate dalle teorie dell'economia comportamentale, del paternalismo libertario e del neuromarketing che fanno largamente uso della psicologia cognitiva e delle neuroscienze. Le capacità operative di gestione dei big data sono concentrate dai grandi operatori del Platform Capitalism. Il meno opaco dei casi è forse quello di Facebook, dove Zuckerberg, ponendosi come go61 vernatore globale dell'informazione sociale , lascia intravedere le intenzioni d'uso dei big data in suo possesso. In altri casi nessuna rivelazione pubblica traspare ma, per esempio, la nomina a dire ore dell'innovazione di Google di Raymond Kurzweil, responsabile dell'implementazione del software di machine learning Rank Brain62, è indicativa degli orientamenti dei giganti del web. Kurzweil è un genio assoluto, secondo il Wall Street Journal e Forbes63, ma un genio con qualche sregolatezza, visto che è anche un te64 orico del transumanesimo, del mind uploading e del singolarismo come trascendenza biologica tramite le tecnologie. In sintesi, una gran parte dei big data, un prodo o colle ivo di un comune costituito da società e natura, è espropriata e utilizzata nell'opacità come strumento di controllo politico e sociale, nonché di profi o dalle oligarchie politiche e finanziarie globali. In tale contesto, la svolta del web affe ivo, dei big emotional data e dell'economia delle emozioni non sta portando verso distopie alla Big Brother o alla Black Mirror, tipiche delle società disciplinari, anche se queste permangono e il proge o del governo cinese di a ri65 buire un punteggio social ai propri ci adini lo conferma. Il proge o neurocapitalista sembra più orientato verso un'acce azione volontaria, tramite l'asservimento macchinico inconscio della spinta gentile dei nudge premiati con il Nobel dell'economia. In fondo, la ribellione che porta alla caduta di regimi disciplinari fa 90

Giorgio Grizio i - Big emotional data

già parte della storia, mentre sollevarsi contro le servitù volontarie e le spinte gentili è un altro paio di maniche. In questo senso, anche nell'ambito del lavoro cognitivo è illusorio pensare che la sola “intelligenza colle iva” abbia una tale autonomia per liberarsi da queste forme raffinate di asservimento. Sino a che penseremo che l'organizzazione capitalista è inutile e inefficiente, senza riconoscere tu i i campi dove invece è di gran lunga in anticipo; proprio grazie alla partecipazione “volontaria” dell'intelligenza colle iva avremo cocenti delusioni. I big data tecnicamente sono una petamacchina66 in continua espansione, parte della stru ura delle grandi pia aforme del capitalismo. Questa infrastru ura assume proporzioni tali che viene spontanea una domanda: fino a che punto è realistico pensare che la rete delle iniziative autonome, un humus su cui fondiamo molte speranze, sia sufficiente per controbilanciare questa potenza solo dall'esterno? Se, magari volontaristicamente, rifiutassimo la visione “catastrofista” dei profeti del luddismo decrescista, resterebbe la questione reale dell'espropriazione degli espropriatori di big data per preparare lo stop definitivo allo sfru amento delle a enzioni, delle emozioni, degli affe i e per tornare alla sola economia possibile. Quella del possibile, appunto.

91

N

Parte I- Geopolitica e macroeconomia dei big data

1) Richard Stallman è il più noto esponente del movimento del software libero. Stallmann è il fondatore della Free Software Foundation e iniziatore del proge o GNU Linux. 2) «Il cellulare è il sogno di Stalin, diventato realtà». Richard Stallman, intervistato da Fabien Benoit, Le téléphone portable, c'est le rêve de Staline devenu réalité, in Usbeketrica, disponibile al link: usbeketrica.com/article/le-telephone-portable-c-est-le-reve-de-stalinedevenu-realite 3) Con big data intendiamo qui, e nel resto del documento, oltre ai processi d'estrazione, captazione e stoccaggio dei dati grezzi anche l'insieme delle operazioni di raffinazione tramite elaborazione algoritmica, mining eccetera. 4) Cellulari, smartphone, tablet, laptop, sensori, accessori indossabili, domotica, smart cities e in generale l'internet degli ogge i, sono alcuni degli elementi che popolano lo spazio-tempo del bioipermedia di cui abbiamo dato la seguente definizione: Bioipermedia è termine derivato dall'assemblaggio di bios/biopolitica e ipermedia, come una delle a uali dimensioni della mediazione tecnologica. Le tecnologie connesse ed indossabili, i cui ogge i popolano il territorio, ci so ome ono ad una percezione multisensoriale in cui spazio reale e virtuale si confondono estendendo ed amplificando gli stimoli emozionali. Entriamo nell'ambito in cui il corpo nella sua integralità si conne e ai dispositivi di rete in modo talmente intimo da entrare in una simbiosi in cui avvengono modificazioni e simulazioni reciproche

Giorgio Grizio i, Neurocapitalismo, mediazioni tecnologiche e linee di fuga, Mimesis, Milano 2016, p. 120. 5) «Information is the oil of the 21st century, and analytics is the combustion engine», Christy Pe ey, Gartner Says Worldwide Enterprise IT Spending to Reach $2.7 Trillion in 2012, in gartner.com, disponibile al link: gartner.com/newsroom/id/1824919 6) Chris Anderson, The End of Theory, in Wired, disponibile al link: wired.com/2008/06/pb-theory/ 92

93

Giorgio Grizio i - Big emotional data

7) Evgeny Morozov, Internet non salverà il mondo, Mondadori, Milano 2014. Si veda anche l'o ima recensione di Benede o Vecchi ne Il Manifesto, disponibile al link: ilmanifesto.it/evgeny-morozov-contro-la-favola-delleden-digitale/ 8) Quella che si chiude fra il '68 e l'89. 9) Si veda il paragrafo dedicato allo storico hackerspace Noisebridge in Michel Lallement, L'Age du faire, Seuil, Parigi 2015, p. 105. 10) Dominique Cardon (a cura di), A' quoi rêvent les algorithmes. Seuil, Parigi 2015, p. 69 (traduzione dell'autore). 11) Si veda per esempio il quotidiano francese Le monde (Corine Lesnes, Entre la Silicon Valley et les Américains, le climat a changé, in Le Monde, disponibile al link: lemonde.fr/pixels/article/2017/09/18/haro-sur-lasilicon-valley_5186999_4408996.html) o il New York Time (David Streitfeld, Tech Giants, Once Seen as Saviors, Are Now Viewed as Threats, in New York Time, disponibile al link: nytimes.com/2017/10/12/technology/techgiants-threats.html). 12) Emiliana Armano, Annalisa Murgia, Maurizio Teli, Platform Capitalism e confini del lavoro digitale, Mimesis, Milano 2017. 13) «In un asservimento macchinico, l'individuo non è più istituito come 'sogge o individuato', sogge o economico (capitale umano, imprenditore di sé stesso) o 'ci adino'. È invece considerato un pezzo, un ingranaggio, un componente del 'sistema impresa', del 'sistema finanziario', del 'sistema mediatico', del sistema 'Stato sociale' e delle sue 'stru ure comunitarie' (scuola, ospedale, caserma etc.). L'asservimento è un conce o che Deleuze e Gua ari hanno preso in prestito in modo esplicito alla scienza cibernetica e dell'automazione e significa 'pilotaggio' o 'governo' dei componenti di un sistema». Maurizio Lazzarato, Signs and Machines Capitalism and the Production of Subjectivity, Semiotexte, Los Angeles 2014, p. 5. 14) Definito in italiano “stimolo gentile” (gentile forse ma certamente occulto) e in francese con l'altre anto benevolo coup de pouce. 15) Lewis Mumford, Il mito della macchina, Il Saggiatore, Milano 2011. 16) A proposito di Platform Capitalism, si veda anche: Emiliana Armano, Annalisa Murgia, Maurizio Teli, Platform Capitalism e confini del lavoro digitale, Mimesis, Milano 2017, e Giorgio Grizio i, Megamacchine del neu-

Parte I- Geopolitica e macroeconomia dei big data

rocapitalismo. Genesi delle pia aforme globali, in Effimera.org, disponibile al link: effimera.org/megamacchine-del-neurocapitalismo-genesi-dellepia aforme-gobali-giorgio-grizio i/, e Benede o Vecchi, Il capitalismo delle pia aforme, Manifestolibri, Roma 2017. 17) Maurizio Lazzarato, Signs and Machines Capitalism and the Production of Subjectivity. Semiotext(e), Los Angeles 2014 18) Giorgio Grizio i, Neurocapitalismo, mediazioni tecnologiche e vie di fuga, Mimesis, Milano 2016, p. 51. 19) Vedi : it.wikipedia.org/wiki/Interfaccia 20) Op. cit. Lazzarato. Traduzione dell'Autore. 21) Anticipando quella delle altre dicotomie quali innato-acquisito, natura-cultura, corpo-mente o addiri ura vita-morte come tra ato in nelle teorie del Postumano o come P. Dick magistralmente evoca nel suo capolavoro Ubik (Philip K. Dick, Ubik, Fanucci, 1968). 22) Elias H. Porter, Manpower Development: The System Training Concept, Harper and Row, New York 1964, p. XIII. 23) Marshal McLuhan, Gli strumenti del comunicare, Il Saggiatore, Milano 1967. 24) «L'era della grafica fa saltare il catenaccio della razionalità imposto dalla scri ura e fa entrare il rapporto uomo-computer in una nuova dimensione. Il mouse, che libera parzialmente dall'utilizzo della classica tastiera, partecipa a questo mutamento grazie ad un'utilizzazione largamente intuitiva anche per un bambino, o una persona che non conosca la lingua di interfaccia». Giorgio Grizio i, Neurocapitalismo, mediazioni tecnologiche e vie di fuga, Mimesis, Milano 2016. 25) L'interfaccia degli schermi ta ili, dopo una genesi durata circa 20 anni, viene ado ata inizialmente su computer palmari (Casio PB 1000 nel 1987) e diviene realmente popolare con la console mobile di videogiochi Nintendo DS (2004) con più di 180 milioni di esemplari venduti. 26) Il recente scandalo Facebook-Cambridge Analytica in relazione all'utilizzo di Big Data in favore di Trump e del Brexit nelle rispe ive elezioni ha portato, forse per la prima volta, in primo piano mediatico mondiale la problematica che qui tra iamo. 27) Giorgio Grizio i, Neurocapitalismo, mediazioni tecnologiche e vie di fuga, Mimesis, Milano 2016. 28) H. P. Luhn, A Business Intelligence System, in IBM Journal 1958. 94

95

Giorgio Grizio i - Big emotional data

29) Fonte: wikipedia.it. 30) So o il web e so o l'uso di Internet in generale. Ricordiamo infa i che le app dei dispositivi mobili usano internet ma non appartengono al web. 31) Dominique Cardon (a cura di), A' quoi rêvent les algorithmes, Le Seuil, Parigi 2015. 32) Op. cit., Grizio i 2017. 33) Ibidem. 34) Un classico ora ripubblicato è il saggio di A. Russel Hotschild, che fra i primi apre la strada ad una sociologia degli affe i al lavoro. Il limite della sua opera è forse nella mancanza di distinzioni fra emozioni e sentimenti. Arlie Russell Hochschild, Per amore o per denaro. La commercializzazione della vita intima, Feltrinelli, Milano 2015; 35) Michael Hardt, Antonio Negri, Impero. Il nuovo ordine della globalizzazione, Rizzoli, Milano 2002. 36) Vedi link: effimera.org/neuropaesaggi-digitali-intervista-tony-dsampson-cura-rizosfera/ 37) Antonio Damasio, L'errore di Cartesio. Emozione, ragione e cervello umano, Adelphi, Milano 1995; Antonio Damasio, Il sé viene alla mente. La costruzione del cervello cosciente, Adelphi, Milano 2012; Antonio Damasio, Alla ricerca di Spinoza. Emozioni, sentimenti e cervello, Adelphi, Milano 2003. 38) Antonio Damasio, op. cit., 1995. 39) Antonio Damasio, op. cit., 1995, pp. 17-18. 40) Ibidem. 41) Baruch Spinoza, Etica, Editori Riuniti, Roma 1988, p. 220. 42) Antonio Damasio, 2003, op. cit., p. 18. 43) Shakespeare, quando nel Riccardo II, il re, guardandosi allo specchio fa notare che l'apparenza esterna della sofferenza che si esprime sul suo volto non è che «il mero riflesso dello strazio invisibile che si gonfia in silenzio entro un'anima torturata». 44) Giovanni Castiglione, Emozione e sentimenti nel pensiero di Antonio Damasio. Riflessioni pedagogiche, RTH – Sezione Evolving Education, 2015. Disponibile al link: serena.unina.it/index.php/rth/article/download/2869/3004

Parte I- Geopolitica e macroeconomia dei big data

45) Approcci che confermano pienamente la critica di Deleuze e Gua ari sulla frammentazione capitalista dell'individuo in dividuale e della metafora della mente umana come di un software che elabora informazioni provenienti dall'esterno (input), restituendo a sua volta informazioni (output). 46) Richard H. Thaler, Cass R. Sunstein, Libertarian Paternalism Is Not an Oxymoron, The University of Chicago Law Review, Chicago 2003. 47) Premio Nobel dell'economia (1978) ricercatore nei campi della psicologia cognitiva, dell’informatica, dell’economia, del management e della filosofia della scienza. 48) Evgeny Morozov, So you want to switch off digitally? I'm afraid that will cost you…, in The Guardian, 2017. Disponibile al link : theguardian.com/commentisfree/2017/feb/19/right-to-disconnectdigital-gig-economy-evgeny-morozov 49) Si veda a questo proposito Camille Alloing, Julien Pierre, Le Web affectif, une économie des émotions, INA editions, 2017. 50) Sharad Agarwal, Tanusree Du a, Neuromarketing and consumer neuroscience: current understanding and the way forward, Springer, Berlino 2015. 51) A raverso sistemi di risonanza magnetica funzionale (fMRI, Functional Magnetic Resonance Imaging) o di ele roencefalografia (EEG), per comprendere cosa effe ivamente accada a livello neurocognitivo in risposta a determinati stimoli emozionali; 52) Alcuni esempi di captazione: la codifica facciale via webcam per categorizzare l'espressione fisica di emozione, l'eye tracking per identificare l'a enzione focale, misurazione della frequenza cardiaca e della frequenza respiratoria, misura della risposta galvanica della pelle, il posizionamento GPS, le velocità con cui ci spostiamo, le distanze percorse eccetera. 53) L'octopamina, che in qualche modo ricorda la dopamina utilizzata dai mammiferi, umani compresi. 54) Dopo tre sole raccolte. 55) L'addome è un centro di manifestazione fisica delle emozioni. 56) Antonio Damasio, op. cit., 1995, p. 247. 57) Richard H. Thaler, Cass R. Sunstein, Nudge. La spinta gentile. La nuova strategia per migliorare le nostre decisioni su denaro, salute, felicità, Feltrinelli, Milano 2009. 96

97

Giorgio Grizio i - Big emotional data

58) Il governo Macron ha abolito l'imposta sulle grandi ricchezze e mantenuto solo la parte che riguarda le grandi proprietà immobiliari (alla fine si tra a di una riduzione del 75% delle tasse sul capitale). Si veda a questo proposito l'articolo del 2017 La Finance comportementale, le nudge et Emmanuel Macron tra o dal sito neoliberista Atlantico andlil.com/finance-comportementale-nudge-emmanuel-macron202052.html 59) Redazione, Facebook, l'esperimento segreto sulle emozioni di 700mila utenti, in Il fa o Quotidiano, 2014. Disponibile al link: ilfa oquotidiano.it/2014/06/30/facebook-lesperimento-segreto-sulleemozioni-di-700mila-utenti/1044655/ 60) «La cura consiste nella somministrazione di farmaci unita alla visione di lungometraggi dove sono contenute scene di violenza. La visione delle pellicole è "obbligata" dalla posizione di Alex, posto legato a breve distanza dallo schermo e con delle pinze che lo costringono a tenere gli occhi aperti e, insieme all'effe o dei farmaci, inizia a provocare in lui delle sensazioni di dolore e di nausea che tendono ad aumentare a mano a mano che il tra amento prosegue fino a coinvolgere, oltre alle immagini di violenza e di sesso , anche la musica di so ofondo della proiezione che, durante la visione di un documentario su Hitler, è la nona Sinfonia di Beethoven». (da Wikipedia). In seguito, Alex proverà una nausea paralizzante davanti a tu e le scene di violenza. Stanley Kubrick, (regia di) Arancia Meccanica [Film], 1971. 61) Mark Zuckerberg, Building Global Community, 2017, disponibile al link: facebook.com/notes/mark-zuckerberg/building-globalcommunity/10154544292806634 62) Si veda a questo proposito Olivier Er scheid, L'appetit des géants, C&F Editions, 2017. 63) William Bulkeley, (1989-06-23). Kurzweil Applied Intelligence, Inc, in The Wall Street Journal: «Among the leaders is Kurzweil, a closely held company run by Raymond Kurzweil, a restless 41-year-old genius who developed both optical character recognition and speech synthesis to make a machine that reads aloud to the blind», disponibile al link: forbes.com/asap/1998/0406/017.html

Parte I- Geopolitica e macroeconomia dei big data

64) Citazione di Kurzweil sul mind uploading (Traduzione dell'autore): «Scaricare un cervello umano significa acquisire tu i i de agli essenziali e quindi installarli su un sistema informatico sufficientemente potente. Questo processo ca urerebbe l'interezza della personalità, della memoria, dei talenti, della storia di una persona». Ray Kurzweil, Humanity 2.0, the Bible of Change, 2007. 65) Dile a Parlangeli, La Cina darà un punteggio social ai suoi ci adini dal 2020, in wired.it, 2017. Disponibile al link : wired.it/internet/web/2017/10/25/cina-punteggio-social-ai-ci adini2020/ 66) Per analogia con il petabyte (PB 1015 bytes) che è l'unità di misura comunemente utilizzata per misurare il traffico dati mondiale (totale del traffico Internet nel 2013 =1836 PB.

98

Cina e big data di Simone Picenni

D

Parte I- Geopolitica e macroeconomia dei big data

N

el 2006 a Shanghai avevo aiutato un amico cinese, un product manager di una società di marketing, nella sua a ività di consulenza per una nota azienda automotive straniera. Il mio amico aveva bisogno di trovare database di profili high spending su cui effe uare successivamente a ività di data mining, creando dei cluster da presentare al cliente per un'a ività di CRM (Customer Relationship Marketing), una forma di direct marketing più evoluta. Al cliente interessavano dati di persone su cui fare a ività di pushing per acquistare auto. A me la storia interessava perché – arrivato da poco in Cina – mi era parsa un'o ima occasione per immergermi in meccanismi tipici della società cinese, per quanto riguardava metodi di lavoro, relazioni di tipo commerciale e l'a itudine locale al business. Seguendo il “caso” ben presto venne fuori, in modo chiaro e immediato, un problema: in Cina sembrava che nessuno custodisse dei dati, tanto meno in forma digitale. Il mercato dava l'idea di essere talmente grande che pareva non esserci bisogno di segmentazioni, di analisi profonde e predi ive su eventuali acquisti da parte dei ci adini. Esaminammo alcune case histories, a raverso interviste a competitor del cliente. Scoprimmo, ad esempio, che una famosa casa produ rice di automobili aveva raddoppiato le vendite nei propri concessionari, semplicemente inserendo l'indirizzo e il numero di telefono in tu e le “Pagine gialle” cinesi del paese. Alcuni acquirenti, residenti in ci à e regioni lontane da Pechino e Shanghai, chiamarono subito il concessionario, ordinando via telefono le autove ure. A quel punto il mio amico ebbe un'intuizione: si rivolse a un suo conta o presso quello che potremmo definire l'ufficio di motoriz100

Secondo i dati forniti nel 2017 dal China Internet Network Information Centre, oggi il 96,3% del totale di persone che si collega alla rete in Cina lo fa via smartphone. La penetrazione cresce ormai anche nelle zone un tempo “rurali” e oggi risultato di anni di urbanizzazione delle ci à di medio e piccolo livello; ma, anche nelle campagne, ormai si acquista on line e si utilizza la rete, per lo più a raverso telefoni cellulari. La crescita dell'internet cinese è stata clamorosa e mastodontica. Può apparire – a un primo sguardo – perfino una contraddizione: nel paese della “censura” dei contenuti, c'è il mercato web più grande al mondo. Questo primo dato, dunque, dovrebbe farci subito comprendere una cara eristica della rete cinese, utile per capire anche lo sviluppo che la Cina pare vorrebbe dare, benché appaia più come un desiderio che un'azione effe iva, all'utilizzo dei big data. I cinesi vanno on line, da sempre, principalmente per chiacchierare, comprare, giocare a videogames. Non per informarsi. 101

Simone Picenni - Cina e big data

zazione locale, chiedendo i dati di chi avesse registrato negli ultimi anni acquisti di macchine superiori a un certo costo. Naturalmente era tu o illegale, compresa la “parcella” dovuta al solerte funzionario. Quando il mio amico si recò a ritirare “la documentazione” non si aspe ava certo di trovarsi di fronte il suo conta o con una risma di fogli in mano: in ogni pagina un fi o elenco scri o a mano, di nomi, indirizzi, numeri di telefono. Undici anni dopo, la Cina ha 751 milioni di utenti internet, di cui la maggior parte accede alla rete via smartphone. Se si entra in un supermercato, oggi, si viene subito subissati di messaggi pubblicitari sul proprio telefono. Quasi sono spariti i soldi in Cina: si paga tu o tramite WeChat, la killer application locale che nel mondo esterno si è riproposta come facilitatrice per le aziende straniere all'ingresso nel mercato cinese. Cosa è successo in questi undici anni?

Questa ampia parte di popolazione non poteva che a irare l'a enzione dei vertici politici nazionali. È in particolare con Xi Jinping, l'a uale presidente al potere dal 2012, che la Cina ha elaborato nuove forme di utilizzo della rete e dei suoi dati, insieme alla partecipazione delle big companies, Pechino sta ormai sviluppando tanto un mercato industriale sui big data, quanto un sistema di “credito sociale” che – partito come semplice punto di riferimento finanziario – viene considerato oggi una sorta di potenziale “Big Brother”, per quanto ancora vago e decisamente in via di definizione.

Parte I- Geopolitica e macroeconomia dei big data

S Appena giunto alla presidenza della Repubblica popolare nel marzo del 2013 (dal novembre 2012 era già segretario del partito comunista cinese), Xi Jinping ha so olineato alcuni aspe i fondamentali, dal suo punto di vista, circa le politiche cinesi sulla rete spingendo come mai è stato fa o in precedenza sul conce o di “sovranità digitale”. Questo principio, insieme a quelli legati alla necessaria “sicurezza” della rete in Cina, è diventato un assunto imprescindibile per l'a uale dirigenza; secondo gli osservatori della Cina contemporanea troverebbe un posto tra le priorità del governo di Xi Jinping. Pechino in questa ba aglia non è da sola: nel 2009, quando venne fondata la Shanghai Cooperation Organization (SCO), fu Mosca, insieme alla Cina, a so olineare la necessità di porre la cybersecurity al primo posto della propria agenda. In un documento di agreement allo SCO, veniva so olineata la necessità di contrapporsi a quelle tecnologie «che possono interferire negli affari interni degli stati, minarne la propria sovranità e la stabilità economica, politica e sociale». Per la Cina, naturalmente, non si tra a solo di un discorso geopolitico: sia nell'ambito dei servizi in rete, sia nell'ambito, come 102

103

Simone Picenni - Cina e big data

vedremo, dei big data, Pechino ha un business da difendere da competitors stranieri: la sovranità digitale è una forma di protezionismo affinché il mercato gigantesco del paese non venga spolpato da aziende straniere e rimanga invece a disposizione di quelle cinesi, molte delle quali hanno una partecipazione statale, molte delle quali sono facilmente controllabili dai gangli infiniti del Partito. Non a caso la legge sulla cybersicurezza – in discussione a Pechino da molto tempo – è stata approvata definitivamente nel novembre 2016 dal “parlamento” cinese ed è a iva dal primo giugno 2017. Il nuovo provvedimento, motivato dalla necessità di garantire la sicurezza informatica del paese – con un chiaro riferimento agli a acchi hacker partiti da sistemi “stranieri” (leggi Stati Uniti) – istituisce in realtà un controllo ferreo da parte di Pechino soprattu o sulle aziende straniere, obbligate a tenere tu a quanta l'a ività di raccolta dei dati in Cina su server cinesi. Questo dovrebbe accadere con la garanzia, secondo Pechino, di un utilizzo rispe oso dei dati, in funzione della privacy dei ci adini (sulla quale anche molti avvocati e a ivisti cinesi, invece, insistono nel riscontrare una completa mancanza di normativa chiara ed effe iva, come vedremo nell'ultima parte del capitolo dedicata ai cosidde i social credits). Come al solito ogni provvedimento cinese può essere interpretato in modo diverso, a seconda della latitudine dalla quale si osserva la legge: secondo una logica tu a occidentale – che definisce «liberticida» qualsiasi norma arrivi da Pechino – anche questa nuova legge sarebbe quindi un coacervo di decisioni tese a controllare sempre di più non solo i ci adini ma anche le aziende straniere, favorendo così il business delle local companies impegnate nel se ore; secondo una logica tu a cinese, – che tende invece a giustificare qualsiasi a o stabilito dalla dirigenza – la legge è al passo con i tempi e semplicemente garantisce, finalmente, gli interessi

Parte I- Geopolitica e macroeconomia dei big data

specifici cinesi. In questo caso i sostenitori del governo si muovono ripetendo un mantra conosciuto: la Cina si difende, non a acca. E sopra u o: in Cina esistono delle leggi cui gli stranieri devono ada arsi. Bisogna specificare, però, che in questo caso la legge presenta indubbie contraddizioni con la posizione «globale» e antiprotezionista della Cina. Se infa i Xi Jinping – con il suo discorso a Davos nel gennaio 2017 – si era autoinvestito del ruolo di difensore della globalizzazione in un'o ica di contrasto al protezionismo (dichiaratamente, almeno a parole, anticinese) da parte di Trump, questa legge invece non fa che provare a difendere interessi economici nazionali, dopo aver lasciato parecchio spazio, fino ad ora, ad aziende straniere pronte a investire e arricchirsi a raverso l'immenso mercato internet cinese (oltre 700 milioni di utenti). Si tra a dunque di un provvedimento fondamentalmente protezionista. Secondo le aziende straniere la nuova legge sarebbe sbagliata e nel lungo periodo finirà per sfavorire investimenti e business in Cina; tanto che non pochi, contrariamente a quanto di solito accade di fronte a nuovi provvedimenti legislativi da parte del PCC, hanno tentato di agire sulle autorità cinesi per uno sli amento dell'entrata in vigore della legge. Ma la dirigenza pechinese è andata avanti ugualmente: da un lato c'è infa i l'indubbia volontà a controllare che i dati raccolti in Cina rimangano in Cina, adducendo anche ragioni di sicurezza nazionale, dall'altro c'è sicuramente l'intenzione di favorire in alcuni se ori le aziende cinesi, sopra u o quelle come Alibaba o Tencent, che con questa legge potrebbero perme ersi di aumentare ancora di più il proprio giro d'affari per quanto riguarda la fornitura di server, me endo in difficoltà le varie Amazon e Microsoft. Oltre alle aziende, anche le camere di commercio di molti paesi hanno espresso dubbi a raverso una le era comune indirizzata a 104

105

Simone Picenni - Cina e big data

Pechino. Tu i hanno so olineato il rischio che il provvedimento rischi di minare “la concorrenza e la privacy dei ci adini cinesi”. È stato anche fa o notare che, mentre in un primo momento, le aziende so oposte alla regolamentazione che proibisce l'uscita dei dati fuori dalla Cina sembravano solo quelle operanti in alcuni “se ori cruciali”, successivamente a metà aprile è stata invece allargata a ogni network operators: questo significa che anche un servizio mail, o una piccola azienda di e-business sarà so oposta alla legge. Naturalmente in Cina sono tu i d'accordo: proteggere il proprio business, le proprie aziende e i dati dei propri ci adini è fondamentale, come ha specificato a Bloomberg Li Yuxiao, professore all'università di poste e telecomunicazioni di Pechino: utilizzare “macchine” nazionali e tenere i dati in Cina eviterà spiacevoli inconvenienti dovuti a intromissioni esterne. Di sicuro Pechino porta l'acqua al proprio mulino: rimane però sorprendente la reazione delle aziende straniere, che dopo anni di business in Cina – fru uoso e su cui hanno costruito fa urati rilevanti – si dicono «sorpresi» di fronte all'ennesima dimostrazione di “sovranità digitale” cinese. In ballo non ci sono solo business aziendali, ma una partita più ampia legata alla sfida tecnologica che la Cina ha posto alla base del suo sviluppo futuro. Insieme alla legge sulla cybersicurezza, in Cina, si discute anche di un provvedimento che aumenterebbe e non poco le facoltà dell'intelligence locale riguardo controlli e operazioni contro le “minacce nazionali” (anche a raverso modelli predi ivi che nelle intenzioni ricordano il film Minority Report e i precog). In a esa dell'evoluzione del provvedimento, si può notare come la legge spinga per consentire l'emersione “legale” di pratiche diffuse da parte della polizia cinese e fino ad ora effe uate al di fuori di un quadro normativo legale.

Parte I- Geopolitica e macroeconomia dei big data

“V



Nel maggio 2017 Jack Ma, miliardario cinese in quanto presidente e fondatore del gigante Alibaba, durante la conferenza sui big data a Guiyang, nel Guizhou, ha specificato che «Se me i da parte l'analisi dei dati, l'innovazione di ogni organizzazione è sostanzialmente una conchiglia vuota. L'esame dei big data perme e di anticipare e pianificare e ha reso possibile ridefinire un'era di cambiamenti, sempre nel prossimo trentennio». Jack Ma ha molti interessi al riguardo e sa bene come muoversi nel mondo politico cinese. Con queste affermazioni ha sostanzialmente raccolto il testimone lanciato da Pechino: la Cina – come si legge su ifinanceweb.com – punta a triplicare il giro d'affari nell'industria dei big data entro il 2020: l'obie ivo è il trilione di yuan, circa 145 miliardi di dollari entro il 2020. Anche per questo la regione meridionale cinese del Guizhou, aspra e montana, molto indietro economicamente rispe o ad altre amministrazioni, è diventata la capitale cinese per quanto concerne i big data. Grazie a politiche favorevoli nei confronti delle aziende e una natura complice per garantire le temperature necessarie, numerose aziende hanno trasferito lì le proprie stru ure, alla ricerca di condizioni perfe e per custodire la loro mole di informazioni. Per quanto considerati virtuali, i big data hanno bisogno di spazio fisico e – possibilmente – di bassi costi energetici. A Guiyang, capoluogo della regione del Guizhou, si è tenuto il Big Data Industry Expo 2017. Aziende, operatori e funzionari si sono confrontati sulle possibilità future e sugli affari relativi ai big data. La ci à è stata soprannominata dalla stampa cinese la Big Data Valley cinese. In parte, l'operazione del Guizhou ricorda quella che fece a Chongqing l'allora segretario di partito, poi epurato, Bo Xilai con le aziende high tech: si tra a di rendere la regione molto appetibile 106

in termini fiscali e per il basso costo dei terreni per quelle aziende che hanno bisogno di spazio dove tenere questa mole di dati: parliamo di stru ure che al loro interno hanno server dove vengono immagazzinati tu i i dati. Ormai i big data sono onnipresenti in Cina come in molti altri paesi: mappe, servizi, svago, social network, cloud, prestazioni lavorative, tu o avviene a raverso la rete e app che finiscono per caricare i server di moltissimi dati. Nell'aprile 2017 Allen Han, della Tsinghua University Institute for Data Science, ha de o al South China Morning Post che i big data insieme al cloud computing e all'intelligenza artificiale costituiscono le possibilità per gli imprenditori cinesi di crescere, in un territorio nel quale non esistono ancora monopoli.

La regione è la sede di un numero sproporzionato – circa 60 milioni – dei cosidde i bambini left-behind, figli di genitori emigrati nelle grandi ci à e lasciati alle cure dei parenti rimasti in campagna. Ma la provincia sta perseguendo una strategia ambiziosa per guadagnare la ribalta nel se ore high-tech cinese. E ha scelto i big data come se ore che può sfru are al meglio i propri vantaggi naturali. La storia del Guizhou illustra come in Cina siano ancora oggi presenti, simultaneamente, molteplici epoche di sviluppo. Mentre 107

Simone Picenni - Cina e big data

Quanto a Guiyang, ha telecamere di controllo ovunque, ma i suoi funzionari rassicurano circa la privacy dei propri ci adini. Nessuno infa i sembra preoccupato perché una parte della regione sta le eralmente volando in termini economici. La politica locale è stata in grado di effe uare un piccolo capolavoro: in una regione che per metà è ancora considerata so osviluppata e la cui economia è tra le più povere di tu e le regioni cinesi, ha saputo creare un motore economico di sviluppo a raverso il proprio territorio. Come ha scri o Anthony Kuhn su Npr.org,

Parte I- Geopolitica e macroeconomia dei big data

alcune parti del Guizhou sono rimaste impantanate nella fase pre-industriale, altre stanno entrando nell'era spaziale. Inoltre, illustra come la Cina stia cercando di aggiornare le sue industrie, dalle fabbriche ad alta intensità di manodopera che producono merci per l'esportazione, a tecnologie di qualità e società di servizi

Ad approfi arne non sono pochi: Alibaba, Qualcomm, IBM, Huawei, Tencent, Baidu, Lenovo e Foxconn hanno già propri data center nella regione. Dal 2014 sono almeno 400 le società che si sono sistemate nel Guizhou. Incentivi fiscali, minori costi energetici, grazie alle risorse della regione, intere zone adibite alla possibilità di costruirvi complessi industriali, un sostegno fondamentale dal governo centrale per le creazioni di quelle infrastru ure necessarie perché il Guizhou possa essere facilmente raggiungibile, ferrovie e strade e l'allacciamento alla rete nazionale. Un esempio è il Green Data Tunnel di Foxconn: il centro è situato su una terrazza in cui il clima monsonico e l'altitudine consentono di avere una temperatura ideale. Il tunnel inoltre, situato tra due montagne, sfru a il vento naturale: in questo modo i 6.000 server contenenti dati possono ricevere, gratuitamente, un raffreddamento naturale. Dove me ere i server contenenti molti dei dati, in futuro, sarà sempre più un problema: trovare spazi e costi energetici contenuti sarà la sfida di molte aziende il cui business dipende specificamente dalla raccolta e la rielaborazione di dati. La Cina, con le sue vaste aree solitamente considerate povere e senza la possibilità di entrare nei circuiti economici verso l'esterno del paese, potrebbe offrire soluzioni. Sempre che la recente legge sulla cybersicurezza, che obbliga a usare server cinesi e vieta la vendita a terzi dei dati raccolti in Cina, non costituisca un intoppo. Ma per ora molte aziende stra108

niere hanno preferito la possibilità di avere una diminuzione dei costi su terra ed energia, acce ando dunque le regole imposte di Pechino. Questo sarà un ambito sul quale in futuro il confronto sarà serrato, trasferendo nella tecnologia probabili sfide di natura geopolitica.

:

B

B

Alibaba, negli anni scorsi, ha lanciato un programma definito Sesame point: sulla base degli acquisti effe uati sulla pia aforma on line, l'utente veniva tracciato guadagnando punti. L'obie ivo di Alibaba era molto semplice: oltre che un gigante mercato on line, da qualche tempo l'azienda offre anche servizi di microcredito, prestiti, fidi. La necessità era dunque quella di assicurarsi che potenziali fruitori dei “prestiti” potessero dimostrare di essere in grado di saldarli nei tempi concessi dalla tipologia di contra azione. Quale metodo migliore se non tracciare gli acquisti dimostrando così l'affidabilità – o meno – di un utente e quindi la possibilità di offrire piani di prestito certi di vedersi restituiti soldi e interessi? Ma, si è chiesto qualcuno, cosa succederebbe se a un certo punto, dalla disponibilità economica dell'utente si passasse alla sua affidabilità di ci adino? Ad esempio, un potenziale utente è patrio ico? Compra prodo i cinesi o stranieri? E allora: se si presentasse a un colloquio di lavoro, perché non usare i dati raccolti su di lui per farsi un'idea della sua personalità, affidabilità, dedizione alla causa, al lavoro? E che amici ha? Si è cominciato così, almeno da tre anni, a parlare di social credit in Cina: un'analisi dei dati capace di raccogliere non solo elementi di pura natura economica, ma perfino sociale. Nonostante alcuni articoli sul tema abbiano tra eggiato futuri distopici, in realtà questo sistema per ora rimane ancora confuso o quanto meno in fase di studio. Quel che conta, 109

Simone Picenni - Cina e big data

I

Parte I- Geopolitica e macroeconomia dei big data

però, è che effe ivamente se ne sta parlando e che il governo avrebbe deciso: la People's Bank of China è stata deputata a creare un credit rating center nel quale lavorare alla formazione di un “sistema di social credits”. E non solo, perché alcune compagnie avrebbero o enuto una licenza proprio dalla banca per utilizzare e accedere ai record degli internet users per sviluppare il proprio sistema di social credits. Secondo il Financial Times, tu o questo sta portando all'utilizzo di questi dati non solo per riferirsi a prestiti, ma per riferirsi ad a ività extra finanziarie. «Una separata iniziativa del governo, infa i, ha intenzione di usare i big data per valutare non tanto la solidità economica dei ci adini, quanto la loro onestà e affidabilità». Secondo Anne Stevenson-Yang, a capo di J Capital Research, in realtà, questo sistema dei social credits basato sui big data sarebbe «un desiderio espresso in modo molto chiaro dal presidente Xi Jinping nella sua ricerca di un controllo totale sulla pubblica moralità». Del resto, si può pure osservare un'altra cara eristica: questo sistema invasivo di controllo sociale e personale non sarebbe certo una novità per i cinesi; in una ricerca compiuta proprio da Anne Stevenson-Yang, si me e in risalto che la sorveglianza eventualmente scatenata dal sistema dei social credit non sarà così diversa da quella messa in piedi durante l'epoca di Mao. Controlli che perdurano nelle consuetudini sociali ancora oggi, a raverso il sistema di hukou (il certificato di residenza interno, da cui dipendono anche i vantaggi del poco welfare rimasto) per i cinesi e di registrazione, presso il posto di polizia, ad ogni spostamento per gli stranieri. «Credo che il governo cinese a un certo punto si sia reso conto di tu i i dati che possono essere raccolti a raverso internet e il traffico mobile e abbia pensato “diavolo ma perché non prendersene un po' di questi dati”», ha sostenuto Rogier Creemers, lecturer di politica cinese a Oxford. Lo stesso Creemers specifica però 110

Simone Picenni - Cina e big data

che «è veramente troppo presto per giudicare questo sistema di social credits» perché ad ora non si conosce quale sarà il match tra le a ività delle aziende private e quelle degli uffici governativi. Negativo al riguardo, naturalmente, il giudizio di Hu Jia, noto dissidente cinese: «questo sistema che potrebbe essere descri o come positivo, diventa diabolico quando di mezzo c'è uno stato autoritario, senza alcun conce o di privacy e difesa dei dati personali». Stessa argomentazione che avrebbe de o all'agenzia di stampa statale il responsabile per la Bank of China dei programmi di social credits. Una diffidenza – dunque – che sposta ancora un po' in là il rischio che l'utilizzo dei big data in Cina possa diventare un presente possibile dai tra i sempre più totalitari.

111

Parte II

La teoria è morta, evviva la teoria! L’analisi dati nella ricerca Il ragno compie operazioni che assomigliano a quelle del tessitore, l'ape fa vergognare molti archite i con la costruzione delle sue celle e di cera. Ma ciò che fin dà principio distingue il peggior archite o dall'ape, migliore è il fa o che egli ha costruito la celle a nella sua testa prima di costruirla in cera. Alla fine del processo lavorativo emerge un risultato che era già presente all'inizio nell'idea del lavoratore che quindi era già presente idealmente. Karl Marx, Il Capitale

Pratiche scientifiche ai tempi del capitalismo di pia aforma di Emanuele Cozzo

Questo è un mondo in cui enormi quantità di dati e la matematica applicata sostituiscono ogni altro strumento che potrebbe essere utilizzato. Fuori con [Out with] ogni teoria del comportamento umano, dalla linguistica alla sociologia. Dimenticate la tassonomia, l'ontologia e la psicologia. Chi sa perché le persone fanno quello che fanno? Il punto è che lo fanno, e possiamo monitorarlo e misurarlo con una fedeltà senza precedenti. Con dati sufficienti, i numeri parlano da soli

Parte II - La teoria è morta, viva la teoria!

C

osì profetizzava nel 2008 Chris Anderson, all'epoca editore di Wired, in un noto e lungamente discusso editoriale della rivista dal titolo definitivo La fine della Teoria: Il dilu1 vio di dati rende il metodo scientifico obsoleto . A dieci anni di distanza, immersi come siamo nella retorica trionfale circa l’intelligenza artificiale, algoritmi e big data, la profezia si è solo apparentemente realizzata, mentre quello che si è aperto continua a essere un campo di ba aglia. «L'uomo [sic], da quando esiste, interagisce con la realtà esterna in due modi, percependola e trasformandola, ossia con l'osservazione e la tecnologia». esordiscono Alessandro Della Corte e Lucio Russo in un prezioso libre o di introduzione al metodo scientifico. «La novità essenziale che cara erizza la scienza – proseguono – […] è la creazione di “teorie scientifiche”. Si crea cioè un secondo piano di discorso, “teorico”, a fianco di quello che descrive gli ogge i concreti»2.

114

La capacità di raccogliere e analizzare enormi quantità di dati ha trasformato in modo inequivocabile campi come la biologia e la fisica. L'emergere di una tale "scienza sociale computazionale” basata sui dati è stata molto più lenta, ampiamente guidata da pochi intrepidi computer scientists, fisici e scienziati sociali. Se si dovessero esaminare le principali riviste disciplinari in economia, sociologia e scienze politiche, ci sarebbe una minima evidenza di una scienza sociale computazionale emergente impegnata nella modellizzazione quantitativa di questi nuovi tipi di tracce digitali [quelle lasciate dagli utenti su social network, mail, ecommerce, eccetera. NdA]. Tu avia, la scienza sociale computazionale sta avvenendo, e su larga scala, in luoghi come Google, Yahoo e la National Security Agency. La scienza sociale computazionale potrebbe facilmente diventare il dominio quasi esclusivo di aziende private e agenzie governative. In alternativa, potrebbe emergere un modello alla Dead Sea Scrolls, con un insieme privilegiato di ricercatori accademici che siedono su dati privati dai quali producono articoli scientifici che non possono essere criticati o replicati. Nessuno dei due scenari servirà l'interesse pubblico a lungo termine per l'accumulazione, la verifica e la diffusione della conoscenza3 115

Emanuele Cozzo - Pratiche scientifiche ai tempi del capitalismo di pia aforma

Se assumiamo questa definizione operativa, la profezia di Anderson riguarda la morte della scienza, più che la fine della Teoria. Nel tipico stile tecnolibertario della rivista californiana, annuncia la fine dell'impero dell'autorità — della Teoria sulla realtà, degli esperti sulle persone comuni — e la nascita di un nuovo mondo che, a raverso il prisma digitale, si rivela per ciò che è a chi lo osserva. Ma, come sempre, quello che il profeta tace è molto di più e più oscuro di quello che dice. Nel 2009, appare su Science un articolomanifesto a firma di David Lazer e altre stelle del jet set scientifico dal titolo La vita in rete: la prossima era della scienza sociale computazionale. Nell'introduzione possiamo leggere:

In termini più prosaici e meno utopistici, questo articolo indicava un futuro molto lontano dalla realtà disvelata di Anderson su Wired e più vicino al campo di ba aglia in cui ci troviamo oggi (il riferimento all'NSA qua ro anni prima dei leaks di Snowden risulta premonitore). I termini dello scontro, che come abbiamo visto sono espliciti da almeno un decennio, sono molteplici e diversi. Schematicamente, si può dire: esiste una questione metodologica, riassunta dalla perentoria e liberatoria affermazione “i dati parlano da soli”; Ÿ esiste una questione che si presenta come deontologica legata alla riproducibilità dei risultati scientifici in un mondo di dati proprietari e al consenso del sogge o umano di ricerca in un mondo di pia aforme proprietarie; Ÿ esiste una questione di identità intorno alla figura del ricercatore: chi è e cosa può fare uno scienziato (generico o in particolare un data scientist)?

Parte II - La teoria è morta, viva la teoria!

Ÿ

Tali questioni riguardano tu i i campi della ricerca (tecno) scientifica, — tornerò più avanti su questo termine — ma si fanno più evidenti in quello che si è venuto a chiamare “scienza sociale computazionale”, che possiamo prendere come rappresentante particolare, e più sviluppato, di una tendenza generale. Quello che c'è sullo sfondo è la vecchia questione della neutralità della scienza, tanto nella sua dimensione epistemologica come in quella più dire amente materiale del finanziamento della ricerca.

116

:

Anche se a distanza di dieci anni forse ormai più nessuno ripeterebbe negli stessi termini naïf di Anderson l'affermazione sulla morte della Teoria, continua a essere vivo il diba ito metodologico intorno alla relazione tra dati e modelli. Tu o ormai è e deve essere data driven per essere spendibile (si legga “pubblicabile”) nel mercato della ricerca scientifica. In un'o ica della pratica scientifica come sistematizzazione dell'esperienza, esiste, secondo i sacerdoti dell'analisi dei big data, solo una questione di quantità. Il metodo scientifico, affermano, è un residuo di un mondo dominato dalla scarsità di dati. I modelli sono solo “rozze approssimazioni della realtà” che perme ono di riempire i vuoti lasciati dai pochi dati prodo i in laboratorio o raccolti sul campo da ricercatori conne endoli causalmente. In un mondo dove ogni interazione lascia una traccia digitale o può essere digitalmente registrata, non esistono più questi vuoti per cui non c'è più nessuna necessità di approssimare la realtà. Ciò che è necessario fare è individuare pa erns e correlazioni. Queste non spiegano perché accade ciò che accade (fenomeno osservato), ma sono abbastanza per prevedere quando accadrà di nuovo. Dal punto di vista accademico, invece, quella che era nata come socio-fisica4 e si è poi trasformata in ciò che chiamiamo scienza sociale computazionale, aveva un programma ricalcato sul programma classico della fisica statistica: individuare le poche e semplici regole che reggono le interazioni tra ogge i a livello micro (l'atomo per la materia inerte, gli agenti per i sistemi sociali) che danno luogo a livello macro a complessi pa ern emergenti. Il caso Google Flu Trend (GTF) è abbastanza propedeutico a individuare i due approcci e ciò che implicano. GFT era un proge o per la predizione dell'a ività influenzale basato sull'aggregazione delle chiavi di ricerca usate dai milioni di utenti di Google lanciato dall'impresa nel 2008 e lasciato morire 117

Emanuele Cozzo - Pratiche scientifiche ai tempi del capitalismo di pia aforma

U

Parte II - La teoria è morta, viva la teoria!

a partire dal 2014. L'idea, piu osto semplice, su cui si basava GFT è spiegata in un articolo apparso sulla rivista Nature nel 20095: le persone con sintomi influenzali tendono a utilizzare Google per ricerche relazionate all'influenza. Poiché Google dispone di molti dati di ricerca e della capacità computazionale per processarli velocemente, può predire i picchi di influenza sul momento. In una prima fase, centinaia di miliardi di chiavi di ricerca personali sono state processate per definire un insieme di chiavi di ricerca relazionate con l'a ività influenzale, dove relazione va intesa come correlazione. Il numero di ricerche contenenti queste chiavi viene poi utilizzato come input per un modello che predice i casi di influenza. Qui “modello” è inteso come “modello statistico”, ovvero una formula che, dato il numero di ricerche con le chiavi dell'insieme e certi parametri, restituisce la probabilità di avere un certo numero di casi di influenza. In tu a la sua storia fino al 2013, le predizioni di GFT hanno alternato efficacia e rapidità a errori anche piu osto grandi, che hanno richiesto diverse successive ricalibrazioni del modello statistico. Nel 2013 si verifica il crash definitivo, quando GFT sovrastima il picco influenzale per più del doppio. 6 In un articolo su Science del 2014 di nuovo a firma di Lazer e altri , la ricerca accademica si prende una rivincita criticando diversi punti del metodo Google che hanno portato al disastro. Il primo bersaglio è l'affidabilità di Google Search come strumento di ricerca. A differenza dei tradizionali strumenti di laboratorio, l'algoritmo di ricerca non è stato costruito per raccogliere dati sul fenomeno in studio, questi sono solo un so oprodo o della sua funzione principale. Pertanto, le continue modifiche applicate all'algoritmo per migliorare la performance (restituire “buoni” risultati di ricerca), retroagiscono sul processo di produzione dei dati, portando a errori, anche grossolani, e alla necessità di ricalibrare costantemente i modelli statistici. 118

119

Emanuele Cozzo - Pratiche scientifiche ai tempi del capitalismo di pia aforma

Il secondo bersaglio è la trasparenza e quindi la riproducibilità dei risultati di GFT. Google non ha mai rivelato i termini di ricerca inclusi nell'insieme usato per le predizioni, pertanto viene a mancare la possibilità di replicare indipendentemente l'esperimento. Un altro grande caso di diba ito è stato l'esperimento condo o da Facebook sul contagio emozionale i cui risultati sono apparsi sulla rivista PNAS in un articolo del 20147. La novità, in questo caso, è che la pia aforma sociale Facebook viene usata dire amente come se ing sperimentale e non solo come produ rice di dati. La “teoria del contagio emozionale” afferma che gli stati emozionali possono contagiarsi da persona a persona per la sola esposizione, come un virus, generando quello che viene chiamato “effe o di rete”: sogge i legati da una relazione sociale tendono a mostrare stati emozionali correlati. Facebook disegna un esperimento per dirimere la controversia circa questa teoria e andare oltre la semplice misurazione di correlazioni. Per farlo, modifica opportunamente il News Feed di più di 600.000 utenti, mostrando ad alcuni prevalentemente post positivi, ad altri post prevalentemente negativi e misurando poi il contenuto emozionale di questi, confrontandoli tra loro e con un gruppo di controllo a cui viene mostrato il loro normale News Feed. Così facendo, è in grado di confermare l'esistenza del contagio emozionale. L'esperimento generò un gran diba ito intorno a due punti principali: di nuovo quello della riproducibilità e quello etico del consenso informato. L'impossibilità di riprodurre i risultati dell'esperimento di Facebook è evidente: nessuno, oltre ai ricercatori della casa, ha la possibilità di condurre lo stesso esperimento ed è impossibile anche solo pensare di disegnare una pia aforma ad hoc che riproduca le stesse condizioni sperimentali sulla stessa scala.

La questione etica è tanto presente che la stessa rivista accompagnò l'articolo con “un'espressione editoriale di preoccupazione” che concludeva:

Parte II - La teoria è morta, viva la teoria!

O enere il consenso informato e consentire ai partecipanti di rinunciare sono buone pratiche nella maggior parte dei casi ai sensi delle linee di condo a del Dipartimento per la salute e dei servizi umani degli Stati Uniti per la protezione dei sogge i umani di ricerca (la Common Rule). L'aderenza alla Common Rule è la linea di condo a di PNAS, ma come società privata, Facebook non aveva alcun obbligo di conformarsi alle disposizioni della Common Rule quando ha raccolto i dati utilizzati dagli autori, e la Common Rule non preclude il loro uso dei dati. Sulla base delle informazioni fornite dagli autori, gli editori di PNAS hanno ritenuto opportuno pubblicare l'articolo. È comunque motivo di preoccupazione che la raccolta dei dati da parte di Facebook possa aver coinvolto pratiche che non erano pienamente coerenti con il principio di o enere il consenso informato e di consentire ai partecipanti di rinunciare8

Il diba ito intorno alla questione etica me eva anche in luce un altro problema molto sentito dai ricercatori accademici che, dovendo so ostare a regole sul consenso informato, sono evidentemente svantaggiati rispe o ai ricercatori commerciali per i quali queste stesse regole non valgono9. Con il caso dell'esperimento di Facebook emerge, però, anche un altro aspe o fondamentale: quello dell'anarchia metodologica. Infa i, se da una parte la retorica sull'analisi dei big data si basa sull'affermazione per la quale correlation is enough, e quindi sulla mera analisi statistica dei dati raccolti in natura, dall'altra i data scientists delle compagnie commerciali non hanno nessuna remora a ricorrere a “vecchie pratiche sperimentali”, disegnate per scoprire nessi causali, quando ce ne è bisogno. 120

'

Dal punto di vista delle scienze sociali computazionali, l'era dei big data è, in realtà, l'era del capitalismo di pia aforma tecnosociale (Facebook, Twi er, Airbnb…). Così come la radioastronomia, la microbiologia o altre scienze, la scienza sociale computazionale è una scienza possibile solo a partire da un dispositivo: le pia aforme sociali in rete. Queste, in ultima istanza, ricoprono tanto il ruolo di strumento di osservazione quanto di fenomeno osservato. Come dicevo, non è una specificità di questa disciplina, piu osto rappresenta un caso particolare di una tendenza generale che alcuni autori, come Marcello Cini, hanno già chiamato “la 10 svolta tecnoscientifica” . Da una fase di “subordinazione della tecnologia alla scienza” — la seconda è ciò che perme e la proge azione della prima che a sua volta stimola nuove domande scientifiche — con il nuovo secolo siamo entrati in una fase di indissolubile intreccio tra scienza e tecnologia: le tecnoscienze. In questa fase emergono so o una nuova luce tanto questioni di ordine metodologico, come deontologico e, dire amente, politico. Cercherò di appuntarne schematicamente alcune continuando a utilizzare il prisma delle scienze sociali computazionali. Il momento dell'analisi — dei dati prodo i su pia aforme tecnosociali proprietarie — non può essere separato dal momento della critica. Lo strumento di osservazione, infa i, non è inerte né nel senso deterministico classico né nel senso probabilistico quantistico, ma concorre esso stesso a produrre la realtà osservata e, nella maggior parte dei casi, è fuori dalla portata tanto del ricercatore come del sogge o di ricerca ogni possibilità di sua modifica. Questa questione si traduce in quella della non neutralità dell'algoritmo. Questa è solo una delle questioni metodologiche che hanno bisogno di essere affrontate. Se infa i la liquidazione del metodo 121

Emanuele Cozzo - Pratiche scientifiche ai tempi del capitalismo di pia aforma

A

Parte II - La teoria è morta, viva la teoria!

scientifico á la Anderson ha dimostrato la sua pretestuosità, affermare á la Lazer che nulla è cambiato e i big data sono solo uno strumento in più per continuare a fare scienza come sempre è un espediente retorico utile solo a mantenere una posizione privilegiata di interlocuzione con le istituzioni del potere politico ed economico. L'obie ivo concreto di pia aforme come Facebook nel loro fare ricerca è quello di stabilire un mercato della predizione e della modifica del comportamento umano11. In questo quadro il sogge o umano di ricerca, l'utente, è sia risorsa da cui estrarre la materia prima dati, sia obie ivo su cui realizzare la valorizzazione dell'informazione prodo a a partire dai dati estra i. La questione della propaganda politica computazionale ne è espressione più alta, tanto è così che prima dell'esperimento riportato sopra, Facebook condusse e pubblicò un esperimento analogo sul comportamento ele orale dei suoi utenti12. In questo quadro, la non neutralità della scienza, nel senso della natura contestuale e socialmente determinata delle domande a cui la ricerca scientifica cerca risposte, assume una forma più immediata. L'opposizione portata avanti dalla ricerca accademica, che, basata sulla continuità metodologica, propone il ricercatore come interlocutore delle istituzioni pubbliche in qualità di esperto, se da una parte pone un argine all'arroganza big data (Big Data hubris nei termini di Lazer e coautori), dall'altra non cambia la posizione passiva della società di utenti. La questione deontologica, insomma, è dire amente politica.

122

1) Chris Anderson, The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, in Wired, disponibile al link: wired.com/2008/06/pb-theory/ 2) Alessandro Della Corte, Lucio Russo, La bo ega dello scienziato. Introduzione al metodo scientifico, il Mulino, Bologna 2016. 3) David Lazer, et al., Life in the network: the coming age of computational social science, in Science n° 323, 2009. 4) Mark Buchanan, The social atom: Why the rich get richer, cheaters get caught, and your neighbor usually looks like you, Bloomsbury Publishing USA, New York 2008. 5) Jeremy Ginsberg, Detecting influenza epidemics using search engine query data, in Nature n° 457, 2009. 6) David Lazer, et al., The Parable of Google Flu: Traps in Big Data Analysis, 2014, Science 7) Adam D. I. Kramer, Experimental evidence of massive-scale emotional contagion through social networks, in PNAS, 2014, disponibile al link: pnas.org/content/111/24/8788 8) Inder M. Verna, Editorial Expression of Concern: Experimental evidence of massivescale emotional contagion through social networks, in PNAS, 2014, disponibile al link: pnas.org/content/111/29/10779.1 9) Susan T. Fiske, Robert M. Hauser, Protecting human research participants in the age of big data, in PNAS, 2014, disponibile al link: pnas.org/content/111/38/13675 10) Massimo Cini, Il supermarket di Prometeo. La scienza nell'era dell'economia della conoscenza, Codice Edizioni, Torino 2006. 11) Shoshana Zuboff, Big other: surveillance capitalism and the prospects of an information civilization, in Journal of Information Technology n° 30, 2015, pp. 75–89. 12) Robert M. Bond, et al. A 61-million-person experiment in social influence and political mobilization, in Nature n° 489, 2012, p. 295-298.

123

Emanuele Cozzo - Pratiche scientifiche ai tempi del capitalismo di pia aforma

N

Is correlation enough? (spoiler: no!) Quello che i dati non dicono di Eleonora Priori La scienza è fa a di dati come una casa è fa a di pietre. Ma un ammasso di dati non è scienza più di quanto un mucchio di pietre sia una vera casa Henri Poincaré

Parte II - La teoria è morta, viva la teoria!

D

a quando il “fenomeno big data” ha preso piede, si è imposto sempre più nell'ambiente accademico, e non, il diba ito sul rapporto tra dati e ricerca. L'utilizzo massivo e sistematico dei dati ha infa i profondamente messo in discussione il ruolo della scienza e dello scienziato, le tecniche di cui si avvale e il metodo scientifico stesso su cui da Galileo, Cartesio e Bacone in poi (ma forse pure prima) si è fondata la ricerca e, per quanto la definizione stessa di metodo scientifico sia un po' una semplificazione e non corrisponda affa o a un conce o univoco, l'avvento dei big data ha senza dubbio messo in discussione la nozione di “teoria” per come la si è sempre intesa, aprendo un diba ito su come, quando, dove e perché produciamo scienza e, sopra u o, su come tu o questo cambia nel momento in cui abbiamo a disposizione quell'apparentemente inesauribile miniera di informazioni che emergono dai big data. Ma facciamo un passo indietro e proviamo prima di tu o a ragionare su cosa effe ivamente rappresenti questa enorme – e informe? – mole di informazioni e quali contenuti effe ivamente questa sia in grado di elaborare e comunicare. Nel 2011, Teradata, una public company statunitense che si occupa di prodo i e servizi legati ai database, affermò che «un sistema di big data eccede, sorpassa e supera i sistemi hardware e software 124

125

Eleonora Priori - Is correlation enough? (spoiler: no!)

comunemente usati per ca urare, gestire ed elaborare i dati in un lasso di tempo ragionevole per una comunità/popolazione di utenti anche massiva». De a così, effe ivamente, sembra una cosa il cui impa o sul modo di fare ricerca – che poi è me ere insieme i dati e unire i puntini – è potenzialmente esplosivo. In tanti, in effe i, con l'emergere dei big data hanno provato a parlare – (forse) provocatoriamente – di end of the theory, affermando l'ogge ività del dato di per sé e alimentando quella retorica secondo cui correlation is enough, ovvero “la correlazione è sufficiente”. Uno degli autori che si è esposto di più in questo senso è senza dubbio Chris Anderson, fisico e giornalista scientifico che, in un articolo pubblicato nel 2008 su Wired o enendo un'enorme visibilità, ha sostenuto che la disponibilità di grande mole di dati, combinata alle adeguate tecniche statistico-matematiche, sia in grado di soppiantare ogni altro strumento analitico rendendo il metodo scientifico, di fa o, obsoleto. Il feticcio al centro di questo processo – che si propone come una vera e propria rivoluzione metodologica e culturale – è il petabyte, 1 multiplo dell'unità di misura dell'informazione digitale . Se un tempo le informazioni da immagazzinare erano talmente piccole da essere sufficienti dei floppy disk da pochi kilobyte per poterle contenere, presto fu necessario usare hard disk da svariati megabyte, e poi array di dischi, la cui capacità si misura in terabyte. Il luogo immaginario – che poi tanto immaginario non è – dove si immagazzinano i petabyte, invece, è il cloud, ovvero un'archite ura che prevede che l'esecuzione delle azioni sia gestita a livello di rete, alleggerendo in questo modo il carico dei computer locali: la parola cloud, infa i, vuole proprio indicare una massa enorme di singole unità che viste da lontano possono ricordare una nuvola. Dico che tanto immaginario non è perché spesso ci si dimentica che a questo tipo di stru ura corrisponde un luogo estremamente “fisico”, chiuso in stanze blindate enormi e piene di server e di

Parte II - La teoria è morta, viva la teoria!

macchinari che appartengono a qualcuno e la cui proprietà “fisica” corrisponde al diri o di proprietà su tu e le informazioni che in quel luogo arrivano e circolano e il cui consumo energetico è spaventoso. Insomma, come dice un adagio piu osto famoso per chi mastica questo diba ito: There is no cloud: it's just someone else's computer! Alla base delle convinzioni di Anderson, che da un positivismo scientifico già sorpassato scivolano pericolosamente verso un incondizionato fideismo tecnologico (che ha poi finito per prendere il nome di datismo), vi è l'idea che, nell'era del petabyte, la nozione di correlazione sostituisca quella di causalità, consentendo alla scienza di progredire senza la necessità di confrontarsi con modelli coerenti, teorie unificanti o spiegazioni meccanicistiche: questo, se da una parte è pericoloso nella misura in cui alcune discipline si pongono effe ivamente l'obie ivo di indagare determinati rapporti causali, dall'altra diventa deleterio per quelle scienze che nemmeno si muovono in quel campo ma piu osto mirano all'elaborazione di teorie più generali, che in un ipotetico mondo “datista” non troverebbero spazio da nessuna parte. Riprendendo lo statistico George E. P. Box che trent'anni fa diceva che «tu i i modelli sono sbagliati, ma alcuni di questi sono utili», Anderson delinea un mondo che “si spiega da solo” semplicemente a raverso i dati che ne ca urano le cara eristiche, dove i numeri parlano da sé e dicono tu o quello che c'è da dire. Questa “teoria della non-teoria” rinuncia in partenza – se addiri ura non si contrappone – all'idea di costruire un qualsiasi modello in grado di inquadrare tu e quelle informazioni che emergono dai dati all'interno di nozioni e principi generali che si propongono di interpretare la realtà. In termini di approccio, la proposta alla base del metodo scientifico storicamente prevede la costruzione di un modello teorico, che 126

127

Eleonora Priori - Is correlation enough? (spoiler: no!)

altro non è se non un'ipotesi (o una serie di ipotesi) da verificare. Il modello viene poi testato a raverso una serie di esperimenti che, a seconda del loro esito, validano o confutano le ipotesi di partenza e determinano in questo modo la coerenza del modello stesso, sia internamente, sia sul piano della coerenza con le evidenze empiriche che emergono dal mondo reale. Il modello teorico che emerge nella sua formulazione (più o meno) definitiva al termine del processo di validazione è, di fa o, un sistema (complesso) che il ricercatore immagina per interpretare le relazioni esistenti tra i singoli elementi che lo compongono: in altre parole, è una semplificazione che lo scienziato propone come schema di riferimento per analizzare il comportamento delle variabili so o osservazione e produrre degli statements, delle considerazioni, che ne determinano l'impa o sul sistema. Da Cartesio in poi, la scienza ha lavorato secondo questa dire rice per secoli. Se è vero infa i che il diba ito sulla rappresentazione della realtà so o forma di dati si è alimentato del mito “leibniziano-cartesiano” della descrizione matematica dei processi, questo diba ito è sempre stato filtrato dall'idea che il dato sia “carico di teoria”, ovvero espressione tangibile di un fenomeno, che va però inquadrato a raverso i meccanismi della logica dedu iva. Per questa ragione, lo scienziato è abituato al fa o che la nozione di correlazione non implichi automaticamente quella di causalità e sa che non bisogna trarre conclusioni sulla sola base di una correlazione perché è necessario comprendere le dinamiche che conne ono tra loro due dati e, solo una volta che si è costruito il modello, è possibile tentare di conne ere gli insiemi dei dati. Tu o questo perché i dati, senza un modello – ovvero senza quella teoria di cui sono carichi, che è in grado di spiegare coerentemente il modo in cui questi sono in relazione tra loro –, sono solo rumore, ovvero un segnale indesiderato che si sovrappone all'informazione elaborata all'interno del sistema.

Secondo Anderson, questo approccio alla scienza, basato sul processo ipotesi-modello-test, è ampiamente superato se confrontato con la disponibilità massiva di dati. Gli esempi che porta, dalla fisica alla biologia, bollano i modelli come approssimazioni che nel corso del tempo si sono scoperte essere sempre meno accurate fino a quando non vengono sostituite da altri modelli, più accurati ma pur sempre sbagliati. In sostanza, secondo questo punto di vista, più nozioni apprendiamo su una scienza, più ci troviamo lontani da un modello che la spiega. Logica conseguenza di questo ragionamento è la ricerca di un nuovo approccio metodologico, che Anderson, come già accennato, identifica nel mantra dell'era dei petabyte: correlation is enough. In questa prospe iva, la scienza può perme ersi di sme ere di cercare modelli e finalmente analizzare i dati senza dover prima ipotizzare cosa questi dovrebbero dimostrare. Lo scienziato oggi –racconta Anderson – può comodamente prendere i numeri, lanciarli in cluster di calcolo dalle dimensioni inimmaginabili e lasciare che siano gli algoritmi statistici a identificare i modelli dietro a quei pa ern che il vecchio metodo scientifico non era in grado di individuare.

Parte II - La teoria è morta, viva la teoria!

N

-

Tu avia, c'è chi sostiene che se da un lato è vero che i dati sono in grado di comunicare una serie di contenuti, dall'altro però risultano fortemente influenzati dalla le ura che si dà di quegli stessi dati e – contestualmente – dalla narrazione che vi si costruisce a orno. In questo senso, lo scienziato, e in particolare il data scientist, assume un ruolo tu o nuovo da interpretare: quello dello storyteller dei dati, per quanto personalmente preferisca la definizione di “narratore”. Per far sì che il ricercatore interpreti a ivamente questo ruolo senza rimanere marginale rispe o all'evoluzione che lo investe, è utile immaginare che affianchi alle “tradizionali” tecniche fondate sulla data analysis alcuni strumenti di elabora128

129

Eleonora Priori - Is correlation enough? (spoiler: no!)

zione teorica che, a raverso a un approccio che sia qualitativo o quantitativo, siano in grado di restituire il quadro di complessità necessario a dare una le ura della realtà che vada oltre al dato fine a se stesso. Ha infa i senza dubbio ragione Anderson quando ci ricorda che i modelli sono delle approssimazioni della realtà, ed è per questo logico immaginare che col progresso tecnico degli strumenti a disposizione queste approssimazioni diventino sempre più precise. Ma al tempo stesso non si può dimenticare che i modelli nascono col preciso obie ivo di essere una semplificazione della realtà, uno schema che consente di ricondurre una singola manifestazione della realtà a una classe di fenomeni che mostrano una serie di cara eristiche in comune in grado di restituire una le ura sensata dell'esistente. Un esempio molto brillante di questa necessità di a ribuire un senso ai dati che osserviamo è Spurious correlations2, un database online messo a punto da Tyler Vigen che con pungente ironia passa in rassegna una serie di correlazioni più o meno assurde che occorrono nella realtà tra variabili che all'apparenza non c'entrano nulla l'una con l'altra. Il risultato che ne viene fuori è volutamente gro esco: ad esempio, nel periodo tra il 1999 e il 2009 l'investimento della spesa pubblica statunitense in scienza, spazio e tecnologia correlava al 99,79% col tasso di suicidi per strangolamento, il tasso di divorzi nel Maine col consumo pro capite di margarina al 99,26%, il numero di comparse di Nicholas Cage in un film con quello di persone annegate in una piscina al 66,6% e tanti altri ancora. Insomma, il messaggio che ci consegna questo lavoro sembra un invito a non prendere per esauriente tu o ciò che emerge da una correlazione statistica o, per dirla come non la direbbe mai Anderson, correlation is not enough! In effe i, se partiamo dalla definizione più scolastica di correlazione, ovvero quella relazione tra due variabili statistiche tale per

Parte II - La teoria è morta, viva la teoria!

cui a ciascun valore della prima variabile corrisponde con una "certa regolarità" un valore della seconda, è abbastanza facile immaginare le ragioni per cui la correlazione da sola non risulti essere una spiegazione abbastanza robusta per chiarire la natura della relazione che lega due fenomeni tra loro. Dando più o meno per scontato che il ruolo dello scienziato sia quello di fornire spiegazioni sufficientemente convincenti su come funziona il mondo a partire dall'osservazione dei singoli fenomeni, tracciando quindi un modello abbastanza flessibile e generalista da riuscire a descrivere una serie di fa ispecie cui si riconducono determinate cara eristiche comuni, immaginare il completo superamento della nozione di modello sembra estremamente distorsivo rispe o agli obie ivi che la ricerca si pone o quantomeno dovrebbe porsi. Questo perché costruire modelli fa in qualche modo parte della natura umana e l'evidenza empirica non può essere altro che una rappresentazione di quei modelli che tanto ci sono utili per leggere (e interpretare) la realtà. In Why model? quel genio pazzo di Joshua M. Epstein³, sostiene che chiunque si avventuri in una proiezione, o provi a immaginare come si sviluppa una certa dinamica sociale sta elaborando un modello; ma generalmente si tra a di un modello implicito i cui assunti sono nascosti, la cui coerenza interna non è testata, le cui conseguenze logiche sono ignote e la cui relazione con i dati è sconosciuta

La scelta quindi non è se scrivere modelli o meno, ma se esplicitarli o lasciare che rimangano impliciti. Tu o questo dovrebbe bastare a ridimensionare quell'idea per cui le teorie scientifiche emergono dai dati e ne sintetizzano un risultato: sembra infa i più sensato immaginare che le teorie precedano e in qualche modo indirizzino la raccolta dei dati perché cerca130

131

Eleonora Priori - Is correlation enough? (spoiler: no!)

re correlazioni senza avere un modello a cui riferirsi, di fa o, equivale a sme ere di chiedersi il perché delle cose aspe andosi che questo si palesi da solo. Rovesciando il pensiero di Anderson, un mio vecchio professore diceva sempre preoccupato: «Stupidi dati, non vi lascerò rovinare la mia bellissima teoria!», ben sapendo che spesso la scienza ha fa o passi da gigante sulla base di intuizioni che violentavano i dati piegandoli alla teoria. Al ne o di questo spunto, però, nessuno nega l'importanza di confrontare la teoria con le evidenze empiriche, ma senza una teoria, per dirla con le parole di Epstein, non sarebbe chiaro quali dati raccogliere. Se è vero infa i, riprendendo la vecchia massima di Lord Kelvin, che to measure is to know, ovvero “misurare è sapere”, d'altra parte dobbiamo costantemente confrontarci con l'idea che la scienza, qualsiasi cosa essa sia – perché io onestamente non ne ho idea –, è un sistema costruito da uomini e donne di cui, piu osto non sorprendentemente, i principali fruitori sono proprio uomini e donne. Tu o questo implica la necessità di individuare un metodo fruibile a raverso cui filtrare e inquadrare le informazioni che ci vengono trasmesse dai dati – dove per dato intendo ogni manifestazione misurabile e categorizzabile della realtà. A questo punto, posto che queste manifestazioni misurabili e categorizzabili costituiscono un filtro, ovvero una lente a raverso cui osservare la realtà, credo sia fondamentale puntualizzare che la loro interpretazione non è ogge iva in tu o e per tu o, non può esserlo, ma sopra u o non ci è utile in nessun modo immaginarla in questo senso. Quello che potrebbe essere utile e interessante fare, invece, è ragionare sul senso e sulle implicazioni che ha il fa o di dare una le ura e costruire una narrazione di ciò che i dati ci restituiscono. Questo, lo puntualizzo, non significa farsi ostaggio di qualsiasi mistificazione dei fa i, quanto piu osto rifle ere su tu e quelle contraddizioni che emergono nel momento in cui amme iamo

Parte II - La teoria è morta, viva la teoria!

che la le ura – l'interpretazione – che diamo dei dati è intrinsecamente sogge iva. Infa i, in questi tempi in cui accarezziamo le sfumature della post-verità (prima o poi dovevo usarla, questa parolina magica!), se da una parte dobbiamo più che mai misurarci con l'idea che esiste una distanza tra un fa o ogge ivo – o meglio il dato che lo rappresenta – e la percezione che gli si a ribuisce, dall'altra il discorso a orno a questo tema non si esaurisce tu o qui. Parlare di interpretazione e interpretabilità dei dati, infa i, significa amme ere che la scienza non è un sogge o neutrale. Per contro, intendere un dato scientifico come qualcosa di ogge ivo significa cedere il campo a chi costruisce quella narrazione con l'arroganza di spacciarla per l'unica verità assoluta (e l'esempio più lampante di questo a eggiamento è la violenza con cui la narrazione neoliberista si è imposta nel diba ito economico – e, di riflesso, sulle nostre vite, ma questa è un'altra storia). Quanto pericolosa si sia rivelata (e possa nuovamente rivelarsi) questa deriva credo sia so o gli occhi di tu i. In effe i, prendendo in prestito le parole di Aniello Lampo in Sulla non-neutralità della scienza⁴ (2011), nel diba ito pubblico la scienza viene spesso presentata come un'entità super-partes, portatrice di una verità imparziale che trascende le ideologie e i confli i. […] In realtà, il sapere scientifico è pesantemente sovradeterminato dal contesto sociale e politico in cui viene elaborato: il lavoro dello scienziato risponde a delle domande, rispe a delle priorità e ha delle applicazioni, in cui si annidano interessi economici e politici, fru o dei rapporti di forza che innervano la società intorno. Sono questi fa ori che definiscono le linee di ricerca, plasmano l'organizzazione materiale del mondo accademico e ne de ano i metodi di indagine. Di conseguenza, la scienza finisce inevitabilmente per essere situata politicamente, 132

133

Eleonora Priori - Is correlation enough? (spoiler: no!)

ed è in questo senso che possiamo affermare che la scienza non è neutrale ma intrinsecamente “di parte”. Amme ere tu o questo è un passaggio cruciale per chi di mestiere racconta quello che i dati dicono – e, a volte, a prima vista, non dicono – perché significa assumersi le responsabilità del ruolo che in quanto ricercatori abbiamo nella società, che grosso modo è la costruzione dei saperi a beneficio della comunità che ne fruisce. Parlare di interpretazione e interpretabilità dei dati, dunque, ha a che fare col conce o di democrazia nel senso più autentico del termine: quel conce o di democrazia per il quale, a raverso un diba ito orizzontale e accessibile, la costruzione dei saperi diventa un patrimonio colle ivo; e lo stesso conce o di democrazia che garantisce che quella comunità che partecipa a ivamente alla costruzione dei saperi – mentre contemporaneamente ne fruisce – possa in ogni momento rime ere in discussione i termini di quel diba ito. Questo quadro idilliaco e petaloso della scienza come una comunità in movimento che “cammina domandando” è senza dubbio estremamente affascinante, ma, come sempre, il diavolo sta nei de agli, e il confronto con la realtà modifica i termini del discorso. Infa i, ci si me e poco a rendersi conto che quella comunità non si compone solo di disinteressatissimi intelle uali che hanno a cuore il solo amore per il sapere, ma che ci sono anche tanti stakeholders decisamente di peso, che tendenzialmente coincidono coi colossi dell'informazione che detengono la proprietà dei big data stessi e degli strumenti con cui questi vengono raccolti. In questo senso, sembra allora opportuno interrogarsi su quanto l'interpretazione dei dati dipenda dal palco da cui il ricercatore parla, che tendenzialmente rivela tanti degli interessi che stanno dietro a ogni ricerca, e da come incide sull'interpretazione dei dati il rapporto con quei colossi, a cui la ricerca è legata nei diversi gradini della filiera di produzione della conoscenza. Guardando alle cose

Parte II - La teoria è morta, viva la teoria!

con un po' di lucidità, non si può negare che questi rapporti incidano sia nei gradini a monte della filiera – ovvero che chi detiene i “mezzi di produzione”, cioè la proprietà di quelle miniere di dati potenzialmente utili alla ricerca, è in grado di condizionare la direzione che prende la ricerca –, sia in quelli a valle – ovvero come il mercato dell'informazione, utile per divulgare al pubblico i propri studi, in realtà riesca a condizionare la ricerca in partenza. Tu o questo, però, non deve svalutare tu e le riflessioni di cui sopra sulla necessità di rendere la scienza uno spazio democratico, quanto piu osto aiutarci a spostarli da un piano teorico e ideale a uno sostanziale. In effe i, in una fase storica in cui sono le aziende e i sogge i privati a egemonizzare la gestione e l'utilizzo delle informazioni che i dati registrano, parlare di scienza come di un patrimonio colle ivo, capace di smarcarsi da una serie di interessi privati ad oggi non trascurabili per peso, significa restituire sostanza a quei ragionamenti, e per fare questo bisogna, oggi più che mai, ragionare in termini di riappropriazione di quello spazio colle ivo. In questo senso, sono diverse le cose da fare: prima di tu o, bisogna rime ere al centro del diba ito pubblico il tema dell'indipendenza della comunità scientifica come patrimonio di tu e e tu i. Bisogna farlo sia per diffondere un modello culturale che alla logica dell'interesse particolare di pochi contrapponga quella dell'interesse colle ivo, sia per incentivare i decisori politici a prendere dei provvedimenti che sappiano rispondere alle questioni che solleva l'utilizzo massivo dei big data nello spazio della ricerca, sia a raverso un serio rifinanziamento del sistema pubblico di ricerca e della ricerca di base, sia a raverso l'introduzione di un quadro normativo e giuridico al passo coi tempi e a ento alla tutela dei diri i digitali in quanto diri i dell'individuo, ma anche in quanto diri i sociali e della colle ività. Fare pressioni in questa direzione non significa giocare questa ba aglia tu a sulla difensi134

Eleonora Priori - Is correlation enough? (spoiler: no!)

va delegandola alle istituzioni, ma affiancare ad alcuni strumenti di resistenza altri strumenti di rilancio a ivo, che moltiplichino gli spazi di discussione indipendenti ma me ano anche radicalmente in dubbio e decostruiscano quelle modalità con cui si fa ricerca che più fanno emergere la contraddizione tra proprietà dei dati e obie ivi della ricerca intesa come bene comune. I big data in tu o questo processo svolgono un ruolo fondamentale in termini di tecnologia a disposizione di chi fa ricerca e ne costituiscono uno strumento di supporto utilissimo e validissimo, ma lanciano anche alcune delle sfide che si riveleranno cruciali per il futuro della ricerca come patrimonio colle ivo. Se infa i, per la dimensione intrinsecamente umana del perché facciamo scienza, questi non riescono ancora a sostituirsi allo scienziato nell'operare quell'a ribuzione di senso che è il fine ultimo della ricerca, sta alla comunità scientifica il compito di presidiare la produzione dei saperi come patrimonio di tu e e tu i e di inserire i big data in questo processo, verso la costruzione di un sapere sempre meno accentrato nelle mani di pochi interessi individuali e sempre più al servizio del benessere della colle ività.

135

Note

Parte II - La teoria è morta, viva la teoria!

1) Petabyte = circa 10^15 byte = 1 milione di gigabyte. 2) Si veda il link: tylervigen.com/spurious-correlations. 3) Joshua M. Epstein, Why model?, in JASSS - Journal of Artificial Societies and Social Simulations, 2008. 4) Aniello Lampo, Sulla non-neutralità della scienza, in SPIN — Scientists and Precarious researchers Independent Network, 2011.

136

I big data e il corpo di Andrea Capocci e Mauro Capocci

Parte II - La teoria è morta, viva la teoria!

L

o sviluppo delle tecnologie genomiche ha creato enormi possibilità di conoscenza sull'evoluzione e sul funzionamento degli organismi, e in particolare di quello umano. Negli ultimi due decenni, siamo passati da avere una bozza del genoma di pochi individui – la pietra miliare dello Human Genome Project, completato nel 2003 – alla possibilità di sequenziare rapidamente tu o il patrimonio genetico di un singolo individuo, a un prezzo irrisorio. Basta inviare un campione della propria saliva e dopo poche se imane si può o enere una mappatura delle regioni del genoma ritenute più significative riguardo lo stato di salute e la discendenza. Il verde o dell'oracolo più o meno suonerà così: “il tuo genoma ha il 56% di discendenza nordeuropea, il 24% ispanica, l'11% è nativo americano, e il restante 10% è neandertaliano e africano. Il confronto con i database disponibili evidenziano che hai il 26% di rischio in più di avere un infarto, ma il 17% in meno di avere il diabete mellito di tipo II”. Per l'individuo – divenuto un paziente, dopotu o – non c'è molto da fare: regolare lo stile di vita, qualche a enzione al cibo, al movimento. Non c'è molto di più. È questa la grande rivoluzione dei big data genomici nella clinica? Il bioeticista canadese Timothy Caulfield ha sintetizzato così, nel 2012: Per oltre due decenni, ci hanno de o che siamo nel mezzo di una rivoluzione genetica. Sono ancora in a esa. Nel fra empo, se vogliamo davvero rivoluzionare la nostra salute, dovremmo me ere da parte i sequenziatori, le patatine e i gelati, prendere una mela e andare a fare una bella camminata1 138

139

Andrea Capocci, Mauro Capocci - I big data e il corpo

Non che non ci siano stati passi avanti dal 2012 a oggi: ma in quale direzione? Una serie di articoli usciti di recente individua dei potenziali dife i della ricerca genomica degli ultimi due decenni, e incoraggiano a rivedere molte delle ipotesi proposte negli anni precedenti. Osservando l'evoluzione degli studi di genetica medica, notiamo infa i un crescente trionfalismo relativo alla possibilità di diagnosticare e tra are mala ie grazie all'elaborazione o agli interventi sul genoma. Quando ancora si doveva giungere al completamento della prima bozza del genoma umano, ci fu chi dichiarava: «Entro il 2000, [tu e] le aziende farmaceutiche del mondo useranno i dati genomici per lo sviluppo di nuovi farmaci e procedure diagnostiche. Nessuna scienza sarà più importante 2 della ricerca genomica per il futuro della medicina» . Affermazioni che sanno ovviamente di marketing, ma che appunto non hanno troppi riscontri nella realtà. Anche casi apparentemente semplici di correlazione tra mutazioni genetiche e mala ie hanno in realtà contorni piu osto sfumati. Persino per le mutazioni dei geni BRCA1 e BRCA2, note da diversi anni per il collegamento 3 con l'insorgere di tumori al seno (BReast CAncer) e all'ovaio , abbiamo numeri ben lontani dalla certezza: a seconda delle stime, si è tra 55 e 60%, a meno di non avere una familiarità della patologia (nel qual caso si arriva all'80%). Molti programmi di screening sono stati implementati per queste mutazioni, e anche il grande pubblico è stato raggiunto dalla notizia che Angelina Jolie ha scelto la chirurgia preventiva per evitare il possibile insorgere della mala ia. Ma certo, un test che informa di un rischio del 60% di sviluppare un tumore espone la paziente a un carico d'ansia notevole. Le tecnologie genomiche, come de o, estremizzano questi aspe i della diagnosi genomica, lasciando incertezze di ogni tipo. È un problema intrinseco agli strumenti di ricerca per diversi ordini di problemi. Da un lato, infa i, abbiamo il problema di riuscire a correlare il genotipo con il fenotipo, cioè far vedere che esiste

Parte II - La teoria è morta, viva la teoria!

una significativa coincidenza tra il possedere un certo tipo di geni e certe cara eristiche fisiopatologiche. È relativamente semplice evidenziare la correlazione tra un singolo gene e un tra o dell'organismo quando il gene funziona come fosse un interru ore: se il gene funziona, produci la proteina, altrimenti niente proteina. Tu avia, è raro che le cose siano così semplici, e sono molte le cara eristiche esibite dagli esseri umani a essere il risultato di combinazioni più o meno complesse di geni. Entrano qui in gioco i big data. La genomica, di fa o, ha prodo o negli ultimi anni un'enorme mole di dati che stanno mostrando che il fenotipo è «tu a una molteplicità di causali convergenti… Uno gnommero», per usare le parole di Gadda. Finalmente, l'osservazione di migliaia di geni in contemporanea ha mostrato come sia estremamente complicato definire un rapporto semplice tra geni e fenotipo. Per molte cara eristiche, non è possibile isolare un percorso causale lineare: piu osto, sono tanti geni a contribuire, ogni gene con un effe o minimo. Due psicologi genetisti, per esempio, scrivono riguardo alla “capacità matematica” studiata negli alunni della scuola elementare: Ogni singolo SNP [single nucleotide polymorphism, una mutazione di una sola base del DNA, N.d.A.] produce un effe o modesto: quello con l'effe o maggiore spiega solo lo 0,5 % delle differenze di rendimento registrate tra i 2.500 bambini del campione, mentre quello con l'effe o minore spiega lo 0,13 %4

Di fa o, i big data sembrano aver reso tu o più difficile, complesso, e per alcuni versi ingovernabile. Inoltre, la capacità di produrre ed elaborare informazioni in quantità prima impensabili ha reso possibile intraprendere nuove strade di indagine. Queste

140

141

Andrea Capocci, Mauro Capocci - I big data e il corpo

nuove strade ci stanno però spingendo a ripensare ciò che è stato fa o quando la ricerca era “soltanto” genetica, e non genomica. Diverse pubblicazioni hanno per esempio so olineato un'eccessiva fiducia nelle correlazioni tra geni e patologie negli ultimi due decenni, chiedendo una «revisione radicale della genetica uma5 na» . Questo a causa di nuovi approcci nella raccolta di genomi, e grazie alla possibilità di mappare e gestire le informazioni delle parti più significative del genoma: la mole di dati aumenta, e la capacità di analizzare i database e maneggiare i big data diventa fondamentale per estrarre informazioni significative da utilizzare nella pratica clinica. I nuovi database hanno mostrato, per esempio, che varianti genetiche ritenute all'origine di alcune patologie cardiache in realtà erano falsi positivi, e che contemporaneamente la nuova messe di informazioni ha evidenziato che alcune correlazioni gene-mala ia non erano state considerate adeguatamente6. Sempre di più, ricercatori e medici sono allarmati dai possibili problemi che la genomica dire a al consumatore può sollevare, tanto che vi sono stati negli ultimi anni diversi tentativi di stabilire linee guida per affrontare le richieste del pubblico e o imizzare i servizi sanitari, sia pubblici che privati, con percorsi adeguati di consulenza e informazione. Tanto più che a oggi non vi sono molte evidenze che l'integrazione della genomica nella pratica clinica abbia condo o a risultati positivi: trial clinici a questo riguardo sono tu ora in corso7, e puntano sulla necessità di una maggiore formazione per i medici, non in grado di orientarsi davanti all'oceano dei big data. Ancora più che in altri ambiti della medicina, la genomica e i suoi risultati sono stati dati in pasto al grande pubblico, creando pressione sulla pratica clinica quotidiana: come de o più in alto, la possibilità di avere sequenziate porzioni significative del DNA è aperta a tu i. Più campioni vengono inviati, più i database si allargano, in un circuito in cui marketing e accumulo di dati si autoalimentano. Tu avia, questo non è del tu o scevro di

Parte II - La teoria è morta, viva la teoria!

implicazioni anche per la scienza dei big data: la selezione del campione può essere determinante per i risultati delle analisi, e certo il pubblico della consumer genomics non rappresenta la varietà umana: intuitivamente, è molto facile supporre che pochi campioni provengano dal Burkina Faso, e un po' di più dalle zone ricche degli Stati Uniti. I risultati non sono facilmente generalizzabili, ma la pressione del mercato – scientifico e per i consumatori – non può essere ignorata. Proprio la ricerca di spazi di marketing ha fa o sì che la nuova genomica dei big data sia andata incontro a creazioni di ogge i dai limiti sfumati, per esempio alleandosi con le istanze identitarie da parte di vari gruppi etnici desiderosi di trovare riconoscimento sociale. Così, grazie a una genomica basata su big data, sono stati proposti tra amenti dire i a determinate categorie identificate su base genomica, anche senza identificare un singolo cara ere peculiare del gruppo. Grazie ai grandi database è diventato possibile, invece, ipotizzare una composizione di tante tessere genetiche che cara erizza una “razza”, renderla un sogge o sociale e a ribuire ad essa un valore economico: biocapi8 talismo all'opera . Se il codice genetico si presta naturalmente alle analisi compiute con gli strumenti tipici del paradigma digitale, poiché esso si presenta come una sequenza discreta di simboli (le qua ro basi azotate del DNA), il corpo nel suo complesso è una miniera di dati di tipologie diverse: dalla pressione sanguigna alle distanze che copriamo a piedi, i dati che descrivono lo stato di salute e lo stile di vita di un individuo sono moltissimi. Finora molti di questi dati sono stati raccolti in formato analogico, per lo più cartaceo e classificato in fascicoli che, dopo essere stati utilizzati a scopo clinico, sono archiviati negli ospedali e negli studi medici, con un notevole dispendio di risorse logistiche. Questo scenario, sopra u o nei Paesi più avanzati, è in rapido cambiamento. Anche il sistema sanitario, e non solo la ricerca clinica, oggi fa uso massiccio di stru142

143

Andrea Capocci, Mauro Capocci - I big data e il corpo

menti digitali connessi in rete. In molti casi, come si vedrà, la raccolta dei dati sulla nostra salute avviene senza alcuna interazione con medici e stru ure sanitarie. Anzi, spesso addiri ura all'insaputa del sogge o stesso. Tradizionalmente, la funzione clinica viene svolta da personale medico altamente specializzato, sulla base delle informazioni disponibili nella le eratura scientifica e di quelle accumulate dal medico nel corso della sua carriera, a stre o conta o con il paziente. Oggi, invece, il monitoraggio della salute dei ci adini coinvolge sempre più spesso a ori estranei al se ore sanitario, come aziende informatiche e delle telecomunicazioni. Questa transizione è motivata dall'economia di scala che consente di diminuire i costi di immagazzinamento delle informazioni al crescere della loro quantità. Inoltre, la raccolta di grandi quantità di dati consente di sviluppare analisi e servizi successivamente alla raccolta dei dati stessi, valorizzandoli ulteriormente sul piano economico. Questo mutamento tecnologico ha portato nel se ore dell'industria sanitaria le principali società dell'ele ronica in grado di sviluppare dispositivi e sensori che raccolgono dati e dell'informatica, dotate dell'infrastru ura per analizzare le grandi quantità di informazioni raccolte. Praticamente, tu e le corporation del se ore delle telecomunicazioni oggi ha aperto una divisione Health, in proprio o in collaborazione con università, enti di ricerca, società farmaceutiche. Il caso più noto in Italia è quello della IBM, che sta creando a Milano il suo centro di ricerca dedicato alla salute9. Nel centro, l'IBM utilizzerà la sua potenza di calcolo per analizzare dati sanitari provenienti da molteplici fonti. La tecnologia Watson dell'IBM è già utilizzata per estrarre dai dati grezzi della le eratura scientifica (una mole sterminata di milioni di pubblicazioni e di decine di migliaia di sperimentazioni cliniche) le informazioni aggregate più rilevanti. Questa operazione perme e di o imizzare il proces-

Parte II - La teoria è morta, viva la teoria!

so di sviluppo di nuovi farmaci, suggerendo sulla base di analisi statistiche le linee di ricerca più prome enti. Infa i, tra i principali utenti di Watson c'è la Pfizer, la più grande società farmaceutica al mondo. Oltre a setacciare i big data presenti nelle banche dati scientifiche, IBM intende analizzare i dati sanitari dei ci adini già a disposizione del sistema sanitario, una vera miniera di dati utilizzati in modo molto limitato per estrarne informazioni e potenziali applicazioni mediche. A questo scopo, il governo italiano ha messo a disposizione dell'IBM i dati dei ci adini, con conseguenze non trascurabili sul piano della privacy10. Altre società informatiche puntano sulla raccolta dire a dei dati degli utenti a raverso dispositivi mobili de i wearable (indossabili). La tendenza, in realtà, è iniziata già con la diffusione degli smartphone e della conne ività a banda larga. I “telefoni” che portiamo in tasca, infa i, raccolgono già molti dati utili per la ricerca medica relativi agli spostamenti, al livello di a enzione, al ritmo sonno-veglia. Negli ultimi anni, agli smartphone si è aggiunta una gamma di dispositivi indossabili simili a orologi e in grado di raccogliere dati biometrici più de agliati e di comunicarli ai centri di elaborazione dei dati. È quello che fanno i bracciale i FitBit, che rilevano i parametri vitali di 23 milioni di persone, contribuendo ad arricchire una banca dati assai preziosa. Non a caso, i National Institutes of Health statunitensi distribuiranno diecimila FitBit per monitorare le condizioni fisiche di altre anti americani. Il programma fa parte del proge o All of Us, avviato dall'amministrazione Obama con il nome originario di Precision Medicine. Infa i, l'obie ivo della ricerca è capire i fa ori che spiegano la variabilità tra individuo e individuo (e tra gruppi sociali diversi) delle condizioni sanitarie e della risposta alle terapie. Allo stesso proge o parteciperà anche Google, a raverso l'azienda controllata Verily. Dal canto suo, Verily ha avviato un altro proge o analogo, denominato baseline, con cui raccoglierà dati sanitari relativi ad altri diecimila americani, stavolta in collaborazione con le università di Duke e 144

145

Andrea Capocci, Mauro Capocci - I big data e il corpo

di Stanford. I dispositivi wearable stanno per il momento animando una comunità di appassionati che si definiscono Quantified self: si tra a di utenti di Internet che accumulano e condividono dati su sé stessi, relativamente alle proprie a ività e alle proprie condi11 zioni di salute . Oltre a raccogliere dati, le società a ive nel se ore sanitario si stanno anche specializzando nella fornitura di servizi basati sui big data. Come già de o, negli ultimi anni diverse start-up hanno iniziato a fornire analisi genetiche via web (previo invio di un campione biologico, ovviamente) per poche centinaia di euro12. Queste aziende, la più nota delle quali si chiama 23andMe ed è controllata da Google, incrocia le informazioni biologiche del paziente con le conoscenze più aggiornate disponibili nella le eratura scientifica. L'utente ne ricava la lista della propria predisposizione a mala ie genetiche, mentre le aziende accumulano utilissimi dati genetici che possono essere messi in relazione con altre informazioni fornite (non sempre consapevolmente) dall'utente sul proprio stile e sulle condizioni di salute con un de aglio irraggiungibile da parte di un centro di ricerca tradizionale – da qui l'interesse di società apparentemente estranee al se ore biomedico come Google. I servizi medici erogati via web recentemente si sono estesi persino al se ore del tra amento delle mala ie mentali, con la comparsa di software de i chatbot basati sull'intelligenza artificiale in grado di rilevare lo stato d'animo patologico dell'utente e interagirci. Il chatbot più celebre si chiama Woebot13. Anche in questo caso, la prestazione sanitaria è veicolata da app per smartphone. Questo tipo di servizi forniti dire amente all'utente senza la mediazione di un medico presentano opportunità e rischi. Da un lato, perme ono agli utenti di accedere a servizi sanitari che nelle stru ure ospedaliere non vengono erogati o hanno costi eccessivi. Ma per i pazienti non vi sono solo vantaggi. Pochi malati sono in grado di interpretare le informazioni sanitarie. La genetica, ad

Parte II - La teoria è morta, viva la teoria!

esempio, richiede sopra u o valutazioni di tipo probabilistico. Le difficoltà di una persona con un disagio psichico di gestire in autonomia le strategie mediche da a uare sono ancor più eviden14 ti . Inoltre, le pratiche mediche basate su un rapporto individuale con il paziente rappresentano un veicolo di marketing formidabile per le società farmaceutiche. Per la sua particolare natura, il prodo o farmaceutico in molti paesi è so oposto a notevoli restrizioni al commercio, a partire dal divieto di farne pubblicità e dall'obbligo di un consulto medico propedeutico all'acquisto. Ciò limita notevolmente il giro di affari delle società farmaceutiche nei paesi più avanzati. Aggirando il filtro dei medici di base, le società farmaceutiche contano di recuperare margini di profi o, a spese dei 15 pazienti . Uno dei fa ori che alimenta maggiormente il fenomeno della raccolta dei dati sanitari a distanza è l'invecchiamento della popolazione nei paesi più industrializzati. La maggiore diffusione delle patologie croniche correlata a una maggiore incidenza demografica delle fasce più anziane ha accresciuto la necessità del monitoraggio dell'aderenza di malati a terapie di lungo periodo, con costi crescenti per il servizio sanitario. La possibilità di monitorare le condizioni dei malati da remoto, grazie a sensori connessi in rete, è percepito da molti osservatori come una possibile soluzione del problema di garantire un servizio dignitoso a una percentuale sempre maggiore di ci adini che grava su un numero di contribuenti calante16. L'ultima frontiera dei big data raccolti in ambito sanitario con un notevole potenziale commerciale è rappresentata dalle cosidde e neurotecnologie. Si tra a di un se ore dell'industria hi-tech specializzato nello sviluppo di interfacce cervello-computer. Nato nell'ambito delle tecnologie riabilitative, oggi questo se ore si rivolge anche a individui sani che, grazie ai dispositivi in grado di decodificare l'a ività neuronale, possono sfru arli per "aumenta146

147

Andrea Capocci, Mauro Capocci - I big data e il corpo

re" la percezione della realtà integrando dati provenienti da fonti esterne. Grazie a questi dispositivi, l'utente può consultare banche dati via web su un certo argomento semplicemente puntando lo sguardo su un ogge o, o comandare altri dispositivi grazie a sistemi che analizzano le onde cerebrali. Lo sfru amento di dati così de agliati sull'a ività neuronale costituisce una potenziale minaccia all'autonomia individuale e una miniera d'oro per lo sfru amento commerciale della cosidde a "economia dell'a enzione". Infa i, il crescente numero di fonti di informazione a cui siamo esposti fa aumentare la rilevanza non solo economica che i messaggi vengano indirizzati a utenti selezionati nelle modalità e nei tempi che ne o imizzano l'impa o. Conoscere, ad esempio, le flu uazioni del livello di a enzione durante la fruizione di un video consente di individuare il momento più ada o per la collocazione di un'immagine pubblicitaria. Il rischio di abusi nel se ore delle neurotecnologie ha condo o i principali ricercatori del campo, a ivi in centri di ricerca pubblici e in aziende private, a formulare un appello perché la stessa Dichiarazione universale dei diri i dell'uomo sia modificata per 17 tenerne conto . Qualunque sia l'impa o dei big data sul sistema sanitario, se cioè sarà un'opportunità per i pazienti o per le imprese del se ore, l'integrazione tra informatica e medicina non si limiterà a modificare le condizioni di erogazione del servizio. A lungo andare, la disponibilità di dati modificherà la ricerca stessa delle nuove terapie, modificando le competenze richieste ai ricercatori e ai medici, che sempre più si avvicineranno a data scientist. È verosimile, infine, che questa mutazione professionale produca una svolta epistemologica nello stesso sapere medico. I conce i di salute, mala ia e di cura ne verrebbero ridefiniti alla luce del nuovo paradigma tecnologico, con conseguenze profonde alle quali individui e istituzioni dovranno ada arsi rapidamente.

Parte II - La teoria è morta, viva la teoria!

N 1) Timothy Caulfield, We're overselling the health-care 'revolution' of personal genomics, in The Globe and Mail, disponibile al link: theglobeandmail.com/news/national/time-to-lead/were-oversellingthe-health-care-revolution-of-personal-genomics/article6336238/. 2) James Shreeve, The Genome war, Knopf, New York 2004, citato in Myles W. Jackson, The genealogy of a gene, The MIT Press, Cambridge 2015, p.1. 3) I test diagnostici sono stati anche al centro di un'aspra ba aglia per l'accesso delle donne, poiché la Myriad Genetics ha di fa o cercato di bloccare l'utilizzo gratuito del test, rivendicando la proprietà intelle uale sugli esami. 4) Asbury Plomin, G come Geni. L'impa o della genetica sull'apprendimento, Raffaello Cortina, Milano 2015, p. 48. 5) Erika Check Hayden, A radical revision of human genetics, in Nature n° 538, 2016, pp. 154–157. 6) Walsh R, Thomson KL, Ware JS, et al., Reassessment of Mendelian gene pathogenicity using 7,855 cardiomyopathy cases and 60,706 reference samples, in Genetics in Medicine n° 19, 2017, pp. 192–203. 7) Krier J, Barfield R, Green RC, Kraft P., Reclassification of genetic-based risk predictions as GWAS data accumulate, in Genome Medicine n° 8, 2016, p. 20. 8) Myles W. Jackson, The genealogy of a gene: patents, HIV/AIDS, and race. Transformations: studies in the history of science and technology. The MIT Press, Cambridge, Massachuse s 2015. 9) IBM pianifica il primo Centro di Eccellenza europeo di Watson Health in Italia (comunicato stampa del 31 marzo 2016), disponibile al link: ibm.com/press/it/it/pressrelease/49449.wss 10) Teresa Numerico, Quando la medicina incontra il marketing, in Il Manifesto, 23 dicembre 2017, disponibile al link: ilmanifesto.it/quando-la-medicina-incontra-il-marketing/ 11) Andrea Capocci, Quando il corpo è un'ossessione, Il Manifesto, 7 maggio 2017, disponibile al link: ilmanifesto.it/quando-il-corpo-e-unossessione 12) Knoppers, Bartha Maria, H. Zawati Ma'n e Karine Sénécal, Return of 148

Andrea Capocci, Mauro Capocci - I big data e il corpo

genetic testing results in the era of whole-genome sequencing Nature Reviews Genetics, in European Journal of Human Genetic vol. 22, 2015. 13) Fi patrick, Kathleen Kara, Alison Darcy e Molly Vierhile, Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial, in JMIR Mental Health vol. 4, 2017. 14) Heshka, Jodi T., et al., A systematic review of perceived risks, psychological and behavioral impacts of genetic testing, in Genetics in Medicine vol 10, 2008, pp. 19-32. 15) Liang, Bryan A., Timothy Mackey, Direct-to-consumer advertising with interactive internet media: global regulation and public health issues, in Jama n° 305, 2011, pp. 824-825. 16) Mike Montgomery, The future of healthcare is in data analytics, in Forbes, disponibile al link: forbes.com/sites/mikemontgomery/2016/10/26/thefuture-of-health-care-is-in-data-analytics/#78ed980e3ee2 17) Yuste, Rafael, et al. Four ethical priorities for neurotechnologies and AI, in Nature News n° 551. 2017, p. 159.

149

L’illusione della Psicostoria Corsi e ricorsi della datificazione della ricerca storica di Roberta Paura

Parte II - La teoria è morta, viva la teoria!

N

el primo capitolo che costituisce il suo Ciclo delle Fondazioni, lo scri ore Isaac Asimov ci fornisce un'applicazione ante li eram della potenza dei “big data”. Non mi riferisco qui alla Psicostoria, la sua più celebre invenzione – «la scienza del comportamento umano rido o a equazioni matematiche»1 – grazie alla quale la Fondazione istituita sul pianeta Terminus sarà in grado, nel corso dei secoli, di predire con esa ezza i mutamenti storici e governare il caotico collasso dell'Impero gala ico; ma a una scena che oggi potrebbe sembrare un o imo esempio di speculazione tecnologica. Il sindaco della Fondazione, Salvor Hardin, vuole convincere il Consiglio degli Enciclopedisti, che detiene il vero potere politico su Terminus, del fa o che l'emissario inviato dall'Imperatore non ha affa o rassicurato loro sulla protezione accordata dall'Impero alla Fondazione di fronte ai propositi annessionistici dell'aggressivo vicino, il Regno di Anacreon. Per dimostrarlo, Hardin sostiene di essersi avvalso di «una branca del sapere umano, conosciuta so o il nome di logica simbolica, che può essere usata per eliminare tu e le parole inutili che rendono oscuro il linguaggio umano». Ha quindi so oposto tu e le conversazioni dell'emissario imperiale Lord Dorwin con gli Enciclopedisti all'équipe del professor Holk dell'Istituto di Logica, perché ne estrapolasse i conce i-chiave. Quando Holk, dopo due giorni di duro lavoro, è riuscito a eliminare ogni affermazione priva di significato, le parole incomprensibili, gli agge ivi inutili, in breve tu o ciò che era irrilevante, scoprì che non era rimasto niente. Aveva can150

Asimov era un positivista e scrisse il suo magnus opus in un'epoca – la prima metà del secolo scorso – ancora profondamente intrisa di positivismo. Poteva quindi immaginare che gli sviluppi della logica, prima ancora di quelli dell'informatica (che all'epoca non esisteva ancora), avrebbero un giorno realizzato un metodo del genere, che oggi chiameremmo di content analysis. Il Consiglio degli Enciclopedisti, essendo formato da scienziati, non me e in discussione l'esito dell'analisi di Hardin e si rende conto di essere stato gabbato. Eppure, il nostro Lord Dorwin è stato talmente bravo da far credere agli Enciclopedisti che l'Impero sarebbe intervenuto in soccorso della Fondazione in caso di aggressione: è servita un'analisi dei dati per dimostrare la sostanza dietro la cortina fumogena delle parole del diplomatico. Questo è, sostanzialmente, il sogno dei big data: rivelarci la verità che solo i dati possiedono, una volta interrogati nel giusto modo, squarciando il velo della nostra percezione inevitabilmente distorta. Dopo esserci fa i guidare per millenni della nostra percezione dei fa i, vi ime delle manipolazioni di chi è in grado di venderci una realtà diversa grazie a belle parole e artifici retorici, il data mining realizzerà finalmente il sogno di una società data-oriented, fondata sui nudi fa i. Per riuscirci, uno dei principali obie ivi consiste nel provare a fornire un'interpretazione dei fa i storici quanto più deterministica possibile, allo scopo di individuare quelle correlazioni causali in grado di spiegarci perché accade quel che accade. La Psicostoria di Asimov, con il suo sogno di “datificare” il comportamento umano, rappresenta senza dubbio un'ispirazione ambiziosa. Non stupisce quindi che, nel corso dei decenni, si siano susseguiti tentati151

Roberto Paura - L’illusione della psicostoria

cellato tu o. Signori, in cinque giorni di discussioni, Lord Dorwin “non ha de o assolutamente nulla”, ed è riuscito a fare in modo che voi non ve ne accorgeste. Questo sono tu e le assicurazioni che vi ha dato il vostro prezioso Impero2

Parte II - La teoria è morta, viva la teoria!

vi di dare allo studio della storia un approccio più fondato sui dati, allo scopo di superare gli sterili diba iti storiografici su cause e motivazioni per arrivare a dare una spiegazione definitiva. Non è, dopotu o, quello che sosteneva il fondatore di Wired, Chris 3 Anderson, nel suo celebre articolo del 2008, The End of Theory? Non ci servono più teorie, basterà la potenza dei big data a svelarci le connessioni dietro le cose. L'obie ivo di questo saggio è di me ere in discussione l'assunto della capacità auto-esplicativa e predi iva dei dati nello studio della storia, approfondendo il diba ito storiografico su un periodo storico ben preciso e piu osto rappresentativo, quello della 4 Rivoluzione francese ; da ciò intendo dimostrare come i tentativi di usare un approccio meramente quantitativo nello studio della Rivoluzione non siano riusciti a fornire un quadro esaustivo delle sue cause e dei suoi meccanismi, replicabile in contesti diversi, e come, in anni recenti, siano emersi metodi ugualmente fecondi che non si basano sulla mera fede nei dati – demografici, economici, più genericamente statistici – ma su un più complesso studio della percezione dei fa i e della costruzione della mentalità rivoluzionaria. Ciò dimostra, come affermo nelle conclusioni, che i tentativi di ricondurre i comportamenti umani a misure quantificabili e calcolabili sono destinati all'insuccesso e che abbiamo bisogno oggi più che mai di nuove teorie per interpretare l'emergere della cosidde a post-truth society, sorta di spinta centrifuga ai tentativi di prevedere – e pertanto di controllare – i comportamenti sociali e l'intera storia umana.

F Il passaggio dalla cosidde a “storia evenemenziale” – la storia tradizionale del XIX secolo fondata sopra u o sullo studio delle vicende politiche – al “materialismo storico” di matrice marxista, a partire dagli anni '20 del secolo scorso, cara erizzò profonda152

153

Roberto Paura - L’illusione della psicostoria

mente la storiografia della Rivoluzione francese. Come ricorda Albert Soboul (che in un anno-chiave come quello del 1968 fu chiamato a occupare la sommità della storiografia rivoluzionaria, vale a dire la storica ca edra di Storia della Rivoluzione francese alla Sorbona), a partire dalla fine del XIX secolo «le questioni economiche assunsero un'importanza crescente e alla fine preponderante nella politica degli stati e delle relazioni internazionali», tendenze 5 che «non potevano non agire sulla storiografia rivoluzionaria» . Quando, nel 1929, Marc Bloch e Lucien Febvre fondarono le Annales d'histoire économique et sociale, inaugurando la stagione della Nouvelle Histoire tu a incentrata sulla riscoperta dell'economia e della statistica, trovarono un aderente entusiasta in Georges Lefebvre, che aveva messo in appendice al suo monumentale studio su Les paysans du Nord pendant la Révolution française (1924), studio sui contadini del nord della Francia, quasi 300 pagine di tabelle su redditi, prezzi dei cereali, quantità di grano nei magazzini e via discorrendo, al punto che il suo maestro, Albert Mathiez, esclamò di avere a che fare con un monaco certosino piu osto che con uno storico. L'obie ivo di Lefebvre – che successivamente sarà uno degli autori più prolifici delle Annales, con oltre se anta articoli pubblicati – era di far parlare quei numeri, di riuscire a ricostruire le fasi della Rivoluzione a raverso l'andamento di quei fa ori quantificabili. Georges Lefebvre, massimo rappresentante di questa tendenza, mise in appendice al suo monumentale studio su Les paysans du Nord pendant la Révolution française (1924)6, sui contadini del nord della Francia, quasi 300 pagine di tabelle su redditi, prezzi dei cereali, quantità di grano nei magazzini e via discorrendo, al punto che il suo maestro, Albert Mathiez, affermò di avere a che fare con un monaco certosino piu osto che con uno storico. L'obie ivo di Lefebvre era di far parlare quei numeri, di riuscire a ricostruire le fasi della Rivoluzione a raverso l'andamento di quei fa ori quantificabili. Non ci riuscì, ma ci ha lasciato nondi-

meno una mole di dati preziosi sulle classi sociali del tardo XVIII secolo, unità d'analisi privilegiata della scuola marxista. Lo stesso Soboul, nel suo lavoro di do orato sui sanculo i di Parigi, si limitò a 15 pagine di appendici numeriche e a molti capitoli in cui, all'analisi dei dati demografici e degli andamenti salariali, affian7 cava la ricostruzione dei diba iti politici . George Rudé, dopo aver scartabellato gli archivi per ricostruire la composizione delle folle durante le giornate rivoluzionarie (16 pagine di tabelle in appendice al suo The Crowd in the French Revolution), ammise onestamente che:

Parte II - La teoria è morta, viva la teoria!

Se la composizione delle folle rivoluzionarie può emergere, in modo più o meno chiaro, da questo materiale d'archivio, è assai più difficile, né la cosa ci deve sorprendere, determinare i motivi che spinsero migliaia di parigini ad unirsi e a partecipare a quei moti8

Con l'avvento delle tecnologie informatiche, tu avia, la tentazione di passare da quell'analisi manuale dei dati a una datificazione più spinta e deterministica è riemersa prepotente. Uno degli studi più controversi, in tal senso, fu quello realizzato nel 1973 da Gilbert Shapiro, John Markoff e Sasha R. Weitman sui cahiers de doléances, i registri delle “lamentele” espresse dai tre ordini alla vigilia della riunione degli Stati Generali, al fine di poter servire da base per la discussione sulla riforma dello stato. I cahiers erano stati usati come fonte d'analisi delle classi sociali fin dall'avvento della scuola marxista, ma in questo studio i tre storici si spingevano ben oltre, realizzando quasi un manifesto dell'applicazione del data mining alla ricerca storica: «Abbiamo cercato – e continuiamo a cercare – di me ere insieme una miniera di dati con i quali possiamo esaminare e testare un'ampia varietà di ipotesi»9. Gli studiosi so oposero quindi diverse centinaia di cahiers a una content anal-

154

ysis, per poi effe uare analisi statistiche multivariate: «Solo questi metodi, sfru ando appieno la tecnologia ele ronica di processamento dei dati oggi disponibile, può perme erci un esame de a10 gliato di una tale messe di materiale per l'intero paese» . Ebbene, cosa rivelarono queste analisi pionieristiche? Nulla che gli storici della Rivoluzione non conoscessero già, orientati dal loro fiuto e dalla loro capacità di estrarre, anche da piccoli campioni di cahiers, gli orientamenti generali; non a caso oggi questo e altri studi analoghi di quantitative history sono pressoché dimenticati. «Non riesco a immaginare quali meraviglie spunteranno da questa gigantesca, costosissima enquête, ma quelle che finora sono state rivelate mi sembrano verità alquanto ovvie», scriveva con la sua consueta, sferzante ironia lo storico inglese Richard Cobb in un articolo che riprenderò tra breve, intitolato La storia fa a con i numeri.

François Furet, che pure aveva guardato con interesse in un primo momento a questo nuovo approccio della ricerca storica, vi lesse tu avia il rischio di una «riduzione della storia […] all'economia», più precisamente «la riduzione del suo sistema descri ivo e interpretativo a quello elaborato dalla più rigorosamente costituita delle scienze sociali odierne, l'economia politica»12. Per chi, come lui, si era fa o un nome vibrando il colpo mortale al materialismo storico marxista introducendo la cosidde a “storiografia revisionista” nello studio della Rivoluzione, utilizzare la quantitative history per riportare in auge la vecchia ideologia dell'homo oeconomicus dove e apparire un controsenso. Ma Furet avanzava un'obiezione fondamentale, su cui ritornerò nelle conclusioni. 155

Roberto Paura - L’illusione della psicostoria

Se chiediamo ai Tre Stati: “Siete favorevoli alla conservazione del Privilegio?”, è abbastanza prevedibile che il Secondo Stato [l'aristocrazia] risponda nel senso voluto, ossia che si dichiari favorevole nella misura del 98%11

Discutendo dell'applicazione delle tecniche informatiche allo studio dei dati sulle rivolte popolari (le cosidde e jacquerie), egli faceva notare che «una jacquerie è una storia senza fonti dire e, una sollevazione di ille erati», per la cui analisi è necessario ricorrere come uniche fonti ai rapporti di polizia. Riprendendo un'affermazione di Charles Tilly, Furet ricordava pertanto che «ogni rivolta che sfugge alla repressione sfugge alla storia», perché se l'unico modo per ricostruire la sua evoluzione è analizzare gli archivi di polizia, cosa succede quando l'apparato di polizia viene abba uto, come accadde spesso e volentieri nelle giornate rivoluzionarie?

Parte II - La teoria è morta, viva la teoria!

La relativa ricchezza delle nostre fonti durante un dato periodo può essere un segno di cambiamenti che sono istituzionali (rafforzamento dell'apparato repressivo) o puramente individuali (vigilanza speciale da parte di un funzionario particolare), piu osto che di un'inusuale frequenza nel fenomeno stesso. La differenza tra il numero di contadini insorti so o Enrico II e so o Luigi XIII può rifle ere innanzitu o il progresso della centralizzazione monarchica13

Cobb, che allo studio della repressione poliziesca delle proteste popolari ha dedicato un'opera magistrale fondata sui rapporti di 14 polizia , queste cose le sapeva bene; si può allora ben immaginare il suo duro a acco a queste “mode” nei suoi scri i, mode nelle quali scorgeva l'ennesima spia di una tendenza generale alla “disumanizzazione”: A me non interessa imparare che i membri dell'alta borghesia di Elbeuf avevano da 6 a 20 servitori, che i membri della media borghesia di Elbeuf avevano da 2 a 6 servitori, che i membri della piccola borghesia di Elbeuf avevano da 0 a 2 servitori. Non so che razza di non-persona possa mai stare 156

Appare emblematica, in questo contesto, la polemica intorno a uno dei primi, pionieristici tentativi di Michel Vovelle – l'ultimo rappresentante della vecchia scuola marxista e al tempo stesso tra i primi rappresentanti dello studio della mentalità nella longue durée – di studiare qualcosa non facilmente quantificabile come il sentimento religioso. Nel suo de agliato studio Vision de la mort et e e de l'au-delà en Provence du XV au XIX siècle (1970), Vovelle si imba é nel problema di individuare degli elementi storicamente accurati a raverso cui cercare di ricostruire il progredire della secolarizzazione in Provenza, fenomeno che egli riconobbe poi come una delle cause della Rivoluzione (l'abbandono della fede religiosa dei padri, elemento cementificante dell'ancien régime). Fu un'impresa necessaria perché Vovelle, formatosi come storico marxista, non doveva e non voleva apparire “revisionista”. Scriverà anni dopo, a tale riguardo: Ai suoi primi stadi la storia delle mentalità, ancora molto vicina alla storia delle idee, restava assai “qualitativa”; in seguito scoprì, una quindicina d'anni fa, i vantaggi della quantificazione: e mi assumo la mia parte di responsabilità su questo punto, avendola io predicata da antesignano, analizzando la trasformazione della sensibilità provenzale dal “barocco” alla laicizzazione sulla base di migliaia di documenti16

157

Roberto Paura - L’illusione della psicostoria

dietro a 0 servitori […]. Forse cado nel sentimentalismo, ma mi rincresce vedere la sorte che tocca a tante povere ragazze di campagna: dopo aver patito il caldo nei so oscala o il gelo nelle soffi e, dopo aver subito la lussuria del padrone e dei suoi figli, ora, a tanti anni dalla loro morte, devono so ostare a una ulteriore umiliazione, quella di essere imbarcate a forza in galere di nuovo genere: i diagrammi delle dissertazioni americane di do orato»15

Vovelle consultò pertanto registri parrocchiali, dati sulle comunioni e le confessioni, ricorrenze all'interno dei testamenti dell'indicazione per le messe in suffragio, gli ex-voto e persino la lunghezza e il peso dei ceri votivi. Elemento, questo, che destò l'indignazione di Cobb, che scrisse al riguardo:

Parte II - La teoria è morta, viva la teoria!

Uno di questi studi ha proposto, come unità di misura per il declino della fede nella ci à di Marsiglia, tra il 1700 e il 1789, le dimensioni e il numero dei ceri usati nei funerali, nei ba esimi e nei matrimoni. È un fa o che i ceri, nel corso del secolo, diventavano progressivamente più piccoli e meno numerosi. E questo storico conclude trionfante con l'annuncio che è penetrato nei più riposti segreti dell'anima marsigliese e ha messo le mani sulla prova quantitativa di un declino della fede17

Vovelle si schernirà poi affermando che «uno storico inglese senza il minimo senso dell'umorismo» (ma Cobb ne aveva eccome!) «si è indignato per la statistica del peso medio dei ceri da chiesa in Provenza che avevo inserito, con deliberata malizia, nella mia opera»18. Deliberata malizia? Vovelle sembra voler giustificare quei suoi studi giovanili ancora impregnati di materialismo storico, lui che tanto ha contributo al consolidamento della storia delle idee e della mentalità; ma se in epoche più tarde le sue ricerche hanno predile o, per esempio, gli apparati iconografici al peso dei ceri 19 come indicatori per lo studio della mentalità rivoluzionaria , credo sia prova del fa o che quest'ultimo elemento – e in generale la tendenza a estrarre dati dove non ci sono – avesse fornito assai scarsi risultati esplicativi.

L In tempi più recenti, altri hanno provato a ricondurre la Rivoluzione francese o suoi aspe i particolari a fenomeni quantificabili e 158

159

Roberto Paura - L’illusione della psicostoria

tra abili a livello informatico, con esiti dubbi. Ha davvero importanza sapere quante volte ricorre, nei discorsi di Robespierre, la parola “felicità”, per capire che essa ebbe un ruolo importante nella mentalità rivoluzionaria? Eppure, alcuni storici italiani si sono recentemente impegnati in un imponente studio di data mining per ricostruire il lessico della Rivoluzione francese, imba endosi in verità già note da tempo alla storiografia20. Peter Turchin, il fondatore della disciplina della “cliodinamica”, una sorta di nuova Psicostoria di indubbio fascino, ha individuato nel meccanismo della “sovrapproduzione delle élite” un fenomeno d'innesco non solo della Rivoluzione, ma di molti altri momenti storici di turbolenza, spingendosi a fare analoghe previsioni per il futuro della 21 società americana (e non solo) . Ma, anche qui, il problema della sovrapproduzione dei nuovi ceti intelle uali in una società troppo ingessata per assorbirli era noto da tempo22, e la sua capacità predi iva resta scarsamente convincente, nonostante il gran numero di dati portati da Turchin a sostegno della sua tesi. Un caso interessante è “l'esperimento naturale” compiuto da qua ro economisti (non storici), Daron Acemoglu, Davide Cantoni, Simon Johnson e James Robinson, riportato nel volume Esprimenti naturali di storia curato da Jared Diamond e dallo stesso 23 James Robinson . Dirò tra poco dell'impostazione generale di questo volume, che analizza se e casi di epoche storiche e aree geografiche molto diverse tra loro con quella che dovrebbe essere una metodologia tipica di un esperimento di laboratorio, con la peculiare cara eristica di applicare questa metodologia allo studio di fenomeni storici. Nello studio in questione, il team “scopre” che lo sviluppo economico di alcune regioni della Germania fu favorito dall'invasione delle truppe francesi durante la Rivoluzione e l'Età napoleonica, grazie all'apporto di riforme che spazzarono via le vecchie istituzioni d'ancien régime favorendo la transizione dalla società feudale a quella moderna. Tralasciando il fa o che da tem-

Parte II - La teoria è morta, viva la teoria!

po una gran mole di studi ha messo in discussione la vecchia idea della Francia d'ancien régime come società feudale24 (gli autori, tu avia, respingono questa obiezione), di per sé la scoperta non ha nulla di clamoroso: la storiografia contemporanea è da tempo a proprio agio con l'idea che l'esportazione delle istituzioni rivoluzionarie da parte delle armate napoleoniche abbia favorito la transizione verso modelli socio-politici moderni25. Gli studiosi, tu avia, ritengono di aver fa o un'importante scoperta analizzando i dati relativi all'urbanizzazione e rivelando, con un grafico, che quelle aree della Germania so oposte all'occupazione delle armate francesi subirono un'accelerazione dell'urbanizzazione rispe o alle aree non invase: scegliendo quindi la crescita dell'urbanizzazione come indice di sviluppo economico (scelta che non intendo contestare), viene effe uata una correlazione tra questa e l'occupazione francese. Si tra a di un “esperimento naturale” perché, come negli esperimenti di laboratorio, abbiamo i dati di due gruppi diversi, quello analizzato e il gruppo di controllo, dove la “perturbazione” (in questo caso l'invasione francese) non è avvenuta. Il gruppo di controllo è rappresentato dalle regioni tedesche non invase, anche se trasformate in stati-satellite dell'Impero francese. Credo valga la pena mostrare la debolezza di questo studio applicandolo a un altro caso, quello italiano. Anche l'Italia fu so oposta all'occupazione francese, per un tempo persino più lungo rispe o alla Germania; la parte se entrionale fu in buona parte assorbita nel Regno d'Italia governato da Eugenio di Beauharnais, figlioccio di Napoleone, mentre la parte meridionale nel Regno di Napoli fu governata prima dal fratello Giuseppe e poi dal cognato dell'Imperatore, Gioacchino Murat. Ebbene, come spiegare il fa o che l'urbanizzazione e lo sviluppo economico cara erizzarono la storia successiva del Nord Italia, mentre il Sud rimase nella situazione di arretratezza che tanto gli storici quanto gli economisti 160

ben conoscono? Eppure, il Sud aveva subìto lo stesso fenomeno di “modernizzazione”, e anzi, grazie alla protezione di Murat, lo sfru amento di tipo coloniale imposto dal regime francese sull'economia locale era minore rispe o a quello imposto dal 26 Regno d'Italia . Evidentemente, allora, la spiegazione va cercata altrove, in quelle “variabili omesse” che gli autori riconoscono possano inficiare studi come il loro (ma non il loro). L'ipersemplificazione di questi “esperimenti naturali” (o “metodi comparativi”) e dei tentativi di rendere la storia una disciplina analizzabile come le scienze fisiche appare lampante. Diamond e Johnson giustificano il loro approccio come un tentativo di rispondere alle critiche degli studiosi delle scienze “quantitative” secondo cui la storia non può essere considerata una disciplina scientifica. Ricordano, a tal riguardo, un'affermazione di Lord Kelvin:

Anziché obie are che, con buona pace di Lord Kelvin, la sua era un'opinione espressa in un clima di positivismo radicale, Diamond e Johnson cercano di rispondere alla sua sfida portando la ricerca storica allo stesso livello delle scienze empiriche. Scrivono per esempio: «Gran parte della difficoltà pratica della ricerca nelle scienze sociali risiede nel compito di “operativizzare” conce i vaghi, fuzzy, difficili da misurare ma importanti, come la felicità». Nel caso in esempio, «Acemoglu et al. vogliono capire se Napoleone esercitò un'influenza positiva o negativa sullo sviluppo economico nell'Europa dell'O ocento, in un'epoca in cui le entrate non 161

Roberto Paura - L’illusione della psicostoria

Quando si può misurare ciò di cui si sta parlando, ed esprimerlo in numeri, si sa qualcosa su di esso: ma quando non lo si può misurare, quando non lo si può esprimere con numeri, la propria conoscenza è scarsa e insoddisfacente: può essere l'inizio di una conoscenza, ma non si è ancora avanzati, nei propri pensieri, al livello della scienza27

erano ancora misurate e raccolte in banche dati»28. Ecco allora che individuano nell'urbanizzazione un adeguato conce o operativo per studiare lo sviluppo economico; va bene, ma sarebbe davvero troppo sostenere che, dall'analisi dello sviluppo economico della Germania, gli studiosi possano anche determinare l'aumento della “felicità” in quelle aree rispe o a quelle rimaste tagliate fuori dall'urbanizzazione e della crescita. Finché si resta nell'ambito della storia economica, non si può fare a meno dei dati. Quando però si vuole estendere la storia economica allo studio dell'impa o positivo e negativo di una rivoluzione su una popolazione, la questione diventa più complessa. Cobb avrebbe da replicare qualcosa ai nostri economisti: E come quantificare la moralità? Dovremo stabilire, come per il vino o i liquori, una scala percentuale della malvagità? È inteso che Bernade e era al 98 per cento Buona? Che Charlo e Corday era all'83 per cento pura? Che Charles Churchill era all'89 per cento Malvagio? E come classificare Don Giovanni?29

Parte II - La teoria è morta, viva la teoria!

V I limiti di questi approcci sono oggi più evidenti in seguito all'emergere del diba ito sulla cosidde a post-verità. Anche se l'Oxford Dictionaries l'ha definita “parola dell'anno 2016” (nella versione inglese post-truth), la post-verità è un fenomeno antico, che ebbe un ruolo determinante nella costruzione della mentalità rivoluzionaria, se si tiene conto dei più recenti apporti di storici innovativi come Robert Darnton e Timothy Tacke , di cui ho parlato in un mio precedente articolo30. Il loro tentativo di ricostruire l'opinione che i contemporanei dell'epoca rivoluzionaria nutrivano nei confronti dei propri politici – sovrani o rappresentanti ele i, a seconda del periodo – e degli eventi storici che si susseguirono a raverso lo studio dei diari, degli articoli di giornale, della diffu162

163

Roberto Paura - L’illusione della psicostoria

sione di libelli polemici o scandalistici e dei resoconti di polizia, rivela quanto siano importanti le fonti qualitative nella comprensione delle rappresentazioni colle ive. In esse – ci rivelano gli studiosi contemporanei della post-verità – il ruolo dei dati sembra essere poco rilevante rispe o alla percezione condivisa. Un caso tipico è rappresentato dalla diffusione dei casi di violenza, in ne a e costante diminuzione nei paesi occidentali ormai da anni, ma che periodicamente vede l'esplodere di allarmismi relativi a ondate di criminalità che in realtà sono una rappresentazione distorta fornita dai media: il successo di queste rappresentazioni, peraltro, varia a seconda dei contesti sociali, ed è maggior in quei contesti dove si coltiva un profondo sentimento di disaffezione nei confronti delle istituzioni e dell'establishment. È per questo che l'epoca prerivoluzionaria fu così sensibile alle notizie false, ai rumor e al complo ismo, esa amente come le epoche precedenti i due confli i mondiali31. È vero che sono stati i big data a svelarci le dimensioni impensabili del fenomeno della post-verità, specialmente in Rete32. In questo senso, la loro utilità nel far emergere tendenze che altrimenti resterebbero indistinguibili dal rumore di fondo, o legate solo a sensazioni sogge ive, è innegabile. Tu avia, i data scientist non sono stati in grado di fornirci uno straccio di teoria esplicativa di questo fenomeno, e i loro tentativi di suggerire possibili strategie per contrastare la diffusione della misinformation suonano poco convincenti. Questo perché lo studio delle rappresentazioni colle ive richiede, inevitabilmente, livelli d'analisi che esulano dagli schemi dei data scientist e che ricadono, piu osto, nel novero dei moderni studi di psicologia sociale, storia della mentalità e delle idee, cultural studies. In particolare, sembra essenziale uno studio delle categorie cognitive all'interno delle quali i gruppi sociali recepiscono e interpretano i dati, creando delle rappresentazioni viziate dai propri pregiudizi colle ivi e bias radicati ed ereditati.

Parte II - La teoria è morta, viva la teoria!

Per ritornare al brano di Asimov con cui ho aperto questo articolo, oggi ciò che più importa è capire perché gli Enciclopedisti erano disposti a credere alle parole fumose di Lord Dorwin, anziché rendersi conto che il diplomatico non aveva fornito loro alcun tipo di rassicurazione. Hardin potrà continuare a so oporci i suoi esperimenti di data mining, ma nella società della post-verità (che non è quella della Fondazione) semplicemente non gli daremmo ascolto. Mi sono limitato qui a pendere in considerazione il caso della Rivoluzione francese, perché ritengo che i fenomeni rivoluzionari – pur spiegabili all'interno della longue durée – non possano essere ricondo i a spiegazioni puramente quantitative. Questo non toglie che i dati abbiano un'importanza determinante nella ricerca storiografica, in particolare nella storia economica e demografica: ma da tempo abbiamo abbandonato l'illusione secondo cui le giornate rivoluzionarie scoppiassero nei giorni di picco del prezzo del pane a Parigi; e ciò perché la correlazione causale si rivela spesso uno strumento esplicativo fallace, per esempio tenendo conto che, in casi di insurrezioni popolari, l'aumento del prezzo dei beni alimentari è una dire a, inevitabile conseguenza, non il contrario. È un bene, d'altro canto, che i fenomeni di ro ura storica sfuggano al sogno della Psicostoria, alla speranza di individuare un solo ordine di cause a raverso cui poterne predire le esplosioni. Se così non fosse, la storia sarebbe non solo prevedibile, ma manipolabile33. I data scientist che oggi continuano a baloccarsi con studi secondo cui sarebbe possibile predire i moti della cosidde a Primavera araba tenendo conto delle flu uazioni dei prezzi dei beni 34 alimentari, o le rivolte urbane seguendo l'andamento dei tweet , non si rendono conto che così facendo, qualora le loro ipotesi si rivelassero fondate, me erebbero a disposizione dei decisori politici dei potenti strumenti di controllo e repressione delle masse: piu osto che prevedere rivolte e a entati terroristici, avrebbe cer164

tamente più senso cercare di intervenire nei contesti di disagio in cui questi fenomeni emergono. Lo aveva intuito anche Cobb, ipotizzando di applicare lo studio di Rudé della composizione quantitativa delle folle rivoluzionarie a Parigi alla situazione nell'Irlanda del Nord in quel periodo (siamo alla viglia del Bloody Sunday): Sì, sarebbe di qualche aiuto, da un lato contribuendo a situare le due comunità religiose nelle loro varie roccaforti, spesso contigue, e dall'altro “contando le teste” all'interno di queste aree; potrebbe persino giovare a definire un modello di tumulto chiaramente sensibile a pressioni stagionali, al calendario del venerdì sera. Ma non ci direbbe quel che vogliamo realmente sapere, e che senza dubbio le autorità inglesi vogliono sapere: che specie di gente si arruola tra gli a ivisti dei Provisionals? Quali le loro motivazioni personali? Quali le fonti del loro impegno militante?35

Roberto Paura - L’illusione della psicostoria

In quest'epoca di data deluge in cui è stata proclamata la fine delle teorie e la riduzione delle persone a numeri, abbiamo insomma quanto mai bisogno di sviluppare teorie e di capire le persone per ridare senso alla storia e al nostro presente.

165

Parte II - La teoria è morta, viva la teoria!

N 1) Isaac Asimov, Seconda Fondazione, in Il Ciclo delle Fondazioni, Mondadori, Milano, 1995, p. 303. 2) Isaac Asimov, Prima Fondazione, in Il Ciclo delle Fondazioni, Mondadori, Milano 1995, pp. 46-47. 3) Chris Anderson, The End of Theory: the Data Deluge Makes the Scientific Method Obsolete, in Wired, 23 giugno 2008. 4) Non essendo uno storico di professione, non ho la pretesa di estendere la mia analisi oltre questo se ore, al quale ho dedicato peraltro due monografie e alcuni articoli, e che pertanto ritengo di conoscere abbastanza nel de aglio, anche per quanto a iene al diba ito storiografico che si è susseguito, per il quale mi perme o di rinviare alla sezione “Diba iti” della mia Guida alla Rivoluzione francese, Odoya, Bologna 2016. 5) Albert Soboul, Storia della Rivoluzione francese. Princìpi. Idee. Società, Rizzoli, Milano, 2001, pp. 22-23. 6) Georges Lefebvre, Les paysans du Nord pendant la Révolution française, edizione aggiornata e ampliata a cura di Armando Sai a e Albert Soboul, Laterza, Bari, 1959. 7) Albert Soboul, Les sans-culo es parisiens en l'An II. Mouvement populaire et government révolutionnaire, Libraire Clavreuil, Parigi, 1958. 8) George Rudé, Dalla Bastiglia al Termidoro. Le masse nella rivoluzione francese, Editori Riuniti, Roma, 1989, pp. 16-17. 9) Gilbert Shapiro, John Markoff e Sasha R. Weitman, Quantitative Studies of the French Revolution, in History and Theory, vol. 12 n. 2, 1973, p. 167. 10) Ivi, p. 171 11) Richard Cobb, La storia fa a con i numeri, 1971, ora in Id., Tour de France, Adelphi, Milano, 1995. p. 127. Il le ore potrebbe avere perplessità sul fa o che questo articolo risalga al 1971 mentre lo studio citato è del 1973. Cobb tu avia riferiva all'epoca dell'inizio del proge o di ricerca, che portò poi alla pubblicazione dei risultati solo due anni dopo. 12) François Furet, Quantitative History, in Daedalus, vol. 100 n. 1, inverno 1971, p. 152. 13) Ivi, p. 158. 14) Richard Cobb, Polizia e popolo. La protesta popolare in Francia (17891820), Il Mulino, Bologna, 1976. 166

167

Roberto Paura - L’illusione della psicostoria

15) Cobb, op. cit., pp. 132-133. 16) Michel Vovelle, Ideologie e mentalità, Guida, Napoli, 1989, p. 22. 17) Cobb, op. cit., p. 129. 18) Vovelle, op. cit., 30. 19) Il cambiamento si nota già nel suo fondamentale La mentalità rivoluzionaria, Laterza, Roma-Bari 1987; ma diventa più evidente ne Il triennio rivoluzionario italiano visto dalla Francia, Guida, Napoli, 1999, e sopra u o nei cinque volumi La Rivoluzione francese. Un racconto per immagini 1789-1799, Editori Riuniti, Roma, 1988-1989. 20) Cesare Ve er, Marco Marin ed Elisabe a Gon (a cura di), La felicità è un'idea nuova in Europa. Contributo al lessico della rivoluzione francese, 2 voll., Edizioni Università di Trieste, Trieste, 2013. 21) Peter Turchin, Sergey Nefedov, Secular Cycles, Princeton University Press, Princeton, 2009; per una breve tra azione italiana, cfr. Peter Turchin, La sovrapproduzione delle élite e il caos prossimo venture, in Futuri, n. 2, maggio 2014. 22) Per esempio nel fondamentale studio sull'élite rivoluzionaria di Timothy Tacke , Becoming a Revolutionary, 1997, tr. it. In nome del popolo sovrano. Alle origini della Rivoluzione francese, Carocci, Roma, 2000, di impianto prosopografico. 23) Daron Acemoglu, Davide Cantoni, Simon Johnson, James Robinson, Dall'Ancien régime al capitalismo: la diffusione della Rivoluzione francese come esperimento naturale, in Jared Diamond e James Robinson (a cura di), Esperimenti naturali di storia, Codice Edizioni, Torino, 2017. 24) A partire da Arthur Cobban, The Social Interpretation of the French Revolution, Cambridge University Press, Cambridge, 1964; sul tema mi perme o di rinviare al capitolo “Rivoluzione borghese” della mia Guida alla Rivoluzione francese, op. cit. 25) Su tu i rimando a Jacques Godechot, La Grande Nazione. L'espansione rivoluzionaria della Francia nel mondo 1789-1799, Laterza, Bari, 1962. 26) Cfr. John A. Davis, Napoli e Napoleone. L'Italia meridionale e le rivoluzioni europee (1780-1860), Rubbe ino, Soveria Mannelli, 2014. 27) Cit. in Diamond e Robinson, op. cit., p. 236. 28) Ivi, p. 235. 29) Cobb, op. cit., p. 133.

Parte II - La teoria è morta, viva la teoria!

30) Roberto Paura, Le brioche di Maria Antonie a. La post-verità nella Rivoluzione francese, in corso di pubblicazione, disponibile in pre-print su Academia.edu: bit.ly/2yfzR90. 31) Come dimostrò per primo, quasi un secolo fa, Marc Bloch, Réflexions d'un historien sur les fausses nouvelles de la guerre, in Revue de synthèse historique, vol. 33, 1921. 32) Cfr. Walter Qua rociocchi, Antonella Vicini, Misinformation. Guida alla società dell'informazione e della credulità, Franco Angeli, Milano, 2016. 33) Furet lo aveva, in parte, anticipato; sul tema rinvio a Nunziante Albano, «La (fanta?)scienza della psicostoria», in Futuri, n. 2, maggio 2014. 34) Cfr. per esempio Justin Mullins, Complexity theorist: My formula predicts social unrest, in New Scientist, 27 agosto 2011; John Bohannon, Can unrest be predicted?, in Science, 30 aprile 2015. 35) Cobb, op. cit., p. 135.

168

Parte III

Macchine intelligenti 1. Un robot non può recar danno a un essere umano né può perme ere che, a causa del proprio mancato intervento, un essere umano riceva danno. 2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. 3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. Manuale di Robotica, 56ª Edizione - 2058 d.C.

La guerra dei bias di Andrea Daniele Signorelli

Parte III - Macchine intelligenti

S

i parla sempre di intelligenza artificiale: una definizione che potrebbe far pensare a macchine dotate di vera conoscenza, in grado di ragionare e consapevoli di ciò che stanno facendo. Le cose, invece, sono molto diverse: il fa o che un software impari a riconoscere se in una foto sono presenti dei ga i, non significa che sappia che cosa sia un ga o; allo stesso modo, il computer che ha ba uto Lee Sedol, il maestro di Go, non aveva la più pallida idea di che cosa stesse facendo (e lo stesso vale per lo storico esempio riguardante le partite a scacchi tra Deep Blue di IBM e Gary Kasparov). Questi software, insomma, non sono in grado di pensare; sono semplicemente capaci di processare una quantità tale di dati da riuscire a me erli in relazione tra loro, identificando collegamenti e differenze in un paniere di dati o calcolando statisticamente, per esempio, quale mossa di un determinato gioco ha la maggior probabilità di avere successo. Ma allora, come impara un’intelligenza artificiale? I metodi utilizzati per o enere questi risultati sono principalmente due: il machine learning (apprendimento automatico) e la sua più recente evoluzione, il deep learning (apprendimento approfondito), un sistema dalle enormi potenzialità che si basa sugli stessi princìpi ma che, a differenza del machine learning, lavora su un vastissimo numero di strati interni alle “reti neurali” che simulano il funzionamento del cervello, organizzando l'analisi dei dati su diversi livelli e raggiungendo così una maggiore capacità di astrazione. Le origini di questa branca dell'intelligenza artificiale risalgono agli anni '50 e al lavoro di pionieri (spesso rivali tra loro) come Marvin Minsky, Warren McCulloch, Frank Rosenbla e Arthur Samu172

Il modello simbolico è un sistema che ha portato a qualche successo, ma ha grossi limiti: prima di tu o, richiede agli esseri umani un lavoro enorme; inoltre, funziona solo in quei campi che hanno regole molto chiare: la matematica o gli scacchi. Nella traduzione – con tu e le sue sfumature, eccezioni e importanza del contesto – non raggiunge livelli nemmeno lontanamente acce abili. Ma proprio il fa o che questa tecnica eccellesse in se ori nei quali è richiesta parecchia intelligenza, come la matematica e gli scacchi, veniva considerato un segnale molto prome ente da parte dei sostenitori della IA simbolica. L'a eggiamento generale ha iniziato a cambiare solo negli anni '90, quando è diventato evidente come il machine learning consentisse di risolvere parecchi problemi di natura pratica, che la IA simbolica non sarebbe mai stata in grado di affrontare. Il salto di qualità che l'ha infine imposto come strada maestra nel mondo del173

Andrea Daniele Signorelli - La guerra dei bias

el (quest'ultimo ha coniato un’importante definizione di machine learning: «una branca dell'intelligenza artificiale che fornisce ai computer l'abilità di apprendere senza essere stati esplicitamente programmati»). Per decenni, però, il fa o che questa tecnica – considerata “evoluzionista”, perché consente alle macchine di imparare come facciamo noi, a raverso tentativi ed errori – non consentisse di raggiungere una vera e propria intelligenza artificiale, ma solo una sorta di calcolo statistico estremamente evoluto, le ha impedito di o enere grande popolarità nel mondo accademico. La maggior parte degli scienziati concentrava infa i la ricerca sulla IA cosidde a “simbolica”, che prevede che le macchine vengano indo rinate con tu e le regole necessarie per portare a termine un compito. Per tradurre dall'italiano all'inglese, per esempio, sarebbe stato necessario fornire al computer tu e le regole grammaticali e i vocaboli delle due lingue, per poi chiedergli di convertire una frase da una lingua all'altra.

Parte III - Macchine intelligenti

la IA è avvenuto più recentemente, grazie alla crescente potenza di calcolo dei computer e a una mole senza precedenti di dati a disposizione, che ne hanno aumentato esponenzialmente le 1 potenzialità . Alla base del machine learning, c'è l'utilizzo di algoritmi che analizzano enormi quantità di dati, imparano da essi e poi traggono delle conclusioni o fanno delle previsioni. Per questo, nella definizione di Arthur Samuel, si parla di «abilità di apprendere senza essere stati esplicitamente programmati»: a differenza dei software tradizionali, che si basano su un codice scri o che spiega loro passo dopo passo cosa devono fare, nel caso del machine learning la macchina scopre da sola come portare a termine l'obie ivo che le è stato dato. Un software che deve imparare a riconoscere un numero scri o a mano, per esempio il 5, viene quindi so oposto a centinaia di migliaia di immagini di numeri scri i a mano, in cui è segnalato solo se sono dei 5, oppure non lo sono. A furia di analizzare numeri che sono o non sono dei 5, la macchina impara a un certo punto a riconoscerli, fornendo una percentuale di risposte corre e estremamente elevata. Da qui a essere davvero intelligenti, ovviamente, ce ne passa: basti pensare che, per imparare a riconoscere un certo numero, un'intelligenza artificiale deve essere so oposta a migliaia e migliaia di esempi; a un bambino di qua ro anni basta vederne cinque o sei. Lo stesso metodo probabilistico è alla base di una quantità di operazioni che quotidianamente ci semplificano la vita: il machine learning viene impiegato dai filtri anti-spam per eliminare la posta indesiderata prima ancora che arrivi nelle nostre caselle, per consentire a Siri di capire (più o meno) che cosa le stiamo dicendo e a Facebook per indovinare quali tra i nostri amici sono presenti nelle foto; perme e ad Amazon e Netflix di suggerirci quali libri o film potrebbero piacerci, a Spotify di classificare corre amente le 174

canzoni in base al loro genere musicale. Già oggi, insomma, utilizziamo quotidianamente l'intelligenza artificiale, spesso senza nemmeno rendercene conto. Ma le applicazioni del machine learning diventano sempre più importanti e ambiziose: l'esempio che ha fa o più parlare è quello delle auto autonome, che prome ono di ridurre drasticamente gli incidenti, ma anche il mondo del lavoro sarà investito da queste macchine intelligenti: il primo robot avvocato, in grado di fornire risposte scartabellando nei database legali di tu o il mondo, è già una realtà2; così come lo è Watson, l'intelligenza artificiale di IBM che, tra le altre cose, diagnostica i tumori con precisione maggiore dei medici umani.

Per le intelligenze artificiali, quindi, i fa ori fondamentali sono due: il potere di calcolo e i dati. Ma sono i dati l'elemento imprescindibile, essendo la materia grezza dalla quale il network neurale trae le sue conclusioni o predizioni. Se questi dati non sono di buona qualità, il risultato non potrà che essere pessimo. Come dicono gli americani: «Se inserisci spazzatura, esce spazzatura». Il problema è che spesso i dati forniti alle IA includono non pochi pregiudizi umani, che si rifle eranno inevitabilmente sui risultati o enuti dalle macchine. Un esempio classico è quello del bot proge ato da Microsoft: Tay. Messo all'opera su Twi er, ha iniziato a immagazzinare dati grazie alle interazioni con gli utenti del social network. Come prevedibile, si sono scatenati i troll, che hanno iniziato a comunicare con Tay dandole in pasto una miriade di opinioni razziste, omofobe e quant'altro. Risultato? Nel giro di 24 ore, Tay è diventata la prima intelligenza artificiale nazista della storia. Prima di venir chiusa da Microsoft, è riuscita a twi are «Hitler was right I hate the jews»3.

175

Andrea Daniele Signorelli - La guerra dei bias

L

Parte III - Macchine intelligenti

Lasciando perdere i troll, gli scienziati informatici che si occupano di trovare i dati da dare in pasto alle macchine sono spesso alle prese con problemi più banali, che impediscono però di fornire materiale di qualità alle IA. Uno di questi problemi, per quanto possa sembrare strano, sono le leggi sul copyright: «Queste norme giocano un ruolo centrale nelle distorsioni delle IA, perché incoraggiano i loro programmatori a usare training set facilmente accessibili, a basso rischio dal punto di vista legale; anche quando questi set sono evidentemente distorti», ha spiegato a Motherboard Amanda Levendowski, docente di Legge e Tecnologia alla New York Uni3 versity . Due esempi possono chiarire il quadro: una fonte spesso utilizzata per istruire i network neurali sono le migliaia di mail che si sono scambiati i dipendenti della Enron; divenute pubbliche quando il colosso petrolifero si è trovato al centro di un enorme scandalo, qualche anno fa. Queste email sono diventate una sorta di tesoro per gli scienziati informatici; anche per la facilità con cui le macchine possono leggerle. Sembrerebbe la soluzione perfe a, peccato che si tra i di centinaia di migliaia di mail scri e da dipendenti di una compagnia petrolifera texana indagata per truffa. Difficile immaginare che siano prive di distorsioni. Ovviamente, si possono usare dati provenienti da opere che non sono più sogge e alle leggi sul copyright. Per esempio, Il Grande Gatsby, o magari i drammi di Shakespeare. Ma anche in questo caso c'è un problema non da poco: «La maggior parte delle opere oggi di dominio pubblico sono state pubblicate negli anni '20, quando il canone le erario era decisamente più bianco, più ricco e più occidentale», spiega sempre Levendowski. «Un dataset che faccia affidamento solo su questi lavori non farebbe altro che rifle ere i pregiudizi del tempo; e lo stesso farà il sistema di intelligenza artificiale allenato usando questi dataset».

176

Si tra a di un problema enorme, che dovrebbe farci porre parecchie domande quando si sente parlare di IA in grado di riconosce4 re i criminali . Se, per qualunque ragione, negli Stati Uniti c'è una percentuale superiore di crimini compiuti da afroamericani e messicani – o, in Italia, da parte di immigrati – i dati sui crimini forniti alla IA non faranno altro che creare in lei un pregiudizio sulle “cara eristiche” del criminale. Di conseguenza, tenderà inevitabilmente a considerare certe etnie come “naturalmente” più predisposte a diventare criminali.

Il problema diventa ancora più urgente se si pensa ai sempre più diffusi algoritmi che governano software come PredPol – utilizzati nelle principali ci à di tu o il mondo, da New York fino a Milano – e che sono alla base della “polizia predi iva “. Sistemi informatici in grado di prevedere dove un crimine sarà compiuto, a che ora e in quale situazione5. La previsione, ovviamente, non è certa; si tra a di calcoli probabilistici – gli stessi utilizzati dalla sismologia e dall'epidemiologia – che danno i loro risultati in base a un enorme numero di dati immagazzinati all'interno del software: dove un crimine è stato commesso, quando, di che tipo e altre variabili ancora. Il tu o allo scopo di prevenire il ripetersi di furti o aggressioni, basandosi su un semplice assunto: se in una zona sono avvenuti numerosi crimini di un determinato tipo, è altamente probabile che avverranno di nuovo. De o questo, la polizia predi iva è efficace? Uno studio dell'Università della California sembrerebbe dare risposta positiva, segnalando come nelle ci à in cui PredPol viene utilizzato (Los Angeles, Atlanta, Sea le, per dirne alcune) i crimini si siano rido i in media del 7,4%, con punte del 30%6. Il problema è che questo studio è stato condo o, tra gli altri, dai due fondatori di PredPol, e i risultati riportati sono stati seriamente messi in dubbio in uno studio condo o dall'Università di Grenoble. 177

Andrea Daniele Signorelli - La guerra dei bias

L'

Le perplessità, però, non riguardano solo i risultati effe ivi, ma anche il modo in cui i dati vengono raccolti e utilizzati. Una prima problematica fondamentale viene efficacemente sintetizzata da 7 Ma Stroud :

Parte III - Macchine intelligenti

Se un gran numero di crimini viene denunciato in un luogo specifico, non significa necessariamente che lì stiano avvenendo più crimini che altrove. Potrebbe significare che la polizia tende a stazionare nelle vicinanze (rendendo più probabile la denuncia del crimine avvenuto, NdR), che la pa uglia ha deciso di concentrarsi per un certo lasso di tempo in quell'area, che gli abitanti di quel quartiere tendono a denunciare i crimini più facilmente di quanto avvenga altrove. Ma i software predi ivi non hanno modo di conoscere tu o ciò, e quindi possono causare una profezia che si autoavvera

Il meccanismo è evidente: se la polizia già tiene d'occhio una certa zona, avrà modo di intervenire più frequentemente che altrove. L'algoritmo apprenderà che in quella zona ci sono stati numerosi crimini, e continuerà a segnalarla come “zona pericolosa”, dando vita a un circolo vizioso in cui, paradossalmente, più la polizia interviene, più la zona viene segnalata come “a rischio”. Allo stesso tempo, una zona che la polizia controlla poco e in cui furti e scippi vengono di rado denunciati potrebbe rimanere ignota all'algoritmo. Il rischio, quindi, è che la polizia prenda di mira determinati quartieri – spesso quelli abitati da minoranze etniche e immigrati – eccedendo nei controlli e nelle perquisizioni con il pericolo di alzare il livello di tensione. Gli algoritmi – difesi dall'aura di scientificità – potrebbero insomma diventare una giustificazione per la più classica profilazione razziale, o stimolare la polizia a fermare e controllare un sogge o per il solo fa o che cammina per una zona indicata come hotspot. 178

Ogni sistema di questo tipo, quindi, è efficace solo se i dati inseriti sono corre i e privi di bias. Il ché, come abbiamo visto, spesso non avviene. Per questa ragione si deve fare estrema a enzione ogni volta che si parla, per esempio, di IA che eliminano le fake news; esse potrebbero dare un credito sproporzionato a testate tradizionali (che spesso e volentieri le sparano grosse) e annientare invece pagine di controcultura che godono di minor credito e offrono magari opinioni atipiche.

Ma questi sono problemi da niente rispe o a quelli che potremmo dover affrontare in futuro; sopra u o considerando come le IA si trovino al centro della terza rivoluzione militare: quella che porterà le armi autonome a diventare la normalità. Uno degli esempi più lampanti di queste innovazioni è il drone autonomo, soprannominato Bender e sviluppato dalla statunitense DARPA (Defense Advanced Research Project Agency), capace di scovare e identificare i nemici armati anche quando si nascondono, di distinguerli da civili o fotografi (una situazione che, in passato, ha confuso gli ope8 ratori umani con tragiche conseguenze ), di pedinare i veicoli nemici e di trasme ere solo le informazioni rilevanti. Già nel 2018, invece, potremmo vedere all'opera il ben più inquietante Long Range Anti-Ship Missile della Lockheed Martin, in grado – secondo quanto scrive l'accademico Mark Gubrud su Spectrum, rivista specializzata dell'Institute of Electrical and Electronic Engineers – «di inseguire gli obie ivi, facendo affidamento solo sul suo software per distinguere le navi nemiche da quelle civili e di operare in maniera completamente autonoma, anche a accando con forza letale». L'importante, ciò che ha permesso di classificare quest'arma come “semi-autonoma”, è che il bersaglio sia stato selezionato da un operatore umano.

179

Andrea Daniele Signorelli - La guerra dei bias

L

Parte III - Macchine intelligenti

Ma non sono certo solo gli Stati Uniti (che nel 2017 investiranno 18 miliardi di dollari nelle nuove tecnologie belliche) che stanno sviluppando armi di questo tipo: la Russia sta lavorando al suo sistema missilistico dotato di intelligenza artificiale; Israele ha messo a punto IAI Harpy, il drone armato in grado di riconoscere da solo i radar nemici e distruggerli; mentre il SGR-A1 di Samsung è un vero e proprio robot stazionario dotato di mitragliatrice, utilizzato dalla Corea del Sud nei 4 chilometri di zona demilitarizzata che la divide dalla Corea del Nord. Inizialmente pensato per fare fuoco autonomamente sui potenziali nemici, è stato modificato in seguito alle polemiche sorte in seno alla società coreana: oggi deve a endere un comando umano prima di sparare. Per quanto riguarda la Cina, è notizia recente il varo del Scientific Research Steering Commi ee, l'equivalente della DARPA, nel quale si riverserà una parte sempre più consistente dei circa 200 miliardi di dollari spesi dalla Cina nel se ore bellico (seconda al mondo, dopo gli Stati Uniti). Si potrebbe andare avanti ancora a lungo, ma il conce o è chiaro: tu e le superpotenze militari stanno sviluppando robot, droni o missili autonomi in grado di operare senza la necessità del controllo umano. Giunti a questo punto, quanto manca prima che siano i software di intelligenza artificiale a prendere da soli le decisioni, compresa quella di fare fuoco? Tu e le do rine militari, per il momento, prevedono l'intervento umano nelle decisioni di offesa. Per cui non è davvero il caso di immaginare schiere di robot armati che comba ono guerre in totale autonomia, mentre i generali osservano dai loro quartieri generali. L'obbligo dell'intervento umano nelle decisioni di offesa è fortunatamente stabilito anche da chi, più di chiunque altro, sta esplorando questa nuova frontiera del warfare. Gli Stati Uniti, a maggio, hanno reso permanente la norma del 2012, che prevede che ci sia sempre un essere umano coinvolto nel processo decisionale che porti all'uso della forza letale; mentre l'opposizione del Regno Uni180

to alla richiesta di me ere al bando le armi autonome è stata motivata spiegando che «le leggi umanitarie internazionali regolano a sufficienza la materia» e che «tu e le armi dell'esercito britannico saranno sempre so o il controllo e la supervisione umana». Ma come si fa ad avere la certezza che, prima o poi, qualcuno non decida di abbandonare gli scrupoli e affidi a una IA tu e le decisioni? La storia insegna che, di solito, il primo che trasgredisce scatena un effe o domino che trascina tu i gli altri. E se anche fosse vero che un software sia in grado di prendere decisioni in maniera più lucida e razionale di soldati so oposti a difficilissime condizioni psico-fisiche, è anche vero che si aprirebbero questioni etiche alle quali è difficilissimo dare risposta: lasceremo che siano i computer a decidere quale sia uno scambio ragionevole tra progressi militari e vi ime civili? E chi sarà il responsabile in caso di un malfunzionamento o di un errore che causi una strage?

Immaginate questo scenario: con l'obie ivo di risparmiare le vite dei soldati e di agire con la massima precisione e rapidità, una nazione decide per prima di dispiegare le sue armi autonome e lasciare che siano queste a valutare se e quando fare fuoco contro i nemici. Nel momento in cui droni, carrarmati e robot arrivano sul luogo, però, qualcosa va storto e uno di loro uccide per sbaglio un elevato numero di civili. Quando “danni collaterali” di questa entità sono causati da umani, sono i soldati stessi a dover rispondere delle loro azioni; ma come si possono stabilire le colpe quando c'è di mezzo un'arma autonoma, alla quale non può venire a ribuita intenzionalità o superficialità? Un software, per definizione, non può compiere azioni immorali: esegue solo ciò che l'algoritmo gli de a. E quindi: di chi è la responsabilità se un software va in tilt e causa la morte di innocenti? 181

Andrea Daniele Signorelli - La guerra dei bias

L'

Parte III - Macchine intelligenti

Se, per quanto riguarda le armi autonome, si può sperare che questo problema non si ponga mai (se continueremo ad avere un umano a prendere le decisioni), c'è però un se ore in cui già oggi bisogna essere in grado di dare risposte ne e: le auto autonome, che sono già sul mercato, entro il 2022 dovrebbero essere in grado di guidare davvero da sole praticamente in ogni situazione. Le ve ure guidate da software intelligenti prome ono di salvare un enorme numero di vite, riducendo drasticamente gli incidenti ed esentando l'uomo da un'incombenza – guidare l'auto – per la quale evidentemente è meno portato delle IA. Ciononostante, questa nuova tecnologia pone alcune delle questioni più urgenti, tra cui l'ormai celebre versione del “dilemma del carrello”. Sintetizzando al massimo: se l'auto autonoma si dovesse trovare di fronte a un imprevisto, come potrebbe decidere se investire la persona che gli si è parata davanti all'improvviso, oppure se sterzare di colpo, con il rischio di causare involontariamente un danno ancora più grave, magari travolgendo un gruppo di persone? «Personalmente, penso che questa discussione sia una distrazione inutile», mi ha spiegato il filosofo della Tecnologia di Oxford 9 Luciano Floridi, intervistato per Le Macchine Volanti . “È un problema che è già stato risolto da Tommaso D'Aquino nel XIII secolo e che in epoca contemporanea è stato sollevato dalla filosofa Philippa Foot per ragioni molto serie. La questione è semplice: se la prima scelta è giusta (nel caso di un'auto autonoma, sterzare per non investire una persona), ma questa finisce per avere un esito negativo, significa che è avvenuto qualcosa di tragico che non si poteva prevedere o evitare. Accartocciarsi su mille discorsi, variabili e quant'altro può essere un divertente esercizio intelle uale, ma non ha ricadute pratiche; almeno se vogliamo affrontare questioni serie”.

182

Una visione realistica e abbastanza fuori dagli schemi – considerando quanto anche i colossi dell'automobilismo si stiano arrovellando su dilemmi e incognite – ma che sta facendo presa, vista la chiarezza dalle linee guida etiche per le auto autonome elaborate in Germania dal ministero dei Trasporti. Delle linee guida – le prime al mondo che regolano questo se ore – affermano che la priorità vada sempre data alle vite umane, rispe o ad animali e ogge i, e che l'uomo debba sempre avere il potere di so rarre il comando alla macchina. Tu o molto semplice; forse troppo semplice? Nel report è spiegato chiaramente perché si sia giunti a una visione così in bianco e nero: decidere ogni volta se salvare una 183

Andrea Daniele Signorelli - La guerra dei bias

E le questioni serie ci sono, eccome: “Ciò che dobbiamo capire è come evitare di trovarci in una situazione in cui le alternative sono una peggio dell'altra e, nel caso in cui avvenga un guaio, come allocare la responsabilità”, spiega Floridi. Nel caso delle self driving cars, per esempio, potrebbe essere utile decidere di non sviluppare mai le auto autonome di livello 5 (ammesso che sia possibile): quelle senza freni, senza volante, in cui l'uomo è solo un ospite. “Come de o, il controllo ultimo deve sempre restare nelle mani dell'uomo, che deve in qualunque momento poter schiacciare un bo one che spegne tu o e che, più in generale, deve decidere che cosa si vuole sviluppare e che cosa è invece meglio lasciar perdere. Quel che conta di più è che si salverebbero un sacco di vite, perché oggi ad ammazzare gli esseri umani siamo noi stessi quando ci me iamo al volante. Quindi, dobbiamo decidere: vogliamo salvare mille vite o ne vogliamo salvare diecimila? Se vogliamo salvarne diecimila allora ci affideremo alle auto autonome, sapendo che qualcuno si dovrà assumere la responsabilità del fa o che mille persone moriranno lo stesso; perché quando si parla di scelte etiche non si vince mai 1 a 0, semmai si vince 2 a 1”

vita piu osto che un'altra – come richiesto dalla versione self driving del dilemma del carrello – non è possibile, perché è una valutazione che dipende da situazioni molto specifiche, che sono influenzate anche da comportamenti imprevedibili e che, di conseguenza, non possono essere chiaramente standardizzate o programmate. «Era la strada giusta da seguire: queste linee guida sono serie e ragionevoli» conferma Floridi. È anche bello che questo documento arrivi dalla Germania, che è una delle grandi produ rici di auto, e quindi dall'Europa. Perme imi di dire che si tra a in effe i di un documento molto kantiano e poco utilitarista, che potrebbe dare la spinta giusta a molti altri se ori dell'automazione e dell'intelligenza artificiale

Parte III - Macchine intelligenti

Risolto il problema del carrello, rimane però sul pia o un'altra enorme questione: quella della responsabilità in caso di incidenti, ma anche in caso di diagnosi sbagliate o di documenti legali analizzati erroneamente da software che sono messi al lavoro in ambiti sempre più delicati. Di chi è la colpa, insomma, se un algoritmo, sbagliando, diagnostica una cura errata o manda in galera un innocente? Del software, del proprietario o dell'azienda produ rice? Bisogna partire dal conce o di responsabilità ogge iva, già oggi usato per prodo i di uso comune, che prevede che in caso di malfunzionamento serio sia il costru ore a dover dimostrare la sua innocenza. Penso che nel caso delle IA la direzione da prendere sia questa: non sta a me dimostrare che sia tu il responsabile, ma a te dimostrare la tua innocenza

spiega Floridi.

184

Quindi: le aziende produ rici avranno sempre il compito di dimostrare la loro estraneità da qualunque pasticcio causato da un robot; così come il proprietario non potrà essere sollevato dalle sue responsabilità. L'unica cosa certa è che la colpa non potrà mai venir cercata nel robot o nel software stesso: «Per questo la decisione del Parlamento Europeo di iniziare a parlare dei robot più sofisticati come di "persone ele roniche" rischia di essere un errore, perché potrebbe prefigurare anche una loro eventuale responsabilità», spiega sempre il docente di Oxford. «Quel che invece è certo, è che tu i gli altri a ori in gioco tenderanno a scaricare le responsabilità sugli altri; da un punto di vista legale, ne vedremo delle belle». Un ultimo ostacolo, quando si affidano compiti delicati alle macchine, è la difficoltà nel capire cosa sia successo quando qualcosa non va per il verso giusto: può essere il caso di una diagnosi robotica sbagliata o di un errore fatale nella guida automatica di una self driving car. Come si fa a capire che cosa ha causato l'errore di un'intelligenza artificiale, che prende le sue decisioni in base a calcoli complicatissimi e per noi quasi impossibili da decifrare? Un problema, noto come black box, che potrebbe suggerire di usare molta cautela nel delegare alcuni delicati compiti alle IA: «Ma pen185

Andrea Daniele Signorelli - La guerra dei bias

Una seconda analogia risale addiri ura al diri o romano e riguarda il rapporto tra padrone e schiavo nell'antica Roma: nonostante lo schiavo sia ovviamente più intelligente di qualsiasi robot noi potremo mai costruire, quando questi comme eva un crimine la responsabilità legale ed economica ricadeva sul proprietario. I romani sapevano benissimo che se avessero scaricato tu e le colpe sugli schiavi, questi sarebbero stati completamente deresponsabilizzati; in questo modo, invece, ci si assicurava che il padrone stesse a ento e tenesse la situazione so o controllo. Il che, ovviamente, non impediva che lo schiavo finisse crocifisso

Parte III - Macchine intelligenti

sare di ritornare sui nostri passi è impossibile, ormai quella sponda l'abbiamo abbandonata. Quel che possiamo fare è invece sfru are la capacità delle tecnologie digitali di lavorare con sé stesse, di automigliorarsi e autoripararsi», prosegue Floridi. «Forse dovremmo iniziare a pensare a sistemi complessi che controllano altri sistemi complessi». Messa così, sembra quasi che l'uomo debba abbandonare completamente la guida della nave, lasciando che siano le intelligenze artificiali a controllare altre intelligenze artificiali. Considerando i vari timori suscitati dagli scenari da “rivolta dei robot” che periodicamente riemergono, è facile immaginare che una visione di questo tipo possa incontrare numerosi oppositori. «Il problema, in verità, è che al momento siamo fermi a metà strada: non ci troviamo né dalla parte della responsabilità individuale, né in quella della co-responsabilità tecnologicizzata. Se abbracciassimo questa seconda via, scopriremmo che la supervisione delle macchine è la via migliore per costruire un sistema efficace», spiega sempre il filosofo di Oxford. L'importante è che l'ultimo controllo rimanga sempre nelle mani dell'individuo, o meglio: della società. In questo modo, se le cose non stanno andando nella direzione giusta, si può sempre decidere di cambiarla. Il genio umano sta in questo, nella capacità di scegliere la direzione e la strategia. Possiamo invece tranquillamente lasciare che siano le nuove tecnologie a scegliere come e a quale velocità

186

N

Andrea Daniele Signorelli - La guerra dei bias

1) Nel 2013, si è calcolato il 90% dei dati prodo i nella storia dell'umanità fosse stato creato nei due anni precedenti. Vedi: bit.ly/2GByX8c 2) bit.ly/1T4RxIm 3) theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist 4) bit.ly/2EjEgHy 5) bit.ly/2GSiKPz 6) Il trailer di “Pre-Crime”, un documentario sul tema, si può vedere qui: youtube.com/watch?v=1icoelji15g 7) bit.ly/2Iu5PQO 8) bit.ly/2HaM3uf 9) nytimes.com/2010/04/06/world/middleeast/06baghdad.html 10) bit.ly/2uRBGt4

187

I dati sono il sangue dell’IA Un dialogo sul cambiamento di paradigma necessario a capire l'intelligenza artificiale di Roberto Pizzato

C

M

Parte III - Macchine intelligenti

L

T

'embrione dell'intelligenza artificiale è Computer Machinery and Intelligence, un testo di Alan Turing datato 1950. Nella prima riga del suo articolo lo scienziato inglese poneva la domanda «Can machines think?». La risposta provò a trovarla un gruppo di scienziati e ingegneri che, nell'estate del 1956, si riunì al Dartmouth College, nel New Hampshire, con l'obie ivo di creare una nuova disciplina chiamata Artificial Intelligence. Tra di loro c'erano i futuri premi Nobel Herbert Simon e John Nash, ma anche Marvin Minsky – che poi fonderà l'AI Laboratory del MIT – e Claude Shannon, il padre della teoria dell'informazione. Oggi, a più di sessant'anni di distanza, l'intelligenza artificiale rappresenta uno dei maggiori sforzi scientifici nella storia dell'uomo, un'area che racchiude al proprio interno diverse discipline, sia scientifiche che umanistiche. È uno dei propulsori della quarta rivoluzione industriale, un processo già in a o nella nostra società, che sta spostando la discussione sull'IA dagli ambienti accademici ai tavoli della politica, dai media all'opinione pubblica. La definizione di intelligenza artificiale è un conce o che è cambiato molto negli ultimi decenni, e la sua traie oria futura è difficile da immaginare. AI100, uno studio finanziato dall'Università di Stanford che si svilupperà per i prossimi cento anni, è uno dei maggiori proge i di ricerca sull'impa o dell'IA a livello globale. La prima pubblicazione, Artificial Intelligence and Life in 2030 risale allo scorso se embre e me e in luce uno degli aspe i più interessanti di questa disciplina: «Curiosamente, la mancanza di una pre188

cisa e universalmente acce ata definizione di intelligenza artificiale ne ha probabilmente aiutato la crescita». Non è sempre necessario sapere dove si va per fare strada, e lungo il percorso si può finire per fare grandi scoperte. Tu avia, mai come oggi è necessario discutere le ripercussioni dell'intelligenza artificiale sulla nostra società, di modo da regolarne l'utilizzo. Si tra a di un tema complesso, la cui rappresentazione mediatica necessita di una guida scientifica se si vogliono evitare banalità e narrazioni fuorvianti.

B

Nello Cristianini insegna Artificial Intelligence all'Università di Bristol dal 2006, dove coordina Think Big, proge o che studia metodi, applicazioni e implicazioni dell'intelligenza artificiale nella nostra società. Think Big ha o enuto l’European Research Council Advanced Grant, l'assegno di ricerca più prestigioso firmato dalla Commissione Europea. Cristianini è stato inserito nella lista degli scienziati più influenti della decade stilata da Reuters ed è uno dei maggiori esperti di intelligenza artificiale al mondo. Nel suo studio ci sono tanti libri, un computer, una lavagna e una scrivania coperta di documenti. Il focus della sua ricerca è il machine learning, ovvero algoritmi che, alimentati dai big data, creano software intelligenti, che imparano. Secondo Nello, questo è un conce o fondamentale per capire lo stato dell'arte dell'intelligenza artificiale. Cristianini: Mi occupo di statistical machine learning da più di vent'anni, già dai tempi del master e poi del do orato. Ho sempre lavorato nell'area statistica del machine learning, come Assistant professor all'University of California prima e poi per un paio di start up. Lo dico perché quando si parla di IA, il machine learning è un conce o centrale: se tu vuoi fare speech recognition, image recognition o traduzioni, devi 189

Roberto Pizzato - I dati sono il sangue dell’IA

T

usare il machine learning. Questa è la prima notizia, l'IA di oggi ha fa o progressi incredibili e continuerà a farne, perché il machine learning funziona. Se tu vuoi tradurre testi – come fa Google translate – crei un sistema e gli fornisci articoli in due lingue, per esempio inglese e francese, e milioni di testi in quelle due lingue. Così il sistema impara a tradurre. Non c'è linguistica o analisi del periodo, è statistica pura. Lo stesso per il riconoscimento di immagini o della scri ura a mano. Non c'è altro modo. Da circa 20 anni, l'IA ha smesso di cercare di implementare top-down la logica che so ende i discorsi umani. E improvvisamente si traduce.

Parte III - Macchine intelligenti

Pizzato: L'intelligenza artificiale ha iniziato a funzionare senza aver bisogno di capire. Cristianini: Per quarantacinque anni sono stati i linguisti a lavorare sulle traduzioni e i modelli del linguaggio per vision speech, traduzioni, natural language processing. Certamente l'IA è una disciplina più ampia del machine learning, ma la sua secret sauce negli ultimi anni è stata il machine learning: consentire alle macchine di comportarsi intelligentemente imparando dai dati. A questo punto, il problema diventa non tanto fare algoritmi, ma trovare dati. Così, si è aperta la caccia ai dati: come fanno Google e Facebook per le pubblicità, Amazon per raccomandare i libri, Apple per Siri. Data collection e machine learning sono diventati la base dell'IA, tu o il resto è un corollario. Questa è una rivoluzione culturale incredibile. È il paradigm shift di Thomas Khun, la scienza progredisce a raverso i cambiamenti di paradigma. La domanda non è più comprendere cos'è l'intelligenza, capire e implementare, ma emulare un comportamento utile. Se si può usare la statistica, si percorrerà quella strada. 190

Aiuta a capire il modo di pensare degli umani? No, ma non importa. Non c'è bisogno di avere un conta o umano, in linguaggio naturale con Siri per definirlo intelligente. Si possono costruire sistemi intelligenti in modo statistico o anche no, ma la statistica funziona meglio e quindi si va in quella direzione.

Cristianini: Autocomplete e autocorrection funzionano senza comprendere i testi. Quando Amazon consiglia i libri funziona esa amente nello stesso modo. È abbastanza semplice, quasi ovvio: “Tanto va la ga a al lardo, che…”. È uguale per i libri di Harry Po er, se hai le o il primo e il secondo, probabilmente vorrai leggere il terzo. Inizialmente Amazon lavorava con esseri umani, poi gli algoritmi si sono dimostrati migliori. Abbiamo smesso di cercare se e che cosa la macchina comprenda. Il test di Turing e approcci analoghi sono obsoleti. Il punto è creare sistemi autonomi che funzionino. Pensa all'autocomplete del tuo telefono cellulare: ti inventi una frase nuova, la usi e il sistema la impara. Anche il filtro anti-spam dell'email funziona nello stesso modo. Abbiamo smesso di cercare di risolvere i problemi in modo teorico e abbiamo preso una scorciatoia. Ecco perché il machine learning è al centro di tu o. La genomica funziona allo stesso modo, anche la biologia ha imparato dal machine learning. Sicurezza, assicurazioni, è tu o data-driven, oggi. Però servono i dati, e infa i è partita la caccia ai dati. Improvvisamente un'innovazione che era puramente informatica viene applicata alla società e la cambia. Ecco perché c'è un legame tra IA e dati. 191

Roberto Pizzato - I dati sono il sangue dell’IA

Pizzato: Il corre ore automatico del telefono è una forma di intelligenza artificiale?

Pizzato: Quindi l'intelligenza artificiale è già protagonista della nostra vita quotidiana. Cristianini: L'IA non sta arrivando, è già qui. Non è interlocutore né antagonista dell'uomo, è infrastru ura, è parte dell'ecosistema in cui viviamo, è il mediatore tra noi e il mondo che ci circonda. Sui media si parla di un'IA come qualcosa che rifle e l'intelligenza umana. Non si tra a di robot che ci inseguono sparando e si ribellano, qui si parla di infrastru ura. È l'infrastru ura che oggi controlla tu o, dai social network, ad Amazon, a Uber. Non sarà una specie di Terminator che arriva e ci stermina tu i, è l'infrastru ura che stiamo creando che è intelligente. Mandiamo già avanti la nostra vita grazie a questa infrastru ura.

Parte III - Macchine intelligenti

Pizzato: In sostanza è come se l'intelligenza artificiale fosse diventata efficiente quando ha smesso di replicare un approccio umano. Cristianini: Esa amente. In realtà non sappiamo come gli umani funzionino davvero. Ovviamente non è che le teorie siano inutili, ma per ora nel campo dell'intelligenza artificiale, stanno vincendo i dati, la statistica. Dal punto di vista filosofico, l'antropocentrismo è un limite alla discussione, ogni volta cerchiamo di scartare tu o il resto. Come quando la terra doveva essere al centro dell'universo e la nostra specie non poteva essere come le altre, doveva essere per forza speciale. Il tipo di intelligenza umana per qualche motivo deve sempre essere diversa e superiore alle altre. L'intelligenza umana non è l'unica forma di intelligenza, è così perché è fru o di una storia evolutiva che l'ha portata a 192

essere quella che è, ma non è l'unica forma di intelligenza. Prima che il primo umano camminasse nella savana, prima che la prima parola fosse pronunciata da una voce umana, c'era già intelligenza su questo pianeta. I dinosauri che cacciavano in gruppo, comunicavano tra loro, scappavano dai predatori. Perché avevano un cervello, altrimenti? Tornando all'IA, le macchine non stanno cercando di diventare umane, ma una macchina che ha il cervello di un pollo è intelligente e può fare molte cose

Cristianini: L'intelligenza artificiale è lo studio degli agenti intelligenti. Questa è una cosa a cui tengo molto: vista la storia dell'IA, è pericoloso cercare di definire l'intelligenza. Pensa a un agente in un ambiente, pensa a una formica, a una medusa o a un ga o, a un agente che si muove in un dato ambiente con un obie ivo. Un agente che acquisisce informazioni, le processa, impara, fa dei piani, sceglie ed esegue delle azioni, o meglio si comporta in modo da massimizzare il suo profi o. La medusa cerca di stare in un ambiente né troppo caldo né troppo freddo, la formica vuole procurarsi del cibo, il ga o vuole scappare dal cane e inseguire il topo. Si chiama goal-driven intelligence. Sembra una sciocchezza, ma non lo è. Nel campo dell'IA questo si traduce in un pezzo di software – un agente in un ambiente – che ha un obie ivo, come massimizzare i profi i finanziari, tradurre testi, spostare un'auto da un posto all'altro, o consigliare libri. L'intelligenza artificiale è questo, lo studio degli agenti intelligenti, previsioni e modelli di comportamento in un determinato ambiente.

193

Roberto Pizzato - I dati sono il sangue dell’IA

Pizzato: Cos'è quindi l'intelligenza artificiale?

Pizzato: Quanto è realistico lo scenario in cui questi agenti diventino tanto intelligenti da so ome ere il genere umano? Se l'IA governa le dinamiche dovrebbe saper distinguere tra bene e male. Cristianini: È un malinteso, e molto serio. Così come non puoi ragionare con le formiche, con le piante carnivore o con un dinosauro, non puoi ragionare con un computer. Tu gli dai un obie ivo, e come sistema autonomo la macchina lo persegue. Non puoi ragionare di etica con una macchina costruita per vincere una guerra, la macchina lo fa e basta, a tu i i costi. Pizzato: Forse l'equivoco nasce dal fa o che con Siri si ha l'impressione di parlare.

Parte III - Macchine intelligenti

Cristianini: Non c'è nessuna empatia, nessun dialogo reale, ragionamento o etica. Ecco perché i filosofi sbagliano direzione. Come quando si discute su come la self-driving car deve comportarsi scegliendo in caso di incidenti, deve salvare il bambino o la nonna? Quella macchina non deve schiantarsi, non è una questione di etica. Il sistema ha un'altro tipo di funzionamento: deve andare da A a B in modo sicuro, se tu o funziona la macchina si ferma, se va male sbaglia e colpisce qualcuno. Pizzato: Viene da chiedersi se l'obie ivo non sia creare un mercato che voglia queste tecnologie più che dei prodo i che miglioreranno la vita delle persone. Abbiamo davvero bisogno di un'auto che si guida da sola?

194

Cristianini: Il marketing è un discorso a parte. Se hai una flo a di 40 mila camion che va da una parte all'altra del paese probabilmente ti conviene avere dei robot, è più efficiente e meno costoso. Pizzato: Certo, ma qual è stato l'investimento in termini di tempo e di denaro necessario ad arrivare a un risultato soddisfacente? Cristianini: Lungo la strada si imparano tante cose però, anche trasferibili. I benefici possono essere enormi, anche se sviluppi qualcosa che non vendi.

Cristianini: L'IA è un processo statistico, quindi più aumenta la disponibilità di dati e meglio funziona. I bias nascono dal bisogno di dati, la situazione non può che migliorare con l'aumentare delle informazioni accessibili. Ci sono dei casi in cui questo è acce abile e altri in cui lo è meno, ma non sta a me decidere. La macchina sbaglierà, di certo, sempre meno nel corso del tempo. Chiaro che un bug in un programma di scri ura ha un altro peso rispe o a quello in una centrale nucleare. Vanno semplicemente messi nei posti dove il rischio è più calcolato. Pizzato: Ma quando si chiede all'IA di fare qualcosa di diverso, come selezionare notizie, la questione etica inevitabilmente si pone. Cristianini: Certo, gli algoritmi scelgono cosa leggi, come ti informi, come traduci i testi che vedi. Se gli obie ivi dell'IA sono sinistri, finisci per vivere in un mondo parallelo e po195

Roberto Pizzato - I dati sono il sangue dell’IA

Pizzato: Con sistemi che imparano da sé stessi, non si rischia che test e debug ricadano su chi li usa? Arriveremo a creare un mercato di prodo i ancora in beta?

tenzialmente crei confli i sociali. Pensa alla filter bubble. È semplice, se l'obie ivo del sistema è massimizzare i clic, massimizzerà i clic. Quell'algoritmo non si preoccupa di creare disuguaglianze.

Parte III - Macchine intelligenti

Pizzato: Quindi il machine learning non si può applicare a tu o. Cristianini: Si può usare nelle scienze sociali: il social graph di FB è data-driven social science. Le scienze sociali sono interpretazioni di dati, sono anfibie, come l'economia ad esempio, non come le scienze umane, dove non ci sono pa ern. Le scienze umane hanno altri valori: uno storico non vuole trovare pa ern. Da ingenuo, a me piacerebbe trovarli: come capire se c'è una rivolta popolare quando il PIL scende so o una certa soglia. Ma è un'ingenuità, e lo storico l'ha imparato. Si limita a dire che, usando un'interpretazione freudiana o marxista, si può capire qualcosa di nuovo rispe o a un periodo storico. Gli ingegneri invece me ono in piedi dei sistemi. Lo shift culturale verso la statistica è arrivato in campi che non condivido. Ad esempio, non penso si dovrebbe applicare questo sistema alla giustizia. Se tu hai l'85% di probabilità di comme ere un reato, è giusto che tu rimanga in prigione? Avrai diri o a una spiegazione, a un giudice. Lo stesso per l'accesso dei bambini ai sistemi scolastici o nel campo delle assicurazioni. In questo momento i dati hanno preso il posto di Dio: “i dati dicono che” non può funzionare sempre. Deve esserci posto per il ragionamento umano, per il giudizio. Pizzato: Non andrà a finire che il mondo sarà nelle mani dei pochi che conoscono questi algoritmi?

196

Cristianini: Il valore è nei dati, non negli algoritmi, che si possono trovare anche online. I dati sono proprietari, hanno creato delle macchine per raccoglierli e ora li fanno fru are. Sta a noi raccoglierne, usarne e crearne di nuovi. C'è l'Open Data Movement, Gene Bank, anche la medicina e l'astronomia condividono i loro dati online.

Cristianini: Credo di sì. È il ruolo della ricerca pubblica, ci sono delle cose che il privato non farà mai: primo perché non è la sua mission, secondo perché è a suo svantaggio. Perché Google e Facebook dovrebbero studiare se i loro prodo i creano addiction? Se non c'è non faranno nulla, se c'è saranno costre i a fare qualcosa. Perché Google dovrebbe occuparsi di storia? Non è il suo lavoro. Quella è una cosa per la quale servono i soldi pubblici. Non possiamo lamentarci per qualcosa che semplicemente non è nei loro obie ivi. Per questo è necessario finanziare i proge i di valore, come anche quelli che indagano le domande etiche più rilevanti nel campo dell'IA. Potremmo ad esempio parlare di diri i umani e di valori, non di meccanismi. Ci servono leggi per i sistemi intelligenti, il diri o alla privacy, all'autonomia, alla spiegazione. Posso o no cancellare i miei dati? Come controllo i dati in possesso dello Stato? Siamo di fronte a un cambiamento paragonabile alla Rivoluzione industriale. Cambiano i paradigmi stessi della nostra società, abbiamo bisogno di nuovi valori, di nuove leggi per regolare questo processo. Dobbiamo discutere che tipi 197

Roberto Pizzato - I dati sono il sangue dell’IA

Pizzato: Se i dati finiranno per essere filtrati da poche compagnie private, e incorporati a quelli già in suo possesso, lo sbilanciamento in questo gioco di forze diventerà totale. È qui che trovano il loro posto proge i come ERC?

di macchine e di valori vogliamo avere. Dobbiamo difendere cosa abbiamo prodo o e o enuto, e ada arli ai nuovi sistemi.

Parte III - Macchine intelligenti

Pizzato: Che ruolo hanno l'epistemologia nella raccolta e dell'interpretazione dei dati e i bias interpretativi che ne conseguono? Cristianini: Fondamentale, non è vero che i dati sono ogge ivi. Data-driven non significa ogge ivo, può infa i essere sogge ivo, ma in un modo nascosto e quindi più insidioso. Una delle questioni fondamentali è la misurabilità delle cose, l'idea che tu o sia misurabile. Il fa o stesso che noi stiamo misurando qualcosa ha un effe o sulla quella stessa cosa. I ranking si basano su presupposti che modificano il comportamento delle persone. È una follia che ci sia la presunzione di misurare tu o. La gran parte delle scoperte richiedono parole diverse, le scoperte di Einstein non si potevano spiegare con le parole di Newton. Non dobbiamo avere paura del giudizio umano, non possiamo sempre cercare l'algoritmo che rimpiazzi la decisione, l'etica, che decida cosa misurare. Non dobbiamo sempre meccanizzare tu o, i dati non sono sempre più ogge ivi, non sono sempre la scelta migliore. Questa è la pars destruens; la pars contruens è che abbiamo o imizzato i processi autonomi. Parli su Skype in cinese e la voce esce in inglese. L'IA è ovunque nel nostro ambiente, è scomparso nei call center, nei cellulari, nei social media, nelle automobili. Pizzato: Un mondo data-driven è insidioso, perché basato su un'infrastru ura invisibile e a molti incomprensibile. Chi controllerà data collection e machine learning?

198

Cristianini: È uno dei grandi problemi che vorrei indagare assieme a un filosofo e a un professore di legge. C'è posto per filosofi e scienziati umani in questo mondo data-driven. Non solo all'inizio del processo, ma anche durante il percorso, continuamente. Gli ingegneri non sono persone culturalmente ada e a farlo. Se io mi trovassi a discriminare una categoria sociale, devo capirlo. L'ingegnere fa onestamente il suo lavoro, che è o imizzare i processi, e magari non si rende conto delle implicazioni che questo ha. C'è bisogno più che mai di umanisti al giorno d'oggi. Più diventiamo datadriven, e più ce n'è bisogno. C'è bisogno di una rivoluzione culturale, come quella dell'ingegneria che ha esportato la centralità dei dati, e ha creato una stru ura per gestirli. L'IA è nata con i soldi della ricerca militare e ora si mantiene con la pubblicità, basti pensare a Google.

Cristianini: C'è bisogno di filosofi nuovi. Il filosofo della scienza deve guardare i dati, l'etica dei dati, che tipo di problemi può creare una data-driven society. È una tendenza che si sta estendendo anche alle scienze umane man mano che me iamo insieme database di libri, riviste, giornali. È qui che entrano in campo le discipline chiamate digital humanities, e anche il proge o Think Big, che si sviluppa su tre rami dei big data: techniques (algoritmi e sistemi ingegneristici), applications (contenuti dei social media, archivi di news, eccetera) e implications (le conseguenze sulla società). Domande come “in quale periodo storico la società cambia?” possono beneficiare dall'analisi dei giornali di 150 anni. Così lo storico può lavorare con un data scientist a 199

Roberto Pizzato - I dati sono il sangue dell’IA

Pizzato: L'esplosione della statistica rende quindi centrale il ruolo degli umanisti.

proge i di data-driven digital humanities. Ad esempio, quanto ci è voluto al treno per essere acce ato? La stessa domanda si potrebbe fare riguardo il cellulare o Facebook. Come fai a sapere quanto serve a una nuova tecnologia per venire acce ata? Un tempo avresti guardato gli archivi dei giornali, oggi guarderesti Twi er. Per i giornali moderni funziona più o meno allo stesso modo. Prendiamo le elezioni americane: identifichi personaggi e messaggi. Ad esempio, Hillary a acca Trump o viceversa, e ne esce una rete di collegamenti che descrive una dinamica specifica. Pizzato: Raccogliendo i dati dai media, non si rischia di scambiare la società reale per la sua rappresentazione mediatica? Cristianini: Non abbiamo accesso alla società reale, solo alla rappresentazione della realtà che ne danno i media. Anche Google è affe o da bias, rappresenta chi è rappresentato nella sfera del web.

Parte III - Macchine intelligenti

Pizzato: La maggior quantità di dati e le tecnologie più avanzate sono in possesso di poche compagnie private. La conoscenza sarà racchiusa in sistemi black-boxed che tagliano fuori la quasi totalità della società. Cristianini: Sì, e questo non è un problema limitato alle digital humanities, ma anche alla biologia e a tu i gli altri campi nei quali hanno accumulato un'enorme mole di dati: datadriven biology, data-driven marketing e così via. Sono i dati che accentrano il potere, in un mondo data driven, chi ha i dati vince.

200

Pizzato: È questo il ruolo della ricerca, ribilanciare questa relazione di forze? Cristianini: Io credo che il mio dovere sia studiare e sviluppare queste tecnologie, non elaborare policy. Quello è il ruolo di chi ci governa. Io non sono un'a ivista, io sono un ricercatore. Come scienziato voglio far vedere alla società cosa stiamo facendo, non decido dove si va. Io al massimo posso occuparmi di divulgare le nostre scoperte. Certamente, la gente non ha ancora capito a fondo che sta dando a sogge i privati molto controllo sulle loro vite. Se noi vogliamo dare controllo a grandi aziende private, si voterà e si deciderà. L'importante è che la società, e i decision maker, capiscano dove andiamo.

Cristianini: È un cambio di paradigma. In passato erano le persone ad avere in testa il piano che le macchine avrebbero eseguito, ora è il contrario. Nelle precedenti rivoluzioni industriali erano i blue collars a sentirsi minacciati, ora invece sono i white collars a venire rimpiazzati. Paradossalmente, la macchina fa il piano, diventa il manager, mentre l'autista lo esegue. È il software a decidere chi fa cosa e quanto viene pagato.

201

Roberto Pizzato - I dati sono il sangue dell’IA

Pizzato: A volte però, le decisioni vengono invece prese dagli algoritmi. Penso a Uber ad esempio, un software che organizza il lavoro di essere umani.

Parte IV

Vite datificate Come sono necessarie numerose parti per fare un corpo umano, ci sono un numero incredibile di cose necessarie per definire completamente un individuo. Un viso per distinguerti dagli altri. Una voce della quale non sei consapevole. La mano che osservi quando ti svegli. I ricordi dell'infanzia, il presagio del futuro. Ma non è tu o. C'è la distesa di dati dell'enorme rete alla quale posso accedere con il mio cervello cibernetico. Anch'essa forma una parte di me, e dà vita a questa coscienza chiamata “io”. E allo stesso tempo mi tiene limitata tra confini prestabiliti. Ghost In The Shell

Sull'etimologia della parola “dato” di Flavio Pintarelli

Parte IV - Vite datificate

C

he i big data siano ormai da tempo un argomento che ha abbandonato gli ambiti scientifici e specialistici per diventare un fenomeno di massa è ormai so o gli occhi di tu i. Ne parlano ormai più o meno tu i i quotidiani generalisti, di solito con articoli dai titoli altisonanti del tipo Giovani talenti, il futuro si chiama big data o Turismo: con i big data possiamo pensare in grande. Poi ci sono i convegni, gli osservatori, i corsi di aggiornamento e, naturalmente, le conversazioni sui social network. Su LinkedIn, ad esempio, ci sono oltre duemila gruppi dedicati all'argomento. A pensarci bene, tu a questa a enzione non è poi così strana. Dopotu o che “i dati sono il nuovo petrolio” è stato de o, ride o e scri o più o meno in tu e le salse (e infa i, se cercate la frase su Google troverete la bellezza 597.000 risultati), e una cosa, si sa, a furia di ripeterla acquista sempre più consistenza fino a diventare una verità, per parafrasare il celebre adagio di Joseph Göbbels. Con questo non voglio certo dire che i big data non rappresentino uno dei temi centrali della contemporaneità, tu 'altro. Credo però che l'hype generato intorno a questo argomento, il chiacchiericcio, le grandi speranze e le a ese che si sono coagulate intorno a tu o ciò che ha a che fare coi dati non aiutino molto a capire la portata e le conseguenze che questo fenomeno sta avendo e avrà per la nostra società e le nostre vite; anzi, spesso e volentieri contribuiscono ad aumentare la confusione. Tu avia, un fa o è certo e non può essere smentito: mai come oggi la società ha visto un flusso di produzione di dati così sterminato, costante e pervasivo come quello a cui assistiamo ogni giorno. A essere responsabili di questa situazione sono le tecnologie digitali; e non soltanto perché queste sono diventate essenziali per 204

205

Flavio Pintarelli - Sull’etimologia della parola "dato"

tu a una serie di a ività professionali, dalla comunicazione alle transazioni finanziarie, ma anche perché ognuno di noi s'è trovato sempre più legato a una serie di dispositivi digitali necessari per svolgere un numero sempre più elevato di faccende quotidiane e dotati di un numero sempre crescente di sensori e strumenti di registrazione di vario tipo. È per questo motivo che la natura dei dispositivi digitali, il più famoso e diffuso è senza dubbio lo smartphone (un computer portatile di dimensioni rido issime, travestito da telefono cellulare), è quella di essere delle macchine che, in prima istanza, producono dati. Al ma ino, quando lo avviamo (sempre che non lo avessimo lasciato acceso la sera prima) il nostro smartphone invia a uno dei tanti sogge i – il produ ore del telefono, quello del sistema operativo, quelli dell'app che abbiamo installato e altri a essi legati – a cui il nostro pezzo di hardware ci collega l'informazione che il device è a ivo. Se nel corso della se imana, me iamo dal lunedì al venerdì, questo dato viene registrato più o meno ogni giorno alla stessa ora, chi lo raccoglie può ragionevolmente presumere che noi abbiamo una routine quotidiana consolidata e, quindi, che potremmo essere lavoratori o studenti della scuola dell'obbligo, ad esempio. Se poi sul nostro smartphone abbiamo a ivato la geolocalizzazione, verranno registrati anche i nostri tragi i quotidiani, che finiranno per fare parte di quell'insieme di dati che trasme iamo a tu i i sogge i a cui siamo legati per suo tramite. Per tu i loro, sarà così più semplice capire per quale motivo ci siamo svegliati quella ma ina. Infa i, se una ventina di minuti dopo essere usciti da casa il nostro smartphone raggiunge un indirizzo che corrisponde a quello di un'azienda e da qui non si muove per le successive qua ro ore sarà piu osto facile per chiunque abbia i mezzi per raccogliere, processare e analizzare quei dati presumere che quella è l'azienda per la quale lavoriamo.

Parte IV - Vite datificate

Tu o questo processo avviene in modo automatico senza che vi sia, da parte di chi raccoglie, processa e analizza i dati, alcuna frizione o interferenza con le nostre faccende di tu i i giorni. Questo accade perché ogni dispositivo che noi utilizziamo crea una traccia digitale fa a di dati che possono essere aggregati, analizzati e le i per ricavarne un gran numero di informazioni. E man mano che a venire digitalizzato è un numero sempre più alto di ogge i di uso comune, come sta accadendo proprio adesso con la cosidde a Internet of Things1, le dimensioni della nostra traccia digitale aumentano di conseguenza, trasformandola in qualcosa di più concreto dell'ombra delle nostre abitudini di consumo. La mole di dati che, potenzialmente, siamo in grado di produrre oggi come oggi assomiglia molto a un vero e proprio profilo ombra della nostra esistenza, il corrispe ivo virtuale di noi stessi di cui, spesso e volentieri senza una piena consapevolezza, cediamo la proprietà e il controllo ai produ ori di device e ai fornitori di servizi digitali. Quello della proprietà dei dati che produciamo a raverso i nostri dispositivi digitali è senza dubbio uno dei problemi più importanti nella cosidde a “società dei dati”. Un problema che presenta anche una componente linguistica di cui si dovrebbe tenere conto e che sarà, qui come altrove, centrale per gli obie ivi di questo scri o. Nella lingua inglese, la parola “data” si afferma infa i a partire dal participio passato del verbo latino “dare”, ovvero “datum”. Questa parola, se usata come sostantivo neutro della seconda declinazione, può essere trado o come “cosa data” e assumere quindi il significato di “dono”. Il meccanismo del dono, così com'è stato classicamente descri o da Marcell Mauss in uno dei suoi saggi più celebri, prevede tre momenti fondamentali basati sul principio della reciprocità: il dare, il ricevere (che presuppone acce azione) e il ricambiare. Nel contesto dell'a uale capitalismo di 206

207

Flavio Pintarelli - Sull’etimologia della parola "dato"

pia aforme - quello che sulle operazioni di raccolta, processo e analisi dei dati basa gran parte, se non tu o, il proprio potenziale competitivo - questo tipo di relazione sembra configurarsi nel modo che descriverò di seguito. Il momento del dare è occupato dall'offerta gratuita di un servizio, il dono che la pia aforma offre per creare una relazione con il proprio utente. Nel momento del ricevere, l'utente acce a il dono so oscrivendo i termini che regolano l'utilizzo del servizio. È al loro interno, ed è a questo punto che lo schema di Mauss subisce una perturbazione, che viene configurato il momento del ricambiare, ovvero la cessione dei propri dati personali e di utilizzo del servizio. Dati che verranno poi rivenduti contribuendo a creare il valore della pia aforma stessa. Quello che ruota intorno a questa relazione di dono geneticamente modificata, in cui il momento del ricambiare perde la sua natura non obbligatoria e flessibile in termini di modalità e di tempo, è un equivoco squisitamente linguistico ed è lo stesso che ha reso, rende e probabilmente continuerà a rendere difficile articolare un discorso intorno alla proprietà personale dei dati. Perché se prendiamo per buona la frase di Wi genstein secondo cui «i limiti del linguaggio significano i limiti del mio mondo», allora le parole che usiamo per parlare di dati ne creano la realtà e, di conseguenza, anche il modo in cui i dati influenzano e trasformano il nostro modo di giudicare la realtà che ci circonda è legato a esse. Finché continueremo a concepire i nostri dati come una parte di una relazione di dono, sarà difficile tanto sviluppare una coscienza dell'importanza della loro proprietà tanto provare a ipotizzare soluzioni di design in grado di dimostrare una responsabilità civica e politica del valore dei dati che produciamo.

Parte IV - Vite datificate

L' Prima di finire impelagati in una serie di scaramucce ta iche che li hanno resi di fa o inutilizzabili, i conce i di “post-verità” e di “società post-fa uale” avevano avuto il merito di porre l'a enzione su un aspe o fondamentale dell'affermarsi dei dati come fenomeno centrale per la nostra società. Ovvero le modalità e le forme di trasformazione del giudizio che esprimiamo sulla realtà che ci circonda e i fa i che l'a raversano, in un mondo cara erizzato dall'estenuante produzione di dati di cui siamo testimoni. Semplificando molto, quello a cui abbiamo assistito e stiamo assistendo in questi ultimi anni è un passaggio da una modalità di giudizio basata sull'osservazione dire a e la testimonianza dei fa i, la cui origine possiamo far risalire fino all'introduzione della Magna Carta, a una modalità di giudizio basata sulla raccolta, l'aggregazione e l'analisi dei dati. Tornando all'esempio che abbiamo usato in precedenza per spiegare come si forma la nostra traccia di dati, per capire se, dove e quando lavoriamo oggi non è più necessario che qualcuno ci veda alzarci la ma ina, magari prendendo nota dei nostri orari, ci segua sull'autobus, magari camuffandosi tra la folla per non essere riconosciuto, e infine ci osservi entrare nella sede della nostra azienda, magari avvicinandosi alla porta per capire di quale si tra a guardando le targhe dei diversi uffici presenti nel palazzo. Oggi tu o questo è possibile farlo a distanza studiando, appunto, la coda di dati che lasciamo dietro di noi usando ogni dispositivo digitale. Il ricorso sempre più massiccio alla Signal Intelligence – lo spionaggio basato su segnali (digitali) – testimoniato dall'inchie2 sta Drone Papers, pubblicata da The Intercept , dimostra come il passaggio da una modalità di giudizio basata sull'osservazione dire a e la testimonianza dei fa i a una basata sull'analisi dei dati sia ormai una realtà e non soltanto un'ipotesi. Al ne o delle problematiche che emergono nell'ambito di questa trasformazione (e 208

209

Flavio Pintarelli - Sull’etimologia della parola "dato"

ce ne sono più d'una, come mostrano i già citati Drone Papers) la domanda che dovremmo tenere sempre presente è in che modo il passaggio dai dati ai fa i come modalità del giudizio cambia il modo in cui vediamo le cose? Si tra a ovviamente di una risposta complessa, a cui i saggi di questa raccolta provano, ognuno a modo loro, a dare una risposta de agliata rispe o ai numerosi ambiti della nostra società in cui i dati stanno producendo cambiamenti di rilievo (ovvero, più o meno tu i). Tu avia, a un livello più superficiale, l'emergenza più evidente del ruolo che i dati rivestono nel determinare il giudizio che diamo sulla realtà che ci circonda è la loro pretesa ogge ività rispe o ai fenomeni che descrivono. Anche questa volta basta fare un giro tra le conversazioni sui social network per vedere il modo in cui gli utenti brandiscono report statistici, inchieste di data journalism e altre forme di presentazione dei dati come armi retoriche, il cui obie ivo è far acce are all'interlocutore l'evidenza della propria posizione. Nel sentire comune, insomma, ciò che viene presentato e supportato a raverso i dati assume la forza di un'evidenza sostanzialmente incontestabile, al punto che il dato sembra aver assunto uno statuto simile a quello di un elemento naturale. Uno statuto del tu o simile a quello dei fa i osservabili che costituivano un tempo l'unica base possibile per il giudizio. A questo punto bisogna notare che l'emergere di questo sentimento, di questa credenza nel dato come paradigma di ogge ività, da una parte è il risultato dell'abbassamento delle soglie d'ingresso necessarie alla produzione e distribuzione delle informazioni, che ha configurato e reso possibile un mondo cara erizzato dalla polverizzazione delle opinioni e dei punti di vista che ha frammentato i canoni abituali dell'autorevolezza e generato una domanda pressante di punti fermi con cui orientarsi in un panorama liquido e mutevole. Dall'altra è l'effe o ideologico della costruzione di un discorso e di un punto di vista che hanno

Parte IV - Vite datificate

come effe o quello di nascondere e rimuovere la reale natura dei dati, partecipando così alla creazione di un rapporto di potere. Uno degli elementi che rende possibile la costruzione di questo rapporto di potere, a raverso l'istituzione di un discorso e l'articolazione di un punto di vista, è proprio la parola “dato”. Perciò, ancora una volta è all'etimologia della parola che vorrei provare a rivolgermi, per capire in che modo la parola “dato” contribuisce in modo fondamentale alla creazione di un tale rapporto. La parola “dato” deriva infa i da un altro sostantivo maschile latino, questa volta della quarta declinazione: dàtus ovvero “il dare”; ed è risalendo lungo questa radice che si è affermato il suo significato di «elemento immediatamente presente alla conoscenza, pri3 ma di ogni forma di elaborazione» . Un elemento che, proprio in virtù della sua immediata presenza alla conoscenza, poteva essere il mezzo per la risoluzione di un problema matematico o la base per l'elaborazione di una teoria da parte di un filosofo. Quello che dovremmo chiederci però, a questo punto, è se l'etimologia e il significato che siamo stati abituati a dare alla parola “dato” siano ancora utili per aiutarci a capire la natura di tu e quelle operazioni che vanno oggi so o il nome di big data? La risposta è no. E non si tra a, in realtà, nemmeno una questione di novità rispe o a un ipotetico passato in cui quella situazione di presenza immediata del dato alla coscienza poteva avere un qualche valore. Ogni volta che noi parliamo di dati ci riferiamo sempre a un so oinsieme degli infiniti elementi del mondo che sono stati isolati da qualche strumento o processo di misurazione. Anche in questo caso, l'equivoco è squisitamente linguistico. Tanto è vero che, nel 2014, in un libro intitolato The Data Revolution: big data, Open Data, Data Infrastructures and their Consequences, Rob Kitchin fa notare come la parola “capta” (dal latino “captare”, ca urare) avrebbe, rispe o alla parola “data”, un maggior valore esplicativo dei processi di tra amento e costruzione a cui è so oposta l'informazio210

ne. In effe i, quelli che noi ci siamo abituati a pensare come fa i che si danno in modo spontaneo all'analisi, e che chiamiamo comunemente dati, sono in realtà una selezione da un ventaglio infinito di possibilità che operiamo sia artificialmente, per tramite di sensori di vario tipo, sia corporalmente, per tramite dei nostri sensi. E visto che l'operazione di selezionare e stabilire delle differenze tra le cose che ci circondano è l'a o stesso di fondazione di una cultura, allora anche i dati che raccogliamo e analizziamo ne portano impresso il marchio. Descri i in questo modo, come un elemento culturale, i dati perdono qualsiasi possibilità di ogge ività, per diventare anch'essi il prodo o delle condizioni e del contesto in cui vengono sviluppati. Anche i dati, dunque, portano impressi i bias culturali di chi crea i sistemi per raccoglierli e le cornici conce uali con cui analizzarli, me endo così in luce alcuni aspe i a discapito di altri, a seconda dei punti da vista da cui vengono creati.

Il breve studio etimologico che ho condo o fin qui sulla natura della parola dato mi è servito a mostrare, da una parte, come è il modo in cui chiamiamo e pensiamo le cose che le fa esistere per noi in una determinata maniera. Così, se li pensiamo come una forma di dono, non ci poniamo alcun problema sulla proprietà dei nostri dati. Dall'altra parte, invece, è emerso il modo in cui l'uso delle parole contribuisce a costruire delle prospe ive sulla realtà che, almeno in questo caso, sono funzionali a dissimulare dei rapporti di potere. Ovviamente per sfuggire le accuse di complo ismo, bisogna dire che non sempre c'è una volontà malevola dietro questi equivoci linguistici. C'è però spesso una tendenza a servirsi di abitudini familiari per descrivere in modo semplice processi la cui complessità non dovrebbe essere rido a, bensì spiegata e dispiegata. Come si pone rimedio a questa situazione? 211

Flavio Pintarelli - Sull’etimologia della parola "dato"

R

Parte IV - Vite datificate

La domanda è essenziale, critica ed è difficile darle una risposta. Credo però, e questo è un tentativo che può essere diba uto a lungo, che per portare al centro del diba ito pubblico le questioni relative al ruolo che i dati stanno ricoprendo all'interno della nostra società (dalla loro proprietà alla proprietà dei mezzi necessari per processarli e me erli a valore) sia necessaria in primo luogo un'approfondita opera di educazione e formazione. Il mondo in cui viviamo sta infa i a raversando un'epoca di cambiamenti profondi che abbiamo il dovere di condividere tra noi essere umani, aggiornando, se necessario, i conce i con cui siamo abituati a pensare la realtà in modo da aiutarci a rifle ere nel modo più fedele possibile quella che stiamo vivendo. Solo in questo modo sarà possibile per noi cominciare a ragionare su come poter proge are ambienti fisici e digitali in grado di costruire un diverso e più consapevole rapporto tra noi utenti e i dati che produciamo. La base di questo rapporto, questa almeno è la mia convinzione, non può che passare a raverso un modernismo delle interfacce che, abbandonando l'ideologia della trasparenza totale in cui stiamo vivendo, ci perme a di renderci conto dei principi in base a cui sono proge ati gli spazi che abitiamo, i cui meccanismi dovrebbero essere, almeno in parte, disponibili a una manipolazione da parte nostra. Per farlo, per raggiungere questo scopo, è necessario cominciare a ripensare il dato fin dai suoi elementi più basilari, molecolari, fin dal suo significato e dalle incrostazioni che gli si sono accumulate addosso in centinaia di anni d'abitudine. Ho la speranza, forse un po' presuntuosa, che quello che avete appena terminato di leggere possa essere un contributo almeno in parte significativo a questo scopo.

212

N

Flavio Pintarelli - Sull’etimologia della parola "dato"

1) Con l'espressione Internet of Things (IoT) si intende l'implementazione di conne ività all'interno di ele rodomestici ed ogge i di uso comune. 2) Disponibile al link: theintercept.com/drone-papers/ 3) Dizionario Treccani.

213

L'output non calcolabile. Verso una cultura algoritmica di Massimo Airoldi

I

Parte IV - Vite datificate

I

l processo di digitalizzazione e datafication che ha cara erizzato gli ultimi qua ro decenni, trainato dallo sviluppo dei computer e di internet prima e dalla diffusione di smartphone e device mobili poi, ha reso possibile – e, secondo molti, auspicabile – l'ingegnerizzazione della vita quotidiana nelle sue più varie sfacce ature. Parole chiave prima confinate a nicchie professionali e accademiche – “correlazione”, “regressione logistica”, “reti neurali” – divenivano improvvisamente qualcosa di più che strumenti mirati a semplificare una realtà complessa, allo scopo di aiutarci a comprenderla e a prendere decisioni. Gli algoritmi, una volta integrati in pia aforme di e-commerce e social networking, motori di ricerca e siti di news, app di dating e sistemi di trading finanziario, si trasformavano nei decisori. Oggi non vi è ambito della nostra esistenza digitalmente-mediata che non sia il risultato di un calcolo algoritmico, dalle reti sociali su Facebook ai prodo i consigliati su Amazon, dalle pubblicità personalizzate alla scorciatoia per tornare a casa dal lavoro. Ci vengono raccomandati automaticamente i ristoranti dove mangiare, i vestiti da indossare, i brani da ascoltare, i libri di cui parlare e i potenziali partner con cui farlo. Nessuno ci obbliga ad ascoltare pedissequamente i consigli ma, di default, alla fine del video YouTube ne partirà uno “correlato”, e Google Maps ci indirizzerà entro cinque secondi al nuovo “percorso migliore”, trovato sulla base dei dati inviati in tempo reale da parte di altri utenti come noi. In atre parole, il modello statistico, anziché limitarsi a descrivere la realtà, la costi214

L

'

Per definizione, con “algoritmo” si intende un insieme di regole e procedure matematiche volto a trasformare un dato input in uno specifico output10. Nel caso specifico degli algoritmi utilizzati da 215

Massimo Airoldi - L’uotput non calcolabile

tuisce, e lo fa istantaneamente. Gli effe i pertanto trascendono l'epistemologia, e sfociano nell'ontologia e nella politica1. A partire dalla fine degli anni Duemila, la disamina critica di questo inedito “potere algoritmico” ha catalizzato in modo crescente 2 l'a enzione di accademia e opinione pubblica . C'è chi ha scri o di 3 “autorità algoritmica” sull'informazione e la conoscenza , “algo4 crazia” nel mondo del lavoro , così come di “identità algoritmiche” – biopoliticamente calcolate e assegnate agli ignari utenti dei social media5. Altri accademici hanno parlato, ad esempio, di black box society5, algorithmic life6 e automation of taste7. Se le conseguenze politiche e microsociali degli algoritmi online sono state ogge o di numerosi studi, pochi autori hanno affrontato in maniera sistematica un tema più astra o e impalpabile: il loro impa o sulla cultura, intesa nella sua accezione più ampia. Uno di questi è il sociologo statunitense Ted Striphas, il quale so olinea come le a ività di «organizzazione, classificazione e valutazione di persone, luoghi, ogge i e idee»8 siano state progressivamente delegate a processi computazionali non trasparenti. Al tempo di Amazon, Facebook e Netflix, secondo Striphas, la 9 cultura umana si trasforma perciò in una algorithmic culture . Provando a non scivolare sul terreno del determinismo tecnologico, questo capitolo intende rifle ere intorno all'idea di cultura algoritmica. Da un lato, descriverà come precisi assunti culturali sono veicolati dalla “banalità” del codice e dei discorsi intorno ad esso; dall'altro, guarderà all'influenza del codice sulla cultura, soffermandosi sull'intermediazione algoritmica della realtà che ci circonda, e sulle sue conseguenze non calcolabili.

Parte IV - Vite datificate

pia aforme come Facebook o Amazon, l'input sono i big data estra i dalle a ività di miliardi di consumatori iperconnessi, mentre l'output consiste, di norma, in una selezione personalizzata di contenuti che andranno a modellare l'esperienza digitale vissuta dall'utente X in un momento T. Si tra a, ad esempio, di quali post appariranno nel News Feed di Facebook, dei pop up pubblicitari online, così come dei contenuti/prodo i che “potrebbero interessarti anche” in un qualunque sito di news/e-commerce /intra enimento11. Quello che sta nel mezzo – le righe di codice che guidano il processo con cui gli algoritmi online ingeriscono dati sui comportamenti degli utenti, per risputare in tempo reale un output su misura – 12 non è trasparente . D'altronde l'obie ivo (quello, sì, alla luce del sole) degli algoritmi sviluppati dai colossi della Silicon Valley è massimizzare traffico e profi i, estrarre ogni goccia di valore economico dal coinvolgimento di utenti/prosumer – consumatori, certo, ma anche e sopra u o produ ori di informazioni13. Per le aziende del se ore tech, l'algoritmo rappresenta dunque un investimento da custodire gelosamente – gran parte dei ricavi di Netflix e Amazon derivano proprio dai suggerimenti automati14 ci . Tu avia, se gli algoritmi che rimestano il calderone delle nostre tracce digitali sono disegnati da privati per scopi commerciali, le conseguenze sono pubbliche, spesso inquietanti, talvolta tragicomiche. Il caso del recommender algorithm di Amazon che suggerisce le componenti di una bomba artigianale in quanto “spesso 15 comprate insieme” rientra in quest'ultima categoria . La tentazione, in questi casi, è quella di deumanizzare l'algoritmo, di interpretare l'ingenuità della raccomandazione come una prova della neutralità tecnica di uno strumento che, come una qualsiasi lavatrice, si limita a eseguire meccanicamente degli ordini. Non è colpa della lavatrice se ci finisce dentro il ga o, non è colpa 216

del sistema di raccomandazione se gli aspiranti terroristi fabbricano bombe su Internet. Immaginate però, per un momento, una lavatrice connessa in rete, dotata di un algoritmo di collaborative filtering simile a quello di Amazon: se il suicidio felino divenisse improvvisamente un fenomeno statisticamente rilevante, il nuovo pulsante “programma ga o” farebbe la sua silenziosa comparsa tra “delicati” e “lavaggio rapido”. L'output della “lavatrice algoritmica”, infa i, non è dato a priori: è calcolato sulla base di un input di cui né i programmatori né il singolo consumatore hanno pieno controllo – “chi ha lavato X ha lavato anche Y”. L'output emerge nella volatilità dell'interazione tra le “regole generative” inscri e nel codice (le procedure da eseguire) e la variabilità del 16 comportamento umano, registrato e masticato in quanto input . 17 Qui sta quella che, riprendendo Arendt , si potrebbe chiamare “banalità dell'algoritmo”: il semplice e apparentemente neutrale “eseguire gli ordini” può produrre esiti a dir poco indesiderati.

In fondo, una piccola svista ogni tanto è il giusto prezzo da pagare per la semplificazione delle nostre vite. Questo almeno sembrano presupporre gli autori di Algorithms to live by: the computer science of human decisions18. Nell'introduzione al volume viene presentato un esempio alquanto evocativo di problem solving algoritmico: cercare casa in quel di San Francisco. Con un mercato immobiliare gentrificante e frenetico, nuovi appartamenti in affi o che appaiono online e scompaiono nel giro di pochi minuti, il problema principale è il seguente: quanto tempo dedicare a informarsi sulle case disponibili, senza rischiare di lasciarsi scippare l'occasione d'oro da un secondo all'altro? Si tra a insomma di individuare il cosidde o optimal stopping. Mentre la maggior parte di noi procederebbe a casaccio o impulsivamente, gli autori non mancano di so olineare come esista un'unica soluzione possibile al dilemma, due 217

Massimo Airoldi - L’uotput non calcolabile

L

semplici cifre che ci consentono di massimizzare la probabilità di trovare un appartamento che soddisfi al meglio i nostri standard. Si tra a di un calcolo matematico ogge ivo: il 37% del tempo a disposizione per trovare l'appartamento a San Francisco va destinato a navigare il mare di possibili opzioni, mentre il restante bisogna agire, conta ando il primo miglior offerente. Per dirla con parole loro:

Parte IV - Vite datificate

Every harried renter, driver, and suitor you see around you as you go through a typical week is essentially reinventing the wheel. They don't need a therapist; they need an algorithm. The therapist tells them to find the right, comfortable balance between impulsivity and overthinking. The algorithm tells them the balance is thirty-seven percent […]. Thinking algorithmically about the world, learning about the fundamental structures of the problems we face and about the properties of their solutions, can help us see how good we actually are, and be er understand the errors that we make19

Il vocabolario utilizzato candidamente nel bestseller di Christian e Griffiths è quello dei tecnocrati della Silicon Valley, e risuona particolarmente familiare anche agli ingegneri informatici che decidono a porte chiuse i criteri a raverso cui le nostre migliori opzioni in termini di le ure, partner, musica o aspirapolveri ven20 gono selezionate algoritmicamente . Quali conta i troveremo per primi nella chat di Facebook? Quelli con cui ultimamente abbiamo interagito di più. Cosa saremo interessati a guardare su YouTube? Video simili a quelli che abbiamo già visto, dove per “simili” si intende “visualizzati uno in seguito all'altro da molte persone”21. Quali accessori potremmo voler acquistare su Amazon? Quelli “spesso comprati insieme” da un numero significativo di utenti. E così via, dai following su Twi er 218

219

Massimo Airoldi - L’uotput non calcolabile

agli articoli accademici (Fig. 1), la nostra vita nel marasma dell'information overload si fa più semplice, costellata da tante piccole scelte esternalizzate alle macchine, da tanti piccoli consigli calcolati allo scopo di incontrare le nostre necessità. 22 Ma dietro le “regole generative” degli output computazionali , è bene ricordarlo, ci sono persone divenute per caso o per passione programmatori in qualche azienda della Silicon Valley, che forse votano e leggono libri, che certamente possiedono e perpetuano – più o meno consciamente – punti di vista particolari sulla società che li circonda. Il codice, il DNA di macchine che allevano come bachi da seta miliardi di esistenze digitali allo scopo di tessere altre ante realtà su misura, è pertanto un prodo o culturale. D'altronde anche i criteri usati dai critici musicali per consigliare dischi sono prodo i culturali, cristallizzazioni socio-storiche che nascondono dinamiche di potere23. Ma, in questo caso, gli schemi implicitamente impiegati nella valutazione interagiranno in maniera imprevedibile con esperienze personali, ricordi, informazioni parziali, dissonanze cognitive, amicizie, interessi strategici, ma ine di caffe iere dimenticate sul fuoco e ansie inspiegabili. Il codice, viceversa, non contempla epifanie. A seconda della logica ado ata, un qualunque sistema di raccomandazione musicale utilizza a scopo predi ivo: a) metadati associati ai singoli brani (durata, genere, bpm, etc.); b) abitudini dell'utente X (quali artisti ascolta, in che momento della giornata, etc.); c) comportamenti aggregati degli altri utenti della pia aforma; d) una combinazione delle prime tre24. L'output dell'elaborazione statistica – esa amente come nel caso del fatidico 37% – sarà infine uno e uno solo: una lista ordinata di pochi brani su milioni di possibilità, quelli che massimizzano la probabilità di approssimare corre amente i nostri gusti del momento. Ed è proprio nell'idea che un risultato in fondo ci sia, nell'auspicabilità di calcolare i nostri desideri, nel tentativo di

Parte IV - Vite datificate

indovinare matematicamente le nostre aspe ative, che si intravedono gli assunti culturali inscri i nel codice. Certo, le raccomandazioni automatiche sono comode, ti fanno scoprire nuovi artisti che ami e difficilmente avrai bru e sorprese. Tu avia, la retorica della comodità non deve impedirci di ado are uno sguardo critico. Se è vero che «quando cuciniamo il pane, stiamo eseguendo un algoritmo»25, non è scontato che tu e le a ività umane necessitino di una rice a. Non è de o che ogni scelta o azione debba presupporre la massimizzazione di un'idea pseudoogge iva di soddisfazione, in forma di standard arbitrariamente definiti e operativizzati. Ancora, dov'è scri o che informatici dipendenti di aziende private abbiano le competenze per maneggiare eticamente e ingegnerizzare su larga scala ambiti dell'esistenza umana tradizionalmente riservati alle scienze umane e sociali, quali circolazione della conoscenza, formazione dell'opinione pubblica, comunicazioni interpersonali, pratiche di consumo? E, sopra u o, non è chiaro per quale motivo l'utente – fruitore e, indire amente, produ ore dell'output, in quanto in primis sorgente di dati – non abbia il diri o a essere informato, a esercitare una qualche forma di controllo sulle logiche che so endono la produzione algoritmica della propria esperienza quotidiana.

Figura 1 Raccomandazioni di articoli accademici, selezionate automaticamente sulla base delle ricerche online effe uate dell'autore

220

: '

C'è poi un'altra questione, che trascende il qui e l'ora del singolo individuo e riguarda invece la cultura nel senso più ampio del termine: l'immaginario condiviso, il linguaggio, i significati simbolici, le norme sociali, i sistemi di classificazione che so endono la valutazione e comprensione dell'esperienza e, al contempo, guidano implicitamente l'azione umana. Gli algoritmi utilizzati da pia aforme come Facebook o YouTube filtrano i contenuti visibili sulla base dell'analisi delle a ività svolte online dagli utenti. Questa sorta di «agenda se ing algoritmi26 ca» va a sua volta a influenzare significativamente il comportamento degli utenti – i quali interagiranno di più con i conta i i cui post appaiono nel feed, cliccheranno sui video già presenti in homepage e vedranno uno dopo l'altro i contenuti correlati. Ciò comporta l'instaurarsi di un circolo vizioso: l'algoritmo, il meccanismo generativo che produce un output Y a partire da un input X, a raverso Y esercita un'influenza su X, che produrrà Y1, il quale impa erà su X2 – e così via, a oltranza. A un output di primo ordine – il video consigliato, l'ordinamento dei conta i in chat, la pubblicità su misura – se ne somma un secondo, non altre anto visibile e calcolabile: le conseguenze macrosociali e di lungo periodo dei loop di micro-interazioni tra tecnostru ure e a ività degli utenti. Questo output di secondo ordine dipenderà in ultima istanza dai postulati presenti nelle righe di codice. Sarà una filter bubble conservatrice, nel caso di algoritmi che modellano le scelte future sulla base di quelle passate – assumendo, ad esempio, che una volta terminato questo capitolo avrò intenzione di continuare a leggere articoli come quelli elencati in Fig. 1. Diversamente, nel caso di sistemi basati sul meccanismo del collaborative filtering, il rischio sarà quello di restare intrappolato in quello che altri utenti “simili a me” leggono di solito – una logica 221

Massimo Airoldi - L’uotput non calcolabile

I

che favorisce l'omologazione rispe o alla distinzione e la formazione di echo chamber piu osto che il confronto tra opinioni diver27 se . In ambo i casi, ciascun click sui contenuti che “potrebbero interessarti anche” o like regalato ai post ben in vista nel newsfeed non fa che irrobustire il modello statistico e, in ultima istanza, avallare la discutibile bontà degli assunti culturali inscri i nel codice. Se, in finanza come sui social media28, il domani viene fabbricato algoritmicamente a partire dall'analisi computazionale dell'oggi29, le profezie guidate dal data mining si autoavverano nel momento stesso in cui orientano invisibilmente l'azione degli individui. Così, come per magia, l'accuratezza della predizione migliora a 30 mano a mano che gli utenti si affidano ad essa . È arrivati a questo punto che si può legi imamente parlare di cultura algoritmica: quando miliardi di stimoli automatizzati, derivanti dall'incessante elaborazione computazionale delle nostre tracce digitali, deformano le lenti a raverso cui vediamo e immaginiamo la realtà che ci circonda. Il risultato di lungo periodo, l'output non calcolabile di una calcolabilità portata all'estremo, si può intuire facilmente rifle endo su ciò che non vediamo più: i post dei conta i con cui interagiamo raramente; le pagine web posizionate in fondo ai ranking dei motori di ricerca; i libri “raramente comprati insieme”; tu i quei luoghi, informazioni, cose, idee o persone algoritmicamente non rilevanti e, per questo motivo, epurati dal nostro vissuto digitale.

Parte IV - Vite datificate

D Nel backend di un'app qualsiasi, appoggiato a qualche server farm californiana, il processo di classificazione e filtraggio della realtà procede, imperscrutabilmente. La cultura risultante rispe a i canoni di significatività statistica stabiliti dal codice software. Come l'esempio della bomba su Amazon illustra alla perfezione, non si tra a per forza di una cultura mainstream: non sono i pro222

223

Massimo Airoldi - L’uotput non calcolabile

do i più venduti a essere raccomandati automaticamente, ma quelli “spesso comprati insieme”; non sono i conta i Facebook che hanno ricevuto più like in assoluto ad apparire nel News Feed, ma quelli che tu hai “likeato” di più; non sono gli artisti più popolari a essere suggeriti su Spotify, ma quelli più “vicini” in termini 31 di trend colle ivi di ascolto . Nel caso di Fedez, l'artista consigliato sarà J-Ax, mentre nel caso dei Singapore Sling si tra erà di qualche altra misconosciuta band post-rock islandese. In parole povere, l'algoritmo registrerà e riproporrà le correlazioni più forti, nascondendo quelle statisticamente non significative (quella tra Fedez e i Singapore Sling). Le regolarità nel comportamento umano, le associazioni simboliche sedimentate, le barriere informative, sociali e culturali rischiano così di venire rinforzate e perpetuate tecnologicamente, riducendo il già so ile spazio lasciato al cambiamento, all'inaspe ato, alla serendipity. Baudrillard descriveva un simile meccanismo di “produzione industriale delle differenze”32 riferendosi agli albori della segmentazione pubblicitaria, nella nascente consumer society dei tardi anni sessanta. Oggi che questo processo è affidato al data mining e implementato in tempo reale, le conseguenze ipotizzabili sono simili, ma certamente su più larga scala. Una prospe iva particolarmente inquietante è la scomparsa di quelli che in gergo statistico si chiamano outlier – casi devianti, che non seguono l'andamento del modello statistico e, di conseguenza, ne comprome ono il potere predi ivo. Sono gli ascoltatori che hanno nella stessa playlist Fedez e i Singapore Sling, i le ori che comprano Moccia e Derrida, chi ogni giorno cambia tragi o per andare al lavoro. Sono outlier i bestseller che – secondo uno speciale algorit33 mo – avrebbero solo lo 0,1% di probabilità di diventare tali, e i presunti bestseller che si rivelano un fallimento. Sono outlier le chiavi di ricerca desuete su Google e gli orientamenti sessuali non azzeccabili applicando tecniche di deep learning alle foto profilo34. In sin-

Parte IV - Vite datificate

tesi, sono tu i quei casi in cui l'algoritmo, sbagliando, ci ricorda che le nostre scelte e identità non sono (soltanto) l'emanazione empirica di un insieme di variabili latenti. Una volta trascinati nel loop di mutua influenza tra stimoli automatizzati e comportamento umano, assorbiti nella co-costruzione socio-tecnica della cultura algoritmica, gli outlier rischiano però di scomparire, di diluirsi lungo le curve dei trend statistici significativi. Il fallimento del modello statistico ci serve per continuare a sperare di essere umani, nel bene e nel male. Ci serve per disegnare con sufficiente anticipo un'alternativa rispe o alla distopia istituzionale di un mondo in cui un libro viene pubblicato solo se ha un “bestselling score” superiore al 90%. Con una cultura normalizzata 35 dalla production of prediction , la figura dell'outlier assume anche una valenza politica. Può servire a mostrare, per contrasto, i riflessi dell'ideologia neoliberista nel codice, e quelli del codice sulla cultura. Agire deliberatamente da outlier può rappresentare una forma di sabotaggio, un modo per trollare l'algoritmo e resistere contro la visione del mondo inscri a in esso – nonché, spesso, in noi stessi. Come una specie a rischio di estinzione evoca lo spe ro del disastro ambientale, gli outliers ci spingono a rifle ere criticamente sull'output non calcolabile dell'azione algoritmica, e a non so ovalutarlo.

224

1) David Beer. Power through the algorithm? Participatory web cultures and the technological unconscious. in New Media & Society, Sage Publishing, Londra 2009, 11(6), pp. 985-1002. 2) David Beer, The social power of algorithms. in Information, Communication and Society, Routledge, Londra 2017 20(1), pp. 1-13. 3) Richard Rogers, Digital Methods, MIT press, Boston 2013, pp. 97-100. 4) A. Aneesh, Global Labor: Algocratic Modes of Organization, in Sociological Theory, Sage Publishing, Londra 2009, 27(4), pp. 347–370. 5) John Cheney-Lippold, A New Algorithmic Identity: Soft Biopolitics and the Modulation of Control, in Theory, Culture & Society, Sage Publishing, Londra 2011, 28(6), pp. 164-181. 6) Frank Pasquale, The black box society: The secret algorithms that control money and information, Harvard University Press, Cambridge 2015. 7) Louise Amoore, Volha Piotukh, (a cura di) Algorithmic Life. Calculative devices in the age of Big Data, Routledge, Londra, New York 2016. 8) Nello Barile, Satomi Sugiyama, (2015), The Automation of Taste: A Theoretical Exploration of Mobile ICTs and Social Robots in the Context of Music Consumption, in International Journal of Social Robotics, Springer, Berlino 2015, 7(3), pp. 407-416. 9) Ted Striphas, Algorithmic culture, in European Journal of Cultural Studies, Sage Publishing, Londra 2015, 18(4-5), pp. 395-412. 10) Ibidem. 11) Tarleton Gillespie, The relevance of algorithms, in Tarleton Gillespie, Pablo Boczkowski e Kirsten Foot (a cura di), Media Technologies: Essays on Communication, Materiality, and Society, MIT Press, Cambrige 2014, p. 167. 12) Massimo Airoldi, Potrebbe interessarti anche: recommender algorithms e immaginario, il caso YouTube, in IM@GO, Mimesis, Milano 2015, 1(6), pp. 132-150. 13) Frank Pasquale, 2015, op. cit. 14) George Ri er, Prosumption: Evolution, revolution, or eternal return of the same?, in Journal of Consumer Culture, Sage Publishing, Londra 2013, 14(1), pp. 3-24. 223

Massimo Airoldi - L’uotput non calcolabile

N

Parte IV - Vite datificate

15) Òscar Celma, Music recommendation and discovery: The long tail, long fail, and long play in the digital music space, Springer, Heidelberg, Dordrecht, London, New York 2010, p. 3. 16) Rachael Revesz, Build your own bomb: How Amazon's algorithm helps suggest explosive recipes, in Indipendent, disponibile al link: independent.co.uk/news/uk/home-news/amazon-algorithm-bombmaking-components-mother-of-satan-channel-4-investigationa7954461.html 17) David Beer, 2009, op. cit. 18) Hanna Arendt, La banalità del male, Feltrinelli Editore, Milano 1964. 19) Brian Christian, Tom Griffiths, Algorithms to live by: The computer science of human decisions, William Collins, Londra 2016. 20) Ivi, pp. 9-12. 21) Si veda Blake Hallinan, Ted Striphas, Recommended for you: The Netflix Prize and the production of algorithmic culture, in New Media & Society, Sage Publishing, Londra 2016, 18(1), pp. 117-137. 22) Si veda Airoldi, 2015, op. cit. 23) Si veda David Beer, 2009, op. cit. 24) Pierre Bourdieu, The field of cultural production: Essays on art and literature, Columbia University Press, New York 1993. 25) Òscar Celma, 2010, op. cit. 26) Brian Christian, Tom Griffiths, 2016, op. cit. p. 10 [Traduzione dell'Autore]. 27) Massimo Airoldi, 2015, op. cit. 28) Si veda Giovanni Boccia Artieri, La rete dopo L'overload informativo. La realtà dell'algoritmo da macchia cieca a bene comune, in Paradoxa, 2, Nova Spes, Roma 2014, pp. 100-113. 29) Adam Arvidsson, Facebook and Finance: On the Social Logic of the Derivative, in Theory, Culture & Society, Sage Publishing, Londra 2016, 33(6), pp. 3-23. 30) Fenwick McKelvey, Fenwick McKelvey, Luke Simcoe, A consensual hallucination no more? The Internet as simulation machine, in European Journal of Cultural Studies, Sage Publishing, Londra 2015, 18(4-5), p. 579. 31) Per chi ha familiarità con le scienze sociali: è un po' come se la nuvola di punti su di un piano cartesiano, da informe e dispersa com'è ogniqual-

226

Massimo Airoldi - L’uotput non calcolabile

volta si provi a descrivere statisticamente la variabilità del comportamento umano, si ada asse progressivamente al modello, allungandosi, appia endosi lungo la re a di regressione, riducendo così l'incertezza. 32) A questo proposito, si veda labs.polsys.net/playground/spotify/. 33) Jean Baudrillard, La società dei consumi, Il Mulino, Bologna 1976, p. 115. 34) Si veda Donna Ferguson, Want to write a bestselling novel? Use an algorithm, in The Guardian, disponibile al link: theguardian.com/money/2017/sep/23/write-bestselling-novelalgorithm-earning-money 35) Per una critica su questo punto, si veda Machine learning about sexual orientation?, in Calling Bullshit, disponibile al link: bit.ly/2Er19Jm 36) Adrian Mackenzie, The production of prediction: What does machine learning want?, in European Journal of Cultural Studies, Sage Publishing, Londra 2015, 18(4-5), pp. 429-445.

227

Il potere degli algoritmi di Angelo Paura

Parte IV - Vite datificate

I

n Rapporto di minoranza, Philip K. Dick immagina un futuro in cui tre mutanti (i precog) possono prevedere tu i i crimini. Grazie a questa risorsa, la polizia ha creato una squadra speciale guidata dal commissario John Anderton, la divisione Precrimine, in grado di inviare un gruppo di agenti pochi secondi prima che accada un evento, fermando così un omicidio, ma me endo in carcere la persona prima che comme a il reato. In Confli o evitabile, Isaac Asimov racconta un mondo in cui migliaia di potenti macchine, usate per gestire la produzione di cibo e l'economia, riescono a influenzare in modo inconsapevole gli sviluppi e il pensiero dell'umanità. Questi due racconti, scri i a orno alla metà del '900, estremizzano un tema molto a uale:  il rapporto tra gli uomini e gli algoritmi, ossia una serie finita di istruzioni che perme e a una macchina di portare a termine in modo automatico il proprio compito. Gli algoritmi sono la base del linguaggio dei computer e le speculazioni sulle loro cara eristiche sociali e culturali sono emerse sin dall'inizio della loro storia. Sono un insieme di codici ogge ivi o la trasposizione numerica di un pensiero sogge ivo? Sono del tu o neutrali o nascondono pregiudizi? Nel 2013, in un lungo articolo sulla privacy apparso sulla MIT Technology Review, Evgeny Morozov ha sostenuto che questi processi, pur essendo diventati essenziali per il funzionamento delle democrazie, continuino a porre forti minacce alla trasparenza nel rapporto tra le istituzioni e i ci adini. Morozov a acca il conce o di algorithmic regulation coniato da Tim O'Reilly, un editore della Silicon Valley, che propone una forma alternativa di governo in cui tu i i dati dei ci adini sono gestiti in modo efficiente a raverso algoritmi. Per Morozov, si tra a di una tendenza pericolosa: 228

a raverso queste pratiche i governi potrebbero diventare meno trasparenti e cercare di risolvere questioni di interesse pubblico senza spiegare ai ci adini le regole e i processi applicati. Sostiene

Kelly McBride del Poynter Institute di St. Petersburg, in Florida:

In una discussione telefonica, McBride mi ha spiegato che, nella migliore delle ipotesi, le aziende che scrivono gli algoritmi possono contribuire alla diminuzione dello spe ro delle idee e dei punti di vista, tralasciando alcune informazioni e dando la precedenza ad altre. Nella peggiore, invece, possono usare i codici per filtrare alcuni pezzi di informazione e così arrivare a influenzare l'opinione pubblica, anche senza avere un obie ivo o un piano ben definito. In un articolo pubblicato a metà del 2015 da Politico, Robert Epstein, ricercatore dell'American Institute for Behavioral Research and Technology e PhD ad Harvard, fa riferimento a questa seconda eventualità. «Il prossimo presidente americano  —  scrive Epstein — potrebbe essere ele o non solo grazie alle pubblicità in tv o ai suoi discorsi, ma a decisioni segrete prese da Google, e nessuno  —  oltre a me e a un piccolo numero di ricercatori sconosciuti — saprà in che modo questo è stato possibile». La sua visione è stata duramente a accata da Google in una risposta apparsa sem229

Angelo Paura - Il potere degli algoritmi

Gli algoritmi non sono neutrali, sono pezzi di codici che prendono decisioni e in ogni decisione che prendono danno la priorità ad alcune informazioni rispe o ad altre. L'algoritmo di Google, ad esempio, dà priorità a informazioni che sono più recenti, che sono state cercate da molte persone, che sembrano essere più accurate, anche se non è ancora chiaro come riuscire a definire se un'informazione sia accurata o meno

pre su Politico. In un altro articolo, sempre Epstein sostiene che Google avrebbe la capacità di influenzare le elezioni del Lok Sabha, la camera bassa dell'India. Secondo il ricercatore basterebbe cambiare i risultati delle risposte sul motore di ricerca per spostare milioni di voti. Nel maggio 2014 il Guardian ha smentito la posizione del ricercatore in un pezzo intitolato: «No, Google non ha influenzato le elezioni in India», mostrando come lo studio era basato solo su una serie di ipotesi che a ben guardare non si sarebbero mai avverate. Ma il punto su cui rifle ere non è questo. Anche tralasciando le visioni escatologiche di Epstein e le più becere teorie del complotto che circolano su questo argomento, gli algoritmi restano un tema molto delicato. Affermare che Google e gli altri colossi non abbiano alcun piano segreto per controllare le menti umane, non risolve affa o il problema della trasparenza degli algoritmi. Queste stringhe di istruzioni infa i, proprio «perché sono scri e da persone, possono contenere tu i i pregiudizi degli uomini che le sviluppano», aggiunge Kelly McBride, che ha dedicato gli ultimi due anni a studiare gli intrecci tra algoritmi, etica e democrazia.

Parte IV - Vite datificate

G Latanya Sweeney è una professoressa di Government and Technology ad Harvard e si occupa di data privacy. Un giorno, mentre stava facendo una ricerca su Google, si è accorta che qualcosa non funzionava. Perché il suo nome, come quasi tu i quelli riconducibili a un ci adino afroamericano, aveva il 25% in più di possibilità che, a fianco dei risultati, venissero proposte pubblicità che consigliano controlli della fedina penale e degli arresti. “Latanya Sweeney è stata arrestata?”, “La fedina penale di Latanya Sweeney”, “Controlla quante volte Latanya Sweeney è stata arrestata”. La professoressa ha cercato di dare una forma scientifica alla sua intuizione: ha analizzato oltre 2.000 nomi in oltre 120.000 ricerche su 230

231

Angelo Paura - Il potere degli algoritmi

Google.com e Reuters.com, arrivando alla conclusione che le pubblicità «possono contribuire ad aumentare i pregiudizi razziali» nei confronti delle minoranze. Questo perché gli algoritmi rifle ono i pregiudizi della società. «La tecnologia può fare molto di più per impedire le discriminazioni e armonizzare le regole delle società», ha concluso Sweeney. Google ha risposto alla pubblicazione sostenendo che il suo algoritmo non fa alcuna discriminazione e che le pubblicità associate alle ricerche provengono dalle parole chiave scelte dagli inserzionisti, sulle quali il motore di ricerca non interviene. Princess Ma hews è una madre di qua ro bambini, che dopo essere finita in carcere più volte per detenzione di droga e furto, ha deciso di cambiare vita. Ha fondato una non-profit (Project No More Pain) che si occupa di violenze domestiche. Ma, a distanza di anni, il suo passato è una parte importante del suo presente su Google, visto che decine di siti (JustMugshots, Mugshots, BustedMugshots) continuano a pubblicare le sue foto segnaletiche, me endole ai primi posti delle ricerche. Il 5 o obre del 2013, David Segal del New York Times ha pubblicato un articolo molto critico nei confronti di questa pratica. Il pezzo ha spinto Google a cambiare il proprio algoritmo, togliendo i risultati di siti come JustMugshots dalle prime pagine delle ricerche. E ancora Visa, MasterCard, PayPal e altri gruppi che gestiscono i flussi di denaro hanno iniziato a non acce are più i pagamenti verso questi siti. La questione ha aperto un profondo diba ito su internet e sulle capacità di dimenticare del web. Dopo una lunga ba aglia, la Corte di giustizia europea ha stabilito che un ci adino può chiedere a Google di cancellare alcune informazioni ritenute lesive della propria privacy. Negli Stati Uniti, invece, non esiste una legge che perme e ai ci adini di chiedere alle società di cancellare i link che ritengono lesivi.

Parte IV - Vite datificate

N “Angelo, abbiamo appena aggiunto Best of Enemies  —  Buckley vs. Vidal”, “Angelo, abbiamo appena aggiunto A Very Murray Christmas”. Da quando mi sono abbonato a Netflix continuo a ricevere mail che mi suggeriscono altri cinque film o documentari che potrebbero interessarmi. Ma a parte i miei gusti personali, molti analisti si sono posti questa domanda: come funziona l'algoritmo di Netflix? È un bene che esista? Poco dopo l'uscita di House of Cards su Netflix, il critico del New York Times, David Carr, ha scri o un pezzo in cui raccontava come, a raverso l'analisi dei nostri dati, Netflix decida quali serie produrre, quali film produrre e in generale cosa proporre. Il giornalista, morto nel 2015, scriveva: «Immaginiamo che Netflix entri nel mercato dei siti che consigliano film e show, il suo algoritmo potrebbe favorire i lavori che commissiona […]?». Sempre Carr, ricorda come Google tenda a favorire i suoi prodo i rispe o a quelli identici offerti da altre società: l'Unione Europea, dopo anni di scontri legali, ha condannato il gruppo californiano a pagare una multa da 2,7 miliardi di dollari per abuso di posizione dominante. Ma torniamo a Netflix. Per creare un modello infallibile, paga migliaia di persone per guardare e indicizzare con tag i film. «Hanno il compito di ca urare decine di cara eristiche di film diversi. Addiri ura, lo stato morale dei personaggi», ha scri o nel 2014 sull'Atlantic Alexis Madrigal. In questo modo, Netflix riesce a costruire una realtà spezze ata, fa a di migliaia di so ogeneri, più di 75.000. Alcuni hanno titoli incredibili: “documentari emozionanti contro-il-sistema”, “storie sataniche straniere degli anni '80”. Netflix ha creato un database infinito, in cui incasellare i gusti degli spe atori americani e di conseguenza decidere quali serie tv o documentari produrre.

232

Infine, il modello Netflix ha un altro elemento distintivo: il suo algoritmo spinge gli utenti a guardare film e programmi tv indipendenti e sconosciuti. Il motivo è semplice. Il gruppo riesce a tenere lontano gli spe atori dai costosissimi blockbuster o da altre produzioni costose che non riuscirebbe a pagare con il denaro degli abbonamenti mensili.

Il rischio dunque non è quello di ritrovarsi in un universo parallelo come quello raccontato dai fratelli Wachowski in Matrix, in cui ai più non è possibile riconoscere il confine tra la realtà e il mondo costruito da un programma. Il vero rischio è quello di perdere parte della conoscenza e impoverire il nostro spe ro di idee e di interessi, entrando in una bolla ripetitiva e autoreferenziale. Come sostiene la sociologa Zeynep Tufekci, gli algoritmi dovrebbero mostrarci non solo i contenuti che amiamo, ma anche quelli che odiamo o con i quali non siamo per forza d'accordo. La studiosa definisce il problema “censura degli algoritmi”. Nei giorni successivi alle proteste di Ferguson, Missouri, dove nel 2014 il polizio o Darren Wilson ha ucciso il dicio enne disarmato Michael Brown, Tufekci ha scri o su Medium un articolo in cui a accava Facebook per aver censurato i contenuti e non aver mostrato gli scontri tra polizia e manifestanti. «Abbiamo capito perché i filtri messi dagli algoritmi non sono una materia vaga», ha scri o. Successivamente, in un articolo pubblicato alla fine del 2014 su Nieman Lab di Harvard, ha pronosticato che il 2015 sarebbe stato l'anno in cui ci saremmo accorti di quanto gli algoritmi siano spaventosi e che il 2016 sarebbe stato l'anno in cui avremmo iniziato a ribellarci. C'è da dire che per ora non c'è stata alcuna rivolta contro gli algoritmi e contro chi li produce, ma nel 2017 la consapevolezza è aumentata e i media hanno dedicato più articoli e commenti a questi temi, anche se in parte si sono concentrati sulle fake news 233

Angelo Paura - Il potere degli algoritmi

L

dopo l'elezione di Donald Trump alla Casa Bianca e l'inchiesta sull'interferenza del governo russo nelle elezioni americane. Ma tornando indietro nel tempo, in un TED talk del 2015, il ricercatore del MIT Media Lab, Kevin Slavin, è andato ancora più in profondità, sostenendo che il nostro mondo è ormai costruito dagli algoritmi che negli anni si sono trasformati da elementi derivati dalla realtà in elementi in grado di dare forma alla realtà. «I codici che sono stati scri i non sono facilmente leggibili, questo significa che non sappiamo cosa succede veramente», dice Slavin. Nel corso della telefonata con McBride, più volte ho cercato di proporle paralleli abbastanza sgangherati tra i suoi studi accademici e la fantascienza distopica: le ho chiesto se per esempio potrebbe funzionare l'idea di istituire un gruppo di saggi-custodi che vigilino sugli abusi degli algoritmi. Lei ha cercato di dare una forma scientifica alle mie visioni. «La migliore delle ipotesi è quella di creare una non-profit che si occupi di questi temi e vigili sulla scri ura e il funzionamento degli algoritmi. Questo è un traguardo molto lontano e per ora sarebbe già una vi oria creare una commissione all'interno del governo degli Stati Uniti».

Parte IV - Vite datificate

A Ho iniziato a interessarmi a questo argomento nel 2014, dopo aver partecipato a Computation+Journalism Symposium, che quell'anno si è svolto alla Columbia University di New York. In quel periodo, Donald Trump era solo un immobiliarista miliardario, presentatore di The Apprentice e le fake news erano un tema di discussione per iniziati di qualche sconosciuto culto elitario. Poi, tu o è cambiato: Trump è diventato presidente degli Stati Uniti; la Russia ha cercato di influenzare le elezioni, spendendo migliaia di dollari per diffondere notizie false e fare propaganda a favore di Trump; i media di tu o il mondo hanno iniziato a parlare di fake news. La sua elezione alla Casa Bianca, e le discussioni che ha generato, han234

I Negli ultimi anni, Facebook è riuscito a diventare una potenza geopolitica, che non ha alcun obie ivo nobile se non quella di crescere sempre di più e di fare profi i, assecondando in modo più o meno chiaro le posizioni dei governi dei Paesi in cui fa affari. In Cina, dove è bandito dal 2009, sta facendo pressioni sul partito comunista per poter ritornare online.

235

Angelo Paura - Il potere degli algoritmi

no aperto in occidente una nuova fase del XXI secolo, in cui gli algoritmi avranno un ruolo ancora più importante. Nel fra empo, come previsto da McBride, non è stata fondata alcuna non-profit che vigili sulla scri ura e sul funzionamento degli algoritmi, né tantomeno il governo Trump ha intenzione di dedicare spazio a questo tema, creando una commissione indipendente che se ne occupi. In questi due anni, grazie a una borsa di studio della CUNY Graduate School of Journalism di New York, ho iniziato a occuparmi di realtà virtuale, realtà aumentata e delle loro implicazioni etiche sul modo in cui raccontiamo storie e sulla percezione della realtà in cui viviamo. La realtà virtuale, insieme a quella aumentata e a quella mista, nei prossimi dieci anni avranno un valore di 80 miliardi di dollari, creando un mercato su cui si concentreranno gli interessi della Silicon Valley. Già in questo momento Facebook, Google e Apple stanno investendo miliardi di dollari. Per questo motivo, è chiaro che le nostre esperienze immersive saranno controllate da algoritmi e che, anche nel mondo virtuale, potranno essere riprodo i tu i i pregiudizi che hanno cara erizzato la storia degli algoritmi fino ad oggi. Sopra u o, se si pensa che, come mi ha de o in un'intervista il teorico dei media Douglas Rushkoff, l'interesse dei colossi della Silicon Valley è quello di «aiutare gli inserzionisti a trasme ere il loro messaggio pubblicitario e non quello di informare i ci adini».

Credete che perme erà ai suoi utenti di vedere i video di piazza Tienanmen? O credete che parlerà di democrazia, di diri i civili e dei diri i dei lavoratori come fa negli Stati Uniti o in Europa? Sarà un algoritmo a controllare la pia aforma e in Cina sarà scri o per aumentare i click, vendere più pubblicità e non far arrabbiare il governo. È tu a questione di equilibri, come per le relazioni internazionali. Tu avia, qui non esiste alcuna etica, se non quella della crescita. Il fa o che nel se embre del 2017 il New York Times abbia pubblicato un documentario in cui me e insieme tu i questi elementi, descrivendo i pericoli di un mondo governato da Facebook, dovrebbe confermare che il problema degli algoritmi e del controllo della società da parte dei colossi tecnologici non è più soltanto un tema di discussione di piccole élite radicali. Si tra a invece di una preoccupazione sempre più condivisa, che nei prossimi anni porterà quasi sicuramente a uno scontro tra i governi, i ci adini e le grandi multinazionali di internet.

Parte IV - Vite datificate

*** Intanto, la divisione Precrimine pensata da Philip K. Dick in Rapporto di minoranza è quasi realtà. Andrew Guthrie Ferguson, professore alla David A. Clarke School of Law di Washington, ha raccontato sul magazine Time che la polizia di Chicago da qua ro anni sta raccogliendo i dati legati a ogni persona arrestata a raverso un algoritmo che gli a ribuisce un punteggio in base al grado di pericolosità, da uno a cinquecento e oltre. In questo momento, il dipartimento possiede i dati di 400.000 ci adini che vengono usati per definire le strategie anticrimine e per capire quali sono i luoghi in cui è più probabile che avvenga un reato. Oltre a Chicago, anche New York e Los Angeles hanno intenzione di usare i big data e gli algoritmi per far diminuire i reati. 236

Angelo Paura - Il potere degli algoritmi

L'algoritmo usato a Chicago – la ci à d'America con più morti in sparatorie – è stato sviluppato dall'Illinois Institute of Technology e secondo il responsabile del proge o, Miles Wernick, non usa variabili che possono creare discriminazioni di razza, genere o luogo geografico. Ma per molti critici è stato usato dalla polizia per arrestare persone prima che comme essero un crimine, sulla base delle probabilità che lo avrebbero commesso. Inoltre, nonostante le rassicurazioni dei ricercatori, per ora l'algoritmo è segreto e il suo funzionamento non è mai stato so oposto a una commissione indipendente.

237

Come i dati hanno cambiato (per sempre) il giornalismo di Lelio Simi

P

er (cercare) di capire quale potere i dati abbiano esercitato sul giornalismo e l'industria dei giornali, bisogna raccontare due storie distinte. Una racconta di come i dati abbiano ispirato un nuovo metodo di lavoro per chi fa informazione, creando un nuovo “genere” giornalistico che sta ancora oggi cercando di dare sempre più elementi ogge ivi (e un po' meno chiacchiere) alle storie che vuole raccontare. La seconda, invece, racconta di come i dati, con un impa o dirompente, stiano completamente trasformando il modello di business sul quale l'industria dei giornali si è basata per oltre un secolo, e che poggiava la propria archite ura dei ricavi principalmente sugli investimenti pubblicitari.

Parte IV - Vite datificate

I

:

-

La prima di queste due storie potrebbe iniziare nella redazione di un giornale locale americano, cinquant’anni fa. È il 1967, siamo a Detroit, e in ci à sono scoppiate delle rivolte a cara ere razziale. Nella redazione del Detroit Free Press, è arrivato da poco un giornalista che ha appena completato un anno di fellowship alla Nieman Foundation dell'Università di Harvard. Il suo nome è Philip Meyer. Meyer è convinto che il modo migliore per “leggere” e raccontare quel tipo di avvenimenti sia mutuare il metodo scientifico praticato dagli scienziati sociali. A Harvard ha imparato inoltre a usare un linguaggio per computer scri o per l'IBM 7090, il DATATEXT. L'intuizione di utilizzare nel giornalismo dei dati, appli238

I numeri sono come il fuoco. Possono essere usati per il bene o per il male. Usati impropriamente, possono creare illusioni di certezza e d'importanza che ci rendono irrazionali [...]. Alcune cose possono essere quantificate più facilmente di altre, e la nostra a enzione viene spesso a ra a da quegli aspe i di un problema ai quali risultano connessi 239

Lelio Simi - Come i dati hanno cambiato (per sempre) il giornalismo

cando con metodo scientifico la potenza di calcolo dei primi computer, rappresenta una svolta epocale: al Free Press assumono anche consulenti dell'Università del Michigan e organizzano un sondaggio campione di famiglie nell'area della rivolta, utilizzando interviste personali. Questo metodo di lavoro perme e di sfatare alcune certezze che si erano consolidate in molti editorialisti che li commentavano, come ad esempio la teoria secondo la quale i rivoltosi rappresentavano i casi più frustrati e disperati della scala economica, che si ribellavano perché non avevano altri mezzi per esprimersi. Il metodo analitico ado ato dal Free Press dimostrò però che, al contrario, gli individui che frequentavano l'università avevano la stessa probabilità di partecipare alla rivolta quanto chi non aveva finito la scuola secondaria. La teoria sostenuta dai dati dimostrò quindi che la realtà era un'altra rispe o alla le ura dei fa i non sostenuta dai dati: «Se non avessimo esaminato quel proge o con teorie specifiche da testare, le nostre storie avrebbero potuto essere solo raccolte caotiche di fa i solo vagamente correlati» dichiarerà in uno speech molti anni dopo lo stesso Meyer. L'accurata e approfondita analisi dei dati, insomma, dà la possibilità di raccontare una storia altrimenti impossibile da esporre. Il reportage curato da Meyer è pieno di grafici a barre, elenchi, numeri incasellati in tabelle. Il linguaggio è preciso e non lascia spazio a pennellate di colore. Ma fa guadagnare al Free Press un premio Puli er. Viene definito un nuovo standard per il giornalismo investigativo.

Parte IV - Vite datificate

dei numeri. I numeri li fanno apparire più importanti di quanto talvolta siano. Invece, quando sono usati bene, i numeri possono a irare l'a enzione sulle situazioni che contano in mezzo a tu o il clamore e il bagliore dell'età informatica. In un mondo dove non sono molte le cose certe oltre la morte e le tasse, siamo talvolta tentati di rinunciare alla quantificazione preferendo invece di affidarci all'intuito e all'idea di raccontare storie1

Ovviamente, in quel “quando usati bene” c'è tu o un mondo, tu o un metodo da affinare continuamente, ma l'idea che “quantificare” concretamente debba sempre avere il sopravvento sull'affidarsi “all'intuito e all'idea di raccontare storie” è qualcosa di più di una semplice dichiarazione di intenti: è una dichiarazione programmatica di un nuovo “genere” giornalistico, che ha il centro motore, non nella fascinazione della narrazione le eraria, ma nei dati; è il suo modo per approcciarsi alla realtà che racconta. Forse è superfluo, ma bisogna almeno ricordare che quegli sono gli anni nei quali negli Stati Uniti si afferma un altro filone giornalistico come il cosidde o “Giornalismo narrativo” – con interpreti eccezionali come Gay Talese, Tom Wolfe, Norman Mailer – che aveva proprio nel “raccontare storie” il suo primo obie ivo. Il “genere” giornalistico continua con lavori molto importanti, come ad esempio The color of Money di Bill Dedman per l'Atlanta Journal and Constitution, ovvero un'inchiesta sui mutui alle persone di colore di Atlanta o What Went Wrong, reportage del 1993 di Stephen Doig per il Miami Herald sugli effe i dell'uragano Andrew (entrambi premi Puli er). Ma è con la diffusione di massa, grazie a internet, di un'enorme quantità di dati e informazioni e, contemporaneamente, della disponibilità di accesso per tu i agli strumenti per analizzarli e visualizzarli, che avviene una nuova ulteriore svolta nel rapporto tra giornalismo e i dati. Intorno alla fine degli anni zero del Duemila, testate come il Guardian capiscono 240

Il Data Journalism (proprio in virtù dei suoi natali digitali) non è solo inchiesta, ma è anche condivisione e partecipazione. Ciò significa che le ori, utenti, ci adini più o meno comuni possono contribuire e arricchire le inchieste giornalistiche aggiungendo informazioni e dataset, o perfino suggerendo ambiti di inchiesta correlati, dando vita a un giornalismo reticolare di vasta portata, in grado di far convergere fonti, strumenti e professionalità distinte, secondo modalità fino a poco tempo fa inimmaginabili2

Il Data Journalism non vive quindi solo nelle redazioni, anzi, tranne rari casi di eccellenza di alcune grandi testate internazionali (il già citato Guardian, il New York Times, El País, il Washington Post e una manciata di altri giornali). Questo approccio è visto con una certa diffidenza:

241

Lelio Simi - Come i dati hanno cambiato (per sempre) il giornalismo

che il nuovo contesto, il nuovo ecosistema dei media, impone un nuovo approccio, e il suo Data Blog (lanciato sul sito del giornale britannico nel 2009) diventa un punto di riferimento per un nuovo approccio. Insomma, è la nascita di un nuovo movimento: il cosidde o Data Journalism. È importante so olineare che il Data Journalism non si limita soltanto a proporre un metodo di lavoro giornalistico, ma si cara erizza per la sua natura digitale e si fonda su un'idea forte di rete “sociale” ampia, dove i dati e gli strumenti per elaborarli sono (devono essere) condivisi. Il Data Journalism nasce e si sviluppa insomma con un'idea forte di comunità composta non solo da giornalisti (che anzi semmai ne sono solo una delle componenti, e nemmeno quella maggioritaria), ma anche da un'ampia rete di esperti di programmazione, statistica, gestione delle comunità online e di qualsiasi altra cosa possa essere utile ad approfondire sempre meglio l'analisi e la gestione dei dati.

Parte IV - Vite datificate

È una storica ritrosia alla “trasparenza”. Il cronista, l'inviato, il giornalista in genere pensa di dovere al le ore/spe atore/utente solo il distillato finale delle sue indagini: l'articolo, il servizio audio o video, magari corredati di tabelle esemplificative. Non immagina la possibilità di fornire contestualmente al le ore anche TUTTI i dati grezzi sulla base dei quali è giunto a quelle conclusioni. Ma è proprio questo che fa il Guardian nel suo celebrato DataBlog: non solo fornisce, analizza e interpreta i dati pubblici, ma fornisce in formato scaricabile e riutilizzabile anche i dati raccolti dire amente dai giornalisti e che sono alla base delle loro inchieste. C'è rischio di essere smentiti e contradde i da le ori/utenti, da avversari e concorrenti? Si, è una delle regole del nuovo universo digitale3

Tra i lavori del Guardian che appartengono a questa “filosofia”, ricordiamo Nsa: File Decoded (premio Puli er nel 2014), pubblicato dalla redazione statunitense della testata che affronta il tema delle rivelazioni sulle a ività di sorveglianza dell'Agenzia per la Sicurezza Nazionale americana fa e dal whistleblower Edward Snowden. Una massa enorme di dati e documenti, elementi che sembrano essere l'antitesi del materiale ideale (empatia, emozione) per una buona storytelling. Ma la sfida è stata proprio questa: far capire al le ore come e perché quella massa imponente di file siano importanti anche per lui: What the revelation mean for you è significativamente il so otitolo del reportage. Un nuovo contesto insomma, un cambio di paradigma che si accoda all'idea di partecipazione civica e di crowdsourcing. Come ha scri o già nel 2012 Simon Rogers sul Guardian nell'articolo Anyone can do it. Data journalism is the new punk che, riprende con un sillogismo particolarmente efficace l'idea del movimento punk nato nella seconda metà degli anni Se anta del secolo scorso.

242

Probabilmente il punk è stato più importante per la sua influenza, incoraggiando i ragazzi della periferia a prendere gli strumenti, con poca o nessuna formazione musicale. Rappresentava un ethos del fai-da-te e uno scossone del vecchio ordine stabilito. È stato un cambiamento. Fondamentale è stata l'idea: chiunque può farlo [...]. Certo, per alcune persone questo non sarà mai il giornalismo. Ma allora, a chi importa? Mentre loro si preoccupano delle definizioni, il resto di noi può solo andare avanti4

I Se per raccontare come i dati abbiano contribuito a creare un nuovo metodo di lavoro per i giornalisti abbiamo iniziato da un luogo e una data precisa, fare altre anto per iniziare a parlare di come i dati abbiano alimentato (e continuino a farlo) l'archite ura dei ricavi dei giornali, è decisamente più complicato. Possiamo però partire se non da un luogo o da una data, dall'immagine di un gra5 fico. Ad esempio, quello apparso sulla rivista Wired relativo alle fonti di fa urato del New York Times dal 2000 al 2015: il peso percentuale della pubblicità sul totale dei ricavi del Times nel 2000 era pari al 71% (70% pubblicità su stampa e 1% su digitale) mentre nel 2015, 15 anni dopo, questa quota si è rido a al 40% (28% l'advertising sulla carta e 12% quello su digitale). Il peso dei ricavi da pubblicità su carta si è rido o quindi di due volte e mezzo. Ma se andassimo a vedere i bilanci del Times, vedremmo che i ricavi totali sono passati nello stesso periodo da 3,49 miliardi a 1,58 miliardi di dollari, quindi secondo queste percentuali riportate dall'Atlantic, i fa urati da pubblicità di uno dei giornali più importanti e prestigiosi al mondo sono passati dai 2,4 miliardi del 2000 ai 442 mila dollari del 2015. Ovvero cinque volte e mezzo inferiori a quelli di quindici anni prima. 243

Lelio Simi - Come i dati hanno cambiato (per sempre) il giornalismo

***

Parte IV - Vite datificate

Stiamo parlando di uno dei giornali che oggi viene preso, giustamente, da molti analisti e adde i ai lavori, come uno dei migliori esempi di gestione di questa crisi con scelte coraggiose e lungimiranti nel gestire il cambiamento. Da altre parti è successo di molto peggio. Ma a fronte di questa storica crisi degli investimenti pubblicitari sui giornali, c'è da dire che a livello globale questi non sono affa o diminuiti in questi anni, anzi sono aumentati. Gli investimenti a livello globale stanno continuando a crescere e si prevede che continueranno a farlo anche nei prossimi anni. Dunque, cosa è successo? Perché di questa crescita gli editori non vedranno che le briciole? (Anzi, secondo le previsioni più accreditate, nemmeno quelle; la stampa vedrà sempre più ridursi il proprio peso specifico). «Da metà anni Novanta», si legge in uno degli ultimi report pubblicati dall'agenzia Zenith (le sue previsioni di mercato sono dei punti di riferimento per tu i gli adde i ai lavori), «la pubblicità su Internet è aumentata a scapito della stampa. Negli ultimi 10 anni è passata dal 9% della spesa totale mondiale (nel 2007) al 37% (nel 2017). Nello stesso periodo di tempo la quota di spesa pubblicitaria globale sui quotidiani è scesa dal 27% al 10%, mentre quella sulle riviste dal 12% al 5%». Il peso percentuale degli investimenti globali pubblicitari sui giornali in dieci anni è diminuito, quindi, dal 39% al 15%: un “dimagrimento” di oltre due volte e mezza. Le ca ive notizie per gli editori non sono finite: la previsione di Zenith è che gli investimenti pubblicitari su quotidiani e riviste continueranno a ridursi al ritmo rispe ivamente del 4% e 6% l'anno tra il 2017 e il 2020, per finire a quote di mercato del 7,5% e del 3,9%. In questo quadro sarà Internet (in particolare modo il mobile) a trascinare la crescita, diventando il primo mezzo per investimenti pubblicitari con una quota che, tra il 2016 e il 2019, salirà dal 34,1% al 41,7% superando anche la televisione (che dal 35,5% nel 2016 scenderà al 32% nel 2019). Un sorpasso che in un mercato importante come gli Stati Uniti è già avvenuto alla fine di 244

245

Lelio Simi - Come i dati hanno cambiato (per sempre) il giornalismo

quest'anno. C'è da dire che tu e queste previsioni si riferiscono alla carta stampata e non ai siti su desktop, tablet o telefonino dei giornali. Ma anche qui c'è un problema: se si parla di investimenti pubblicitari su Internet, parliamo di Google e Facebook, che di questa torta si mangiano quasi tu o. Proprio la pubblicità costituisce la prima, e quasi unica, voce di ricavo per i due colossi tecnologici (per Facebook è il 97% mentre per Google l'80%). Un duopolio di fa o, che assorbe il 63,7% della spesa in advertising digitale negli Stati Uniti nel 2017 secondo l'agenzia di analisi di mercato eMarketer. Certo, non è una novità, ma sorprende comunque un dato riferito ancora agli USA: complessivamente la crescita nel 2016 dei ricavi da pubblicità sul digitale, rispe o al 2015, è stata di 12,9 miliardi di dollari. Di questo incremento Big G ne ha beneficiato per 6,3 miliardi di dollari mentre Facebook per 5,1 miliardi, la somma di queste due cifre fa 11,4 miliardi, ovvero l'89% dell'incremento degli investimenti è andato nei bilanci di queste due società. A tu i gli altri messi assieme (cioè a qualsiasi altro sito internet di qualsiasi altra natura) non è che rimasto che l'11%. «Una stru ura di mercato malata», ha scri o in un tweet Jason Kint, Ceo di Digital Context Nex un'associazione che rappresenta alcuni dei più importanti editori su digitale. Difficile dargli torto. Nei prossimi anni, questa quota sembra destinata ad aumentare ancora. Proprio per questo, molte testate stanno cambiando completamente strategia, proprio come il New York Times, che sta puntando molto sui ricavi provenienti dal le ore e sugli abbonamenti. Se torniamo ai dati che abbiamo dato all'inizio di questo capitolo, vediamo che il peso dei ricavi da diffusione e abbonamento al Times sono passati dal 23% del 2000 al 54% del 2015 (una quota che nel 2017 dovrebbe arrivare intorno al 60%). Insomma, il Times (e come lui altri grandi testate) si sta costruendo una sorta di exit strategy dalla dipendenza dai ricavi da pubblicità, un ribaltamento del proprio modello di business come mai avvenuto prima.

Parte IV - Vite datificate

Descri o questo scenario possiamo chiederci: che ruolo giocano in tu o questo i dati? La risposta è abbastanza facile: un ruolo fondamentale, da assoluti protagonisti. Se le analisi di Zenith me ono quindi in evidenza come il declino della stampa e la contemporanea crescita dell'internet advertising siano stre amente collegati, il primo è conseguenza del secondo, e se il mercato della pubblicità digitale vive oggi sostanzialmente un duopolio è proprio grazie (o per colpa, a seconda dei punti di vista) ai dati. Quelli che i due protagonisti della Silicon Valley hanno fa o – come tu i dovremmo aver capito ormai da tempo – è stato creare delle pia aforme che, favorendo lo scambio di relazioni sociali (Facebook) e di servizi e ricerche su internet (Google), raccolgono un'infinità di dati sui propri utenti. Dati che perme ono una precisione chirurgica nell'indirizzare e pianificare le campagne pubblicitarie, che fino a poco più di un decennio fa gli advertiser potevano solo sognarsi. Oggi il “Sacro Graal della pubblicità digitale” è sincronizzare le informazioni personali degli utenti con la loro cronologia di navigazione sul web e l'utilizzo di app su telefonini e tablet. Grazie a questo Facebook e Google – disponendo di una platea sterminata di utenti nei loro siti – hanno conquistato un ruolo di assoluto dominio sulla concorrenza facendo lievitare, trimestre dopo trimestre, i loro fa urati pubblicitari. Perché sì, non è certo una novità che l'industria della pubblicità abbia da sempre bisogno di dati per cercare di indirizzare al meglio i propri messaggi e renderli più efficaci, ma è proprio negli ultimi anni che la corsa a informazioni sempre più “performanti” e connesse con le azioni concrete dei singoli utenti, online e offline, ha assunto un'importanza vitale per i grandi investitori. Già oggi, il digitale rappresenta una fe a consistente della torta complessiva della spesa pubblicitaria, ma sarà sopra u o nei prossimi anni che questa quota diverrà predominante rispe o agli altri 246

247

Lelio Simi - Come i dati hanno cambiato (per sempre) il giornalismo

media. Secondo recenti e autorevoli stime di Magna (società del gruppo Interpublic), nel 2021 sul digitale verranno investiti, a livello globale, metà dei soldi spesi complessivamente in pubblicità. Ovvero circa 300 miliardi di dollari (nel 2016, secondo queste stime, sono stati 178 miliardi). A Facebook sono stati tra i primi a capirlo e a muoversi su larga scala in questa direzione, con i bo oni “mi piace” o quelli di condivisione, ad esempio. Presentati come un magnifico servizio per gli utenti, in realtà queste funzioni sono prima di tu o un modo per tracciare passivamente la nostra cronologia sul web e il nostro utilizzo delle app su tablet e smartphone e poi combinarli con i molti dati personali che Facebook possiede sui propri iscri i in maniera dire a o indire a. Ma non solo Zuckerberg e soci, già dal 2012, hanno cominciato ad acquistare grandi quantità di informazioni – e molte riguardano la nostra a ività offline – dai maggiori broker di dati commerciali (come ad esempio Acxiom o Experian, aziende il cui nome circola molto poco sui media pur avendo migliaia di dipendenti, fa urati miliardari e operino in questo campo ormai da alcuni decenni). Il sito di giornalismo investigativo ProPublica ha denunciato in un suo articolo che Facebook «dà agli utenti poche indicazioni sul tipo di dati personali acquistati che li riguardano, tra i quali il loro reddito, i tipi di ristoranti che frequentano e anche quante carte di credito sono nei loro portafogli». Google ha affermato di aver stre o accordi con alcune aziende esterne per avere accesso ai dati degli acquisti offline, effe uati da circa il 70% delle carte di credito a ive negli Stati Uniti d'America. Sempre Google ha deciso di superare una linea di confine che, almeno ufficialmente, non aveva mai varcato per quasi un decennio associando le informazioni personali degli utenti raccolte dai suoi servizi (Gmail, Google Map, Google document, per citarne solo alcuni delle molte decine che ha a ivato). In questo scenario

le grandi holding pubblicitarie sono oggi costre e a rivedere e correggere i propri modelli di business: già qualche mese fa, Greg Paull (fondatore di R3, una delle maggiori agenzie di consulenza marketing al mondo) ha dichiarato alla rivista AdWeek che due terzi dei ricavi di Wpp (14,4 miliardi di sterline nel 2016) entro pochi anni saranno generati dai dati e dal digitale. Per dare un'ulteriore idea di quanto oggi i dati determinino il rapporto di forze tra le agenzie pubblicitarie (tra le quali, di fa o, dobbiamo me ere anche Google e Facebook, che lo sono a tu i gli effe i), riporto ciò che dichiarò a una rivista specializzata Slavi 6 Samardzija per spiegare il successo della sua agenzia:

Parte IV - Vite datificate

Il vero elemento di differenziazione si trova nelle migliaia di singoli dati personali che circondano ogni profilo utente anonimo nel database su cui Hearts&Science ha costruito il suo business. Per so olineare questo conce o, Samardzija estrae un profilo di un uomo con più di 40 mila di questi singoli dati che rivelano da dove ha comprato il suo caffè o quanto spesso va in palestra fino a quali siti di notizie politiche frequenta7

Con la discesa in campo dell'intelligenza artificiale nel se ore della pubblicità, si aprono poi – anche so o questo aspe o – nuovi scenari. IBM, per esempio, ha lanciato a o obre dello scorso anno la versione di supporto ai pubblicitari del suo gioiello tecnologico: il sistema cognitivo Watson (chiamato non a caso Watson Ads). Il software aiuterà gli utenti a raggiungere le informazioni che cercano, o ad anticiparle, mentre viene proposto un determinato prodo o in vendita. Allo stesso tempo sarà in grado anche di predire le nostre ricerche e anticipare i nostri desideri di acquisto, utilizzando l'analisi dei dati online, e le nostre tracce digitali. La promessa è quella di fornire servizi sempre migliori agli utenti, ma si può facilmente comprendere quali enormi potenzialità abbia lo 248

249

Lelio Simi - Come i dati hanno cambiato (per sempre) il giornalismo

smart-advertising, capace di dialogare con i clienti e di immagazzinare dati personali. Gli editori di giornali, in questo contesto, si sono trovati completamente spiazzati. La drammatica crisi delle vendite delle copie cartacee ha rido o proporzionalmente gli spazi pubblicitari (oltre ovviamente ai ricavi da diffusione). Sul digitale molti di loro hanno inseguito una logica che ricreava il vecchio modello: come formato pubblicitario hanno scelto il banner (che riprende, più o meno, il formato pubblicitario classico), inseguendo il maggior numero di clic per massimizzare i ricavi pubblicitari. Gli editori di giornali non hanno quindi guardato a creare comunità connesse e partecipi dentro i loro siti, anche quando questi non avevano la concorrenza di pia aforme sociali come Facebook. Basti pensare che, banalmente, se non “loggati”, un qualsiasi sito di un grande giornale è perfe amente leggibile in tu e le sue parti, mentre Facebook, al contrario, dà una versione di sé estremamente rido a ai non registrati. I giornali hanno gestito i commenti dei le ori quasi sempre male, se non malissimo, o ancora peggio come un fastidio che non competeva loro (tanto che molti giornali hanno deciso in questi anni di chiuderli). Mentre Facebook e altri social media, sulle conversazioni e le condivisioni di opinioni, hanno costruito un impero. Eppure, tu i questi strumenti e pratiche sono serviti ai giganti dei social media per aggregare, far crescere e prosperare una comunità di le ori-utenti sempre più grande. Una comunità di utenti che concede poco consapevolmente, come già scri o, una quantità enorme di dati sulle proprie abitudini, i propri gusti nei campi più disparati, i luoghi che frequenta. Dati che oggi sono fondamentali per indirizzare al meglio una campagna pubblicitaria, e che fanno la differenza quando un responsabile marketing di un'azienda o il responsabile di pianificazione mezzi di un centro media deve decidere dove investire il proprio budget.

Parte IV - Vite datificate

Resta però ancora una domanda fondamentale: chi sono i legi imi proprietari dei dati generati dalle campagne pubblicitarie che così tanto denaro stanno generando e che stanno ridisegnando completamente lo scenario di questo mercato? È interessante leggere un sondaggio lanciato dalla testata MediaPost qualche tempo fa sulla base di diverse centinaia di dirigenti di aziende. Secondo molti di loro (il 60% degli investitori pubblicitari) sono i marchi i legi imi proprietari; secondo il 49% dei dirigenti delle agenzie sono invece le agenzie stesse a esserne proprietarie. Immancabilmente ultimi gli utenti con percentuali ne amente inferiori (1015%). Un risultato che non sorprende, ma che ci dice quanto oggi sia importante porsi seriamente quella stessa domanda e, ancora più importante, sentire forte l'esigenza che a decidere la risposta finale non sia solo qualche top manager della filiera della pubblicità, o un CEO di qualche azienda tecnologica che su quei dati ha costruito la sua fortuna.

250

1) Philip Meyer, Giornalismo e metodo scientifico. Ovvero il giornalismo di precisione, Armando Editore, Roma 2006. 2) LSDI, Data journalism: una nuova razza di giornalisti?, disponibile al link: lsdi.it/2011/data-journalism-non-e-una-panacea-ma-una-grandeopportunita-in-piu/ 3) Ibidem. 4) Simon Rogers, Anyone can do it. Data journalism is the new punk, in The Guardian, maggio 2012. 5) Gabriel Snyder, The New York Times Claws Its Way into the Future, in Wired, disponibile al link: wired.com/2017/02/new-york-times-digital-journalism/ 6) Slavi Samardzija è l'amministratore delegato di Annalect pia aforma per elaborazione dati alla base dell'agenzia di marketing Hearts&Science (gruppo Omnicom, una delle principali holding pubblicitarie al mondo). 7) Patrick Coffe, How an Unknown Agency Came From Nowhere to Score America's 2 Biggest Media Accounts, in AdWeek, disponibile al link: adweek.com/agencies/how-unknown-agency-came-nowhere-scoreamericas-2-biggest-media-accounts-174565/

251

Lelio Simi - Come i dati hanno cambiato (per sempre) il giornalismo

N

Rock 'n Roll Bot Il mercato musicale all'alba dell'Era delle Macchine di Corrado Gemini

Parte IV - Vite datificate

G

enerative Math Rock, AI-Music composers, acquisizioni, data scientists contesi come giocatori di calcio, cause infinite, contra azioni estenuanti e tanti, tantissimi soldi: l'evoluzione del mercato musicale negli ultimi dieci anni è una sorta di viaggio turbocapitalista a raverso un universo di aziende, pia aforme e numeri nel quale artisti e pubblico svolgono contemporaneamente il ruolo di fornitori, clienti, impiegati a titolo gratuito e cavie da laboratorio, rimanendo sempre e comunque lontani da qualsivoglia rilevanza decisionale o economica. Non che ne avessero prima, si dirà, ed effe ivamente è così: ma se fino a dieci anni fa le case discografiche hanno fa o la parte del lupo, con gli autori a fare da agnelli, oggi al gregge si sono aggiunte anche le major. I nuovi lupi nello spietato bosco del business musicale odierno sono infa i i controllori dei canali di distribuzione digitale, grazie a uno spostamento di flussi avvenuto in maniera inevitabile con la diffusione di internet e delle tecnologie mobili che hanno cambiato i paradigmi di ascolto e di profi o. Il potere dei nuovi gatekeepers della musica va però molto oltre la semplice proprietà dei sistemi di distribuzione, e ha a che fare con quella che è da sempre la chiave del successo delle major: la possibilità di compiere indagini statistiche sul pubblico finalizzate alla targettizzazione dell'utenza e quindi all'aumento delle vendite. A rendere, infine, la situazione ancora più movimentata, l'aumento esponenziale della potenza computazionale e lo sviluppo di algoritmi di machine learning dedicati all'audio stanno rivoluzionando la produzione musicale fin dalle basi, dipingendo un futuro quantomeno complicato. Ma andiamo con ordine. 252

D

₍R

S

, ₂₀₆₈₎

Prima ancora dell'avvento delle macchine che analizzano i dati, e nonostante una posizione di dominio mai in dubbio, l'industria musicale tradizionale era già in profonda crisi. Le tracce dell'avvento del capitale sulla musica risalgono alla metà del diciannovesimo secolo, quando i primi produ ori di dischi e grammofoni danno vita a un mercato – inizialmente basato sulla vendita di dischi e partiture – all'interno del quale godono di un potere pressoché totale garantitogli dall'accesso esclusivo ai costosi mezzi di registrazione e stampa, oltre che dalla vendita di sistemi di riproduzione. Con l'espandersi del mercato, le prime grandi aziende focalizzano l'a enzione sulla musica come prodo o, dedicandosi principalmente alla distribuzione su larga scala e alla promozione, e abbandonando progressivamente il mercato della stampa e dei sistemi di riproduzione, assumendo quindi la conformazione moderna delle case discografiche. È utile sapere che la proprietà intelle uale è la chiave con cui il capitale conduce le danze del mercato musicale: richiedendo agli autori la cessione dei diri i patrimoniali nei contra i discografici, le aziende si assicurano il pieno sfru amento delle opere accumulando col tempo repertori sempre più vasti, che si ampliano ogni volta che ne vengono acquisiti di nuovi da altre case discografiche in vendita o in bancaro a. Lo sfru amento dei diri i patrimoniali sulle opere viene massimizzato grazie a un lavoro di lobbismo ormai centenario: la legge americana viene periodicamente rivista per estendere i termini del copyright nel tempo, impedendo de facto a tu a la musica pubblicata e distribuita con la formula all rights reserved di tornare nel pubblico dominio. Questa combinazione di consuetudini contra uali e lobbismo legislativo, insieme all'esclusività dei mezzi di produzione, trasforma un bene naturalmente abbondante in un bene scarso e lo me e a profi o, in un meccanismo di accumu253

Corrado Gemini - Rock ‘n Roll Bot

S

Parte IV - Vite datificate

lazione crescente. Durante il corso del XX secolo l'industria assorbe senza troppi problemi le varie evoluzioni del supporto fisico e dei media (vinile, casse a, cd, tv, radio), aumentando costantemente il fa urato e polarizzandosi progressivamente fino alla situazione odierna, che vede tre sole multinazionali a spartirsi il 1 70% di un mercato globale da circa 15 miliardi di euro annui . Il fenomeno anni '80 delle casse e “pirata” e, successivamente, dei cdrw impa a sui guadagni delle major in maniera significativa: è abbondante la produzione di campagne allarmistiche e la promozione di operazioni repressive, che non riescono però ad arginare quello che è a tu i gli effe i un paradosso irrisolvibile. La musica è infa i un bene non rivale, perché l'ascolto di un brano da parte di un singolo non limita per altri la possibilità di goderne, ed è anche non escludibile, essendo oggi difficile (se non impossibile, e la lunga storia di fallimenti dei sistemi DRM ne è la prova) impedirne la diffusione. Succede quindi che un bene reso scarso da dinamiche privatistiche trova un canale tramite cui liberarsi e torna a essere comune, con il risultato che l'industria vede rompersi il giochino e i suoi profi i crollano: arriva Internet. Nel 1998 va online Napster, e l'incubo prende vita: da quel momento un turbine di cause multimilionarie e lobbismo non riesce a fermare la proliferazione di servizi sempre più evoluti di file sharing, che se da una parte mandano nel panico l'industria, dall'altra – tramite pia aforme come MySpace (2003), Bandcamp (2007) e SoundCloud (2008) – proie ano le scene indipendenti in una dimensione globale fino a quel momento impensabile senza grandi investimenti. Oggi Napster è ancora a ivo e dopo un lungo giro di passaggi di proprietà e ristru urazioni si è tramutato in una pia aforma di streaming a pagamento con un piccolo numero di utenti: una sorta di zombie di un'era precedente di cui rimangono in vita solo nome e logo. 254

255

Corrado Gemini - Rock ‘n Roll Bot

Nel 2003 Apple lancia iTunes Store, pia aforma per il download di musica, film e software a pagamento che, sfru ando capitali e share di mercato sui dispositivi mobili (ipod, iphone, eccetera), domina i successivi 5 anni di distribuzione, riportando un po' di soldi nelle casse delle major che nonostante tu o continuano a veder calare i profi i anno dopo anno: dal 2015 Apple ha iniziato la transizione verso un ambiente streaming-only lanciando Apple Music e annunciando la cessazione del servizio di download di musica da ITunes Store a partire dal 20192. A ualmente il servizio conta più di 30 milioni di iscri i per un totale di più di 60 milioni di tracce disponibili. Nel 2004 in Cina vengono lanciate due pia aforme di streaming – Kugou Music e QQ Music – che oggi continuano a esistere insieme alla terza (Kuwo Music) so o lo stesso proprietario, Tencent. Più di 800 milioni di utenti sono a ivi mensilmente sulle tre pia aforme musicali della holding-colosso cinese, oggi quotata più di 500 miliardi di dollari alla borsa di Hong Kong. Nel 2005 è il turno di YouTube, che nonostante nasca come pia aforma per lo streaming video o iene un grande successo anche con la musica: l'anno successivo viene acquisita da Google per 1,6 miliardi di dollari e macina numeri enormi già dai primi mesi di a ività. Youtube è il primo segnale di una nascente abitudine di ascolto non più legata al possesso della musica ma alla facilità di fruizione della stessa su qualsiasi dispositivo, o enuta mediante la costante connessione a un servizio centralizzato di streaming che fornisce i contenuti a comando. Oggi YouTube totalizza 900 milioni di visitatori al mese, con 5 miliardi di video visualizzati ogni giorno e 300 ore di contenuti caricate dall'utenza ogni minuto. Tre anni dopo, l'a enzione si concentra sulla Svezia. Nell'aprile del 2009 un tribunale di Stoccolma condanna i fondatori di ThePirateBay, Peter Sunde, Fredrik Neij, Carl Lundström e Go frid

Parte IV - Vite datificate

Svartholm, a un anno di carcere e 3 milioni e mezzo di euro di multa per favoreggiamento della pirateria: questo a o di repressione spe acolare e mediatizzato ufficializza la fine del file sharing come pratica di massa, causando la fuga di sviluppatori e appassionati verso ambienti più riservati ed esclusivi e la migrazione dell'utenza non esperta sulle pia aforme industriali di streaming. Sempre a Stoccolma, alla fine del 2008, nasce Spotify, pia aforma che offre lo streaming gratuito di musica inserendo annunci pubblicitari fra una traccia e l'altra, o un servizio ad-free ad abbonamento mensile. La pia aforma, inizialmente basata su una rete p2p e poi centralizzata, inizia subito a raccogliere enormi finanziamenti da diversi venture capitals che ne intuiscono le potenzialità in termini di profi o: è il primo servizio di streaming dedicato esclusivamente alla musica ed è o imizzato per il mercato dei dispositivi mobili. Spotify è esa amente quello che serve per riprendere definitivamente il controllo della distribuzione digitale, restaurando le cara eristiche di scarsità del prodo o musicale per rime erle a profi o in maniera più efficiente grazie ai dati. Le major, che fino a quel giorno erano state a guardare, vedono i fa urati tornare in positivo grazie agli introiti degli abbonamenti e si rendono definitivamente conto di aver perso il timone del mercato. La musica è sempre più ascoltata tramite il telefono e Spotify spinge in quella direzione: ad oggi, più della metà dell'utenza accede alla pia aforma tramite dispositivi mobili, e la percentuale è in costante salita. Più di 150 milioni di utenti di cui 50 a pagamento la usano ogni mese in 60 paesi: nella corsa al monopolio sullo streaming musicale, oggi più che mai partecipata, Spotify è a ualmente la pia aforma più diffusa. In regola con la filosofia turbocapitalista del first scale, then revenue, Spotify non ha ancora totalizzato positivi al suo nono anno di a ività, e si appresta a essere quotata al NYSE con una valutazione ipotizzata che si aggira sui 20 miliardi di dollari3: il risultato della quotazione in borsa in termini di 256

257

Corrado Gemini - Rock ‘n Roll Bot

proprietà sarà determinante per il futuro del mercato musicale globale, in una situazione in cui l'azienda è contemporaneamente necessaria alla sostenibilità delle major e concorrente delle stesse. A ualmente Spotify gira circa il 70% delle sue entrate agli aventi diri o, e – come le concorrenti – è in costante contra azione eco4 5 nomica sia con le major che con etiche e e autori indipendenti : una lo a per la sostenibilità che ricorda quella di Netflix, che sta investendo da anni cifre enormi nell'acquisto di film e serie e nelle produzioni proprietarie bilanciando in questo modo a proprio favore la ripartizione delle entrate con le grandi case di produzione cinematografiche e televisive. Mentre fa sorridere il pensiero che Spotify inizi a produrre artisti internamente o che possa acquisire una Major o centinaia di etiche e indipendenti, non è del tu o balzana l'idea che cominci a produrla da sé, la musica: del resto, con più di 30 milioni di tracce già presenti sulla pia aforma e 20.000 nuovi brani di ogni genere caricati ogni giorno, il materiale su cui imparare non manca. Concludendo questa prima parte di resoconto, possiamo vedere come la ba aglia di potere all'interno del mercato musicale sia in questo momento popolata, agguerrita e nel pieno dell'esplosione della datacrazia. Le pia aforme e le loro playlists “proprietarie” sono i nuovi gatekeeper della musica, posseggono i dati di ascolto ma devono pagare agli aventi diri o la gran parte dei guadagni risultando difficilmente profi evoli. L'industria ha nello streaming una fonte importante di sostenibilità ma allo stesso tempo è dipendente dal posizionamento nelle playlists delle pia aforme. Contemporaneamente, cominciano a proliferare startup di aimusic di vari tipi, supportate da una rete di venture capitals di ogni provenienza e composizione, che si apprestano a entrare nel gioco in maniera determinante grazie alla disponibilità pressoché infinita di produzioni musicali con le quali nutrire gli algoritmi. Una situazione piu osto complessa, che disegna molteplici possibili scenari.

Parte IV - Vite datificate

L

N

N

₍A

, ₂₀₈₉₎

Come già de o, il primo livello di interazione fra la musica e i dati riguarda l'analisi delle informazioni – sempre più precise – che gli utenti forniscono alle pia aforme, al fine di raccomandare nuova musica agli utenti: per Spotify questa è una vera propria missione, cui viene dedicata una buona parte degli investimenti ogni anno. Ci riferiremo d'ora in avanti solo a questa pia aforma perché, oltre a essere la più utilizzata, è la più spregiudicata per quanto riguarda l'utilizzo dei dati sul mercato. La sua dire a concorrente, Apple Music, ha un asse o proprietario e una policy più rigidi, e sopra u o opera all'interno di un ecosistema aziendale e tecnologico che travalica la musica, andando a coprire quasi ogni aspe o della vita e del mercato: nonostante stia largamente operando con i dati, non sembra essere interessata a lavorare con la musica in direzioni diverse dalla semplice raccomandazione. Spotify è in grado di ca urare più o meno qualsiasi movimento dell'utente sulla pia aforma web e sull'app mobile: fra i tanti, dati personali, luogo di residenza, posizione geografica in tempo reale, quali tracce vengono ascoltate, per quanto tempo e quante volte, quali playlist vengono ascoltate, per quanto tempo e quante volte, quali sono gli artisti e i generi preferiti, quali playlist vengono create dagli utenti, dove vengono create e quando. Questi dati vengono utilizzati in primis per creare, mantenere e profilare le importantissime playlist “personalizzate” algoritmicamente, come Daily Mix o Discover Weekly6: gli utenti vengono “soddisfa i” singolarmente con una selezione se imanale di musica basata su un'avanzatissima tecnica che incrocia collaborative filtering, natural language processing e raw audio analysis. Mentre l'a ività di ascolto degli utenti disegna una prima area di preferenza e incrocio fra gli stessi e la musica, gli spider di Spotify scandagliano costantemente la rete alla ricerca di post sui social, blog e articoli che parlano di musica e in questo modo associano a ogni brano (o arti258

259

Corrado Gemini - Rock ‘n Roll Bot

sta) un set di keyword, utili a indirizzare l'algoritmo nelle raccomandazioni alle varie categorie di ascoltatori profilati. Infine, la musica già presente sulla pia aforma e quella che viene caricata giornalmente sono analizzate in profondità da algoritmi dedicati, che estraggono dai file audio informazioni come velocità, melodia, testo, genere, tipologie di strumenti eccetera: questi parametri, confrontati con quelli della musica preferita dagli utenti, spesso portano nelle playlist personalizzate brani di artisti sconosciuti o emergenti, e perme ono di raggiungere un buon grado di familiarità col gusto dell'utente anche senza un'ampia storia di ascolti da analizzare. L'incrocio di questi tre metodi è il segreto del successo di Spotify: le esclusive playlist personalizzate della pia aforma sono infa i globalmente riconosciute per l'accuratezza con cui sposano i gusti degli utenti. Nel tentativo di ingaggiare maggiormente gli artisti nell'utilizzo del servizio, da qualche mese è stata lanciata la app Spotify for Artists7, che fornisce agli artisti in tempo reale dati sugli ascolti dei brani e sul successo delle nuove release. L'azienda propone questa soluzione garantendo una maggiore accuratezza nella scelta delle ci à dove organizzare un concerto o un tour, e una profilazione del pubblico più approfondita allo scopo di gestire meglio immagine e comunicazione: questo approccio marca uno sli amento so ile ma fondamentale nell'identità stessa dell'artista e nel modo di produzione sia in ambito mainstream che in quello indipendente. La profilazione dell'utenza è inoltre messa a disposizione delle migliaia di aziende che ogni giorno acquistano spazi nelle orecchie degli utenti “free” so oforma di piccoli spot fra una traccia e l'altra: ai brand è dedicato un intero portale, nel quale la musica viene indicata come la chiave per l'anima di un consumatore modellizzato secondo categorie di consumo, stile di vita e stereotipi umani8. I dati utente e di ascolto sono utilizzati infine per modellare la comunicazione ufficiale dell'azienda: dal 2016, Spo-

tify sonda i suoi database alla ricerca di curiosità sull'ascolto di musica in varie ci à, e produce una campagna di affissioni “site 9 specific” che si rivolgono dire amente ai consumatori : se da una parte però questa nuova modalità di utilizzo ha o enuto un discreto successo mediatico, dall'altra ha sollevato aspre critiche ri10 guardanti la privacy delle abitudini di ascolto degli utenti .

Parte IV - Vite datificate

C

Y

B L

₍B

M

, ₂₀₈₀₎

Il secondo campo di interazione fra musica e dati riguarda la cosidde a ai music, ovvero l'applicazione del machine learning alla composizione e alla produzione musicale. Un numero crescente di startup stanno sviluppando programmi in grado di generare partiture musicali, testi e vere e proprie tracce finite e originali in una danza di capitali che cela una vera e propria guerra di potere fra i grandi player del mercato. La partita gira tu a a orno al fa o che, allo stato a uale delle leggi internazionali, una melodia com11 posta da una macchina non gode del diri o d'autore : in un futuro prossimo l'autorialità potrebbe essere riconosciuta alle aziende sviluppatrici dei software, il che rende ancora più spietata la corsa ad accaparrarsi saperi e tecnologie. Spotify ovviamente è della partita: la riduzione della percentuale di introiti che ogni anno gira agli aventi diri o è di vitale importanza per l'azienda, e per questo sta agendo su molteplici fronti. Nel giugno del 2017 ha ingaggiato François Pachet12, uno dei massimi esperti mondiali di ai mu13 sicale , strappandolo a Sony con la quale stava lavorando al pro14 ge o Flow Machines : l'obie ivo dichiarato del nuovo Creators Technology Research Lab di Spotify è quello di costruire strumenti di produzione e publishing “intelligenti” che possano me ere in relazione dire amente gli artisti con l'azienda disintermediando il ruolo delle case discografiche, riducendo quindi le quote di royalties da corrispondere all'esterno e atomizzando il potere contra uale degli aventi diri o. Oltre alle grandi software houses 260

261

Corrado Gemini - Rock ‘n Roll Bot

dell'audio, di cui parleremo più avanti, altre realtà che stanno lavorando alla creazione di tools per assistere la composizione sono Ju15 16 17 18 kedeck , PopGun , Vochlea e AIMusic , le ultime due finanziate dagli Abbey Road Studios di Londra. Un'altra direzione di sviluppo è quella che riguarda la produzione di vera e propria musica originale, con vari esperimenti in corso come Magenta19, Groov20, HumTap21 o Dadabot22, quest'ultima con un interessante approccio “mashup” che me e alla prova le maglie giuridiche della proprietà intelle uale applicata all'AI. A ualmente la realtà che sta mostrando i risultati più convincenti 23 è AmperMusic , finanziata da un fondo partecipato anche da Sony 24 e Warner . Anche le major entrano nel gioco per determinarlo, in una situazione che le vede contemporaneamente timorose e interessate al processo di composizione e produzione automatizzata. AmperMusic, che ha già rilasciato un plugin per Adobe Premiere, punta dire amente al mercato della sincronizzazione video: com'è logico in termini strategici, il primo se ore del lavoro musicale che viene a accato dall'automazione è quello in cui manca la componente live, ovvero la musica composta su commissione per utilizzi multimediali. La composizione e realizzazione di colonne sonore, jingles e so ofondi rappresenta una voce importante nella sostenibilità della filiera lato autori, e questa evoluzione avrà conseguenze importanti per molti. Chi non teme assolutamente l'automazione è invece Spotify, la quale però ufficialmente non sta lavorando a proge i che riguardano la produzione di ai generated music: nell'estate del 2016 l'azienda è stata però accusata di pubblicare dire amente musica mediante artisti ingaggiati per l'occasione e pagati a co imo, che appaiono con vari pseudonimi nelle principali playlist di musica “rilassante” della pia aforma – e da nessun'altra parte su Internet – raccogliendo ascolti per svariati milioni di dollari di royalties25. Questo tipo di musica, che viene usata all'interno di a ività commerciali o come so ofondo per lo

studio e il lavoro, rappresenta una fe a consistente degli stream totali della pia aforma ed è quindi di primario interesse per l'azienda. Se risulta plausibile che Spotify possa aver pagato dei veri pianisti per creare brani a nome degli inesistenti Benny Treskow o Ana Olgica, è facile pensare che in futuro potrebbe farlo solo per fargli eseguire e registrare brani scri i dalle macchine, o che le playlist di generi meno influenzati dal “tocco” del musicista come l'ele ronica chillout vengano invase da produzioni completamente automatizzate. Se spingiamo infine l'immaginazione all'estremo e pensiamo a un algoritmo che affina le sue skill ed evolve i suoi stili incrociando in tempo reale i dati di gradimento dell'utenza, ecco apparire all'orizzonte l'incubo: un sistema automatizzato di produzione così bravo a incontrare i gusti del pubblico da tagliare completamente fuori dalla catena dell'a enzione gli autori umani.

Parte IV - Vite datificate

S

H

' D

₍R

D

, ₂₀₇₃₎

Uscendo dalla proiezione distopica e tornando a parlare di autori, musicisti e lavoratori della musica, vediamo come il machine learning stia determinando dire amente non solo i giochi di potere “in alto” ma anche la produzione vera e propria, a tu i i livelli. Sempre più artisti stanno ado ando formati e modalità di produzione chiaramente influenzati dalla cultura dei dati di ascolto: da quando gli stream sono stati inseriti nel calcolo delle classifiche di vendita, le major hanno iniziato ad aumentare il numero medio di brani negli album pubblicati, che fino a pochi anni fa era di circa qua ordici tracce per generi mainstream come il pop e l'RnB. Recentemente, Chris Brown ha pubblicato un album da 45 tracce, chiedendo ai suoi fans su Instagram di concentrare gli ascolti solo sui singoli per raggiungere la ve a della classifica nella prima se imana26, l'album Black Ken di Lil B ne contiene ventise e, More Life di Drake ventidue, e via dicendo: se è il profi o a spingere la 262

B

B

B

H

₍D

F

, ₂₀₇₉₎

Izotope e LANDR sono solo gli ultimi esempi di un'ormai trentennale processo di evoluzione degli strumenti di produzione musicale, che hanno portato negli studi dei musicisti di tu o il mondo la possibilità di pubblicare prodo i di altissimo livello a costi contenuti. Il numero di album pubblicati ogni anno da musicisti indipendenti è in costante crescita ma la totale verticalizzazione dei 263

Corrado Gemini - Rock ‘n Roll Bot

produzione, inserire in un album tu e le tracce che in un normale processo di selezione artistica sarebbero state scartate non è più un problema, anzi è un valore. Mentre le major aumentano i brani negli album per entrare nelle classifiche, c'è chi produce senza sosta una quantità enorme di tracce di scarso successo con lo scopo di racimolare uno stipendio fisso a fine mese: un musicista amatoriale americano di nome Ma Farley ha pubblicato su Spotify e altre pia aforme più di 14 mila tracce in quasi sei anni, a una media di 20 al giorno, utilizzando una metodologia di assegnazione dei nomi legata a termini frequentemente cercati dalle persone, in maniera da accumulare stream “casuali” in grande numero e quindi 27 una quota di royalties dignitosa : se da un lato questo tipo di pratiche portano benefici economici ad autori e case discografiche, dall'altro abbassano notevolmente la qualità della produzione, e ragionando in termini algoritmici “inquinano” con produzioni fuori dagli standard i dataset su cui le macchine imparano a comporre. Focalizzando sul lato tecnico della produzione, aziende come iZo28 tope propongono plugins di riparazione, mix e mastering che, grazie al machine learning, da qualche anno hanno migliorato esponenzialmente le prestazioni andando a competere dire a29 mente con gli studi professionali: servizi web based come LANDR svolgono lo stesso lavoro su tracce già mixate, grazie ad algoritmi aggiuntivi di separazione audio30, con risultati sorprendenti.

Parte IV - Vite datificate

poteri sulla filiera, plasmata dal potere dei dati, estrae sempre più valore dalla stessa: sono ogni giorno meno, infa i, le possibilità di un'artista indipendente di sostenere la propria a ività all'interno di questo sistema. Lo sviluppo della musica industriale, qualsiasi siano gli scenari futuri in termini di dominio sulla filiera, non cambierà comunque direzione. Che le nostre orecchie vengano invase da pianisti inesistenti e poco espressivi, che ci a endano concerti di musica algoritmica con rockstar virtuali proie ate olograficamente sul palco, festival di robot-band sovrumane31 o che si continui con il gioco delle icone pop costruite a tavolino per interpretare musiche e testi composti dalle macchine, l'obie ivo degli operatori industriali rimarrà lo stesso di sempre: il profi o. È davvero poco ciò che possiamo fare per intervenire a questi livelli, sia per quanto riguarda le dinamiche di sviluppo dell'industria che la possibilità di proteggere i dati-utente e i dati-musica dallo sfru amento. Ciò che invece è possibile fin da subito, ed è fondamentale fare nel minor tempo possibile, è prendere coscienza dell'enorme quantità di artisti che nel prossimo futuro si troveranno alla ricerca di un modo di produzione alternativo, in grado di valorizzare un estro e una volontà di creazione spontanea che, nonostante non troveranno più spazio di sostenibilità nel sistema mainstream, non si spegneranno mai. La produzione artistica è innanzitu o soddisfazione di un bisogno di espressione, che si realizza in un rapporto di proporzionalità inversa fra l'autenticità dell'espressione stessa e i passaggi di intermediazione profi evole che separano l'autore dal pubblico: il processo di liberazione della musica dalle catene del capitalismo algoritmico non potrà che partire dalla costruzione di strumenti di proprietà colle iva, che siano in grado di riportare il controllo della filiera nelle mani degli autori e degli operatori indipendenti sviluppando una responsabilità diffusa che non è mai 264

265

Corrado Gemini - Rock ‘n Roll Bot

stata propria della filiera musicale, ma che proprio grazie all'esasperante sfru amento degli operatori industriali sarà sempre più possibile stimolare. La musica è inoltre la forma di espressione artistica con l'impa o sociale più forte, grazie alla sua forza di aggregazione e alle sue cara eristiche di non rivalità e non esclusione. L'o imizzazione della produzione industriale per il profi o, la globalizzazione dei suoni e l'automazione della composizione vanno nella direzione opposta rispe o alla natura pre amente umana e sociale di quest'arte: questo è un altro aspe o destinato a sollevare criticità sempre maggiori in futuro, negli autori così come nel pubblico. Abbandonare definitivamente l'ormai vetusto all rights reserved in 32 favore di un corre o utilizzo di licenze CreativeCommons , riorganizzare la produzione secondo criteri basati sulla proprietà comune delle pia aforme e sulla cooperazione33, valorizzare le diversità promuovendole in un'o ica sia di tutela che di libera contaminazione, ripristinare forme di finanziamento e supporto dire e e generative e, infine, ritrovare il senso della relazione di scambio vivo fra artista e pubblico. Questa è la direzione da intraprendere per immaginare un futuro in cui l'utilizzo dei dati e delle macchine in ambito musicale possa divenire virtuoso: un futuro nel quale la musica possa liberarsi dai grandi giochi finanziari per tornare a essere contemporaneamente strumento di evoluzione sociale e a ività gratificante per tu i gli a ori della filiera, pubblico compreso.

Parte IV - Vite datificate

N 1) Dati disponibili al link: ifpi.org/downloads/GMR2017.pdf 2) Paul Resnikoff, Apple 'On Schedule' to Terminate Music Downloads by 2019, in Digital Music News, 2017. Disponibie al link: digitalmusicnews.com/2017/12/06/apple-terminate-music-downloads/ 3) Vedi: Comunicato stampa di Reuters, Spotify's valuation tops $19 billion in the private markets as it prepares for a public listing, in Business Insiders, 2017. Disponibile al link: read.bi/2Jqzr2Q e Dan Primack, Exclusive: Spotify files for its IPO, in Axios, 2017. Disponibile al link: bit.ly/2uRkK5B 4) Paul Resnikoff, Spotify Just Signed Its Last Major Label Licensing Deal, in Digital Music News, 2017. Disponibile al link: digitalmusicnews.com/2017/08/24/spotify-major-label-warner-music/ 5) Vedi Spotify and Merlin agree to new multi-year global license agreement for the world's leading independent record labels, Comunicato stampa diffuso da Spotify. Disponibile al link: bit.ly/2GCRiWG 6) Chris Johnson, From Idea to Execution: Spotify's Discover Weekly, slide di una lezione diffuse tramite il sito SlideShare. Disponibile al link: slideshare.net/MrChrisJohnson/from-idea-to-execution-spotifysdiscover-weekly 7) Vedi: artists.spotify.com/ 8) Vedi: spotifyforbrands.com/us/feature/streaming-habits/ 9) Anthony Crupi, E! Adds Kardashians, Lamases to Roster as Ratings Rise, in AdWeek, disponibile al link: bit.ly/2GGrsgg e Tim Nudd, Spotify Crunches User Data in Fun Ways for This New Global Outdoor Ad Campaign, in AdWeek, disponibile al link: bit.ly/2GGE6fs 10) Kirsty Major, Is it me or is Spotify's latest campaign creepy, voyeuristic

266

267

Corrado Gemini - Rock ‘n Roll Bot

and a li le bit mean?, in Indipendent, disponibile al link: ind.pn/2uVrvUm 11) Andres Guadamuz, Artificial intelligence and copyright, in WIPO, disponibile al link: wipo.int/wipo_magazine/en/2017/05/article_0003.html 12) Vedi: artists.spotify.com/blog/innovating-for-writers-and-artists 13) Vedi: arxiv.org/pdf/1709.01620.pdf e go.nature.com/2q9U1Mc 14) Vedi: flow-machines.com/ 15) Vedi: jukedeck.com 16) Vedi: popgun.ai/x/hello.html 17) Vedi: vochlea.co.uk 18) Vedi: aimusic.co.uk 19) Vedi: magenta.tensorflow.org 20) Vedi: groov.ai 21) Vedi: humtap.com 22) Vedi: dadabots.com 23) Vedi: ampermusic.com 24) Vedi: techstars.com/programs/music-program/ 25) Tim Ingham, Spotify Denies It's Playlisting Fake Artists. So Why Are All These Fake Artists On Its Playlists?, in MusicBusinessWorldWide, disponibile al link: bit.ly/2H0Zijy 26) Vedi: instagram.com/p/Ba13AbeF5rR/?taken-by=chrisbrownofficial 27) Fred McConnell, Spotify: how a busy songwriter you've never heard of makes it work for him, in The Guardian, disponibile al link: bit.ly/2GFLzj2 28) Vedi: izotope.com 29) Vedi: landr.com 30) Vedi: sisec17.audiolabs-erlangen.de 31) Vedi: youtube.com/watch?v=VkUq4sO4LQM 32) Vedi: c3s.cc 33) Vedi: ctrlproject.org

Estetiche intera ive Quando i dati incontrano l'arte di Tommaso Campagna

Se gli uomini riuscissero a convincersi che l'arte è una precisa conoscenza anticipata di come affrontare le conseguenze psichiche e sociali della prossima tecnologia, non diventerebbero forse tu i artisti? O non comincerebbero forse a tradurre con cura le nuove forme d'arte in carte di navigazione sociale?1

Parte IV - Vite datificate

I

n che modo possiamo relazionare l'analisi dati con il mondo estetico, affinché lunghe stringhe di numeri e le ere possano essere analizzate da un punto di vista artistico? L'utilizzo delle pia aforme digitali e la conseguente creazione di identità virtuali hanno permesso di raccogliere e analizzare informazioni sempre più de agliate sui singoli utenti. L'utilizzo di questi dati è diventato fondamentale per qualsiasi previsione e analisi di stampo politico, economico e sociale. Poter osservare graficamente i flussi che i singoli utenti creano è molto utile per capirne i gusti, i comportamenti e ogni altro parametro legato alla personalità. Informazioni fondamentali per creare un'offerta che non sia soltanto statisticamente più vantaggiosa, ma che possa provare a soddisfare ogni singolo utente, rendendolo parte a iva del processo. All'interno della rete, quindi, ogni componente del sistema ha un ruolo che è di importanza proporzionale alla quantità di informazioni cedute. Questo rapporto intimo tra offerta e utente perme e, però, al singolo fruitore di avere un grado di intervento e di coscienza non sempre soddisfacente. Se tramite la rete, infa i, la consapevolezza di far parte a ivamente di un processo colle ivo aumenta, è al contrario sempre più difficile avere il controllo di come le nostre informazioni vengono utilizzate esternamente. 268

Un'opera intera iva è infa i, per definizione, un insieme di possibilità, un processo più che un'opera: l'opera viene creata volta in volta proprio dall'intervento finale del visitatore o dello spe atore/partecipante. Si potrebbe addiri ura pensare che l'intera ività possa essere uno strumento per ricomporre la fra ura fra arte e società prodo asi nella fase matura della modernità […]. I lavori che rivelano un approccio più interessante al rapporto uomo-macchina però sono forse quelli che non basano la loro intera ività esclusivamente sulle scelte consapevoli del visitatore, ma su una combinazione di scelte consapevoli e di segnali emessi inconsapevolmente, e a volte solo su questi ultimi, escludendo ogni forma di a ività da parte del fruitore, e spesso con l'utilizzo di sensoristica biomedica2

Questo estra o proviene dal saggio L'inconscio della macchina di Antonio Caronia, filosofo, critico le erario e saggista. Con queste parole, scri e più di dieci anni fa, il critico genovese ci ha consegnato un'interessante definizione del conce o di arte intera iva. Caronia ha dedicato gran parte della sua a ività di ricerca allo studio di quello che oggi potremmo definire il virtuale e più in particolare al ruolo che le sogge ività hanno al suo interno, a partire dall'interazione tra il corpo e la macchina. 269

Tommaso Campagna - Estetiche Intera ive

Le implicazioni di questo fenomeno, potenzialmente rivoluzionario ma con un alto grado di pericolosità, sono diventate un importante campo di indagine teorica e tecnica. Nel mondo dell'arte questo fenomeno si va ad inserire in un processo che però ha basi molto più lontane. La volontà di assegnare un ruolo, non soltanto al mi ente di un determinato messaggio ma anche al suo ricevente, è un tema che nella storia dei media è spesso ripreso e che basa la propria idea di creatività sulla messa in comune degli strumenti del comunicare.

Parte IV - Vite datificate

Caronia, con questa frase, ci fa rifle ere su come, paradossalmente, in una società in cui le interfacce digitali sono diffuse su larga scala e quindi l'esperienza intera iva è quotidiana, le ricerche in campo artistico abbiano, invece, progressivamente abbandonato l'interazione dire a tra spe atore e opera e abbiano deciso di utilizzare, piu osto, informazioni inconsce non realmente controllate dallo spe atore. Vedremo più avanti come nel corso dell'ultimo decennio questa divisione tra scelte a ive e passive si sia modificata ulteriormente. Prima però proviamo a fare un passo indietro e vediamo come il conce o di intera ività e il suo sviluppo dualistico, di coscienza e incoscienza, abbia avuto diverse declinazioni nel corso della sua storia. Nel panorama culturale e artistico degli ultimi due secoli, sono ricorrenti le esperienze che hanno provato a studiare, e immaginare, come l'intero sistema delle arti potesse essere osservato e manipolato dallo spe atore. Basti pensare al conce o di arte totale o sintesi delle arti introdo o per la prima volta da Richard Wagner nel 1827. Il compositore tedesco provava a ipotizzare un'unione di tu e le arti in un unico insieme, così che lo spe atore potesse instaurare un rapporto con l'opera totale o meglio, come diremmo oggi, un'esperienza immersiva. Negli anni '20 del Novecento, Walter Benjamin, tramite il conce o di innervazione e di senso ta ile dell'opera, parla di come l'arte, nello specifico il cinema e la fotografia, possa entrare dire amente in conta o con lo spe atore rendendolo parte a iva. Il lavoro di Benjamin nasce in parallelo alle Avanguardie Artistiche che negli anni Venti svilupparono dalla Russia alla Francia passando per l'Italia e la Germania, creando quello che Alessandra Lischi chiama una forma di “liberazione di senso” dell'arte: liberazione dai rapporti classici tra spe atore e opera e sopra u o dal conce o di unicità del medium. 270

271

Tommaso Campagna - Estetiche Intera ive

Gli artisti, infa i, puntarono sempre più a far interagire gli spe atori con l'opera dando la possibilità a una costruzione di senso colle iva. Molto interessante, in questo senso, è il caso di Entr'Acte di René Claire del 1924. L'opera dell'artista parigino fa parte, come si intuisce dal titolo, di un proge o più ampio: Relâche di Erik Satie e Fancis Picabia, proge o sperimentale che inserisce al suo interno le più disparate forme d'arte dando vita a uno spe acolo propriamente multimediale e intera ivo, anticipando per molti aspe i quelli che saranno gli happening degli anni '70. Il cinema, dunque, perde l'unicità mediale, le opere iniziano a diventare intera ive, i medium si mescolano e cinema, danza e teatro entrano in conta o. Gli schermi, per le avanguardie, diventano l'emblema della contrapposizione tra finzione e realtà, tra spe atori e arte. Lo schermo viene maneggiato e distorto in ogni forma per accentuare la problematica del divario da esso creato: come il medium, quindi, anche lo schermo perde la propria unicità. Emblematica, in questo senso, è la teoria della polivisione di Abel Gance che, nel 1927, per il suo film Napoleon pensa all'utilizzo di tre schermi in contemporanea anticipando, per certi aspe i, quello che molti decenni più tardi farà la video-arte con il video mapping. Il conce o di polivisione verrà ripreso meglio, negli anni '50 del Novecento, dall'ultima compagna di Gance, Nelly Kaplan, la quale scriverà, in memoria del compagno defunto, il Manifesto di una nuova arte: la polivisione. In questo testo visionario, Kaplan parla di una “esplosione” dell'età dell'immagine, ipotizzando un possibile futuro del cinema nel quale le immagini e i suoni non saranno più unidirezionali, ma vi sarà una completa diffusione e interazione con gli spe atori: “plurimi schermi“ e “plurimi suoni” per Kaplan invaderanno gli ambienti. Abbiamo visto, quindi, come dalle Avanguardie degli anni '20 in poi si cerchi di oltrepassare l'esperienza statica dello spe atore

Parte IV - Vite datificate

dando una molteplicità visiva e sensoriale: lo spe atore è programmaticamente incluso nell'opera, che, di fa o, perde il cara ere di opera in sé e diventa provocazione, evento, dialogo tra i media. Questa a itudine non finirà né con le avanguardie né con le sperimentazioni tecniche degli anni '50 del Novecento, ma proseguirà fino ad oggi, passando sicuramente per tappe molto importanti come il cinema sperimentale e la nascita della video-arte negli anni '70. Tu e queste esperienze ci fanno capire come non sia possibile provare a tracciare una sorta di storiografia del conce o di intera ività, perché esso si sviluppa secondo un processo ciclico, nel quale diverse correnti si intrecciano e diverse a itudini si ripresentano. È chiaro però che è presente un forte elemento tecnico legato, in questo caso, a un processo storico, il quale oggi ci perme e di interfacciarci con una forma di intera ività completamente diversa rispe o a quella di soli dieci anni fa. Come abbiamo le o nelle parole di Caronia, è interessante notare come con l'arrivo della rete e dei media digitali negli anni '90 i proge i artistici più rilevanti provarono a basare la loro intera ività non esclusivamente su scelte consapevoli del visitatore, ma su una combinazione di scelte consapevoli e di segnali emessi inconsapevolmente. La nascita di tecnologie in grado di monitorare i dati corporei e di trasme erli in bit, quindi in formato digitale, ha permesso di entrare in un nuovo campo di sperimentazione nel quale non sono più solo le singole azioni dei partecipanti o gli stimoli esterni delle opere a creare interazione, ma anche gli impulsi corporei e quindi i dati inconsci. Proseguendo sempre tramite esempi, proviamo a introdurre questo aspe o tramite due installazioni realizzate in Italia tra gli anni '90 e i primi 2000. Mario Canali, artista milanese, in Oracolo-Ulisse (1995) crea una video-installazione, o meglio un ambiente emotivo, 272

273

Tommaso Campagna - Estetiche Intera ive

nel quale il responso del computer al temine del “viaggio” è dovuto a un mix di dati: movimenti di uno sce ro che il partecipante impugna e che agita, la rilevazione del suo ba ito cardiaco e gli eventuali movimenti che egli fa seduto sul trono. L'artista quindi decide di utilizzare quella che oggi chiameremo analisi dati per raccogliere informazioni sui fruitori e utilizzarle per creare immagini e video che amplino l'esperienza intera iva e diano un feedback sensoriale di informazioni che sarebbero altrimenti imperce ibili. Qualche anno dopo possiamo trovare un'altra esperienza molto simile: Ordine e Caos, che il colle ivo artistico Limiteazero portò per la prima volta al festival Techne02 sempre a Milano, nel 2003. All'interno dello Spazio Oberdan, location del festival, il software 3 Carnivore , installato in un server, monitorava il flusso di informazioni della rete, rappresentando visivamente e dando fisicità agli indirizzi IP connessi. I numeri IP venivano messi in relazione con un sistema di interazione fisica che perme eva al pubblico di intervenire sul loro flusso. Due piani opposti si sovrapponevano: la dimensione fisica e la dimensione digitale. Con questi esempi siamo arrivati a mostrare come il conce o di inconscio digitale di Antonio Caronia si sia sviluppato dalla prima metà degli anni '90 in poi. I dati del corpo in un caso e i dati digitali nell'altro sono la manifestazione di un inserimento delle nostre sogge ività in un campo virtuale, private però della loro identità ma parte di un insieme più grande e comune. Se osserviamo questi esempi possiamo notare uno dei grandi leitmotiv dello sviluppo del primo internet 1.0, ovvero il sogno della creazione di un'unica rete globale o, per dirla alla Marshall McLuhan, di un villaggio globale, all'interno del quale poter navigare liberi, liberi da un'identità precisa, liberi da distanze spaziali e mentali.

Parte IV - Vite datificate

Tra i numerosi esempi di studio del conce o di corpo virtuale il BeAnotherLab è uno dei più importanti. Centro di ricerca multidisciplinare basato sul conce o di comunità online, da anni indaga le possibilità emancipative del corpo a raverso la realtà virtuale. Il lavoro di questo gruppo si concentra nell'indagine del conce o di alterità e di come questa possa essere compresa tramite l'utilizzo della tecnologia. A raverso un approccio estetico e fisico, questo proge o studia le tecniche tramite le quali gli utenti possono sentirsi come se fossero in un corpo diverso dal proprio, utilizzando le più moderne tecniche di sensoristica e di ripresa. Il lavoro più rappresentativo del BeAnotherLab è Gender Swap, realizzato nel 2014 in collaborazione con la Pompeu Fabra University di Barcellona. In questo esperimento una videocamera a accata al corpo e un Oculus Rift – un visore per la realtà virtuale –, perme e ai due partecipanti di “scambiarsi” il proprio genere. Ovvero, indossato il visore, i partecipanti possono visualizzare ciò che la videocamera, posta sul corpo dell'altro, riprende, sincronizzando in questo modo i movimenti e avendo la reale percezione di avere un corpo diverso dal proprio. La particolarità di questo esperimento consiste nel privare i partecipanti di ogni indumento così che possano osservare l'intero corpo proprio/altrui e averne una percezione sogge iva. «A raverso questo esperimento – scrivono i membri del proge o –, ci proponiamo di indagare su questioni come identità di genere, teoria queer, cyber femminismo, intimità e rispe o reciproco». L'idea di rete come spazio di autodeterminazione però si è dovuta scontrare con l'avvento del capitalismo delle pia aforme, già citato più volte in questo libro. I social network, infa i, hanno privato quasi totalmente la rete del suo aspe o libertario e anonimo e hanno a uato una trasformazione radicale delle nostre identità al suo interno. Oggi, infa i, le sogge ività si dispiegano pienamente nel 274

275

Tommaso Campagna - Estetiche Intera ive

virtuale a raverso le informazioni personali e i dati corporei. Si pensi alla diffusione su larga scala di strumenti come il riconoscimento facciale o la le ura delle impronte digitali fino alla completa scansione del nostro corpo tramite videocamere a raggi infrarossi come il Microsoft Kinect. Sia nel reale che nel virtuale, infa i, hanno luogo le stesse logiche di assogge amento che i meccanismi capitalistici ci impongono grazie anche alla costruzione di un'identità virtuale e alla sua traduzione in un corpo digitale – avatar. La realtà virtuale (RV) è uno strumento che, come abbiamo visto, può avere degli utilizzi emancipatori ma allo stesso tempo, se usato scorre amente, può essere uno strumento di atomizzazione e isolamento. In questo cambio di paradigma la risposta del mondo artistico è stata molto varia. Vi sono sicuramente molte esperienze di totale distacco dal nuovo utilizzo del virtuale e altre che non hanno minimamente considerato questo cambio di prospe ive. Prima di passare agli ultimi due esempi di questa analisi vorremmo provare a riportare qui come anche da un punto di vista teorico si cerchi di superare questa visione dicotomica sce icoo imistica del virtuale. In particolare, vorremmo fare riferimento al conce o di tecnoestetica formulato da Gilbert Simondon in un testo del 1982 e ripreso da Pietro Montani in Tecnologie della sensibilità, nel 2014. Con tecno-estetica, Simondon intende non solo studiare il rapporto tra funzionalità e bellezza, ma anche la capacità degli ogge i tecnici di produrre piacere “sensomotorio” e una “gioia strumentale”. L'arte, quindi, non ha solo un aspe o contemplativo, ma è anche un insieme di azioni sulla materia mediate da diversi ogge i tecnici, ognuno dei quali può essere la fonte di un piacere specifico. Pietro Montani riprende il conce o simondoniano, cercando di applicarlo al contesto culturale contemporaneo, in cui la componen-

Parte IV - Vite datificate

te visiva e la produzione mediale stanno avendo un successo senza precedenti. Tale processo, secondo il filosofo italiano, può avvenire secondo due modalità: da un lato, a raverso una completa forma di delega che tende a creare un'atrofizzazione della sensibilità e dell'immaginazione; dall'altro, invece, tramite forme di elaborazione del rapporto tra sensibilità e tecnica che si sviluppano secondo una logica propriamente intermediale e intera iva: capace, quindi, di elaborare in maniera costru iva il rapporto tra il sogge o e l'ambiente sensibile che lo circonda. All'interno del panorama contemporaneo, l'arte, per Montani, può contribuire a un'esplorazione proficua, aperta e indeterminata dell'orizzonte tecno-estetico, contrastando ogni forma di standardizzazione del nostro rapporto con la tecnologia e di impoverimento della nostra esperienza sensibile. Vediamo quindi come anche nel contesto artistico si possa a uare questo contrasto: i lavori che vorremo analizzare, infa i, sono quelli che hanno considerato i nuovi processi capitalistici in a o, li hanno studiati e hanno deciso di utilizzare il mezzo artistico per sovvertirli. Partiamo dal tema di questa antologia e dalla sua a ualizzazione nel campo estetico: la visualizzazione dati. Poter trasformare in immagini i grandi flussi di dati che ogni giorno produciamo, ci ha permesso di osservare e capire molti aspe i della nostra vita social che a raverso un'osservazione isolata non avremmo mai potuto capire. L'analisi dati e la rispe iva visualizzazione sono strumenti che possono essere molto utili per osservare come le relazioni e le interazioni sociali creino discorso politico, economico e culturale. È noto, infa i, che ogni singola azione compiuta sulle pia aforme e in generale nella rete, dalle nostre ricerche su Google alle nostre “reazioni” su Facebook, sia salvabile e analizzabile. L'elemento più cupo però è dato dal fa o che non tu i possono accedere a questi dati e chi vi può accedere può farne un uso non 276

277

Tommaso Campagna - Estetiche Intera ive

regolamentato. Si pensi alle dichiarazioni inerenti all'utilizzo massiccio della sentyment analysis da parte di Alexander Nix, amministratore delegato di Cambridge Analytica nonché uno dei curatori della campagna ele orale di Donald Trump e della campagna del Leave per il Brexit. Proprio su quest'ultimo tipo di analisi sono uscite interessanti implicazioni artistiche e non di meno politiche. Benjamin Grosser, tramite il suo proge o di net-art GoRando – presentato durante Athens Digital Art Festival 2017 – ha deciso di creare un meccanismo che possa andare a sconvolgere i parametri che regolano lo studio dei sentimenti degli utenti di Facebook, meglio de a “profilazione”. GoRando, infa i, è un piccolo add-on che, installato in qualsiasi browser, va a modificare l'algoritmo adibito alla creazione delle reaction di Facebook di modo tale che la scelta dell'utente sia completamente randomica, non riconducibile quindi al reale sentimento dell'utente rispe o a un determinato argomento. Si pensi quindi alle possibili implicazioni di una diffusione in larga scala di questo programma open source. È evidente che l'intero processo di analisi dei sentimenti potrebbe essere messo in crisi. GoRando è un esempio calzante di arte intera iva nella quale l'intervento del singolo è correlato in maniera dire a a un suo ruolo colle ivo. Per concludere analizzeremo un'opera che non fa dire amente riferimento alle declinazioni virtuali delle nostre informazioni ma fa un processo contrario. Cerca infa i di individuare gli elementi materici della rete, ovvero va a ricercare i luoghi fisici dove i dati si spostano. Internet Landscape è un lavoro di Evan Roth, net-artista che ha dedicato il suo ultimo proge o alla ricerca di tu i quei luoghi di confine dove passano i cavi della fibra o ica che portano le informazioni da un continente all'altro. L'artista ha scelto di recarsi in questi

Parte IV - Vite datificate

punti e di fotografare il paesaggio circostante. Presentate per la prima volta alla biennale di Sydney nel 2016 le sue opere, in continuo aggiornamento, mostrano immagini di luoghi di vita quotidiana, paesaggi di campagna e spiagge legate tra loro dalla particolare colorazione rossastra o enuta dall'utilizzo di apposite fotocamere, in grado di registrare i raggi infrarossi emanati dai flussi di dati che passano nel so osuolo. Oltre alle esposizioni in galleria, Roth è intervenuto anche in rete andando a inserire all'interno di Google Street View immagini a 360 gradi dei luoghi di passaggio di questi grandi “datado i” rendendone così possibile una fruizione virtuale. Questo potrebbe essere un o imo esempio di quanto possa essere importante ricordarci che oggi tu e le volte che parliamo di virtuale e di dati facciamo in realtà riferimento a chilometri di cavi e buie stanze di server in qualche so erraneo della Silicon Valley. È interessante notare, inoltre, come le nuove reti fisiche che si tanno costruendo creino una nuova cartina geopolitica, non basata sui confini ma sulle reti.

278

N

Tommaso Campagna - Estetiche Intera ive

1) Marshall McLuhan, Gli strumenti del comunicare, Garzanti, Milano 1977. 2) Antonio Caronia, L'inconscio della macchina, in Antonio Caronia, Enrico Livraghi, Simona Pezzano (a cura di), L'arte nell'era della producibilità digitale, Mimesis, Milano 2006. 3) Il Carnivore, conosciuto anche come DCS1000 (Digital Collection System), è il nome dato a un software, implementato dall'FBI dopo l'a acco al World Trade Center l'11 Se embre 2001, per poter controllare e-mail e conversazioni telefoniche in rete. Venne poi diffuso nell'o obre del 2002.

279

Hapax Legomenon Sulla guerra per le parole di Federico Nejro i

Q

ualche tempo fa sono stato bannato da Facebook per due mesi consecutivi. In quel periodo è successo che una no e un mio amico è stato scippato e pestato, e non avendo più il telefono con sé ha cercato di conta armi su Facebook Messenger dal suo laptop. Quando sei bannato su Facebook non puoi fare nulla, se non assistere passivamente al flusso di conversazioni, e lo stesso vale per i messaggi privati: puoi leggerli ma non puoi rispondere, e non puoi far sapere all'altra persona che non stai rispondendo perché sei bannato. Quella no e io stavo già dormendo e il messaggio del mio amico mi ha svegliato: ho passato una buona decina di minuti a ricevere frammenti della sua cronaca del pestaggio e a chiedermi come potessi rispondergli. Non l'ho fa o: ne abbiamo parlato per la prima volta alcuni giorni dopo quando ci siamo incrociati dal vivo perché, senza telefono, il mio amico è risultato raggiungibile soltanto a raverso Facebook. È stato un momento particolare nella mia relazione con i social network. Quella no e ho capito che stavo sbagliando approccio.

Parte IV - Vite datificate

“S

G



Da anni, nei panni di giornalista (credo), mi occupo di internet e tecnologia: sono uscito completamente scemo nel cercare di comprendere gli equilibri di potere tra stati nazionali e titani digitali trans-continentali, ho sguazzato nella melma algoritmica che decide in che misura farci accedere alla conoscenza sulla rete, ho sviluppato un profondo disgusto per tu e le parole che vengono usate per descrivere Internet oggi e, sopra u o, dopo anni di parano280

ia, ho imparato a non interessarmi più in alcun modo alla quantità di dati sulla mia persona che distribuisco volontariamente o meno nel web. Ritengo quest'ultimo punto quantomeno rilevante: d'altronde, quando si parla di privacy e sorveglianza, internet fa paura. 1 All'inizio del 2018 il giornalista James Risen ha pubblicato su The Intercept un lungo racconto della sua esperienza al The New York Times, dove per anni il giornale ha deciso di non pubblicare alcune sue inchieste “su richiesta del governo.” Nel racconto, Risen fornisce un punto di vista piu osto personale sulla normalizzazione della sorveglianza digitale governativa e che, a mio parere, racconta lo stato dell'arte di questo fenomeno in maniera decisamente più efficace di qualunque vagonata di articoli prolissi sul tema.

Nel 2018 una dichiarazione del genere è talmente prevedibile da produrre tu o fuorché scalpore, e lo stesso vale per le decine di fenomeni di profilazione di cui facciamo esperienza ogni giorno: che si tra i di pubblicità personalizzate su Facebook o di mail promozionali così specifiche da risultare inquietanti, abbiamo smesso di porci domande a riguardo. O meglio, molti di noi hanno deciso di non cominciare nemmeno a farsele, perché usare quei servizi, che in cambio delle loro funzioni ci chiedono i nostri dati, è molto più semplice che non utilizzarli. 281

Federico Nejro i - Hapax Legomenon

Recentemente, quando a raverso un intermediario ho incontrato una fonte affidabile e piu osto sensibile per una storia che stavo seguendo, si è verificato un altro incidente che mi ha fornito dei de agli inquietanti sul potere di sorveglianza del governo. Dopo l'incontro, che si è consumato qualche anno fa in Europa, ho cominciato a fare qualche ricerca sulla fonte. Circa un'ora dopo ho ricevuto una chiamata dall'intermediario, “Sme i di cercare il suo nome su Google”2

Non si tra a soltanto di una scelta di comodo, né tantomeno di una presa di posizione politica: sfido chiunque a passare due mesi senza Instagram, Twi er, Facebook, Amazon, Google. Che si prendano tu e le precauzioni del caso: imbo iamoci di reti Tor, di VPN, proxy, cancelliamo tu e le nostre tracce ogni volta che ci colleghiamo a internet, leggiamo i termini di contra o tu e le volte che installiamo una nuova app. Facciamolo e preghiamo che il resto del mondo ci aspe i mentre noi rallentiamo. I rapporti di forza che ho appena descri o corrispondono a un cambio di paradigma non banale. Si tra a di un'evoluzione del rapporto tra uomo e tecnologia piu osto intuibile ma che, per mia personale esperienza, è ancora ben lontana dall'essere assimilata in maniera consapevole da noi, le persone che internet lo utilizzano.

Parte IV - Vite datificate

B Da diversi anni a questa parte, il mondo dei media ha intrapreso un percorso pensato per cercare di capire in che modo parlare di questi nuovi rapporti di forza. La figura retorica che va per la mag3 giore è quella secondo cui i «dati sono il nuovo petrolio» : una gigantesca industria sommersa che, per definizione, non è altro che un intermediario tra chi i dati li produce e chi li sfru a. D'altronde, la rice a è piu osto semplice: le dinamiche dei mercati moderni si sono fondate sulla individuazione e la soddisfazione di bisogni i cui se ori di riferimento non erano ancora saturi, e quando le prime pia aforme web hanno cominciato a offrire dei servizi utili ai loro utenti è stato chiaro sin da subito che, per la prima volta nella storia, le persone improvvisamente non vedevano l'ora di dare in pasto alla macchina di internet qualunque cosa potesse aiutarla a far o enere loro ciò di cui avevano bisogno. A pensarci meglio questo fenomeno ha dell'assurdo: per anni abbiamo stre o con i nostri computer un rapporto di fiducia singola282

283

Federico Nejro i - Hapax Legomenon

re. Abbiamo comunicato a internet la lista intera dei nostri libri, film, artisti preferiti, non ci siamo mai fa i problemi a so oporre alla rete le nostre domande più intime. Quando i social network hanno cominciato a farsi largo è stata addiri ura sdoganata una pratica che nel mondo reale viene normalmente discussa nei tribunali: abbiamo de o a internet il nome e il cognome di ogni singola persona di cui siamo ossessionati, gli abbiamo spiegato in maniera de agliatissima quanto tempo passiamo a osservare queste persone; su quali foto ci soffermiamo, quanto spesso leggiamo i loro pensieri e quante volte parliamo privatamente con loro. Il solo pensiero che la lista delle persone che ho cercato su Facebook negli ultimi sei mesi possa venire resa pubblica mi me e i brividi, eppure non ho problemi a continuare a farlo perché, be', mi fido dei computer, no? Nel mio caso la risposta a quest'ultima domanda è, in un certo senso, più triste: non sme o di farlo perché Internet soddisfa perfe amente un mio bisogno, e fatico a immaginare un mondo in cui questo mio bisogno non viene più soddisfa o. Quando le potenzialità di Internet si sono scontrate con la volontà di generare dei guadagni da esse, chiunque si sia cimentato in questa impresa è partito da un assunto molto preciso: qualunque sia il modo in cui ci manifestiamo nella società, abbiamo bisogno di disseminare delle informazioni su noi stessi per farlo. Se l'idea alla base di Internet era di creare una rete in grado di abba ere i confini nazionali e conne ere persone presenti in tu o il mondo, diventando quindi un catalizzatore per il conce o stesso di società, i titani dell'economia digitale si sono posti nel mezzo di questo processo: come dei caselli per accedere a un'autostrada, i motori di ricerca, i social network e gli aggregatori di contenuti hanno cominciato a chiedere un piccolo pedaggio per poter utilizzare una versione migliore e più efficiente di Internet stesso.

Il colpo di scena è arrivato poco dopo. Utilizzare Internet, all'inizio, significava sfru are uno strumento in più per interpretare e partecipare alla società, ma oggi i fa ori di questa equazione si sono invertiti: se fino a quindici anni fa producevamo dati perché siamo umani, oggi siamo umani perché produciamo dati. Internet non è più un'opzione: che ne siamo coscienti o meno, l'autostrada della rete si è superimposta alla società offline, sostituendola. Da qui non si torna più indietro: oggi produrre dati è un requisito imprescindibile per essere parte della società moderna; una società assolutamente interconnessa, in grado di abba ere i confini geografici e che si muove a velocità ben lontane dalla nostra umana comprensione.

Parte IV - Vite datificate

L' Ovviamente questo cambio di paradigma, nel nostro modo di manifestarci nella società, ha prodo o delle conseguenze. Quando i processi di a ivazione della produzione culturale hanno cominciato a spostarsi su Internet — il più delle volte traendone un radicale giovamento dal punto di vista dell'efficienza e della capillarità — le grandi pia aforme non sono restate a guardare. Internet è uno strumento stupefacente per amplificare la creatività degli individui, non solamente perché perme e a chi ne fa utilizzo di essere esposto a una quantità e a una varietà di stimoli senza precedenti, ma sopra u o perché disintermedia radicalmente la distribuzione delle produzioni creative stesse. Qualunque cosa tu faccia, grazie al web hai la possibilità di mostrarla istantaneamente a un pubblico che, potenzialmente, è equivalente al numero di persone munito di una connessione a internet in quel dato momento. Niente editori, niente curatori, nessun pale o creativo imposto dall'alto: la linea che collega chi crea un'opera a chi ne fa esperienza è dire a. Se sca i foto non hai più bisogno di stamparne se e miliardi di copie e portarle in ogni singola casa del pianeta. 284

285

Federico Nejro i - Hapax Legomenon

Anche in questo caso, si è tra ato di un cambio di paradigma piu osto radicale per un'industria culturale che, fino ad allora, si era infrastru urata su gerarchie ben precise che, se da un lato limitavano il numero di persone che poteva effe ivamente vedere le proprie opere distribuite, dall'altro sulla carta fungeva anche da supervisore della produzione culturale. Nelle sue innumerevoli sfacce ature, l'industria della cultura si trovava costre a a gestire con coscienza l'output creativo che canalizzava, al fine di poter conservare la propria autorità come intermediario. Grazie alla diffusione di Internet, la cultura stava venendo democratizzata: tu i potevano parteciparvi, tu i potevano usufruirne e, grazie a fenomeni che spaziano dalla pirateria fino alla cultura dell'open access, i costi per poterne fare esperienza si sono drasticamente rido i. La conseguenza di questa evoluzione è logica: in un ecosistema in cui chiunque è in grado di partecipare al diba ito culturale, le voci rischiano di moltiplicarsi fino a diventare troppe — o, come l'aveva messa4 l'ex CEO di Google Eric Schmidt, «trovare informazioni su internet è come cercare di bere da un idrante». Se le prime due grandi ere del web erano corrisposte prima alla possibilità di usufruire passivamente dei contenuti presenti online e poi di potervi agire a ivamente modificandoli, la diffusione di Internet stava creando una nuova necessità: come si fa a fare ordine in una piazza dove tu i parlano? È così che nasce il conce o di web semantico, una rete dove ogni informazione è associata a una meta-informazione chiamata metadato che descrive la natura dell'informazione stessa. Se mi piacciono gli ascensori e le balene, d'altronde, avrò pur diri o di non perdermi in un labirinto pressoché infinito per poter cercare qualcosa a riguardo su Internet, no? È a questo punto che, per un brevissimo istante, le cose hanno rischiato di sfuggire di mano. I social network sono stati i catalizzatori di questa rivoluzione culturale, perché riuscivano non soltan-

to ad aggregare informazioni ma, sopra u o, univano nello stesso luogo comunità intere di persone. Il processo di accesso alla conoscenza non si consumava più in maniera stre amente lineare, con una singola persona in grado di entrare in conta o con un gigantesco bacino di informazioni, ma si sviluppava in maniera alveare: decine di migliaia di cervelli che tendevano naturalmente ad aggregarsi e a condividere vicendevolmente contenuti di comune interesse. Per molti punti di vista si potrebbe parlare di un'utopia, ma in questa orgia informativa c'è una vi ima: i tempi di permanenza sulle pia aforme che abilitano questo processo crollano drasticamente, perché tu i sono troppo impegnati a rimbalzare da un angolo all'altro del web, in una frenesia ipertestuale senza precedenti. Certo, finiscono sempre per tornare alla pia aforma per potersi riunire con l'alveare, ma ai social network questo non basta. È così che lentamente i principali protagonisti di questa festa dispiegano ogni risorsa in loro possesso per raggiungere un unico obie ivo e tenersi ogni singolo centesimo degli introiti pubblicitari: dovevano non far uscire mai gli utenti dalla pia aforma, e l'unico modo per far sì che un utente non sme a di usare un servizio è far sì che il servizio soddisfi sempre e comunque i bisogni dell'utente.

Parte IV - Vite datificate

M I social network avevano dalla loro un'arma estremamente potente: sapevano tu o di noi, perché noi avevamo deciso di dire loro tu o su di noi. È per questo motivo che decidono di sfru are queste informazioni a loro vantaggio e di ingegnerizzare i nostri gusti. L'a ivista americano Eli Pariser, nel 2010, dà un nome a questo fenomeno: filter bubble5, in italiano bolla di filtraggio; un meccanismo per cui, su una data pia aforma, i contenuti (post) visualizzati da ogni utente sull'interfaccia (un feed, solitamente) che utilizza 286

287

Federico Nejro i - Hapax Legomenon

per accedere alla pia aforma non sono più visualizzati in ordine cronologico (chronologically sorted), ma secondo i gusti dell'utente stesso (algorithmically sorted). Ogni persona vede qualcosa di diverso, e questa varietà viene imposta da un misterioso spe ro matematico che la cronaca moder6 na conosce meglio con il generico nome di “algoritmo” : con il passare degli anni, ogni utente viene affiancato a un profilo di gusti molto preciso e accuratamente cucito dire amente su di lui, partendo da tu e le informazioni che l'utente stesso ha ceduto alla pia aforma. L'algoritmo sa cosa ti piace, sa cosa piace alle persone della tua età, alle persone che vengono dalla tua stessa ci à, sa quanto tempo passi a guardare ogni diverso tipo di contenuto, sa il nome e il cognome degli utenti che creano i tuoi contenuti preferiti. A rifle erci bene è intuitivo: cosa risponderesti a qualcuno che vuole darti sempre e costantemente tu o ciò che ti piace? È così che il grande sciame si frammenta: la fluida colle ività che prima cara erizzava l'ecosistema di un social network torna all'interno dell'alveare, ma questa volta decide di chiudersi ermeticamente all'interno di ogni celle a. La produzione culturale si cementifica e tu o diventa, in un certo senso, retorico: un po' come se nella tavolozza di un pi ore tu i i colori che nel tempo si sono mischiati si ritirassero per tornare a fare compagnia alle molecole di pi ura del loro stesso colore. Tante piccole bolle, che col passare degli anni si sono gonfiate e isolate ulteriormente, a dismisura7. A una prima analisi, questo processo può non sembrare così incredibile, d'altronde stiamo parlando di aziende che offrono un servizio e che col tempo modificano il servizio per mantenerlo remunerativo; è normale, no? Ecco, sì, ma non esa amente. Nel lasso di tempo che è intercorso tra la diffusione del fenomeno della filter bubble e i primi timidi passi della presa di consapevolezza colle iva dello stesso, le piazze virtuali che i social network offrivano hanno smesso di essere accessorie alla società e hanno cominciato, per la prima volta nella storia, a essere cifre fonda-

Parte IV - Vite datificate

mentali della società stessa. Dal mantenimento delle amicizie alla creazione di nuove, passando per l'informazione e l'intra enimento, i social network hanno strappato la popolazione ai canali di comunicazione cosidde i tradizionali e l'hanno catapultata in un piano virtuale, alternativo a quello reale, tangibile, a cui la nostra memoria storica era abituata. Ovviamente, le pia aforme da sole non hanno fa o tu o il lavoro. Nello stesso lasso di tempo i titani del digitale hanno divorato un mercato prima estremamente variegato: Facebook ha acquistato Instagram e WhatsApp, Google e Reddit hanno sbaragliato la loro concorrenza, Twi er, nel tentativo di resistere a Facebook, si è trasformato in un amplificatore mediatico che ha annullato qualun8 que altro tentativo di creare canali di diba ito alternativi , e Amazon, be', Jeff Bezos, il suo CEO, poco tempo fa è diventato ufficialmente l'uomo più ricco del mondo9. Non tu i questi nomi fanno riferimento a social network, ma oggi, nell'immaginario colle ivo, questi nomi corrispondono al conce o di “Internet”. Puoi provare a rifugiarti in qualche altro piccolo anfra o prote o, ma tornerai presto all'ovile perché queste sono le stesse pia aforme che continuano a darti ciò di cui hai bisogno: cose e persone che ti piacciono. È curioso pensare che questa apocalisse sia composta da soltanto due ingredienti: dati e algoritmi. Sono bastate queste due cose a creare prima un nuovo livello della società che si è innestato nei canali virtuali che negli ultimi trent'anni hanno progressivamente interconnesso il mondo intero, e poi a strappare noi, gli esseri umani, dalla nostra vecchia società. Una sorta di nuova realtà che, anziché essere regolata dalle interazioni umane, è influenzata da fa ori matematici che decidono in che misura far manifestare quelle stesse interazioni. Che ruolo ha l'uomo in questo caos ordinato, perfe amente speculare al tradizionale approccio degli esseri umani al loro essere umani? 288

-

Luciano Floridi dirige il Digital Ethics Lab dell'Oxford Internet Institute, e ha passato gran parte della sua vita accademica ad approfondire i limiti e le possibilità della filosofia dell'informazione, una disciplina che cerca di interpretare il rapporto tra informazione e computazione informatica10. Ha scri o un libro, La Quarta Rivoluzione, in cui sostiene che la rivoluzione dei dati abbia completamente trasfigurato la realtà di cui noi umani facciamo esperienza perché le macchine, chiamate a gestire questi dati, ci hanno in un certo senso superato in furbizia: i computer ci conoscono meglio di noi, e per questo motivo si trovano in una posizione di vantaggio. D'altronde, sono bastati dati e algoritmi per scombussolare completamente la nostra idea di società11. Poco dopo il lancio del libro, Floridi ha rilasciato un'intervista12 al quotidiano tedesco Frankfurter Allgemeine Zeitung dove, riprendendo i temi tra ati nel suo lavoro, redarguisce il le ore sul ruolo, oggi, che l'uomo ha rispe o alla tecnologia che lui stesso ha creato. «È sconcertante realizzare quanto antropocentrico sia il nostro punto di vista a riguardo», spiega in una risposta dell'intervista. «Se vediamo una macchina svolgere un compito, pensiamo a quel compito nei termini della nostra intelligenza. Se prendiamo in esame delle azioni etiche, allora me iamo soltanto il nostro interesse al centro del diba ito, non l'intero ecosistema» continua. L'interlocutore di Floridi a questo punto pone una domanda tanto semplice quanto incredibilmente radicale se filtrata a raverso la lente dell'a ualità, e che innesca uno scambio che nella mia personale esperienza è stato così significativo che non posso non riportarlo per intero. Katharina Laszlo: Ma l'essere umano non si trova in una pozione speciale rispe o a tu o il resto? 289

Federico Nejro i - Hapax Legomenon

W

Parte IV - Vite datificate

Luciano Floridi: L'essere umano merita a enzione per almeno due ragioni. In primo luogo, è un glitch. Siamo un hapax legomenon, ovvero una parola che appare soltanto una volta in un libro. L'esempio più classico è la parola gofer nella Bibbia, un tipo speciale di legno con cui viene costruita l'arca di Noè. Questo termine viene utilizzato soltanto una volta. Un hapax legomenon è un fenomeno completamente naturale, ma è un glitch. Rientra allo stesso tempo nella normalità e nella eccezionalità. È così che vedo l'umanità. Siamo parte dell'essere, ma anche l'hapax legomenon dell'essere. L'altro motivo per cui l'umanità è in una posizione speciale è che in tu a la catena del divenire, l'umanità è l'unico momento in cui l'essere diventa cosciente, libero e capace di agire per cambiare il corso del reale stesso. Siamo le creature anti-entropiche definitive. Dovremmo prenderci cura di questa nostra cara eristica, perché siamo l'unica possibilità che l'Universo ha di far migliorare le cose.

Nel suo essere fortemente cosmogonico, il punto di vista di Floridi risulta cruciale nell'interpretazione dell'a uale rapporto tra esseri umani e dati. Gli anni che stiamo vivendo sono quelli in cui il rapporto tra noi e questi fantomatici algoritmi sta invertendo i propri equilibri di forza, a tal punto da farci me ere in dubbio la nostra effe iva capacità di poter ancora influenzare dei meccanismi matematici e informatici che sembrano, in tu o e per tu o, completamente padroni della nostra vita sociale, culturale e personale. Risulta difficile, se non impossibile, pensare di poter sfuggire a delle dinamiche imposte da alcune aziende private che le sfru ano per, al tempo stesso, sostituire il conce o tradizionale di società e trarre il massimo del profi o da questo processo. La realtà, per quanto altre anto complessa, è a mio parere un'altra: in questa rete intricatissima di produzione, comunicazione e fruizione dei dati, noi — gli esseri umani — continuiamo a rima-

290

nere il fa ore fondamentale nell'equazione. Benché apparentemente succubi della datacrazia, siamo ancora l'unico modo che gli algoritmi hanno a disposizione per poter agire al di fuori delle loro regole e manifestare delle anomalie che potrebbero, presto o tardi, alterare il processo di isolazione e clusterizzazione dei nostri gusti, pensieri e intenzioni che il fenomeno della filter bubble sta catalizzando. Se decidiamo che l'algoritmo non funziona più, resta da chiedersi come cambiarlo.

I

291

Federico Nejro i - Hapax Legomenon

C

Da alcuni mesi a questa parte sono molti gli ex-funzionari delle più disparate grandi pia aforme digitali ad aver dichiarato pubblicamente13 di sentire di aver fa o, all'inizio di questo processo, qualcosa di profondamente sbagliato. L'impressione è che per loro, e per le aziende stesse, l'evoluzione del rapporto umani-algoritmo abbia raggiunto un punto di non ritorno piu osto inquietante: le cara eristiche del fenomeno della filter bubble rispondono alla necessità fondamentale, per queste aziende, di massimizzare il tempo di permanenza degli utenti sulle pia aforme, e lo fanno così bene da rendere quasi impossibile pensare di poter tornare indietro. Un po' come se questo processo avesse portato così tanti benefici economici da far percepire come completamente folle l'idea di invertirlo. Non è un caso che alla pubblicazione dell'ultimo censimento tri14 mestrale di Facebook, Mark Zuckerberg abbia dovuto non solo amme ere pubblicamente che alcune scelte politiche divenute necessarie a causa delle asprissime critiche ai danni del social e della sua influenza sulla società abbiano portato a una diminuzione del tempo trascorso sulla pia aforma dagli utenti, ma anche che queste scelte siano state necessarie. Quasi come se l'inversione del processo fosse ormai una prerogativa fondamentale nell'o ica di rendere internet un posto di nuovo salutare e sostenibile.

Parte IV - Vite datificate

Anche se questa presa di coscienza potrebbe sembrare in qualche modo rincuorante, è imperativo che non si lasci il privilegio di agire sull'algoritmo esclusivamente a chi trae profi o da esso. Al tempo stesso, però, sembra che chiunque abbia provato ad agire su di esso fino ad ora abbia fallito, e il motivo di questo fallimento è al tempo stesso banale e palese: chi trae profi o dall'algoritmo ha colonizzato le parole che servono per cambiare l'algoritmo. Il funzionamento alla base della filter bubble fa dello sfru amento della semantica un punto di partenza fondamentale: se ho accesso alle parole che i miei utenti usano, posso analizzarle per scoprire quali sono quelle che garantiscono il maggior tempo sulla pia aforma, il più alto numero di click o il numero di visualizzazione più alto. Google, con il suo sistema di advertising AdWords, fa 15 esa amente così . I suoi clienti comprano dalla pia aforma un certo volume di posizionamento pubblicitario sulla base di alcune parole chiave, e ogni volta che un utente arriva a un dato cliente di Google passando proprio per quelle parole, il rapporto economico tra le due parti si consuma: il cliente guadagna un visitatore e Google viene pagato dal cliente. Google consuma circa 63.000 transazioni di questo tipo al secondo, di fa o validando il valore di mercato di 63.000 unità di linguaggio al secondo. In questo senso il fenomeno della filter bubble non si verifica soltanto con i pensieri e i gusti degli utenti, ma anche con le parole che usano. L'autostrada di internet sta abilitando la presenza nella rete di un determinato insieme di parole che edulcora il significato delle stesse, trasformandole in identità di mercato, più che di significato. Questo fenomeno non influenza soltanto il rapporto tra le realtà di mercato e le pia aforme digitali che dovrebbero canalizzare la loro presenza su internet, ma anche il valore dell'a ivismo di chi tenta di modificare questi rapporti di forza. 292

293

Federico Nejro i - Hapax Legomenon

In un post16 pubblicato sul blog online Points, la presidentessa dell'associazione Data & Society Danah Boyd, trascrive il testo del discorso che ha pronunciato nel novembre del 2017 durante la cerimonia di apertura della conferenza The People's Disruption: Platform Co-Ops for Global Challenges. Scopo del discorso era proprio di ispirare e incoraggiare delle giovani menti a far fronte alle problematiche sociali e culturali derivate dall'iper-informatizzazione della società, cercando di capire in che modo dare voce a delle minoranze non rappresentate dagli algoritmi, e come incoraggiare il diba ito a orno ad alcune delle conseguenze della crescente diffusione dell'intelligenza artificiale e alla loro presenza online. In breve, un discorso per cercare di capire insieme come riprenderci internet. L'arringa, nella sua piena condivisibilità, si macchia di un peccato capitale per il tipo di ecosistema in cui è stata pronunciata: da “produ ività” a “lavoro”, passando per “hacker” e “disruption”, Boyd imposta il suo discorso nello stesso campo semantico già conquistato, tempo addietro, dalle stesse aziende che la comunità di persone a cui sta parlando sta cercando, in un certo senso, di comba ere. Ogni iniziativa e ogni idea verrà innestata all'interno di un'infrastru ura già ben definita, con degli standard e dei punti di riferimento (sia positivi che negativi) chiari e facilmente riconoscibili. Un intero campo semantico che è stato le eralmente capitalizzato da chi, nel corso del tempo, ha ingegnerizzato allo stato dell'arte i meccanismi per trarre profi o dalle dinamiche di Internet, ai danni degli utenti che ne usufruiscono. Proprio in quest'o ica, credo fermamente che il primo passo, oggi, per poter cominciare a lavorare davvero a un percorso di sensibilizzazione e a ivismo che possa davvero influenzare l'a uale status quo di Internet e dei grandi titani che al momento lo regolano, debba partire dalle parole, le singole unità di significato che riescono a tradurre in linguaggio umano nella maniera più dire a la

Parte IV - Vite datificate

portata di influenza delle unità di dati, il carburante di Internet e dei meccanismi che lo regolano. Qualunque sia l'idea di partenza, dobbiamo imparare a trasfigurarne il significato: che si parli di social network, intelligenza artificiale, etica o algoritmi, è imperativo privare lo status quo di Internet del diri o di acquisire la proprietà sull'ecosistema in cui si manifestano queste idee a raverso le parole che utilizziamo per definirle. L'esercizio è primitivo e radicale: inventiamo nuove parole, alteriamo il loro significato, chiediamo a tu i di utilizzarle e impediamo, a tu i i costi, che questo nuovo vocabolario venga capitalizzato. Non si tra a più di una ba aglia volta alla sostenibilità di un sistema economico digitale, ma di una guerra per espropriare dal circolo vizioso del profi o di una pia aforma, come Internet, senza cui oggi forse non potremmo più definirci esseri umani.

294

1) James Risen, The biggest secret - My Life as a New York Times Reporter in the Shadow of the War on Terror, in The Intercept, 2018. 2) James Risen, The Biggest Secret, in The Intercept, 2018. 3) Editoriale, The world's most valuable resource is no longer oil, but data, in The Economist, Londra 2017. 4) Beth Tolson, Drinking from a fire hydrant, in iKineo, disponibile al link: ikineo.com/drinking-from-a-fire-hydrant/ 5) Eli Pariser, The Filter Bubble: What The Internet Is Hiding From You, Penguin UK, Londra, 2011. 6) Anna Lezard, Elodie Mugrefya, Karis Mimms, et.al., Face the Bubble: Revealing How Facebook Selects Users' News Stories, in Masters of Media, Amsterdam, 2017 7) Federico Nejro i, La 'filter bubble' di Facebook continua a peggiorare, in Motherboard, 2016, disponibile al link: bit.ly/2H5jJ 8) Alex Thompson, Parallel narratives, in Vice News, 2016. 9) Christopher Mims, How Amazon's Ad Business Could Threaten Google and Facebook, in The Wall Street Journal, New York, 2018. 10) Luciano Floridi, The Blackwell Guide to the Philosophy of Computing and Information, Blackwell Publishing Ltd, Hoboken 2004. 11) Nick Seaver, Algorithms as culture: Some tactics for the ethnography of algorithmic systems, in SAGE Journals, Thousand Oaks, 2017. 12) Katharina Laszlo, We need a new definition of reality, in Frankfurter Allgemeine Zeitung, Francoforte sul Meno, 2015, disponibile al link: bit.ly/2JryhUM 13) Amy B Wang, Former Facebook VP says social media is destroying society with 'dopamine-driven feedback loops', in The Washington Post, Washington, 2017. 14) Jake Swearingen, Mark Zuckerberg: People Are Using Facebook Less, Just As We Planned, in Select/All, 2018. 15) Richard Graham, Google and advertising: digital capitalism in the context of Post-Fordism, the reification of language, and the rise of fake news, in Palgrave Communications, 2017. 16) Danah Boyd, The Radicalization of Utopian Dreams, in Points, 2017. 295

Federico Nejro i - Hapax Legomenon

N

Son grossi dati, servon grossi diri i di Daniele Salvini

I

U

na ma ina, ti sei svegliato, [ciao Bella] e hai trovato la bigliettazione ele ronica. Al grande incrocio dei dati tenuto dallo scrutinatore centrale risulta che il 27 novembre alle 10.15 stavi prendendo la metro a Centrale e sei uscito alle 10.40 a Porta Genova. Secondo il tuo gestore di telefonia mobile invece eri al lavoro come al solito. Hai una spiegazione per questo? Te lo chiede accigliato il controllore d'identità. Non ci sono molte scappatoie a parte amme ere di aver prestato il tuo tesserino ATM a qualcuno. Magari a suo figlio? Incalza il funzionario. La delazione ridurrà la pena prevista per aver tentato di eludere il benevolente controllo del grande biglie aio. Le Stelle ti guardano, comprensive, in a esa di una giustificazione.

Parte IV - Vite datificate

S Noi convinti che la trasparenza ci avrebbe salvato, che avere tanti dati ci avrebbe dato eguaglianza e più democrazia, ci sbagliavamo. Credevamo che la rete avrebbe portato più diri i e meno sfighe, e ci sbagliavamo. Siamo una bella schia a di creduloni, e mi scuso con chi legge se non si sente chiamato in causa perché meglio informato. In questo momento storico l'abbondanza di dati personali, concessi, strappati, anonimizzati, de-anonimizzati1 e correlati, oltre a causare la fine del lavoro del data entry, evidenzia come solo chi è in possesso di grossi mezzi può perme ersi di analizzare quei dati e ricavarne un senso. Questo non significa che i dati non siano utili, ma almeno allo stato a uale delle cose, la loro utilità non è accessibile a tu i. Prima dei telefonini con dentro il social, i dati do296

297

Daniele Salvini - Son grossi dati, servono grossi diri i

vevano essere o enuti, con le buone (opt-in) o con le ca ive (optout) e riversati a manina (data entry) nella macchina. Ora la macchina stessa si occupa di raccoglierli in quantità esuberante. Tu i abbiamo in tasca un calcolatore e un trasme itore con le antenne drizzate verso il cielo, comunicante coi suoi simili ma sopra u o 2 con il grande scrutinatore centrale . Diversi gestori "donano" conne ività e servizi, anche ad esempio in forma di cloud, ma tu i raccolgono dati. Nessun umano legge gli oscuri ToS (Termini di Servizio) e le EULA (Accordo di Licenza con l'Utente Finale), anche perché non acce arli significa non poter usufruire del servizio ed essere tagliati fuori. È circa dal 1999 che lo spazio su disco, grazie all'abbassamento dei costi di produzione della tecnologia, non è un plus e non si bu a via nulla per fare spazio. Certo, non lo fa chi dai dati trae vantaggio e profi o. I dati sono il petrolio del nuovo millennio e la loro estrazione è legata alla produzione e delegata alle scatole e connesse: cellulari, router, telecamere e robot puliscipavimenti. Inoltre, noi stessi imme iamo volontariamente in rete dati personali, spesso senza tener conto che stiamo usando una pia aforma, come ad esempio la rete sociale monopolista Facebo3 ok, creata allo scopo stesso di raccogliere dati . Big data: dati individuali e personali, industriali, se oriali, semplicemente tanti, duplicabili, bara abili, incrociabili e comperabili. E con loro i metadati, cioè dati che rimandano al dato stesso. Ad esempio, in un'interce azione telefonica il dato è la registrazione audio, i metadati sono: l'orario in cui è avvenuta, il numero di telefono, la posizione geografica e la durata. Mentre il dato richiede di essere interpretato da un essere umano, il quale deve ascoltare la registrazione per capire e a ribuirne un valore (e questo ha un costo in termini di tempo e competenze), il metadato invece è sempre utilizzabile dalla macchina. Viene generato dalle macchine e usato dalle macchine, quindi sorveglianza e la capitalizzazione dei metadati scalano molto più in fre a4. Da quando le macchine

con cui dialoghiamo raccolgono informazioni sulle persone, i dati in possesso dei padroni sono davvero tanti e sono molto più che una semplice somma.

Parte IV - Vite datificate

È

₍B R



La cessione delle informazioni riguardanti la persona è una scelta personale, o almeno dovrebbe decisamente esserlo. Cedere i propri dati significa cedere alcuni diri i e dovrebbe essere una scelta consapevole. Le informazioni hanno un valore economico e vengono commerciate malgrado le persone non ne abbiano la percezione. Gli utenti vengono considerati dei meri consumatori dai quali estrarre i dati per usarli o rivenderli, sono essi stessi la merce. I dati correlati all'individuo sono considerati, in linguaggio economico, una commodity, una merce che si possiede, ma siccome ci descrive, si può utilizzare solo come bene di scambio e senza poterla monetizzare. Non si possono infa i vendere i propri dati, ma si possono cedere in cambio di un servizio a chi invece saprà rivenderli. Un rapporto asimmetrico, dove l'individuo non può percepire e quantificare il valore, in quanto i dati, come le bo iglie di vetro usate, sono mercificabili solo in grosse quantità e solo quando vengono lavorati, ma non singolarmente. Un esempio di lavorazione è il processo di anonimizzazione dei dati per trasformare un dato personale, tutelato dalla legge sulla privacy, in un dato vendibile sul mercato. Le leggi sulla privacy sono per definizione obsolete, in quanto impossibilitate a precedere l'innovazione. Solo chi possiede i mezzi per raccogliere e lavorare i dati in grosse quantità può monetizzarli. Quantificare il valore del dato personale non è impossibile, proviamoci. Quando nel 2014 Facebook ha comprato WhatsApp per 19 miliardi di dollari, di cui 4 in contanti, non ha certo pagato una cifra del genere per un software, ma ha acquistato i dati appartenenti a 400 milioni di utenti. Convertendo la cifra in euro e dividendola per il 298

numero degli utenti, o eniamo che circa 40,00 € per persona è il valore assegnato ai dati, ma nemmeno una parte di quel denaro è finito nelle tasche degli utenti e WhatsApp non ha neanche offerto loro un caffè. Spe a all'individuo decidere come gestire i propri dati, anche colle ivamente. Dare un valore monetario ai dati può servire a formare coscienza del diri o alla privacy, il quale non è solo il diri o a stare da soli, ma la tutela dell'integrità dei dati che compongono la persona in rete. Di fronte all'obsolescenza delle leggi, l'approccio non può essere puramente di tipo legislativo5, occorre andare verso un tipo di etica dell'informazione che consideri l'individuo come agente libero e responsabile, portatore di un pacche o di informazioni di cui va salvaguardata l'integrità, non solo la proprietà, e che sia questo approccio etico a guidarci nelle scelte future. A big data si risponde con big rights. È una questione politica e non solo economica.

'

'

Non basta parlare di dati, i dati vanno a male. Se non sono freschi non hanno utilità commerciale, dunque non necessariamente chi ha molti dati ha automaticamente molto potere. Ha molto potere chi ha la possibilità di avere dati sempre aggiornati. Ha potere chi ha la possibilità di elaborare dati freschi. Le modalità di analisi dei dati chiamano in causa gli algoritmi, ossia calcoli finiti che hanno lo scopo di trarre conclusioni. Possiamo paragonare l'algoritmo a una rice a, la quale è un insieme di istruzioni finite che ha lo scopo di o enere una pietanza. Una rice a, come un algoritmo, potrebbe essere segreta e non è de o che dal pia o finale si possa ricostruirla a ritroso. Potrebbe nutrire mentre soddisfa il palato o far morire gonfi. Inoltre, servono la cucina, i fuochi e le conoscenze per seguire una rice a. Infine, naturalmente, servono gli ingredienti freschi. Serve anche un cuoco, il quale ha opinioni, gusti e 299

Daniele Salvini - Son grossi dati, servono grossi diri i

È

Parte IV - Vite datificate

umori. La rice a non è neutrale, come non lo è l'algoritmo. Dipende da cosa si cerca o si vuole o enere. Sappiamo che la statistica non è neutra e può essere piegata a interessi particolari, ad esempio il modo in cui viene presentata l'informazione contiene già un giudizio, un punto di vista e probabilmente anche un obie ivo. Sappiamo anche che l'osservazione influenza il dato osservato, ma restiamo ancora convinti che più sono i dati, più ci si avvicina a una bella media statistica, come se la media fosse la verità. La società industriale moderna si è vantata di poter calcolare tu o, anche i rischi, e di conseguenza bilanciare le risposte. Un algoritmo applicato ai dati del traffico di una ci à potrà rispondere alla domanda di quante automobili passano al giorno per una strada, ma anche di quante ne passeranno domani, facendo una previsione che potrebbe avverarsi o meno. Non esiste una relazione tra volume dei dati e verità dell'algoritmo, esistono algoritmi belli e bru i, algoritmi discriminatori e algoritmi collusivi. Ad esempio, questi ultimi sono quelli che perme ono a due aziende concorrenti di allineare i prezzi. L'assunto che qualcosa sia “giusto perché l'ha de o l'algoritmo” non è cosa nuova. Andando a ritroso, possiamo ricordare come ci sia stato un tempo in cui era “giusto perché lo diceva il calcolatore”. Ricordo impiegati di compagnie aeree storditi dall'incongruenza tra i dati fisici e quelli stampati a schermo. “Lei mostra un biglie o stampato dalla mia compagnia con su scri a la data di oggi, ma il computer dice domani”. Se lo dice il PC, come contraddire? Ho visto gente girare a destra perché glielo indicava Google Maps, malgrado l'evidente cartello stradale dicesse “a sinistra”. Prima ancora, è stato vero perché lo diceva la radio, o perché era scri o. Immagino che in origine qualcosa sia stato vero perché era stato de o. Ad alta voce, ascoltato, indicando l'intento, coralmente. È stato anche vero perché l'ha de o la TV, poi lo ha de o la rete, lo dicono tu i, l'ha de o l'esperto, lo dice l'algoritmo. 300

301

Daniele Salvini - Son grossi dati, servono grossi diri i

Ma non è de o che ci sia sincera buona fede da parte di chi possiede i dati e pretende di usarli per avere ragione. Possiamo parlare di algoritmo populista, quando le misure ricavate dall'analisi dei dati vengono presentate come risolutive, mentre in realtà sostengono il modello di vita in forma ideologica neoliberista. L'algoritmo populista è specializzato nell'intra enere il pubblico pagante (il quale paga cedendo i suoi dati) con questioni su cui possa adeguatamente dividersi, mentre le questioni dello stato dell'organizzazione e sul funzionamento dell'algoritmo stesso non vengono svelate né discusse, ad esempio quando un algoritmo prevede i risultati ele orali o quando decide di chiudere una biblioteca perché poco frequentata. Chiamiamo neoliberismo o postmodernismo, in mancanza di una definizione migliore, il tempo successivo all'avvento della società dell'informazione6, il quale non ha prodo o nessuna New Economy, la quale presuppone l'esistenza di nuovi prodo i e nuovi processi di produzione. L'unico nuovo prodo o degli ultimi venti anni è il telefonino, poco rispe o al secolo scorso che ha visto nascere TV, lavatrice, antibiotici, penne a sfera, il Personal Computer e la stessa internet. L'economia mondiale si basa ancora sul container, decisamente uno strumento low tech che appartiene alla vec7 chia economy . Non c'è nessuna new economy ma solo una diversa dinamica di accumulazione, la scienza diventa merce tramite l'uso dei breve i e della proprietà intelle uale. L'Economia basata sulla conoscenza, o Sfru amento del general intellect, o Capitalismo cognitivo8, non si basa più sulla produzione e scambio di beni materiali, ma sulle rendite tecnologiche. I big data li possono raccogliere solo i grandi giocatori, la loro interpretazione a raverso gli algoritmi è patrimonio di chi ha i mezzi per farlo. Inoltre, i big data ben si prestano a rappresentare una rendita e altre anto bene a giocare alle bolle, alla finanziarizzazione a raverso futures e derivati. Ecco, abbiamo qui l'algoritmo speculativo, qualcuno potrà in-

vestire – o meglio scomme ere – sulla realizzazione delle sue previsioni e quotarle in borsa, naturalmente usando un algoritmo.

Parte IV - Vite datificate

D Sui casi pratici o "delle conseguenze dell'algoritmo" è ancora tu o da vedere: un comune potrà raccogliere le targhe delle automobili che passano so o le sue telecamere e incrociare questi dati con quelli delle polizze assicurative, scoprendo quali automobili viaggiano senza assicurazione e usare questa informazione per informare i suoi ci adini: "Ehi, la sua assicurazione ci risulta in scadenza, presto, provveda", oppure potrà aspe are il sedicesimo giorno dalla scadenza per multare. Un'entità di controllo governativa potrà usare i dati del traffico telefonico per fare teoremi. I social network, in particolare quello monopolista, sono in grado di monitorare la salute degli utenti basandosi sul loro status update, la frequenza e il luogo di connessione. Possono determinare se un utente è un alcolista basandosi sulle foto e sui messaggi che manda ai suoi amici, calcolare la vita sessuale di una persona e aggiustare le pubblicità basandosi su questi numeri. Chi raccoglie dati può addiri ura prevedere quando qualcuno sarà malato una se imana prima che avvenga, constatando che l'utente controlla via telefono il suo account meno frequentemente del solito dalla palestra, che si collega più frequentemente di no e e ha dunque il sonno disturbato, e naturalmente a raverso le sue dichiarazioni su quanto è stressato. Tra una se imana l'utente sarà probabilmente malato, un'informazione cui sarà interessato il padrone, e Facebook ne era a conoscenza ancora prima che si siano verificati i primi sintomi. Facebook ha tu i gli elementi per costruire un'accurata tavola di mortalità dei suoi utenti. Cosa che non è invece alla portata degli utenti stessi. Conosce i de agli sulla vita di circa un miliardo di persone. Conoscere gli individui meglio di quanto conoscano sé stessi è un formidabile mezzo di controllo9. Le informazioni sono 302

convertibili in denaro per chi ha i mezzi per processarle e venderle. I compratori ci sono: le assicurazioni per decidere una rata, i datori di lavoro per decidere un'assunzione, le banche per decidere un prestito.

303

Daniele Salvini - Son grossi dati, servono grossi diri i

A Alla domanda: “perché svendiamo con tanta facilità la nostra privacy e si donano con un click i nostri dati in cambio di una promozione, un servizio o una fe a di pizza?”, si può tentare di dare una risposta. Certo, non è che si abbia davvero una scelta. Certo, il ser10 vizio è comodo: Datemi convenienza o datemi morte! C'è l'ampio parcheggio e si diventa in fre a dipendenti. I servizi social colmano vuoti esistenziali e di gestione del tempo, sono anche intra enimento, ma ci dev'essere dell'altro. Ho cominciato a pensare che la cessione della privacy avvenga come azione colle iva per consolidare il legame sociale. Ha de o l'antropologo René Girard che noi pratichiamo ancora sacrifici umani, il sacrificio rafforza il legame sociale, come il pharmakon dell'antica Roma, un luogo dove noi proie iamo gli impulsi distru ivi. Nel nostro tempo, il sacrificio è rappresentato dalla cessione della nostra privacy, in maniera colle iva ed entusiastica. Quasi un gesto apotropaico. Per prevenire un a acco terroristico, per trovare lavoro, per tenere stre i gli amici e per favorire l'esistenza di un governo onesto, come se la trasparenza richiesta a questo scopo fosse quella dei governati e non quella dei governanti. Naturalmente, la perdita di privacy non porta dire amente questi vantaggi, e anche se un algoritmo predi ivo dirà che è così, di sicuro c'è solo la perdita dei dati e dei diri i. Non si me e in prigione un reo per punirlo, ma per rinsaldare il legame sociale11. Potremmo trovare modi più intelligenti per rinsaldare il legame sociale, ad esempio con la solidarietà e sviluppando una coscienza di classe, meglio che un senso di colpa colle ivo. Molte azioni che potrebbero sembrare inge-

Parte IV - Vite datificate

nue, come dire in rete che si lascerà la casa incustodita durante le vacanze, hanno evidentemente solo la valenza simbolica, quella di mostrarsi trasparenti, innocui tra pari e parte della colle ività. La perdita dei dati non è valutata come una perdita di libertà, in quanto la nostra libertà oggi è concepita solo in senso di incolumità. Nel modello neoliberista, ad esempio, l'insicurezza di tipo economico non viene valutata. Se perdo il lavoro è una cosa che capita, e non riguarda la sfera politica della libertà. Eppure, i dati sono importanti. L'individuo in rete è rappresentato dai suoi dati12. L'insieme di questi dati compone l'identità digitale di una persona. Le conseguenze del controllo sono visibili sul corpo. Un danno ai dati, una lacerazione come, ad esempio, l'essere bandito da un social network, fa star male e dunque si ripercuote sul corpo della persona. Quando parliamo di privacy, parliamo di diri i civili in rete; quando parliamo di dati personali questi non sono solo una merce, ma sono la rappresentazione dell'individuo in rete. Sparpagliare quei dati può nuocere all'individuo e i big data sono i dati di tanti individui. Quando parliamo di big data, parliamo di diri i. Qui ci vuole una bella Big Class Conscience. È una questione politica.

304

1) La de-anonimizzazione è una strategia usata nella raccolta dati: i dati anonimi vengono incrociati con altre fonti per ricostruire l'identità correlata. 2) Frank Zappa, Joe's Garage, Zappa Records. 1979. 3) Ippolita, Nell'acquario Di Facebook, Ledizioni, Milano 2012. 4) Vedi: Claudio Agosti, Facebook Tracking Exposed, 2017. Disponibile al link: facebook.tracking.exposed/ 5) Luca Bolognini, Diego Fulco, Pietro Paganini, Next Privacy, ETAS, Milano 2010. 6) Daniel Bell, The Coming of Post-Industrial Society: A Venture in Social Forecasting. Basic Books, New York 1973. 7) Laurence Reynolds, Bronislaw Szerszynski. Neoliberismo E Tecnologia: Innovazione Permanente O Crisi Permanente? Colibrì Edizioni, Milano 2016. 8) Bernard Paulré, Carlo Vercellone, Antonella Corsani, Le Capitalisme Cognitif Comme Sortie de La Crise Du Capitalisme Industriel, Matisse/CNRS Document, Université Paris-1, Parigi 2002. 9) Noam Chomsky, Edward S. Herman, Manufacturing Consent: The Political Economy of the Mass Media, Pantheon Books, New York 1988. 10) Give Me Convenience or Give Me Death è il titolo di un album del gruppo punk Dead Kennedys, 1987. Si tra a di una parafrasi del famoso discorso: "Give me liberty, or give me death" (Datemi libertà o datemi morte) a ribuito al rivoluzionario americano Patrick Henry, 1736-1799. 11) Émile Durkheim. De La Division Du Travail Social, 1893. 12) Stefano Rodotà, Il Mondo Nella Rete. Quali I Diri i, Quali I Vincoli, Laterza, Roma-Bari 2014.

305

Daniele Salvini - Son grossi dati, servono grossi diri i

N

Parte V

Strategie dei corpi-macchina Man Machine, pseudo human being Man Machine, super human being Kraftwerk

Nuovi codici della politica nel caos di Alberto Manconi

In tempi di incertezza si usa citare Gramsci: in particolare la sua celebre affermazione secondo cui il vecchio ordine non esiste più e il nuovo ancora non è nato – il che presuppone la necessità di un nuovo ordine dopo la crisi, ma non contempla l'ipotesi del caos Castells 2018, Ruptura

P

Parte V - Strategie dei corpi-macchina

I

n merito alle novità che a raversano i movimenti sociali e la politica nell'era dei big data, credo che in Spagna – e particolarmente a Barcellona – si siano espresse alcune tra le più interessanti esperienze di ricerca e a ivismo a livello europeo, se non addiri ura globale. Per questa ragione, ho deciso di tradurre due scri i che sono stati per me significativi nella comprensione di tale contesto. Nel territorio spagnolo – che più avanti chiameremo “laboratorio” – si è espressa negli ultimi anni una notevole e dinamica a ività di organizzazione sociale e politica, il cui punto chiave sono certamente le manifestazioni di quel 15 maggio 2011 da cui prende il nome l'intero movimento di occupazione delle piazze dei mesi successivi, 15M (conosciuto in Italia come “movimento degli indignados”). La preparazione e l'organizzazione di quelle manifestazioni, così come gli sviluppi successivi dei movimenti e delle forze politiche in qualche modo connesse con quegli eventi, registrano un chiaro vincolo con l'utilizzo strategico delle nuove tecnologie. Questo utilizzo, che prende il nome di tecnopolitica, fa da sfondo comune ai due testi trado i, dove si analizzano esperienze – certo molto diverse tra loro – cara erizzate secondo una inedita forma di azione sociale e politica che si muove nelle nuove capacità macchiniche. 308

Con il presente testo, provo quindi a discutere e commentare i diba iti politici e accademici in cui i due scri i si inseriscono. Per farlo, ho deciso di partire da alcuni problemi posti dalla traduzione stessa che mi sono sembrati indicativi di questioni più ampie. All'inizio di ogni paragrafo ho quindi posto una "questione di traduzione", nella quale so olineo, di volta in volta, una parola che risulta importante nel contesto politico dove emerge, ma che non trova una esa a corrispondenza nella lingua italiana. L'a enzione è così rivolta al significato politico che tali discordanze comportano, più che alla ricerca di una traduzione o imale; esercizio quest'ultimo che, oltre a non essere nelle mie corde, è di difficile applicazione al di fuori delle situazioni concrete in cui le parole in ogge o agitano e muovono ciò che le circonda. «C'è sempre un elemento di a rito, di resistenza del contesto materiale – di quelle che Gramsci chiama le “situazioni concrete particolari” – nella traduzione: e sono proprio questi elementi di a rito e di resistenza, quelli su cui bisogna concentrarsi politicamente»1.

Questione di traduzione: Representación Nella traduzione italiana di questo termine, quando applicato in ambito sociale e politico – sopra u o in riferimento ai sistemi partitici e sindacali – si utilizza "rappresentanza". Questa, tu avia, nella sua accezione specifica, non trova corrispondenti nella lingua spagnola, al pari delle altre principali lingue europee come inglese, francese e tedesco. In esse non esiste la "rappresentanza", ma viene concepita come forma specifica della "rappresentazione". Parlare di "crisi della rappresentanza", come fanno i testi qui trado i e come avviene da decenni nel diba ito politico, significa dunque – da altre prospe ive linguistiche – parlare di una crisi 309

Alberto Manconi - Nuovi codici della politica nel caos

₁. D

Parte V - Strategie dei corpi-macchina

ben più generale di quella dello specifico istituto moderno di mediazione sociale e politica? La rappresentanza è stata forzosamente sovrapposta al conce o di democrazia, fino a rendere le due identiche nella costruzione 2 3 moderna della democrazia liberale rappresentativa . La ro ura di questa giustapposizione è oggi sancita e visibile, ma si tra a di qualcosa di più profondo del semplice invecchiamento del meccanismo di decisione a raverso la delega. È una crisi che coinvolge a tu o tondo il «potere inscri o nelle nostre menti»4 e riguarda quindi, oltre il sistema politico istituzionale, la stessa rappresentazione intesa come produzione di senso nella “relazione tra cose, se5 gni e conce i” . La crisi della rappresentanza va quindi intesa come la declinazione specificatamente politica della complessiva crisi di senso che le rappresentazioni consolidate subiscono nel dispiegarsi della società in rete. I testi trado i narrano esperienze che configurano a mio avviso delle possibili "linee di fuga" da questa crisi, in quanto alternative all'altezza della realtà tecnologica che viviamo. È ancora possibile immaginare metodi per decidere insieme sulle nostre vite, senza delegare tu o a un "uomo forte" o a un algoritmo sconosciuto? Quali codici sono possibili, infine, per costruire una nuova demo6 crazia nel “collasso caotico dell'ordine politico” che viviamo?

O

U

A

Nell'era dei big data, vediamo le due più generali prospe ive sul mondo, utopica e apocali ica, rafforzarsi reciprocamente, al punto che queste investono in maniera dirompente il campo politico. In particolare, però, questo campo è a raversato da secoli da una diatriba che vedeva già applicare le due opposte visioni al conce o di opinione pubblica e quindi a quello, sempre più collegato, di rappresentanza.

310

311

Alberto Manconi - Nuovi codici della politica nel caos

Lo sviluppo dell'opinione pubblica, che è stato ricostruito da Habermas7 come cruciale per la stru urazione della politica moderna, è giocato in una tensione costante tra l'imporsi come inevitabile mediazione e il rivelarsi manipolazione delle masse. Nutrita dal binomio di mediazione e manipolazione, l'idea di rappresentanza si è forgiata e imposta come contrappeso del cara ere democratico8, fino a pretendere di coprire e comprendere la stessa idea moderna di democrazia. L'utopia e l'apocalisse non sono altro che proiezioni ridu ive volte a coprire l'inadeguatezza della stessa impalcatura politica dello Stato moderno. Infa i, di fronte al cambio di paradigma oggi intervenuto in ambito sogge ivo, sociale, economico e tecnologico, i pilastri della democrazia liberale nazionale quali la sovranità, l'opinione pubblica nazionale e sopra u o la rappresentanza, si sgretolano. Si apre così davanti a noi un largo campo di ba aglia che è popolato da pia aforme arricchite di qualsiasi tipo di (nostra) informazione, estrapolate e processate da potenti macchine. Questo campo di ba aglia, in cui risultiamo volenti o nolenti immersi, seppur apparentemente indifesi, è adombrato da descrizioni utopiche e apocali iche che giustificano indire amente la pretesa di tornare alla pomposità delle vecchie stru ure dello Stato. Ciò su cui più fa presa tale "ritorno" è probabilmente la legi imazione che un tempo derivava dal sistema di rappresentanza, e dall'immagine (o rappresentazione) della società che esso riusciva a (far credere di) restituire corre amente. La sua legi imazione politica, inscri a nel meccanismo di decisione generale stabilita a raverso una delega individuale periodica e duratura, è oggi impensabile nel caos di preferenze continue e dati personali in cui navighiamo.

Parte V - Strategie dei corpi-macchina

C La relazione tra politica e dati, cioè l'enorme quantità di segni prodo i e incamerati negli spazi virtuali, è sempre più complessa, ma risulta al tempo stesso innegabile, palese. Dobbiamo realizzare innanzitu o che la previsione e manipolazione del significato a ribuito agli eventi mediatici da parte di un forte a ore (politico, economico, mediatico, quale differenza ormai?) è oggi non solo tecnicamente possibile, ma quotidianamente praticata a raverso l'analisi di quei dati o segni. Di questo vi è un chiaro esempio: la concreta possibilità di una manipolazione nelle elezioni che hanno reso Donald Trump presidente degli Stati Uniti. Gli stessi ambigui diba iti globali su postverità e fake news, non parlano in fondo di questa costante manipolazione quotidiana, che solo in maniera episodica può emergere nel campo ele orale? Nel campo ele orale si evidenzia infa i, con tragica e ironica semplicità, l'inadeguatezza al sistema-rete da parte del modello politico che si suppone vigente, cioè della democrazia liberale rappresentativa. Questa si mostra oggi come un software politico per il quale ci troviamo privi di aggiornamenti disponibili, un'applicazione ormai del tu o vulnerabile agli a acchi di chi dispone delle (enormi) risorse economiche, mediatiche e tecnologiche necessarie. In questo senso, il ritorno di fiamma del populismo9, può risultare come la capacità di hackerare la democrazia liberale, irrompendo con elementi apparentemente nuovi in questa vulnerabile applicazione, senza doverne seguire il percorso canonico. Tali a acchi portati avanti dal populismo, volti al “ritorno allo Stato”, appaiono come operazioni superficiali, esteriori, che anche quando riescono a sostituire gli a ori e le parole chiave della politica, non possono modificarne i codici e la stru ura di base. Seguendo la metafora, l'hacking prodo o dal populismo sembra un 312

313

Alberto Manconi - Nuovi codici della politica nel caos

semplice defacing provocatorio, mentre la macchina sociale, ormai ben diversa dal vecchio hardware dello Stato-nazione, funziona a regime. La manipolazione è all'ordine del giorno come strumento nella disputa quotidiana sul senso politico a ribuito agli eventi mediatici, tanto da parte degli a ori chiamati populisti quanto da quelli indicati, all'opposto, come tecnocratici. La coppia populisti/tecnocratici esprime una politica fondata sul nemico10, edulcorato e racchiuso con la rappresentanza in avversario11. Nel momento in cui cade la speciale funzione di mediazione della rappresentanza, questa, svuotata, esaspera il suo cara ere manipolatorio, volto alla ca ura delle emozioni, del riconoscimento, delle identità. Possiamo trovare esempi pratici di come l'intero meccanismo ele orale me a in mostra sulle reti sociali la perdita di senso della propria funzione di mediazione. Se guardiamo all'utilizzo massiccio dei bot nelle reti sociali più accreditate per la discussione pubblica12, a cui ricorre ormai qualunque partito politico su Twi er, o al semplice acquisto di migliaia di like fasulli su Facebook. Bisogna notare che queste operazioni – sempre più centrali nella permanente campagna ele orale odierna – non puntano, come nella classica propaganda, a suggerire esplicitamente cosa si dovrebbe pensare, ma forniscono piu osto rappresentazioni distorte e arbitrarie di cosa pensino gli altri, o meglio di cosa pensi la rete. Emerge così l'importanza che le reti sociali assumono nella quotidiana (guerra sulla) costruzione di una rappresentazione della società. Questa è sempre più fru o della auto-comunicazione di 13 massa , ma qui si insinuano anche, con dissimulazioni sempre più sofisticate, a ori con enormi risorse e strategie oscure volte a imporre la loro informazione, analizzando, processando e ca urando la nostra comunicazione.

Il collasso della rappresentazione produce così un doppio moto: verso l'alto, il potere tenta con degli stratagemmi di ristabilire una informazione gerarchica unidirezionale, manipolando le reti sociali private, solo apparentemente orizzontali. Allarga lo spazio della sovranità, e vuole un'opinione pubblica globale che lo legi imi, per dirla come Habermas. Verso il basso, però, la comunicazione è autonoma e potente, non si lascia comprimere14. Per quanto studiata e monitorata costantemente e in ogni suo segno rido o a mero dato, la previsione può sempre rivelarsi fallace. Infa i, una rete, per quanto rappresentata e visualizzata alla perfezione, può sempre incorrere in un elemento nuovo che ne riconfigura le relazioni. La comunicazione molti-a-molti è organizzazione nel, e del, caos.

Parte V - Strategie dei corpi-macchina

D Nel collasso della rappresentazione si inserisce la crisi della democrazia liberale a cui ci riferivamo, e del suo principale istituto tecnico-politico di mediazione: la rappresentanza. Con la crisi delle stru ure di inter-mediazione, la comunicazione dal basso contende dire amente il terreno della decisione, presunto a ributo della ufficiale informazione dall'alto. Ma se la decisione è contesa in modo dire o, dove va a finire la mediazione? Ad oggi, il processo di costruzione di significato si scopre ipermediato dall'interazione costante con le macchine in rete. D'altra parte, però, la rappresentazione formulata a raverso la rete risulta dire a e a iva per i sogge i coinvolti, che me ono in discussione tu i gli istituti tradizionali di mediazione che favorivano la costruzione del senso comune nazionale. Dai mezzi di comunicazione di massa alle ufficiali rappresentanze sociali e politiche, arrivando fino alla stessa stru ura linguistico-grammaticale ortodossa15, tu e le categorie canoniche e condivise con cui era pensata la 314

Dato che gli algoritmi non possono essere slegati da assemblaggi sociali più ampi, la loro materializzazione all'interno del red stack implica il diro amento delle tecnologie dei social network, l'invenzione di nuovi tipi di plug-in, la costruzione di nuove pia aforme a raverso un abile bricolage delle tecnologie esistenti e l'invenzione di nuove tecnologie17

315

Alberto Manconi - Nuovi codici della politica nel caos

società appaiono contestate in maniera sempre crescente nella loro presunta univocità. Le forme di mediazione, dunque, non spariscono ma sono sempre più effimere e istantanee, perché sogge e a continue contestazioni, incorporate nei funzionamenti delle macchine. Tu o ciò significa che la delega un tempo a ribuita a persone fisiche scelte con il voto deve essere oggi a ribuita agli algoritmi secondo cui agiscono le macchine in rete? No, perché questo ci riporta a una forma utopica e tecnocratica di legi imazione della decisione. D'altra parte, però, quanto de o sopra a proposito del populismo ci aiuta a ricordare che, se nessuna delega a un algoritmo imposto dall'alto ci perme e di riappropriarci della decisione, allo stesso modo nessun isolato salvatore della patria si potrà appropriare in modo duraturo della legi imità di decidere. Siamo circondati da profeti16, ma nessuno di questi può riuscire a restaurare davvero la rappresentanza, e con essa la vecchia legi ima decisione liberal-democratica. Per imporre dal basso una decisione realmente democratica, qualsiasi effimera mediazione (o leadership temporanea), non può che emergere come ta ica di un assemblaggio macchinico, che costruisce dire amente e in comune i propri algoritmi. I testi provenienti dal “laboratorio spagnolo” che ho trado o, sono a mio avviso esperimenti di diro amento degli algoritmi dominanti e costruzione di nuovi.

Parte V - Strategie dei corpi-macchina

₂. T

-

Questione di traduzione: empoderamiento/empoderarse: Il conce o di empoderamiento, mutuato dire amente dall'inglese empowerment, non trova traduzione dire a in termini italiani che possano dar conto della sua rilevanza nei processi sociali e politici. "Emancipazione" e "potenziamento" non ne restituiscono il significato, e tantomeno lo fa l'utilizzo del termine inglese, utilizzato quasi sempre in senso manageriale e di costituzione individuale. Il termine è usato, come verbo, in sole due occasioni nei testi proposti. Ma il conce o risulta essenziale in quanto esprime al meglio il processo di sogge ivazione intervenuto all'interno dei movimenti di occupazione delle piazze e delle reti sociali esplosi dal 2011 in tu o il mondo. Il processo in questione descrive – conne endoli – un insieme di fenomeni: diffusione di autonomia e auto-determinazione, riappropriazione consapevole della potenza macchinica e delle capacità proprie delle persone coinvolte in azioni comuni, delegi imazione del potere gerarchico in quanto sistema rappresentativo che non può comprendere l'irrappresentabile ricchezza in costituzione nel caos delle piazze e delle reti sociali. Con l'a enzione rivolta alla dimensione tecnologica espressa dal conce o di empoderamiento in riferimento ai movimenti moltitudinari, è da so olineare come nel 15M gli stessi meccanismi di analisi e rappresentazione dei movimenti vengano riappropriati. L'utilizzo del termine "tecnopolitica" in questo preciso contesto, e la sua fortunata associazione con i grafi risultanti da pionieristiche analisi e visualizzazioni di dati, rendono conto infa i dell'empoderamiento tecnologico che ha travolto il sistema mediatico gerarchico a raverso un movimento orizzontale. Un movimento composto di corpi, macchine e messaggi.

316

317

Alberto Manconi - Nuovi codici della politica nel caos

La definizione di tecnopolitica che troviamo nel testo di Toret, incentrata sull'uso strategico delle tecnologie in relazione al 15M spagnolo, ha trovato un secondo sviluppo nel libro Tecnopolitica. Po18 tenza delle moltitudini connesse , coordinato dallo stesso autore e con vari contributi, tra i quali i tre autori del secondo testo. L'a enzione raccolta da questi studi e altri che da varie parti del mondo hanno osservato i movimenti sociali emergenti in relazione alle tecnologie19, ha contribuito a informare un diba ito globale che, da prospe ive molto diverse, ne ha accolto il nucleo interpretativo. Ad esempio, la performance corporale alla base dei movimenti de20 scri i dalla Butler è a più riprese vincolata all'utilizzo dei social media. I corpi si mostrano proprio in quanto agiscono insieme e in rete. La le ura marxista di Negri e Hardt in Assembly ha punti di conta o ancora più profondi. Innanzitu o, la definizione di tecnopolitica basata sull'uso strategico delle tecnologie da parte dei movimenti ci riporta a una priorità degli stessi su qualsiasi forma temporanea di rappresentanza o leadership. La "strategia ai movi21 menti" significa allora che la visione politica di lungo periodo pertiene alla moltitudine connessa, e nel caso dei movimenti leaderless si assiste alla creazione di un nuovo ambiente in cui la potenza che viene valorizzata può “solo” essere colle iva. Inoltre, la questione della riappropriazione del capitale fisso – relativa al cervello sociale, ai saperi incorporati nella macchina e appropriati dal capitale, secondo il Marx del Frammento sulle Macchine – coglie in termini marxiani la profonda "mutazione della sogge ività sociale" che Toret indica come materia prima del 15M. Le nuove esistenze digitali sono necessariamente resisten22 ze , e infa i implicano, oltre all'enorme potenza colle iva, una profonda sofferenza individuale.

Parte V - Strategie dei corpi-macchina

È qui il paradosso della nuova sogge ività nel capitalismo cognitivo, che "i cervelli lavorino sempre più insieme, ma i corpi siano 23 sempre più separati" . Ecco allora la fondamentale importanza e novità dei movimenti del "ciclo Occupy": prendere spazio per dare corpo fisico ai cervelli già connessi in rete. I movimenti nelle piazze occupate danno corpo alla mente colle iva della rete. Manuel Castells è senza dubbio lo studioso più dire amente vicino ai lavori sulla tecnopolitica. Nel libro sui movimenti-rete24, basa infa i esplicitamente il capitolo sul 15M (e molte ipotesi teoriche) sulla testimonianza dei due (al tempo) a ivisti di Democracia Real Ya: Arnau Monterde e Javier Toret. Inoltre, il suo prologo al libro Tecnopolitica y 15M (pubblicato in una collana da lui dire a) esprime un raro e forte entusiasmo. Il principale apporto teorico riguarda a mio avviso la descrizione di come i movimenti-rete diano vita a nuovi spazi pubblici e politici, a raverso l'interazione continua tra reti sociali e spazio urbano occupato, che costituiscono "comunità istantanee di pratica trasformativa"25. La definizione risulta illuminante quanto precisa, ed è per questo che utilizzerò il termine “movimenti-rete” in riferimento a questi fenomeni. Tu avia, emergono subito dei problemi di metodo e prospe iva analitica. L'autore dichiara di basare la propria indagine sulle motivazioni individuali a causa di un esplicito rifiuto di idee, ideologie e programmi26. Ciò non significa certo ridurre tu o a un modello classico di scelta razionale, poiché il ruolo fondamentale è al contrario giocato dalle emozioni. «A livello indivi27 duale, i movimenti sociali sono movimenti emotivi» . Ma come può un movimento sociale basato sulla logica di rete, essere osservato dal solo livello individuale? Ciò, se apparentemente giustificato nelle metodologie delle scienze sociali, esula a mio avviso dalla prospe iva tecnopolitica che ricerca nei dati espressi dai movimenti-rete il funzionamento della mente colle iva28. 318

319

Alberto Manconi - Nuovi codici della politica nel caos

Se da un lato la mente colle iva agisce continuamente nella cooperazione mediata dalle macchine, è dentro l'evento distribuito, nelle piazze, che prende corpo lo sciame di cui parla Toret. Uno 29 sciame non metaforico , ma prodo o nell'insurrezione del corpomacchina. Azzardiamo poi che le piazze, le assemblee e le azioni, coordinate a raverso social network e dispositivi digitali, svolgano il ruolo di interfaccia30 fisica, perme endo l'interazione tra i singoli partecipanti e la macchina del movimento-rete. Qui, nell'apprendimento e nella creazione di nuovi codici politici, sta l'empoderamiento, il cui valore si esprime solo in quanto processo colle ivo, poiché la capacità acquisita avviene a raverso l'incorporazione da parte dei partecipanti di linguaggi specificamente relazionali e 31 32 politici . La stessa inoperosità prospe ivista del 15M si può vedere come un esodo colle ivo, irrecuperabile nei termini dell'individuo neoliberale. Le (enormi) capacità giocate nel movimento non funzionano come a ributi individuali ma come potenza (del) comune. L'impossibilità di una valorizzazione individuale di questi processi colle ivi di apprendimento e creazione non implica tu avia l'esclusione di una valorizzazione capitalistica. Il nuovo capitali33 smo si basa su pia aforme che funzionano come le reti sociali per i movimenti-rete, e quindi possedendo l'infrastru ura informatica si appropriano delle stesse interazioni che vi avvengono. Persino i singoli coordinati nei movimenti-rete contribuiscono dunque alla valorizzazione delle stesse pia aforme che utilizzano e arricchiscono di dati, seguendo quella che Fumagalli chiama 34 “sussunzione vitale” . Le prospe ive osservate in questo paragrafo assumono, seppur in modo diverso, che sono i movimenti sociali, con l'empoderamiento colle ivo che generano, a trasformare il mondo. Di fronte alle nuove cara eristiche dei movimenti-rete, si aprono però delle questioni urgenti.

Una volta passato l'evento distribuito, l'insurrezione, come possono queste “comunità istantanee” non crollare nuovamente nell'isolamento depressivo dei corpi? Vi sono nuovi codici o istituzioni che possono mantenere vivo lo sciame e le sue “pratiche trasformative” reticolari, nonostante la violenza e la rapidità con cui queste vengono riassorbite negli algoritmi delle pia aforme che dominano l'economia dei dati?

Parte V - Strategie dei corpi-macchina

₃. N

'

-

Questione di traduzione: expolio/expoliacion. Il termine può essere trado o in italiano, a seconda dei contesti, come: so razione, saccheggio o spoliazione. Sebbene quest'ultima soluzione abbia cara ere religioso35, mi sembra interessante tener presente la dimensione corporea di questa "spoliazione" in lingua spagnola. L'altra cara eristica che mi preme so olineare riguarda invece il significato legato alla realtà coloniale che la parola spa36 gnola expolio porta con sé . L'expolio è dunque una so razione coloniale, applicata sui corpi e sulle ricchezze comuni, a partire dalle terre di conquista. Questa concezione, tanto carica di significato storico, risulta particolarmente utile per pensare il capitalismo predatorio odierno, che applica il suo quotidiano expolio neoliberale. La parola appare in realtà solo una volta nel testo di Toret, in riferimento al saccheggio sulle vite operato dal sistema bancario (principale nemico del 15M). Tu avia, mi sembra importante posare su di esso la nostra a enzione perché, in accordo con quanto ricostruito sin qui, indica un modo di dare un nome in lingua spagnola a quel meccanismo di dispossession con cui – in lingua inglese – David Harvey ha efficacemente descri o il funzionamento del capitalismo estra ivo contemporaneo.

320

321

Alberto Manconi - Nuovi codici della politica nel caos

Questa nuova forma del capitalismo è al centro del diba ito marxista contemporaneo, giocato sopra u o a raverso il recupero 37 38 dei termini di accumulazione e riproduzione . 39 Le operazioni estra ive del capitale si espandono infa i a se ori lontani da quelle primarie (minerarie e di agro-business) e invadono le metropoli a raverso il campo che qui ci interessa focalizzare: quello dell'appropriazione e del governo dei (nostri) dati. Tali operazioni sono portate avanti dalle pia aforme estra ive, cioè da infrastru ure digitali private in grado di so rarre, incamerare e processare enormi quantità di dati. La logica di queste pia aforme viene portata alla luce anche nella sua dimensione normativa, oltre che economica, e contrapposta al40 la logica del comune come modo di produzione . Alla pia aforma estra iva si contrappone quella cooperativa, all'accumulazione e all'expolio si contrappone l'autonomia del comune. Nel momento in cui la vita intera è so oposta a un expolio operante a raverso la datificazione, come cambia la politica, e il suo rapporto con le reti? Come distinguere strumenti davvero utili alla cooperazione da pia aforme estra ive? Non avendo la pretesa di giungere ora alla soluzione della questione, possiamo però provare ad analizzare proge i che si pongono questo orizzonte politico, come la pia aforma Decidim analizzata nel secondo testo trado o, per provare a tracciare poi alcuni distinguo con altre esperienze note al pubblico italiano. Nell'odierna crisi economica e della rappresentanza, emergono i movimenti-rete, inventando codici e immagini di una nuova democrazia possibile, che prendono i nomi di democrazia radicale, democrazia reale e democrazia in rete. Queste denominazioni, fortemente presenti anche nei testi degli autori che ho finora citato, provano a dar conto dell'immaginazione politica che i movimenti-rete, e il 15M in particolare, hanno risvegliato.

Parte V - Strategie dei corpi-macchina

La democrazia reale e in rete è dunque presente, e centrale, nei testi qui trado i e discussi, senza definirla rigorosamente (ma come potrebbe essere altrimenti?). Per questo motivo, non mi sono finora concentrato su questi termini, provando piu osto a descrivere il contesto da cui essi emergono. Credo però che, avviandomi alle conclusioni, sia necessario da un lato sancire il ruolo che la democrazia reale e in rete ha nell’immaginazione politica che emerge dai movimenti-rete, dall'altro indagare la relazione tra questa immagine colle iva e gli strumenti tecnopolitici di cui alcuni a ori politici si sono dotati per far fronte alla crisi della democrazia liberale. Infa i, dopo i primi tentativi della fallita “Costituzione in Crow41 dsourcing” islandese e delle provocatorie proposte avanzate da 42 Democracia Real Ya in Spagna , sono state costruite più stabili “reti politiche”. Alcune di queste, come la pia aforma Decidim, sono strumenti potenzialmente produ ivi di organizzazione democratica, che possono alludere a una nuova politica. Altri, però, possono a mio avviso leggersi come nuovi strumenti di ca ura della capacità di immaginare e agire in comune. Quindi come reti politiche estra ive. Ma come possiamo marcare delle distinzioni? Questo dubbio mi è risultato cocente perché, presentando un testo in lingua italiana su un software di partecipazione, non si può eludere il caso di gran lunga più noto al pubblico italiano in termini di partecipazione online e “democrazia in rete”: il Movimento 5 Stelle e il suo “sistema operativo”, cioè la pia aforma Rousseau. Per sgombrare il campo dal rischio di guardare a esperienze estere, situate politicamente nel contesto descri o, con uno sguardo troppo italiano, mi accingo a segnalare alcune differenze facilmente riscontrabili nei due software in questione, Decidim e Rousseau. Senza la pretesa di compendiare questa introduzione con una rigorosa analisi dei due software, sviluppati a partire da esi322

323

Alberto Manconi - Nuovi codici della politica nel caos

genze differenti43, mi limito a porre l'a enzione su alcune cara eristiche fondamentali che modulano idee di democrazia in rete molto diverse. Al fondo di tu o, una questione: mentre la pia aforma Decidim è costruita in codice aperto, perme endo ai partecipanti il controllo e l'intervento su tu i i livelli della stru ura tecnologica fino al tra amento dei dati, Rousseau ha un codice sorgente privato44. In questo modo, nessuno può sapere esa amente come funzioni (e tantomeno intervenirvi), e verificare con trasparenza i dati delle votazioni che vi avvengono al ne o della gestione dei dati operata 45 dalla stessa azienda che detiene il codice . Questo aspe o fondamentale, che la pia aforma Rousseau condivide tristemente con le grandi reti sociali commerciali come Facebook, ha incontrato risvolti, a seguito di a acchi informatici subiti dalla stessa pia aforma e dal blog di Grillo, in un provvedimento del Garante della privacy che allerta sul tra amento dei dati personali e sulla mancata segretezza del voto46. Tu o ciò che concerne Decidim è invece sviluppato a raverso una comunità ci adina aperta, con riunioni fisiche periodiche in cui vengono discussi e decisi tu i gli aspe i riguardanti la pia aforma e le sue implementazioni. I principi utilizzati per codice, contenuti e tra amento dei dati sono facilmente rintracciabili nel “Contra o Sociale”47 del proge o, mentre il codice libero (con licenza GNU Affero General Public License v3.0) può essere le o, commentato, migliorato e copiato nella pia aforma di programmazione cooperativa Github48. La comunità che sviluppa il proge o, in rete e negli incontri dal vivo, è chiamata MetaDecidim e costituisce una “rete tecnopolitica” che, come dicono gli autori nel testo «situa la costruzione delle sue tecnologie al centro della propria azione politica». Questa comunità è indicativa dell'idea di democrazia in rete promossa, in quanto l'infrastru ura pubblico-comune di Decidim vuole rivolgere il

Parte V - Strategie dei corpi-macchina

finanziamento pubblico allo sviluppo di uno strumento in grado di potenziare le comunità urbane e la loro autonomia politica. Tale infrastru ura informatica, quindi, non si arroga il diri o di sostituire le pratiche democratiche esistenti, con un freddo trasferimento dall'analogico al digitale, ma tenta anzi di fornire a queste pratiche un sostegno tecnologico-politico in grado di integrare la partecipazione a distanza. A conferma di ciò, in un altro articolo49, è descri a nel de aglio la formazione del Piano di A uazione Municipale del Comune di Barcellona a raverso la pia aforma Decidim con le varie assemblee tematiche e di distre o, il cui processo ha portato al confronto quasi quarantamila partecipanti (24.028 online e 15.021 in incontri fisici) e 1.494 organizzazioni. La politica che ne risulta è ancora qualcosa fa o a raverso i corpi e le aggregazioni sociali nelle assemblee, a cui si aggiungono le funzioni di deliberazione e partecipazione a distanza, coordinando e organizzando il tu o a raverso Decidim. Il proge o esprime dunque un'idea di democrazia in rete volta a de-centralizzare la decisione, senza renderla però un mero aggregato di preferenze individuali, ma riconoscendo e valorizzando le aggregazioni sociali esistenti al di fuori delle istituzioni pubbliche. Questa concezione è infine certificata dalla critica alla centralità della figura del prosumer individuale che fonda le reti sociali dominanti, Decidim cerca invece di dar rilevanza agli a ori politici, tali in quanto colle ivi. Al contrario, la logica degli strumenti di partecipazione del M5S, so o il famoso lemma “uno vale uno”, persegue un'idea di democrazia che “supera la delega ai partiti” a raverso la rete, rendendo così dire o il rapporto tra i singoli e “il governo della cosa pubbli50 ca” . Questa formulazione della democrazia non questiona però, e anzi rafforza, i due poli del rapporto che intercorre tra individuo e governo. L'universalismo di questi due termini viene posto al 324

325

Alberto Manconi - Nuovi codici della politica nel caos

centro di una concezione della politica in cui la maggioranza, calcolata facilmente con il voto in rete di ogni individuo isolato, determina dire amente la decisione. Qui non vi è evidentemente alcun intento di valorizzazione o riconoscimento dell'autonomia decisionale di comunità o aggregazioni sociali. A questa concezione è probabilmente dovuta la più diffusa critica al M5S, tragicamente rappresentata nei media dagli oppositori, di praticare una politica virtuale, senza corpo e smaterializzata nella rete. Senza concentrarmi qui su tale polemica, che meriterebbe una tra azione articolata che tenga conto della faziosità delle critiche alla formazione di Grillo, vorrei rifle ere piu osto su quel rapporto che si presume dire o. Lo studioso Marco Deseriis ha chiamato con l'ossimoro “parla51 mentarismo dire o” ciò che per il M5S è democrazia dire a. Infa i, all'aspe o deliberativo si unisce, e diventa preminente, “l'estensione al web di procedure della democrazia liberale”, in una chiave che punta a legi imare il lavoro dei suoi rappresentanti in parlamento. Inoltre, Rousseau non perme e lo scambio di opi52 nioni tra utenti, rimandato al blog di Grillo . Insomma, la rappresentanza è rafforzata dal meccanismo di voto su questioni che vengono segnalate come cruciali dall'alto, dunque a discrezione dei rappresentanti o, più spesso, da Grillo. Oltre questo rafforzamento, che potrebbe avere il suo senso se non fosse nascosto dietro i proclami di democrazia dire a, mi interessa so olineare la forma di mediazione che mi pare fondamentale, più della rappresentanza: la mediazione del codice alla base di Rousseau. Recentemente infa i, sono riemerse le questioni sulla 53 mancata segretezza del voto e sulla proprietà dell'intera infra54 stru ura da parte di Davide Casaleggio , nonostante la creazione dell'Associazione Rousseau avesse tentato di nasconderle. Più che all'incompetenza e al complo o con cui i quotidiani italiani scrivono di queste questioni, credo sia utile guardare a Rousseau come un risultato della strategia politica e aziendale.

Parte V - Strategie dei corpi-macchina

Non potendo intervenire sul codice, i partecipanti risultano semplici utenti che rispondono sulla pia aforma alle domande poste dai vertici del “movimento”. La pia aforma, insieme alle altre del M5S (primo tra tu i il blog), perme e quindi a chi la controlla, forte del suo rapporto asimmetrico con gli utenti, di trarre continue informazioni, processarle e me erle a valore. Che tale valore in questo caso non risulti (solo) economico, ma anche e sopra u o politico, non nega il cara ere estra ivo del M5S e delle sue pia aforme. Questo cara ere di expolio è anzi ancor più interessante se guardiamo all'ipotesi che, dal principio, il M5S si sia imposto nell'agenda politica sfru ando le incapacità organizzative dei mo55 vimenti studenteschi e sui beni comuni , e appropriandosi degli stessi temi. In ultimo, potremmo dire che l'expolio più grande operato dal M5S riguarda la stessa parola “movimento”, che è ormai identificata, nei media italiani, con la formazione di Grillo. Forse questa le ura del M5S come prototipo di macchina politica, che segue la logica estra iva oggi vigente nell'economia dei dati, è fin troppo rischiosa per un testo che vorrebbe solo suggerire a enzione verso un'esperienza estera che non sia viziata da vicende politiche stre amente italiane. Tu avia, se il proge o Decidim si propone – con tu i i limiti del caso – di costruire una rete politica a codice aperto in grado di sostenere e potenziare lo sviluppo organizzativo dell'intelligenza colle iva, non è per un qualche vezzo perfezionista. “Potenziare, evitare la ca ura” dell'intelligenza colle iva in rete, chiamata “auto-comunicazione della moltitudine”56, anche sul piano della partecipazione politica, è obie ivo fondamentale per una possibile democrazia di questo secolo. Se l'expolio e la logica estra iva, già vigenti nei principali ambiti economici, riescono a coprire l'ambito della partecipazione politica – che ne sia o meno il M5S un prototipo – può diventare difficile immaginare una politica diversa. La ca ura può pervadere la stessa immaginazione che i movimenti-rete hanno prodo o? 326

Decidim mi pare una parziale, ma urgente, risposta in questa direzione.

₄. I

Prima di chiudere questa introduzione e lasciare il le ore ai testi in questione, ancora alcuni appunti sul contesto in cui questi hanno maturato. In primo luogo, il contesto politico di riferimento: già chiamato laboratorio spagnolo, il nome si riferisce a un periodo iniziato con il movimento 15M e – forse – non ancora terminato. Un periodo di sperimentazioni politiche e sociali di natura estremamente varia, impossibile da riassumere, che ha trovato in un certo momento la fervente a enzione delle più svariate anime progressiste a orno alla rapida ascesa di Podemos. Di questo nuovo partito si è parlato anche in Italia, ma non se ne fa in questo testo menzione57, perché in effe i non ha (quasi) nulla a che fare coi temi tra ati. Ma dà la cifra della ricchezza e varietà degli esperimenti politici. Un'altra esperienza politica che ha fa o discutere molto è sicuramente la vi oria al comune di Barcellona della "alcaldesa" Ada Colau, fino ad allora portavoce di una pia aforma di lo a per l'abitare e contro l'indebitamente (Plataforma de Afectados por la Hipoteca, PAH), con la sua formazione Barcelona En Comù. Non mi è qui possibile svolgere una riflessione approfondita su questa esperienza e sulla spinta municipalista in cui essa si inserisce. Tu avia, è necessario tener presente che il proge o Decidim, in quanto infrastru ura pubblico-comune, ha trovato forte sostegno e impulso nei dipartimenti di tecnologia e partecipazione del Comune di Barcellona. L'idea di democrazia partecipativa promossa, le capacità tecnopolitiche messe in moto, l'etica del software libero, nessuna di queste cara eristiche si sarebbero sviluppate in questo modo senza le particolari condizioni politiche. In sostanza, l'intero proge o Decidim, per quanto sempre più indipendente, non è pensa327

Alberto Manconi - Nuovi codici della politica nel caos

B

Parte V - Strategie dei corpi-macchina

bile al di fuori della traie oria politica di Barcelona En Comù. Come a sua volta la vi oria delle elezioni da parte di un'a ivista come Ada Colau non sarebbe stata possibile senza il movimento (tecnopolitico) 15M. C'è insomma un filo, o una rete, che conne e questi eventi sociali e politici tra loro e con esperienze di comunicazione innovativa e sperimentazione tecnologica. Gli autori dei testi condividono, tra loro e con molti altri, un "ambiente" fa o di a ivismo, ricerca e programmazione che me e al centro dell'immaginazione politica le nuove tecnologie, le reti digitali e sociali che stru urano la realtà produ iva e riprodu iva che viviamo. Questo ambiente, seppure condivida un armamentario presente in tu i i movimenti-rete, si è sviluppato come un particolare centro, quasi una scuola. Un hub di capacità macchiniche e organizzazione politica che è mutato nel tempo a raversando già diverse fasi tecnologiche. Datanalysis15m58, tecnopolitica.net e oggi MetaDecidim59 mi sembrano esperienze utili da “tradurre” in senso ampio, poiché – nel variegato ambiente di a ivismo sociale e sperimentazione tecnologica che ospita Barcellona – hanno tentato o tentano di costruire in comune degli strumenti politici che risultano urgenti e indispensabili nell'era dei big data.

328

1) Sandro Mezzadra, Leggere Gramsci oggi, in Orizzonti Meridiani, Briganti o Emigranti, Ombre Corte, Verona 2014, p. 34. 2) Micheal Hardt, Antonio Negri, Moltitudine, Rizzoli, Milano 2004. 3) Manuel Castells, Ruptura, Alianza Editorial, Barcelona 2017, e link con grafi e dati in merito alla crisi di rappresentanza e rappresentazione: alianzaeditorial.es/castells_ruptura 4) Manuel Castells, Potere e Comunicazione, EGEA, Milano 2009. 5) Stuart Hall (a cura di), Representation, SAGE, Londra 1997, p. 19 (Traduzione dell'Autore). 6) Manuel Castells, Ruptura, op. cit. 7) Jürgen Habermas, Storia e critica dell'Opinione Pubblica, Laterza, RomaBari 2005. 8) Micheal Hardt, Antonio Negri, op. cit. 9) Senza voler banalizzare il diba ito serio e le conce ualizzazioni utili, credo che il diba ito mediatico sul populismo abbia impedito qualsiasi tipo di definizione sistematica, per questo mi riferisco al termine solo metaforicamente. 10) Carl Schmi , il conce o di “politico” in Carl Schmi , Le categorie del politico, il Mulino, Bologna 2013. 11) Iñigo Errejon, Chantal Mouffe, Construir pueblo, Icaria Editorial, Barcelona 2015. 12) Vedi: motherboard.vice.com/it/article/bjy4a3/la-botnet-di-ma eosalvini-colpisce-ancora 13) Manuel Castells, Potere e Comunicazione, EGEA, Milano 2009. 14) Antonio Negri, Comunicazione ed “esercizio del comune, in Posse, Insorgenze della comunicazione, Manifestolibri, Roma 2015. 15) In proposito abbiamo scri o, insieme al curatore di questa raccolta, su Euronomade (e una versione rido a apparsa su il Manifesto) al link: euronomade.info/?p=8819 16) Augusto Illuminati, Populisti e profeti, Manifestolibri, Roma 2017. 17) Tiziana Terranova, Red Stack A ack!, disponibile al link: euronomade.info/?p=1893 18) Javier Toret Medina, Tecnopolitica y 15M: la potencia de las moltitudes conectadas, UOC ediciones, Barcelona 2015. 329

Alberto Manconi - Nuovi codici della politica nel caos

N

Parte V - Strategie dei corpi-macchina

19) Tra i molti lavori in questo senso Paolo Gerbaudo, Tweets and the streets, Pluto Press, Londra 2012, e Zeynep Tufekci, Twi er and tear gas, Yale University Press, New Haven 2017, e Rossana Reguillo, Paisajes Insurrectos, NED, Barcelona 2017. 20) Judith Butler, Notes Towards a Performative Theory of Assembly, Harvard University Press, Londra 2015. 21) Michael Hardt, Antonio Negri, Assembly, Oxford University Press, New York 2017. 22) Antonio Negri, Appropriazione di capitale fisso: una metafora?, disponibile al link: euronomade.info/?p=8936 23) Anna Steide intervista Bifo, Rifiuto del lavoro, corporeità, ironia, disponibile al link: effimera.org/rifiuto-del-lavoro-corporeita-ironia-annastiede-intervista-franco-berardi-bifo/ 24) Manuel Castells, Reti di Indignazione e di speranza, EGEA, Milano 2012. 25) Ivi, p. XXIV. 26) Ivi, p. XXVIII. 27) Ivi, p. XXVI. 28) Xabier E. Barandiaran, Miguel Aguilera, Neuroscience y tecnopolitica, in Javier Toret Medina, Tecnopolitica y 15M: la potencia de las moltitudes conectadas, UOC ediciones, Barcelona 2015. 29) Raúl Sánchez Cedillo, El 15M como Insurreccion del cuerpo-maquina, disponibile al link: rebelion.org/noticia.php?id=145402 30) Aspe o discusso ampiamente Grizio i in un testo precedente di questa stessa raccolta. 31) Famosa e indicativa nel 15M è l'assunzione del linguaggio non verbale dei sordomuti come modalità di partecipazione alle assemblee oltre il singolo che parla. 32) Raúl Sánchez Cedillo, op. cit. 33) Nick Snircek, Platform Capitalism, Polity Press, Londra 2016; Benede o Vecchi, Capitalismo di pia aforme, Manifestolibri, Roma 2016. 34) Andrea Fumagalli, nel testo all'interno di questa raccolta e nel suo ultimo, Economia politica del comune, DeriveApprodi, Roma 2017. 35) Expolio de Cristo è il nome di una importante dipinto di El Greco. 36) Interessante che la PageRank di Google (compreso GoogleTranslate)

330

331

Alberto Manconi - Nuovi codici della politica nel caos

proponga come primo esempio di utilizzo della parola la frase “los conquistadores sometieron a expolio a los indígenas”, cioè “i conquistatori so omisero ad expolio gli indigeni”. 37) Sandro Mezzadra, La “cosidde a” accumulazione originaria, in AA.VV, Lessico Marxiano, Manifestolibri, Roma 2008, e David Harvey, The New Imperialism, Oxford University Press, New York 2003, e Miguel Mellino, David Harvey e l'accumulazione per espropriazione, dove l'autore ha rifle uto sulla difficoltà della traduzione del termine. “dispossession”, per questioni analoghe a quelle riguardanti il termine “expolio”, corrispe ivo in lingua spagnola. 38) Silvia Federici, Il calibano e la strega, Mimesis, Milano 2015. 39) Sandro Mezzadra, Bre Nielson, On the multiple frontiers of extraction: excavating contemporary capitalism, in Cultural Studies vol. 31, Taylor&Francis 2017. 40) Carlo Vercellone, Alfonso Giuliani, Francesco Brancaccio, Pierluigi Va imo (a cura di), Il comune come modo di produzione, Ombre Corte, Verona 2017. 41) Manuel Castells, Reti di Indignazione e di speranza, EGEA, Milano 2012 pp. 11-23; 42) Vedi: bit.ly/2HvNLXa. Per una analisi giuridica del problema nel 15M si veda Francisco Jurado Gilalbert, Nueva gramática politica, Icaria Editorial, Barcelona 2014, e Democracia 4.0, disponibile al link: h p://15mpedia.org/wiki/Democracia_4.0. Iniziativa volta alla democrazia dire a portata in parlamento da rappresentanti della stessa rete DRY che aveva lanciato le manifestazioni del 15M. 43) Mentre Rousseau è costruita per le esigenze di una organizzazione specifica come il M5S, Decidim è sviluppata a partire dalle necessità di una istituzione pubblica ufficiale come il Comune di Barcellona, anche se è disegnata per poter essere utile ad organizzazioni sociali e politiche di vario tipo. 44) L'ente che controlla tale codice è oggi l'Associazione Rousseau, a cui l'azienda Casaleggio Associati ha donato la pia aforma, dopo averla sviluppata. 45) Vedi: massimodiprimio.it/2017/07/pia aforma-rousseau-pocochiara-e-poco-open/

Parte V - Strategie dei corpi-macchina

46) Vedi: garanteprivacy.it/web/guest/home/docweb/-/docwebdisplay/docweb/7400401 47) Vedi: decidim.org/contract/ 48) Vedi: github.com/decidim/decidim 49) Xabier E. Barandiaran, Antonio Calleja, Arnau Monterde, et al., Decidim: redes politicas y tecnopoliticas para la democrazia partecipativa, Recerca, 2017 50) Vedi: beppegrillo.it/listeciviche/liste/conversano/uno-vale-uno.html 51) Marco Deseriis, Direct parlamentarianism, disponibile al link: bit.ly/2JDzqsD 52) Vedi: ilmanifesto.it/pia aforma-rousseau-il-trucco-del-consenso/ 53) Vedi: motherboard.vice.com/it/article/ev5pja/la-pia aforma-onlinedel-movimento-5-stelle-e-un-perfe o-esempio-di-incompetenzainformatica-rousseau 54) Vedi: ilfoglio.it/politica/2018/01/31/news/m5s-associazionerousseau-davide-casaleggio-176085/ 55) Vedi: euronomade.info/?p=4572 56) Rimodulando il conce o di auto-comunicazione di massa di Castells per inserire quello, potenziato e a ivo, di moltitudine. 57) Ho avuto la fortuna di seguire dire amente la crescita iniziale di Podemos, e ne ho scri o per i siti Euronomade e Dinamopress. Una cronaca si può ritrovare in Ma eo Pucciarelli, Giacomo Russo Spena, Podemos, Edizioni Alegre, Roma 2014. Tra le tante riflessioni sul fenomeno di respiro europeo e globale, segnalo i testi di Raul Sanchez e Toni Negri apparsi sul The Guardian e, in italiano, sempre per Euronomade. 58) Vedi: datanalysis15m.wordpress.com/ 59) Vedi: meta.decidim.barcelona/

332

Uno sguardo tecnopolitico sui primi giorni del #15M di Javier Toret Medina

La crisi della sinistra, che si manifesta nel contraccolpo politico subito dalle forze organizzate del movimento operaio e progressista, è solo l'epifenomeno di un problema molto più profondo: la crisi della trasmissione culturale che si è palesata nel passaggio dalla generazione alfabetico-critiche alla generazione post-alfabetica e “configurazionale”. La difficoltà della trasmissione culturale non si riduce a una incapacità di trasme ere contenuti ideologici o politici, ma si mostra nell'impossibilità di me ere in comunicazione cervelli che funzionano secondo forme differenti e spesso incompatibili. Risulta quindi indispensabile comprendere la mutazione del formato della mente post-alfabetica. La prima generazione che apprese più parole a raverso una macchina che dalla propria madre è oggi sulla scena Franco Berardi, Bifo

Parte V - Strategie dei corpi-macchina

₁. C

C

he forme di organizzazione rivoluzionaria si daranno nel contesto della società in rete e del capitalismo finanziario e cognitivo? Come, e in che maniera, può servirci una politicizzazione dell'uso delle tecnologie della comunicazione per organizzare il contro-potere nella società in rete? Come si propaga e produce un'organizzazione che cresce esponenzialmente nell'era digitale? Come si possono costruire organizzazioni in rete, su scala di massa e all'altezza della potenza delle moltitudini connesse?

334

335

Javier Tored Medina - Uno sguardo tecnopolitico sui primi giorni del #15M

Questo testo non pretende essere una visione globale ed esaustiva dell'evento e del movimento #15M. Vuole, anzi, esserne una breve e particolare approssimazione da una prospe iva di analisi che chiamo tecnopolitica, che si può definire come l'articolazione di un uso strategico delle tecnologie di comunicazione per l'azione e l'organizzazione colle iva. In questa prospe iva, parto dall'importanza delle mutazioni della sogge ività sociale in un ambiente ogni volta più tecnologizzato e connesso. Voglio pensare l'irruzione del #15M all'interno di una società immersa in un divenire-cyborg, cioè dentro una trasformazione vertiginosa delle abitudini sociali e sogge ive dovuta a una profonda socializzazione nei mondi digitali intera ivi, che genera nuove capacità di espressione dei cervelli e delle macchine in rete. La società in rete prefigura nuove forme organizzative e di contro-potere grazie alla crescita delle capacità tecnopolitiche nelle moltitudini connesse. È l'emergere di nuove forme di organizzazione, intelligenza ed azione colle iva. Comprendere il “come”: in che maniera, cioè, le mentalità, le capacità e le competenze colle ive dell'intelle o generale, in alleanza con i nuovi strumenti tecnologici, possono creare nuovi modi di cambiare il mondo. La relazione tra tecnologie e trasformazione sociale non è nuova, tu o il contrario. Ci arrischiamo ad affermare che solo quando i movimenti o gli a ori della trasformazione si sono dimostrati in grado di anticipare o superare l'appropriazione da parte dei poteri della comunicazione e della tecnologia, si sono prodo i o accelerati realmente i cambiamenti sociali. Il presente testo parte dall'esperienza viva dentro al movimento e da un lavoro precedente di ricerca sulle sogge ività nella società in rete e sulle forme di azione politica colle iva nella storia di internet. Ma ripeto, si focalizzerà solo in una parte molto rido a del sistema-rete #15M, sopra u o sulla sua gestazione, sui suoi primi giorni e sulle questioni più vincolate all'uso della tecnologia.

Parte V - Strategie dei corpi-macchina

₂. P #₁₅M: L R Y

#D

-

₁₅

Un movimento auto-organizzato e post-mediatico si venne a formare con migliaia di persone anonime nelle reti sociali tra febbraio e maggio del 2011 nello Stato spagnolo, so o il nome di Democracia Real Ya (DRY, “Democrazia Reale Ora”, in italiano) e con lo slogan di “non siamo merce nelle mani di politici e banchieri”. Inspirati dalle rivolte arabe, dalla rivoluzione islandese e so o la spinta della crisi economica, ci fu la capacità di organizzare una mobilitazione colle iva e un evento distribuito in più di se anta ci à spagnole. Cominciammo ad organizzarci creando un gruppo Facebook e presto me evamo mano a Twi er, Youtube e Tuenti (le reti sociali più utilizzate in Spagna) per estendere il messaggio della convocazione, ma sopra u o con l'intenzione di rendere semplice il passaggio che porta dalla simpatia verso la campagna al prenderne parte, rompendo la frontiera tra l'ammirare un processo e l'incorporarvisi a ivamente nello stesso. Le persone che cominciavano ad unirsi non si conoscevano tra loro, eravamo di ci à diverse. In pochi mesi di lavoro in rete, si costruì un'incredibile energia cooperativa capace di richiamare migliaia di persone in una campagna per la mobilitazione del 15 maggio. Da aprile, la campagna di Democracia Real Ya con gli slogan “non siamo merce nelle mani di politici e banchieri” e “scendi in strada” si estese nella rete a macchia d'olio, dentro una miriade di legami umani e digitali. Nuove persone si aggiungevano e partecipavano ogni giorno, proponendo, organizzandosi nelle proprie ci à o paesi a raverso gruppi locali per preparare la mobilitazione del 15M. Un'onda postmediatica so erranea, imperce ibile per i grandi media e le istituzioni, si preparò includendo persone di ogni condizione ed età. Allo stesso tempo, qualsiasi persona con un utilizzo quotidiano di Internet e delle reti sociali riceveva l'informa336

337

Javier Tored Medina - Uno sguardo tecnopolitico sui primi giorni del #15M

zione delle convocazioni, le quali arrivavano per molti canali diversi, per varie fonti e per reti di fiducia tra pari. I partecipanti dai vari territori crearono eventi locali e gruppi promotori per organizzare la manifestazione. Crearono inoltre spazi particolari di organizzazione in rete, con corrispondenti profili Twi er e gruppi-eventi su Facebook. Questo facilitò la partecipazione aperta ed a iva in spazi di lavoro online, ma fu anche di aiuto per far sì che le persone, che si conoscevano solo su internet, si incontrassero fisicamente nelle assemblee locali. Questo processo fu un'ibridazione e interconnessione delle possibilità del cyberterritorio e del geoterritorio. Così impiegavamo tu o il tempo che passavamo online per organizzare le capacità, le abilità e le risorse in modo da creare questo evento distribuito. Un gruppo in rete si costituì mentre si preparava una campagna inclusiva, che appellava alla ricerca di ciò che ci unisce, a accava le separazioni identitarie che ci dividono e promuoveva uno spazio per costruire un comune contagioso e aperto. In questo modo, creammo dei luoghi dove concentrare i malesseri nei confronti dell'a uale stato di cose e si de e forma a una campagna dal basso che marcò la propria autonomia rispe o ai sindacati ed ai partiti, dichiarandosi apartitica e asindacale. Le convocazioni articolarono un discorso di riappropriazione da parte dei ci adini della partecipazione politica, a raverso una critica dire a al sistema di rappresentanza dei partiti politici. Inoltre, si collocò al centro del nostro a acco il saccheggio sistematico che soffriamo da parte del sistema bancario e finanziario so o il lemma di “la crisi è una truffa”. La manifestazione pretendeva di richiamare i movimenti emergenti in Europa, come Uk uncut in Inghilterra, contro i tagli sociali, Generacao a rasca in Portogallo, contro la precarietà lavorativa, e la trasformazione politica dell'Islanda conosciuta come “rivoluzione silenziata islandese” che portò in carcere i banchieri e i politici

Parte V - Strategie dei corpi-macchina

che portarono sul lastrico il paese. Ma se qualcosa spinse davvero la convocazione, furono le “primavere arabe”. La forza contagiosa di queste rivolte ispirò molte persone a credere che era possibile ribellarsi. La campagna non era meramente una protesta contro lo stato di cose, ma portava anche o o rivendicazioni chiare di cara ere propositivo: eliminazione dei privilegi della classe politica, controllo degli enti bancari, diri o alla casa, misure contro la disoccupazione, servizi pubblici di qualità, nuova fiscalità, democrazia partecipativa e riduzione delle spese militari. Queste erano rivendicazioni di senso comune che riunivano e rendevano trasversali le principali domande sociali dei colle ivi e dei ci adini che si erano mobilitati negli ultimi anni. Democracia Real Ya incluse alcuni dei movimenti sociali degli ultimi anni, come per esempio la Plataforma de Afectados por la Hipotecas (PAH, “pia aforma dei colpiti dal mutuo” in italiano), Estado de Malestar (“Stato di Malessere”, in italiano), Juventud Sin Futuro (“Gioventù Senza Futuro”, in italiano), Anonymous, eccetera. Ma sopra u o, organizzò migliaia di blog, gruppi e persone che avevano partecipato alle intense lo e in rete contro la legge Sinde (regolamento coercitivo che pretendeva di chiudere siti web per linkare contenuti prote i da copyright). Una parte di questi venivano dalla campagna #nolesvotes (“non li votare”, in italiano) che chiamava a non votare i partiti che avevano approvato la sudde a legge. La crisi economica e la gestione neoliberale, il peggioramento delle condizioni di vita della gran parte della popolazione – specialmente quella giovane, con tassi di disoccupazione vicini al 50% – 1 sommata all'intensa crisi della rappresentanza delle istituzioni e della sinistra politica e sindacale, facilitò l'espressione colle iva di un enorme desiderio di partecipazione sociale e politica senza intermediari, cioè dire a. 338

₃. #₁₅

₁₅

:L P

-

S

Quel 15 maggio l'aspe ativa era grande. Sapevamo che i messaggi erano circolati ed erano stati condivisi molte volte, ma non sapevamo quante persone si sarebbero potute mobilitare, quanta gente sarebbe apparsa e con quale spirito. L'evento Facebook di Barcellona superava le o omila persone. Il modo in cui si era svolta la campagna, insieme a molti altri segnali, ci davano buone vibrazioni. Avevamo visto crescere il mostro nella rete. Migliaia di messaggi, mail e video, l'intensa estensione su Facebook e vari giorni di Trending Topic in Twi er (#15malacalle, #15mpasalo, #alacalle15m, #tomalacalle o #15mmani) non ci fecero però sfondare la cappa mediatica. La nostra ripercussione nella scena della rete era stata in339

Javier Tored Medina - Uno sguardo tecnopolitico sui primi giorni del #15M

La campagna virale di DRY ebbe principalmente il merito di costruire uno stato d'animo colle ivo, un clima di partecipazione, di allegria contagiosa e coinvolgente che ci dotò della potenza neces2 saria a organizzare una manifestazione in se anta ci à e località, cosa totalmente inedita negli ultimi trent'anni dello Stato spagnolo. Questa manifestazione ruppe lo stato di isolamento, impotenza e depressione che la crisi economica aveva esteso tra la popolazione e riuscì a trasformare l'ambiente-paura in un ambientepotenza. Questa situazione portò nuova aria che convertì la crisi economica e sociale in qualcosa di intollerabile. La manifestazione del 15 maggio modificò improvvisamente la relazione tra il tollerabile e il desiderabile nella società spagnola. L'obie ivo era portare i movimenti che avevamo vissuto su internet nelle strade. Un limite che molti non credevano si potesse superare, dato che pensavano che i movimenti online non sarebbero mai scesi in strada. La manifestazione del 15 maggio ci riuscì ampiamente.

Parte V - Strategie dei corpi-macchina

negabile, mentre i grandi media, giornali, radio e televisioni ci avevano ignorato. Alla conferenza stampa di Barcellona si presentò un solo canale locale. Tu avia, lo “sciame so erraneo” dei mesi precedenti – durante i quali ci convertimmo in un grande medium distribuito, con un numero considerevole di followers nelle reti sociali – aveva determinato un effe o moltiplicatore e virale. Migliaia di gruppi e persone fecero propria la convocazione e si presentarono alla manifestazione. Alle 17.00 le piazze convocate cominciarono a riempirsi di una moltitudine curiosa e indignata che si unì e si emozionò nel cammino con una forza ed un'energia incredibili. Non era una manifestazione qualsiasi. La connessione tra la gente che non si conosceva era palpabile. Senza bandiere e identità definite, ci mischiammo in una mobilitazione realmente potente. Più di 130.000 persone erano scese in strada da ogni angolo del paese scuotendo i corpi dall'indignazione, rompendo l'atomizzazione e l'impotenza sociale. Manifestazioni enormi in molte ci à, senza sindacati e partiti politici, dimostrarono che era possibile scendere in strada in forma autonoma, ci adina ed auto-organizzata. A Madrid, al termine della manifestazione, un gruppo di una quarantina di persone decise autonomamente, all'interno di un'assemblea spontanea, di rimanere ad accamparsi nella piazza di Puerta del Sol. Velocemente, cominciarono a organizzarsi per difendere il diri o a restare lì. L'energia scatenata dalla mobilitazione, che ancora stava nell'aria, fu convertita da un gruppo di “pazzi visionari” in un'accampata che territorializzò e de e corpo alla manifestazione del 15M. Dentro questo gruppo c'erano alcuni hackers e a ivisti della comunicazione, che rapidamente fecero un account Twi er chiamato @acampadasol e cominciarono a comunicare ciò che stava succedendo lì. Convocarono la gente per dormire in piazza e portare solidarietà dalla ma ina seguente. Nonostante le minacce della polizia, rimasero a dormire a Sol. 340

341

Javier Tored Medina - Uno sguardo tecnopolitico sui primi giorni del #15M

Al tempo stesso, in molti tornammo a casa conne endoci alla rete per valutare cosa fosse successo e già circolava la notizia dell'accampata di Sol. Un amico hacktivista di Madrid, si connesse in chat e mi disse: «Ci siamo accampati a Sol, Democracia Real Ya è un virus. Si è diffuso nella società, noi rimaniamo qui e vedremo che succede». I presupposti organizzativi e le rivendicazioni di DRY per la manifestazione del 15 maggio non furono che l'anticamera, il background del movimento 15M. Furono infa i le accampate a dare corpo al movimento e a farlo crescere esponenzialmente. Un secondo sciame colle ivo si creò subito dopo la no e del 16 maggio, quando l'accampata di Sol fu sgomberata dalla polizia. Il primo giorno si fermarono solo quaranta persone, ma il giorno seguente molte di più assistevano all'assemblea. Lo stesso 16 maggio iniziarono le accampate a Barcellona e Valencia. Ma il salto di qualità del movimento si produsse quella no e, quando la polizia decise di sgomberare le circa trecento persone che stavano dormendo a Sol. La particolarità di questo sgombero è da rintracciare nel fa o che molti dei presenti decisero di resistere pacificamente e utilizzarono i propri smartphone e telecamere per costringere la polizia ad agire con una certa moderazione, ritrasme endo da molteplici emi enti ciò che stava succedendo. Le immagini dello sgombero di gente che stava pacificamente in una piazza pubblica generò come risultato quello che è conosciuto su internet come effe o Streisand, un effe o di contagio e solidarietà fece sì che alla chiamata del giorno seguente (17 maggio) per le ore 20 si moltiplicasse esponenzialmente la partecipazione. Migliaia di persone ancora emozionate dalla manifestazione del 15M, si videro convocate per riconquistare Sol e rendere effe ivo il diri o a stare nelle strade per protestare pacificamente. Le decine di migliaia di persone che parteciparono al corteo del 15M accorsero in massa a prendere la Puerta del Sol, rendendo inutile il dispositivo poliziesco che tentava di impedirlo.

Parte V - Strategie dei corpi-macchina

L'emozione di incontrarsi, prendere insieme lo spazio pubblico e conquistare con piena legi imità l'accampata provocò un effe o a catena, altri presero esempio e occuparono le principali piazze di gran parte delle ci à del paese. Successivamente, l'esempio delle accampate si estese persino su scala internazionale a una velocità incredibile. Da questo momento, il movimento continuò a crescere e stabilizzarsi nelle piazze. Gli accampamenti si convertirono in centri di cooperazione, in territori colle ivi. Nacquero le commissioni e i gruppi di lavoro. La vita si organizzò come in una mini-ci à, come un'agorà di incontro del movimento. A partire da qui si cominciò a costruire l'infrastru ura tecnologica delle accampate, con i propri siti web, gli spazi su Facebook e nella rete “N-1.cc”. I profili ufficiali di Twi er crebbero molto velocemente, facilitando il flusso di informazione e l'interazione tra le persone e tra le ci à. L'insieme di accampate connesse tra loro si trasformarono in un sistema vivo e auto-organizzato grazie ai circuiti di informazione creati. Tu a l'archite ura-rete della partecipazione permise quello che chiamo un “contagio tecnologicamente stru urato”, cioè, un'archite ura logica che facilitò la riproduzione del movimento, come una tela dello spazio in rete a cui corrispondevano spazi fisici. Potremmo dire che i siti web tomalaplaza.net e takethesquare.net sono stati il germe di un'archite ura logica di estensione internazionale del movimento. Ma furono sopra u o l'incredibile flusso su Twi er e i live streaming dalle piazze a fare della Spanish Revolution il tema del momento, concentrando l'a enzione di persone da tu o il mondo che furono colpite ed emozionate da queste forme di presa dello spazio pubblico e di irruzione sociale. I profili e i canali comunicativi delle accampate e di DRY crebbero esponenzialmente, in pochi giorni arrivarono ad avere numeri di followers davvero impressionante nelle reti sociali. Su Twi er i profili più grandi del movimento sono @democraciareal con più 342

₄. Q Il 13 marzo 2004, in molte ci à spagnole, migliaia di persone si ritrovarono fuori dalle sedi del Partito Popolare (PP) per protestare, auto-organizzate a raverso i messaggi di testo dei cellulari. In quella data, l'azione colle iva si scatenò a seguito del dolore e della commozione per i morti nei treni, come conseguenza degli a entati dell'11 marzo e per l'indignazione di fronte alle menzo3 gne che il governo del PP diffuse, indicando i responsabili . Quelli sciami del 2004 fecero già intravedere la potenza delle moltitudini connesse che il 15M ha portato molto più avanti, dato che esprime la creazione autonoma di un evento distribuito e la costruzione di un coinvolgimento affe ivo e colle ivo dei corpi, a raverso le reti sociali e la presa dello spazio pubblico per un tempo considerevole. 343

Javier Tored Medina - Uno sguardo tecnopolitico sui primi giorni del #15M

di 118.000 followers, @acampadasol con più di 67.000 e @acampadabcn con più di 40.000. Su Facebook, Democracia Real Ya ha più di 427.000 like. L'utilizzo di queste reti sociali corporative fu rilevante, sebbene a nostro avviso è importante me erle in discussione; nonostante i problemi e i rischi che hanno, queste furono riappropriate per un uso politico. È necessario so olineare anche l'utilizzo di strumenti basati sul free software nelle accampate e in DRY. La rete che servì per organizzarsi, oltre ai blog di tomalaplaza.net, è stata N-1.cc, una rete sociale libera e autogestita, che passò dai tremila utenti prima del 15M ai più di 30.000 in appena un mese. Allo stesso tempo, il movimento mise in piedi un enorme quantità di mailing list, blog e pagine. Altro elemento da notare è come si crearono strumenti digitali quali propongo, stopdesahucios ed oiga.me, realizzati in free software e che fornirono le basi sia all'autonomia delle reti digitali dentro al movimento, sia alla capacità di inventare dispositivi tecnopolitici che facilitassero le forme di decisione, organizzazione ed azione colle iva.

Parte V - Strategie dei corpi-macchina

Gli sciami sociali possono essere costruiti, creati colle ivamente, e non sono mere reazioni agli eventi esterni, questa è una differenza fondamentale. Certo, non basta utilizzare strumenti di tipo nuovo, o che le cause siano giuste, ma c'è un'alchimia di fa ori che producono questi fenomeni di irruzione colle iva e distribuita. Tra questi, ne voglio evidenziare due: la mobilitazione affe iva nella psiche colle iva e la moltiplicazione delle interazioni dentro le tecnologie proprie del momento. Questa irruzione, che si produsse tra il 15 maggio ed il 19 giugno, non può eludere che esistano processi di gestazione e latenza, processi di incubazione di un malessere sociale, di gestazione di un dispositivo-piano che facilita l'articolazione di una sogge ività colle iva assemblata e resa sciame. La mutazione della sogge ività sociale – vincolata all'utilizzo politico e strategico delle reti sociali per l'azione coordinata – è la materia prima del #15M. Infa i, la capacità tecnopolitica delle moltitudini connesse, coniugata con alte dosi di trasformazione del malessere personale in processi di politicizzazione colle iva, e in mezzo ad un'enorme crisi della rappresentanza sociale, fu il motore dell'avviamento e della moltiplicazione per l'irruzione del sistema rete #15M. Il movimento ha mostrato una nuova centralità delle reti digitali intera ive che supera potenzialmente la centralità dei grandi mezzi di comunicazione e l'egemonia indiscutibile dell'impero televisivo, con tu i i suoi effe i sulla passività della sogge ività. Gli abitanti della società in rete tendono a consumare ogni volta di più dei dati-esperienze tramite il computer e i dispositivi mobili. Il consumo passivo televisivo si sta trasformando in una seconda opzione di fronte alle possibilità della rete. Quanto minore è la fascia d'età, maggiore è la preferenza di internet e dei dispositivi mobili in confronto alla televisione. Questo è un cambio totale di paradigma per le generazioni native digitali e per le persone che sono cresciute con Internet. 344

345

Javier Tored Medina - Uno sguardo tecnopolitico sui primi giorni del #15M

Legato a questo [cambio di paradigma], vi è la crisi di egemonia delle forme politiche della modernità e della cultura di sinistra che, basate sul ragionamento sequenziale, logico e unidirezionale, si vedono colpite e interde e da un mondo fa o di intera ività e di moltiplicazione dei messaggi e canali, ma sopra u o da un cervello che non è più passivo, ma intera ivo nella selezione e produzione dei dati. Dati che circolano nella rete a velocità infinita non solo comunicano informazioni, ma anche affe i e sensazioni. La formazione di una stru ura di reti neuronali, sociali e digitali che mobilitano i corpi e le menti, in determinate circostanze, rende possibile che si creino stati d'animo colle ivi e che si trasme ano molto rapidamente. La produzione di una sogge ività fra ale tecnologizzata ed estesa, con una coscienza rete capace di fare qualsiasi cosa, emerge di fronte ai grandi monopoli industriali della comunicazione, della cultura e della politica, ancorati a forme che non corrispondono alla socializzazione di una parte della popolazione. Il sistema-rete 15M si è inserito dentro la mutazione della soggettività colle iva, la politicizzazione del divenire cyborg della società, la socializzazione in un ambiente ogni volta più tecnologico che colpisce gli intermediari. I corpi e i cervelli, sempre più inconfondibili nei processi produ ivi del lavoro vivo online, dell'informazione e dei dati, sono profondamente connessi a raverso sistemi di comunicazione sempre più sofisticati. Da un lato generano la nuova economia del capitalismo cognitivo, ma dall'altro possono diventare – come nell'esperienza del #15M – capacità di auto-organizzazione, innovazione e autonomia della cooperazione comune. Questa ambivalenza riguarda il potenziale trasformativo delle menti connesse in rete, una trasformazione delle abitudini e degli usi di strumenti digitali e canali di comunicazione che parte dalla crescita esponenziale dell'autocomunicazione di massa e dell'auto organizzazione comune dell'intelle o generale.

Parte V - Strategie dei corpi-macchina

Le moltitudini connesse del #15M, a raverso la capacità di soppiantare il blocco dei mezzi di comunicazione di massa e dell'immagine sociale della crisi, hanno saputo generare una incredibile capacità in grado di estendere i messaggi e quindi convertirsi in un movimento politico di comunicazione distribuita e intelligenza colle iva. La prima è la capacità di creazione di meme, virus e narrazioni che a raversano la realtà. La seconda è la capacità di prendere decisioni “in momenti caldi”, rischiosi, che dimostrano la possibilità di una politica moltitudinaria che a ua come “un solo corpo e cervello”. Momenti nei quali ogni nodo, con i propri feedback, contagi ed auto-regolazioni, genera un effe o di insieme. Inoltre, tale politica opera come un super-organismo che coordina autonomamente le intelligenze che si me ono in connessione, sorprendendo e superando le capacità di controllo dei poteri dominanti. L'intelligenza colle iva concentra l'a enzione e somma le capacità singolari creando una potenza-ambiente comune. Ci sembra interessante guardare all'emergenza del #15M come un sistema-rete, con una nuova grammatica di azione colle iva che ha in seno la capacità di costruire un sistema sociale tecnologicamente auto-organizzato, nel quale si riduce il costo dell'azione colle iva e comunicativa. Possiamo affermare che l'organizzazione della manifestazione del #15M si fece senza risorse alle spalle, con la sola capacità delle persone di organizzarsi nella rete. Questo effe o ha a che vedere con la stru ura reticolare propria dei processi di comunicazione, con la stru urazione virale della rete e con la possibilità che ogni persona possa seguire un processo sociale da casa propria. L'irruzione moltitudinaria e comune del #15M situa un nuovo protagonismo sociale. La capacità di chiunque di partecipare e continuare a conne ersi a una dinamica sociale in codice aperto a raverso la rete è stata chiave nell'estensione di questa enorme siner346

347

Javier Tored Medina - Uno sguardo tecnopolitico sui primi giorni del #15M

gia sociale. Nei migliori momenti, è emersa la complementarietà e complicità di migliaia di singolarità che incontrarono nel movimento un comune che le mobilitava e coinvolgeva a raverso gli affe i. In un recente studio, si è mostrato che 8.000.000 di persone avessero partecipato in qualche modo dire amente al movimento, dato che dimostra l'enorme capillarità ed estensione nella società e le simpatie che ha generato. Il sistema-rete #15M è un ambiente, uno stato d'animo colle ivo, una potente gioia dello stare insieme che ha alluso per alcuni mesi a una potenza politica inaudita di nuovo tipo. Il movimento ha avuto la capacità di creare entità sociali, identità in rete capaci di muoversi in un'agorà sociale producendo un nuovo protagonismo. Fu anche capace di cambiare i temi dell'agenda pubblica e modificare le voci e gli agenti di enunciazione riconosciuti. Il #15M è la ricostruzione di una parte della società che era dormiente, ma è anche un embrione di una futura democrazia in rete, un'esperienza che marca a fuoco i nostri corpi e cervelli disegnando orizzonti sociali radicalmente diversi da quelli esistenti e non può che essere l'anticamera delle nuove onde di libertà che verranno.

N

Parte V - Strategie dei corpi-macchina

1) Representación. 2) Empoderó. 3) Il riferimento dell'autore è a un evento significativo della recente storia spagnola, che anticipa il 15M. Una mobilitazione istantanea ed autoorganizzata a raverso messaggi SMS, smascherò la manipolazione del Governo Aznar che insisteva, malgrado le evidenti incongruenze, ad a ribuire all'ETA (e non ad Al Qaeda) la responsabilità degli a entati. R. Sanchez Cedillo descrive l'improvvisa esplosione del movimento in “Madrid 13/3” nel numero di Posse – Insorgenze della comunicazione. In Manuel Castells, Potere e comunicazione, Egea, Milano 2014 vi è invece una ricostruzione minuziosa degli eventi di quei giorni, corredata di dati che mostrano l'azione decisiva di tali avvenimenti, e delle opinioni diffuse dal movimento anti-guerra e riaffermate l'11M, nella vi oria di Zapatero in quelle elezioni. N.d.T.

348

Dalle reti sociali alle reti (tecno)politiche Reti di terza generazione per la democrazia del XXI secolo di Antonio Calleja-López, Xabier E. Barandiaran, Arnau Monterde

I

₍ ₎

Parte V - Strategie dei corpi-macchina

L

a società diviene (in) rete. Questa era una delle tesi di Ma1 nuel Castells già sul finire del secolo scorso. Con la spinta di una moltitudine di a ori, le reti digitali dispiegate nell'infrastru ura di Internet sono arrivate a permeare sempre più aspe i delle nostre vite personali e colle ive. Il più recente impa o può essere rilevato in fenomeni che vanno dalle elezioni che fecero Trump presidente (chiaramente influenzate da Facebook e Twi er) ai prezzi delle case a Barcellona (determinati da Airbnb), dalle relazioni di lavoro (sviluppate su LinkedIn) a quelle affe ive (ridefinite su Tinder). Tu avia, oltre la diagnosi generale, è importante distinguere diversi tipi di reti, promosse da diversi tipi di a ori. L'argomento teorico chiave delineato nel nostro articolo Decidim: redes políticas y tecnopolíticas para la democracia participativa2, suggerisce la necessità di differenziare tra diversi tipi di reti così come di intendere Decidim3, la pia aforma digitale di democrazia partecipativa promossa dal Comune di Barcellona, come uno spazio di costruzione di due nuovi tipi di rete.

R W

: W

W

F

4

Negli anni novanta, il World Wide Web (WWW), la prima rete digitale con una portata di massa, incarnò un modello di prima generazione, quello delle reti informazionali. La WWW si cara erizzava per perme ere la pubblicazione di informazioni e contenuti in 350

351

Antonio Calleja-López, Xabier E. Barandiaran, Arnau Monterde - Dalle reti sociali alle reti (tecno)politiche

pagine accessibili da qualsiasi terminale connesso ad Internet. Sebbene le pagine web offrivano multiple possibilità di interazione, la loro archite ura imponeva molti limiti. Il modello tipico era quello di una pagina statica utilizzata per pubblicare contenuti non modificabili da parte delle persone che la visitavano. Questi limiti all'interazione riducevano anche la quantità di informazioni che i sudde i siti potevano o enere dai propri utenti. Questo non impedì che fiorissero nuove forme economiche sostenute dai media digitali: negli anni '90, Internet e il web furono associati all'emergere di quello che Castells chiamò il "capitalismo informazionale"5, un nuovo stadio del capitalismo nel quale la produzione e l'appropriazione dell'informazione diventavano fondamentali nella produzione di valore economico. Intorno al passaggio di secolo, proge i come Indymedia, una rete partecipativa di informazione politica e sociale alimentata da a ivisti e giornalisti indipendenti, rappresentarono uno stadio intermedio verso ciò che si venne poi a chiamare web 2.0 (ma che, in termini democratici, risultava più avanzato6). Già alla fine degli anni '90 e, sopra u o, nella seconda metà degli anni 2000, cominciò la proliferazione di reti digitali di seconda generazione, chiamate "reti sociali". Pia aforme come Facebook o Twi er facevano dell'interazione degli utenti tra loro, e di questi con i contenuti (al posto della mera informazione) il nucleo della propria costruzione7. Questo, unito all'incremento progressivo delle tecniche di estrazione, archiviazione e processamento dei big data, ha permesso l'emergere di una forma specifica di capita8 lismo informazionale: il capitalismo dei dati . Secondo una lunga analisi i dati generati in queste pia aforme sono il nuovo petro9 10 lio . Negli ultimi dieci anni, pia aforme commerciali come Facebook sono cresciute al ritmo di una economia basata sullo studio e il governo dell'a enzione e del comportamento digitale di chi le usa, convertendosi così in mediatori della vita e della comunicazione sociale; tu o ciò, con una capillarità molto maggiore di quel-

Parte V - Strategie dei corpi-macchina

la dei media tradizionali come la televisione o il giornale. Quello che Castells11 ha definito come "auto-comunicazione di massa" (la comunicazione multicanale da persona a persona, da uno a molti, e da molti a molti) ha come correlazione quello che potremmo definire come una "ca ura di massa", ca ura di masse di dati ed a ività umane. Uno degli effe i più visibili nel piano politico è stata la centralità delle reti sociali nella strategia vincente di Trump alle ultime elezioni statunitensi12. Corporation come Google o Facebook (entrambe tra le prime cinque maggiori compagnie al mondo per capitalizzazione in borsa, con centinaia di milioni di utenti al giorno) accumulano più informazioni e capacità di orientamento e azione sulla vita individuale e sociale, di quanto qualsiasi mezzo di comunicazione o stato abbiano fa o finora. In questo modo, le reti sociali, che disintermediano certi aspe i della comunicazione sociale (per esempio la necessità di passare per il filtro editoriale di un giornale o di una catena televisiva), tornano a mediarla (definendo norme d'uso, portata delle pubblicazioni, interazioni possibili, suggerendo contenuti, amicizie, servizi eccetera) con finalità commerciali. Questo ci condanna a una sorta di eteronomia tecnopolitica e sociale: buona parte delle norme a orno a come ci relazioniamo sono, sempre di più, definite da una manciata di corporation, anziché da a ori, tra ative e confli i sociali distribuiti nello spazio e nel tempo. Autrici come Shoshana Zuboff¹³ hanno avvertito dell'emergere di un capitalismo della sorveglianza, condo o a raverso l'accumulo ed il processamento dei dati, e basato su contra i digitali non negoziabili, personalizzazione dei servizi e con l'orientamento e la sperimentazione continua sui milioni di utenti di queste pia aforme. Come dice un famoso slogan: su Internet, se qualcosa è gratis, il prodo o sei tu. Questo modello alimenta e si alimenta con un rafforzamento della società dell'ipervisibilità e dell'esibizione (forse una modulazione della società dello spe acolo annunciata da Debord¹⁴). L'esposizione e l'auto-esposizione (che va dalla quoti352

R

: M

D

-

D

Decidim, la pia aforma digitale di partecipazione ci adina messa in azione dal Comune di Barcellona, rappresenta un chiaro esempio del modello emergente di reti di terza generazione, che chiamiamo “reti politiche”. Il proge o si incardina in multipli processi di lunga data17. Il software di Decidim, che è partito come una pia aforma di partecipazione disegnata per coprire le necessità del Comune di Barcellona rispe o alla partecipazione ci adina, è usato a ualmente da decine di ci à e sta cominciando a essere usata da cooperative ed altre organizzazioni sociali. Questo perme e di sperare nel beneficio della Legge di Metcalfe, per la quale il valore di una rete di comunicazione è il quadrato del numero dei nodi: de o in altro modo, una rete è più preziosa se ha molta gente con la quale realizzare a ività (ad esempio: comunicare). L'obiettivo di medio e lungo termine è abbracciare un ampio spe ro di circuiti e sfere sociali. 353

Antonio Calleja-López, Xabier E. Barandiaran, Arnau Monterde - Dalle reti sociali alle reti (tecno)politiche

dianità intima all'opinione e all'azione politica, passate al setaccio del filtro e della finzione) sono stimolate e si situano al centro del 15 funzionamento di queste pia aforme . Importante so olineare la doppia faccia di questa dinamica: la surveillance (super-visione o sorveglianza) che genera regimi di visibilità ed esibizione (sempre più sfru ati), va di pari passo con ciò che potremmo definire come surwilling (“sovra-determinazione della volontà”), secondo cui la configurazione degli algoritmi delle corporation diviene fondamentale nella configurazione delle volontà individuali e colle ive di milioni di persone. Come alternativa alle pia aforme commerciali sorsero, sempre nella seconda metà degli anni 2000, reti sociali alternative, come Diáspora (con più di un milione di utenti nel mondo) ed n-1, 16 pia aforma molto usata durante il movimento 15M .

Parte V - Strategie dei corpi-macchina

Immagine: Tre generazioni di reti digitali: dal WWW a Metadecidim Autore: Antonio Calleja-Lopez, cc-by-sa

Ad ogni modo, la chiave differenziale delle reti politiche risiede in ciò che si può fare in queste e con queste. Reti come Decidim hanno tre cara eristiche fondamentali: in primo luogo, riducono la centralità della figura del prosumer in rete (qualcuno che produce con18 tenuti mentre li consuma, come anticipato da Toffler ) e la sostituiscono con un a ore decisamente politico; in secondo luogo, queste reti articolano spazi che perme ono la costruzione di intelligenza, volontà ed azione colle iva oltre la mera espressione, aggregazione o circolazione dei gusti e delle preferenze individuali; in terzo luogo, conne ono queste con decisioni che investono il piano colle ivo in quanto tale. In questo senso, le differenze di nomenclatura sono indicative: al posto di un Facebook (traducibile come libro di volti/facce), Decidim ("decidiamo", in italiano) situa nel centro della sua costruzione il vincolo politico e colle ivo. Non interpella individui in rete ma un "noi", un "noi" decisivo. In casi come quello di Decidim, le reti politiche perme ono di intervenire nelle istituzioni e nella costruzione di politiche pubbliche. Inoltre, il suo principio regolati354

355

Antonio Calleja-López, Xabier E. Barandiaran, Arnau Monterde - Dalle reti sociali alle reti (tecno)politiche

vo è quello per cui le persone partecipanti “prendano parte tra pari” (nostra interpretazione del latino pars capere della partecipazione) nei processi colle ivi, siano dello Stato o di qualsiasi organizzazione sociale. Decidim aspira a servire da dispositivo di appoggio a processi di democratizzazione in campi che vanno dallo statale al sociale, dal politico all'economico, condizione della stessa democratizzazione in senso radicale. Sebbene tu e le reti digitali menzionate si basano su principi come l'interconnessione o la condivisione, nelle reti informazionali la chiave è l'informazione, in quelle sociali, l'interazione, in quelle politiche, la decisione. Ogni generazione riprende e modula caratteristiche dalle precedenti. Allo stesso modo che le reti sociali costruirono sopra, e al tempo stesso misero in questione, il modello delle reti informazionali (in linea con l'abituale ricostruzione del transito dal web 1.0 al web 2.0), così le reti politiche costruiscono a partire da, si conne ono con e divergono da, la logica delle reti sociali. Le forme di informazione e comunicazione che perme ono reti politiche come Decidim sono pensate secondo i termini della qualità democratica (uguaglianza, qualità dell'informazione, potenziamento della deliberazione eccetera), anziché all'o enimento di un beneficio economico per le corporation (a raverso servizi, pubblicità, vendita di dati eccetera). Rendere possibili forme di auto-comunicazione moltitudinaria (già non di massa) libera, evitare la sua ca ura, è fondamentale per la salute della democrazia del XXI secolo. Fare sì che la comunicazione potenzi il comune, che si comunichi con processi colle ivi di intelligenza, deliberazione e azione, oltre a evitare forme commerciali di intelligenza ed azione (nei nuovi territori del capitalismo dei dati, come quello dell'Intelligenza Artificiale) è una sfida aperta del proge o. L'obie ivo è stimolare uno spostamento dai regimi tecnopolitici definiti da pratiche di sorveglianza e sovra-determinazione algoritmica, verso altri che alimentino la

Parte V - Strategie dei corpi-macchina

vigilanza e la volontà dal basso, cioè regimi di “sub-veglianza”19 e subwilling (sub-determinazione della volontà), in cui tu i e chiun20 que (per dirla con la formula di Ranciere ) vigilano e irrompono nell'azione di Stati, corporation ad altre organizzazioni sociali. Al di là della sua condizione di rete politica, Decidim è una pia aforma radicalmente partecipativa, cioè, perme e il controllo e l'intervento delle persone partecipanti su tu i i livelli della sua stru ura tecnologica, tanto sul suo codice interno (il suo back end) quanto sulle sue interfacce ed esperienze di partecipante (front end). Questo la distanzia ancor di più dal modello abituale di rete sociale commerciale, nel quale gli utenti non hanno alcuna capacità di decisione su aspe i come il codice, le norme d'uso o le politiche sui dati. In questo senso, potremmo suggerire che la rete Meta21 Decidim , sulla quale si appoggia una comunità ci adina aperta che decide su tu i gli aspe i del proge o Decidim, costituisce una rete già non semplicemente politica ma "tecnopolitica", cioè una rete che situa la costruzione di una tecnologia e la comunità intorno ad essa nel centro della propria azione. MetaDecidim ha come obbie ivo di fare del software di Decidim qualcosa in più di un software libero: aspira a produrre un software democratico. Cerca di aggiungere alle qua ro libertà tradizionali esposte da Richard

Immagine: gruppi e comunità coinvolte nel proge o Decidim. Autore: Xabier Barandiaran, cc-by-sa

C Le reti politiche si scontrano anche con sfide e limiti evidenti: raggiungere ampi se ori della popolazione, promuoverne l'inclusione e l'empowerment, conne ersi in maniera effe iva con le decisioni colle ive (specialmente, nell'ambito della politica pubblica), sviluppare i sistemi tecnologici necessari per coprire tu e le sue necessità di sviluppo (dalla gestione dell'identità digitale alla sua 357

Antonio Calleja-López, Xabier E. Barandiaran, Arnau Monterde - Dalle reti sociali alle reti (tecno)politiche

Stallman22 (libertà di usare, copiare, modificare e distribuire copie modificate) un ve ore di eguaglianza ed equità, tra a cioè di aprire l'esercizio di queste libertà a tu * e a chiunque. Di fronte al modello corporativo di rete digitale di Facebook o Twi er, nel quale sia il codice informatico sia i dati che vi sono generati sono solitamente privati e chiusi, Decidim è un modello di rete con finanziamento pubblica e controllo ci adino. È un esempio di quella che si potrebbe definire come un'infrastru ura, o rete politica, pubblico-comune: finanziata con denaro pubblico, costruita con, e governata da, la ci adinanza e gli a ori sociali23. MetaDecidim fa di Decidim un bene comune digitale. I dati e i contenuti generati in essa lo sono altre anto, infa i rimangono so o il controllo dei partecipanti (per tu o ciò che riguarda la privacy) e nel dominio pubblico (in tu e le sfacce ature pubbliche. Esempio: commenti a filo). Ciò implica che anche le varie forme e regole a orno all'informazione, la comunicazione e la relazione dentro Decidim sono aperte alla modifica da parte della stessa comunità. In questo modo la comunità MetaDecidim potenzia la propria autonomia tecnopolitica, cioè, la capacità di chi usa la pia aforma di instituire colle ivamente le proprie norme. La comunità, la sua autonomia e l'auto-comunicazione libera consentita divengono fenomeni ricorsivi (in modo simile a quello delle comunità di software libero descri e da Kelty24), cioè pongono le condizioni della loro propria riproduzione.

Parte V - Strategie dei corpi-macchina

connessione con il territorio), garantire la propria sostenibilità economica nel tempo ed un lungo eccetera. Sfide a parte, reti politiche come Decidim e reti tecnopolitiche come MetaDecidim aprono un orizzonte di reti di terza generazione non commerciali, refra arie alle diverse forme del capitalismo dei dati, e orientate a principi come quelli di autonomia tecnopolitica e sociale, auto-comunicazione libera, beni comuni digitali e democrazia radicale. In definitiva, il proge o Decidim aspira a servire come dispositivo e modello per la trasformazione politica in un periodo di crisi della rappresentanza e dell'egemonia neoliberale stessa, verso una democrazia reale ed in rete.

358

1) Manuel Castells, The Rise of the Network Society. The Information Age: Economy, Society and Culture Vol. I, Blackwell, Oxford 1996; Castells, Manuel The Power of Identity, The Information Age: Economy, Society and Culture Vol. II, Blackwell, Oxford 1997; Castells, Manuel, End of Millennium. The Information Age: Economy, Society and Culture Vol. III, Blackwell, Oxford 1998. 2) Xabier Barandiaran, Antonio Calleja, Arnau Monterde, Pablo Aragón, Juan Linares, Carol Romero, Andrés Pereira, Decidim: Redes políticas y tecnopolíticas para la democracia participativa, in Tecnopolítica, in RECERCA. Revista de Pensament y Anàlisi, vol. 21, 2017, pp. 137-150. 3) Vedi: decidim.org 4) Per dare fondamento a questa tesi troviamo sostegno in opere come Tim O'Reilly, What Is Web 2.0? Design Pa erns and Business Models for the Next Generation of Software (post del 2005 disponibile al link: oreilly.com/ pub/a/web2/archive/what-is-web-20.html), ma riduciamo la sua enumerazione di differenze tra web 1.0 e web 2.0, che qui identifichiamo come differenze tra reti informazionali e reti sociali, per ragioni di spazio. Siamo anche coscienti che concet-tualmente e tecnologicamente, “web” e “rete” sono distinguibili. Nono-stante tu o, crediamo che la periodizzazione che stabiliamo in questo documento è agnostica rispe o a questa differenza. Per ultimo, non so ostimiamo i limiti dell'intera distinzione tra generazioni di rete (Veronica Barassi, Emilio Treré, Does Web 3.0 come after Web 2.0? Deconstructing theoretical assumptions through practice, in New media & society, 14(8), 2013, pp. 1269-1285.) 5) Manuel Castells, Communication Power, Oxford University Press, Cambridge 2009. 6) Vedi: Victor Pickard, Assessing the radical democracy of Indymedia, in Critical Studies in Media Communication 23(1), 2006, pp. 19–38, e Victor Pickard, United yet Autonomous: Indymedia and the Struggle to Sustain a Radical Democratic Network, in Media, Culture & Society 28(3), 2006, pp. 315–336. 7) Danah M. Boyd, Nicole B. Ellison, Social Network Sites: Definition, History, and Scholarship, in Journal of Computer-Mediated Communication 13, 2007, pp. 210–230. 359

Antonio Calleja-López, Xabier E. Barandiaran, Arnau Monterde - Dalle reti sociali alle reti (tecno)politiche

N

Parte V - Strategie dei corpi-macchina

8) Steve Lohr, Data-ism: inside the big data revolution, Oneworld Publications, Londra 2015; Evgenij Morozov, Digital Technologies And The Future Of Data Capitalism, in Social Europe, 2015. Disponibile al link: socialeurope.eu/2015/06/digital-technologies-and-the-future-of-data-capitalism/. 9) Ci sono diba iti in corso a orno al fa o che i dati debbano essere considerati principalmente come risorse, merci, lavoro (Imanol Arrieta Ibarra, Leonard Goff, Diego Jiménez Hernández, et. al., Should We Treat Data as Labor? Moving Beyond “Free”, in American Economic Association Papers & Proceedings, Vol. 1, No. 1, 2017. Forthcoming. Disponibile al link: h ps://ssrn.com/abstract=3093683), infrastru ura (Peter Kawalek, Ali Bayat, Data as infrastructure, National Infrastructure Commission, Londra 2017), dalla prospe iva dei diri i (Editoriale, For the European Parliament, data are not commodities!, in La Quadrature du Net. Disponibile al link: laquadrature.net/en/digital_content_ep) o altre. Vedi anche: Editoriale, The world's most valuable resource is not longer oil, but data, in The Economist, disponibile al link: econ.st/2GWQxUD 10) Nota del tradu ore: in questo ed altri casi ho trado o l'agge ivo spagnolo “corporativo” con l'italiano “commerciale”. Ciò, nonostante la perdita parziale di significato, mi è risultato necessario poiché la semantica legata all'inglese “corporations” non è stata integrata nel vocabolario italiano, al contrario di quello spagnolo. Ho dunque proposto la parola inglese riferendomi al nome “corporation”,utilizzata correntemente in italiano per “azienda multinazionale”, mentre ho utilizzato “commerciale” quando il termine acquista funzione di agge ivo, per non confondere questo con il significato specifico di “corporativo” nella lingua italiana. 11) Manuel Castells, Communication Power, Oxford University Press, Cambridge 2009. 12) In questo testo non analizzeremo le diverse forme in cui i differenti a ori, e specialmente imprese come Cambridge Analitycs (per un’introduzione al tema, rimandiamo al dossier Cambridge Analytica Files elaborato da The Guardian, disponibile al link: theguardian.com/uk-news/ cambridge-analytica), intervengono nell'arena politica, commerciale o sociale a raverso le possibilità di diffusione segmentata che offrono reti come Facebook o Twi er, l'uso di eserciti di bots e profili falsi, e l'analisi di dati. 360

361

Antonio Calleja-López, Xabier E. Barandiaran, Arnau Monterde - Dalle reti sociali alle reti (tecno)politiche

13) Guy Débord, La Société du spectacle, Éditions Buchet/Chastel, Parigi, 1967. 14) Shoshana Zuboff, Big other: surveillance capitalism and the prospects of an information civilization, in Journal of Information Technology, Social Science Research Network, 30 (1), 2015, pp. 75–89. 15) Patrick Crogan, Samuel Kinsley, Paying a ention: Toward a critique of the a ention economy, in Culture Machine vol. 13, 2012, pp. 1-29; Ian Goodwin, Christine Griffin, Antonia Lyons, et. al., Precarious popularity: Facebook drinking photos, the a ention economy, and the regime of the branded self, in Social Media+ Society 2(1), 2016. 16) Floren Cabello, Marta G. Franco, Alex Haché, Hacia una web social libre y federada: el caso de Lorea, in Teknokultura, 9(1), 2012, pp. 19-43. 17) Tra questi la transizione digitale delle tradizionali istituzioni politiche (i cui processi di partecipazione ancora non sono stati occupati dalle pia aforme corporative ed il cui progresso si è visto rallentato dalle sfide e dalle diffidenze che genera la partecipazione nelle istituzioni e le dinamiche partecipative tradizionali). 18) Alvin Toffler, The third wave, Bantam books, New York 1980. 19) Steve Mann, Sousveillance: inverse surveillance in multimedia imaging, in Proceedings of the 12th annual ACM international conference on Multimedia, ACM 2004, pp. 620-627. 20) Jacques Rancière, La haine de la démocratie, La fabrique éditions Paris, 2005. 21) Meta.decidim.barcelona è un caso dello stesso Decidim, cioè una pia aforma basata sul suo codice. 22) Richard Stallman, The Free Software Definition, Free Software Foundation. Disponibile al link: gnu.org/philosophy/free-sw.en.html 23) In questa discussione abbiamo preferito non me erci ad analizzare casi di reti politiche commerciali come Civitici, recentemente sviluppata dalla multinazionale spagnola Telefonica (per il suo dubbioso impa o reale nell'a ualità), o come quella che presto potrà sviluppare lo stesso Facebook dopo che Zuckenberg ha annunciato alcuni mesi fa il suo interesse nell'ambito della democrazia. 24) Christopher M. Kelty, Two bits: The cultural significance of free software, Duke University Press, Durham 2008.

From data to dada Viaggio nel tecno-inconscio* di Donatella Della Ra a e Geert Lovink

La creatività ti perme e di fare errori. Dada è sapere quali conservare. Sonja Bruenzel

Scrivere come faceva Tzara può essere divertente, ma il ventesimo secolo è ormai alle nostre spalle e non tornerà indietro. Lo a e tedio si sono fusi tra loro nel corso della nostra quotidianità digitale. Condividere non è prendersi cura. Più ci sono gli scontri e le uccisioni, più ci sono like. Twi er ci dice che un nuovo orribile video dell'ISIS è diventato virale, consumato nel nome della consapevolezza globale.

Parte V - Strategie dei corpi-macchina

L

o storico movimento Dada era completamente basato sui paradossi. Generava forme di espressione che rifiutavano la logica lineare ed abbracciava il caos e l'irrazionalità nel tentativo di cogliere barlumi di conoscenza. Dada colpì il comune senso borghese di tempo e spazio. Ma qual è il nostro programma in questa era di "modernità regressiva"? La nostra società in continuo esaurimento è guidata dagli eventi e dalla presenza in tempo reale, stremata dalla fatica e dalla depressione. Tu o è caricato e scaricato in continuazione, prefabbricato in stile IKEA. Siamo consumati nell'istante. Le nostre interfacce di oggi non offriranno più risposte a domande complesse. Invece dovremmo chiederci: “Cos'è l'inconscio nell'era dei social media? In che modo possiamo conne erci con esso?”. Non riusciamo ad avere accesso ai nostri desideri tramite i nostri smartphone. Non abbiamo bisogno dell'ennesimo link o di un altro pulsante per condividere qualcosa, abbiamo bisogno di entrare in conta o con ciò che non è visibile o palpabile all'interno di questa like-share economy. Non possia362

363

Donatella Della Ra a, Geert Lovink - From data to dada

mo più accendere la televisione e guardare le pubblicità. O visitare una galleria d'arte per leggere su uno schermo i desideri celati nei quadri. O leggere un romanzo, per questa ragione (di certo non Houllebecq). Il nostro inconscio, tra uno scroll e l'altro, è ormai diventato tecnologico, nascosto in un dominio che non vediamo perché è ovunque e a cui non possiamo accedere perché è accessibile tramite ogni sorta di ogge o connesso. Come possiamo usare la logica illogica del Dada per svelare il tecno-inconscio? Come possiamo usare forme espressive, artistiche ed estetiche per rendere chiaro ciò che non riusciamo più a vedere? Ciò che giace oltre l'invisibile coercizione resa possibile dalla condivisione globale dei social media? Schopenhauer lo chiamava il velo di Maya. Ma il nostro mondo è oltre la rappresentazione di Schopenhauer, e quindi più difficile da svelare. I social media non rappresentano, ma me ono in a o e incarnano i nostri micro-sé. È questo il motivo per cui il tecno-inconscio è così difficile da “svelare”. Perché si trova nel regno della normalità e della quotidianità, un dominio in cui abbiamo perso la nostra coscienza come classe e persino come esseri umani. L'intollerabile leggerezza della quotidiana routine digitale, la sua invisibilità, la sua seducente promessa di essere così trasparente da diventare invisibile, diventa parte di noi. Come possiamo svelare il nostro tecno-inconscio? Dobbiamo iniziare a rendere i nostri sé digitali meno trasparenti e accoglienti, più opachi, contraddi ori e ambigui. Siamo accecati dalla Rete. Come possiamo comprendere la sua invisibilità, la sua pervasività? Come vedere oltre questa realtà velata? La strategia per smascherarla è ancora quella giusta? Cosa ci è rimasto dopo le rivelazioni di Wikileaks e Snowden, se non la paura di essere costantemente osservati e catalogati? Chiediamo aiuto al fantasma di Dada per riconne erci con l'inconscio del XXI secolo e re-incontrare la nostra natura tecnologica, rivelare la violenza quotidiana che si nasconde dietro la real-

Parte V - Strategie dei corpi-macchina

tà della sharing economy. Abbiamo bisogno di una parola che abbia un inizio e una fina, che non sia likeabile, che crei fra ure, salti e non-sense; dove la poesia e il non-visto possano vivere e prosperare. Un non-bit; un non-uno-e-zero; un non-status. Una parola che provochi un migliaio di frasi, che non sia condannata alla solitudine di un pollice in alto o in basso; memi che sfuggono alla valutazione cieca di “mi piace” e condivisioni, che rifiutino di conne ere persone e informazione. Un dada-selfie che sfugga alla logica dei dati e che sia capace di riconne erci con ciò che è nascosto.

*Il saggio From Data to Dada è stato pubblicato per la prima volta nella rivista Moti Visual Culture, Summer 2017 364

Glossario minimo (di parte) della datacrazia Algoritmo Dal nome del matematico persiano al-Khuwārizmī, vissuto nel IX secolo d.C. e considerato uno dei fondatori degli studi sull'algebra classica, che introdusse il conce o nel suo tra ato Regole di ripristino e riduzione. Nel medioevo, il termine indicava un procedimento di calcolo numerico fondato sull'uso delle cifre arabiche. Per astrazione, in logica matematica indica qualsiasi procedimento "effe ivo" di valutazione o decisione, eseguito secondo un insieme di regole esplicite. Con l'avvento dell'informatica, ha finito per indicare una serie di istruzioni che viene assegnata a un calcolatore per risolvere un problema. Ogni algoritmo è il risultato di una modellizzazione umana del problema da risolvere e del contesto in cui questo è situato.

Glossario

Anarcocapitalismo De o anche anarchismo di mercato o capitalismo libertario, è uno degli orientamenti del pensiero liberale, per il quale la libertà di mercato viene prima dei diri i della persona, quindi l'individuo deve liberarsi dello Stato per essere così libero di poter disporre di sé e della propria proprietà senza autorità superiori, dogmi del Capitale esclusi. L'origine viene talvolta collocata negli anni '30, come reazione alle forti influenze del governo sui se ori produ ivi esercitati dalla politica de New Deal. Tra i padri fondatori emerge Murray N. Rothbard, economista discepolo di Ludwig von Mises e legato ad una visione dell'uomo come homo oeconomicus, oltre che ad un feroce odio anti-socialista. L'ascesa dei colossi dell'informazione (-> GAFA), diventati potenze economiche con un raggio di azione che si estende ben oltre i confini nazionali, ha portato queste teorie economiche a dominare, in modo più o meno esplicito, le visioni e i sogni della Silicon Valley, oltre che una certa etica hacker anti- statalista ma di ispirazione liberista che determina oggi tu o il mondo digitale, da Wikileaks alle (->) criptovalute.

366

Big data Nozione introdo a all'inizio del XXI secolo per indicare l'esponenziale aumento delle capacità di salvataggio dei dati in forma digitale. Nel 2001 la multinazionale di consulenze informatiche Meta ha coniato la regola delle “3 V” per indicare le tre cara eristiche che distinguono i big data: Volume, la quantità di informazioni; Velocity, la velocità di acquisizione e tra amento dei dati; Variety, la differenziazione qualitativa delle informazioni raccolte. Nell'acceso – e non concluso – diba ito in merito ad una rigorosa definizione di big data, ciò che emerge come fa ore identificativo è la grande quantità delle informazioni immagazzinate, tale da superare le capacità – sia di metodi conosciuti che di potenza di calcolo – degli a uali metodi di analisi. Blockchain Questa tecnologia fu ideata da un sogge o (non si sa né chi sia né se si tra i di una singola persona o di un colle ivo) so o lo pseudonimo di Satoshi Nakamoto, che in un ormai celebre paper del 2008 introdusse il conce o di blockchain applicandolo come primo caso alla criptovaluta (->) bitcoin, per la quale la catena di blocchi funge da libro contabile delle transazioni. Tu ora è aperto il diba ito sulle possibili applicazioni di questa tecnologia, nell'ambito delle criptovalute e non solo.

Copyright/Copyleft Diri o di copia, introdo o nell'Inghilterra del XVI secolo per favorire il controllo delle stampe da parte degli editori a seguito della progressiva automazione della stampa, e quindi della maggiore riproducibilità delle opere. La formula di copyright più utilizzata è All Rights Reserved, che al suo stato a uale riserva tu i i diri i di utilizzo all'avente diri o fino a se ant’anni dalla morte dell'autore. La legge sul Copyright è un disposi367

Glossario

Cloud Spazio di archiviazione digitale, nel quale è possibile salvare file per poi accedervi da remoto. Dal nome sembrerebbe che questi gigabyte stiano in una dimensione eterea sopra le nuvole, quando in realtà si tra a semplicemente di grossi computer di qualcun'altro.

Glossario

tivo legale per creare “scarsità” in un se ore produ ivo e perme ere in questo modo il profi o degli aventi diri o, che nella maggior parte dei casi non sono gli autori ma grandi editori, case discografiche e di produzione. Non è un caso se, con la diffusione dell'informatica, questo sistema sia entrato in una fase di crisi, come nella guerra ai mulini a vento contro lo sharing, portando la nascita di alternative. Le licenze di tipo Copyleft, ideate originariamente da Richard Stallman in ambito informatico (GPL) per salvaguardare il software libero prodotto dalle comunità hacker dai tentativi di appropriazione delle grandi case di software, e proseguite poi con la creazione delle licenze Creative Commons (CC) a opera di Lawrence Lessig, consentono di preservare la libertà di utilizzo dei prodo i della cultura per scopi non commerciali e aprono la possibilità di modificare il prodo o a chiunque lo desideri. L'efficacia o meno di queste alternative nel so rarre il lavoro immateriale da nuove e mutevoli forme di sfru amento hanno portato via via l'arrivo di nuove proposte, come il copyfarleft proposto da Dmy-tri Kleiner nel suo Manifesto Telecomunista. Criptovaluta Moneta virtuale la cui generazione e le cui transazioni sono garantite da metodi cri ografici. Utilizzano tecnologie distribuite peer-to-peer (p2p) la cui infrastru ura è costituita da computer distribuiti in tu o il pianeta. A seconda della valuta, i metodi di creazione e utilizzo possono cambiare notevolmente. Tra le principali, Bitcoin nata a gennaio 2009 è la prima e più diffusa criptovaluta, e ad oggi, la più quotata, ed Ethereum, nata nel 2015, che prevede l'esecuzione di smart contract e garantisce un totale anonimato a differenza dello "pseudo-anonimato" del Bitcoin. Ancora, Ripple, Litecoin, Monero sono tra le più diffuse. IOTA, un token cri ografico di nuova generazione, è stato creato per essere utilizzato nei pagamenti automatici tramite (->) l'Internet of Things. Il diba ito sul futuro delle criptovalute è ancora in corso, mentre la loro diffusione è messa a dura prova dall'eccessiva volatilità. Inoltre, il sogno di vedere in queste tecnologie una possibilità di redistribuzione della ricchezza è stato smentito dalle grosse capacità di calcolo – quindi di fondi “classici” - necessari per compiere a ività di mining, cioè di creazione vir-

368

tuale della moneta, e di transazione. Anche nel mondo delle monete virtuali, insomma, the rich get richer. Cultura algoritmica Utilizzo dei processi computazionali per determinare i processi culturali. Con la progressiva datificazione e l'aumento delle capacità di calcolo, è aumentata in questi anni l'a enzione verso questo fenomeno. Datificazione In inglese datification, trado o a volte anche come dataficazione o datizzazione, o espresso in francese come mise en données du monde, è la trasformazione dell'informazione (e di tu e le cose “del mondo”) so oforma di dato analizzabile, matematizzabile.

Filter bubble Neologismo coniato dall'a ivista Eli Pariser nel suo The Filter Bubble: What the Internet is Hiding from You, e che viene frequentemente utilizzato per esprimere il risultato della personalizzazione dei contenuti delle pia aforme online, il quale ricade sulle informazioni percepite, le persone con cui entriamo in conta o, le notizie che ci vengono presentate tramite un filtro personale. Il timore diffuso è che questo processo isoli

369

Glossario

Fake news Termine entrato nel diba ito pubblico degli ultimi anni per indicare la diffusione di informazioni inventate, ingannevoli o distorte. Con l'avvento di Internet si ritiene che questo tipo di notizie possano diffondersi più rapidamente. Vi sono numerosi proge i di ricerca su un eventuale risoluzione algoritmica al problema delle fake news, anche se ad ora non è chiaro neanche cosa di preciso si intenda con questo termine. Uno dei casi più famosi di fake news risale al 1814, quando la borsa di Londra andò in tilt a seguito del diffondersi della notizia della morte di Napoleone, a seguito della quale molti azionisti si precipitarono a investire contando sul ritorno dei Borboni. Tu avia, Napoleone, seppur sul fronte di guerra, era ancora vivo, e la notizia del suo decesso si rivelò essere l'invenzione di un uomo vestito da ufficiale in una locanda di Dover.

l'utente da informazioni in contrasto con il suo punto di vista, rafforzando invece le sue convinzioni pregresse. Un simile fenomeno, a dire la verità, si può riscontrare senza scomodare le tecnologie digitali, e dipende dalle abitudini assunte, più o meno volontariamente. Ciò che è importante è non credere che una pia aforma proprietaria, che fa della targetizzazione il proprio business, sia uno strumento o imale per contrastare l'effe o bolla. GAFA Acronimo apparso per la prima volta su Le Monde nel 2012, e sta per Google Apple Facebook Amazon, i colossi dell'industria digitale e tecnologica

Glossario

Intelligenza Artificiale Da una definizione dell'ingegnere Marco Somalvico, «insieme delle metodologie e delle tecniche che consentono la proge azione di sistemi hardware e software capaci di fornire all'elaboratore ele ronico prestazioni che, ad un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell'intelligenza umana». La dipendenza della definizione rispe o un osservatore umano non è casuale né opzionale. Lo stesso Test di Turing, proposto nel 1950, stabilisce che una macchina è effe ivamente in grado di pensare quando si rende indistinguibile da un umano agli occhi di uno spe atore esterno. Una delle tecnologie maggiormente utilizzate oggi nel campo dell'IA è il (->) machine learning. La robotica (-> robot) è una disciplina stre amente legata all'IA, che sviluppa le tecnologie capaci di simulare (e superare) l'umano anche dal punto di vista motorio. Internet of Things Possibilità di connessione in rete tra ele rodomestici, utensili, trasporti e altri ogge i di uso quotidiano, al fine di o imizzarne l'uso. Mentre non sono tu ora chiare gli utilizzi specifici di questa tecnologia, è evidente il problema che potrebbe sollevare in termini di sicurezza, come dimostra il caso Mirai, un malware proge ato per infe are quanti più ogge i connessi possibili per poi utilizzarli per fare richiesta ad un determinato si-

370

to, rendendolo irraggiungibile (a acco DDoS). Senza adeguate misure di sicurezza informatica, l'IoT potrebbe trasformare una lavatrice in un automa hacker.

Metadati "(Dato) per mezzo di un (altro) dato", è un'informazione che descrive altri dati. Ogni volta che sca iamo una foto dal cellulare, ad esempio, viene salvata non solo l'immagine vera e propria costituita dai pixel colorati, ma anche informazioni inerenti all'orario dello sca o, il dispositivo utilizzato e altro. Ogni file può contenere altre informazioni “secondarie”, spesso non evidenti, ma che possono essere utilizzate per compiere analisi sui metodi di creazione dell'informazione.

371

Glossario

Machine Learning Anche trado o come “apprendimento automatico”, indica un insieme di strategie e metodi di intelligenza artificiale utilizzati per costruire software capaci di svolgere a ività affini alle capacità umane che sarebbero impossibili per l'algoritmica classica. Se un programma di tipo deterministico, come un calcolo matematico complesso o una serie di condizioni SE-ALLORA, è costituito da una serie precisa di istruzioni da svolgere in un ordine prefissato, un algoritmo di ML svolge una prima fase di apprendimento, nella quale può riconoscere pa ern, creare stru ure ad albero complesse, o addestrare reti neurali, per poi essere utilizzato per catalogare, fare associazioni o elaborare un output complesso, in base alle stru ure apprese in precedenza. Se i modelli matematici alla base del ML sono stati ideati a partire dagli anni '50, ora grazie alla disponibilità di grossi dataset e di alte capacità di calcolo è possibile me erli in pratica. Ogni volta che sentiamo parlare di algoritmi che sanno rispondere a domande, riconoscere foto di ga i da cani, ba ere un giocatore umano a scacchi o go, si tra a di applicazioni di metodi specifici di ML a contesti diversi. Per Deep Learning si intente un so o-campo del ML che fa uso di reti neurali con più livelli di profondità.

Open Aperto, accessibile. Un software è open source quando viene reso disponibile il suo codice sorgente, quindi è possibile studiarne il funzionamento disponendo delle stesse informazioni del suo programmatore, oltre che modificarlo e crearne estensioni. Con open data, dati aperti, si intendono vasti archivi (dataset) di tipo variegato, messi a disposizione per compiere analisi o statistiche. Se fino a qualche anno fa una licenza Creative Commons (-> copyright) di tipo non commerciale poteva garantire un controllo su eventuali utilizzi economici delle informazioni di un open dataset, con le tecnologie di (->) machine learning è possibile fare uso di questi dati per addestrare software di (->) intelligenza artificiale, senza quindi fare un uso evidente della fonte, rendendo così il mondo open una miniera per l'estrazione di valore (usando probabilmente dati anche tuoi). Postverità Parola dell'anno 2016 secondo Oxford Dictionary, dopo che la stampa internazionale aveva più volte fa o riferimento a questo conce o a seguito del referendum sulla Brexit e le elezioni di Trump. Pur restando dal significato vago e spesso re-interpretato in declinazioni differenti, indica un ordine del discorso che si appella all'emotività per superare i fa i e dare così consistenza a una credenza. Nel discorso comune ha sostituito l'espressione "post fa uale", che indicava con maggior precisione il ruolo dei dati nella messa in discussione delle categorie di giudizio più consolidate.

Glossario

Prosumer Neologismo composto mutuato dall'inglese, unione di producer e consumer. È utilizzata per evidenziare il ruolo peculiare dell'utente del Web 2.0, che si trova ad essere spesso sia consumatore di una pia aforma che creatore dei contenuti in questa, eventualmente so o forma di pagine o blog personali

372

Rete neurale artificiale Negli studi di intelligenza artificiale, una Rete Neurale Artificiale (RNN) è un modello matematico la cui stru ura si ispira ad una rete neurale naturale, quindi composta da neuroni e connessioni tra questi. Mentre di neuroni artificiali si iniziò a discutere negli anni '40, fu nel 1958 che Frank Rosenbla propose il perce rone, la rete neurale più semplice, composta da uno strato di input, un neurone e uno strato di output. Il modello è capace di risolvere problemi di logica semplice, ma fallisce non appena il problema si fa più complesso, rendendo necessaria una stru ura di rete multistrato. Questi modelli, grazie ai dati a disposizione e alle alte capacità di calcolo, hanno trovato ampio utilizzo insieme ad altri metodi di (->) machine learning.

Robot Termine apparso per la prima volta nel 1920 nel dramma teatrale I robot universali di Rossum dello scri ore ceco Karel Capek, deriva appunto dal termine ceco robota, lavoro pesante. I possibili rapporti tra umani e robot sono stati negli ultimi cento anni immaginati e studiati nella le eratura, nella saggistica, nel cinema e nelle arti, sempre mescolando speranze e paure. Recentemente il diba ito si è particolarmente acceso, visto l'avanzare dell'uso di automi in vari campi, dalla sessualità alla medicina, dall'industria ai trasporti.

373

Glossario

Realtà Virtuale (VR)/Aumentata (AR) Tecnologie che consentono, rispe ivamente, di creare un ambiente completamente simulato, nel quale un operatore può compiere azioni ed esperire sensazioni visive e auditive (VR), oppure di arricchire la percezione sensoriale sovrapponendo l'ambiente reale con immagini o ogge i virtuali con i quali è possibile interagire. Le applicazioni di questo tipo di dispositivi stanno aumentando ogni giorno, nell'apprendimento, nella sanità, nell'aumento delle possibilità di comunicazione, mentre si diffonde nell'immaginario di massa il timore che queste tecnologie possano portare a livelli estremi di isolamento e individualizzazione.

Sharing economy Fenomeno socio-economico in via di continuo mutamento e quindi difficilmente classificabile, riguarda tu e quelle pia aforme online che si fanno da intermediarie nella condivisione di un bene (bike-sharing, carsharing, couchsourfing), con relativa estrazione di valore. L'utilizzo diffuso di queste possibilità offre inoltre una vasta quantità di informazioni per produrre analisi, statistiche, targetizzazioni. Smart City Narrazione feticistica di una "ci à intelligente", nella quale le infrastrutture messe in rete grazie alle tecnologie di comunicazione tendono all'ottimizzazione energetica e dei servizi. Se in teoria l'automazione nello spazio urbano potrebbe essere sinonimo di maggiore qualità della vita, le a uali forme economiche di (->) sharing e platform capitalism tendono più a configurare questa tecnologia come un'enorme possibilità di estrazione di valore e controllo sociale dello spazio stesso.

Glossario

Social network In sociologia e in matematica (in particolare in teoria dei grafi), una rete sociale è un modello composto da nodi e link, utilizzato per rappresentare un qualsiasi gruppo di sogge i in relazione tra loro. In ambito digitale, l'espressione social network fa riferimento a un particolare tipo di pia aforma virtuale, sulla quale è possibile tessere relazioni con altri utenti. Se fino agli anni 2000, Internet era considerato uno strumento utile per potersi conoscere nuove persone geograficamente distanti, Facebook è stato il primo portale a richiedere esplicitamente che i rapporti di “amicizia” online dovessero rispecchiare le relazioni off-line, allo scopo di creare una rappresentazione del reale utile a fini di analisi e statistiche. Lanciata il 4 febbraio 2004, la pia aforma di Mark Zuckerberg è disponibile in 100 lingue e ha raggiunto nel giugno del 2017 la quota 2 miliardi di utenti a ivi mensilmente.

374

Glossario

WWW World Wide Web, uno dei principali servizi di Internet, perme e di usufruire di materiale e informazione grazie all'utilizzo di protocolli di rete. La sua nascita viene comunemente ricondo a al 6 agosto 1991, quando l'informatico Tim Berners-Lee pubblicò il primo sito web, per quanto l'idea fosse già stata proposta due anni prima, nel 1989, presso il CERN di Ginevra. Negli anni 2000, con il diffondersi di blog e siti che lasciavano l'opportunità all'utente di creare i contenuti, si è iniziato a parlare di web 2.0 per indicare questa fase, definita non da una diversa tecnologia di base, quanto da un differente tipo di utilizzo del web. Recentemente, qualcuno ha usato anche il conce o di web 3.0 per indicare le ultime evoluzioni del web come l'interazione con tecnologie di intelligenza artificiale. Secondo il report del Global Digital 2018, su se e miliardi e mezzo di esseri umani nel Mondo, qua ro miliardi e mezzo sono connessi ad Internet e, di questi, tre miliardi sono a ivi sui social media.

375

Biografie degli autori Daniele Gambe a Laureato in matematica, giornalista freelance, Daniele Gambe a ha collaborato negli ultimi anni con varie riviste e testate giornalistiche - tra cui il Manifesto, Motherboard, Fanpage, Pagina 99 - con articoli e approfondimenti di scienza e tecnologia. Datacrazia è la sua prima pubblicazione saggistica. Partecipa al gruppo di ricerca indipendente HackMedia. Raffaele Alberto Ventura Vive a Parigi. Nel tempo libero è Eschaton, un blog che da più di dieci anni guarda la contemporaneità da prospe ive inedite. Ha scri o per numerose riviste come Linus, Prismo, Internazionale, Alfabeta2. È l'autore di Teoria della classe disagiata (Minimum Fax, 2017). Andrea Fumagalli È docente di economia all’Università di Pavia. È stato fondatore della rivista Altreragioni. Con Sergio Bologna ha curato Il lavoro autonomo di seconda generazione (Feltrinelli, 1997). Altri suoi lavori sono: Bioeconomia e capitalismo cognitivo (Carocci, 2007) e La moneta nell’impero (insieme a Christian Marazzi e Adelino Zanini, Ombre corte, 2002).

Biografie

Giorgio Grizio i È un ricercatore indipendente sulle mediazioni tecnologiche contemporanee del neurocapitalismo. Collabora e pubblica su Alfabeta2, Euronomade, OpenDemocracy e sul sito di riflessione politica Effimera di cui è membro fondatore. I suoi saggi sono apparsi nelle opere colle ive: Creative Capitalism, Moltitudinous Creativity, La Moneta del Comune, Nel 2016 pubblica per Mimesis Neurocapitalismo, mediazioni tecnologiche e line di fuga, trado o in spagnolo, in francese e in corso di traduzione in inglese. Simone Pieranni Genovese, lavora a Il Manifesto. Dal 2006 al 2014 ha vissuto in Cina, dove ha fondato l'agenzia China-Files. Ha scri o Il nuovo sogno cinese (manife376

stolibri, 2013) e Cina globale (mani-festolibri, 2017). È coautore, con Giada Messe i, del podcast Risciò sulla Cina contemporanea. Emanuele Cozzo Si laurea in fisica all'università La Sapienza dove sviluppa l'interesse per la scienza critica a ingendo alla tradizione del dipartimento. Come ricercatore, lavora prima a Saragozza e a ualmente a Barcellona. Collabora con colle ivi tecnopolitici quali @DatAnalysis15m e promuove proge i di tecnoscienza critica con l'associazione Heurística. Eleonora Priori Ha ventiqua ro anni ed è una do oranda in economia all'Università di Torino. Ha studiato tra Genova e Torino, dove ha conseguito un master in Data Sciences for Complex Economic Systems. Si occupa delle trasformazioni economiche e socio-politiche legate all'impa o delle tecnologie. Quella su Datacrazia è la sua prima pubblicazione. Andrea Capocci Nato nel 1973 è assegnista di ricerca alla Sapienza di Roma. Scrive su il Manifesto e traduce per Le Scienze. Ha scri o Networkology (Il Saggiatore 2011) e Il breve o (Ediesse 2012).

Roberto Paura È co-fondatore dell'Italian Institute for the Future e dire ore della rivista Futuri. Svolge a ualmente un do orato di ricerca all'Università di Perugia sulla comunicazione della scienza. Si occupa anche di storia dell'età rivoluzionaria e napoleonica, su cui ha pubblicato, tra gli altri titoli, una Guida alla Rivoluzione francese (Odoya, 2016).

377

Biografie

Mauro Capocci È laureato in Filosofia, do ore di ricerca in Storia della Scienza e ricercatore in Storia della medicina e Bioetica presso Sapienza Università di Roma. Studia principalmente l'età contemporanea e il complesso rapporto tra scienza e società.

Andrea Daniele Signorelli Si occupa del rapporto tra nuove tecnologie, politica e società. Scrive per La Stampa, Wired, Il Tascabile, Pagina99 e altri. Nel 2017 ha pubblicato Rivoluzione Artificiale: l’uomo nell’epoca delle macchine intelligenti (Informant). Roberto Pizzato Nasce a Bassano del Grappa nel 1984. Ha lavorato nel campo della comunicazione, della ricerca e del giornalismo per startup, lab e noprofit in Olanda, Germania e Regno Unito. I suoi scri i sono apparsi su blog, riviste e giornali online tra cui Wired, Esquire, Prismo e La Stampa. Flavio Pintarelli Scri ore e content marketing manager. Si occupa di giornalismo culturale e tecnologico, con particolare a enzione alle problematiche del visivo nella contemporaneità. Scrive o ha scri o su diverse riviste tra cui Internazionale, Prismo, Vice e Rivista Le eraria. I suoi saggi sono apparsi in diverse raccolte. Massimo Airoldi È sociologo e ricercatore presso il Lifestyle Research Center, EM Lyon Business School, dove si occupa di principalmente di social media, tecnostru ure, consumi e metodi digitali di ricerca. Con Paolo Natale ha recentemente curato il manuale Web & social Media. Le tecniche di analisi (Maggioli Editore).

Biografie

Angelo Paura Vive a New York dove lavora per la redazione de Il Sole 24 Ore Usa. Scrive e ha scri o per quotidiani e magazine italiani e americani. Ha studiato “giornalismo immersivo” nel corso del master in Social journalism alla CUNY Graduate School of Journalism di New York. Si occupa sopra u o di culture digitali, nuovi media, tecnologia e politica. Ama gli spazi vuoti, la slackline, il mezcal e disegnare mostri. Lelio Simi Giornalista professionista si è formato nella redazione Toscana de l'Unità si occupa di giornalismo sul web dal 2001, collabora con diverse testate 378

scrivendo sopra u o di modelli di business dei media e strategie editoriali. È tra i fondatori di DataMediaHub il think tank che utilizza il datajournalism per analizzare i media italiani. Corrado Gemini Musicista, ricercatore ed a ivista. Da 15 anni nella scena underground milanese, partecipa ai percorsi del Teatro Valle a Roma, dell'Ex-Asilo Filangieri a Napoli e di Macao a Milano. È a ivo oggi nella ricerca di nuovi modi di produzione della cultura e di gestione della proprietà intelle uale. Tommaso Campagna Video-maker e artista visuale, sperimenta nuovi strumenti di comunicazione e di espressione artistica. Laureato nel 2017 in Discipline dello Spe acolo e della Comunicazione a Pisa, con una tesi su teorie accelerazioniste e tecnologie di realtà virtuale. Partecipa al gruppo di ricerca indipendente HackMedia. Federico Nejro i Dirige l'edizione italiana di Motherboard, il magazine di scienza e tecnologia di VICE. Negli anni ha seguito l'evoluzione del rapporto di governance tra grandi pia aforme virtuali e stati nazionali. Ha una newsle er non proprio se imanale chiamata Newslegger e ha scri o e condo o diversi video-documentari per Motherboard.

Alberto Manconi Laureato in Scienze Politiche alla Scuola Superiore Sant'Anna e all'Università di Pisa, da anni segue e traduce i lavori di Datanalysis15M e Tecnopolitica.net. Da a ivista, ha partecipato a molti incontri europei portando contributi sugli aspe i comunicativi e organizzativi e collabora con il colle ivo Euronomade ed il sito Dinamopress.it. 379

Biografie

Daniele Salvini Nato a Milano, ha vissuto troppo tempo a New York. Video documentarista e informatico dile ante, da tempo interessato di diri i civili in rete, fin da prima che questi si occupassero di lui.

Javier Toret Medina Laureato in Psicologia all'Universidad de Malaga. Lavora tra filosofia, politica, psicologia e tecnologia. Ricerca le trasformazioni della sogge ività e le forme di comunicazione, azione ed organizzazione colle iva nell'era della rete. Ha coordinato il proge o di ricerca colle iva Tecnopolitica: la potenza delle moltitudini connesse. Antonio Calleja López Do ore in Sociologia (University of Exeter), Master in Scienze Politiche (Arizona State University), DEA in Filosofia e laurea in Scienze dell'Educazione (Universidad de Siviglia). Partecipa in proge i di studi sociologici, innovazione tecnoscientifica, intersezione arte e politica e di analisi dei movimenti sociali. A ualmente, tre di questi sono Decode, LAB Metadecidim, e Interidentidad. Xabier E. Barandiaran È coordinatore del proge o Decidim, do ore in Filosofia, professore di Filosofia alla Universidad del Pais Vasco e ricercatore al IAS-Research Centre for Life, Mind and Society. A ivo in molti altri proge i tra cui Buen Conocer/FLOK Society in Ecuador, di cui è stato coordinatore e dire ore (2013-2015).

Biografie

Arnau Monterde Do ore in Società dell'Informazione e della Conoscenza all'Internet Interdisciplinary Institute (IN3) della Universitat Oberta de Catalunya. Partecipa alla rete Datanalysis15M e fa ricerca a orno alle dinamiche colle ive dei movimenti-rete: come emergono, quale uso fanno delle reti, che evoluzione ed impa o hanno sulle nostre società. Donatella Della Ra a Scrive di media e culture arabe. Ha all'a ivo pubblicazioni in italiano ed inglese sull'argomento, fra cui Al Jazeera. Media e società araba nel nuovo millennio (Bruno Mondadori, 2005) e, in collaborazione con Naomi Sakr e Jakob Skovgaard-Petersen, Arab Media Moguls (I.B. Tauris 2015). Dal 2008 al 2013 è stata manager dell'organizzazione internazionale Creative Commons per il mondo arabo. Ha curato diverse mostre e festival sulla 380

produzione artistica in Siria, fra cui Syria Off Frame e Syrian New Waves. È di prossima pubblicazione Shooting a Revolution. Visual Media and Warfare in Syria (2018).

Biografie

Geert Lovink Fondatore dell’Institute of Network Cultures, è un teorico e critico dei media. Ha lavorato al Centre for Critical and Cultural Studies, presso l’University of Queensland. Dal 2004, è ricercatore presso il Hogeschool van Amsterdam e professore associato presso l’University of Amsterdam. Ha partecipato ed è stato fondatore di diversi proge i legati ad internet, come ne ime e fibreculture. I suoi libri più recenti sono Dark Fiber, Uncanny Networks e My First Recession. Nel 2005-06 ha insegnato presso la WissenschaftskollegBerlin Institute for Advanced Study, dove ha copletato il suo terzo libro Zero Comments.

381

stampato nel mese di maggio 2018 da PRESS UP (Roma)

D Editore [email protected] www.deditore.com