Sociologia dei media digitali. Relazioni sociali e processi comunicativi del web partecipativo 8842097713, 9788842097716

Milioni di persone si informano e interagiscono fra loro attraverso l'uso di internet e delle nuove tecnologie. Ogn

138 59 1MB

Italian Pages 189 [180] Year 2011

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
— dedica
Prefazione
I. Contesto. Processi comunicativi e media digitali: un panorama mutato
1. Il processo comunicativo: dal broadcasting al socialcasting
2. Il pubblico: dall’audience ai pubblici-audience
3. Le mutazioni dei media: dai mass media ai social media
4. Macrosistemi tecnici, infrastrutture e piattaforme
II. Strumenti. Le infrastrutture della collaborazione su internet
1. Alla ricerca di una definizione tra tecnologia e processi sociali
2. Le dinamiche sociali della tecnologia: diffusione, addomesticamento, mobilità
3. Blog: la dimensione dialogica
4. Wiki: gli spazi di collaborazione
5. Social network (sites): la componente relazionale
6. Altre forme di social media: Youtube, Twitter, Friendfeed
III. Valori. La dimensione etica della network society
1. La tecnologia e il problema dei valori
2. L’emergere della tecnoetica: Simputer e Miss Bimbo
3. Scimmie, lemming, alveari: critiche al web partecipativo
Bibliografia
Sitografia
Blog
Enciclopedie collaborative
Piattaforme di blogging
Piattaforme di document sharing
Piattaforme di microblogging
Piattaforme di news
Piattaforme di videosharing/photosharing
Social Network Sites
Altri servizi
Recommend Papers

Sociologia dei media digitali. Relazioni sociali e processi comunicativi del web partecipativo
 8842097713, 9788842097716

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

eBook Laterza

Davide Bennato

Sociologia dei media digitali Relazioni sociali e processi comunicativi del web partecipativo

© 2011, Gius. Laterza & Figli

Edizione digitale: settembre 2013 www.laterza.it

Proprietà letteraria riservata Gius. Laterza & Figli Spa, Roma-Bari  

Realizzato da Graphiservice s.r.l. - Bari (Italy) per conto della Gius. Laterza & Figli Spa ISBN 9788858103470 È vietata la riproduzione, anche parziale, con qualsiasi mezzo effettuata

— dedica

a mia figlia Federica, per cui alcuni temi di questo libro saranno il passato del suo presente Penso solo che la fuga dalla tecnologia e l’odio nei suoi confronti portino alla sconfitta. Il Buddha, il Divino, dimora nel circuito di un calcolatore o negli ingranaggi del cambio di una moto con lo stesso agio che in cima a una montagna o nei petali di un fiore. Pensare altrimenti equivale a sminuire il Buddha – il che equivale a sminuire se stessi. Robert M. Pirsig Lo zen e l’arte della manutenzione della motocicletta (1974) «Oggi, Noi celebriamo il primo glorioso anniversario delle Direttive sulla Purificazione dell’Informazione. Noi abbiamo creato – per la prima volta in tutta la storia – un paradiso di pura ideologia. Dove ciascun lavoratore può realizzarsi al sicuro dalla peste delle verità contraddittorie. La nostra Unificazione dei Pensieri è un’arma più potente di qualsiasi flotta o armata sulla terra. Noi siamo un popolo, con una sola volontà, un’unica risolutezza, una sola causa. I nostri nemici potranno parlare fino alla morte e noi li sotterreremo con la loro stessa confusione. Noi prevarremo!» «Il 24 gennaio la Apple Computer lancerà Macintosh. E capirete perché il 1984 non sarà come 1984.» Spot Apple Macintosh (1984) Il futuro è un vero Olimpo di opportunità e profondi cambiamenti che costringeranno a ripensare il nostro rapporto con la rete. Oggi si contano sulle dita di una mano, ma presto la nostra vita digitale, ma non solo, sarà colonizzata da una serie di servizi ideati, progettati e fatti nascere da uno stuolo agguerrito di imprenditori che coinvolgeranno direttamente gli utenti. E gli utenti con le loro interazioni produrranno un diluvio di informazioni che saranno alla base di un modo completamente diverso di immaginare il marketing e il mercato. C’è chi dice che bisogna stare attenti. Magari da qui a – diciamo – 7 anni, potrebbero nascere delle mini tecnologie in grado di migliorare le attuali tecnologie di controllo, che invece di spiare a lungo potranno spiarci per sempre. Ma io non credo a queste Cassandre. Il futuro è di chi lo inventa, il futuro è di chi lo immagina, il futuro è di chi osa possederlo. David Ben Lidah discorso di chiusura alla O’Reilly Conference (2004)

Prefazione

«Facebook è un luogo per il voyeurismo e il gossip». «Youtube è solo uno strumento per video insulsi e violazioni del copyright». «Il blog è la massima espressione del narcisismo personale». «Wikipedia non può essere una fonte attendibile se è vero che viene scritta da incompetenti». A uno sguardo superficiale, le affermazioni di cui sopra sembrano contenere delle note di buonsenso. In realtà ci sono diversi motivi per considerare riduttivo – e in alcuni casi sbagliato – qualunque giudizio tranchant su questi fenomeni della rete. I processi sociali e comunicativi che sottendono, per quanto in alcuni casi possano sembrare controversi, sono molto complessi e articolati e hanno bisogno di essere compresi e non liquidati acriticamente o – altrettanto acriticamente – esaltati. Internet è diventato un luogo molto diverso rispetto a qualche tempo fa. Sono aumentati i servizi offerti, sono cresciute le startup che inventano nuovi modi di usare il web, sempre più spesso si naviga in rete in mobilità, attraverso telefonini di ultima generazione e tablet, ultimi arrivati sul mercato dell’elettronica di consumo. Ma la caratteristica più evidente del web odierno sono le persone. Internet è densamente popolato e gli studi suggeriscono che questa tendenza aumenterà nel futuro, perché la rete rende possibile scambiare idee, opinioni, interessi, passioni, valori. E per farlo, gli strumenti chiave sono le tecnologie del Web 2.0, o – come si preferisce chiamarle negli ultimi tempi – i social media. Blog, wiki, social network sites hanno ormai catalizzato attenzione (e tempo) di una fetta sempre più consistente di utenti della rete. La domanda a questo punto diventa: ennesima moda digitale o cambiamento epocale? Astuto marketing dei consulenti informatici o rivoluzione dei contenuti generati dagli utenti? Nuova bolla speculativa finanziaria o cambiamento strutturale nell’economia dell’informazione? Insomma: apocalittici o integrati?

Come tutte le dicotomie, anche questa tende a ridurre in una opposizione di bianco e nero un mondo fatto di sfumature di grigio. Lo scopo del volume è quello di orientare gli utenti, siano essi entusiasti o detrattori, a comprendere meglio l’universo dei media digitali, che possiede aspetti interessantissimi e innovativi, assieme ad altri meno interessanti e ad altri ancora più «tradizionali». L’obiettivo che mi sono posto è stato quello di confrontarmi con una sempre più consistente letteratura scientifica su questi temi, che usa la prospettiva delle scienze sociali (e della sociologia della comunicazione in particolare) per provare a cartografare uno spazio sociale in costante mutamento. Ma come succede per tutte le cose in rapido mutamento, non tutto ciò che cambia cambia davvero. Sembra di sentire l’eco delle parole che, nel racconto Attraverso lo specchio, la Regina Rossa rivolge ad Alice: «Bisogna correre velocemente se si vuole restare fermi nello stesso posto». O – per chi preferisce atmosfere letterarie gattopardesche – «Se vogliamo che tutto rimanga come è, bisogna che tutto cambi». Per evitare la gabbia concettuale della dicotomia vecchio/nuovo o apocalittici/integrati, ho provato a immaginare un percorso che si dipana fin dal titolo del volume. I temi che verranno affrontati nelle prossime pagine solitamente vengono designati con la dizione di studi sui new media. Io ho preferito usare la dizione media digitali, anzitutto perché chiamare questi mezzi di comunicazione «nuovi» vuol dire far loro un torto, dato che, pur essendo recenti, non vuol dire che siano nuovi. Così come non è più possibile considerare «nuovo» internet, che ormai fa parte delle abitudini di consumo culturale di una fetta sempre più consistente di italiani. Un altro motivo per il quale ho scelto di non usare il termine new media è che, nei convegni accademici su questi temi, fra colleghi di diverso ordine e grado questa definizione è percepita (e neanche tanto velatamente) come un letto di Procuste: troppo ampia per alcuni studi, troppo stretta per altri. Infine perché, frequentando – da neofita e curioso – il mondo della cultura digitale italiana, con i suoi incontri informali, riti e manifestazioni, ho notato che il termine quando non è sconosciuto è assolutamente inutilizzato. Dicevamo: tracciare un percorso che funga da cartografia di uno spazio sociale in mutamento. Ma quali sono i punti di riferimento di questo percorso?

In primo luogo la dimensione del cambiamento. A questo tema ho dedicato il primo capitolo, provando ad argomentare come i media digitali costringano a ripensare in chiave diversa alcuni temi che costituiscono l’ossatura degli studi sociali sulla comunicazione, come broadcast, audience, mass media, distinzione pubblico/privato. Ho cercato di mostrare come i media del web partecipativo si inseriscano in processi tipici della tradizione classica di studi e teorie sulla comunicazione, ma nel far questo portano delle sfide al modo tradizionale e «pacificato» di ripensare i concetti di cui sopra. Ad esempio, i blog sono sia mezzo di comunicazione che mezzo di relazione sociale, attualizzando così la commistione fra comunicazione di massa e comunicazione interpersonale, che è una delle grandi scoperte della notissima teoria del flusso di comunicazione a due fasi di Katz e Lazarsfeld. Un altro punto di riferimento di questo percorso è la dimensione infrastrutturale della relazione su internet, a cui ho dedicato il secondo capitolo. In questo caso la questione che ho affrontato è: di cosa si parla quando si parla di media digitali? Può sembrare un mero esercizio accademico, ma non lo è (o non lo è del tutto). Distinguere un blog da un wiki, o un social network da un microblog, non è solo un bizantinismo, ma serve per comprendere che le relazioni sociali e le strategie che vengono sviluppate – poniamo – nei blog sono profondamente diverse da quelle dei microblog. Per tanti motivi, ma uno su tutti: molte delle possibilità relazionali rese disponibili dai media digitali sono inscritte nella tecnologia, sono incorporate nella macchina. Relationship in the machine, parafrasando un celebre album dei Police (e una altrettanto celebre teoria della filosofia della mente). Il terzo punto di riferimento sono i valori, oggetto della discussione dell’ultimo capitolo. Qui sostengo che le scienze sociali hanno la necessità di comprendere la dimensione valoriale ed etica dell’uso che viene fatto dei media digitali. Ovviamente in senso laico e liberale: non ritengo che ci sia un modo giusto o sbagliato in senso assoluto di usare le tecnologie legate ad internet. Ma ritengo che ci siano usi che si potrebbero definire problematici, ovvero che pongono questioni non banali sull’immagine del mondo che ognuno di noi possiede. C’è un altro motivo – squisitamente personale – che mi ha portato ad affrontare questo tema. Da diversi anni sono autore di un blog che si chiama Tecnoetica e che è nato proprio per

affrontare la questione del rapporto fra valori e tecnologia (non necessariamente digitale). Col tempo è diventato un disordinato quaderno degli appunti dei miei interessi personali e di ricerca che si è un po’ allontanato dal progetto originario, ma ciononostante continuo a subire il fascino che hanno i valori quando vengono interpretati dalla tecnologia. Questo il percorso che ho intrapreso, aiutato dalla consistente letteratura scientifica che si sta accumulando su questi temi e da una più che evidente passione per questo mondo, che mi ha permesso di conoscere tanti professionisti, tanti colleghi e tantissime persone che adesso considero amiche. Al mio lettore chiedo di sospendere i preconcetti – positivi o negativi – e di interrogarsi su come questi strumenti abbiano cambiato le nostre relazioni e in che modo stiano modificando la realtà sociale e comunicativa intorno a noi. Media e reti digitali. Né moda, né rivoluzione. «Semplicemente» media.

I. Contesto. Processi comunicativi e media digitali: un panorama mutato

Uno dei topoi della letteratura contemporanea sulla sociologia della comunicazione è il passaggio dall’analogico al digitale. Questa transizione spesso viene concepita come un passaggio tecnologico (ad es.: Negroponte, 1999) o – nella migliore delle ipotesi – come un passaggio di tipo socioculturale. L’idea che si cercherà di sostenere in questo capitolo è che è sicuramente innegabile un cambiamento nel passaggio dai media analogici ai media digitali, fermo restando che questo cambiamento – per certi versi – ripropone da una prospettiva diversa temi classici dei mezzi di comunicazione di massa. In pratica è un cambiamento nella continuità della tradizione della comunicazione attraverso i media.

1. Il processo comunicativo: dal broadcasting al socialcasting La letteratura sociologica sui media che si è interrogata sulle architetture tecnologiche della trasmissione della comunicazione ha sempre fatto riferimento ad una caratteristica considerata tipica dei mezzi di comunicazione di massa analogici ed elettrici: il broadcasting (DeFleur, Ball-Rokeach, 1995; Thompson, 1998). Con il termine broadcasting si fa riferimento alla modalità di trasmissione detta da uno a molti, in cui c’è una sorgente di comunicazione che irradia il proprio contenuto ad una collettività di persone concettualizzata come indistinta e che viene definita pubblico dei media (definizione che aggiorna l’ormai desueto concetto di «massa»: Gili, 1990). Il termine irradiare non è stato scelto a caso, dato che il concetto di broadcast deve la propria diffusione proprio allo sviluppo del sistema radiotelevisivo (Sorice, 2005; Boni, 2006). L’uso del termine è sempre stato di tipo ingegneristico o – se vogliamo – di tipo eminentemente trasmissivo, ovvero il broadcasting inteso come sistema tecnologico tipico dei mezzi di comunicazione di massa basati sulle onde radio. Le analisi più recenti, che hanno messo in relazione la dimensione

tecnologica con la dimensione simbolica dell’artefatto televisivo (per esempio: Silverstone, 2000), hanno evidenziato che considerare il broadcast come semplice soluzione tecnologica non rende conto della complessità sociale che tale strategia porta con sé. Classica da questo punto di vista la posizione di Raymond Williams (2000), il quale considera il broadcast come una forma culturale a tutti gli effetti, il cui ruolo è stato quello di fornire uno strumento istituzionalizzato prima per la trasmissione delle notizie e poi per l’approvvigionamento sociale, che tra le altre conseguenze ha avuto quella di trasformarsi in un sistema di controllo sociale. Quindi il broadcast è una forma culturale caratterizzata da una precisa architettura trasmissiva con delle specifiche componenti sociologiche (Fidler, 2000). Con il passare del tempo e con la maggiore presenza di tecnologie per la diffusione delle comunicazioni, progressivamente si è fatto avanti un altro concetto legato all’architettura della trasmissione delle comunicazioni: il narrowcasting. Con questo termine si intende per lo più il passaggio da un sistema tecnologico di comunicazione da uno a molti (il broadcasting) a un sistema pochi a pochi (Hirst, Harrison, 2007). In pratica con il narrowcasting è possibile usare un canale comunicativo per veicolare contenuti a pubblici specifici. Questa modalità trasmissiva nasce in origine per descrivere la strategia della televisione via cavo statunitense (Gasparini, 2005; Mullen, 2002), per poi passare a descrivere architetture tecnologiche basate sulle capacità di trasmissione rese possibili da internet (Kruse, 2002; Smith-Shomade, 2004). Questo slittamento di significato è attribuibile al fatto che in origine il narrowcasting era un modo per definire la segmentazione dell’ampiezza di banda – intesa come spettro delle radiofrequenze disponibili – destinata al raggiungimento di pubblici specifici, mentre con internet viene mantenuta la «concezione architetturale» in quanto il problema della capacità di banda è considerato meno pressante (de Sola Pool, 1998). Seguendo l’argomentazione della Buonanno (2006) da un punto di vista prettamente televisivo, la fase tecnologica del narrowcasting potrebbe essere fatta corrispondere con un periodo di abbondanza televisiva (quello degli anni ’90), fase finale di un processo che dall’iniziale scarsità (dalla seconda metà degli anni ’70 all’inizio degli anni ’80) aveva in un secondo momento portato a un periodo di crescita (gli anni ’80 della televisione commerciale: cfr. Ellis, 2000). Da questo punto di vista il narrowcasting non sarebbe altro che la

condizione tecnologica e sociale di quella che è stata definita la fine delle comunicazioni di massa (Olivi, Somalvico, 1997), ovvero una forma culturale alla stregua del broadcasting. Questa interpretazione non solo è congruente con le analisi che fondono dimensione tecnologica e dimensione simbolica dell’esperienza televisiva, ma è stata sostenuta da alcuni teorici dei Cultural Studies. Secondo Fiske (1990, pp. 73-76) i codici narrowcast sono orientati verso un’audience ben precisa, e rispetto ai codici broadcast – tipici dell’audience generica – sono più specifici, hanno bisogno di un periodo di apprendimento e per tali motivi possono conferire status. Per esempio, la musica pop è un codice broadcast, mentre il jazz è un codice narrowcast. Progressivamente, con l’affermarsi del ruolo di internet come strumento di circolazione di contenuti, il concetto di narrowcasting associato alla rete è stato progressivamente sostituito dal concetto di webcasting (Whittaker, 2004). Con questo termine si identifica l’architettura di trasmissione di contenuti tipica del broadcasting (da uno a molti) erogata attraverso le reti digitali. Più correttamente, tale architettura di distribuzione usa il protocollo di internet Tcp/Ip, e solo apparentemente somiglia all’erogazione tipica del sistema radiotelevisivo, in quanto è possibile distribuire contenuti sia verso audience ampie sia verso audience segmentate (Ha, 2004). Con il concetto di webcasting si ritorna ad una concezione più tecnologica della trasmissione, dato che il termine definisce un set di protocolli informatici (della famiglia del World Wide Web) che possono dare origine a diverse architetture di distribuzione: Iptv, reti Peer to Peer, Real Audio/Real Video e così via (Marinelli, 2004). Alcuni, per sottolineare l’importanza del flusso dati alla base di queste forme di distribuzione di contenuti, hanno preferito usare il termine datacasting (Negroponte, 1999). A ben vedere, nonostante il termine non preveda declinazioni culturali, anche il webcasting si presenta come una specifica forma culturale, anche se in questo caso le proprietà simboliche e sociali sono da ascrivere al più ampio contesto della fruizione di contenuti sul web, piuttosto che essere legate ad una specifica forma simbolica. Oggi, se si volesse dare una definizione in grado di comprendere la componente trasmissiva e quella simbolica della comunicazione internet contemporanea, si potrebbe usare il termine socialcasting. Sia ben chiaro: non vogliamo proporre un neologismo a tutti i costi. L’obiettivo è invece

vedere quali componenti dell’attuale web partecipativo possono essere descritte in continuità con concetti istituzionalizzati come broadcasting/narrowcasting. Quindi la domanda corretta diventa: quali sono le caratteristiche che rendono il socialcasting una forma culturale in grado di rendere conto della commistione tecnologica, culturale e sociale dell’attuale web partecipativo? Con il termine socialcasting intendiamo la modalità di trasmissione caratteristica del web sociale e partecipativo, il cui processo distributivo fa riferimento ad una community di persone che decidono in completa autonomia di aumentare la circolazione di un contenuto grazie alle opportunità di condivisione rese possibili dalle nuove piattaforme tecnologiche. Ovviamente il lettore attento avrà notato che – così definita – questa particolare modalità di trasmissione della comunicazione ha una componente tecnologica, rappresentata dalle piattaforme del web partecipativo (blog, social network, videosharing), che ha incorporato in sé le dinamiche della condivisione, ma ha anche una forte componente culturale e simbolica, dato che il flusso dei contenuti avviene grazie alla collaborazione delle persone che fruiscono dei contenuti stessi. Prendiamo un sito celebre: Youtube. Da un punto di vista formale può dirsi caratterizzato da una strategia di trasmissione tipica del webcasting. Ma a ben vedere Youtube, dal punto di vista dell’architettura della trasmissione, è ibrido, in quanto si rivolge a nicchie di audience (come il narrowcasting) e dal punto di vista tecnologico si appoggia sui protocolli web (come il webcasting). Per queste ragioni, riteniamo legittimo descrivere Youtube e molte altre applicazioni del web sociale, in modo particolare quelle basate su una esperienza di fruizione simile alla televisione, come caratterizzati da processi di socialcasting. La scelta di questo termine deve essere considerata anche una strategia retorica per cercare di evidenziare come il processo di comunicazione del web partecipativo può essere inscritto all’interno di un lungo tragitto percorso dai media (elettrici prima, elettronici poi), che nelle loro strategie di distribuzione (casting) inizialmente si sono rivolti a pubblici ampi (broad), poi a pubblici ristretti (narrow), arrivando ai pubblici della rete (web) e infine ai pubblici avvezzi alla condivisione e alla collaborazione (social). C’è da dire che il termine che abbiamo scelto per descrivere questa condizione non è originale. È stato infatti utilizzato nella letteratura che si interroga sul rapporto tra web sociale e formazione (Jones, Iredale, 2009),

è stato usato anche per descrivere una nuova classe di servizi web per la condivisione di contenuti video (DeepRockDrive, Paltalk Scene: cfr. Holtz, Havens, 2009), oltre ad essere presente nei report commerciali come termine del marketing dei servizi di videosharing (per esempio in società di consulenze come Gartner). Ad ogni modo il socialcasting è al contempo processo di distribuzione ed esperienza sociale che rende bene l’idea che il web sociale ha caratteristiche culturali che lo connotano come un cambiamento nella continuità delle trasformazioni dei media. Ovviamente da solo non basta a descrivere l’ecosistema digitale che si è venuto a creare. Un elemento chiave è il nuovo ruolo dell’audience.

2. Il pubblico: dall’audience ai pubblici-audience La componente che rende profondamente sociologica la ricerca sui mezzi di comunicazione di massa è il pubblico (meglio: i pubblici), ovvero la collettività di persone che fruiscono (usano, consumano, si appropriano, interpretano) dei contenuti veicolati dai media. Esistono molti modi di definire i pubblici – e qui proveremo ad accennarne qualcuno – ma una caratteristica tipica del pubblico è la sua genesi. I pubblici sono frutto dell’interazione fra il contesto sociale, che ne vincola necessità informative e interessi culturali, e l’offerta mediale, che non deve essere banalizzata con un semplice ancoraggio alla dimensione tecnologica (McQuail, 2001). Rielaborando la classica distinzione fra cinematografo e cinema (Morin, 2002), possiamo dire che il televisore è la tecnologia che consente la trasmissione di segnali audiovisivi, mentre la televisione è il linguaggio veicolato da tale tecnologia. La storia dell’analisi dei pubblici dei media è stata caratterizzata da una progressiva liberazione del pubblico stesso dall’accusa di passività nei confronti dei mezzi di comunicazione di massa. Il primo passo in questa direzione è stato fatto dall’approccio degli usi e gratificazioni (Katz, Blumler, Gurevitch, 2000), che, attraverso l’analisi dei bisogni del pubblico che venivano soddisfatti dall’uso dei media, ha elaborato una vera e propria rivoluzione copernicana del pubblico. Famosa l’affermazione di Klapper (1963) secondo cui la ricerca doveva chiedersi non cosa i media fanno alle persone, ma cosa le persone fanno con i media. Chi ha spinto fortemente in questa direzione sono stati i Cultural

Studies, i quali grazie alla loro impostazione culturologica hanno fortemente rivalutato il pubblico – l’audience, secondo la terminologia della Scuola di Birmingham – come componente attiva nella classica tripartizione dei Media Studies autore-testo-audience (Grandi, 1992). Spartiacque da questo punto di vista è stato il saggio di Stuart Hall (2000), in cui si evidenziava che le forme, con cui la televisione codifica il proprio contenuto, non sempre corrispondono ai modi attraverso i quali l’audience decodifica (modello encoding-decoding). L’attenzione verso le capacità interpretative del pubblico dei media ha dato vita a una serie di concettualizzazioni di un pubblico sempre più coinvolto in prima persona nel processo di fruizione mediale, creando però una profonda spaccatura fra l’audience intesa come soggetto sociale attivo e l’audience come collettività di individui da misurare, analizzare e vendere al mercato della pubblicità (Ang, 1998). Le posizioni teoriche più interessate all’autonomia del pubblico hanno definito la pratica della fruizione dei media ora con la categoria di interpretazione (Lindlof, 1988), ora con la categoria di consumo (Moores, 1998), ora con la categoria di adorazione (Lewis, 1992). Il pubblico attivo è sempre stato considerato una sfida per la ricerca sui media, non solo perché non c’è accordo su come declinare il concetto di attività, ma soprattutto perché spesso la definizione di attività adottata porta con sé una specifica opzione di ricerca (etnografia, sondaggi, focus groups: Kitzinger, 2004; Sorice, 2007a). Secondo la letteratura che ha concettualizzato l’attività del pubblico, è possibile identificare cinque varianti del concetto (Biocca, 1988): la selettività, intesa come espressione della capacità del pubblico di orientare i propri gusti; l’utilitarismo, ovvero una fruizione dei media guidata da scopi e bisogni specifici del pubblico; l’intenzionalità, definita come un’esperienza diretta a elaborare dinamicamente informazioni e fare scelte ponderate come nel caso degli abbonati a riviste; la refrattarietà all’influenza, concepita come la capacità di resistere a informazioni considerate indesiderate o in contrasto con i valori; il coinvolgimento, in cui il pubblico è pienamente immerso in una esperienza mediale che è anche emotiva. La crescita esponenziale della diffusione dei mezzi di comunicazione di massa, l’immersione in una cultura sempre più satura di media, la nascita di media elettronici di tipo nuovo, hanno portato ad una concezione dell’audience sempre più balcanizzata e sempre meno legata ad un

medium specifico. La posizione più recente, che rende conto del mutato panorama mediatico, è quella di audience diffusa (diffused audience: Abercrombie, Longhurst, 1998). Secondo questa impostazione, l’individuo fa parte costantemente di un’audience, non importa se è coinvolto in una pratica performativa oppure se sta fruendo di un prodotto mediale. Le audience diffuse sono frutto da un lato dell’enorme quantità di tempo trascorsa nel consumo di media, dall’altro della forte incorporazione dei media nella vita quotidiana, dall’altro ancora delle caratteristiche culturali della società contemporanea, che la connotano come società performativa in cui la componente narcisistica definisce la posizione del soggetto-spettatore. Le audience diffuse sono sintomo di un tentativo costante di recuperare e aggiornare quello che sempre più è un concetto sfuggente, sempre alla ricerca di una definizione operativa che renda conto della sua complessità (Sorice, 2007b). Il vero problema della definizione di audience è che essa è sempre stata legata all’esperienza televisiva e poi esportata in altri ambiti mediali. Che la televisione sia – tuttora in epoca di media digitali – un elemento centrale della nostra dieta mediale è fuori di ogni dubbio, ma che essa sia in grado di ricondurre a sé altre esperienze di fruizione (per esempio prettamente digitali) è una questione un po’ più complessa. Anche perché lo stesso concetto di audience, quando viene calato in un contesto digitale, solleva più problemi che soluzioni. Emblematico da questo punto di vista il caso della famosa trasmissione Big Brother (Grande Fratello). Grazie alla molteplicità di canali di fruizione di questo oggetto mediale – prevalentemente legati ad internet – è stato necessario non solo riadattare alcune acquisizioni sul concetto di interattività (Kim, Sawhney, 2002), ma anche riformulare alcune riflessioni relative al concetto di audience attiva, in quanto la partecipazione del pubblico al meccanismo narrativo (la votazione), la possibilità di cui esso gode di fruire di notizie diffuse dalla stampa e di accedere alla «casa» via webcam e postare le proprie opinioni hanno alterato l’idea che un’audience attiva è anche un’audience che resiste al testo (Tincknell, Raghuram, 2002). Altri studi hanno provato a studiare i rapporti fra l’audience televisiva e l’audience di internet, ma spesso i risultati sono stati o un sostanziale rafforzamento delle similitudini anziché delle differenze (Ferguson, Perse, 2000), oppure una riproposizione delle classiche forme dell’audience televisiva – audience come spettatori, fan, consumatori, cittadini, da educare,

«cybernauti» – per quanto connessi a contenuti presenti nell’ambiente online (Siapera, 2004). Nel saggio di inaugurazione della rivista «New Media & Society», Sonia Livingstone (1999) si chiedeva se l’avvento dei nuovi media presupponesse delle nuove audience. Da un lato l’audience subiva una certa trasformazione in quanto i new media presentano caratteristiche che li diversificano dai media tradizionali. La moltiplicazione dei media legati al consumo individuale (e la relativa mescolanza fra spazio pubblico e spazio privato), la diversificazione dei media tradizionali nella forma e nel contenuto come reazione allo sviluppo dei media digitali, la convergenza tecnologica e la tendenza verso l’interattività sono le componenti che trasformano le audience televisivamente intese. Dall’altro, l’esplorazione delle relazioni tra la novità tecnologica dei media digitali e la novità dell’uso sociale ha generato una nuova agenda della ricerca che rende centrali le audience digitali, con la conseguenza – ironia di cui la Livingstone è ben consapevole – che ciò che è nuovo della comunicazione in internet è piuttosto datato nella teoria della comunicazione. Se l’idea della continuità tematica fra Media Studies e New Media Studies può considerarsi piuttosto istituzionalizzata (Lievrouw, 2004), la questione chiave è che è sempre più difficile mantenere un concetto di audience «classico», perché così declinato questo concetto deve la sua consistenza teorica alla netta separazione fra chi produce un contenuto e chi fruisce di un contenuto. In un ambiente digitale in cui chi produce contenuti è anche chi li consuma, in un contesto che ricorda la figura del prosumer (Toffler, 1987), recentemente attualizzata con la definizione di produsage (Bruns, 2008), è evidente che tale accezione del termine è difficile da mantenere. Ovviamente il tema non è nuovo. Consideriamo la situazione di una persona che mostra le fotografie delle proprie vacanze ad un insieme di persone: il problema è che se sono poche persone, useremo il framework interpretativo delle relazioni interpersonali, diremo cioè che c’è un piccolo gruppo che guarda le foto; se l’uditorio è costituito da centinaia di persone useremo invece quello dei mass media, ovvero parleremo di audience delle foto. La questione è che su internet sono possibili entrambe le situazioni senza soluzione di continuità. Quindi la domanda diventa: i fruitori di un contenuto (video, audio, foto) prodotto da un proprio pari, quando passano dall’essere un gruppo di persone a

un’audience? Ai maliziosi non sarà sfuggita la somiglianza di tale argomentazione con il paradosso logico del sorìte: quando un insieme di granelli di sabbia diventa un mucchio? La questione su esposta, riconducibile alla conversione della quantità in qualità (un classico del materialismo dialettico), è stata spesso ripresa per sottolineare la dimensione esperienzialmente nuova della società di massa (Abruzzese, 1992; Ortoleva, 2009) e si ripropone con forza nei nuovi ambienti digitali. Vari sono stati gli escamotage per mantenere la distinzione gruppo/audience, come l’enfasi sulla componente dell’interattività dei media digitali. Per esempio McMillan (2002), sulla base di alcuni lavori classici sulla centralità del ruolo dell’informazione nella comunicazione (McQuail, 2001, pp. 57-59), ha distinto quattro concetti di interattività: allocuzione (in cui il coinvolgimento interattivo è minimo, rappresentato da un unico emittente e molti riceventi), consultazione (l’utente accede a informazioni precaricate in database come CD-Rom e siti web), registrazione (raccolta e catalogazione di pattern d’uso consentiti da tecnologie apposite come nel caso dei cookie dei siti internet), conversazione (gli individui interagiscono mimando le interazioni faccia a faccia attraverso le Information and Communication Technologies, Ict). Quello che potrebbe sembrare un encomiabile per quanto non originale (van Dijk, 1999, pp. 27-30) tentativo di elaborare una tassonomia delle forme dell’interattività a ben vedere taglia fuori forme interessanti di interattività, quali, ad esempio, i videogiochi o le clip multimediali (Cover, 2006). I problemi non cambiano quando si concettualizza la questione come volontà dell’audience di partecipare alla costruzione del testo, definendo così l’interattività non come una tendenza recente della storia dei media, ma come qualcosa di culturalmente fondato nel rapporto autore-testo-audience e che era stato negato dalle precedenti tecnologie della comunicazione (Cover, 2006). Altri teorici, per cercare di rendere conto dell’impatto di internet sulle audience, hanno identificato quattro punti strategici: l’equivalenza funzionale di internet rispetto ad altri strumenti di comunicazione, la credibilità delle fonti internet, il problema dell’intercambiabilità fra produttori e ricevitori di contenuti online, la trasformazione di alcuni temi classici dei Media Studies (cultura, politica, potere) (Morris, Ogan, 1996). Esistono diverse strade per rendere conto dell’ambiguità produzione/consumo di oggetti culturali (de Certeau, 2001) tipica anche

del web partecipativo: ambiguità – ricordiamo – che per i Media Studies è puramente metaforica (consumo produttivo: Grandi, 1992), mentre nei media partecipativi non lo è affatto. Una strategia è quella di rendere più articolato il concetto di pubblico alla luce del cambiamento degli spazi sociomediali in cui esso prende forma. È questa la strada intrapresa da danah boyd[1] e dal suo concetto di networked publics che qui tradurremo come «pubblici interconnessi» (boyd, 2008b). Questa particolare accezione del pubblico, sviluppata per descrivere le relazioni sociali che si instaurano nell’ambito dei social network, gode di quattro proprietà ed è caratterizzata da tre dinamiche di base. Per quanto riguarda le proprietà, la prima è la persistenza (persistence), ovvero il fatto che gli scambi comunicativi online sono automaticamente registrati e archiviati; poi la replicabilità (replicability), ovvero il contenuto digitale può essere facilmente duplicato; la scalabilità (scalability), termine tipico dell’informatica che qui sta ad indicare che la visibilità potenziale dei contenuti è enorme; la ricercabilità (searchability), ovvero il contenuto dei pubblici interconnessi può essere reso accessibile attraverso la ricerca. Per quanto concerne le dinamiche che connotano i pubblici interconnessi, possiamo dire che sono processi che rileggono in chiave digitale tematiche classiche che hanno riguardato i mass media degli ultimi dieci anni. Per prima cosa abbiamo le audience invisibili (invisible audiences), nel senso che non tutte le audience sono visibili e compresenti quando una persona sta contribuendo online; i contesti collassati (collapsed contexts), ovvero la mescolanza di diversi contesti sociali dovuta all’assenza di confini spaziali, sociali e temporali; infine, la confusione fra pubblico e privato (the blurring of public and private), declinata come la difficoltà di mantenere distinti i due ambiti per via dell’impossibilità di controllare il contesto sociale di riferimento. C’è da sottolineare una riflessione teorica interessante: anche se la controparte sociale dei media viene definita audience, la boyd preferisce usare il termine pubblico (public) in quanto può essere declinato sia come spazio sociale in cui le persone possono incontrarsi e interagire, sia come comunità immaginata (nel senso di Anderson, 2000) di persone che condividono pratiche, identità e significati culturali. Una conseguenza di questo ragionamento è che solo quando si abbandona una visione contenuto-centrica dell’audience è possibile assegnare a questo concetto una capacità euristica anche nell’ambito dei media partecipativi.

Lo stesso spirito che ha portato la boyd a interrogarsi sull’uso di audience o public è possibile riscontrarlo in un interessante dibattito tra alcuni studiosi di tradizione Cultural Studies che tra il 2007 e il 2009 si sono posti delle questioni fondazionali sullo statuto dei Media Studies nel XXI secolo. Questo dibattito – pur rivolgendosi a diverse comunità di studiosi – può essere definito con il termine Media Studies 2.0 (con evidente ispirazione al concetto di Web 2.0 con cui si è definito in prima battuta il web sociale e partecipativo). Due sono gli autori chiave che hanno usato questa etichetta in senso paradigmatico: David Gauntlett (2007, 2009) e Toby Miller (2008, 2009). Il primo ad usare in maniera istituzionalizzata il termine Media Studies 2.0 è stato Toby Miller (2008). Secondo Miller, per comprendere i Media Studies contemporanei (da lui definiti 3.0) bisogna descrivere il passaggio dalla prima alla seconda generazione di studi culturologici sui media (Miller, T., 2008). Con Media Studies 1.0 si fa riferimento alla diffusione di tecnologie mediali sostanzialmente nuove nella vita di popolazioni urbanizzate, con conseguenti cambiamenti sociali ed effetti socioculturali. Si può dire che nelle intenzioni dell’autore corrispondono in buona sostanza alle generazioni di studi tradizionalmente definite «ricerca amministrativa». L’etichetta Media Studies 2.0, invece, definisce quella generazione di ricerche e studiosi che, armati di un nuovo vocabolario teorico e focalizzando l’attenzione sul concetto di audience, hanno posto in primo piano la cultura popolare intesa come apice della modernità. Anche qui è facile riconoscere il profilo dei Cultural Studies e del loro interesse verso la cultura mediatizzata contemporanea. Finalmente arriviamo ai Media Studies 3.0, etichetta che nelle intenzioni dell’autore dovrebbe significare una tendenza della ricerca contemporanea, caratterizzata dalla connessione fra le principali aree del globo produttrici di cultura e le comunità diasporiche coinvolte nella produzione culturale. Una specie di analisi della cultura contemporanea di tipo geografico in chiave mediacentrica, con tutto il necessario bagaglio etnografico, politico-economico ed estetico tipico dei Cultural Studies. Pur interessante nell’argomentazione, la posizione tratteggiata da Miller a nostro avviso è debole per due motivi. In primo luogo perché non è chiaro il motivo che porta a definire in maniera totalmente diversa quelli che sembrano essere gli attuali studi sulla globalizzazione; per intenderci gli studi rappresentati da studiosi come Homi Bhabha (2001) e Arjun

Appadurai (2001). In secondo luogo la posizione di Miller è completamente dentro all’attuale configurazione dei Media Studies; pertanto questo passo in avanti è molto difficile da intravedere. Tale istituzionalizzazione – del saggio e dell’argomentazione – è possibile da notare, anche per via del consenso che ha trovato l’argomento di Miller (per esempio: Wood, 2009). A nostro avviso, molto più produttivo e interessante (se non altro per le voci di opposizione che ha sollevato) è il dibattito creato intorno al concetto di Media Studies 2.0 sviluppato da David Gauntlett (2007, 2009). Per capire la querelle, bisogna contestualizzarla nel momento in cui è esplosa. Tutto ha luogo nel 2007 quando Gauntlett – autore di un famoso reader di Web Studies (Gauntlett, Horsley, 2004) e curatore del portale su media e identità theory.org.uk – pubblica sul proprio sito l’articolo Media Studies 2.0 (24 febbraio 2007), in cui tratteggia alcuni cambiamenti necessari per l’attuale panorama degli studi sui media. L’articolo citava il blog di William Merrin dell’University of Wales, il quale, nel post di inaugurazione del novembre 2006, elaborava un contesto generale che legittimava l’uso dell’etichetta. Il dibattito intorno al concetto Media Studies 2.0 è esploso in rete, grazie anche allo spazio per la discussione (erroneamente definito forum) rappresentato da un blog curato congiuntamente da Gauntlett e Merrin. Tutto questo scambio di opinioni ha portato nel 2009 la neonata rivista «Interactions: Studies in Communication and Culture» a pubblicare un numero monografico sull’argomento, che fungesse da raccolta delle idee – pro ma soprattutto contro – emerse nel dibattito sollevato da Gauntlett. Fin qui la storia della diatriba, ma cosa sostenevano i due protagonisti della vicenda per aver sollevato così tanto clamore nel mondo accademico? Quale il successo di – nelle parole di Gauntlett – «una provocazione che ha funzionato»? Per parlare di Media Studies 2.0, David Gauntlett comincia a descrivere cosa intende per Media Studies 1.0 (2007, 2009). Con questa etichetta – da lui stesso definita una semplificazione dell’attuale panorama dei Media Studies – si cerca di delineare le caratteristiche dello studio dei media contemporaneo. L’argomento nel dettaglio è stato sviluppato da Gauntlett nel suo sito (2007), ma la versione più strutturata dal punto di vista argomentativo è quella sviluppata da Merrin (2009) e a cui faremo riferimento. Per Media Studies 1.0 si intende la disciplina accademica nata nella prima metà del XX secolo, che altro non era che il prodotto dei media di massa. In

questo senso può essere considerata la risposta storicamente determinata a un modello di comunicazione, quello dei media broadcast, che, sviluppandosi con la televisione, è andato via via includendo anche mezzi preesistenti come la stampa. I Media Studies volevano così studiare i mezzi di comunicazione post-gutemberghiani, facendo riferimento ad un numero piccolo di forme mediali (libro, quotidiano, cinema, radio, televisione), posizione che è stata rinforzata dall’esplosione dei libri di testo del tardo XX secolo diretti a soddisfare la crescita dei corsi sui media e dal dominio metodologico di un numero limitato di studi sull’audience focalizzati sul consumo di film popolari e televisione (Merrin, 2009, p. 20). Il limite principale dei Media Studies 1.0 è quello di aver trascurato gli aspetti della trasmissione e della distribuzione dei media, mostrando aperta ostilità verso la questione tecnologica con la conseguenza che i media digitali troppo spesso sono stati confinati negli ultimi capitoli dei libri di testo, e ignorando così il loro impatto anche sulle tematiche oggetto dei capitoli «tradizionali». Per tacere di studiosi che hanno completamente ignorato il ruolo dei media digitali, come Dan Laughey (2007), che ha affermato l’inesistenza di alcuna rivoluzione digitale nel settore della produzione, distribuzione e consumo dei media (Merrin, 2009, pp. 21-22). Ovviamente – afferma Merrin – nessuno nega che il broadcasting sia scomparso o finito, piuttosto il modello broadcast non spiega più i media broadcast, con la conclusione paradossale che termini come stampa, radio, cinema, televisione prima distinguevano artefatti tecnologici portatori di uno specifico contenuto, ora invece sono termini che definiscono il contenuto di un artefatto digitale (p. 23). E l’audience? Alcuni potrebbero pensare che i media digitali interattivi abbiano attualizzato le audience attive, mentre in realtà il termine «attivo» serve a qualificare un ruolo che non esiste più. Gli utenti dei media digitali condividono, taggano, twittano, postano, editano, caricano, aggiornano: qualunque cosa sia, comunque non può essere semplicemente definita ricezione (p. 24). A questo punto la domanda: cosa sono i Media Studies 2.0 (Gauntlett, 2009)? Per prima cosa la consapevolezza che il panorama mediale circostante è cambiato non solo perché internet è diventato importante in sé, ma perché ha costretto gli altri media a cambiare di conseguenza. Le categorie di produttore e audience sono collassate e un numero sempre maggiore di persone è diventato creatore, curatore e remixer di media digitali. Perciò l’obiettivo

dei Media Studies 2.0 è quello di studiare le possibilità di creatività e partecipazione dei media confrontandole con i contenuti prodotti da sistemi professionali e consumati da specifiche audience (pp. 148-149). Definiti in questi termini, appare chiaro cosa non siano i Media Studies 2.0 (Merrin, 2009, pp. 25-27): non sono il rifiuto dei classici media broadcast, non sono una celebrazione dei nuovi media, non sono un modo per separare dei New Media Studies, non hanno una posizione astorica (mentre la hanno i Media Studies 1.0 nel negare la centralità del digitale oggi), non sono solo di società occidentali e privilegiate. In sintesi i Media Studies 2.0 sono un necessario upgrade della disciplina perché serve un ripensamento delle categorie tradizionali nonché una definizione delle nuove forme d’uso (pp. 27-29). Il passaggio è necessario perché, a ben vedere, alcuni dei libri sui media digitali più interessanti degli ultimi anni sono scritti da studiosi privi di una specifica competenza nell’analisi dei media (per esempio: Lessig; Benkler; Tapscott, Williams) (Merrin, 2009, p. 30, 7n). Per concludere il discorso sull’impatto dei Media Studies 2.0, molto interessanti sono le conseguenze di questa posizione sul concetto di audience e sulla ricerca sull’audience (Hermes, 2009). I due punti chiave dell’Audience Research riletta dai New Audience Studies (Corner, 1991) sono, da un lato, la concezione della ricerca come qualcosa di relativamente facile da fare e che può essere fatta in una quantità limitata di tempo (Hermes, 2009, p. 113) e, dall’altro, la consapevolezza dello statuto sociale del fan, inteso sia come esperto culturale sia come utilizzatore attivo della cultura popolare (pp. 113-115). Uno degli obiettivi possibili degli Audience Studies 2.0 è quello di eliminare la differenza fra audience ordinaria e fan, cioè di non considerare come punto di partenza la dicotomia fra audience e pubblico (p. 116). Nella ricerca la conseguenza di ciò sarà lo sviluppo di una metodologia etnografica in cui la pratica di storytelling del ricercatore si avvarrà dell’advocacy, intesa come capacità di dare la parola agli altri, autobiografia, ovvero assegnare una posizione di rilievo alle pratiche del pubblico selezionate, e soprattutto il feedback, che in un ambiente web come quello attuale potrebbe essere un ottimo modo per evitare sovrainterpretazioni e migliorare la condivisione delle esperienze (pp. 118-120). La posizione di Joke Hermes è sicuramente affascinante, e la stessa studiosa mostra in che modo può essere messa in pratica (come nel caso di marokko.nl e la co-creazione di una telenovela per internet: pp.

121-123). Inoltre sembra che comincino ad esserci deboli segnali che la riflessione critica su Media Studies e relative conseguenze per la ricerca sull’audience stia sortendo il suo effetto (per esempio: McDougall, 2010). Ma data la relativa novità del dibattito, nonché l’impatto sui Media Studies, è difficile esprimere un parere. Qualora restasse un dibattito semplicemente accademico, c’è qualcosa di interessante che riteniamo di intravedere. Dal nostro punto di vista, messe a confronto le posizioni sui Media Studies 2.0 di Miller da un lato e di Gauntlett e Merrin dall’altro, propendiamo per quest’ultima per tre ordini di motivi. Per prima cosa la consapevolezza che i media digitali contemporanei non sono un «capitolo finale di un libro di testo», per riprendere l’immagine di Merrin, ma hanno avuto un impatto su tutti i media, se non nel pubblico – perché magari non tutti ne sono consumatori – sicuramente nel sistema produttivo del broadcast, in fondo anch’esso definibile come audience (seguendo la classica posizione del circuito della cultura di du Gay et al., 1997). In secondo luogo è inevitabile considerare che le forme dei media broadcast non sono scomparse, bensì sono entrate a far parte di quel mondo indistinto e privo di confini rappresentato da internet e dai vari artefatti internet-based. Infine, il mescolarsi di produzione e consumo non più come strategia retorica ma come pratica effettiva legittima l’idea di guardare all’uso dei media digitali non come fruizione, ma come vera e propria particolare forma dell’agire sociale, creando un cortocircuito fra cultura, tecnologia, comunicazione e società inimmaginabile in passato (pensiamo a ricerche come quella di Katz, Lazarsfeld, 1968; Lull, 2003; Silverstone, Hirsch, Morley, 1992). Torniamo alla domanda da cui siamo partiti: esiste ancora l’audience nell’ambito dei media digitali? A nostro avviso – ma non solo – la risposta è sì, fermo restando che il passaggio tra gruppo e audience deve essere considerato come un continuum definito da un insieme di variabili interrelate in maniera complessa e non semplicemente come controparte dell’esperienza mediale o – peggio – come elemento connesso alla presenza di un contenuto. In pratica dobbiamo fare nostre le riflessioni di chi si è interrogato sull’esistenza dell’audience nell’attuale panorama mediatico e nel rispondere affermativamente ha espresso la necessità di una revisione del concetto (McQuail, 2001; Livingstone, 2004), necessità che sentiamo di condividere perché il concetto è problematico se

applicato ai media digitali, e lo è ancora di più nel caso del web sociale e condiviso. Per dirla con una battuta, nell’ambito del web partecipativo non tutto ciò che è pubblico è audience.

3. Le mutazioni dei media: dai mass media ai social media Non è facile dare una risposta alla domanda «Cosa intendiamo con il termine media» e questo per due ordini di motivi. In primo luogo perché i media sono parte integrante degli studi sulla comunicazione e questo li rende un «archetipo» prima ancora che una definizione operativa. In secondo luogo oggi il termine «media» esprime una varietà molto grande di artefatti tecnologici (e non), che fanno parte della nostra vita quotidiana e che diamo per scontati (in pura accezione fenomenologica: Berger, Luckmann, 1969; Garfinkel, 1967). D’altra parte proprio per questi motivi è necessario dare una risposta a questa domanda, altrimenti sarebbe difficile procedere lungo una linea argomentativa – quella che esporremo qui – che vuole giungere alla conclusione del dissolvimento dei mezzi di comunicazione. Per semplificare il modulo argomentativo, faremo ricorso ad alcune celebri opposizioni concettuali – mass media/personal media e spazio pubblico/spazio privato – per collocare il concetto di medium nella giusta prospettiva. La prima osservazione che possiamo fare è di tipo squisitamente definitorio, ovvero i mezzi di comunicazione di massa (o media) sono tecnologie che hanno lo scopo di far circolare messaggi e informazioni e che agiscono all’interno della società di massa. Declinato in questo modo il concetto difetta di un evidente anacronismo, ovvero l’idea che esista una società di massa, questione fortemente dibattuta e risolta fin dagli anni ’60, quando cioè hanno avuto la meglio altre definizioni della società contemporanea, fra le quali quella che spicca senza dubbio è il concetto di società postindustriale di Daniel Bell (1976), che da più parti è ritenuto uno dei concetti più utili per descrivere la condizione sociale del secondo dopoguerra (Kumar, 2000; Mattelart, 2002). Una delle definizioni recenti più compiute su cosa sia la comunicazione di massa, svincolata cioè dai supporti che la rendono possibile, è quella di John Thompson (1998). Secondo questa accezione,

la comunicazione di massa può essere definita come «la produzione istituzionalizzata e la diffusione generalizzata di merci simboliche attraverso la fissazione e la trasmissione di informazioni e contenuti simbolici» (p. 44). Cinque sono le componenti logiche di questa definizione. Primo: la necessità di mezzi tecnici e istituzionali di produzione e diffusione; secondo: la mercificazione delle forme simboliche; terzo: la separazione strutturale fra produzione e ricezione delle forme simboliche; quarto: l’accessibilità delle forme simboliche nello spazio e nel tempo; quinto: la circolazione pubblica delle forme simboliche (pp. 44-50). Questa enfasi sulla dimensione simbolica è ciò che rende complesso il concetto di comunicazione di massa, che – ovviamente – non può ridursi al semplice riferimento a tecnologie mediali, rendendolo così non solo un processo sociale, che coinvolge il rapporto fra gruppi e persone, ma una forma culturale, che coinvolge i modi attraverso cui attribuiamo senso al mondo circostante. Per estendere il concetto nella direzione appena delineata, è molto utile lo studio sul funzionamento della cultura descritto da Michael Schudson (2009), sulla base di alcune evidenze empiriche derivate dallo studio dei media. Secondo questa riflessione, le dimensioni che definiscono la forza della cultura sono le seguenti cinque. Primo: reperibilità, ovvero la possibilità di accedere agli oggetti culturali; secondo: forza retorica, che consiste nell’efficacia attribuibile agli oggetti culturali se vengono etichettati in modo tale da colpire l’immaginario sociale; terzo: risonanza, che rappresenta la capacità degli oggetti culturali di rimandare a elementi simbolici preesistenti e quindi parte del contesto culturale di riferimento; quarto: ricordo istituzionale, cioè il potere che gli oggetti culturali hanno in virtù dei meccanismi sociali di legittimazione; quinto: risoluzione, da intendersi come la proprietà di alcuni oggetti culturali di orientare l’azione sociale (pp. 123-137). A ben vedere, sia nell’accezione processuale, sia nell’accezione culturale, i mezzi di comunicazione sono caratterizzati da tre componenti: artefattuale (tecnologica), simbolica (significazione), istituzionale (legittimazione). La recente letteratura sui media che si è interrogata sui cambiamenti all’indomani dello sviluppo e della diffusione del processo di digitalizzazione è tornata più volte sul concetto di medium, dando molto spesso soluzioni creative e interessanti. Sulla scorta di alcune famose riflessioni di McLuhan (1990), Jay David Bolter e Richard Grusin hanno

proposto il concetto di rimediazione (remediation), ovvero il processo secondo cui i mezzi di comunicazione si comportano secondo due distinti modelli culturali (la doppia logica della rimediazione), l’immediatezza da un lato (ovvero l’illusione della scomparsa dei media nel nostro rapporto con il mondo), l’ipermediazione dall’altro (all’opposto, la radicalizzazione della presenza dei media nel nostro rapporto con il mondo). All’interno di questo framework teorico, Bolter e Grusin sostengono che un medium è ciò che rimedia, ovvero che si «appropria di tecniche, forme e significati sociali di altri media e cerca di competere con loro o di rimodellarli nel nome del reale» (Bolter, Grusin, 2002, p. 93). L’ipotesi totalizzante del medium è spesso definita mediatizzazione, declinata come meccanismo pervasivo della società contemporanea metaforicamente simile ad una ecologia (Postman, 1993), se non vero e proprio meta-processo assieme a globalizzazione, individualizzazione, commercializzazione (Krotz, 2007). Considerando la mediatizzazione come concetto analitico, è bene distinguerne due livelli: da un lato un processo di cambiamento sociale attualizzato dai media, dall’altro una serie di funzioni svolte dai media (Schultz, 2004). Per quanto riguarda il cambiamento sociale, esso si risolve in alcune componenti come l’estensione (extension), la capacità che hanno i media di estendere i limiti della comunicazione umana (concetto caro a McLuhan, 1990); la sostituzione (substitution), la possibilità di rimpiazzare attività o istituzioni sociali modificandone le caratteristiche; l’amalgamarsi (amalgamation), ovvero la dissoluzione dei confini tra attività mediate e attività non mediate; l’accomodazione (accomodation), il semplice fatto che esiste la comunicazione tramite media induce il cambiamento sociale (Schultz, 2004, pp. 88-90). La mediatizzazione è possibile solo analizzando le funzioni svolte dai media nella società, ovvero la funzione di trasmissione (relay function), che consiste sia nel trasferire messaggi attraverso il tempo e lo spazio (tema caro a Innis, 2001 e sviluppato anche da Thompson, 1998), sia nel connettere attori differenti superando distanze spaziotemporali; la funzione semiotica, la codifica di un messaggio in termini cognitivamente percepibili e processabili dagli individui; la funzione economica, intesa come standardizzazione e divisione del lavoro tipico dei mass media (Schultz, 2004, pp. 90-94). Il problema che si incontra nell’impostare la questione in questo modo è l’evidente difficoltà di

assegnare ad internet una posizione che rispecchi la complessità mediatica e sociale. Sicuramente internet è un medium, ma quanto sia interno al processo di mediatizzazione è difficile da definire. Alcuni hanno risolto la discrasia parlando di mediatizzazione della rete e di «internettizzazione» dei mass media (Fortunati, 2005), soluzione che presenta un certo grado di interesse, ma solo se si ritiene legittimo considerare internet e mass media come opposti o comunque distinti da un punto di vista semiotico e non sociologico. Che internet sia un mass medium è stato ampiamente dibattuto in letteratura (Morris, Ogan, 1996), e gode ormai del tacito assenso dei Media Studies (soprattutto nella variante dei New Media Studies) anche se il dibattito non può dirsi in nessun modo concluso, perché le forme di comunicazione che avvengono in rete sono proteiformi in un modo tale che sfuggono a qualunque mania classificatoria (avremo modo di ritornare più avanti sulla questione). Inoltre il tema della mediatizzazione e del ruolo di internet porta con sé un problema tutt’altro che indifferente: utilizzare una serie di argomentazioni che sono pienamente dentro la logica del determinismo tecnologico, ovvero la posizione – problematica per gli studi sociali – secondo cui la società cambia perché modificata dall’impatto di una qualsivoglia tecnologia, mentre ormai è ben chiaro il fatto che il rapporto tra tecnologia (nella fattispecie, mediale) e società è articolato, complesso, retroattivo e storicamente contestualizzato (Bennato, 2002a). Un modo più sociologicamente attrezzato di affrontare la questione dell’identità del medium è quello di ancorare il ragionamento non al medium in sé, ma ai processi che il medium porta con sé. Una posizione classica in questo senso distingue i mezzi di comunicazione rispetto all’orizzonte sociale in cui si collocano, ovvero fra mass media e personal media. La distinzione parte dal presupposto che, da un punto di vista prettamente dialogico, esistono media che si rivolgono alla società nel suo complesso (i mass media come la televisione), a cui si contrappongono media usati da singoli individui che a singoli individui si rivolgono (i personal media come il telefono). Questa distinzione ormai piuttosto istituzionalizzata (Chiarvesio, Lemmi, 1996; Parisi, 1993; Pedemonte, 1998) è stata declinata nei modi più diversi (ad esempio, comunicazione mediatica e comunicazione interpersonale: Lughi, 2006) e ha dato vita a riflessioni che ne sottolineano la difficoltà analitica pur considerandola

una caratteristica strutturale dei media digitali (Marinelli, 2004, pp. 134149). Data la difficoltà di ricondurre ad una specificità sociotecnologica la differenziazione fra mass e personal media, le argomentazioni precedenti più articolate hanno preferito insistere sul contesto sociale che le due strategie di comunicazione portano con sé. Thompson ha proposto una celebre nonché assai utile distinzione (per quanto ritenuta incompleta: Lüders, 2008) fra le forme dell’interazione, distinguendo fra la relazione faccia a faccia, che non prevede la presenza di alcun medium; l’interazione mediata, in cui il rapporto fra le persone viene realizzato dalla presenza di un mezzo tecnico, come lettere o conversazioni telefoniche; e l’interazione quasi mediata, in cui le forme simboliche vengono prodotte per un insieme di riceventi tanto indistinto quanto potenzialmente infinito, e in cui il rapporto comunicativo è simile ad un monologo come nella televisione, nella radio, ecc. (Thompson, 1998, pp. 122-144). Riconducendo tale argomentazione alla nostra opposizione, possiamo dire che mentre l’interazione mediata è tipica dei personal media, l’interazione quasi mediata è propria dei mass media. Lo slittamento della definizione dalle caratteristiche d’uso dei media – mass o personal – alle forme di relazione che essi portano con sé non è una strategia nuova. C’è infatti chi ha spinto l’argomentazione oltre, provando a definire dei veri e propri domini mediali che organizzerebbero l’esperienza sociale della comunicazione variamente declinata. È il caso di Roger Fidler e del processo da lui definito di «mediamorfosi» (2000), frutto della trasformazione dei media causata dalla sovrapposizione e riorganizzazione di bisogni percepiti degli utenti, dalle pressioni politico-economiche e dalle innovazioni sociali e tecnologiche. Fidler, per semplificare la situazione dell’attuale panorama mediatico, parla di tre domini mediali: il dominio dell’interpersonale che include le forme comunicative bidirezionali (telefono, chat); il dominio del broadcast che include le forme di comunicazione mediata di tipo audiovisivo da uno a molti (televisione, cinema); il dominio del documento che prevede anch’esso forme di comunicazione mediata ma di tipo testuale-visivo (quotidiani, siti web). Anche in questo caso nel dominio interpersonale e nel dominio broadcast e del documento è possibile riconoscere – rispettivamente – i personal media e i mass media. Alla luce delle posizioni illustrate, si nota come gli autori nel distinguere mass e personal media hanno dato prevalenza all’aspetto processuale-

trasmissivo, cercando cioè di rendere conto della doppia natura dei media di tecnologie e artefatti per la connettività sociale (personale o di massa che sia). Da questo punto di vista potrebbe essere produttivo insistere sull’aspetto di uso sociale delle tecnologie della comunicazione, in quanto in questo modo si potrebbero aggirare alcune ambiguità delle definizioni di mass media e personal media. Per esempio, il telefono, mezzo di comunicazione interpersonale in quasi tutti gli esempi su esposti, per un breve momento della sua vita sociale è stato un mezzo di comunicazione proto-broadcast in quanto usato come sistema per trasmettere le notizie, un vero e proprio quotidiano telefonico come il Telefon Hirmondo (Marvin, 1994); oppure il telegrafo, nato per trasmettere dispacci per lo più legati alla Borsa e alle transazioni economiche, per diversi anni è stato uno strumento per l’interazione sociale grazie ai telegrammi (Standage, 1999). Potrebbe essere interessante in questo senso riprendere il concetto di doppia articolazione usato da Silverstone (1990) per descrivere la televisione nella sua duplice accezione di oggetto domestico e medium, ovvero di tecnologia collocata all’interno dello spazio domestico e veicolo di significati sociali. La duplicità dell’uso sociale delle tecnologie potrebbe tornare utile per descrivere processi che le dicotomie tradizionali non sempre sono in grado di cogliere. Per esempio la famosa distinzione di James Lull (2003) fra usi strutturali della televisione (intesa come risorsa ambientale) e usi relazionali (strumento per facilitare la comunicazione e le relazioni sociali) potrebbe essere adottata per descrivere il duplice uso del computer nello spazio domestico: un uso strutturale, intendendo così la dimensione di artefatto per agevolare attività intellettuali (scrittura, ricerca), e un uso relazionale, ovvero uno strumento per l’espressione della propria socialità (chat, email e così via) (Bennato, 2002a, pp. 80-81). Chi ha seguito questa strategia analitica, per elaborare una tassonomia in grado di rendere conto della complessità delle forme comunicative che internet rende possibili, ha aggirato le problematiche sollevate dalla distinzione mass media/personal media, ipotizzando una continuità tra le due macrotipologie di comunicazione con il computer e comunicazione attraverso il computer (distinzione sottolineata da Cathcart, Gumpert, 1983). È questa la posizione di Maria Bakardjieva (2005), la quale, nell’elaborare quello che chiama virtual togetherness (stare insieme virtuale), inteso come strumento per esprimere forme della socialità online che

vadano oltre la semplice community, distingue due modi della comunicazione in internet da intendersi come un continuum: il modo del consumo e il modo della comunità. Il modo del consumo è quella forma di uso sociale della rete che non prevede la presenza dell’altro e la partecipazione dell’utente; di contro il modo della comunità presuppone sia la partecipazione che il coinvolgimento. È così possibile delineare alcune forme idealtipiche di uso della rete: l’infosumer, l’uso di internet per la ricerca di informazioni; le relazioni strumentali, in cui gli altri diventano fonte di informazioni; la sfera pubblica virtuale, in cui l’informazione è centrale ma gli altri sono soggetti con i quali confrontarsi; il chatter, cioè internet inteso come luogo per incontrarsi e scambiare quattro chiacchiere; il comunitario, in cui la rete viene considerata come strumento di supporto e sostegno sociale per condividere aspetti della propria identità (come nei gruppi di self help) (pp. 165-188). Con questa riflessione siamo entrati in un territorio che della comunicazione interpersonale resa possibile dal computer ha fatto il suo punto di forza: sono gli studi sulla cosiddetta Computer Mediated Communication, o semplicemente Cmc (per una panoramica: Paccagnella, 2000). Il punto di partenza della Cmc è l’analisi dei cambiamenti comunicativi e relazionali che la presenza del computer porta fra individui e piccoli gruppi. Questo punto di vista ha portato ad un’interessante letteratura caratterizzata da una serie di temi considerati ormai classici, come le nuove forme di utilizzo del linguaggio (oralità scritta, oralità secondaria, abbreviazioni), l’uso pragmatico-performativo di segni (l’utilizzo delle faccine o emoticons), pratiche di comportamento specifiche (flaming, spamming, lurking, trolling), costruzione e definizione dell’identità personale e delle relazioni sessuali (gender swapping, gender switching, cybersex), relazioni di tipo comunitario (comunità virtuali) (Chesebro, Bonsall, 1989; December, 1996; Baym, 2007; Gunkel, 2009; Paccagnella, 2000; Tosoni, 2004). L’attenzione alla comunicazione personale ha avuto come conseguenza l’uso sistematico di concetti derivati dalla psicologia sociale o dalla sociologia dei gruppi, comunque da un’impostazione di tipo sociopsicologica, che ha riscontrato un certo successo e interesse nello studiare fenomeni relazionali effettivamente nuovi, ma con qualche difficoltà

nell’integrazione disciplinare (December, 1996). Recentemente, sull’onda della rilettura critica del settore dei new media alla luce del concetto di Media Studies 2.0, c’è stato chi ha duramente criticato alcune posizioni tipiche della Cmc. È il caso di David Gunkel (2009). Secondo Gunkel, per comprendere lo sviluppo storico della Cmc, bisogna comprendere lo sviluppo dei computer e soprattutto della tecnologia del timesharing (letteralmente: divisione a tempo), un escamotage informatico per consentire la condivisione fra più utenti delle limitate risorse hardware dei primi computer. È proprio il timesharing che ha consentito lo sviluppo di due tipi di comunicazione fra utenti: la chat e l’email (pp. 55-57). Per descrivere queste forme di comunicazione emergenti sono state utilizzate diverse definizioni, ma solo quella di Computer Mediated Communication ha avuto la possibilità di istituzionalizzarsi, grazie ad un rapporto governativo fatto per conto della National Science Foundation. Le origini della Cmc, e conseguentemente dell’idea chiave del computer come mezzo di comunicazione tra persone, hanno reso possibile lo sviluppo della disciplina su tre linee concettuali: la congruenza col modello della teoria matematica della comunicazione di Shannon e Weaver; la pertinenza con l’ideologia che vuole il computer come protesi comunicativa; la trasformazione di questi due concetti come elementi costitutivi del processo di normalizzazione (ovvero trasformazione in scienza normale: Kuhn, 1978) della disciplina (Gunkel, 2009, pp. 58-62). Gunkel a questo punto sottolinea il fatto che il computer nella Cmc è visto come oggetto trasparente, mentre dovrebbe essere considerato un vero e proprio attore sociale della comunicazione online che partecipa al processo, come nel caso di fenomeni tipo Eliza[2] o lo spam (pp. 62-66). Posizione questa che – per inciso – ricorda le osservazioni sollevate da alcuni studiosi per cui la televisione non è un medium visuale ma un oggetto visibile (Morley, 1995), o meglio un oggetto attraverso cui guardare, rimanendo così sostanzialmente invisibile (Geller, 1990). Il giudizio sulla Cmc è forse un po’ troppo tranchant, e l’idea del computer come attore sociale non è completamente nuova (già presente nella sociologia dell’intelligenza artificiale: Collins, 1994), ma il consiglio di Gunkel di prestare maggiore attenzione all’aspetto tecnologico della comunicazione è, a nostro avviso, un’ottima indicazione. L’idea di prendere sul serio la componente tecnologica della comunicazione è assolutamente fondata, sia perché non si dà comunicazione senza

tecnologia (scrittura compresa: Ong, 1986), sia perché la tecnologia non è solo artefatto ma – seguendo le idee tipiche della svolta verso la tecnologia dei Science and Technology Studies (Sts: Woolgar, 1991) – è cultura, società, relazioni, significati, potere. Nei Media Studies, chi ha preso profondamente sul serio la tecnologia – anche se nel problematico framework del determinismo tecnologico – sono i cosiddetti teorici del medium, ovvero quel gruppo di studiosi che ha visto nella dimensione tecnologica il motore primo del cambiamento sociale e di cui gli esponenti più famosi sono Harold Innis, Marshall McLuhan, Walter Ong, Elisabeth Eisenstein (Meyrowitz, 1993, pp. 2438). Le idee chiave alla base di questo gruppo di studiosi piuttosto eterogeneo sono che i cambiamenti nei modelli comunicativi facilitano il cambiamento sociale, e che l’ingresso di media nuovi in un contesto sociale non distrugge i vecchi sistemi comunicativi, ma aggiunge elementi nuovi alla gamma delle forme comunicative già esistenti. Quella che viene propugnata non è una teoria particolareggiata di un medium (oralità, libro, televisione), ma una prospettiva all’interno della quale studiare le influenze dei media sul comportamento, obiettivo che porta lo stesso Meyrowitz a integrare questa prospettiva con quella sociologicamente più attrezzata dello studio delle situazioni sociali di Erving Goffman (1969). In pratica, per la teoria del medium analizzata da Meyrowitz, la buona idea iniziale non è sempre sufficientemente sostenuta da una successiva analisi delle componenti costitutive. Sempre sull’idea di assegnare alla tecnologia il giusto ruolo nella relazione comunicativa si fonda la linea di ricerca rappresentata da Roger Silverstone e dal suo gruppo di lavoro (Silverstone, Hirsch, 1992). Questo gruppo di autori appartenenti alla scuola dei Media Studies ha valorizzato in maniera molto consapevole i processi di significazione sociale delle tecnologie domestiche, da cui il termine domestication theory, con particolare attenzione alla categoria di consumo produttivo, ma ha soprattutto focalizzato la dimensione artefattuale delle tecnologie mediali (e non solo) sottolineando come alcuni processi sociali possono essere correttamente compresi solo se ricondotti alla loro componente tecnologica. Non è un caso che per procedere lungo questa linea abbiano fatto riferimento alla prospettiva del Social Shaping of Technology (MacKenzie, Wajcman, 1999), secondo cui tecnologia e società cooperano nel processo di incorporazione sociale della tecnologia,

posizione che sta avendo negli ultimi tempi un certo successo fra gli studiosi di media digitali (Lievrouw, Livingstone, 2007) anche italiani (per esempio: Bennato, 2002a; Cola, Prario, Richeri, 2010; Murru, 2007; Scifo, 2005). Alla luce di quanto finora delineato, una domanda diventa pressante: abbandonare allora il concetto di personal media? In realtà abbiamo visto come questo concetto non sia intrinseco del medium, piuttosto sia caratteristico delle sue forme d’uso. Detto schematicamente, televisione e telefonino non sono – rispettivamente – mass media e personal media in sé, ma sono strumenti sociologicamente caratterizzati da un uso pienamente di massa l’uno e come mezzo di comunicazione personale l’altro. È difficile dire che la televisione sia un mezzo di comunicazione di massa quando diventa l’interfaccia di un videogioco o lo schermo di un lettore Dvd, così come è difficile dire che il telefonino sia un mezzo di comunicazione personale quando viene usato per ascoltare la radio oppure per navigare in rete. Non è l’artefatto che fa l’uso, ma l’artefatto fa sì che alcuni usi siano sociologicamente incorporati. Abbandonare dunque il concetto di personal media? Sì, se lo si intende tecnologicamente incorporato negli artefatti, no se invece lo si considera semplicemente una delle possibili forme che possono assumere i media digitali (Lüders, 2008). C’è un convitato di pietra nella dicotomia mass media/personal media, ed è la distinzione fra spazio pubblico e spazio privato. Ciò che rende comunicazione di massa la televisione e comunicazione personale il telefonino è la rispettiva collocazione nello spazio sociale (nonché il relativo quadro d’uso: Flichy, 1996), secondo la celebre distinzione fra spazio pubblico e spazio privato. L’idea della distinzione fra uno spazio pubblico e uno spazio privato è piuttosto istituzionalizzata nelle discipline che si occupano della comunicazione, sostanzialmente per due ordini di motivi. Da un lato lo sviluppo delle forme di comunicazione mediata ha rafforzato la distinzione fra ciò che appartiene alla sfera delle relazioni sociali estese e ciò che attiene alla dimensione dei legami personali (Flichy, 1994; Thompson, 1998), dall’altro lo sviluppo dei mezzi di comunicazione ha permesso l’istituzionalizzazione di una sfera pubblica borghese (Habermas, 2005) che progressivamente è andata ad impattare anche sui modelli dell’industria culturale (Abruzzese, Borrelli, 2000). Bisogna

evidenziare il fatto che mentre è – relativamente – evidente distinguere spazi pubblici e spazi privati sociologicamente parlando, tale distinzione in ambito mediologico è molto meno evidente. D’altra parte vari sono stati gli studiosi che hanno sottolineato come pubblico e privato non sono categorie a priori, ma processi sociali che possono mescolarsi in modo sostanzialmente imprevedibile. Raymond Williams (2000), nel descrivere i processi culturali sottesi a due tecnologie tipiche della modernità contemporanea come automobile e televisione, ha parlato di «privatizzazione mobile», poiché se da un lato la televisione consente di avere uno sguardo sul mondo esterno dallo spazio privato della casa, dall’altro l’automobile consente di portare una porzione del proprio spazio privato – rappresentato dal vissuto dell’abitacolo – attraverso lo spazio pubblico delle strade e della città. Joshua Meyrowitz (1993), nel descrivere la situazione sociale definita dalla televisione, ponendo l’enfasi sulla capacità che ha questo medium di consentire l’accesso a spazi di solito rigidamente controllati nell’accesso sociale (detti «retroscena» nella terminologia di Goffman, 1969), ha sviluppato il concetto di «palcoscenico laterale», con cui definisce la mescolanza fra retroscena e palcoscenico (ovvero lo spazio pubblico interpersonale). Patrice Flichy (1994), nel descrivere l’esperienza di fruizione del walkman, ha definito «bolla comunicazionale» la situazione per cui un consumo culturale tradizionalmente legato alla sfera domestica come l’ascolto musicale diventa un consumo che può essere praticato nello spazio pubblico della città. Lynn Spigel (2001) ha identificato tre fasi evolutive del concetto di domesticità in un contesto completamente mediatizzato: la fase home theatre, in cui lo spazio domestico è rappresentato da spettatori chiusi in casa che immaginano di stare in giro per la città restando invece ancorati nei propri sobborghi; la fase di gente in movimento (people on the go), in cui prende piede un’audience mobile grazie anche allo sviluppo delle tv portatili e alla nascita di una mobilità privatizzata; infine, il modello della casa intelligente e digitalizzata (smart house) che offre uno spazio senziente in cui è possibile trascendere le divisioni dentro/fuori e lavoro/casa rendendo inutile andare altrove. Maria Bakardjieva (2005), rielaborando scientemente l’idea di Williams, ha descritto come «socializzazione immobile» (immobile socialization) la pratica di condivisione di un’esperienza privata attraverso le nuove forme di interazione interpersonale permesse da internet, secondo il continuum pubblico-

privato-intimo. Chi ha provato a fare il punto sull’ambiguità pubblico/privato rispetto ai media è David Morley (2003), protagonista indiscusso della prima generazione di Media Studies. Secondo Morley, il problema con le tecnologie contemporanee è come mantenere il processo di appropriazione della tecnologia all’interno dello spazio domestico (in accordo col punto di vista della domestication theory) in una situazione in cui la dimensione della domesticità sta subendo un profondo processo di ristrutturazione. Questa situazione può essere affrontata non negando un ruolo importante alla dimensione territoriale del consumo mediale, piuttosto cercando un modo per analizzare le forme con cui culture legate alla mobilità incorporano le tecnologie che sviluppano, come nel caso delle forme di appropriazione culturale del telefono cellulare oppure nel caso dei modi attraverso cui le tecnologie elettroniche sono diventate una vera e propria infrastruttura della vita familiare contemporanea. In pratica, se uno dei ruoli cardine delle tecnologie broadcast è stato la trasformazione del pubblico e del privato, adesso la questione è come le nuove tecnologie rielaborano questo processo e in che modo vengono «addomesticate». Dal ragionamento sviluppato finora, dai mass media ai personal media attraverso il processo di mediatizzazione, abbiamo visto che i media – pur avendo una componente tecnologica ben evidente – sono essenzialmente processi sociali che descrivono la posizione dell’audience all’interno di uno spazio sociale formato dalle dicotomie pubblico/privato e legittimazione/istituzionalizzazione. A questo punto possiamo introdurre la categoria di social media, che, pur essendo non completamente istituzionalizzata dalla letteratura, è comunque molto usata per descrivere i mezzi di comunicazione tipici del web partecipativo (dai blog ai social network). Ma prima di passare all’analisi dei social media, bisogna descrivere in che termini il computer e internet possono essere considerati un mezzo di comunicazione. Uno dei termini usati per descrivere sia il computer che internet nell’ambito dei mezzi di comunicazione è meta-medium (Agre, 1998; Colombo, 1993; Kay, Goldberg, 1977), concetto che è stato utilizzato per indicare la capacità di sussumere in sé diversi mezzi di comunicazione. Questa caratteristica è dovuta anzitutto al fatto che il computer può essere considerato una macchina di Turing (per quanto la definizione non sia formalmente esatta: Pessa, 1992, p. 45), ovvero una macchina

computazionale in grado di simularne una qualsiasi altra grazie ad un sufficiente set di istruzioni. Un altro motivo è legato allo sviluppo dei media. Infatti i mezzi di comunicazione al loro nascere fanno propri linguaggi e sistemi sociali di mezzi di comunicazione precedenti (per una rassegna: Peters, 2009), proprietà che ha portato McLuhan a sviluppare la legge detta del recupero all’interno delle tetradi della comunicazione, secondo cui ogni medium recupera in forma nuova le caratteristiche del medium precedente (McLuhan, McLuhan, 1994). Una analisi in grado di collocare internet nel giusto contesto è senza dubbio la riflessione di Morris e Ogan (1996). I due autori partono da alcuni assunti di riferimento per cercare di illustrare alcune delle sfide che internet pone agli studiosi di comunicazione. In primo luogo l’idea tradizionale di mass media ha ormai raggiunto il proprio limite anche per colpa della sua difficoltà di concettualizzazione. In secondo luogo internet da un punto di vista generale può essere considerato un medium multisfaccettato che contiene in sé diverse configurazioni comunicative come le pagine web dei siti istituzionali oppure l’email. In terzo luogo il concetto di audience deve essere necessariamente rielaborato per venire incontro alle nuove forme comunicative della rete. Per poter correttamente considerare internet come mezzo di comunicazione di massa alcuni punti di partenza potrebbero essere: il concetto di massa critica, ovvero quando il numero degli utenti di internet comincia a diventare significativo; il tema dell’interattività, che necessita di un’opportuna contestualizzazione rispetto ai modi che può assumere in rete (per esempio interattività dello strumento e interattività della comunicazione); l’utilizzo dell’approccio «usi e gratificazioni» per comprendere l’uso di internet visto in competizione con altri media; far proprie alcune soluzioni teoriche della Cmc come il concetto di presenza sociale; infine valorizzare gli approcci della social network analysis (l’analisi delle reti sociali qui intesa come tecnica sociostatistica) in quanto può essere utile nell’ambiente di rete per comprendere flussi comunicativi e legami sociali. Come si vede, Morris e Ogan avevano già piuttosto chiara un’agenda della ricerca sul medium internet, e molte delle indicazioni che hanno dato sono tuttora attuali, soprattutto se pensiamo che sono state elaborate in un momento in cui internet era da poco un mezzo di comunicazione e i siti erano lo strumento privilegiato di quell’ambiente relativamente nuovo che era il World Wide Web.

Non c’è dubbio che internet sia diventato il paradigma della situazione dei media nella contemporaneità, sia per la sua costante centralità come medium in sé, sia perché ha influenzato forme culturali, rapporti sociali e organizzazione economica anche dei mass media classici. Se però il concetto di mass media, il processo di mediatizzazione, la distinzione mass media/personal media, la dicotomia pubblico/privato nonché l’idea del computer/internet come meta-medium hanno sottolineato che i media prima di essere artefatti sono forme di comunicazione, allora è legittimo sostenere che nell’attuale panorama sociale e tecnologico i mezzi di comunicazione si sono completamente smaterializzati. L’idea sostenuta da diversi studiosi dell’importanza di convergenza e digitalizzazione non va considerata come proprietà astratta dei new media, ma come processo che ha contribuito a realizzare la smaterializzazione dei media; diventa quindi legittimo considerare televisione, stampa, radio, cinema non mezzi di comunicazione ma forme di comunicazione che possono incarnarsi in artefatti diversi e servizi eterogenei. A nostro avviso, solo in questo modo è possibile comprendere che quella che doveva essere una convergenza tecnologica, ovvero la nascita di un supermedium in grado di essere tutti i mezzi di comunicazione, come sosteneva certa futurologia sempliciotta dei primi anni ’90, si è invece frammentata in una miriade di tecnologie, che spesso offrono servizi simili. Persino il computer, pur mantenendo la sua forma comunicativa (che è contemporaneamente sociale, culturale, economica), si è frammentato in una serie di tecnologie diverse ma simili come il netbook, l’iPad, i tablet pc. Ciò che veramente ha mostrato interessanti processi di convergenza va cercato nei contenuti dei media. In pratica abbiamo numerose tecnologie per fuire della stessa gamma di contenuti. Classico l’esempio delle partite di calcio: sono disponibili su televisione digitale terrestre, televisione digitale satellitare, webtv, Iptv, mobile tv, ma sono sempre lo stesso contenuto. Che questa sia una tendenza dell’attuale economia dei media è innegabile, ma si sbaglia se si pensa che l’economia da sola sia in grado di spiegare la dimensione sociale di questi mezzi. Questo processo di smaterializzazione dei media, assieme all’imposizione del paradigma informatico di gestione dei contenuti, ha reso centrale il concetto di piattaforma, ovvero un insieme di servizi messi insieme da un soware che si incorpora in uno (o più) artefatti. La piattaforma è un meccanismo abilitante che consente di far esplodere una serie di processi

tradizionalmente associati ai media (mass/personal, pubblico/privato). Per questo riteniamo interessante il concetto di social media. Non esiste una definizione operativa di questo termine, anche se è possibile immaginare che si sia sviluppato in ambito marketing e in ambito giornalistico. Il termine potrebbe suonare ingenuo, in quanto tutti i media sono sociali, ma è interessante perché pone l’enfasi non sui destinatari (la massa o l’individuo) ma sui processi. A questo punto ci chiediamo: qual è il rapporto fra social media e piattaforme?

4. Macrosistemi tecnici, infrastrutture e piattaforme Dal nostro punto di vista, congruente con la tradizione di ricerca dei Science and Technology Studies, esiste uno stretto legame fra istituzioni sociali, infrastrutture e piattaforme. Questo perché le infrastrutture possono essere considerate un macrosistema tecnico che incorpora in sé non solo tecnologia ma anche relazioni sociali. L’idea che qui si vuole sostenere è che le piattaforme sono da considerarsi le infrastrutture della società contemporanea e per questo motivo sono lo strumento attraverso cui sono rese possibili alcune particolari forme di relazioni sociali, ovvero vere e proprie infrastrutture sociali. Le infrastrutture possono essere considerate come dei sistemi tecnologici che svolgono la funzione di erogare un servizio. Rete stradale, rete fognaria, rete elettrica e rete internet sono accomunate da queste caratteristiche: erogano un servizio e sono incorporate in pratiche sociali. Dal nostro punto di vista quello che interessa è concentrarci sulle infrastrutture della comunicazione e sul loro ruolo nel sostenere – o affiancare – le relazioni sociali. Per fare questo però è necessario descrivere quali sono le caratteristiche delle infrastrutture. Le infrastrutture godono di alcune proprietà piuttosto specifiche (Star, Bowker, 2007). Per prima cosa sono radicate, ovvero si incorporano in altre strutture, organizzazioni sociali e tecnologie. Per esempio, la rete telegrafica è stata per molto tempo una componente chiave dello spazio urbano assieme alla rete ferroviaria (da cui deriva) e alla rete telefonica (di cui è l’anticipazione) (Bennato, 2002b). Le infrastrutture hanno la caratteristica della trasparenza, nel senso che supportano diverse attività

senza essere visibili, trasparenza che però viene meno nel momento in cui si guastano, diventando così visibili (un black out elettrico, un server che non risponde, ecc.). Il campo d’azione delle infrastrutture è esteso nel tempo e nello spazio, il che le rende elementi persistenti. Sono parte di una comunità che le dà per scontate e le presuppone, e sono legate alle consuetudini ovvero modellano la comunità a cui appartengono ma ne vengono anche modellate. Sono standardizzate, nel senso che gli elementi che le compongono sono fatti in modo tale da poter essere facilmente sostituiti e in grado di collegarsi con altre infrastrutture. Infine, sono costruite su elementi preesistenti, in quanto hanno bisogno di strutture che le supportano nel momento del loro sviluppo, che ne facilitano la diffusione o che ne consentono una compatibilità retroattiva. Diversi sono gli esempi che illustrano questa proprietà. Il telegrafo per molto tempo venne installato lungo le linee ferroviarie sia per motivi economici (per semplificarne l’installazione) che per motivi organizzativi (per migliorare il coordinamento ferroviario delle merci) (Bennato, 2002b). Esiste un altro modo per studiare le caratteristiche delle infrastrutture, ed è quello di considerarne le componenti architetturali, ovvero considerare che l’organizzazione dei suoi elementi sociali, politici, tecnologici compone un sistema tecnico. Questo approccio è tipico della teoria dei macrosistemi tecnici (Large Technical Systems o Large Technological Systems), ovvero un settore di ricerca tipico degli Sts che considera il modo in cui le tecnologie nascono all’interno di una organizzazione sociale e si evolvono fino ad incorporarsi in maniera indissolubile in uno specifico contesto sociale (Gökalp 1992; Gras, 1997; Hughes, 1983, 1987; Joerges, 1988). Quello che rende interessante questa impostazione ai fini della nostra analisi è che sia le infrastrutture che i macrosistemi sociotecnici sono architetture di rete, ovvero sono composte da nodi e connessioni di diversa natura e hanno una genesi piuttosto identificabile. Il modello più famoso di genesi di un macrosistema tecnico è sicuramente quello di Thomas Hughes (1983, 1987), un autore che ha studiato lo sviluppo storico dell’infrastruttura elettrica in Europa e in America, mettendo a punto un modello interessante per comprendere la genesi dei sistemi sociotecnici e le loro componenti politiche, economiche e sociali. La nostra ipotesi è che per comprendere il ruolo strategico dei social media è necessario considerarli come un particolare macrosistema tecnico che si è sviluppato a partire da preesistenti infrastrutture di

telecomunicazione e ha cominciato un processo di riorganizzazione sociale, politica ed economica che li ha resi un elemento centrale della società contemporanea. Per descrivere in dettaglio cosa sia un macrosistema tecnico utilizzeremo un saggio dello stesso Hughes, in cui sviluppa in forma di modello teorico le riflessioni sottese alla sua ricerca (Hughes, 1987). Un macrosistema tecnico si caratterizza come un’organizzazione complessa fatta di artefatti fisici (tecnologie, infrastrutture), artefatti sociali (banche, università, compagnie, ecc.), artefatti simbolici (legislazioni, teorie scientifiche, libri, ecc.), attori sociali (inventori, scienziati industriali, ingegneri eterogenei e così via), ovvero tutta una serie di elementi che si presentano sia socialmente costruiti che socialmente modellati. Gli artefatti di un macrosistema tecnico interagiscono tra di loro per raggiungere lo scopo comune, e se un elemento viene rimosso o si modifica gli altri elementi si modificano di riflesso (p. 51). Il macrosistema tecnico è connotato da due diversi tipi di ambienti (intesi come insieme di fattori non controllabili) che contribuiscono alla sua costruzione: un ambiente da cui il sistema dipende e un altro che dipende dal sistema. In questo caso gli ambienti non sono in interazione reciproca: l’uno influenza l’altro secondo una dinamica a senso unico (pp. 52-53) anche se i fattori che costituiscono il macrosistema lo modellano secondo una dinamica di composizione di fattori (Gökalp, 1992). Lo scopo perseguito dai sistemi tecnologici è quello di risolvere problemi o raggiungere uno specifico risultato: i problemi con cui essi si devono confrontare sono relativi al riordinamento del mondo fisico in modo che sia funzionale al sistema stesso (Hughes, 1987, p. 53). Alle origini del suo sviluppo il sistema si viene a configurare in una struttura gerarchica dotata di specifici sottosistemi a causa delle esigenze di controllo degli attori sociali che contribuiscono alla costruzione del sistema stesso. I macrosistemi tecnici tendono ad evolversi secondo un modello non rigidamente definito, le cui fasi sono: invenzione, sviluppo, innovazione, trasferimento, crescita, competizione e consolidamento. Questa successione non va pensata in modo diacronico, ma sincronico: la riconoscibilità delle singole fasi è dovuta al predominare di una sulle altre (pp. 56-57). Analizziamo adesso le singole fasi in maniera dettagliata, provando a sovrapporre i momenti chiave che hanno portato all’istituzionalizzazione

dei social media. La fase di invenzione (invention: pp. 57-62) è la fase in cui il sistema comincia a nascere e viene ad essere caratterizzato da invenzioni radicali così che il sistema cominci a costruirsi. Man mano che si sviluppano le altre fasi, le invenzioni diventano sempre più conservative poiché il loro scopo è quello di mantenere la stabilità del sistema. La figura più interessante in questo momento dello sviluppo del sistema è senza dubbio quella dell’inventore, che spesso è indipendente e professionista: indipendente nel senso che il proprio laboratorio di ricerca non appartiene a grandi organizzazioni, professionista nel senso che le risorse che gli permettono di proseguire le sue ricerche dipendono dal successo commerciale delle invenzioni (Thomas Edison ne è l’archetipo). Dal punto di vista psicologico, l’inventore ha un atteggiamento da outsider: preferisce innovazioni eclatanti piuttosto che innovazioni derivanti da miglioramenti tecnici di artefatti già esistenti. Questo perché ha maggiore libertà nella scelta dei problemi e di conseguenza maggiore difficoltà rispetto ai colleghi dei grandi laboratori, le cui ricerche sono guidate dalle scelte del mondo industriale o accademico. Gli inventori hanno la necessità di pubblicare rapporti sui loro brevetti in modo tale da diffondere l’utilità commerciale della propria invenzione, oltre che dare visibilità al loro lavoro. La maniera in cui raccolgono fondi è basata sulla vendita di brevetti di altre invenzioni, sulla collaborazione in qualità di consulenti con società di ricerca, o come sviluppatori di invenzioni altrui. Nel caso dello sviluppo dei social media, non è completamente corretto parlare di invenzione radicale, dato che non c’è un’invenzione tecnologica nel senso stretto del termine, ovvero di artefatto che incorpora sapere scientifico. Ma se adottiamo la prospettiva degli studi di management dell’innovazione, in cui viene considerato innovativo anche un nuovo modo di fare le cose (Drucker, 1985), possiamo dire che la filosofia progettuale alla base del Web 2.0, che prende le mosse dalla cultura hacker (Castells, 2002b; Lih, 2010), sia stata un elemento che ha cambiato non tanto lo stile della programmazione informatica, quanto le logiche della programmazione di servizi web basati sui criteri di architettura della partecipazione e intelligenza collettiva (cfr. cap. II). Le invenzioni radicali, se messe a punto con successo, portano allo sviluppo di un sistema tecnologico (development: Hughes, 1987, pp. 6264). Oltre ad essere l’attore principale per l’ideazione delle tecnologie alla

base del sistema tecnologico, un inventore può anche diventare il coordinatore del processo di sviluppo del sistema. In questa fase le invenzioni vengono a trasformarsi da idea che si stabilizza all’interno di un ambiente a sistema funzionante all’interno di un ambiente che collega insieme varie forze sociali (economiche, politiche) che garantiscono la stabilità per lo sviluppo del sistema. Anche il periodo di sviluppo è costellato da tutta una serie di invenzioni il cui scopo è quello di sostenere lo sviluppo del sistema, facilitando così il processo di scelta dei problemi da risolvere. I vari sottosistemi che cominciano a strutturare il sistema possono essere assegnati a professionisti di estrazione diversa come ingegneri, scienziati, ecc. In realtà bisogna tenere presente che dall’ottica del sistema la distinzione tra scienziati e ingegneri tende a sfumare. Rispetto ai social media, questa fase può essere fatta corrispondere alla nascita di incontri e manifestazioni aventi lo scopo di diffondere le idee sui nuovi servizi web e mettere a confronto gli attori di questo nascente ecosistema che mescolava information technology, business e blogger. Ad esempio il Social Soware Summit, le O’Reilly Conferences, o i Foo Camp (Friend of O’Reilly), eventi che hanno lo scopo di far incontrare tra loro sia i principali player del mercato di internet (come Google, Yahoo) che le piccole realtà imprenditoriali nate attorno ad un’idea (le cosiddette startup), nonché personaggi provenienti dalla cultura hacker, secondo uno stile già presente nella Silicon Valley negli anni della nascita del personal computer (Bennato, 2002a). Il momento dell’innovazione (innovation: Hughes, 1987, pp. 64-66) è il momento in cui gli attori chiave del nascente sistema cominciano a trasformare l’invenzione in una organizzazione completa che comprende l’artefatto tecnologico, la produzione, la vendita e le agevolazioni del servizio. Esistono varie strategie per costituire un sistema così complesso: quella più praticata consiste nell’operare delle modificazioni al sistema, così da poter utilizzare fabbriche e meccanismi di distribuzione già esistenti e istituzionalizzati. Si dà il caso che molti inventori preferiscano dare vita a propri apparati di produzione, distribuzione e vendita, poiché le industrie tradizionali solitamente sono riluttanti a fornire ciò di cui il nascente sistema tecnologico ha bisogno. Questo problema è molto forte nel caso di un’invenzione radicale, mentre la riluttanza è molto più facilmente superabile nel caso di invenzioni conservative. Gli inventori che si adoperano per la costruzione del sistema cominciano

progressivamente ad incrementare le dimensioni del proprio progetto in modo tale da aumentare l’ambiente che viene ad essere sottoposto al controllo del sistema. Molto spesso è proprio in questa fase che cambia la missione sociale degli inventori, poiché alcuni rimangono saldamente al comando del sistema da loro creato, altri invece preferiscono non abbandonare la ricerca tecnologica e cedono ad altri personaggi la gestione della loro impresa. Nel caso dello sviluppo del sistema dei social media, questa fase può essere fatta corrispondere con l’istituzionalizzazione di alcune tecniche di programmazione che rielaborano tecnologie preesistenti per dar vita a nuovi artefatti soware compatibili con i servizi web che stavano incorporando la nuova filosofia di programmazione. Emblematico da questo punto di vista lo sviluppo della tecnologia Ajax[3], strumento importante per creare siti internet dinamici e interattivi in grado di migliorare l’esperienza d’uso da parte dell’utente (Garrett, 2005). Fra gli esempi tipici di tecnologia Ajax possiamo citare Gmail, Google Maps, alcune funzioni di Flickr e tanti altri. Oppure il framework Ruby on Rails, ovvero un ambiente di programmazione di applicazioni web avente lo scopo di semplificare la scrittura di codice soprattutto in ambito di prototipazione, senza che ciò vada a discapito della funzionalità dell’applicazione web così sviluppata. Il trasferimento tecnologico (technology transfer: Hughes, 1987, pp. 6670) è un momento molto importante nella stabilizzazione del sistema, perché dalla fase iniziale della sua istituzione si passa alla fase di ancoraggio nel tessuto sociale. Tradizionalmente il sistema incorpora delle specifiche caratteristiche sociotecniche che lo caratterizzano come appartenente ad un particolare tempo e spazio. Nell’aumentare le dimensioni della sua influenza, il sistema deve adattarsi ad ambienti diversi: questo è il motivo per cui i concetti di trasferimento della tecnologia e adattamento del sistema sono intrinsecamente connessi. Alcuni dei fattori critici di questa fase sono: la geografia (le caratteristiche dell’ambiente in cui il sistema deve attecchire), la società (l’insieme delle istituzioni con cui il sistema deve negoziare), la legislazione e il mercato (ovvero i vincoli relativi a specifiche istituzioni). Importante in questa fase il concetto di stile tecnologico (technological style: pp. 68-69). Concetto messo a punto in assonanza con il concetto di stile architettonico, consiste nella caratterizzazione di un sistema tecnico nei termini delle influenze

storiche, geografiche, politiche e sociali che ha incorporato durante il proprio sviluppo, e permette di rispondere alla domanda sulle specificità nazionali di alcuni sistemi che – tecnologicamente – sono basati sulle stesse invenzioni e sugli stessi artefatti. Il trasferimento tecnologico, per il sistema dei social media, può essere fatto corrispondere al periodo delle acquisizioni di alcune innovative startup da parte delle grandi compagnie che rappresentano i principali protagonisti del mercato. Fra il 2005 e il 2007 Google e Yahoo si sono resi protagonisti di una serie di acquisizioni che hanno portato a consolidare il mercato dei social media aumentando il loro numero di utenti grazie all’integrazione con i servizi già forniti (per lo più ricerca web e caselle email ad accesso web). Inoltre, attraverso queste acquisizioni hanno dato nuovo impulso al mercato sia creando condizioni ottimali per consentire lo sviluppo di idee fresche da parte di una nuova generazione di imprenditori, sia dando maggiore fiducia agli investimenti delle società di venture capital, ovvero società che si occupano di finanziare le prime fasi di sviluppo delle startup e che sono state alla base del successo di diverse imprese, secondo un modello già esistente nella Silicon Valley. Basti citare società come Sequoia Capital, che è stata alla base dei finanziamenti a compagnie come Youtube, Linkedin, ma anche Google e Yahoo, oppure Greylock Partners, protagonista di finanziamenti a società come Digg, Facebook, Gowalla e Pandora, o Spark Capital, i cui fondi hanno aiutato la crescita di servizi come Twitter e Tumblr. Anche per lo sviluppo dei social media intesi come macrosistemi è possibile trovare un esempio di stile tecnologico. Data l’enfasi sulla centralità dell’utente, la semplicità dello strumento e la voglia di offrire una migliore esperienza d’uso, si è venuto progressivamente a sviluppare uno stile grafico piuttosto riconoscibile i cui elementi costitutivi sono l’uso di colori pastello, gabbie grafiche estremamente semplici ed essenziali, immagini ricche di trasparenze e riflessi, ovvero uno stile che secondo molti designer ricorda la grafica delle interfacce dei sistemi Apple (Bennato, 2008b). Crescita, competizione e consolidamento (growth, competition, consolidation: Hughes, 1987, pp. 71-76) sono le fasi che meglio incarnano il processo di sovrapposizione di dinamiche che caratterizza l’elaborazione del sistema tecnologico. Sono fasi che si sviluppano in rapida successione e hanno lo scopo di rendere il sistema più robusto, così da impedire che si possa tornare alla situazione sociale, politica e culturale preesistente. Un

elemento molto interessante in questo processo di crescita è la comparsa dei cosiddetti reverse salient (Hughes, 1987, p. 73)[4]. Quando le organizzazioni che si occupano di monitorare la crescita del sistema tecnico individuano la presenza di reverse salient, per risolvere il problema possono istituire uno staff ad hoc, il cui scopo è l’eliminazione del reverse salient attraverso una serie di artefatti, teorie, pratiche, ecc. Quello su cui bisogna focalizzare l’attenzione è che l’identificazione del reverse salient dipende dalla strumentazione tecnica e concettuale a disposizione: ovvero è frutto di un processo di costruzione sociale. Di solito emerge in maniera inaspettata e la sua codificazione si presenta nella forma di una serie di problemi interconnessi. Quando un reverse salient non può essere risolto all’interno di un contesto già esistente, la soluzione di questo problema ha come conseguenza la nascita di un nuovo sistema. Una volta che il sistema tecnico si sia rafforzato, grazie anche alla soluzione dei diversi reverse salient, si viene a sviluppare un processo di standardizzazione, il cui scopo è quello di ridurre le incertezze dell’ambiente all’interno del quale si muove il sistema. Il più importante reverse salient che si è sviluppato nel processo di consolidamento del sistema dei social media è stata la questione della neutralità della rete (network neutrality o net neutrality) (Economides, 2008; Faulhaber, 2007; Peha, Lehr, Wilkie, 2007). Con questo termine si fa riferimento alle strategie politiche o commerciali che vorrebbero trattare in maniera diversa le informazioni che viaggiano su internet e che fanno riferimento a diversi servizi. Spieghiamo questo punto in dettaglio. Quando viene usato un servizio internet, vengono prodotte delle informazioni organizzate in pacchetti di dati che rispettano delle specifiche soware (dette protocolli) che usano la rete internet come infrastruttura e ad ogni servizio corrispondono diversi protocolli. Quando viene spedita un’email viene usato il protocollo Smtp, quando viene consultata una pagina web viene usato il protocollo Http e così via. L’organizzazione fisica (hardware) e logica (soware) della rete internet è fatta in modo tale da trattare i pacchetti di ogni protocollo nello stesso modo, ovvero secondo il principio della neutralità della rete. A partire dal 2003 alcuni soggetti come le compagnie di telecomunicazioni, o i fornitori di servizi internet (Isp: Internet service provider), decisero di introdurre il principio di non neutralità della rete. Ovvero protocolli diversi venivano gestiti in maniera diversa, per esempio rallentando la

velocità di alcuni protocolli a favore di altri. La principale argomentazione a sostegno di questo comportamento fu quella dell’ottimizzazione: dato l’enorme traffico della rete internet, è bene che alcuni protocolli (come i flussi dati video) vengano rallentati per evitare l’intasamento della rete. In realtà secondo alcuni gruppi, per lo più di difesa dei diritti digitali (come la Eff[5]), è solo un modo retorico per preferire servizi a pagamento a scapito di altri servizi. Un operatore telefonico che fornisce connettività a banda larga non avrà interesse a facilitare l’uso di servizi freemium[6] come Skype (celebre servizio per le telefonate online), perché tale servizio è in conflitto con i servizi telefonici a pagamento. Oppure un Isp che fornisce servizi di accesso a negozi online di musica preferirà dare la precedenza a pacchetti verso questi online stores e rallentare la velocità di servizi come le reti peer to peer. La controversia sulla neutralità della rete può essere considerata un importante reverse salient perché l’idea che è meglio peggiorare la qualità della connessione di alcuni servizi a vantaggio di altri, se passasse, potrebbe portare allo sviluppo di una rete internet parallela (progetto alla base di diversi gruppi di hacktivisti[7]). Dal punto di vista dei social media, contravvenire al principio della neutralità della rete potrebbe portare con sé un grave limite allo sviluppo di nuove società che – per esempio – potrebbero fornire servizi di telefonia via internet in competizione con le compagnie telefoniche. Dopo la crescita, la competizione e il consolidamento, il sistema tecnologico acquista un proprio movimento inerziale, identificato dal concetto di momentum (Hughes, 1987, pp. 76-80). Con questo termine si vuole identificare il fatto che un sistema tecnologico maturo acquista una propria dinamica che gli permette di proseguire nel processo di sviluppo. Il momentum non è solo frutto della capacità di crescita costante del sistema, ma anche del fatto che esso viene sostenuto dagli interessi eterogenei che entrano a farne parte. Da questo punto di vista possiamo considerare che il sistema tecnologico solo in apparenza sembra procedere in quanto spinto dalla capacità di sviluppo della tecnologia (così come voleva il determinismo tecnologico); in realtà le dinamiche che lo sostengono hanno una profonda matrice sociotecnica: ovvero un sottile intrecciarsi di interessi sociali, tecnologia, sviluppo di mercati, ecc. Un sintomo del momentum del sistema dei social media è senza dubbio lo sviluppo dell’economia delle apps, ovvero un sistema economico in cui la navigazione del web – tradizionale e partecipativo – avviene attraverso

tecnologie specifiche (come gli smartphone e i tablet pc) che consentono la fruizione di internet mediante piccole applicazioni (dette appunto apps). Queste, se da una parte migliorano l’esperienza d’uso in virtù delle opportunità permesse dalle tecnologie che sfruttano (schermi touch, display limitati), dall’altra sono soware che – nella maggior parte dei casi – fanno pagare ciò che sarebbe gratuito se venisse consultato attraverso un browser tradizionale. Per questi motivi alla fine del 2010 in rete è sorta una polemica a partire da un servizio uscito sulla celebre rivista «Wired», in cui si sosteneva che questo modo diverso di usare internet avrebbe portato alla morte del web (Anderson, 2010). Come abbiamo visto, il modello di Hughes, nonostante sia stato pensato per spiegare lo sviluppo del sistema elettrico, è molto utile per studiare altri sistemi tecnici. Nel nostro caso lo abbiamo adattato al sistema dei social media perché, a nostro avviso, un modo utile per comprendere come queste tecnologie non siano solo mezzi di comunicazione digitale, ma una vera e propria ecologia sociale, è quello di valorizzare la dimensione sistemica, secondo una strada che altri studiosi hanno percorso rispetto allo sviluppo delle tecnologie di telecomunicazione (Davies, 1996; Mayntz, Schneider, 1988). Le riflessioni successive ispirate al modello di analisi delle reti intese come macrosistemi tecnici hanno portato ad alcune precisazioni sulle modalità con cui il sistema prende forma, soprattutto per ciò che concerne il tipo di relazioni che esso instaura con il resto del mondo sociale. Come abbiamo accennato, un tema piuttosto interessante è quello del sistema inteso come infrastruttura (Joerges, 1988; Star, Bowker, 2007). Secondo alcuni teorici, infatti, una delle dinamiche più tipiche dello sviluppo dei macrosistemi tecnici è la capacità che essi hanno di innestarsi su, o sostituire, sistemi tecnici già esistenti oppure in fase di declino (Gökalp, 1992). Questo processo di sovrapposizione e sostituzione ha caratterizzato lo sviluppo dei più importanti sistemi sociotecnici: la ferrovia si è sviluppata seguendo la rete stradale, il telegrafo – inteso come applicazione specifica della linea elettrica – ha seguito la linea ferroviaria, il telefono si è diffuso sfruttando la rete telegrafica come struttura di supporto (Bennato, 2002b). Il motivo per cui lo sviluppo di una rete tecnica corre parallelo all’esistenza di reti preesistenti è che un macrosistema sociotecnico, una volta istituzionalizzatosi (ovvero – seguendo la terminologia di Hughes – nella

sua fase di consolidamento), si trasforma in una vera e propria infrastruttura sulla quale cominciano ad innestarsi le attività sociali più tipiche, fino a diventare un elemento imprescindibile del panorama tecnologico quotidiano. Classico, da questo punto di vista, il legame tra rivoluzione industriale e sviluppo del sistema ferroviario (Gökalp, 1992). Un altro elemento importante dei macrosistemi tecnici è quello che potremmo chiamare la ristrutturazione dello spazio-tempo (Gökalp, 1992; Gras, 1993; Joerges, 1988). Nella misura in cui spazio e tempo sono costrutti sociali, e considerando i macrosistemi tecnici come in grado di penetrare in ogni aspetto della vita quotidiana, è facile concludere che anche la stessa percezione dello spazio e del tempo subirà delle modifiche. Detto in altri termini, i sistemi tecnologici sono delle particolari strutture in grado di rielaborare e omogeneizzare lo spaziotempo sociale attraverso l’imposizione di una velocità di comunicazione che si trasforma in un elemento di riferimento per tutti i flussi che percorrono gli spazi di comunicazione sociale (Gökalp, 1992, p. 64). La riconfigurazione dello spazio influisce anche sulla ristrutturazione del tempo, attraverso un procedimento di standardizzazione dei riferimenti temporali a livello sovranazionale. Tipico da questo punto di vista è il processo di standardizzazione del tempo, nato come esigenza di coordinamento internazionale della linea ferroviaria. La standardizzazione del tempo ha come scopo principale quello di mettere in piedi un processo di programmazione così da realizzare attraverso artefatti fisici o simbolici l’ideologia del controllo da cui sono scaturite le caratteristiche principali della società dell’informazione (Beniger, 1986); tali artefatti sono considerati gli elementi costitutivi dello spazio dei flussi tipico della network society (Castells, 2002a). Una volta illustrati i motivi per cui è legittimo considerare i social media come un particolare macrosistema tecnico che diventa una vera e propria infrastruttura, dobbiamo porci la seguente domanda: perché le tecnologie legate al web partecipativo sono considerate piattaforme? Ovvero in che senso i social media possono essere considerati delle piattaforme? Il termine ha una genesi piuttosto interessante ed è utile per comprendere alcune ideologie sottese all’universo del web partecipativo (Gillespie, 2010). Il termine piattaforma ha almeno quattro significati principali: uno computazionale (inteso come un’infrastruttura che facilita

l’uso e la progettazione di particolari applicazioni), uno architettonico (per descrivere strutture fisiche costruite dall’uomo o formatesi naturalmente), uno figurato e uno politico (base di un’azione politica o sindacale oppure fondamento ideologico). Tutti questi significati sottendono la stessa idea: un costrutto abilitante, uno strumento che facilita la realizzazione di qualcosa. Questo termine fa ormai parte integrante del discorso delle industrie digitali, che di fatto lo ha emancipato dal suo originario significato computazionale. Infatti sempre più spesso viene utilizzato non con riferimento alla scrittura del soware, ma come strumento abilitante, come strumento cioè che rende possibile comunicare, interagire o vendere (Gillespie, 2010). Piattaforma è un termine sempre più spesso associato ai servizi che si rivolgono agli utilizzatori comuni, consentendo loro di comportarsi come istituzioni mediali grazie alle opportunità offerte dai nuovi intermediari culturali (Youtube, ad esempio). In quanto nuovi intermediari culturali, si devono presentare strategicamente a tre tipologie di audience: utilizzatori finali, investitori pubblicitari e produttori di contenuto professionali. Pertanto questi nuovi intermediari culturali sono piattaforme perché vogliono mantenere una neutralità rispetto all’eterogeneità delle audience verso cui si rivolgono. Ma tale neutralità è assolutamente apparente, in quanto, tranne in rari casi, i contenuti dei media mainstream hanno una forza che i contenuti creati dagli utenti non hanno e non possono avere per varie ragioni (Burgess, Green, 2009). Per questi motivi, i social media possono essere considerati piattaforme in una accezione debole, ovvero in quanto tecnologie abilitanti, ma bisogna essere consapevoli che l’accezione forte del concetto, ovvero strumenti per democratizzare la produzione di contenuti, è una strategia discorsiva di legittimazione di queste tecnologie all’interno di uno specifico contesto politico ed economico.

II. Strumenti. Le infrastrutture della collaborazione su internet

L’attuale panorama della comunicazione nel web si è spostato da un semplice processo di accesso alle informazioni ad un processo più complesso di costruzione e manutenzione delle relazioni sociali. Obiettivo di questo capitolo è quello di introdurre le caratteristiche sociali di questo cambiamento, specificando anzitutto quale sia la genesi di questo processo, dopodiché si procederà ad una tassonomia degli strumenti presenti su internet che declinano in modo partecipativo la presenza dei soggetti online. Alla base di questo ragionamento si farà riferimento al concetto di infrastruttura, poiché è in atto un processo di riorganizzazione e ripensamento delle istituzioni sociali che riproduce la dinamica disintermediazione/reintermediazione (Jones, 2002), che ripropone all’interno dei media digitali la distinzione tipica delle società moderne disaggregazione/riaggregazione (Giddens, 1994).

1. Alla ricerca di una definizione tra tecnologia e processi sociali Allo studioso di scienze sociali che si occupa di web, il primo problema che si pone è quello di elaborare una definizione per descrivere le tecnologie internet che in meno di dieci anni hanno modificato in maniera importante il panorama della rete. La questione potrebbe sembrare accademica, ma in realtà è un problema di tassonomia perché, a seconda della definizione scelta, diverse sono le analisi che si possono utilizzare. Il procedimento argomentativo che qui abbiamo scelto di seguire è quello di elaborare una genesi dei termini più recenti – fra tutti Web 2.0 e social media – che sono stati utilizzati da diversi professionisti (ricercatori, giornalisti, uomini di marketing, imprenditori) per descrivere le tecnologie web protagoniste di questo cambiamento. Studiare lo

sviluppo di queste definizioni è utile per tre ordini di motivi. In primo luogo in quanto testimonianza storica di come sia andata modificandosi la consapevolezza dell’impatto sociale delle tecnologie. In secondo luogo perché le varie definizioni enfatizzano aspetti diversi delle tecnologie. In terzo luogo perché definizioni diverse sono frutto di comunità epistemiche diverse e in quanto tali portano con sé un interessante bagaglio concettuale a cui tuttora spesso si fa riferimento. Queste definizioni, per quanto diverse nell’uso lessicale, hanno una comune caratteristica: cercano di fondere in maniera non banale la componente tecnologica e la dimensione socioeconomica a cui fanno riferimento. Queste definizioni sono frutto del mutato clima intellettuale che ha cominciato a circondare internet a partire dalla seconda metà degli anni ’90 e che in questa sede può essere solo brevemente tratteggiato grazie al contributo teorico ed empirico delle scienze sociali che stavano cominciando a interrogarsi sulle caratteristiche sociologiche della nascente Network Society, termine che di lì a poco avrebbe sostituito l’ormai desueto Information Society (pur essendoci una parentela diretta fra le due concezioni: Webster, 2007). La prima definizione a cui facciamo riferimento è quella di Social Informatics (Kling, 1999; Kling et al., 2000; Sawyer, Rosenbaum, 2000). Il termine Social Informatics (Si) fa riferimento all’insieme delle ricerche il cui scopo è lo studio degli aspetti sociali delle Ict e della computerizzazione (Kling, 1999; Kling et al., 2000, p. 10). Esso deriva dalla discussione tenutasi nel 1996 nel seminario sulle biblioteche digitali presso l’Università della California Los Angeles (Ucla), i cui temi erano per lo più relativi a quel settore di studi organizzativi detto Computer Supported Cooperative Work (Cscw: lavoro cooperativo computer-assistito) (Kling, 1999). Bisogna ricordare che nei paesi di lingua inglese viene utilizzato il termine Computer Science, ma si è preferita la dizione europea di informatica sia per potersi riferire all’insieme delle Ict senza restrizioni limitate al computer, sia perché è considerata una definizione aperta alla componente sociale (Kling, 1991, pp. 360-363; Kling et al., 2000, p. 15). Una delle prime definizioni della Si recita così: «La Social Informatics si riferisce allo studio interdisciplinare della progettazione, dell’uso e delle conseguenze delle Ict che prendono in considerazione la loro interazione con contesti istituzionali e culturali» (Kling et al., 2000, p. 15, trad.

nostra). In primo luogo c’è il problema di cosa sia da intendersi per studio interdisciplinare. La Si si presenta come un campo di studi con un forte orientamento empirico, caratterizzato dallo studio di uno specifico set di problemi (Kling, 1999; Kling et al., 2000, pp. 15-16), e non dall’adozione di un metodo o di una tecnica particolari. Lo scopo delle ricerche della Si è basato su quello che viene detto un processo di scoperta (discovery process: Kling, 1999), ovvero vedere in che modo sia possibile progettare un sistema informatizzato compatibile con specifici contesti sociali ricorrendo a tecniche di ricerca tradizionalmente dette qualitative, che vanno dall’etnografia organizzativa ai focus groups (Kling, 1999). Uno degli obiettivi delle ricerche della Si è quello di superare la frammentazione disciplinare nello studio dei sistemi informatici che ha caratterizzato il campo a partire dagli anni ’80 (Kling, 1999; Kling et al., 2000, p. 14). Il tentativo è quello di occupare lo spazio teorico intermedio che si colloca tra le descrizioni naïves dei giornalisti sugli effetti delle Ict e l’insieme delle ricerche empiriche, sistematiche e teoricamente fondate (Kling et al., 2000, p. 11). Una delle dirette conseguenze di questo obiettivo è il tentativo di rappresentare un settore disciplinare non solo accademico, ma di aiuto anche ai professionisti delle Ict. Il secondo punto chiave che definisce la disciplina è l’interazione delle Ict con il contesto istituzionale e culturale. Cruciale è il concetto di sistema sociotecnico, inteso come intricata rete di relazioni sociali e Ict che vengono a strutturare un contesto sociale ben definito. Il concetto di sistema sociotecnico, così come usato dalla Si, ha come scopo fondamentale quello di superare la metafora semplicistica delle Ict come strumenti (tool metaphor: Kling et al., 2000, p. 28). I termini che cercano di operativizzare il modo di intendere il tipo di strutturazione sociotecnica utile per le ricerche della Si sono: rete di computazione (web of computing: Kling, 1991, pp. 358-360; Kling, Scacchi, 1982), che consiste nella organizzazione sociale di un sistema sociotecnico basato sulle tecnologie del computer, e tecnologia configurazionale (configurational technology: Fleck, 1994; Williams, 1997), ovvero considerare le tecnologie come configurazioni di elementi tecnici e di componenti sociali piuttosto che sistemi. È evidente che non solo il contesto sociale di riferimento assume un’importanza cruciale, ma anche che l’indagine sociale necessita di un forte processo di contestualizzazione, altrimenti sarebbe difficile spiegare

perché due organizzazioni, a parità di artefatti, vengono a sviluppare diversi sistemi socio-tecnici (Kling, 1999; Kling et al., 2000). Distinguere un elemento tecnico da un elemento sociale è molto importante, poiché permette di vedere quali siano le reciproche influenze fra i due ordini di variabili. Si prenda ad esempio il tema dell’accesso. Può essere declinato in due modi: l’accesso tecnologico, ovvero la possibilità di fornire gli strumenti adatti al sistema sociale di riferimento, e l’accesso sociale, lo sviluppare cioè un’organizzazione che sia in grado di consentire l’uso a chi è parte dell’organizzazione. Come si può notare, i due concetti sono separati, ma non è difficile pensare l’uno come dipendente dall’altro (Kling, 1999). Questa riflessione ci conduce direttamente al terzo elemento della definizione della Si, ovvero considerare il processo di progettazione dei sistemi informatici come processo di progettazione sociale (Kling, 1999; Kling et al., 2000, pp. 42-45). Per poter risolvere questo problema sono state utilizzate molteplici metodologie di progettazione in cui il ruolo dell’utente finale viene ad essere importantissimo. È il caso della progettazione continua (continuous design: Kling et al., 2000, pp. 39-42), ovvero un costante rimodellamento del sistema informativo per soddisfare le esigenze degli utenti finali. Un’altra tipologia è la progettazione centrata sull’uomo (human centered design), che si concentra su quattro aspetti chiave del sistema delle Ict: la complessità dell’organizzazione sociale e le caratteristiche della tecnologia a disposizione, chi e come ha messo a punto i criteri di valutazione della compatibilità sociale del sistema, un’enfasi sul fatto che si sta intervenendo su qualcosa di più delle semplici caratteristiche formali delle Ict, l’idea che gli scopi della progettazione sono parte integrante del sistema stesso (Kling, Star, 1998). Questo ultimo punto viene a focalizzare un aspetto importante della progettazione: in quanto attività sociale, porta ad incorporare nel sistema assunti e valori determinando così la tipologia di relazioni sociali che verranno ad instaurarsi (Kling, 1991, p. 356; Kling et al., 2000, p. 48). Come è facile osservare, è nelle regole generali di progettazione dei sistemi sociotecnici basati sulle Ict che la Si rivela il suo progetto di disciplina di riferimento per tutti i professionisti dell’informatica, aumentando la consapevolezza che le scelte fatte nel momento della

progettazione di un sistema non sono mai solo tecniche ma hanno delle specifiche conseguenze sociali. Ed è proprio su queste che si concentra il quarto punto chiave della definizione della Si. L’analisi delle conseguenze delle Ict secondo la Si è che esse provocano una ristrutturazione dei rapporti sociali (Kling, 1991, p. 347) che può andare dalla riconfigurazione delle forme di potere alla creazione di nuove modalità di relazione sociale. Fra queste, molto interessanti sono le riflessioni relative alle conseguenze politiche connesse all’adozione di particolari tecnologie in specifici ambienti sociali (Kling et al., 2000, pp. 59-61). Queste riflessioni derivano soprattutto dagli studi che si sono occupati del fattore politico in situazioni di cambiamento organizzativo, che si integrano perfettamente con le idee sulla progettazione di sistemi sociotecnici basati sulle Ict. Infatti progettare un sistema vuol dire anche strutturare le relazioni di potere che vengono ad instaurarsi in un’organizzazione, influenzando profondamente la politica (intesa in senso ampio) preesistente. Queste sono le caratteristiche generali di cui risulta essere portatrice la Si e che la connotano come area multidisciplinare fondamentalmente autonoma per metodi, approcci e modelli. A questo punto è necessario sottolineare alcune riflessioni generali. La cosa che salta assolutamente agli occhi nel descrivere la Si è il suo forte orientamento a studiare le Ict in connessione con strutture organizzative, con la conseguenza di una forte attenzione alle pratiche e alle relazioni sociali che vengono ad instaurarsi in contesti lavorativi. Infatti è l’attenzione che la Si mostra nei confronti dei processi di lavoro (work oriented view: Kling, 1999) che rivela il tentativo di diventare disciplina di riferimento professionale. Non è un caso che la Si si sia sviluppata durante un workshop sulle biblioteche digitali, così come non è un caso che buona parte degli articoli sviluppati in questo settore hanno a che fare con i problemi di sistemi informativi (diffusione delle riviste accademiche in rete, modificazioni nei processi di peer review[8], ecc.). D’altra parte la stessa Si sembra aver fatto propri i risultati dei suoi studi, dato che esistono molti siti internet che si occupano di diffondere informazioni su questo settore[9]. L’attenzione prestata al contesto lavorativo ha come conseguenza una spiccata vicinanza (negli scopi e nei metodi) con altre discipline, in particolar modo con un altro settore

disciplinare, ovvero la Computer Mediated Communication (Paccagnella, 2000). Il termine Social Informatics non è un’etichetta che funge da tassonomia – in quanto non descrive un universo di strumenti – ma una vera e propria disciplina. Per questo motivo può essere considerato uno dei primi tentativi di far dialogare la componente informatica e quella sociale. Un altro tassello importante per rendere conto di come stava cambiando l’atmosfera intellettuale relativa al rapporto fra informatica e sociologia è l’importante articolo di Barry Wellman e collaboratori sull’isomorfismo tra reti sociali e reti di computer (Wellman et al., 1996), ovvero sui Computer supported social networks (Cssns). Prima di affrontare le idee presenti nel paper, è bene anche qui precisare una particolarità terminologica. Quando nella sociologia si parla di social network (termine tradotto in italiano con reti sociali, oppure reticoli sociali), si fa riferimento all’oggetto di studio della Social network analysis (Sna), una metodologia di ricerca (da molti ritenuta una vera e propria teoria sociologica: cfr. Collins, 1992) secondo cui i fenomeni sociali possono essere descritti come un insieme di relazioni che intercorrono tra attori, rappresentate attraverso grafi che descrivono le proprietà sociali e topologiche del gruppo studiato (Scott, 1997). Pertanto le cose sono molto lontane dall’accezione che il termine ha assunto recentemente. Potremmo comunque considerare come primo tentativo di slittamento di significato verso le reti telematiche del concetto di social network proprio quello indicato da Wellman e collaboratori. «Quando le reti di computer collegano le persone così come le macchine, allora diventano reti sociali, che chiameremo reti sociali computer-assistite (Cssns: Computer supported social networks)» (Wellman et al., 1996, trad. nostra, parentesi aggiunte). Aprendo il saggio con questa definizione, Wellman crea un collegamento – inedito per le scienze sociali del periodo – in cui le reti di computer, fino ad allora oggetto della Computer Science, possono essere interpretate come reti sociali, diventando così oggetto di studio anche per la ricerca nelle scienze sociali. D’altronde una simile riconcettualizzazione poteva essere fatta solo da Barry Wellman in quanto non solo figura di spicco della Sna (Freeman, 2007), ma anche autore dei primi interessanti studi sulla sociologia delle reti di computer.

Il saggio identifica tre forme distinte di Cssns: le comunità virtuali, le reti di computer per il lavoro di gruppo (Cscw) e il telelavoro. A fronte di queste tre diverse forme di Cssns, il saggio identifica vari ambiti di ricerca che prendono le mosse dalla Cmc, nonostante eccessivamente influenzata dal determinismo tecnologico e dall’individualismo nella comunicazione, ma in cui la sociologia avrebbe potuto avere un ruolo chiave, mentre nel momento in cui l’articolo è stato scritto lo sguardo sociologico su questi temi era assolutamente sottodimensionato. Un ambito di ricerca prevedibile – anche alla luce della consistente letteratura della Cmc – è quello della comunicazione online e del ruolo giocato dalle interazioni fra individui attraverso dispositivi informatici (Wellman et al., 1996, pp. 218219). Un altro settore è invece quello del sostegno online inteso sia come scambio di informazioni che come sostegno sociale propriamente detto e rappresentato da dinamiche come compagnia, appartenenza, supporto, fino alla creazione di veri e propri gruppi di sostegno con lo scopo di aiutare emotivamente le persone. Cruciale il settore di studio dei rapporti online, in cui Wellman e collaboratori declinano la terminologia tipica della Sna rispetto alle esigenze di ricerca sui Cssns, infatti si parla di legami multipli, legami forti, legami deboli fino ad arrivare alla categoria dei legami fonte di stress (stressful ties) in cui sono catalogate pratiche come il flaming[10], lo spamming[11], il cyberstalking[12] (pp. 221-224). Debitore alla terminologia (e alla ricerca) tipica della Sna è anche l’ambito di studio descritto come reti sociali online, in cui il tratto caratteristico è il modo in cui processi sociali vengono incorporati all’interno di comunità virtuali e Cscw, cercando di evidenziare come componenti topologiche – dimensioni, composizione e struttura della rete sociale online – incidono sui processi sociali ad esse connesse. Proprio in questa parte, interessante è l’osservazione contenuta nel saggio relativa a due dinamiche all’apparenza contraddittorie: da un lato la rete incoraggia l’appartenenza a comunità multiple e specifiche, dall’altro rende possibile che le reti sociali online si trasformino in comunità molto ampie. Inoltre un processo altrettanto interessante è lo spostamento delle comunità da luoghi semi-pubblici – come parchi, caffè, pub – a luoghi privati all’interno delle pareti domestiche. Infine il saggio dedica una parte specifica alla questione del telelavoro, in particolare all’intersezione tra spazio pubblico e spazio privato e alle trasformazioni tra lavoro domestico e gender (pp. 228-231). Il saggio si conclude con delle riflessioni che possono tuttora considerarsi

un monito significativo per chi studia la commistione tra reti sociali e reti informatiche. I rapporti sociali online hanno la caratteristica di essere sempre più spesso basati su interessi condivisi e sempre meno sulla comune appartenenza sociale, tratto tipico delle forme comunitarie tradizionali. Inoltre viene fatta un’opzione teorica che è anche metodologica: sebbene molte relazioni funzionano online allo stesso modo che offline, è anche vero che i Cssns stanno sviluppando norme e strutture loro proprie tanto da giustificare l’affermazione che «[tali norme] non sono semplicemente pallide imitazioni della ‘vita reale’. La Rete è la Rete» (p. 231, trad. nostra). Questo giustifica una «chiamata alle armi» per la sociologia che non può rimanere inascoltata anche perché «l’informatica è semplice, la sociologia è difficile» (p. 232). Queste – in estrema sintesi – le osservazioni presenti nel saggio di Wellman e collaboratori. Una domanda potrebbe essere sollevata: è possibile considerare equiparabili un settore disciplinare come la Social Informatics e un saggio, in quanto entrambi testimonianze dell’atmosfera intellettuale che ha preparato il terreno per una interpretazione diffusa in grado di legittimare le applicazioni internet come spazi sociali (e non semplicemente soware)? Si può rispondere a tale legittima obiezione in vari modi che fanno riferimento alla dimensione politica del saggio. In primo luogo il luogo di pubblicazione. La rivista è «Annual Review of Sociology», il cui obiettivo è quello di fornire alla comunità scientifica una sintesi della letteratura principale sui temi più importanti in un certo periodo, e ciò rende l’idea dell’accresciuta consapevolezza nella comunità accademica di come l’informatica nelle sue diverse forme fosse divenuta un tema emergente anche per le scienze sociali. In secondo luogo gli autori del saggio. Oltre a Wellman – di cui si è già detto – è possibile riconoscere i nomi di alcuni dei ricercatori più importanti nel campo della sociologia delle reti informatiche, tra cui Milena Gulia e Caroline Haytornthwaite. In terzo luogo la scelta di integrare la letteratura più teoricamente attrezzata sulla Sna con l’idea che anche le reti di computer che connettono le persone possono essere interpretate in maniera similare. Poi i riferimenti bibliografici passati in rassegna, in cui è possibile riconoscere non solo alcune delle ricerche più importanti della Cmc, ma anche tendenze relativamente nuove e interessanti come quelle dello stesso Rob Kling, padre della Social Informatics. Infine l’uso del linguaggio. Nel paper appaiono termini come spam, groupware[13] e

tecnologie come Windows 95, Usenet, Lotus Notes[14] che vengono considerati a tutti gli effetti prova di un contesto sociale tecnologicamente definito e prova della crescente pervasività del computer nella vita quotidiana e non solo in quella lavorativa. Se la ricerca cominciava a interessarsi alle nuove forme sociali e tecnologiche che stavano prendendo piede nella seconda metà degli anni ’90, anche il settore della comunicazione d’impresa – relazioni pubbliche, marketing, pubblicità – stava iniziando a riflettere su quale dovesse essere il ruolo delle tecnologie della comunicazione legate a internet, che stavano irrompendo in un contesto in cui azienda e clienti ormai condividevano lo stesso spazio sociale. Da questo punto di vista, un ruolo di apripista nel modo di concepire il nuovo rapporto fra impresa e mondo sociale è stato ricoperto da quello che viene considerato uno dei più importanti tentativi di modificare la concezione che le aziende avevano di internet, ovvero il manifesto Cluetrain. «I mercati sono conversazioni» è l’affermazione con cui si apre il manifesto Cluetrain, un progetto a firma di Rick Levine (imprenditore), Christopher Locke (blogger), Doc Searls (giornalista), David Weinberger (scrittore), il cui scopo esplicito era quello di analizzare l’impatto di internet nei processi di comunicazione interna ed esterna delle aziende. Il progetto – prima diffuso come sito web[15] a partire dal 1999 e poi diventato libro nel 2000 (Levine et al., 2001) – è basato sull’idea che le aziende che avessero voluto uscire dalle paludi della new economy avrebbero dovuto ripensare completamente sia i propri processi comunicativi, sia l’uso che veniva fatto di internet, considerando il proprio pubblico non come target di consumatori ma come persone vere e proprie, mentre internet doveva essere concepito non come un semplice canale di comunicazione alla stregua dei mass media tradizionali, ma come un mezzo di conversazione attraverso cui instaurare il dialogo con i propri pubblici. Il manifesto Cluetrain si presenta come un documento programmatico con lo scopo di inaugurare una nuova era per l’etica della comunicazione commerciale: non è un caso che sia strutturato in 95 tesi (in analogia con le tesi che Lutero appese sulla porta della chiesa di Wittenberg e che diedero vita alla Riforma protestante) e sia scritto con una retorica apodittica che affronta diversi temi, dal ruolo della comunicazione d’impresa, ai cambiamenti delle forme organizzative, al

ruolo strategico delle intranet. Da un punto di vista generale, il manifesto Cluetrain ha sollevato un fortissimo dibattito fra gli studiosi di management, business e organizzazione aziendale nonostante avesse un tono volutamente sopra le righe[16] e per quanto da diverse parti sia stato ritenuto un documento retorico e per certi versi propagandistico con forti toni visionari (Van Dijck, Nieborg, 2009). C’è da dire però che le idee propagandate dal manifesto erano caratterizzate da un certo interesse e sono state profondamente lungimiranti: oggi è molto più chiaro il nuovo ruolo degli strumenti internet per la vita dell’azienda, e in aggiunta c’è da sottolineare che il manifesto è stato scritto molto prima che servizi come Youtube, Facebook, Twitter si diffondessero. Sta di fatto che l’idea di un diverso patto sociale tra imprese e consumatori ha preso ormai fortemente piede, tanto che secondo alcune interpretazioni recenti il marketing, con la sua enfasi sulla componente di mercato, dovrebbe essere sostituito dal societing, ovvero da una maggiore attenzione alla società nel suo complesso (Fabris, 2008). Ciò che accomuna alcune idee sul rapporto fra internet e società, idee che si stavano diffondendo sia nella ricerca sociale più consapevole che nelle strategie d’impresa più interessanti, è che la rete non è un semplice mezzo di comunicazione, ma un mezzo di relazione sociale. Con la crescita degli utenti internet e con il sempre più sistematico sfruttamento commerciale della rete, si stava delineando un panorama in cui la dimensione informatica e la dimensione sociale sarebbero state sempre più difficili da separare. Inoltre all’orizzonte stava cominciando ad apparire una serie di servizi web che avrebbero cambiato profondamente l’uso della rete e che sarebbero stati chiamati in modi diversi, spesso frutto della fantasia del marketing alla ricerca di un’etichetta à la page piuttosto che capace di cogliere il cambiamento. Fra questi vi è quello di social soware, che ha avuto un certo successo e che anche oggi in alcuni casi viene usato, anche se in modo profondamente diverso da altre definizioni che hanno incontrato un successo assolutamente planetario. Social soware è un termine coniato da Clay Shirky, poliedrica figura di scrittore e consulente aziendale, per descrivere e promuovere un ciclo di seminari – Social Soware Summit – svolti nel novembre del 2002, che avevano come obiettivo quello di far incontrare il mondo delle imprese soware e delle Ict che si riconoscevano in un modo diverso di approcciare le questioni inerenti alla progettazione del soware e allo

sviluppo di modelli di business (Allen, 2004; boyd, 2007a). Questo modo diverso consisteva nell’uso del soware «per il supporto di gruppi interagenti, anche se l’interazione fosse offline» (Shirky cit. in Allen, 2004). Secondo alcuni critici il termine è semplicemente un modo per descrivere la cultura tipica della blogosfera così da rappresentarla come qualcosa di più di quello che non fosse in realtà, ma alcuni ricercatori ritengono che le cose siano più complesse di quanto sembrino. L’argomentazione più convincente in questo senso è stata fatta da danah boyd, molto attenta ad analizzare la cultura che gravita intorno a questo mondo a metà fra le tecnologie informatiche e i processi sociali ed economici. Secondo la boyd (2007a), è fuorviante considerare il termine social soware semplicemente come una strategia per attirare l’attenzione dei media. Il social soware invece può essere correttamente descritto come un vero e proprio movimento e non solo come una classe di particolari tecnologie, un movimento che fa riferimento a tre importanti cambiamenti. Il primo di questi cambiamenti è la progettazione delle tecnologie. L’approccio del social soware è completamente diverso da quello classico dell’ingegneria del soware: mentre questa fa dell’organizzazione, del coordinamento e della pianificazione il proprio punto di forza, l’altro invece comincia con un soware che metaforicamente potremmo considerare un canovaccio e su questa base inizia ad operare modifiche, adattamenti e aggiustamenti a seconda del modo in cui gli utenti usano il soware stesso. Questo è il modo in cui sono nati servizi ora celebri come MySpace o Flickr. Il secondo cambiamento è il modo in cui la partecipazione si diffonde. Infatti il social soware ha una crescita che può essere definita organica e che prende le mosse dal coinvolgimento all’uso della tecnologia da parte della rete sociale dei progettisti, ovvero amici, colleghi, parenti; in questo modo si diffondono anche, attraverso la rete delle persone che entrano a farne parte, i valori incorporati nel social soware grazie alla sua peculiare strategia di progettazione. Il terzo cambiamento sono i processi che portano a trasformazioni del comportamento delle persone. Tradizionalmente, le tecnologie per la connettività sociale online studiate dalla Cmc, come Usenet o le mailing list, prendevano spunto da un tema specifico – la musica, la fantascienza, gli interessi politici – e su quella base aggregavano le persone. Il social soware invece procede prima mettendo insieme le persone tra loro e solo dopo aggregandole intorno ad

un tema specifico. Così definito, il social soware porta con sé alcune questioni interessanti per diversi gruppi sociali: da un lato i progettisti, dal momento che il social soware porta nuovi processi di scrittura del codice; dall’altro i ricercatori sociali, in quanto introduce nuove forme di organizzazione sociale; dall’altro ancora gli uomini d’affari, poiché il social soware costringe a pensare a nuove forme di monetizzazione e a strategie di business completamente diverse. L’analisi della boyd, sulla base delle riflessioni di Shirky, è molto interessante – oltre che illuminante – sicuramente da due punti di vista. Da un lato nel modo in cui sottolinea l’idea che il mondo delle nuove tecnologie web non ha solo una componente tecnologica, ma anche una profonda componente sociale che impatta su diversi aspetti, tra cui quelli tecnologici di scrittura del soware – riflessione questa che ricorda la famosa distinzione fra progettare il codice come se fosse una cattedrale (ordinato e sistematico) o un bazar (disordinato e progressivo) resa celebre da Eric Raymond (1998). Dall’altro perché le osservazioni della boyd sulle caratteristiche generali del social soware verranno riprese da coloro i quali si riconosceranno nell’etichetta che più di tutti ha avuto successo nel definire questo universo sociale e culturale, ovvero Web 2.0. Ma a questo punto cruciale diventa la domanda: cos’è il Web 2.0? Per esplicare adeguatamente questo termine che tanto successo ha avuto nel dare una definizione alle caratteristiche di internet degli ultimi anni, faremo riferimento principalmente all’articolo considerato seminale, ovvero il post scritto da Tim O’Reilly (2005) – fondatore e amministratore di una delle più importanti case editrici specializzate in informatica, la O’Reilly Media – che non solo fa il punto sulla storia del termine, ma elabora un quadro concettuale in grado di definire le idee ad esso connesse. Così come social soware, anche il termine Web 2.0 prende spunto da una conferenza tenutasi in California nel 2004 e dedicata al mondo del business e delle Ict, a cui partecipò, oltre allo stesso O’Reilly, anche Dale Dougherty, vicepresidente della O’Reilly Media. L’idea di Dougherty era quella di sottolineare che, all’indomani dello scoppio della bolla speculativa che aveva portato alla crisi delle dot.com e al crollo dei titoli del Nasdaq, internet nel suo complesso non era stata interessata dal crollo dei mercati. Piuttosto, le società che esistevano prima del crollo e che erano rimaste in piedi si erano rafforzate, mentre le società nate dopo il

crollo – quasi tutte delle startup – stavano cominciando ad offrire servizi attraverso internet seguendo strategie molto diverse (O’Reilly, 2005). O’Reilly ammette che dopo circa un anno e mezzo di successo dell’etichetta (l’articolo è scritto alla fine del settembre 2005) ancora non c’era un accordo sostanziale su cosa potesse essere definito Web 2.0, ciò che in parte rispecchia la situazione attuale del termine. Però è vero che, con il passare del tempo, alcuni punti cardine tratteggiati dallo stesso O’Reilly e istituzionalizzati da una consistente letteratura successiva – per lo più legata al marketing e all’informatica – hanno iniziato a comporre, se non una definizione puntuale, almeno un quadro abbastanza completo di quella che potremmo definire una vera e propria visione del mondo di tipo socioinformatico, o addirittura – con abbondante ironia – Weltanschauung 2.0. Le idee alla base del Web 2.0 sono diverse e variamente declinate, ma i concetti chiave sono fondamentalmente due: architettura della partecipazione e intelligenza collettiva (Benkler, 2007; Foiaia, 2007; Granieri, 2005; Guadagni, De Tommaso, 2007; Harrison, Barthel, 2009; Li, Bernoff, 2008; Spadaro, 2010; Suroviecki, 2007; Tapscott, Williams, 2007). Il concetto di architettura della partecipazione appare per la prima volta nell’articolo di O’Reilly (2005) per descrivere i modi mediante i quali le società del nascente Web 2.0 promuovono il coinvolgimento del maggior numero di utenti possibile. Secondo O’Reilly, questi servizi fanno sì che all’aumentare del numero dei propri utenti aumenti di conseguenza il valore del servizio. Non solo: l’incremento progressivo del numero di utenti porta al miglioramento del servizio stesso. Questa riflessione di O’Reilly è interessante da due punti di vista. Il primo è che O’Reilly – non è chiaro quanto consapevolmente – cita indirettamente un principio cardine dell’economia delle reti, ovvero il principio di esternalità di rete, secondo cui il valore di un servizio (o un bene) per un individuo aumenta all’aumentare del numero di individui che usano (o posseggono) lo stesso bene (Liebowitz, Margolis, 1994; Shapiro, Varian, 1999). Un esempio classico è la diffusione del fax: nonostante la tecnologia del fax fosse disponibile già dalla fine del XIX secolo, bisogna aspettare il 1982 perché si affermi, quando la necessità del trasferimento di documenti associata allo sviluppo di servizi di telecomunicazione ha fatto sì che da un piccolo numero di utenti si passasse rapidamente ad un numero sempre maggiore,

aumentando progressivamente sia l’uso del servizio che la diffusione della tecnologia. Infatti, mentre all’inizio della sua diffusione il numero delle persone con le quali comunicare via fax era molto limitato, ben presto il numero aumentò in maniera tale da rendere indispensabile l’uso del fax per le transazioni commerciali. L’altro motivo che rende interessante la riflessione di O’Reilly è l’idea che la tecnologia possa avere delle conseguenze sociali (in questo caso: incrementare la partecipazione), tanto da affermare, usando le parole di Mitch Kapor[17] (2006), «L’architettura è politica». Questa affermazione è particolarmente delicata perché riecheggia una questione molto dibattuta all’interno dei Science and Technology Studies: gli artefatti posseggono una propria carica politica? Ovvero Do artifacts have politics? È questo il titolo di un articolo celebre nel settore della filosofia della tecnologia ad opera di Langdon Winner e largamente citato fra gli Sts (Joerges, 1999). Secondo Winner (1980) gli artefatti tecnologici incorporano precise forme di relazione sociale rappresentate da relazioni di potere in due modi distinti: in primo luogo lo sviluppo di particolari artefatti diventa una maniera per stabilizzare un tema all’interno di una comunità particolare; in secondo luogo esistono particolari artefatti che sono intrinsecamente politici nel senso che sembrano richiedere – o essere compatibili con – particolari tipi di relazioni politiche. Per poter illustrare meglio il primo punto, Winner porta come esempio il caso dei cavalcavia di Robert Moses, celebre architetto di New York attivo tra il 1920 e il 1970, che collegano Long Island con la spiaggia di Jones Beach (Winner, 1980, pp. 30-33). Secondo l’interpretazione di Winner, i cavalcavia di Moses incarnano il suo punto di vista classista e pieno di pregiudizi razziali, poiché la loro altezza permetteva il libero accesso ai viali alberati solo ai possessori di auto, ovvero all’alta borghesia bianca, mentre impediva il passaggio degli autobus e – di conseguenza – di tutti coloro che ne facevano uso, ovvero i poveri e la gente di colore. Winner sottolinea che non vuole elaborare una teoria cospirazionista dello sviluppo tecnologico, poiché le conseguenze dell’innovazione sono non intenzionali. Il punto che viene più volte sottolineato è che ciò che chiamiamo tecnologie sono modi di mettere ordine nel nostro mondo, alla stregua di atti legislativi o idee politiche, argomento tra l’altro recentemente ripreso da altri autori in contesti molto diversi come il copyright e il diritto di copia (Lessig, 1999). Inoltre Winner evidenzia che scegliere tecnologie poco flessibili vuol dire

scegliere particolari forme politiche. Ciò è possibile per due motivi distinti: primo perché alcuni sistemi tecnologici richiedono specifiche condizioni sociali, secondo perché alcune relazioni sociali sono condizione sufficiente per lo sviluppo di determinate tecnologie (Winner, 1980, p. 33). Nonostante gli esempi d’effetto e l’argomentazione sofisticata, la posizione di Winner si è attirata diverse critiche anche piuttosto convincenti (Joerges, 1999), ma l’idea che la tecnologia sia una forma di azione sociale e quindi anche uno strumento di azione politica è qualcosa di ormai acquisito nello studio dei fenomeni tecnologici (ad esempio: Rodotà, 2004). Il secondo concetto chiave del Web 2.0 è quello di intelligenza collettiva, fortemente connesso a quello di architettura della partecipazione. Questa espressione serve per definire un effetto cognitivo piuttosto affascinante che prende forma in particolari comportamenti collettivi. Non esiste un modo univoco per definire cosa sia l’intelligenza collettiva, ma sintetizzando le definizioni che maggiormente hanno insistito su questa idea (Jenkins, 2007; Levy, 1996; Surowiecki, 2007) la possiamo definire come quel comportamento collettivo di tipo cognitivo che prende forma attraverso le tecnologie che consentono l’aggregazione dell’intelligenza distribuita in diversi individui e in diversi gruppi sociali. Così definita, l’intelligenza collettiva è – parafrasando la famosa definizione di Marvin Minsky dell’intelligenza artificiale – quel comportamento collettivo che se venisse espresso da una persona verrebbe definito intelligente. Le componenti dell’intelligenza collettiva sono essenzialmente tre: collaborazione, coordinamento e tecnologia. Collaborazione, perché le persone coinvolte nel progetto di produzione della conoscenza devono decidere autonomamente di far parte del progetto e partecipare secondo le proprie intenzioni e possibilità. Coordinamento, perché è necessaria una forma di distribuzione dei compiti non gerarchica che rispetti le competenze (e le intenzioni) delle persone coinvolte. Tecnologia, perché questa consente la creazione di un coordinamento non gerarchico e collaborativo e rende possibile l’aggregazione delle intelligenze individuali in maniera scalare, cosicché è possibile che forme di intelligenza collettiva possano essere espresse sia da un numero limitato che da un numero enorme di persone. Ci preme sottolineare che il concetto non è nuovo in sé – per esempio la psicologia ha una lunga tradizione di ricerca sul pensiero di gruppo – ma rilegge in

chiave interessante il ruolo di catalizzatore svolto da alcune specifiche forme tecnologiche che intensificano la dimensione della partecipazione sociale. Riprendendo le idee (o i memi, ovvero le idee che si propagano «viralmente» in internet) che gravitano intorno al concetto di Web 2.0 (O’Reilly, 2005) e che ormai fanno parte della sua vulgata (Li, Bernoff, 2008; Shirky, 2009; Tapscott, Williams, 2007), possiamo dire che connessi al concetto di architettura della partecipazione ci sono i seguenti concetti: il web come piattaforma (internet come strumento per erogare servizi soware), le tecnologie web come beta perpetuo (ovvero in costante modifica e aggiornamento[18] da parte degli utenti che le usano), l’hackerabilità (hackability) e la remixabilità (remixability) (la possibilità di riutilizzare parti di soware[19] o porzioni di contenuti senza violare il copyright). Dall’altra parte, il concetto di intelligenza collettiva porta con sé le idee di: centralità dei dati (la possibilità di usare commercialmente i database delle informazioni prodotte dall’uso delle piattaforme da parte degli utenti), link come nuova moneta di scambio (l’importanza tecnologica e relazionale dell’uso dei link come strumento per la visibilità dei contenuti), gli utilizzatori come fonte di valore (nel duplice senso di community sfruttabile commercialmente e fonte del valore/conoscenza dei servizi web). Un altro termine usato per descrivere il nuovo mondo dei servizi web a partecipazione dell’utente ma che non ha incontrato particolare successo è quello di social computing. Il termine – apparso in una serie di rapporti della società di ricerche di mercato Forrester – viene definito «Struttura sociale in cui la tecnologia dà potere alle comunità, non alle istituzioni» (Charron, Favier, Li, 2006, p. 2), seguendo così la linea interpretativa che vuole che la tecnologia sia uno strumento di potere. Secondo questi rapporti, il social computing ha realizzato una nuova struttura sociale grazie anche ad una serie di cambiamenti sociali concomitanti, come la riduzione dei costi delle tecnologie informatiche che ha reso il potere accessibile alle masse e non solo alle fasce della popolazione più ricche e acculturate, i soware per la connettività individuale che accelerano il cambiamento sociale, la diffusione di tecnologie informatiche che rendono strategica anche la periferia della rete e non solo la parte centrale. Queste idee sono state ulteriormente sviluppate dando origine al concetto di «onda anomala» (groundswell) che viene così definito: «l’onda anomala è

un trend sociale in base a cui le persone usano le tecnologie per procurarsi ciò di cui hanno bisogno le une dalle altre, invece che dalle istituzioni tradizionali come le grandi imprese» (Li, Bernoff, 2008, p. 9). Negli ultimi tempi, l’uso sociale del web partecipativo e collaborativo ha dato vita ad una nuova etichetta che sembra stia ormai assestandosi nel discorso sociale, tecnologico e – soprattutto – commerciale su internet: il termine in questione è social media. Con questo termine si rafforza la componente comunicativa dei nuovi servizi internet, ponendoli in continuità con lo sviluppo dei media digitali e meno col settore delle Ict. Detto altrimenti, questi servizi web sono visti sempre più come media e sempre meno come «semplici» tecnologie informatiche. Come sia venuta a stabilizzarsi questa etichetta all’interno della cultura digitale contemporanea non è chiaro. L’uso del termine nell’accezione moderna – mezzi di comunicazione digitali basati su internet – è già presente nella letteratura sui new media che si interroga sulle diverse forme di comunicazione online, secondo la classica distinzione uno a uno (email, chat) o uno a molti (Usenet, mondi virtuali grafici) (Dodge, Kitchin, 2001, pp. 129-141) ed è stato anche utilizzato, anche se in modo episodico, nella letteratura tipica della Cmc (Watt, Lea, Spears, 2002, p. 77). C’è da dire che anche la letteratura italiana ha provato molto timidamente ad usare questo termine nell’ambito della media education, per quanto in un contesto di studio sui media digitali piuttosto tradizionale che vede il termine come contrapposto ai personal media (Belmonte, 2002, p. 79). Ad ogni modo, nonostante il termine stia sostituendo progressivamente quello di Web 2.0 – eccessivamente legato, quest’ultimo, alla cultura informatica e monopolizzato dal marketing –, social media non estende la portata semantica del concetto se non nella sua accezione: i nuovi servizi del web non sono da intendersi come piattaforme informatiche ma come mezzi di comunicazione, a giudicare dall’uso sociale e dal tipo di mercato che si sta creando intorno ad essi, molto più simile al mercato editoriale (quello digitale: Hesmondhalgh, 2008) che non a quello del soware. C’è un altro motivo interessante che rende l’etichetta social media più «appetibile» di quella di Web 2.0. Secondo la cultura informatica, la connotazione 2.0 sta ad indicare una nuova fase tecnologica, ovvero un prodotto soware che si distingue dal prodotto precedente proprio perché ci sono state delle migliorie tecnologiche. Per esempio consideriamo il browser Mozilla

Firefox: il passaggio dalla versione 3.0 a quella 4.0 ha indicato un miglioramento dal punto di vista della sicurezza e della user experience. È interessante notare che il passaggio al Web 2.0 (detto anche web dinamico, per via della natura dei siti) non implica un passaggio tecnologico, ma progettuale. In pratica le tecnologie alla base della rete sono rimaste pressoché uguali – tanto per citarne qualcuna: html, java, flash – ma è cambiato il modo in cui esse sono utilizzate. Volendo usare un’iperbole, è come se la progettazione di appartamenti fosse passata dall’uso di spazi delimitati e precisi connessi da corridoi, a open space con soggiorni a vista, e questi ultimi venissero chiamati «appartamenti 2.0», mentre le tecnologie costruttive – il cemento armato, i mattoni forati – sono rimaste praticamente identiche. Il Web 2.0, a dispetto del nome, non è un cambiamento tecnologico, è un cambiamento progettuale che sconta nel suo nome un’assoluta mancanza di fantasia da parte di chi ha coniato il termine. La conseguenza di ciò è stata duplice. Da un lato immaginare il passato come Web 1.0, quando in realtà il web non ha bisogno di numeri che lo connotano perché non è una tecnologia il cui versioning è definito da un numerale. Dall’altro vedere il futuro come Web 3.0, termine che in alcuni ambiti definisce lo sviluppo del web semantico, quando in realtà l’obiettivo è quello di dare una comoda etichetta di marketing per incantare nuovi clienti e investitori. Per comprendere quanto il termine Web 2.0 sia soltanto un trucco di marketing, emblematica è la controversia – finita in un accordo fra le parti – in cui la O’Reilly Media ha chiamato in causa la IT@Cork perché quest’ultima lo aveva consapevolmente utilizzato nella denominazione di una serie di seminari su Ict e impresa Web 2.0, mentre il termine era stato registrato come marchio commerciale dalla stessa O’Reilly Media (Forrest, 2006; Raery, 2006). Ovviamente questo non vuol dire che il fenomeno del Web 2.0/social media/social computing/social soware non sia interessante sociologicamente, vuol dire solo che le denominazioni spesso nascondono un ambito che somiglia più ad un brand che ad un vero movimento sociale, anche se sarebbe sciocco negare questa componente che pure è presente e ha radici piuttosto ben piantate nella cultura informatica e di internet. Finora abbiamo parlato in termini astratti dei servizi legati al nuovo modo di concepire il web – e che chiameremo in modo intercambiabile

Web 2.0, social media, web sociale, web partecipativo – ma la domanda legittima è: quali sono questi media digitali orientati alla partecipazione? Non è possibile farne un elenco, per il semplice fatto che di servizi Web 2.0 che rapidamente diventano strumenti di comunicazione creando nuovi spazi sociali ce ne sono moltissimi, ognuno specializzato nelle sue caratteristiche; essi inoltre altrettanto rapidamente danno vita ad altri servizi web attraverso la tecnica del mashup, che consiste nel mescolare in maniera creativa servizi o contenuti presenti sul web, mantenendo un riferimento agli oggetti mediali da cui derivano (Jackson, 2009)[20]. Ci concentreremo invece sulle principali famiglie di social media, ovvero su una tassonomia di riferimento che comunque deve essere presa solo come esemplificazione allo scopo di orientare fra le diverse tecnologie web esistenti. Le chiamiamo famiglie di social media, in analogia con l’osservazione di Ludwig Wittgenstein (1967) il quale, impossibilitato a definire in maniera stringente cosa fossero i giochi linguistici, usò il termine «somiglianze di famiglia» per indicare che i giochi linguistici, pur essendo ognuno diverso e ognuno con le proprie caratteristiche, hanno tra loro delle somiglianze quasi che fossero imparentati gli uni agli altri. Similmente, le famiglie di social media che qui proponiamo sono piuttosto condivise nella letteratura atta a classificare queste forme di comunicazione, ma al loro interno hanno delle piattaforme spesso molto diverse tra loro che comunque condividono lo stesso obiettivo comunicativo. Le famiglie che illustreremo sono: blog, wiki, social network sites e altre piattaforme (Youtube, Twitter, Friendfeed).

2. Le dinamiche sociali della tecnologia: diffusione, addomesticamento, mobilità Una delle caratteristiche più interessanti dei social media è la loro estrema diffusione fra gli utenti di internet, anche se con tassi di utilizzo e popolarità molto diversi. Infatti, il momento in cui viene lanciata una nuova piattaforma del Web 2.0 e il momento in cui diventa enorme e di successo sono legati da intervalli di tempo sempre più brevi. Sicuramente il passaparola che avviene online e le strategie di adozione di queste tecnologie semplificano enormemente la loro diffusione. Ma per

comprendere in maniera completa le dinamiche sociali e culturali sottese a questo processo, è necessario fare riferimento a due modelli sociologici che aiutano a descrivere questi fenomeni di crescita nell’uso da parte degli utenti. Questi modelli sono il diffusionismo e l’addomesticamento, che afferiscono a due distinti momenti nell’incorporazione della tecnologia nella vita quotidiana, rispettivamente la diffusione e l’istituzionalizzazione (Bennato, 2010). La teoria della diffusione delle innovazioni – o diffusionismo – parte dal presupposto che il processo sociale che sta alla base dell’utilizzo di una innovazione (intesa come accettazione di un cambiamento, non necessariamente di una tecnologia) è un processo al contempo comunicativo e relazionale. La teoria prende le mosse dalla riflessione di Gabriel Tarde sui modi in cui le forme sociali (i costumi, la moda) si trasmettono e permangono nella società, individuati in un processo di invenzione/imitazione che il sociologo francese definiva «leggi dell’imitazione». Lo studio della diffusione come processo sociale in grado di spiegare in che modo le innovazioni si distribuiscono nella società ha inizio a partire dalle prime ricerche sull’adozione di tecnologie agricole negli Stati Uniti (Wejnert, 2002), ma il modello compiuto sulla cui base si è sviluppata la letteratura scientifica che arriva fino ai nostri giorni è opera di Everett Rogers. Rogers (2003) affronta lo studio della diffusione dell’innovazione, elaborando un modello piuttosto articolato, il cui scopo non è solo definire gli elementi principali del processo di diffusione, ma anche descrivere il processo decisionale che porta all’adozione, gli elementi caratteristici dell’innovazione e le componenti sociodemografiche degli innovatori. Gli elementi principali del modello sono quattro: l’innovazione, i canali di comunicazione, il tempo e il sistema sociale. L’innovazione è un’idea, una pratica o un progetto che viene percepito come nuovo da parte di coloro che ne saranno interessati: così declinata, non è necessario che l’idea sia effettivamente qualcosa di nuovo, ma basta che venga percepita come nuova. Pur nella sua estrema semplicità, questa definizione ha il vantaggio di considerare l’innovazione non qualcosa in sé, ma qualcosa che dipende dal contesto sociale in cui viene ad ancorarsi. L’ostacolo più importante in questa fase è l’incertezza, che è la conseguenza più evidente dell’adozione dell’innovazione e che sarà

affrontata dal processo decisionale. Per quanto riguarda invece i canali di comunicazione, essi sono molto importanti in quanto è la comunicazione fra attori sociali che rende possibile la propagazione dell’innovazione. Senza comunicazione non c’è diffusione, anzi la diffusione è un tipo specifico di comunicazione. Rogers distingue due principali canali di comunicazione: i mezzi di comunicazione di massa e la comunicazione interpersonale, ed entrambi cooperano per rendere possibile la diffusione delle innovazioni. In particolare, la comunicazione interpersonale ha bisogno di un certo livello di omofilia – ovvero la condivisione fra due soggetti di alcune caratteristiche comuni (credenze, valori, status socioeconomico) – per poter avvenire nel miglior modo possibile, ma è anche necessario che ci sia un certo livello di eterofilia (differenziazione rispetto a certi attributi). Per quanto riguarda il tempo e il sistema sociale, il primo è responsabile dei processi con cui le innovazioni prendono piede in una società, mentre il secondo nella definizione di Rogers non è altro che un’organizzazione volta a raggiungere un obiettivo comune attraverso l’uso di strategie di problem solving. Da quanto detto, mentre il tempo definisce il ritmo della diffusione dell’innovazione, il sistema sociale è un’organizzazione intenzionale, in quanto dotata di uno scopo specifico. Un posto importante nel modello di diffusione delle innovazioni di Rogers è occupato dal processo decisionale di adozione dell’innovazione a cinque fasi: conoscenza, persuasione, decisione, implementazione, conferma. La prima fase – conoscenza – è quella del contatto del soggetto con l’innovazione, in cui il soggetto si pone delle domande generali per comprendere in cosa consista l’innovazione, come funziona e perché. È un momento fortemente legato alla cognizione. Persuasione è invece la fase che fa riferimento ad una dimensione più emotiva o comunque legata ai sentimenti. Infatti è questa la fase in cui l’individuo sviluppa un atteggiamento positivo o negativo, che può essere rafforzato dalla percezione di incertezza provocata dall’innovazione o dall’atteggiamento dei propri pari, anche se Rogers si affretta a specificare che la formazione di un atteggiamento favorevole o sfavorevole verso l’innovazione non conduce automaticamente ad adottare (o respingere) l’innovazione. Infatti questo processo fa riferimento alla decisione propriamente detta, in cui l’individuo compie la sua scelta fra adottare o meno l’innovazione, processo che viene facilitato quando è stato possibile provare l’innovazione stessa. L’implementazione è la fase in cui l’innovazione

viene messa in pratica ed è il momento in cui l’incertezza sui risultati dell’adozione può essere fonte di problemi e spesso può rendere necessario l’aiuto di esperti per ridurre l’attrito nel suo utilizzo. Un processo interessante in questa fase è la reinvenzione, ovvero il modo in cui l’utente opera delle modifiche nell’utilizzo delle innovazioni, che altre tradizioni teoriche definiscono come appropriazione. Infine la fase di conferma: qui il processo di adozione dell’innovazione è ormai avvenuto e si cercano ulteriori prove per rafforzare la decisione presa. Se il processo decisionale è la dinamica che interessa l’attore che adotterà l’innovazione, a sua volta anche l’innovazione ha delle caratteristiche che le sono peculiari e che possono facilitare (o impedire) il processo di adozione. Vantaggio relativo, compatibilità, complessità, sperimentabilità e osservabilità sono gli attributi dell’innovazione e il modo in cui si connotano dà vita al tasso di adozione, termine che Rogers usa per spiegare la velocità relativa con cui l’innovazione viene ad essere adottata dai membri di un sistema sociale. Il vantaggio relativo è il grado di miglioramento che l’innovazione apporta rispetto all’idea che sostituisce nella percezione degli utenti. La compatibilità definisce invece il grado di congruenza dell’innovazione con uno specifico set di valori preesistenti, esperienze passate e future necessità degli utilizzatori. La percezione dell’innovazione come difficile da usare o da capire è alla base dell’attributo della complessità ed è – prevedibilmente – correlata negativamente con il tasso di adozione. Sperimentabilità (trialability) è la proprietà che si riferisce alla possibilità di collaudare l’innovazione ed è questo il momento connesso al citato processo di reinvenzione. La caratteristica dell’osservabilità si riferisce al grado di visibilità dei risultati dell’innovazione rispetto a coloro che non l’hanno ancora adottata. A seconda di come questi attributi dell’innovazione si compongono, si potranno avere tassi di adozione molto diversi e quindi velocità di diffusione della tecnologia piuttosto variabili. Uno dei motivi che hanno reso celebre il modello di diffusione delle innovazioni di Rogers è la sua capacità di descrivere le caratteristiche sociodemografiche degli innovatori. In pratica, a seconda di come un’innovazione si diffonde all’interno di un sistema sociale, è possibile distinguere diverse categorie di innovatori che hanno delle specificità sociologiche (motivo per cui adottano le innovazioni in tempi diversi) con specifici tassi di innovatività (grado con cui un individuo adotta

un’innovazione prima di altri membri del suo sistema sociale). Le categorie identificate sono cinque e di solito sono rappresentate attraverso una curva a campana che ne descrive la percentuale di adozione dell’innovazione rispetto al tempo. Gli innovatori (innovators) sono coloro i quali hanno una forte attitudine all’uso delle innovazioni, sono giovani, di status sociale elevato e ricchi. Gli anticipatori (early adopters) usano le innovazioni nel momento in cui appaiono sul mercato, hanno un’attitudine da leader d’opinione, con status sociale elevato. La maggioranza iniziale (early majority) adotta l’innovazione solo quando i propri pari l’hanno adottata, lo status sociale è medio e hanno contatti con innovatori e anticipatori. La maggioranza tardiva (late majority), resistente all’innovazione, ha bisogno di una pressione maggiore nell’adozione e presenta uno status sociale relativamente basso. Infine i ritardatari (laggards), tradizionalisti che adottano l’innovazione solo quando è capillarmente diffusa nella società, con status sociale basso e socialmente quasi isolati. I motivi per cui questo modello risulta interessante per spiegare il successo dei social media sono diversi. Primo: la teoria della diffusione considera l’innovazione come una forma specifica di comunicazione sociale che integra la comunicazione di massa e la comunicazione interpersonale; ciò la rende non solo congruente con i Media Studies, ma anche con le classiche teorie sull’influenza personale attraverso i media (Katz, Lazarsfeld, 1968), oltre a descrivere un ambiente comunicativamente ibrido come internet. Secondo: la teoria considera il processo di diffusione alla stregua di un processo di contagio sociale, compatibile con le riflessioni sulle caratteristiche virali della comunicazione in rete. Terzo: la strategia comunicativa alla base della diffusione è basata sulla condivisione, termine chiave della cultura del Web 2.0. Quarto: la retorica del successo delle piattaforme dei social media attribuisce enorme importanza ai cosiddetti evangelists, ovvero coloro i quali sono chiamati a portare la «buona novella» della tecnologia, figure dal profilo sociale assai simile agli innovatori della teoria della diffusione. Quinto: gli studi sul diffusionismo hanno mostrato l’importanza del considerare il sistema sociale come dotato di una organizzazione a rete (Valente, 1996; Wejnert, 2002). La teoria della diffusione spiega le prime fasi dell’ingresso dell’innovazione nel contesto sociale, mentre non affronta la questione di

quali siano le strategie attraverso le quali essa entra a far parte della vita quotidiana dei suoi utilizzatori. Ovvero non dice nulla sul processo di istituzionalizzazione, che è invece l’ambito privilegiato della teoria dell’addomesticamento della tecnologia (domestication theory). Il modello, che si occupa di spiegare l’uso sociale delle Ict intese come tecnologie e media allo stesso tempo, è frutto delle ricerche di una serie di studiosi inglesi – già protagonisti dei Media Studies (Roger Silverstone, David Morley) – che si sono interrogati sulle forme con cui una tecnologia viene a far parte della vita quotidiana della famiglia. Alla base della teoria dell’addomesticamento, oltre alla metafora del ridurre la tecnologia «selvaggia» alle esigenze della famiglia, ci sono il concetto di economia morale della casa e il modello dell’addomesticamento (Silverstone, Hirsch, Morley, 1992). L’economia morale della casa è il prerequisito fondamentale che gli autori usano capitalizzando alcune conoscenze che derivano dagli studi sul significato sociale del consumo e sulle pratiche di costruzione di significato della vita quotidiana. Secondo questo concetto, la casa è un’economia morale per due motivi principali: un motivo «esterno» ed uno «interno». Il motivo esterno è rappresentato dai membri della famiglia che mettono in atto una serie di attività di consumo e produzione che avvengono sia dentro che fuori il contesto domestico definite economia pubblica. Il motivo interno è che le attività economiche dei suoi membri dentro la casa e fuori di essa sono ispirate da cognizioni, atteggiamenti, gusti estetici definiti dalle biografie dei suoi membri e dalle relazioni fra essi. In questo senso, la casa – intesa nel senso di unità domestica (cfr. Cola, Prario, Richeri, 2010) – è un luogo osmotico di scambio con il mondo esterno sia di prodotti (acquistati, consumati, riciclati, rottamati) che di significati (condivisi, costruiti, comunicati) che rende la famiglia appartenente ad una specifica stratificazione sociale (classe media, classe alta, ecc.) ma con delle peculiarità che la contraddistinguono come unica. Il modello dell’addomesticamento è la parte più importante della teoria della domestication, e ha lo scopo di descrivere il processo attraverso cui un prodotto esce dall’universo delle merci dell’economia industriale per entrare a far parte del mondo dei significati dell’economia morale della casa. Secondo gli autori, le fasi sono sostanzialmente quattro: appropriazione, oggettificazione, incorporazione, conversione.

Appropriazione è la fase che descrive i modi in cui un oggetto tecnologico smette di essere una generica merce e viene posseduto da un individuo o da una famiglia. Questa fase non fa riferimento solo alla componente materiale dell’artefatto, ma anche al suo contenuto mediatico – selezione dei programmi da guardare, soware da acquistare – e alla sua dimensione estetica. In questo senso, esistono alcune strategie di appropriazione radicali, che consistono nella modifica sistematica dell’artefatto così che si possa adattare alle esigenze dell’utente, come ad esempio gli hack della cultura hacker (Bennato, 2007b). È questa la fase che somiglia a quella che nel diffusionismo viene chiamata reinvenzione. Oggettificazione fa riferimento alla collocazione nello spazio domestico dell’oggetto tecnologico, il quale – attraverso strategie di esibizione e messa in scena – viene a costruire simbolicamente lo stesso ambiente. Ad esempio la creazione nel salotto di uno spazio dedicato ai sistemi di home theatre. Se appropriazione e oggettificazione sono strategie legate alla costruzione sociale dello spazio domestico, incorporazione e conversione fanno invece riferimento all’organizzazione del tempo della vita domestica. Incorporazione è la pratica che consiste nell’uso delle tecnologie e nella loro integrazione nelle routine quotidiane. Il momento della visione del film in tv, il tempo assegnato dagli adolescenti all’uso di internet, la creazione di un muro del suono per alzare una barriera tra figli e genitori sono esempi di incorporazione. La conversione è invece l’atto di esposizione reale o simbolica della tecnologia, per esprimere la propria appartenenza al proprio gruppo dei pari o al gruppo sociale di riferimento. Discutere della partita andata in onda solamente sulla pay tv satellitare, illustrare le tecniche per installare applicazioni sugli iPhone, condividere con un link le informazioni lette attraverso una app esclusivamente progettata per iPad, sono tutte strategie di conversione. Come si può notare dagli esempi scelti per illustrare queste dinamiche, per quanto la domestication theory nasca per descrivere l’uso domestico delle Ict, essa si presta ottimamente a spiegare quello che si diceva essere il processo di istituzionalizzazione della vita quotidiana dei social media. Questo è possibile per due ordini di motivi. In primo luogo perché l’economia morale domestica è un processo di consumo di beni e significati che avviene in casa, ma non si limita ad essa. Lo spazio domestico in questo caso è una specie di metafora territoriale che presuppone – senza esaurire – la collocazione fisica della famiglia. In

secondo luogo, i social media rileggono in chiave molto particolare la dicotomia pubblico/privato che – come abbiamo argomentato nel capitolo precedente – ha più le caratteristiche di continuum che di rigida opposizione. Messa in questi termini si può notare l’importanza della dimensione della mobilità come sovrapposizione fra spazio pubblico e spazio privato. La mobilità è una componente interessante nell’uso dei social media. Non solo perché la crescita dell’accesso alla rete mediante dispositivi mobili ha intensificato l’uso del web partecipativo, ma anche perché c’è un profondo legame culturale sintetizzato dai concetti di Apparatgeist e Smart mobs. Il neologismo Apparatgeist è stato messo a punto da James E. Katz e Marcus Aakhus nella loro riflessione sulla telefonia mobile (2002). Secondo gli autori, le tecnologie della comunicazione personale – come i cellulari – possono essere considerate una quarta forma di comunicazione dopo i mass media, la comunicazione faccia a faccia e la comunicazione al computer. In questo senso la teoria dell’Apparatgeist suggerisce come questo «spirito della macchina» influenzi il proprio design, la significazione che gli viene attribuita da utenti, non utenti e anti-utenti e serva per collegare aspetti individuali e collettivi. Alla base di questa teoria c’è l’idea del contatto perpetuo, inteso come forma di azione sociale che si esprime nell’uso delle tecnologie della comunicazione personale; pertanto l’Apparatgeist può essere esteso a tutte le culture in quanto esistono universali culturali che guidano l’uso di tali tecnologie. Queste componenti fanno sì che le tecnologie della comunicazione personale esercitino la propria influenza a tutti i livelli: intimo, personale, individuale, di gruppo, collettivo, sociale, politico, istituzionale. Per capire come la mobilità resa possibile dalle tecnologie della comunicazione si esprima anche come comportamento collettivo bisogna fare riferimento al concetto di Smart mobs. Il termine, coniato da Howard Rheingold (2003), indica alcune particolari forme di comportamento collettivo organizzate in maniera non gerarchica ma rese possibili dal coordinamento attuato tramite cellulari, accesso internet wireless ed altri dispositivi mobili. Secondo lo studioso americano, un esempio eclatante di Smart mobs è stata la cosiddetta battaglia di Seattle, in cui un numero imprecisato di gruppi antagonisti e di attivisti sociali di varie estrazioni ideologiche, pur non conoscendosi tra loro né tantomeno avendo contatti di alcun genere, grazie all’uso di tecnologie mobili, riuscirono a

coordinarsi dando vita alla più grossa protesta anti-G8 che la storia di questo summit ricordi, e che i giornalisti un po’ frettolosamente definirono movimento No Global. A questo punto diventa facile rispondere alla domanda: qual è la continuità culturale fra social media e tecnologie mobili? I social media diventano lo strumento per la creazione di un legame sociale – più o meno temporaneo – che viene ad essere stabilito sul web, ma la cui potenza può esprimersi anche nel mondo fuori dal web grazie al contatto perpetuo reso possibile dalle tecnologie mobili. Usando uno slogan, i social media sono la mente di un sistema sociale e culturale in cui le tecnologie di comunicazione mobile sono il braccio. D’altronde, non bisogna dimenticare che Neo e gli altri protagonisti del film Matrix (Usa, 1999) usano proprio il cellulare per spostarsi dentro e fuori la matrice. La scelta non poteva essere casuale.

3. Blog: la dimensione dialogica Fra tutti i social media, i blog sono senza dubbio quelli che hanno inaugurato la stagione dei servizi web pensati per comunicare e per essere usati da un pubblico ampio e diffuso. Inoltre i blog sono interessanti non solo per motivi relazionali – sono i primi strumenti per creare relazioni sociali del web partecipativo – ma anche perché hanno inaugurato l’uso di tecnologie che sarebbero state poi utilizzate in tutti i servizi del Web 2.0 (come i feed RSS[21]). I blog sono siti internet il cui contenuto è organizzato cronologicamente in post, con la possibilità di inserire dei commenti da parte del lettore, commenti che spesso innescano un meccanismo di botta e risposta che li rendono simili ai thread (grappoli di conversazioni), tipici di newsgroup e forum. La storia dei blog di solito è lasciata al racconto, spesso iperbolico e retorico, di chi effettivamente ha portato alla nascita e alla diffusione di queste tecnologie. Ad ogni modo fra gli studiosi di media digitali (come Roversi, 2004, pp. 219-226) ormai si concorda che una buona ricostruzione cronologica è stata fornita da Rebecca Blood in uno dei primi testi dedicati all’argomento (Blood, 2002). La pagina di Mosaic «What’s New» è considerata il primo blog, con la sua raccolta di risorse internet più interessanti del web. La cosa era fattibile in quanto la crescita dei siti internet era di gran lunga inferiore ad

oggi, pertanto un’indicazione dei siti più interessanti era un servizio utile che, nato nel 1993, è durato fino al 1996, anno del boom commerciale del World Wide Web. Rapidamente ci furono altre persone che – ispirate dalla strategia di creare delle liste pubbliche di link – cominciarono a pubblicare le proprie, creando dei proto-blog che venivano definiti ora «news site» ora «filter». Nel 1997 nascono News, Pointers & Commentary (Steve Bogart) e Scripting News (Dave Winer, personalità di spicco della blogosfera internazionale) e sempre nello stesso anno John Barger – autore di Robotwisdom – conia il termine weblog (usato poi nella forma contratta blog) per definire questa nuova generazione di siti. Il termine è la crasi di web – in quanto siti – e log – termine che sta ad indicare il file che raccoglie le operazioni svolte da un utente durante una sessione di lavoro al computer[22]. Nel 1999, Winer rilascia il programma Frontier, da lui sviluppato per aggiornare il proprio blog, come soware commerciale, e sempre lo stesso anno appaiono due servizi, ovvero Pitas (della società Be Nice to Bears) e Blogger (lanciato da Pyra Labs, poi acquistato da Google nel 2003), che inaugurano il boom dei blog negli Usa e nel resto del mondo. Mentre in Italia i blog arriveranno nel 2001, sull’onda del successo negli Stati Uniti (Granieri, 2005). Al loro apparire, i blog sono di tre tipi: i blog, detti anche diari di rete per la loro organizzazione cronologica del contenuto, i notebook, con contenuti più lunghi dei blog e con uno stile narrativo, e i filtri, in cui i contenuti sono ricchissimi di link (Blood, 2002). In realtà questa tipologia è intrinsecamente legata al periodo in cui sono nati i blog, mentre adesso avrebbe poco senso dato che l’universo dei blog si è frammentato in servizi molto diversi come i social bookmark (servizi nati per raccogliere e condividere link di siti web) e i microblog (vedi oltre). Al di là di ogni tipologia, quello che è interessante dei blog – e che li rende interessanti tuttora – è la miscela di componente tecnologica, netiquette e dinamiche relazionali che ne fa dei veri e propri archetipi della comunicazione del web partecipativo. La letteratura sui blog è sterminata, anche se dopo il boom di studi e analisi che li vede protagonisti fino al 2007 nell’interesse degli studiosi sono stati soppiantati dai social network – anche per via dell’innegabile successo di quest’ultima tipologia di servizi. In questa sede non faremo una analisi approfondita del fenomeno blog, ma ci limiteremo a illustrare alcune delle questioni cruciali che hanno reso queste tecnologie sociologicamente interessanti, usando la letteratura più recente

sull’argomento. Come abbiamo detto sopra, per prima cosa è necessario vedere come si intrecciano nei blog le componenti tecnologica, relazionale e sociale. Alcuni studiosi hanno analizzato questo rapporto all’interno degli studi sulle infrastrutture e della Actor Network Theory (Estalella, 2007), altri seguendo la teoria della strutturazione di Giddens, che consente di tenere distinte ma reciprocamente influenti la componente micro dell’azione sociale e la componente macro della struttura sociale (Giddens, 1984). Se traduciamo la pratica del blogging come i modi attraverso cui un individuo usa un soware specifico per raggiungere obiettivi comunicativi, è possibile applicare ad esso la teoria di Giddens, isolando tre elementi strutturali che sono regole, relazioni, codice (Schmidt, 2007). Per quanto riguarda le regole, ovvero schemi per l’azione sociale, in ambito di comunicazione digitale possono essere regole di adeguatezza e procedurali. Le regole di adeguatezza sono aspettative condivise sulla coerenza nell’uso di un certo medium per ottenere specifiche gratificazioni (perché usare il blog?). In questo caso la spinta a tenere un blog può essere interpretata come una strategia per mettersi in relazione con altre persone ed esercitare una forma di influenza, e diversi studi confermano questa motivazione. Le regole procedurali invece servono per distinguere le diverse dinamiche dell’utilizzo dei blog sempre in un’ottica di raggiungimento di uno scopo comunicativo (in che modo bloggare?). Queste sono regole di selezione, che aiutano la scelta delle fonti internet a partire dalle quali scrivere sul blog; di pubblicazione, che guidano nella scelta dei temi, nella presentazione del contenuto, nell’organizzazione del blog; di networking (o relazione), che orientano nella scelta delle strategie di inserimento dei link, che possono essere interpretati come relazioni sociali con altri blog/blogger (Granieri, 2005). Per quanto riguarda le relazioni, sono possibili due forme: le relazioni ipertestuali e le relazioni sociali. Le prime sono rese possibili dalla tecnologia di blogging utilizzata, mentre le seconde vengono mantenute con altri strumenti (incontri informali, scambio di email e così via). Le principali relazioni ipertestuali ormai codificate in tutte le piattaforme di blogging sono i permalink, ovvero i link che identificano univocamente il contenuto del blog (i post), i trackback, la funzione che «avvisa» che il blog B è stato citato dal blog A mediante l’inserimento di un link, i commenti, ovvero la possibilità di inserire osservazioni e critiche in coda al post, e il

blogroll, ovvero la lista dei blog che vengono letti dal blogger e che sono visibili nella homepage. Pur essendo tutte soluzioni tecnologiche, hanno un notevole impatto relazionale se si tiene presente l’immagine che ogni blog è una persona che comunica sul web, quindi linkarla, citarla, inserirla nel blogroll non è solo un’azione tecnologica, ma anche un’azione sociale (Estalella, 2007). Infine la terza dimensione strutturale è il codice, che altro non è che la tecnologia sottesa al blog. Usando la terminologia informatica, è possibile distinguere i blog online dagli script. I blog online sono blog creati attraverso servizi internet specificamente progettati per questo scopo (tra i più famosi: Blogger e Splinder). Gli script blog[23] sono invece soware (appartenenti alla categoria dei Cms) che vengono installati su spazi internet e sono mantenuti direttamente dal blogger (i più usati: Wordpress e Movable Type). Usando una metafora, fare un blog online ricorda l’esperienza di avere un appartamento in un condominio (il servizio di blogging), mentre gli script blog sono più simili all’esperienza di una casa di proprietà. In questo senso è facile comprendere perché sono due strategie comunicative e relazionali, in quanto i blog online facilitano (o limitano) certe possibilità comunicative, mentre gli script blog richiedono una maggiore manutenzione e competenza tecnologica per poter essere installati nel proprio spazio web. Una delle definizioni ricorrenti della blogosfera è Big Conversation (grande conversazione: Estalella, 2007; Granieri, 2005), in quanto lo scambio di relazioni sociali attraverso il linking, di commenti e opinioni rende la rete dei blogger una costante discussione in cui è valorizzata la dimensione dialogica, e questa è una delle componenti più importanti della blogosfera intesa come organizzazione sociale. Come abbiamo avuto modo di dire, non è facile definire le diverse tipologie di blog, perché queste sono caratterizzate dal contenuto (blog personali, blog tematici) oppure dal medium usato per comporre i post (videoblog e fotoblog in cui i contenuti sono – rispettivamente – video o foto). Però due sono le macrocategorie di blog che è possibile identificare: i diari online e i blog informativi (o newsblog). I diari online sono la prima e più famosa forma che assumono i blog (Papacharissi, 2007). Altro non sono che la rilettura in chiave web del classico diario personale, resa anche più somigliante dalla circostanza che il contenuto nei blog è organizzato cronologicamente, come le pagine di

un diario. Esistono diverse ricerche sui diari online, per quanto parziali e circoscritte, sia perché non è facile rilevare uno spazio digitale in continua evoluzione come la blogosfera, sia perché le strategie di relazione fondate sui link fanno sì che la blogosfera non sia organizzata come un tutto coerente ma secondo specifici cluster di blog definiti da interessi comuni, relazioni sociali, comunità linguistiche (Schmidt, 2007; Trammell et al., 2006). Una delle ricerche più illuminanti è quella fatta da Susan Herring e collaboratori (Herring et al., 2007), in cui sono stati studiati per circa un anno 457 blog di lingua inglese. Interessanti i risultati: il blog a firma unica è quello che domina, i contenuti inseriti sono prevalentemente testuali, l’identità del blogger è facilmente identificabile con tanto di foto inserita in homepage, c’è una prevalenza di blogger adulti con una buona presenza di teenager, la forma diaristica è quella preferita, i link ad altri blog, così come i commenti, sono poco frequenti e tendono a diminuire col tempo. Questa ricerca è molto interessante perché mette in dubbio due certezze che si ritrovano spesso nella cyber-retorica dei blog-entusiasti. Per prima cosa il fatto che la blogosfera sia una Big Conversation, quando in realtà lo scambio conversazionale tramite link e commenti è piuttosto basso. Inoltre l’immedesimazione tra il blogger e il blog è molto stretta, tanto che il blog agisce come un’estensione dell’identità del blogger stesso. Anche in Italia ci sono state interessanti ricerche sui blog diaristici o narrativi. Fra queste, molto interessante lo studio del gruppo di Guido Di Fraia (Di Fraia, 2007), che ha analizzato un campione di blog della piattaforma italiana Splinder (la sede dei blog diaristici italiani) con un imponente disegno di ricerca multi-metodo (interviste, analisi del contenuto, focus groups, questionari). I risultati hanno rivelato che i blogger sono per lo più persone sotto i 28 anni, con una leggera prevalenza di donne, molto rappresentati gli studenti, ma anche impiegati e professionisti. Alcuni di loro rivelano che già tenevano un diario personale, e l’utilizzo dei blog si è affiancato ad esso. Attivi editor del proprio diario online, oltre la metà dichiara di dedicarvisi più volte la settimana a seconda del tipo di responsabilità che prova verso i propri lettori e alla quantità di tempo libero di cui dispone. Sempre dalla responsabilità verso i lettori dipendono anche le motivazioni stesse per cui bloggano – relazionale (la possibilità di conoscere persone nuove), creativa (una palestra per sperimentare stili di scrittura), ludica (passatempo e hobby) e introspettiva (riflettere su di sé e sui propri rapporti con gli altri)

–, che riecheggiano schemi di comportamento studiati in altre ricerche (Nardi et al., 2004). L’analisi integrata dei dati rilevati ha permesso di delineare tre profili sociali dei blogger narrativi: i giovani esploratori, le tessitrici e i pionieri. I giovani esploratori – la maggioranza del campione della ricerca – hanno meno di 22 anni, usano il mezzo in modo sperimentale, lo aggiornano quotidianamente anche se non vi si dedicano per più di 30 minuti, e percepiscono la blogosfera in maniera idealizzata come spazio sicuro e democratico. Le tessitrici invece sono per lo più studentesse che usano il mezzo come luogo di riflessione, lo aggiornano tre volte alla settimana dedicandovi circa un’ora per la scrittura, lo vivono come uno strumento per riflettere su se stesse e percepiscono la blogosfera come uno spazio fisico con una propria struttura e gerarchia. Infine i pionieri sono sopra i 27 anni e devono il nome al fatto che appartengono alla generazione che per prima ha usato il blog. Sono grandi utenti di internet, infatti il blog è una delle loro presenze in rete, impiegano almeno un’ora per aggiornarlo e lo usano come una forma di interazione con il mondo anche perché percepiscono la blogosfera come un luogo di incontro in cui collocarsi dentro la comunità che sentono come propria. Da quanto fin qui detto, un uso diaristico dei blog porta con sé anche l’utilizzo del mezzo per riflettere e definire meglio la propria identità, in accordo con un uso della rete in senso comunitario, così come delineato dalla virtual togetherness (Bakardjieva, 2005). Per vedere in che modo il blog funga anche come definizione della propria identità, è interessante analizzare la blogosfera che si riconosce in un tema o in un argomento (come i foodblogger, specializzati sul cibo, o i fashion blogger, specializzati su moda e tendenze dello stile). Un caso interessante sono i blog delle mamme, particolari blog diaristici in cui al centro dell’identità è il proprio ruolo di madre (Lopez, 2009). Le caratteristiche dei momblog (termine usato per descrivere questa tipologia di blog) sono l’uso di uno stile narrativo molto informale e uno stretto rapporto con i propri lettori che si sentono molto vicini e fedeli alla blogger. Il tema principale è (ovviamente) la maternità e i figli, ma sono anche presenti altri argomenti come i consumi culturali, la vita di coppia. Per certi versi questa forma di blog può essere considerata come un’estensione delle modalità femminili di narrativizzazione della propria esperienza, una sorta di ri-mediazione della forma diario, in continuità con altre forme di scrittura autobiografica femminile (Lopez, 2009). Il momento di nascita e di

sviluppo di una consapevolezza identitaria delle mamme blogger – svolgere un ruolo particolare e far parte di una comunità coesa – è stato la conferenza BlogHer del 2005, che nonostante il successo di partecipanti ha sollevato non poche controversie tra la dimensione femminile della conferenza e la dimensione materna, considerate due identità non sovrapponibili, tanto da indurre le organizzatrici a predisporre una sessione sul tema nella conferenza del 2006. L’importanza del ruolo delle mamme blogger è stata sancita anche grazie al fatto di essere state «scoperte» dal mondo della pubblicità, rendendo i blog un trampolino di lancio per fare soldi. La dimensione comunitaria delle mamme blogger ha fatto sì che si potesse elaborare un’idea della maternità che andasse al di là dell’immagine stereotipica spesso veicolata dai media: nel momento in cui scrivono dei loro bambini, le donne trasformano le loro narrative personali in una conversazione interattiva, espandendo la nozione di maternità e collocando la figura della donna madre in una sfera pubblica, a cui corrisponde una tematizzazione di argomenti politici come la discriminazione sul posto di lavoro o l’inadeguatezza del sistema assistenziale (Lopez, 2009). Se il diario online è la forma di blogging più diffusa e vicina alle pratiche di narrativizzazione della propria identità (come l’autobiografia), interessanti per altri versi sono i newsblog o blog informativi, il cui meccanismo narrativo li rende simili a forme di giornalismo online. Quella del rapporto fra blog e giornalismo è una vexata quaestio – ancora non completamente risolta – che ha dominato il dibattito alle origini dell’introduzione del blog sia negli Usa che in Italia, e che ha visto una potentissima resistenza da parte dei giornalisti professionisti (Jones, Himelboim, 2010). Qui ci limiteremo a illustrare i confini della controversia, i suoi casi studio interessanti. Per prima cosa la domanda: qual è il posto dei blog nell’universo del giornalismo online? Mark Deuze affronta la questione provando a immaginare un continuum tra le diverse strategie di produzione editoriale, prendendo in considerazione due variabili di riferimento, ovvero la caratterizzazione del contenuto (editoriale o prodotto dai lettori) e le forme di connettività (con moderatore o prive di moderatore). In questo modo classifica quattro forme base: i siti di news mainstream (contenuti editoriali privi di partecipazione) come i giornali online tradizionali, gli indici o i siti di

archiviazione (contenuti formati da link commentati con spazi per lo scambio tra lettori) come Google news, i meta-siti o siti di commento (commenti su notizie dal mondo della stampa, che prevedono la partecipazione dei lettori) come Poynter e infine i siti per la condivisione e la discussione (contenuti prodotti dai lettori, con spazi per il dibattito e la discussione) come Indymedia e i blog collettivi. Così caratterizzati, i blog che si occupano di notizie altro non sono che una delle forme possibili che può assumere il giornalismo online (Deuze, 2003, p. 211). Secondo altre prospettive (Sofi, 2006) è bene distinguere i vari modi in cui i blog possono essere considerati strumenti che afferiscono al campo giornalistico. Le tre ipotesi sollevate sono: il giornalismo diffuso, quando il blog diventa strumento per testimoniare un avvenimento tragico; il giornalismo residuale, in cui i blog si occupano di quelle notizie che per motivi legati al newsmaking non vengono coperte dalla stampa mainstream; infine le forme di approfondimento collaborativo, dove i blog diventano strumento per una persistenza della notizia che vada al di là del ciclo di vita dell’informazione di massa. Un caso celebre di giornalismo residuale in cui i blog sono stati testimoni di un evento catastrofico e parte attiva del processo di costruzione della notizia è stato lo tsunami che ha colpito le coste del Sud-Est asiatico il 26 dicembre del 2004, durante il quale vennero usati sistematicamente storie e contenuti audiovisivi presi da internet per raccontare il disastro, poiché le zone colpite erano mete ambite per turisti provenienti da ogni parte dell’Europa e degli Stati Uniti (Kivikuru, 2006). In buona sostanza, tutte le forme precedentemente citate altro non sono che una forma di newsmaking: se il giornalismo è quella attività professionale che trasforma gli eventi in notizie, attraverso le dinamiche di newsmaking, i blog hanno una propria autonomia e un ruolo preciso dovuto in parte alle modalità di circolazione e consumo che l’informazione ha in rete. Un esempio italiano piuttosto emblematico di newsmaking alternativo è senza dubbio il caso Calipari (Bennato, 2005; Sofi, 2006). Nel 2005, l’ufficiale del Sisde[24] Nicola Calipari è stato ucciso in Iraq in circostanze poco chiare ad un posto di blocco statunitense nel corso della liberazione dal sequestro della giornalista italiana Giuliana Sgrena. Il governo americano rilascia alla stampa un dossier scaricabile da internet in cui viene ricostruita la vicenda ma che è pieno di omissis, resi con delle pecette nere che nascondono alcune informazioni contenute nel file. Il blogger italiano

Gianluca Neri (del blog Macchianera) riesce a togliere le pecette dal documento statunitense e renderlo disponibile privo di omissis dal suo blog. La notizia rapidamente passa nelle principali redazioni giornalistiche di quotidiani e televisioni che raccontano l’evento. In questo caso l’intreccio tra dimensione tecnologica e routine giornalistica ha fatto in modo che fosse la blogosfera a fungere da fonte. Se i blog di informazione possono essere considerati delle fonti giornalistiche – da trattare con le opportune cautele – questo è anche più forte nel caso di blog dal forte contenuto tematico. Un caso piuttosto interessante è quello dei warblog o blog di guerra, ovvero i blog scritti da soldati impegnati sul fronte della guerra in Iraq o in altri scenari bellici, che si configurano come un genere giornalistico con delle caratteristiche distintive (Wall, 2005). Infatti alcune delle caratteristiche che i warblog condividono sono uno stile narrativo personale con opinioni esplicite rese da un unico punto di vista (quello del soldato), l’audience come cocreatrice del racconto, un formato della storia di tipo frammentato, incompleto, in cui i link testimoniano l’uso di fonti e quindi la credibilità delle informazioni. Da quanto detto, è evidente che la caratteristica comunicativa del blog è la scrittura personale, con opinioni esplicite e ricca di esperienze vissute, elementi narrativi che possono essere declinati sia in chiave intimistica e diaristica, sia in chiave pubblica e informativa. Un caso utile per riflettere sul cortocircuito fra queste due dimensioni è senza dubbio il ruolo che la blogosfera italiana ha avuto nella manifestazione del V-Day (Pepe, Di Gennaro, 2009). Il V-Day è stata una manifestazione politica promossa dal comico Beppe Grillo l’8 settembre 2007, con lo scopo di sensibilizzare l’opinione pubblica italiana e raccogliere le firme per una legge di iniziativa popolare avente come obiettivo la riforma della legge elettorale. L’evento, praticamente ignorato dalla stampa italiana, deve il suo successo a due elementi chiave: da un lato il passaparola attivato fra i blogger a partire dall’annuncio della manifestazione a luglio dello stesso anno, dall’altro il ruolo di promozione svolto dalle piccole testate giornalistiche locali. Uno dei risultati interessanti della ricerca è che dall’analisi della diffusione delle informazioni fra i blog, per quanto il blog di Beppe Grillo (uno dei più famosi) abbia avuto un ruolo strategico, molto importante risulta essere stata la rete dei blog – celebri e meno celebri – che si è creata intorno al comico genovese: sono stati loro che

con una mescolanza di strumento di narrazione delle proprie esperienze individuali e strumento informativo alternativo hanno reso possibile il successo della manifestazione.

4. Wiki: gli spazi di collaborazione I wiki sono gli strumenti che meglio esprimono l’idea di partecipazione e collaborazione che caratterizza il Web 2.0. Se non altro per via del wiki più celebre che in poco tempo è diventato il sito enciclopedico più consultato della rete: stiamo ovviamente parlando di Wikipedia. Bisogna però tenere ben presente che se Wikipedia è sicuramente un wiki, non tutti i wiki sono enciclopedie: questo per sottolineare che tra la piattaforma tecnologica e il contenuto esistono delle differenze. Facciamo un esempio ormai piuttosto celebre. Gli onori della cronaca hanno incoronato personaggio principale del panorama giornalistico 2010/2011 Julian Assange, celebre editor in capo del sito Wikileaks, che raccoglie documenti top secret in forma anonima. Come rivela lo stesso nome, Wikileaks è un wiki[25], il cui contenuto è rappresentato da documenti digitali forniti da fonti anonime su alcune delle questioni più delicate di interesse giornalistico internazionale (scandali finanziari, documenti riservati della diplomazia, documenti sulla guerra in Afghanistan). A questo punto è lecito chiedersi: cosa sono i wiki e quali caratteristiche hanno? Il termine wiki – parola della lingua hawaiana che vuol dire «veloce» – indica una particolare classe di soware del tipo Cms (come i blog), il cui scopo è la possibilità di creare siti in cui chiunque sia registrato può contribuire alla produzione di un contenuto. I wiki hanno alcune soluzioni tecniche – le pagine di commento, le sandbox (spazi per la sperimentazione), l’archivio delle modifiche – che rendono piuttosto semplice non solo operare una qualsiasi modifica, ma anche negoziare la propria attività rispetto alla community che si riconosce in quello specifico wiki. Infatti ogni wiki è l’espressione di una specifica comunità che può essere un piccolo gruppo di persone o un numero enorme di partecipanti, a seconda di scopi, interessi e obiettivi del wiki stesso. Così definito, un wiki non è solo un sito per l’editing collaborativo, ma uno spazio sociotecnico caratterizzato da specifiche regole di appartenenza e uso sociale: solo in questo modo è possibile spiegare alcuni dei più

interessanti comportamenti collettivi che prendono forma dentro Wikipedia. La nascita dei wiki come tipologia di soware è opera di Ward Cunningham (Lih, 2010, p. 69), un programmatore statunitense interessato ai processi di documentazione del codice, attività importante dell’industria del soware ma spesso poco curata per diversi motivi (in prevalenza economici e di tempo). Cunningham sperimentò le sue idee tecnologiche fondando quello che viene considerato il primo wiki della storia, ovvero il Portland Pattern Repository (1995), un archivio (repository) orientato alla raccolta di diversi modelli (pattern) di programmazione. L’uso del wiki come strumento per la creazione di una enciclopedia collaborativa è invece un’idea di Jimmy Wales e Larry Sanger, già autori di un primo tentativo denominato Nupedia (2000) in cui il processo editoriale era governato da una specifica mailing list, progetto che poi avrebbe lasciato il posto a Wikipedia (2001), adottando un wiki particolarmente semplice da installare e da usare (UseMod) (Lih, 2010). Wikipedia è stata studiata da diversi punti di vista, in quanto espressione di una community di editor che lavorano in maniera decentrata grazie alle opportunità che la piattaforma rende possibili: così definita, è assai facile giungere alla conclusione che molti dei processi in Wikipedia sono frutto di regole sociali espresse attraverso determinati vincoli/abilitazioni tecnologiche incorporate nel soware. Uno dei temi tipici dello studio di Wikipedia è vedere quali siano i modelli che portano le persone a diventare membri della comunità ovvero – usando le parole della community – come si diventa wikipediani. La risposta a questa domanda non è particolarmente semplice, in quanto sono tanti i motivi alla base della partecipazione ad una community (Preece, 2001). Gli studi sui gruppi di volontari (Clary et al., 1998) hanno identificato sei categorie motivazionali: valori (esercitare l’altruismo nei confronti degli altri), socialità (partecipare ad attività considerate favorevolmente dagli altri e percepite come importanti), comprensione (imparare nuove cose ed esercitare competenze e abilità), carriera (la possibilità di migliorare competenze legate alle proprie mansioni lavorative), protezione (difendersi dalle proprie pulsioni egoistiche), valorizzazione (migliorare la propria attitudine altruistica). Declinando le stesse categorie rispetto alla partecipazione a Wikipedia, aggiungendone altre due tipicamente legate al mondo della collaborazione open source – divertimento e ideologia (condivisione di una visione del mondo) –, le

ricerche hanno ottenuto risultati interessanti. Infatti divertimento e ideologia sono le motivazioni maggiormente dichiarate, anche se quest’ultima sembrerebbe non avere correlazione col livello di creazione di voci di Wikipedia. La dimensione meno citata e meno correlata col contributo dato al progetto è quella legata alla socialità, ma questa mancanza potrebbe essere dovuta al fatto che contribuire a Wikipedia non fa parte dei comportamenti degli altri considerati come importanti (Nov, 2007). Da questi risultati si può evincere che i modelli di comportamento alla base della partecipazione dei wikipediani sono più simili alla comunità open source (alle cui idee il progetto Wikipedia deve non poco) piuttosto che a quelli alla base del volontariato. Ciò aiuta a distinguere fra queste due strategie di partecipazione: il volontariato, declinabile in senso sociale ed etico, e l’open source, declinabile in senso strategico (contribuire ad un progetto concreto) e deontologico (seguire precise regole di appartenenza professionale). Se lo studio sulle motivazioni spiega il perché si è wikipediani, nulla dice su come si diventi wikipediani. Il processo di socializzazione nella community di Wikipedia dipende fortemente dal ruolo che si riveste all’interno della comunità. Distinguendo due idealtipi di editor di Wikipedia – il principiante e l’esperto – è possibile fare alcune osservazioni (Bryant, Forte, Bruckman, 2005). Il principiante, più che scrivere testi, modifica e sistema le voci di cui già possiede una conoscenza base. Inoltre usa sistematicamente la search box per trovare le pagine che interessano e la sua partecipazione è facilitata dal modo semplice con cui è possibile effettuare delle modifiche. Per questi motivi il principiante non percepisce Wikipedia come una comunità, bensì come una raccolta di pagine web a cui è possibile contribuire. Diverso il comportamento degli esperti o wikipediani propriamente detti. Il loro lavoro è molto più consistente di quello dei principianti – scrivono ampie sezioni delle voci, danno indicazioni generali agli editor, discutono la legittimità di un inserimento –, in quanto le motivazioni alla base della loro attività fanno riferimento a Wikipedia intesa come progetto collettivo e comunitario e ai valori di cui essa è espressione (il libero accesso alla conoscenza). Gli esperti hanno a loro disposizione gli stessi strumenti dei principianti per operare in Wikipedia, ma la loro consapevolezza fa sì che l’uso di tali tools sia più intensivo e competente. Pagine di discussione (talk pages) e watchlists (pagine che tengono traccia delle modifiche effettuate dalla community)

sono completamente incorporate nelle attività quotidiane da loro svolte. I wikipediani si considerano membri di una tribù, in quanto la loro percezione è di appartenenza comunitaria, come è possibile desumere dalla userpage (la pagina che raccoglie le attività di un utente e funge da identità all’interno della community), che spesso viene modificata per inserire indicazioni sulla propria biografia. Il percorso di ingresso nella community è descritto nel modo seguente: si comincia col consultare Wikipedia sempre più frequentemente, dopodiché si inseriscono alcune piccole rettifiche in diverse pagine in forma anonima (add link/add information sono due dei contributi più diffusi: Ehman, Large, Beheshti, 2008), poi ci si registra sul sito (spesso su spinta e suggerimento di altri utenti) e da qui si inizia un percorso di pieno coinvolgimento nella community. La divisione del lavoro in Wikipedia è piuttosto ambigua, ma il ruolo ricoperto dagli esperti è quello di controllori delle attività e correttori degli errori maggiormente evidenti. La ricerca qui descritta presenta alcuni limiti (il basso numero di intervistati), ma sicuramente è molto utile per elaborare un percorso di coinvolgimento nella community di Wikipedia, identificando i diversi ruoli funzionali di principianti ed esperti. Se il meccanismo sociale di partecipazione è un processo importante per il mantenimento del progetto, è solo un piccolo esempio delle dinamiche alla base dell’organizzazione della community, tema che è stato molto studiato dalle ricerche svolte su Wikipedia, spesso di impostazione informatica, ma con una forte sensibilità sociologica. Uno dei modi più efficaci per verificare i valori alla base di una comunità è l’analisi delle controversie, ovvero lo studio dei momenti in cui i membri sono chiamati ad esprimere la propria adesione ad un set di norme che hanno bisogno di essere negoziate per poter far parte dell’ideologia alla base della comunità. Anche Wikipedia è stata (ed è) sottoposta a diverse controversie; una di queste, che ha definito alcune delle regole interne della community, è la contrapposizione fra inclusionisti e delezionisti (detti anche cancellatori o cancellazionisti)[26] (Lih, 2010, pp. 135-142). La controversia, che ha interessato la community dei wikipediani tra il 2007 e il 2008, descrive due diversi atteggiamenti nei confronti del contenuto che avrebbe dovuto essere inserito nelle voci dell’enciclopedia. Da un lato coloro i quali sostenevano che per una copertura sufficientemente ampia bisognava accettare

qualunque tipo di contributo che un utente sarebbe stato in grado di scrivere (posizione inclusionista, sostenuta dall’Associazione dei wikipediani inclusionisti: Aiw), dall’altro invece chi sosteneva la necessità di un maggiore rigore per aumentare la qualità delle voci (posizione delezionista, promossa dall’Associazione dei wikipediani delezionisti: Adw). Il cuore del dibattito non solo faceva riferimento a cosa si sarebbe dovuto considerare degno di essere inserito in Wikipedia, ma avrebbe anche modificato la governance della community, inserendo procedure gerarchiche nell’accettazione di un contenuto e aumentando così il potere degli amministratori. Wikipedia prevede un percorso in cui la community si può esprimere sulla legittimità o meno di una specifica voce e ciò avviene nella pagina Articles for deletion (Pagine da cancellare), che ha anche il ruolo di equilibrare le posizioni fra inclusionisti e delezionisti, mantenendo il dibattito vivo. Lo studio di questa controversia (Kostakis, 2010) mostra che aumentando il numero delle voci e degli utenti di Wikipedia sarà sempre più difficile che un piccolo gruppo di amministratori riesca a mantenere il controllo – per quanto democratico e partecipativo – del processo. Inoltre la situazione di «scarsità artificiale» provocata dalle posizioni delezioniste comporta una gestione del potere decisionale non egualitaria. Infine la commistione tra potere tecnico e sociale degli amministratori potrebbe provocare una concentrazione di potere in una porzione specifica della community (Forte, Bruckman, 2008), radicalizzando il principio della «dittatura benevola» tipico dei progetti open source (Fogel, 2006, pp. 89-90; Malcolm, 2008, pp. 216-219), in cui un sistema di coordinamento decentralizzato resta comunque concentrato nelle mani di un unico individuo carismatico (Torvalds nel caso di Linux, Wales nel caso di Wikipedia). Le dinamiche di cooperazione e conflitto alla base dei progetti collaborativi assumono forme interessanti grazie anche alla possibilità di conservazione di una traccia informatica delle pratiche sociali sviluppate dalla partecipazione ai progetti. Usando un originale strumento per la visualizzazione del ciclo di vita in grado di mappare l’accrescimento e la cancellazione di specifiche porzioni di testo[27] di alcune delle voci più interessanti (e dibattute) di Wikipedia, Viegas, Wattenberg, Dave (2004) hanno identificato quattro modelli chiave di cooperazione e conflitto che emergono dall’editing collaborativo. Il primo modello è la coppia

vandalismo/riparazione, che consiste nella cancellazione indiscriminata di ampie porzioni di testo e nel relativo intervento di riparazione da parte della community. Il concetto di vandalismo spesso non è autoevidente, pertanto esistono specifiche pagine dove discutere se un atto – a prima vista definibile come vandalico – possa essere invece interpretato altrimenti. Oltre alla cancellazione indiscriminata (mass deletion) esistono altre forme di vandalismo come l’inserimento di insulti o volgarità (offensive copy), l’inserimento di testo che nulla ha a che vedere con l’argomento della voce in oggetto (phony copy), l’inserimento di un link che rimanda ad un termine malizioso o offensivo (phony redirection), l’aggiunta di un testo che è correlato al tema della pagina, ma non rispetta il sommo principio wikipediano del punto di vista neutrale (Neutral Point of View: Npov) oppure è deliberatamente polemico (pp. 578-579). Il secondo modello è quello detto di negoziazione in cui due persone o due gruppi che modificano una pagina si alternano nel definire quale debba essere il contenuto finale e progressivamente si accordano attraverso modifiche successive del testo: sono quelle che i wikipediani chiamano edit wars, ovvero le contrapposizioni fra due diverse concezioni di una voce. Quello che è interessante è che il modello della negoziazione non riguarda solo voci controverse, ma anche piccole informazioni della voce principale che – da quanto detto prima – riproducono in piccolo la controversia inclusionisti/delezionisti. Il terzo modello è detto dell’autorialità (autorship), che rappresenta la diatriba fra chi ritiene che sia un elemento importante della collaborazione e chi invece ritiene che vada a detrimento del progetto Wikipedia. Viene identificato dalla presenza di editing anonimi contro editing associabili ad uno specifico utente registrato. Questo modello è meno definito degli altri e pertanto necessita di ulteriori analisi, ma è interessante notare che non ha un rapporto stringente col vandalismo. In pratica esistono voci vandalizzate da utenti registrati – spesso con nomi offensivi – così come esistono voci che rispettano le linee guida di Wikipedia che sono opera di utenti anonimi. L’ultimo modello è quello della stabilità del contenuto, ovvero della persistenza di un testo rispetto al tempo senza che questo venga editato. Alla luce dell’analisi, sembrerebbe che le pagine di Wikipedia raramente vengano lasciate intonse, ma piuttosto siano sempre sottoposte ad un processo di revisione.

Oltre a questi modelli principali, è possibile identificare altre forme interessanti di cooperazione e conflitto. Per esempio il vantaggio del primo arrivato (first-mover advantage: Viegas, Wattenberg, Dave, 2004, p. 580; Ehmann, Large, Beheshti, 2008), in base al quale il primo che crea una voce di Wikipedia è anche quello che definisce il tono della pagina e il cui testo ha un tempo di permanenza maggiore rispetto ad altri testi inseriti successivamente. Questo modello sembra essere concorde con quello che viene chiamato l’effetto piranha, in cui una voce inizialmente con poco testo e di bassa qualità diventa poi, grazie all’aumento di interesse da parte della community, progressivamente ricca di informazioni e di buona qualità (Lih, 2010, pp. 95-154). Un altro modello interessante è che gli editor tendono a cancellare/inserire testo più spesso di quanto non spostino porzioni di testo all’interno di una pagina, presumibilmente per motivi legati all’interfaccia di editing di Wikipedia (Viegas, Wattenberg, Dave, 2004, p. 581). Alla luce di questa analisi gli autori giungono alla conclusione che il successo del progetto Wikipedia può essere attribuito a tre diverse caratteristiche: l’uso delle watchlists come strumento per la sorveglianza da parte della comunità sul lavoro di editing, la pratica di discutere meta-argomenti (per es. la legittimità di una voce o un editing) nelle pagine di discussione e infine il consenso condiviso sulla regola principale di Wikipedia, ovvero una scrittura basata su un punto di vista neutrale (Npov). L’importanza del Npov è tale che caratterizza non solo il progetto principale della Wikipedia Foundation, ovvero l’omonima enciclopedia collaborativa, ma anche altri progetti come ad esempio Wikinews, ovvero lo strumento wiki della Wikipedia Foundation specificamente dedicato alla scrittura delle notizie secondo gli stessi principi di Wikipedia (Thorsen, 2008). In questo caso il Npov viene negoziato attraverso la definizione di quelle che possiamo definire politiche del testo e loro implementazione, anche perché Wikinews non ha alcuno strumento automatizzato di produzione di contenuti, ma è reso possibile dalla comunità di appassionati che si riconosce nel progetto. Ciò che rende questo progetto profondamente diverso dai blog giornalistici è che, se in questi l’elemento di forza è l’opinione personale e il punto di vista individuale, nel caso Wikinews invece la forza è una scrittura basata su fatti e con un punto di vista neutrale.

Quello di Wikipedia – ma diversi studi mostrano che ciò vale anche per altri wiki – è un progetto la cui governance è resa possibile da un mix di caratteristiche tecnologiche (il wiki) e regole d’uso condivise (la community) secondo un meccanismo di controllo e sorveglianza esercitato in maniera distribuita. La domanda cruciale a questo punto diventa: quali sono i risultati di questo lavoro collettivo? qual è la qualità delle voci di Wikipedia? possono competere con altri strumenti editoriali canonici come le enciclopedie tradizionali? Il primo studio che ha provato a rispondere a questa domanda – sollevando un vespaio di polemiche – è stato condotto dalla rivista scientifica «Nature» nel 2005 (Giles, 2005). In questa ricerca sono stati somministrati a un gruppo di ricercatori professionisti di diversi campi della scienza, con un modello sperimentale detto a singolo cieco (la valutazione di una voce senza rivelarne la fonte), un totale di quarantadue articoli relativi a temi scientifici/tecnologici presi da Wikipedia e dall’Enciclopedia Britannica online, una delle più prestigiose enciclopedie anglosassoni dotata di un modello editoriale tradizionale (voci scritte da competenti del settore). Seguendo il principio della peer review (revisione fra pari) in uso nella comunità scientifica, essi dovevano valutare due voci sullo stesso argomento prese da Wikipedia e dalla Britannica, senza sapere quale fosse la voce presa dall’una o dall’altra. Il risultato è stato molto interessante: ferma restando la presenza di gravi errori concettuali (un totale di quattro per entrambe le enciclopedie) e di errori di editing (con una leggera prevalenza su Wikipedia), il tasso di attendibilità delle voci è statisticamente identico. Ciò vuol dire che il modello di costruzione del sapere di Wikipedia (collaborativo, decentrato e scritto da non esperti) può competere senza problema con i modelli tradizionali (autoriali, gerarchici, scritti da esperti del settore) rappresentati dalla Britannica online. La conseguenza di questa ricerca è stata la nascita di una querelle da parte degli editor della Britannica online, che sono passati dall’accusa di debolezza scientifica dello studio all’adozione di un sistema di ascolto dei propri lettori nella stesura di alcuni contenuti dell’enciclopedia (Lih, 2010, pp. 241-243). Questa ricerca ha dato il via ad una serie di studi che si sono posti la domanda su come valutare la qualità dei contenuti di Wikipedia. Per esempio uno studio sulla credibilità di Wikipedia, ovvero su quanto ci si potesse fidare delle informazioni presenti nelle voci, ha dato risultati interessanti (Chesney, 2006). In questo studio, circa settanta

studiosi sono stati divisi in maniera casuale in due gruppi: al primo gruppo – gli esperti – è stato chiesto di leggere un articolo di Wikipedia connesso alla loro area di competenza, al secondo gruppo – i non esperti – è stato chiesto di leggere un articolo estratto a caso da Wikipedia. Di ogni articolo dovevano valutare credibilità, precisione, attendibilità, parzialità, completezza. Il risultato è stato che non sono state rilevate sostanziali differenze sulla credibilità di Wikipedia e degli autori delle voci da parte di entrambi i gruppi sperimentali, ma gli esperti tendono a giudicare gli articoli di Wikipedia maggiormente credibili rispetto ai non esperti, e ciò suggerisce che l’accuratezza delle voci di Wikipedia sia piuttosto alta, sostanzialmente confermando in linea di principio i risultati ottenuti dalla ricerca di «Nature». Questa capacità di produrre contenuti di qualità viene confermata anche nel caso degli articoli considerati ben fatti dalla stessa community di wikipediani (detti featured articles, in italiano vetrina, e indicati da una stellina dorata). Uno studio avente lo scopo di analizzare la qualità di questa tipologia di articoli ricorrendo ad esperti del settore è giunto alla conclusione che su 22 articoli sottoposti a giudizio, 12 sono di buona qualità, 7 di qualità media, mentre 3 sono di qualità scadente (Lindsey, 2010). Wikipedia non è l’unica enciclopedia collaborativa disponibile online, ma è sicuramente lo strumento che meglio ha declinato il rapporto fra tecnologia e regole sociali di appartenenza per lo sviluppo di un contenuto di buona qualità. Uno studio comparativo svolto rispetto ad altre enciclopedie collaborative ha mostrato che Wikipedia ha delle voci nel complesso omogenee e le discussioni informali su alcuni meta-temi (l’opportunità di inserire contenuti, per esempio) sono molto curate, a differenza di altre enciclopedie (come Everything 2) in cui le voci sono meno omogenee, frutto anche del fatto che le regole di appartenenza alla community sono diverse, così come diversi sono i criteri editoriali scelti (Emigh, Herring, 2005). Così descritto, risulta chiaro che quello delle enciclopedie online collaborative è uno specifico genere editoriale di internet, in cui la simile infrastruttura tecnologica non porta automaticamente alla somiglianza dal punto di vista editoriale. Ciò che rende Wikipedia un progetto più robusto nella qualità e nel processo di costruzione delle voci sono la condivisione a livello della comunità di cosa debba intendersi per enciclopedia e le norme di appartenenza che vengono rinforzate (e controllate) dagli stessi wikipediani (Emigh, Herring, 2005).

Un altro tema connesso alla qualità dei contenuti di Wikipedia è la varietà dei temi e il loro trattamento. Detto altrimenti: quali argomenti sono maggiormente rappresentati in Wikipedia? La risposta a questa domanda è importante in quanto consente di collocare l’enciclopedia wiki all’interno del settore delle enciclopedie professionali di livello culturale alto oppure in quello delle enciclopedie più calate nella cultura popolare. Uno dei primi studi sulla completezza degli argomenti presenti su Wikipedia (Halavais, Lackaff, 2008), progettati con lo scopo di comparare l’enciclopedia online con altre fonti a stampa considerate maggiormente autorevoli, mostra che la copertura tematica di Wikipedia è limitata rispetto alle enciclopedie degli esperti, con carenze nel settore legale e medico. Esistono inoltre alcune specificità nel trattamento di specifici settori. La musica spesso viene declinata con voci relative ai gruppi musicali e le arti figurative invece con le biografie di autori. In questi casi si nota un fan effect, ovvero l’effetto degli appassionati – di un genere musicale, di un artista –, nella stesura delle voci. Le scienze sono nel complesso ben rappresentate, eccezion fatta per le scienze sociali. Inoltre c’è un numero molto alto (rispetto alle enciclopedie professionali) di voci con argomento geografico. Nel complesso alcuni temi crescono e si espandono molto rapidamente (come cultura popolare e scienze fisiche), mentre altri si espandono più lentamente (come poesia e metrica). Altri studi sostanzialmente confermano il trend generale, precisando che la dimensione temporale gioca un ruolo importante (Royal, Kapila, 2009). Infatti gli argomenti più recenti sono piuttosto ben rappresentati, così come termini comuni o popolari a cui è riservato uno spazio piuttosto ampio. Un aspetto su cui convergono diversi studi – a partire da quello di «Nature» – è che la scienza è molto presente nelle voci di Wikipedia. Questo è uno dei motivi che sta portando gli editor di Wikipedia a citare sempre più spesso riviste scientifiche considerate fonti istituzionalizzate, così da migliorare la qualità delle voci attraverso l’inserimento di rimandi a strumenti accreditati. Delle oltre 30.000 citazioni scientifiche che fanno parte della versione inglese Wikipedia del 2007, le riviste scientifiche più utilizzate sono «Nature», «Science» e il «New England Journal of Medicine» (Nielsen, 2007). Un’altra strategia per valutare l’importanza di Wikipedia, nel senso di modo indiretto per stabilire come sia entrata nell’uso sociale degli utenti internet, è vedere

quali sono le voci maggiormente consultate. In questo modo è possibile delineare il suo ciclo di vita e i modi in cui è considerata influente (Brown, Duguid, 2001), sottolineando che Wikipedia non deve essere considerata come strumento sostitutivo delle enciclopedie tradizionali, bensì come strumento usato per risolvere rapidamente una lacuna conoscitiva. Uno studio sulle voci di Wikipedia che hanno il maggior traffico – informazione disponibile a partire dalla pagina Wikicharts[28] – rivela che quelle più consultate sono relative ai seguenti argomenti: intrattenimento (in particolare musica, film e fumetti), politica e storia, geografia, sessualità, scienza, computer, arti, religione, vacanza, eventi correnti (morti, in particolar modo) (Spoerri, 2007). C’è da sottolineare che questo dato non deve essere considerato «puro», in quanto si accede alle pagine di Wikipedia attraverso i motori di ricerca, pertanto accade che l’accesso ad una specifica pagina è frutto di una ricerca su Google o Yahoo. Ad ogni modo, la consultazione di queste pagine rende chiaro quanto Wikipedia sia influente in specifici settori e ambiti conoscitivi. Quella dell’uso di Wikipedia non solo come strumento di consultazione, ma anche come strumento per migliorare il ranking[29] di alcuni siti mediante il link alle voci, è una pratica piuttosto diffusa nel marketing online che usa i motori di ricerca[30], ma non è stata completamente studiata. Le poche ricerche che indagano questa specifica strategia d’uso (Langlois, Elmer, 2009) utilizzando particolari framework teorici come i soware studies (Fuller, 2003) sono giunte alla conclusione che le pagine Wikipedia non solo sono utilizzate come veri e propri tag (marcatori) per migliorare il posizionamento delle pagine, pratica che in alcuni casi sconfina nel link farming[31], ma – nel rispetto delle condizioni d’uso di Wikipedia – vengono usate per scopi pubblicitari e in altre strategie per aumentare la circolazione del contenuto, trasformando così la più importante enciclopedia libera online in un oggetto soware da sfruttare per i più diversi scopi commerciali. Volendo fare il punto, possiamo dire che i wiki sono un interessante strumento per la produzione collaborativa di contenuti la cui qualità dipende da un lato dalle regole di implementazione dell’infrastruttura, dall’altro dagli obiettivi e dalle norme che regolano lo sviluppo della community, poiché ad ogni wiki corrisponde un gruppo/community e tale legame è stringente. Per questo motivo il più grande progetto di wiki al mondo, ovvero Wikipedia, avente come scopo la costruzione di una

enciclopedia libera a cui tutti possono accedere e a cui tutti possono partecipare, è in grado di produrre contenuti di buona qualità grazie alla sofisticata organizzazione sociale che si avvale delle discussioni che si svolgono nelle talk pages e di altri strumenti per la negoziazione delle attività dei membri. Ma soprattutto grazie alla condivisione di una visione editoriale comune basata sul principio del punto vista neutrale (Npov), principio che gode del sostegno dell’intera comunità. Ciononostante Wikipedia esprime uno specifico punto di vista culturale di tipo occidentale (Pfeil, Zaphiris, Ang, 2006; Royal, Kapila, 2009) che giustifica la prevalenza di alcuni argomenti maggiormente rappresentati rispetto alle enciclopedie tradizionali (online o offline). Ciò vuol dire che quello delle enciclopedie collaborative è un settore che si distingue non solo nella infrastruttura utilizzata ma anche nella scelta dei valori guida.

5. Social network (sites): la componente relazionale «Time», la celebre rivista americana, ha dedicato la copertina di uomo dell’anno del 2010 a Mark Zuckerberg, giovanissimo amministratore delegato del più visitato e trafficato social media degli ultimi tempi. Il 27 febbraio 2011, l’Academy Award ha assegnato ben tre premi Oscar – miglior sceneggiatura non originale, miglior colonna sonora, miglior montaggio – al film The Social Network[32], che racconta in maniera romanzata ma piuttosto aderente alla realtà dei fatti l’ideazione e la nascita del più famoso social network del mondo. In entrambi i casi stiamo parlando dello stesso sito, ovvero Facebook, un vero universo che conta circa mezzo miliardo di utenti in tutto il mondo. Facebook è solo uno degli strumenti per il social networking, insieme di siti che hanno inventato un genere mediale completamente diverso e ormai caratteristici del panorama dei social media. Ma quali sono le caratteristiche di questi siti? Quali le forme sociali di relazione che prendono forma in essi e soprattutto perché il loro successo globale? Esiste un corpus di ricerche su questo argomento piuttosto consistente. Non potendo delineare un quadro sistematico, rimandiamo ad altri contributi molto dettagliati e ben documentati (Iannelli, 2010; Riva, 2010); in questa sede ci limiteremo a illustrare i risultati più interessanti in grado di spiegare le caratteristiche sociologiche di questi strumenti del web partecipativo.

Il primo elemento da chiarire è la definizione operativa di questa classe di tecnologie. Il punto di partenza potrebbe sembrare banale, mentre in realtà non lo è, dato che la definizione di social networking alle origini della diffusione del web collaborativo è stata attribuita ad un insieme piuttosto eterogeneo di soware, che non sempre avevano caratteristiche comuni. Seguendo l’interpretazione più accreditata e condivisa dalla comunità scientifica che si occupa di studiare le tecnologie del web sociale, il termine corretto da utilizzare è social network sites (Sns) o siti di social network (boyd, Ellison, 2007), termine che ormai ha preso piede anche in Italia (cfr. Giglietto, 2009; Iannelli, 2010). Con questo termine si identifica una classe di servizi web dalle seguenti caratteristiche: consentono agli individui la costruzione di un profilo pubblico o semipubblico in un sistema circoscritto; permettono di organizzare una lista di utenti con cui instaurare un legame mediante una connessione, e di vedere e sfogliare la lista delle proprie connessioni (definite in modi diversi) e di quelle altrui all’interno del sistema (boyd, Ellison, 2007). Il motivo che porta all’uso del termine network invece che networking è che quest’ultimo pone l’enfasi sulla costruzione delle relazioni, che è sì condizione, ma né necessaria né sufficiente, per descrivere le attività all’interno di questi spazi sociali. C’è da dire che questa sottile distinzione è più chiara nel contesto linguistico anglosassone dato che qui il termine networking ha una precisa accezione terminologica, anche d’uso comune, che si perde nell’utilizzo italiano dell’espressione. Il primo[33] sito di social network a possedere le caratteristiche precedentemente delineate è stato Sixdegrees (1997), a cui hanno fatto seguito diversi Sns, che si differenziavano dal punto di vista etnico (Blackplanet: 1999; Migente.com: 2000), geografico (Cyworld: 2001) o professionale (Ryze: 2001; Linkedin: 2003). Il primo Sns di successo è stato Friendster (2002), divenuto tale grazie al passaparola online attivato prima che venisse raccontato dalla stampa nel 2003. Quest’anno è interessante non solo perché nascono moltissimi Sns, ma soprattutto perché ha visto la nascita del primo vero Sns diventato un fenomeno mainstream. Infatti il 2003 è l’anno di MySpace, social network popolarissimo soprattutto fra adolescenti, grazie, da un lato, alla sua particolare strategia di affiliazione, basata sull’apertura alle band indierock che invogliavano i propri fan a iscriversi al servizio, dall’altro, alla possibilità di personalizzare la propria pagina, tanto da far nascere un vero

e proprio stile grafico come l’uso delle decorazioni glitter, o forme di rappresentazione caratteristiche, come le foto dei profili dette con «angolo MySpace»[34]. Il boom di MySpace è del 2004, quando tre erano le principali tipologie di utenti – musicisti, adolescenti e giovani in genere –, e curioso è il fatto che la stampa non si sia accorta della crescita del fenomeno. Nel 2004 nasce Facebook, prima specificamente pensato per connettere gli studenti dell’Università di Harvard, poi progressivamente aperto alle più importanti università americane e infine a tutti. Diversi analisti concordano che il successo della piattaforma è attribuibile alla possibilità per le terze parti di costruire applicazioni per gli scopi più diversi: giochi, condivisioni e così via. In Italia Facebook è diventato il social network per eccellenza a partire dal settembre del 2008 e tuttora è il Sns più usato dalla popolazione internet italiana (Cosenza, 2011). Esistono delle specificità nell’uso sociale dei Sns che dipendono da vari fattori (comunità linguistica prevalente, interfaccia del sistema, integrazione con i dispositivi mobili, orientamento culturale, ecc.), ma ad ogni modo è possibile delineare un quadro generale di come vengono usate queste piattaforme. In genere questi spazi sociali sono frequentati in prevalenza da adolescenti e giovani adulti, anche se gli adulti sono sempre più presenti, in quanto sempre più spesso posseggono profili su più siti di social network (Ofcom, 2008). Il rapporto genitori/figli su queste piattaforme è controverso: molti genitori affermano di imporre delle regole d’uso ai propri figli, affermazione che è notevolmente ridimensionata a sentire le risposte date dagli adolescenti stessi (Ofcom, 2008). Per inciso, alcuni studiosi sottolineano che il successo di queste piattaforme presso gli adolescenti è attribuibile al fatto che consentono la socializzazione con i propri pari lontano dal controllo genitoriale (Buchner, Bois-Reymond, Kruger, 1995). Per quanto riguarda le strategie d’uso sociale dei Sns, è necessario distinguere due categorie: gli utilizzatori e i non utilizzatori. Gli utilizzatori possono essere classificati in cinque idealtipi: i socializzatori alfa (Alpha socialisers), che usano questi siti in maniera intensiva per flirtare, incontrare nuove persone e divertirsi, ma che sono la minoranza degli utenti[35]; i cercatori di attenzione (Attention seekers), che bramano attenzione e commenti dagli altri, spesso attraverso foto e personalizzando il proprio profilo; i seguaci (Followers), che sono la maggioranza e che usano questi siti per monitorare le attività dei propri pari; i fedeli (Faithfuls), anch’essi presenti in maniera cospicua,

che usano questi spazi per riprendere contatti con vecchi amici, compagni o colleghi; i funzionali (Functionals), persone che usano questi luoghi per scopi ben precisi (mantenersi informati su un gruppo musicale, per esempio) e che sono la minoranza. Fra i non utilizzatori, tre sono le categorie chiave: i preoccupati per la sicurezza online, soprattutto per quanto riguarda la circolazione su internet dei propri dettagli personali, gli inesperti tecnologici che non hanno dimestichezza nell’uso di internet e dei computer, e coloro i quali hanno un rifiuto ideologico in quanto non sono interessati a queste piattaforme e le considerano uno spreco di tempo (Ofcom, 2008). Le dinamiche di utilizzo di queste piattaforme sono organizzate secondo il modello profilo/amici/condivisione. Il punto di partenza nell’uso dei Sns è senza dubbio la pagina del profilo che funge da identità digitale e attraverso cui si creano contatti sociali con amici, conoscenti ma anche estranei (avremo modo di dettagliare più avanti questo punto). Lo scopo dell’utilizzo di questa rete sociale (o grafo sociale[36]) è senza dubbio la condivisione di contenuti testuali o altre forme mediali, per esprimere idee, pensieri, stati d’animo e così via. Su questa base è possibile sviluppare meccanismi di partecipazione di tipo sociale e politico (Ofcom, 2008), partecipazione che può essere indirizzata verso scopi pubblicitari e di marketing dato che questi spazi sono sempre più spesso strumenti del nuovo modo di concepire il marketing (Fabris, 2008; Levine et al., 2001). Si diceva che esistono delle specificità nell’uso sociale dei Sns che dipendono dal tipo di culture che esprimono (MySpace con il mondo dei gruppi indie-rock) o in cui sono incorporati (Facebook e il mondo delle università americane). Spesso le dinamiche attraverso cui uno specifico gruppo diventa prevalente in un Sns non sono completamente chiare. Molto citato in letteratura è il caso di Orkut, un social network sviluppato da Google, ma progressivamente «invaso» dalla comunità brasiliana fino a farlo diventare il più importante Sns di lingua portoghese (Fragoso, 2006), tanto da costringere il più importante motore di ricerca del mondo a spostare i server dalla California a Belo Horizonte (Brasile) data l’enorme quantità di traffico proveniente da quella parte del Sudamerica (Bennato, 2009). Un modo poco frequentato dagli studiosi, ma molto interessante, per affrontare la questione della diversità delle interazioni che prendono

forma nei diversi Sns è quello di studiarne la dimensione simbolica e architetturale espressa dalle interfacce delle diverse piattaforme. In uno studio comparativo fra Facebook, Linkedin e ASmallWorld (Papacharissi, 2009), che prende in considerazione le strategie discorsive con cui viene comunicata la distinzione «spaziale» fra pubblico e privato, le forme di presentazione del sé, le strategie per esprimere le culture del gusto (appartenenza a gruppi) e le norme comportamentali (stringenti vs approssimative), l’autrice giunge alla conclusione che Facebook può essere considerato a tutti gli effetti una casa di vetro, mentre Linkedin e ASmallWorld possono essere considerati come spazi in cui gli individui si conformano alle norme. Usando una simile impostazione, ma attraverso le suggestioni provenienti dall’uso cognitivo delle metafore (Lakoff, Johnson, 1998), in maniera particolare interpretando come gli elementi funzionali presenti nei Sns suggeriscono metafore di spazi sociali, è possibile considerare Facebook come uno spazio digitale che esprime una socialità assai simile ai caffè (uno spazio semi-pubblico), mentre la socialità espressa da MySpace è molto simile alle camerette degli adolescenti (spazio semi-privato) (Bennato, 2009; Bennato, i.c.s.). La ricerca sui Sns solitamente prende come riferimento lo studio degli adolescenti, per due ordini di motivi: la loro passione verso i social network e lo sviluppo di strategie per la gestione dell’identità, contatti sociali e privacy. È molto interessante vedere come evolvono le modalità d’uso di queste piattaforme al crescere degli utilizzatori. Una ricerca recente, che usando tecniche di analisi del contenuto ha analizzato il profilo di poco più di 2.400 adolescenti utenti di MySpace nel 2006 e nel 2007 (seguendo un disegno di ricerca simile ai panel), ha mostrato alcune dinamiche interessanti nello sviluppo del loro rapporto con i social network (Patchin, Hinduja, 2010). In primo luogo ha confermato l’idea che i profili hanno un proprio ciclo di vita, poiché circa il 10% dei profili del campione originario sono stati cancellati, e di quelli restanti il 42% sono divenuti profili privati (mentre prima erano profili aperti) per lo più di ragazze, mentre quasi il 40% sono stati abbandonati (ancora esistenti ma non più aggiornati dal 2006). I contenuti inappropriati presenti nelle pagine – foto in costume da bagno o biancheria intima, uso di linguaggio scurrile, immagini che riprendono atteggiamenti legati al consumo di alcol e tabacco – sono stati ridimensionati, in quanto sono presenti in percentuali che non superano il

9%. Similmente, le informazioni personali che rendono possibile essere contattati – email, telefono, nickname dei servizi di messaggistica – si sono notevolmente ridotte. Alla luce di questi risultati è facile giungere alla conclusione che i profili degli adolescenti «crescono» assieme a loro, mentre aumenta la consapevolezza dell’inserimento di informazioni sensibili. Altri studi hanno cercato di indagare le motivazioni alla base della partecipazione nei Sns. Da questo punto di vista Facebook è la piattaforma maggiormente studiata (per via anche della sua crescente popolarità). Vari studi sottolineano come il principale uso di Facebook è quello di strumento per mantenere contatti con la propria rete sociale quotidiana, invece di strumento per costruire nuove relazioni (Ellison et al., 2007). Similmente altre ricerche hanno evidenziato come la pratica del social searching – la ricerca di ulteriori informazioni su persone che già si conoscono – sia maggiore del social browsing – l’uso di Facebook per la costruzione di nuove relazioni –, come nel caso in cui studenti universitari provano a mantenere legami con i compagni delle scuole superiori (Lampe et al., 2006). Alcuni studi hanno inoltre mostrato che questo uso di Facebook come strumento per mantenere i contatti può essere scomposto in due componenti diverse ma integrate: da un lato la sorveglianza sociale, intesa come la curiosità di vedere come si trasformano nel tempo i vecchi amici, dall’altro la ricerca sociale (social searching), ovvero il desiderio di mantenere o ristabilire legami con le connessioni «offline» (Joinson, 2008). Mediante un framework tradizionalmente utilizzato per studiare l’uso sociale della televisione, ovvero l’approccio per usi e gratificazioni, alcune ricerche hanno evidenziato in cosa si differenzia l’uso di Facebook rispetto alla messaggistica istantanea (Im: instant messaging) (Quan-Haase, Young, 2010). I motivi che portano all’uso di Facebook sono essenzialmente tre: il suggerimento da parte di amici, la popolarità fra i propri pari e la conseguente curiosità, infine la voglia di mantenere contatti con altri amici. Interessante la descrizione delle gratificazioni ottenute dall’uso di Facebook: passatempo, affetto (l’espressione dell’affetto verso gli amici), moda (l’uso di Facebook per mostrarsi à la page), condivisione dei problemi, sociabilità (incontrare nuove persone superando timidezze e altre limitazioni), informazione sociale (conoscere cosa stanno facendo gli altri) (p. 355). La riflessione generale a cui giungono gli autori dello

studio è che entrambe le tecnologie – Im e Facebook – forniscono le stesse gratificazioni, ma Facebook ha un’attitudine broadcast che la messaggistica non possiede. Inoltre, se la messaggistica (comunicazione sincrona) simula la conversazione fra individui dando un maggiore senso di intimità, Facebook (comunicazione asincrona) fornisce un’esperienza più simile allo scambio di informazioni (pp. 358-359). Un altro studio che si basa sullo stesso approccio, ma si concentra sull’uso da parte dei giovani adulti, rileva che Facebook è utilizzato per gestire i contatti con i propri amici, per iniziare nuovi rapporti sociali e come strumento di distrazione, voyeurismo ed esibizionismo (Bumgarner, 2007). Al di là delle osservazioni generali che si possono fare sull’uso sociale di queste piattaforme, la ricerca (accademica, ma non solo) è giunta ad alcuni risultati che possiamo considerare in via di istituzionalizzazione e che fanno riferimento a tre aree definite in cui è forte l’impatto dei Sns: relazionalità e identità sociale, gestione del capitale sociale, privacy. Per quanto concerne il tema della relazionalità, oltre ad essere un classico della Cmc, è anche frutto della prevalenza di studi che hanno come oggetto di analisi gli adolescenti e il loro mondo, come si è già avuto modo di dire. Interessanti per esempio sono i modi con cui i Sns sono utilizzati per gestire le relazioni amicali, componente delicata nella formazione degli adolescenti. Nei social network i modi per definire i profili che sono connessi con il proprio variano enormemente, ma il termine che viene usato più spesso è senza dubbio «amico», che porta con sé delle problematiche interessanti. Gli individui posseggono in media sei tipologie diverse di contatti sociali definibili come amici (familiari, vicini di casa, colleghi attuali, colleghi precedenti, compagni di scuola e conoscenti di altre persone) (McCarty, 2002), e il fatto che questa eterogeneità sociale venga appiattita nella categoria «amico» è fonte di problemi nella gestione del proprio profilo Facebook (boyd, 2006). C’è da dire che rispetto ad altri spazi sociali, compresi i Sns in generale, Facebook è differente in quanto gli utenti tendono a instaurare relazioni con persone che già conoscono, ovvero che sono già amiche nella vita quotidiana. Una ricerca fatta sulle strategie di relazione amicale in Facebook (Lewis, West, 2009) sottolinea che l’uso del sito può assumere due forme: il coinvolgimento diretto con gli amici, che porta con sé tutta una serie di attività, oppure il social browsing. Questa forma di coinvolgimento passivo può assumere le caratteristiche dello

stalking (nella sua accezione di insistente curiosità sociale e non di reato) e crea un’esperienza che si potrebbe definire di «dipendenza» (usando le parole degli intervistati). Per quanto invece riguarda il coinvolgimento attivo, cioè gli scambi comunicativi con le persone della propria rete che già si conoscono, Facebook sembrerebbe avere poco impatto sulla gestione delle amicizie, rappresentando solo un canale in più per mantenere i contatti. Dalla ricerca emerge un forte incremento del chiacchiericcio che può andare lungo un continuum che dal semplice scambio di informazioni arriva fino al gossip, mentre, così come è stato evidenziato in altre ricerche, la voglia di mantenersi in contatto e la possibilità di riallacciare legami con vecchi amici rappresentano un’esperienza piuttosto comune. Un elemento di complessità nella gestione delle amicizie deriva dalla consapevolezza che ciò che viene comunicato attraverso Facebook è trasparente ai diversi gruppi di amici presenti nei contatti e spesso anche all’intera rete sociale. La conseguenza di questa consapevolezza è l’adozione di diverse strategie di accesso alle informazioni che variano dalle politiche di ingresso delle persone nella propria rete, alla scelta accurata delle informazioni da pubblicare sulla propria bacheca. La ricerca giunge alla conclusione che Facebook viene percepito come uno strumento socialmente necessario nonché parte di un articolato universo di strumenti di comunicazione: è un medium per la comunicazione informale e non seria e un canale supplementare (specialmente tra amici intimi); forte è la percezione da parte degli adolescenti che questa piattaforma appiattisca le relazioni amicali mescolandole tra loro, provocando qualche preoccupazione per la privacy. Inoltre l’architettura del sito è tale che incoraggia la comunicazione basata sul pettegolezzo (Lewis, West, 2009). La riflessione sulle forme relazionali degli adolescenti in Facebook ha delle conseguenze anche sul tema dell’identità e diverse ricerche evidenziano come l’uso dei Sns abbia un ruolo importante nella definizione della propria identità, senza avere necessariamente delle conseguenze negative. Questione che è difficile da inquadrare se non escludendo il modo tipico dei mass media di descrivere questi spazi secondo la strategia del tecno-panico, ovvero il panico morale (Cohen, 1972) applicato alla tecnologia (Marwick, 2008). Analizzando le forme di costruzione dell’identità degli adolescenti attraverso i social network (Livingstone, 2008), si nota un’alta variabilità

nelle strategie di rappresentazione di sé, dove il profilo non è semplicemente una raccolta di informazioni, ma un vero e proprio punto di partenza che serve per definire il proprio ruolo rispetto al gruppo dei pari. Strategia che è ancora più evidente quando le persone posseggono profili diversi su diversi social network. Inoltre gli adolescenti mostrano una forte padronanza delle sfumature sociali che ci sono tra persone più piccole (o più grandi) anche di un solo anno: la conseguenza di questa consapevolezza si trasforma nella scelta di specifici social network in grado di rappresentare tali differenze, per esempio nel layout della pagina. In questo modo i social network incorniciano – e non determinano – l’identità degli adolescenti, così che possano elaborare rappresentazioni di sé più o meno complesse rispetto al proprio gruppo di riferimento. La creazione dell’identità e la conseguente costruzione di relazioni sociali è qualcosa che richiede molto tempo ed è difficile da gestire, cosicché si determina la necessità di una negoziazione fra le esigenze di privacy e le possibilità di esprimersi con gli strumenti che i Sns mettono a disposizione. Gli adolescenti hanno complessi modelli decisionali che li portano a scegliere quali informazioni personali rivelare nel profilo, quali comunicare attraverso i servizi di Im e quali mantenere riservate. Così caratterizzata, la progettazione di un profilo è un processo complesso che porta con sé scelte su quale social network utilizzare (sulla base di quelli già usati dal proprio gruppo dei pari), in che modo rivolgersi ai propri amici e quali scelte tecniche fare concretamente (spesso sotto la guida di un amico che già usa il Sns). È interessante infine notare che i diversi livelli di intimità con cui gli adolescenti classificano gli amici hanno poco a che fare con la distinzione pubblico/privato incorporata dai social network (Livingstone, 2008). Capitale sociale è un termine che ha una storia lunga e interessante, e in quanto tale è stato declinato in modi molto diversi secondo il punto di vista di diversi approcci teorici[37]. In questa sede con capitale sociale intendiamo la rete dei contatti sociali che sono disponibili per un individuo. Da un punto di vista generale, è evidente che i Sns sono strumenti che aumentano il capitale sociale, perché consentono la gestione della propria rete amicale ma anche perché semplificano il processo di costruzione di rapporti sociali. Esistono però delle condizioni e dei casi particolari in cui i Sns sono parte di una specifica strategia d’uso.

Uno studio recente sul ruolo di MySpace nella costruzione di legami sociali negli ambienti rurali ha mostrato pratiche di relazione sostanzialmente diverse da quelle che avvengono nei contesti urbani (Gilbert, Karahalios, Sandvig, 2010). Gli utenti che abitano in zone rurali si sono iscritti alla piattaforma in ritardo rispetto agli utenti urbani, ma sono in media più giovani e, pur avendo meno amici, ne fanno un uso più intensivo. C’è una maggiore presenza di donne, come già rilevato in altri studi, ma le donne rurali sono molte di più se paragonate alle donne urbane iscritte al social network. Anche il rapporto con la privacy è diverso: le donne rurali impostano i loro profili come privati con un tasso di gran lunga maggiore delle donne urbane. Nel complesso, sembrerebbe che gli utenti rurali usino MySpace per cercare amici che si trovano nei dintorni di casa propria; non solo, nel loro grafo sociale ci sono pochissime persone con cui intraprendere un’amicizia online. In sintesi la ricerca mostrerebbe come modelli di comportamento sociale preesistenti prendono forma nei social media anche quando la tecnologia consentirebbe di modificare radicalmente tali modelli (p. 1383). Secondo alcune riflessioni, il capitale sociale può essere considerato un predittore dell’uso dei social network, poiché se io posseggo una vasta rete sociale, userò di più tali strumenti per ricostruire tale rete secondo le opportunità concesse dalla piattaforma. In realtà le cose non sono così semplici, soprattutto se studiamo in maniera comparata utenti e non utenti dei social network. Una ricerca che ha sondato il rapporto fra capitale sociale e frequentazione di comunità online (non specificamente social network) ha mostrato che la sociabilità ha una significativa influenza nell’uso delle comunità online, perciò gli utenti di comunità online tendono ad avere maggiore partecipazione sociale nei gruppi rispetto ai non utenti (Lee, Lee, 2010). Le reti sociali, prima incorporate negli spazi «fisici», adesso sono parte integrante degli spazi digitali di internet, in cui le persone creano, mantengono ed espandono i rapporti sociali. Gli utenti delle comunità online inoltre sono più propensi dei non utenti a ritenere che le altre persone sono degne di fiducia, disponibili e corrette e questo indica che gli utenti condividono un sentimento di appartenenza alla comunità. Ciò non implica che capitale sociale e comunità online si sovrappongano perfettamente. È lecito affermare che le comunità online non aumentano né diminuiscono il capitale sociale, piuttosto possono integrare le strategie

tradizionali di accumulazione del capitale sociale (p. 721). Lo studio, pur non focalizzandosi precisamente sui social network, rivela che la socialità si esprime anche attraverso gli strumenti che internet mette a disposizione, ma al momento non è del tutto chiaro se ci siano dei prerequisiti sociali che portano ad un uso comunitario di internet o viceversa. Una linea interpretativa utile per risolvere la questione potrebbe essere quella che parte dal presupposto dell’esistenza di un nuovo soggetto sociale la cui relazionalità è di tipo reticolare (secondo le indicazioni di Wellman, 2001) e le cui attività si dispiegano nella vita quotidiana (Bennato, 2007a; Comunello, 2010). Tornando ai social network, alcune ricerche mostrano come non solo ci siano delle specificità d’uso dei vari Sns, ma che esistono significative differenze fra utenti e non utenti dal punto di vista dei comportamenti sociali. Uno studio comparativo che ha preso in considerazione ben sei diversi social network[38] (Hargittai, 2007), oltre a sottolineare la maggiore popolarità di MySpace e Facebook, ha notato che le donne tendono ad usare i Sns più degli uomini, anche se la differenza è frutto dell’effetto di MySpace, poiché, se si espungono i dati di questo social network, allora le differenze donne/uomini diventano piuttosto sfumate, anche se il genere è l’unica variabile demografica che ha una forte correlazione con l’uso dei Sns. Interessante il ruolo della famiglia: gli studenti i cui genitori hanno un titolo di studio più basso delle scuole superiori sono significativamente meno presenti su Facebook e molto più presenti su MySpace, di contro gli studenti che hanno almeno un genitore con laurea sono utenti di Facebook in misura maggiore rispetto ad altri. Per quanto riguarda l’uso complessivo dei social network, il contesto d’uso e l’esperienza con il medium sono fortemente correlati con l’uso dei Sns. Ciò vuol dire che gli studenti che vivono a casa con i genitori utilizzano meno i Sns rispetto a chi vive con altre persone o da solo. Similmente, mentre non è un indicatore significativo da quanto tempo una persona usa internet, lo è invece (piuttosto prevedibilmente) il tempo quotidianamente trascorso sul web (Hargittai, 2007). Che il contesto culturale familiare abbia un impatto notevole sulla scelta di uno specifico social network è un tema interessante che non è stato completamente approfondito, ma alcune evidenze empiriche sembrerebbero confermarlo. Se consideriamo l’idea che il consumo sia un sistema significativo onnicomprensivo (che

riguarda ogni aspetto del processo anche simbolico) (McCracken, 1990) e intendiamo l’uso dei social network come consumo culturale, allora è evidente che la scelta di uno specifico social network non dipende solo dalla propria rete dei pari, ma anche da specifiche appartenenze socioculturali. Si potrebbe allora azzardare l’ipotesi – come altri hanno suggerito (boyd, 2008b, pp. 196-211) – che esista una vera e propria divisione di classe tra l’uso di Facebook, social network per adolescenti egemoni, e quello di MySpace, per adolescenti subalterni[39]. L’ultimo punto focalizzato da diverse ricerche e che è alla base di controversie – soprattutto sui media mainstream – è sicuramente il tema della privacy. Da un punto di vista generale, l’idea che ognuno di noi possa postare[40] diverse informazioni sul proprio conto – nome, cognome, città di residenza, gusti culturali, osservazioni politiche, commenti sull’attualità, ecc. – è una evidente incrinatura della dimensione privata della propria vita quotidiana, tanto che la raccolta automatizzata di queste informazioni ai fini di marketing (e non solo) viene definita «dossieraggio digitale» (Solove, 2004). Alcuni autori sottolineano come le tecnologie informatiche incrementano le minacce alla privacy per diversi ordini di motivi: la mancanza di percezione spaziale dei confini dell’audience delle nostre informazioni personali, la persistenza online delle informazioni e la loro accessibilità da parte di un’audience futura, l’intersezione di molteplici spazi fisici e digitali (Palen, Dourish, 2003). Questa è la posizione seguita dalle prime ricerche sul rapporto privacy/social network, che hanno evidenziato come questi siti fossero una minaccia per le informazioni tradizionalmente considerate riservate (Gross, Acquisti, 2005). Il tema classico di questo dibattito è il cosiddetto «paradosso della privacy» (Barnes, 2006), secondo cui gli adolescenti tendono a rivelare informazioni su di sé per aumentare il livello di intimità delle relazioni sociali sui Sns, ma allo stesso tempo vorrebbero avere maggiore controllo delle informazioni inserite. Tra l’altro un ruolo importante in questo senso è giocato dagli stessi social network. Per esempio, MySpace viene usato per costruire relazioni online anche per via del modo esagerato e poco vicino alla realtà (come l’assenza del nome e cognome a vantaggio dell’uso di un nickname) con cui viene gestita l’identità online, mentre Facebook – in quanto strumento per gestire online i propri contatti offline – porta a rivelare più di se stessi ad una rete

percepita come controllata (Dwyer, Hiltz, Passerini, 2007; Tufekci, 2008). Il problema della privacy è comunque più complesso, anche perché sofisticate sono le strategie adottate dagli adolescenti per gestire la questione intimità/riservatezza. Infatti una delle soluzioni al paradosso della privacy è quella di elaborare complessi modelli decisionali per valutare come impostare il profilo personale (pubblico o privato), chi far entrare nella propria rete (ostacolando l’accesso alle persone considerate inappropriate, come i genitori), quali informazioni pubblicare nei Sns e quali no (boyd, Hargittai, 2010; Livingstone, 2008; Tufekci, 2008). In uno studio sulle forme di presentazione del sé e la concezione moderna di privacy, diversi risultati rivelano un rapporto ambiguo degli utenti dei social network rispetto alle questioni della privacy (Tufekci, 2008). Infatti oltre a sottolineare che su Facebook le persone tendono ad usare il proprio nome e cognome, meno su MySpace, si è notato che non c’è alcuna correlazione fra l’uso del nome reale e il rendere il profilo visibile a tutti. Il profilo viene impostato come privato solo in base a scelte relative alla propria reperibilità rispetto alle audience indesiderate, mentre le riflessioni generali sulla privacy online non sortiscono alcun effetto. Gli utenti dei Sns sono disponibili a inserire informazioni sui propri orientamenti sessuali, oltre che sulla loro situazione sentimentale, e molto presenti sono le informazioni sui propri gusti culturali (libri, film, musica), confermando indirettamente il principio dell’organizzazione sociale del gusto (taste fabric) secondo cui il grafo sociale non è l’unica architettura presente nei Sns, ma è possibile identificarne un’altra rappresentata dalle scelte fatte rispetto ai consumi culturali (Liu, Maes, Davenport, 2006). C’è una certa consapevolezza sulla persistenza delle informazioni nei social network, la cui gestione dipende dal modo in cui gli utenti si immaginano i visitatori del proprio profilo: chi crede che autorità governative potrebbero analizzare il proprio profilo tende a non inserire dati come il numero di telefono, mentre chi immagina che i social network potrebbero essere usati per la ricerca di candidati da parte di aziende preferisce inserire il maggior numero di informazioni di contatto (Tufekci, 2008). L’idea complessiva che emerge è che se si posseggono forti timori sulla propria privacy si tende a non usare i Sns; inoltre ci sono tentativi di gestione della dimensione pubblica/privata, nonostante i limiti di queste piattaforme, che lavorano in continuità con la gestione degli spazi fisici. Ad ogni modo i Sns hanno al loro interno un

articolato sistema di norme culturali e aspettative che regolano la gestione delle informazioni personali; sono norme di cui si ha un’estrema consapevolezza e, ancora una volta, si differenziano notevolmente tra MySpace e Facebook (pp. 31-34). Che la piattaforma abbia un ruolo importante nello sviluppo di un sistema di norme interno e di gestione della privacy attraverso la costruzione del profilo è un dato che ormai viene confermato da diverse ricerche (boyd, Hargittai, 2010). Un caso emblematico che rivela come sia delicato l’equilibrio fra soluzioni tecnologiche, norme culturali e processi relazionali è quello dell’introduzione dei News Feed (detti anche mini feed) in Facebook (boyd, 2008a). I News Feed sono dei flussi di informazioni interni al social network che danno aggiornamento su qualunque attività svolta in Facebook dalle persone che fanno parte del nostro grafo sociale. È proprio grazie ad essi che il social network ha trasformato un fluire di informazioni in un vero e proprio sistema di broadcast interno. Da molti utenti sono stati percepiti come un’invasione della privacy per due ordini di motivi. In primo luogo perché i News Feed non distinguono fra le diverse tipologie di amici, e mentre di alcuni fa piacere avere un’informazione costante, di altri un po’ meno. In secondo luogo, su internet i legami sono essenzialmente deboli e nascondono delle asimmetrie, in quanto una persona può seguirne un’altra con particolare interesse, ma quest’ultima può non ricambiare tale attenzione. Ciò porta alla riflessione che la privacy non è un diritto inalienabile, ma un privilegio che va protetto socialmente e strutturalmente perché possa esistere (p. 19). Inoltre l’uso di tali tecnologie e la pratica del social browsing sembrerebbero confermare le tesi che vogliono i social network come completamente calati in una cultura del controllo declinata in una forma di sorveglianza partecipativa (Albrechtslund, 2008). In sintesi, possiamo dire che i social network sono degli spazi che nascono più con l’intento di gestire la propria rete sociale e relazionale, che di sostituirsi ad essa. Sono usati in prevalenza dagli adolescenti come strumenti per mantenere un contatto costante col proprio gruppo dei pari, ma anche per sperimentare specifici aspetti della propria identità. Il motivo del successo dei Sns è senza dubbio basato sulla possibilità di guardare in maniera sincronica alla propria rete di contatti, oltre che di sentirsi coinvolti in uno specifico contesto sociale. Esistono diverse

piattaforme di social network, ognuna con delle specificità dal punto di vista sociale, culturale e simbolico. Ogni specificità è anche frutto delle scelte tecnologiche che vengono implementate e dei modi in cui è possibile gestire la propria dimensione pubblica e privata. La gestione del profilo nei social network è una attività complessa e sofisticata che porta con sé riflessioni non banali su come presentare il proprio sé al gruppo dei pari e soprattutto su come risolvere l’ambiguo rapporto fra le esigenze dettate dalla privacy e la voglia di condividere aspetti personali e intimi della propria identità.

6. Altre forme di social media: Youtube, Twitter, Friendfeed Blog, wiki e social network sono senza dubbio le applicazioni più diffuse del web partecipativo, sia perché soddisfano esigenze diverse di comunicazione online, sia perché sono ormai completamente incorporate nelle pratiche d’uso della rete. Bisogna però sottolineare che queste tre diverse categorie di servizi non solo non esauriscono il panorama ricco e frammentato dei social media, ma sono anche alla base di pratiche – come il mashup – che mescolano servizi web diversi tra loro ottenendone di nuovi. Emblematico – da questo punto di vista – il caso di Ning, una piattaforma che si presenta come un servizio web a pagamento che consente di creare un proprio social network, un forum o di attivare un servizio di blog. Come se ciò non bastasse, spesso questi servizi originano altre piattaforme che estendono le loro potenzialità comunicative, dando vita ad una specie di indotto comunicativo digitale che in alcuni casi assume la forma di un vero e proprio ecosistema. Per esempio Wibiya, un servizio Web 2.0 in grado di inserire una barra degli strumenti all’interno dei blog per migliorarne le potenzialità comunicative o di condivisione, oppure Touchgraph Facebook Browser, uno strumento in grado di visualizzare la propria rete amicale di Facebook in formato grafico e interattivo. Si diceva (nel primo paragrafo di questo capitolo) che le forme di classificazione dei social media sono da intendersi secondo il principio delle somiglianze di famiglia, in quanto nella stessa categoria possono essere presenti piattaforme spesso molto diverse tra loro, ma che ad ogni modo condividono simili obiettivi comunicativi. Data l’alta variabilità di servizi e tecnologie, abbiamo deciso in questa sede di analizzare tre social

media in particolare: perché sono emblematici di una strategia di comunicazione, perché hanno caratterizzato (o stanno caratterizzando) il più recente panorama web, e – più prosaicamente – perché sono stati oggetto dell’attenzione di studi e ricerche e quindi è possibile parlare del loro uso sociale alla luce delle analisi più concettualmente attrezzate. La prima piattaforma da prendere in considerazione è senza dubbio Youtube, e questo per tre ordini di motivi. In primo luogo, Youtube è quanto di più emblematico ha espresso la cultura del web partecipativo (assieme ai social network) ovvero è un servizio tipico del nuovo panorama mediale. Secondo, Youtube è una delle tecnologie che ha fatto nascere il concept del Web 2.0, grazie alla sua enfasi su semplicità d’uso, diffusione rapida, centralità dell’utente, sviluppando così una serie di energie creative che sono state fatte proprie sia dall’uso amatoriale che dall’uso professionale di questo mezzo. Infine, perché Youtube è un servizio che ha dato vita al genere del videosharing, ovvero piattaforme pensate per la condivisione video, nate quasi contemporaneamente alle piattaforme di photosharing (condivisione di foto: Flickr). Inaugurando il videosharing, Youtube non solo è stato il capofila di una serie di servizi simili (Vimeo, Metacafe, Dailymotion, Google video, Viddler, Blip.tv per citare i più celebri), ma ha sviluppato una modalità di fruizione che è stata estesa ad altri oggetti mediali come i file di testo (per esempio Scribd, Docstoc, Issuu) o le presentazioni (come Slideshare, Slideboom, Empressr). Youtube nasce nel giugno del 2005, pensato come servizio web avente lo scopo di semplificare la pratica della condivisione di brevi clip video, cosa che all’epoca richiedeva conoscenze tecniche non banali. Come per tutti i celebri servizi legati ai social media, esistono diversi miti fondativi che lo caratterizzano. C’è chi dice che la sua fama sia legata alla sua scoperta da parte di Techcrunch attraverso una citazione su Slashdot[41], chi sostiene che invece sia da attribuire all’implementazione di alcune caratteristiche tecniche (segnalazione di video collegati, condivisione video via mail, inserimento di commenti, embedding, ovvero incorporazione dei video in altri siti), c’è chi ancora chiama in causa il successo di una scenetta televisiva del Saturday Night Live[42] che postata su Youtube diventò rapidamente un video virale facendo scoprire il sito al grande pubblico televisivo (Burgess, Green, 2009).

Come già è avvenuto per altri siti legati ai social media, la stampa ha spesso parlato  di Youtube nei termini di tecno-panico (Marwick, 2008) citando esempi di cyberbullismo o di infrazioni della legge del copyright (a causa della presenza di materiale televisivo postato dai suoi utenti) (Burgess, Green, 2009). Sta di fatto che diversi studi sulle forme di cultura partecipativa espressa da Youtube mostrano che non solo gli esempi di bullismo digitale sono sparuti, ma anche che spesso i prodotti televisivi vengono rimescolati con lo scopo di produrre nuovi meccanismi di senso, secondo il principio della cultura del remix (Lessig, 2009). Prima di entrare nello specifico dell’uso sociale di Youtube, è bene dare una descrizione generale delle caratteristiche sociali della piattaforma. C’è da dire che dal punto di vista delle ricerche, Youtube solleva importanti questioni metodologiche. Nonostante sia uno strumento informatico, Youtube – a differenza dei social network – si presta poco ad essere studiato con l’approccio della scienza dei computer. Nei social network, qualunque tipo di relazione sociale – il contatto, l’identità, la privacy, la creazione di un grafo sociale – lascia una traccia digitale che può essere rilevata dall’uso di metodologie informatiche. In Youtube invece è possibile studiare informaticamente numero di visualizzazioni, commenti e pochi altri indicatori che però da soli non rendono conto della complessità di questo spazio digitale. Questo avviene perché al momento non esiste nessuna tecnologia in grado di analizzare il contenuto dei video e, a partire da questi, le caratteristiche delle subculture visuali. Pertanto le ricerche più interessanti su Youtube, più che per altre piattaforme, sono quelle che usano approcci tipicamente sociologici (come l’etnografia digitale, la grounded theory), essendo l’analista umano al momento l’unico in grado di analizzare il senso di questi video, identificandone significati culturali, strategie relazionali, forme narrative e così via. Pur non essendo in maniera stringente un Sns, Youtube ha caratteristiche piuttosto simili ai social network, in quanto l’espressione della preferenza (mi piace/non mi piace), la possibilità di inserire commenti, la possibilità di taggare[43] contenuti audiovisivi lo rendono un luogo in cui è possibile esprimere una relazione attraverso reazioni al video (Lange, 2008; Paolillo, 2008; Santos et al., 2007). Da un punto di vista strutturale, Youtube si presenta con una struttura centrale – rappresentata da una serie di autori che mescolano video popolari presi

dalla piattaforma – e una struttura periferica di autori meno attivi. I contatti fra gli autori – resi attraverso le video-risposte, i tag e i commenti – rispettano il criterio della coerenza tematica: ovvero gruppi socialmente connessi trattano contenuti similari (Paolillo, 2008). Gli strumenti principali attraverso cui sono costruite le relazioni fra utenti sono il friending (la richiesta ricambiata di un utente di essere «amici»), l’iscrizione ad un canale (l’essere aggiornati sui video inseriti da un utente) e il commento dei video (commenting), mentre l’inserimento dei tag – essendo possibile solo per gli autori del video o il proprietario del canale – viene usato per facilitare o rallentare l’accesso ai video (Lange, 2008; Paolillo, 2008; Santos et al., 2007). L’uso generico di Youtube da parte degli utenti registrati[44] rivela dei pattern d’uso piuttosto interessanti (Santos et al., 2007). La maggior parte degli utenti registrati ha visto un piccolo numero di video, ma esiste un «nocciolo duro» di utenti che usano sistematicamente il servizio. La reputazione degli utenti è fortemente connessa alla qualità dei video da loro pubblicati: una metrica di riferimento può essere il numero di iscrizioni ad un canale. Similmente, le visualizzazioni del canale sono connesse alla reputazione dell’utente, ma in maniera più debole rispetto alle iscrizioni. Il numero di commenti ad un video dipende da quanto il video viene considerato controverso. Da queste osservazioni emerge chiaramente che la circolazione dei video in Youtube non avviene solo per motivi strutturali (accessibilità facilitata, per esempio), ma anche per motivi di relazione sociale, così come accade nei Sns propriamente detti. Al di là dell’uso relazionale di Youtube – che comunque è in grado solo di mappare gli utenti registrati e non gli utenti che fruiscono dei video senza alcuna registrazione – molto interessanti sono le riflessioni relative ai contenuti disponibili. Due sono le posizioni principali sulla tipologia dei contenuti presenti su Youtube: i detrattori sostengono che si trovano video amatoriali di animali domestici presi in situazioni buffe o carine (per lo più gatti), oppure video presi dai media mainstream (televisione, cinema) inseriti dagli utenti senza considerare questioni relative al copyright. I sostenitori invece dichiarano che Youtube è uno spazio in cui possono trovare visibilità contenuti creati dagli utenti (user generated content: Ugc) con caratteristiche di creatività e originalità che è difficile trovare in altri mezzi di comunicazione. Chi ha ragione? È

È possibile dare risposta a questa domanda grazie alla recente ricerca di Burgess e Green (2009) che ha analizzato oltre 4.000 video, raccolti a campione durante il 2007. Il numero di video creati dagli utenti sono poco più della metà (2.177), di cui buona parte sono videoblog (il 40% circa), seguiti da video musicali (15%) e video di riprese dal vivo (concerti, eventi sportivi e clip di vita quotidiana: 13%). Il resto del campione di Ugc sono contenuti informativi (10%) e materiale sceneggiato prodotto con diverse tecniche (8%). I video rimanenti (1.812) provengono da fonti tradizionali e per la precisione programmi d’informazione (30%), materiale sceneggiato (soap, cartoni animati: 21%), contenuti registrati di eventi live (sport, concerti, dibattiti: 13%), materiali prodotti dal marketing (pubblicità, trailer cinematografici: 11%). Da questa rilevazione risulta piuttosto chiaro come quello dei video sugli animali domestici sia più che altro un mito, mentre i video che confliggono con le regole del copyright sono in buona parte rimossi (fanno parte del campione sui video mainstream). Sembrerebbe invece confermata la presenza consistente di video Ugc, anche se la presenza di video originali o creativi è piuttosto contenuta. C’è da ricordare che la ricerca è stata svolta in modalità campionaria sui video di lingua inglese: pertanto non solo potrebbe esserci una distorsione dovuta alla selezione campionaria, ma i risultati potrebbero non essere estensibili ad altre lingue (come lo spagnolo o l’italiano). Fra coloro che hanno caricato video, gli utenti registrati estranei al settore dei media (users) sono responsabili dei tre quinti dei video caricati (61%), a cui fanno seguito – contribuendo per un quinto – piccole imprese e produttori indipendenti (indies: 20%), mentre i media mainstream sono presenti in maniera molto contenuta (8%) così come gli utenti non classificabili (2%). Una buona parte dei video presenti in Youtube sono pertanto Ugc, e di questi un gruppo piuttosto consistente sono videoblog: ovvero video personali, spesso registrati con la webcam del computer, che rappresentano i post di blog che usano clip video come unità minima di contenuto. Per certi versi potremmo considerare i videoblog (detti anche vlog) come mashup nati dalle piattaforme di blogging e dai sistemi di videosharing[45]. Esistono alcune ricerche utili per comprendere l’uso sociale dei vlog, che danno anche informazioni interessanti sulle strategie relazionali che prendono forma in servizi come Youtube.

Una recente ricerca piuttosto articolata, avente lo scopo di studiare le differenze di genere fra vlogger uomini e donne, ha scoperto alcune importanti differenze nell’uso sociale di questa particolare pratica comunicativa (Molyneaux et al., 2008). Gli uomini tendono a postare più spesso delle donne (quasi due volte di più: 58% contro 33%) e, quando i vlogger sono più di uno, nella stragrande maggioranza dei casi il secondo membro è un uomo. La maggior parte dei vlogger sono adulti della fascia 20-50 anni (61%), con un’età media di 23 anni (indifferentemente per uomini o donne), mentre molti di meno sono teenager (36%). Le principali categorie di vlog identificate sono le seguenti: personali (in cui il vlogger parla di sé e del suo mondo), pubblici (dove si parla di notizie, politica o commenti sui fatti del giorno), intrattenimento (dove il vlogger compie attività del mondo dello spettacolo: canto, ballo, sketch comici), Youtube vlog (dove vengono poste domande alla community del sito oppure vi sono risposte ad altri vlogger), infine i vlog tecnologici (dove si discute di tecnologia o si testa un particolare prodotto tecnologico[46]). Dal punto di vista della qualità della ripresa video non ci sono molte differenze fra uomini e donne (anche perché la pratica del vlogging è piuttosto istituzionalizzata), anche se i video delle vlogger hanno le immagini migliori, mentre i vlogger hanno l’audio leggermente migliore. Per quanto riguarda le visualizzazioni, questi prodotti Ugc solo in rarissimi casi ne hanno un numero elevato (il 9% del campione conta più di mille), mentre di solito il numero è basso (cento o meno per il 68% del campione), anche se molto dipende dalla tipologia del blog. In generale gli uomini hanno poco meno di duecento visualizzazioni in media (166), mentre le donne hanno un numero di oltre quaranta volte superiore (6.797). Una spiegazione per questi risultati può essere che le donne, pur postando meno video degli uomini, sono più propense a comunicare e interagire con la comunità dei vlogger, competenza rafforzata dalla caratteristica che le donne hanno le stesse competenze tecniche degli uomini nella produzione del vlog (Molyneaux et al., 2008). Altri studi sull’argomento fanno notare come la pratica del vlogging possa essere considerata uno strumento di presentazione del sé (secondo le linee identificate da Goffman, 1969): molti vlogger usano questo strumento alla stregua di un video diario, spesso radicalizzando la componente narcisistica, inserendosi così nella linea analitica che vuole il blog una

strategia di narrativizzazione del sé, nella fattispecie video (Griffith, Papacharissi, 2010). Nel momento in cui il vlog è uno strumento per raccontare di sé e delle proprie esperienze, emerge con forza la questione della privacy. Come si è già avuto modo di dire, la privacy nei social network diventa un insieme di pratiche sociali di messa in scena (mantenendo il linguaggio teorico di Goffman) e di strategie tecniche di occultamento. Anche per Youtube vale la stessa strategia di desiderio di visibilità unito alle competenze tecniche di controllo dell’accesso ai video personali. Usando la metafora di Gal (2002) che vuole la linea di demarcazione fra pubblico e privato come una distinzione frattale[47], ovvero una distinzione che può essere riprodotta proiettandola ripetutamente in un contesto storico, sociale, culturale limitato oppure in un contesto più ampio, Lange (2008) parla di pubblicamente privato e privatamente pubblico. Pubblicamente privato vuol dire che l’utente che carica il video sulla piattaforma progetta alcuni elementi – le informazioni sulla propria identità, la rilevanza del contenuto, l’accesso tecnico al video – in modo tale che ci siano dei vincoli all’accesso, così che solo un ristretto gruppo selezionato di persone possa accedervi. Di contro, privatamente pubblico sta ad indicare quella strategia in cui la connessione con altre persone è tale da avere un grafo sociale piuttosto esteso, ma viene mantenuto uno strettissimo riserbo sulle informazioni personali che potrebbero rivelare l’identità dell’utente. Al di là delle caratteristiche comunicative sia come social network che come strumento di video blogging, Youtube è ormai diventato un vero e proprio linguaggio video che spesso si mescola con le pratiche produttive tradizionali per dare vita a interessanti ibridi comunicativi. Emblematico da questo punto di vista è il caso Lonelygirl15 (Burgess, Green, 2009, pp. 26-28). Lonelygirl15 è il nickname della vlogger di nome Bree, che tra luglio e settembre del 2006 iniziò una serie di video messaggi attraverso cui raccontava della propria vita di adolescente sospesa tra un rapporto conflittuale con i genitori profondamente religiosi e la relazione perennemente in crisi con il suo ragazzo[48]. Grazie alla rapida circolazione di questi video post, assieme alla celebrità data alla ragazza da testate giornalistiche come «New York Times», «Los Angeles Times», «San Francisco Chronicle», la vlogger raggiunse rapidamente un numero enorme di visualizzazioni, fino a toccare punte di mezzo milione di visite

(con una media di trecentomila visite a video). Progressivamente però nella comunità Youtube cominciò a crescere il sospetto che Bree non fosse una vera blogger, ma fosse un fake[49], poiché la costruzione dei video e il modo in cui le varie clip si rimandavano l’un l’altra ricordavano più la struttura di una soap opera che non il diario video di una adolescente americana inquieta. Sospetto confermato, quando venne rivelato che Lonelygirl15/Bree altro non era che un progetto video dei produttori indipendenti Mesh Flinders e Miles Beckett (con Bree interpretata dall’attrice neozelandese Jessica Rose). Il caso di Lonelygirl15 mostra non solo come del linguaggio del vlogging si stiano impadronendo i media mainstream, ma anche come non sia facile gestire un progetto che non rispetti tutte le regole sociotecniche alla base dell’uso e della fruizione dei media digitali. Dopo Youtube, la seconda piattaforma da prendere in considerazione è sicuramente Twitter, un particolare social media in cui è possibile scambiarsi messaggi non più lunghi di 140 caratteri. Anche per Twitter è possibile elencare tre diverse motivazioni che lo rendono una tecnologia interessante. Così come Youtube ha inaugurato i servizi di videosharing, Twitter è l’archetipo del microblogging, ovvero quei social media che, ispirandosi ai blog, prendono un elemento comunicativo di queste piattaforme e lo ripropongono semplificandolo notevolmente, come la scrittura dei post (Tumblr, Posterous) o la rapidità nei commenti (Twitter – appunto – ma anche Jaiku, Plurk, Identi.ca). Inoltre l’estrema semplicità di Twitter ha facilitato l’integrazione della piattaforma con altre tecnologie radicalizzando la sua caratteristica di condivisione e facendolo così diventare uno strumento per la circolazione di siti, post, commenti, video, foto attraverso la segnalazione di link. In pratica Twitter è divenuto uno strumento di social sharing, ovvero uno strumento per incrementare la circolazione dei contenuti web. Infine Twitter ha dato vita a tutta una serie di applicazioni che hanno lo scopo di estendere (postare foto e video), ottimizzare (gestire diversi profili Twitter), incrementare (visualizzare il flusso dei messaggi, rappresentare il grafo sociale) l’esperienza d’uso di questa piattaforma, con la conseguenza che non solo Twitter è divenuto uno strumento molto apprezzato in ambito di comunicazione professionale (marketing,

relazioni pubbliche, giornalismo), ma ha anche dato vita ad un vero e proprio ecosistema digitale molto complesso e articolato. C’è un ultimo aspetto da considerare: per la sua estrema semplicità d’uso e per le sue caratteristiche di accessibilità con diversi strumenti tecnologici (computer, cellulari) e diverse reti (telefonia mobile, internet), Twitter sembra stia avendo sempre più spesso un ruolo di primo piano in ambito di comunicazione politica (Iannelli, 2010), soprattutto in alcuni casi piuttosto emblematici come le proteste esplose durante le elezioni in Iran del 2009[50] (Web Ecology Project, 2009) o la rivolta dei paesi del Maghreb del 2011 (Ottaway, Hamzawy, 2011), anche se non mancano le voci critiche su questa interpretazione (Morozov, 2011). Per comprendere il ruolo di Twitter, bisogna prendere dimestichezza con le sue pratiche d’uso, che definiscono le caratteristiche sociali e comunicative della piattaforma. Per prima cosa Twitter – a differenza di altri – è un social network asimmetrico, nel senso che A segue B mentre B può non seguire A. Per descrivere questa situazione, si dice che A è il follower di B (ovvero A segue B), mentre B è il following di A (B viene seguito da A). Per quanto riguarda le strategie comunicative, i messaggi in Twitter (detti tweets) possono essere resi visibili a tutti i propri follower, possono essere visibili a tutti ma indirizzati ad uno specifico utente, oppure possono essere visibili solo ad uno specifico utente (messaggio diretto). I messaggi provenienti da un contatto possono essere inoltrati alla propria rete (come nelle email), e sono chiamati retweet, mentre i messaggi che fanno riferimento ad uno stesso argomento (un tema, un evento) possono essere etichettati (tagging) attraverso la pratica dell’hashtag (indicata con il simbolo #). Questo significa che – ad esempio – tutti i tweet relativi ai Mondiali di calcio del 2010 avevano come tag #worldcup oppure #FIFA2010, mentre la sequela di messaggi che hanno cominciato a diffondersi nei primi mesi del 2011 aventi come tag #japan annunciava le catastrofiche conseguenze del terremoto in Giappone dell’11 marzo. Una caratteristica che Twitter condivide con altri social network è il suo duplice uso di strumento per mantenere relazioni sociali e piattaforma per la condivisione delle informazioni. Per quanto riguarda l’uso relazionale, la natura pubblica delle comunicazioni, la brevità dei messaggi e un contesto sociale fortemente interconnesso hanno portato alcuni autori ad utilizzare l’etichetta di flusso

di consapevolezza sociale (social awareness stream) per descrivere l’esperienza relazionale di Twitter (Naaman, Boase, Lai, 2010). Questa strategia può assumere diverse forme come la condivisione di link ritenuti interessanti, l’auto-promozione (ovvero la segnalazione su altri social media di contenuti di cui si è autori), la condivisione di opinioni e lamentele (in qualità di consumatori di prodotti e servizi), la condivisione di pensieri o affermazioni generiche (l’umore del momento, per esempio), messaggi che esprimono stati personali («oggi non voglio andare al lavoro»), la sollecitazione di domande ai propri follower, frasi di presenza sociale («eccomi») e affermazioni aneddotiche su di sé o altri. Tipizzando queste strategie rispetto a due gruppi, gli informatori (informers) che condividono informazioni e gli ego-comunicatori (meformers) che parlano invece di se stessi, la ricerca ha rilevato che i primi hanno un numero maggiore di persone che li seguono, anche se i secondi sono più numerosi come tipologia di utenti (Naaman, Boase, Lai, 2010). Sempre rispetto alle dinamiche di relazione individuale, altri studi si sono interrogati sulle forme di costruzione di influenza sociale attraverso le pratiche poste in essere in Twitter, alla stregua di studi classici come l’analisi del ruolo dell’opinion leader (Katz, Lazarsfeld, 1968) o le ricerche sui soggetti influenti nella diffusione delle tecnologie (Rogers, 2003; Valente, Davis, 1999). Secondo queste ricerche gli influencers su Twitter possono essere definiti da tre indicatori: il numero di follower, il numero di retweet generati, il numero di citazioni di un utente. Analizzando in maniera comparata questi tre indicatori, i ricercatori sono giunti alla conclusione che, per quanto il numero dei follower sia indice di popolarità, non dà alcuna indicazione sul grado di influenza dell’utente, al contrario del numero di citazioni. Questo avviene in quanto l’influenza sociale su Twitter è un processo frutto di sofisticate competenze sociali e uso strategico dei messaggi (nonché scelta accurata del loro contenuto) (Cha et al., 2010). Per quanto riguarda Twitter come news medium, ovvero come strumento per diffondere informazioni, presenta alcune peculiarità che sono attribuibili al suo uso da parte di singoli individui interessati e da parte di media tradizionali che utilizzano questo canale per aumentare il traffico dei propri siti istituzionali. L’indicatore più studiato in questi casi è il cosiddetto trending topic, ovvero la lista delle parole chiave e degli hashtag che raccolgono maggiore

successo tra gli utenti in un certo periodo di tempo[51]. Attraverso uno studio comparato dei trending topic, Google Trends (l’andamento delle ricerche di parole su Google rispetto al tempo) e i titoli del sito della Cnn, è stato possibile identificare alcuni dei pattern alla base dell’uso di Twitter come canale di notizie (Kwak et al., 2010). Twitter si presenta come uno strumento per condividere le notizie ultim’ora (breaking news), che si possono presentare nella forma di un tweet isolato – se non vengono percepite come importanti o emotivamente coinvolgenti – oppure possono scatenare una pletora di reazioni. Il ciclo di vita di una notizia che fa parte dei trending topic è di circa una settimana, ma la curva della popolarità dipende molto dalla persistenza della notizia sui titoli della stampa[52], in quanto su Twitter si tende a parlare delle notizie al centro dell’attenzione dei media. Paragonando la diffusione delle notizie su Twitter rispetto ad altri social media che non usano il passaparola fra utenti (ovvero i retweet) ma la votazione da parte della comunità (tipico di una piattaforma come Digg), si nota che, mentre il successo di una notizia su questi social media cresce lentamente man mano che viene votata dalla community, ma una volta raggiunta la top ten della classifica tende rapidamente ad essere sostituita da altre notizie, su Twitter invece la diffusione è più lenta, ma la persistenza è più stabile perché la diffusione non decresce all’invecchiare della notizia (Lerman, Ghosh, 2010). Recenti ricerche sulle caratteristiche dei contenuti delle notizie che circolano su Twitter hanno mostrato alcune proprietà molto interessanti della diffusione delle informazioni in questo particolare social network (Bennato, Benothman, Panconesi, 2010). Per prima cosa è necessario distinguere due tipologie di notizie: le notizie esogene, ovvero notizie che vengono veicolate dai mass media e riproposte in Twitter, e notizie endogene, ovvero notizie che nascono dentro Twitter e in alcuni casi passano nei mass media. Le notizie esogene (come la crisi finanziaria greca del 2010 o l’eruzione del vulcano islandese Eyjaallajökull e il conseguente tilt dei voli aerei europei) hanno la caratteristica della forte emotività: i canali media tradizionali (comprese le testate giornalistiche online) comunicano una notizia e questa viene rapidamente ripresa e fatta circolare dagli utenti di Twitter. In questo caso ogni utente si comporta come una fonte isolata, poiché il contributo dei retweet alla circolazione della notizia è molto basso. Le notizie endogene (come il finale della serie televisiva Lost o i commenti all’assordante frastuono delle vuvuzelas

durante i Campionati mondiali di calcio del 2010) hanno la caratteristica di crescere più lentamente fra gli utenti Twitter, ma grazie all’importante contributo dei retweet montano e vengono diffuse attraverso la rete dei follower. Volendo applicare un’interpretazione sociologica a tale comportamento, si potrebbe ipotizzare che, mentre le notizie esogene hanno dei meccanismi di diffusione che ricordano la teoria dell’agenda setting (l’approccio secondo cui l’agenda del pubblico viene influenzata dall’agenda dei media), le notizie endogene hanno meccanismi di circolazione che ricordano le interpretazioni rituali della comunicazione in cui è centrale la dimensione dialogica. Si arriverebbe così all’apparente paradosso che, pur essendo un social network, Twitter considerato come news medium si comporta a volte come un medium broadcast, a volte come un social medium (Bennato, Benothman, Panconesi, 2010). Questi risultati sono stati recentemente confermati da una ricerca avente lo scopo di studiare i modelli di consumo delle informazioni su Twitter (Wu et al., 2011). Questa ricerca – fortemente ispirata a teorie classiche della sociologia della comunicazione come il modello di Lasswell (1948) e il flusso di comunicazione a due fasi (Katz, Lazarsfeld, 1968) – dopo aver identificato cinque macrocategorie di utenti di Twitter (media, celebrità, organizzazioni, blogger, persone comuni) nota che il meccanismo del following ha forti caratteristiche di omofilia[53]: le celebrità seguono le celebrità, i blogger seguono i blogger e così via. Inoltre circa la metà delle informazioni prodotte dai media arriva agli utenti attraverso degli opinion leader che fungono da intermediari (secondo quanto previsto dal flusso di comunicazione a due fasi) e che spesso sono persone comuni maggiormente connesse e più esposte ai media. Per quanto riguarda i link che vengono condivisi, quelli veicolati dai media tendono ad avere un ciclo di vita piuttosto breve diversamente dai link veicolati dai blogger, inoltre i link più persistenti hanno a che fare con musica e video e vengono continuamente riscoperti dagli utenti Twitter. Da quanto fin qui detto è innegabile che Twitter, nella sua estrema semplicità, sia uno spazio profondamente sociale. Da un lato, grazie alla sua enfasi sulla connettività individuale e sulla voglia di mantenere relazioni sociali, è un ottimo esempio di cultura fàtica, ovvero quella forma culturale tipica dei social network in cui la strategia comunicativa principale consiste nell’uso di messaggi privi di vero contenuto

informativo ma che servono per attivare, prolungare, creare o ristabilire la comunicazione (Miller, V., 2008). Dall’altro, grazie alla sovrapposizione fra una componente legata alla relazione sociale e una legata alla condivisione delle informazioni, rilegge in chiave nuova e interessante modelli ormai tipici dei media, come la compenetrazione fra comunicazione di massa e comunicazione interpersonale. La terza piattaforma che prenderemo in considerazione per rendere conto della complessità dell’universo dei social media è Friendfeed. Friendfeed è una tecnologia diversa dagli altri strumenti finora descritti. Infatti l’idea alla base di questa piattaforma è che le diverse identità digitali che l’utente del web partecipativo ha sparso fra diversi social network vengono qui aggregate, così che si possano seguire le diverse tracce digitali che fanno riferimento ad una persona in un unico spazio. Ovvero, se si possiede un account Facebook, Twitter, Youtube, Flickr o altro, è possibile ripubblicare ciò che viene inserito in questi social network, in modo che la propria rete sociale sia sempre aggiornata sulle attività svolte all’interno di queste piattaforme. Per queste sue caratteristiche Friendfeed è un aggregatore che consente di commentare le attività senza necessariamente collegarsi ad altri social network. È uno strumento potentemente conversazionale (Celli et al., 2010), in quanto è possibile costruire uno scambio di opinioni e punti di vista attraverso il classico meccanismo di concatenamento dei commenti, che possono essere rilanciati su altri social network (Facebook e Twitter in primis). Dal punto di vista generale, Friendfeed è un social network parzialmente simmetrico, grazie alla proprietà per cui le persone possono essere follower l’una dell’altra, ma è anche possibile vedere i commenti fatti da persone di cui non si è follower (Celli et al., 2010; Gupta et al., 2009). Per quanto riguarda i social media più utilizzati in Friendfeed, ai primi posti ci sono sicuramente i blog, seguiti da Twitter, Facebook e Flickr, con una consistente presenza di Delicious[54], Youtube, Google Reader[55] e Digg (Gupta et al., 2009). Più dei due terzi degli utenti usano due o più piattaforme, il che giustifica l’uso di Friendfeed, anche perché è possibile osservare una forte produzione di contenuti (Celli et al., 2010). I contenuti che circolano con maggiore insistenza su Friendfeed sono i post dei blog e i messaggi di Twitter, assieme alle notizie prese da Google Reader e Digg, mentre, pur avendo molti iscritti, Youtube, Flickr e Last.fm[56] non producono una quantità elevata di contenuti. C’è una

forte presenza di italiani su Friendfeed, i quali rivolgono la propria comunicazione verso un’audience locale o nazionale (Celli et al., 2010). Analizzando i modelli d’uso della piattaforma, è possibile identificare due categorie di utenti. Gli utenti deboli, che postano un paio di contenuti la settimana e commentano molto poco, e gli utenti forti, che invece scrivono almeno dieci post al giorno e con una grande quantità di commenti sia propri che ricevuti (Celli et al., 2010). Data la sua forte caratterizzazione come spazio conversazionale, nonché la forte integrazione con piattaforme come Twitter, anche Friendfeed è uno strumento particolarmente interessante per studiare le caratteristiche della diffusione delle notizie e le relative reazioni della community. Uno studio che ha preso in considerazione le dinamiche di propagazione della notizia relativa alla morte di Mike Bongiorno, avvenuta l’8 settembre del 2009, ha notato alcune caratteristiche che accomunano Friendfeed ad altri social network con caratteristiche da news media (Magnani et al., 2010). Le notizie ultim’ora (breaking news) si propagano attraverso due tipi di messaggi: quelli che danno la notizia e quelli che sviluppano temi e argomenti connessi alla notizia stessa. Il primo tipo di messaggi ha un picco nel momento in cui viene data la notizia per poi diminuire progressivamente, mentre i secondi hanno una crescita più bassa ma restano attivi per un tempo maggiore, contribuendo a mantenere la notizia attiva nel social network. Ad ogni modo, entrambe le tipologie di messaggi hanno un numero molto alto di commenti e reazioni. I messaggi che vengono inseriti in maniera automatica (ovvero che non sono condivisi da utenti «reali») sono in grado di raggiungere un gran numero di utenti, anche se comunque sembra che questi utenti avessero già ricevuto la notizia da parte di utenti veri della propria rete di follower. Da questa analisi risulta come la diffusione della notizia viene attivata dal primo utente che posta l’informazione in Friendfeed, il quale riceve la massima attenzione possibile da parte del network, generando un gran numero di commenti (nel caso di Mike Bongiorno il 50% dei commenti rilevati erano stati generati da soli sette messaggi, mentre i rimanenti 364 non hanno generato nessun commento). La notizia poi si muove attraverso altri utenti che hanno un ruolo attivo nella propagazione della notizia e che sono per la maggior parte direttamente connessi a chi ha attivato la conversazione, ovvero, nella metafora usata dallo studio, a chi ha inoculato l’informazione (Magnani et al., 2010).

Youtube, Twitter e Friendfeed non esauriscono le famiglie di social media, ma pur nella loro articolata eterogeneità mostrano alcuni dei dettami tipici di quello che possiamo considerare essere il Web 2.0, ovvero condivisione, connessione e relazione sociale.

III. Valori. La dimensione etica della network society

Obiettivo di questo capitolo è quello di argomentare a sostegno di una maggiore attenzione da parte delle scienze sociali al ruolo giocato dai valori rispetto al rapporto fra tecnologia e società, anche quando il termine tecnologia viene declinato rispetto al tema del digitale. A nostro avviso l’onnipresenza della tecnologia in qualsiasi aspetto della vita quotidiana ha come conseguenza quella di interagire con la delicata sfera dei valori individuali e con il modo in cui la società si relaziona ad essi. Dopo una rapida carrellata delle principali argomentazioni a difesa di una visione della tecnologia che coinvolga anche la sfera dei valori, si cercherà di sostenere la necessità di una prospettiva di analisi che chiameremo tecnoetica, termine coniato in assonanza con quello di bioetica che sta lentamente diventando oggetto di interesse di diversi studiosi (Esquirol, 2003; Galvan, 2001, 2004, 2005; Luppicini, Adell, 2009), e che si presenta con tre specifiche connotazioni: l’idea che la tecnologia sia una forma di potere, che non sia una forza neutrale ma porti con sé una specifica visione del mondo e che abbia un profondissimo impatto antropologico (Bennato, 2010, pp. 581-583). La bioetica è una disciplina nata come risposta ai pesanti interrogativi morali posti dal progredire della scienza medica. Interrogativi, questi, radicalizzati dalla sempre più consistente presenza della tecnologia nella medicina che ha portato ad una nuova definizione di concetti cardine come vita, morte, cura, riproduzione e così via. Critica della scienza e della tecnologia, sviluppo del sapere in un’ottica democratica, definizione di nuove libertà e di nuovi diritti: sono questi i principali valori analizzati e affrontati dalla bioetica negli ultimi anni e che hanno portato il termine alla conoscenza di un pubblico sempre più vasto (Ossicini, Mancini, 1999). Similmente in una società sempre più permeata di tecnologia, in cui dimensioni propriamente umane come identità, relazionalità, lavoro,

politica sono sempre più dipendenti dalla tecnologia e dalle sue trasformazioni, è inevitabile che sorga un modo diverso di problematizzare la tecnologia che prenda in considerazione anche il ruolo dei valori. In questo senso la tecnoetica si presenta come un settore interdisciplinare in cui, definiti gli orizzonti del rapporto tecnologia/società, si pone il problema dei valori o – meglio – di come i valori vengano a essere rielaborati in una situazione che potremmo definire di rivoluzione tecnologica permanente (Beckwith, 1989). Uno degli aspetti che cercheremo di sostenere è che la tecnoetica potrebbe beneficiare delle idee sviluppate nella ricerca e nella riflessione teorica della sociologia della scienza e della tecnologia (Sts: Science and Technology Studies). Questo per due ordini di motivi. Da una parte perché molto spesso non si può analizzare la portata trasformativa della tecnologia sui valori se non si prende in considerazione l’orizzonte sociale all’interno del quale la tecnologia stessa viene ad essere progettata, prodotta, commercializzata, venduta e usata. Dall’altra perché la riflessione sociologica sulla tecnologia si è costantemente interrogata sul rapporto tra valori e tecnologia, ben prima che negli Sts venisse formalizzata la nascita di un’area di ricerca specificatamente orientata allo studio del ruolo sociale della tecnologia (Woolgar, 1991). La considerazione che ci porta all’adozione di un neologismo è che la tecnologia non è più un semplice artefatto che l’uomo usa rispetto a fini determinati, ma essa è ormai diventata una nuova dimensione dell’uomo inteso come zoon politikon. La necessità di una riflessione sistematica sul rapporto fra valori e tecnologia si impone nel momento in cui emerge la consapevolezza che la tecnologia non può più essere vista come un oggetto neutrale, ma porta con sé tutta una serie di valori, di idee, di visioni del mondo con i quali non si può non fare i conti. Inoltre, nel momento in cui la tecnologia diventa veicolo di valori, essa inevitabilmente diventa anche strumento politico nel senso che rappresenta la messa in opera di un preciso progetto politico che veicola valori in maniera più o meno intenzionale. «Scienza è potere» gridavano alcuni slogan del 1968. Ma se scienza è potere, tecnologia è potenza.

1. La tecnologia e il problema dei valori

L’idea che la tecnologia abbia un’influenza diretta sui valori presenti in un determinato contesto sociale[57] può essere argomentata seguendo due parti distinte del ragionamento: una destruens e una costruens. Per come intendiamo la pars destruens, essa ci può aiutare a svelare per quale motivo la tecnologia possa sollevare problemi di tipo etico. Sarà quindi utile descrivere l’orizzonte filosofico rispetto al quale considerare la tecnologia contemporanea come fonte di problemi etici e filosofici. Invece, per quanto concerne la pars costruens, la nostra idea è quella di vedere quali sono gli elementi da considerare nel rapporto tra etica e tecnologia traendo spunto dalle riflessioni che derivano da studi e ricerche afferenti alla sociologia della tecnologia, ma non solo. In che termini la tecnologia contemporanea solleva problemi etici? Una risposta a questa domanda è stata data in forme diverse fin dal primo apparire della tecnologia come nuova forma di potere all’interno della società industriale. Basti pensare alle riflessioni di Martin Heidegger su tecnica e metafisica (1953) o di Arnold Gehlen sull’antropologia della tecnica (2003). Bisogna però aspettare gli anni ’80 perché le questioni filosofiche relative alla tecnologia vengano sistematizzate da un saggio di Hans Jonas (1985, trad. it. 1997). Jonas (1997) sostiene che il motivo principale per cui la tecnica moderna deve essere sottoposta alla riflessione etica è il suo essere una forma di potere umano. Inoltre la tecnica moderna rappresenta una rottura con la tecnica delle società preindustriali per almeno cinque motivi che contribuiscono a definire anche il portato etico di questa nuova fase della tecnologia. In primo luogo l’idea che la tecnica sia ambivalente negli effetti. Questo vuol dire che la tecnica, nel momento in cui entra a far parte delle dinamiche sociali, non necessariamente porta con sé conseguenze positive. Questa idea è stata ben espressa da Melvin Kranzberg (1986), storico della scienza che ha voluto formalizzare l’ambiguità degli effetti della tecnologia con la prima delle cosiddette leggi di Kranzberg: «La tecnologia non è né buona, né cattiva, né neutrale». L’idea alla base di questa riflessione è per lo più una critica all’ottimismo tecnocratico: non è detto che la tecnologia contribuisca alla soluzione di problemi sociali senza avere in cambio un costo umano non sempre identificabile. La seconda motivazione che porta a riflettere sulla straordinarietà della tecnica contemporanea è la cosiddetta inevitabilità dell’applicazione. Con

questo termine si vuole indicare che la tecnologia non consente la non azione, ovvero lo sviluppo di una tecnologia porta con sé inevitabilmente la sua applicazione con le relative conseguenze umane e sociali. Il terzo motivo è rappresentato dalle proporzioni globali degli effetti della tecnica nello spazio e nel tempo. Seguendo questa argomentazione possiamo sostenere che la tecnologia, pur essendo sviluppata e utilizzata in un preciso contesto spaziale e temporale, è in grado di trascendere tali limiti esercitando la propria influenza su una scala globale sia per quanto riguarda lo spazio che per quanto riguarda il tempo. Classico l’esempio del riscaldamento globale: esso non è altro che l’effetto dell’industrializzazione sull’atmosfera e questo fenomeno rappresenta un problema anche per quei posti che non sono interessati da forme compiute della rivoluzione industriale. Il quarto motivo è la rottura dell’antropocentrismo. I tradizionali sistemi etici mettevano l’uomo al centro dell’universo, ma la tecnologia con la sua capacità di trascendere il tempo e lo spazio necessita un ripensamento di questi valori. In sintesi, così come l’uomo grazie alle tecnologie viene ad essere dotato di un eccesso di potere, allo stesso modo questo eccesso di potere porta con sé l’inserimento nell’orizzonte etico di altri soggetti non necessariamente umani. L’uomo diventa così responsabile anche della vita sulla Terra, poiché la Terra non ha più gli strumenti per ammortizzare l’effetto del progresso umano[58]. Infine, l’ultimo elemento che permette di considerare la tecnica contemporanea come dotata di caratteristiche nuove è l’emergere del problema metafisico. La potenza della tecnologia rappresenta una minaccia per la stessa sopravvivenza dell’uomo sulla Terra. Per questo motivo diventa necessario interrogarsi sulla necessità dell’umanità, ovvero su quali siano le condizioni da soddisfare per mantenere la vita dell’uomo sulla Terra nel momento in cui la tecnologia aumenta il proprio potere. Jonas usa l’argomento per difendere la necessità di un ampliamento dell’orizzonte etico, ma argomentazioni simili sono riscontrabili in atteggiamenti critici nei confronti della tecnologia. Un esempio fra tutti è quello di Bill Joy, cofondatore della Sun Microsistem. Secondo Joy (2000) il futuro potrebbe non avere bisogno di noi a causa dell’effetto congiunto sull’ecosistema di tecnologie come la robotica, l’ingegneria genetica e le nanotecnologie. Ciò che rende queste tecnologie ancora più temibili delle tecnologie tradizionali (come il nucleare o la chimica) sono

due caratteristiche molto particolari: da un lato la possibilità di fare ricerca in questi settori a partire da finanziamenti relativamente bassi (a differenza – ad esempio – dell’energia atomica che richiese la mobilitazione di un’intera società, quella statunitense, per produrre la bomba H) che rendono tali ricerche alla portata di tutti, dall’altro la caratteristica che queste tecnologie hanno di autoreplicarsi e – qualora sfuggissero al controllo – di poter intervenire sull’ecosistema globale. Ovviamente l’argomento di Joy è radicalmente pessimista, ma è interessante il modo con cui rilegge la paura di una tecnologia fuori controllo. Siamo giunti a questo punto alla pars costruens: quali sono gli elementi da considerare nel rapporto fra etica e tecnologia? Cosa vuol dire analizzare il rapporto fra etica e tecnologia? Il concetto di etica porta con sé un’inevitabile riflessione sulla società e sul tipo di valori in essa circolanti, in quanto non avrebbe senso parlare di valori se non si fosse in grado di collocarli secondo precise coordinate geografiche e culturali, ovvero in relazione al sistema sociale all’interno del quale sono inseriti. Anche in questo caso è utile l’analogia con la bioetica. Esistono molte definizioni di bioetica, ma quelle più recenti e interessanti si concentrano sul carattere pluralista con cui è necessario concepire i valori (ad esempio Engelhardt, 1991). Tale affermazione avrebbe poco senso se non venisse contestualizzata rispetto alla condizione sociale contemporanea. Inoltre la tecnologia è intrisa di valori in almeno tre diverse accezioni: la tecnologia è frutto di valori, la tecnologia è veicolo di valori, la tecnologia è una forza in grado di modificare i valori. Per poter passare ad una analisi dettagliata di questo punto è necessario considerare in che termini stiamo parlando di valori. Per comodità di analisi considereremo i valori come degli oggetti culturali (Griswold, 1997), ovvero significati condivisi relativi alla sfera morale incorporati in una forma e frutto di uno specifico sistema sociale e culturale[59]. Declinati in questi termini, i valori che vengono a interfacciarsi con la tecnologia possono essere molteplici e relativi a diversi aspetti. La molteplicità di valori in gioco, nel momento in cui la tecnologia viene prodotta, diffusa e usata, porta con sé il concetto di scelta e la scelta fra valori diversi si traduce in un atto essenzialmente politico. Da quanto fin qui detto, parlare di valori o parlare di politiche della tecnologia tutto

sommato possono essere considerati discorsi fondamentalmente sovrapponibili. Dicevamo: la tecnologia è frutto di valori. Nel momento in cui viene prodotta all’interno di uno specifico sistema industriale, la tecnologia si presenta come un insieme di possibilità diverse che può assumere l’artefatto. Spesso i gruppi e gli individui che contribuiscono alla progettazione della tecnologia fanno parte della classe sociale che condivide simboli e valori dominanti di una società (Staudenmayer, 1989). Diversi studi sulla tecnologia (fra gli altri: Bijker, 1998; Feenberg, 2002) fanno notare come siano molteplici le strade che portano allo sviluppo definitivo di un qualsiasi artefatto, e spesso imboccare questa o quella strada è frutto della negoziazione (sociale ma anche politica). Molteplici i casi che potremmo citare a sostegno di questa idea. Il passaggio dai mainframe dell’Ibm ai personal computer dell’Apple non è dovuto ad un razionale processo di progressiva miniaturizzazione della tecnologia, come spesso narrano i vari libri di storia dell’informatica. Il personal computer è figlio dell’ideologia libertaria che stava prendendo piede nei campus californiani situati in quella zona che sarebbe diventata la Silicon Valley (Bennato, 2002a). Internet non è un progetto di ricerca che aveva lo scopo di creare una rete globale per la comunicazione. Internet è invece il risultato delle idee visionarie di alcuni teorici che, sfruttando l’ideologia della deterrenza tipica della guerra fredda, si garantirono mezzi e strumenti per dare vita a un nuovo modo di usare i computer (Abbate, 1999; Hafner, Lyon, 1998). Come si vede, importante è il ruolo dell’ideologia in ognuno di questi esempi e questo ci conduce ad una ulteriore riflessione. Se l’ipotesi alla base del determinismo tecnologico – la tecnologia è indipendente dalla società e la modifica – fosse vera, non ci sarebbe bisogno di alcun discorso per far sì che la tecnologia si sviluppi motu proprio. Invece la tecnologia ha un bisogno profondo di una ideologia per legittimare se stessa e poter entrare a far parte della società (Pfaffenberger, 1992). Ma la tecnologia è anche veicolo di valori. Nel suo essere frutto di una specifica struttura economica e sociale, la tecnologia porta con sé un modo altrettanto specifico di concepire i rapporti sociali e in quanto tale essa veicola dei valori in maniera più o meno intenzionale. Diverse sono le argomentazioni che sostengono questo punto di vista, come ad esempio quella che distingue tra

tecnologie autoritarie e democratiche (Innis, 2001; Mumford, 1969). Ma il resoconto classico sotto questo aspetto è il saggio di Langdon Winner intitolato provocatoriamente Do artifacts have politics? (1980) sul caso dei cavalcavia che collegano Long Island con la spiaggia di Jones Beach, che abbiamo già citato nel primo paragrafo del secondo capitolo. L’idea che la tecnologia veicoli valori è un argomento che è stato sviluppato anche dai teorici dei media. In maniera particolare possiamo affermare che questa idea sia contenuta in nuce nella famosa affermazione di Marshall McLuhan «il medium è il messaggio» (McLuhan, 1990). L’interpretazione tradizionale di questo concetto recita che non è tanto il contenuto dei media a veicolare un messaggio, ma anche il medium stesso è in grado di portare con sé un significato più o meno recondito. Chi meglio ha espresso questa idea – la tecnologia della comunicazione veicola valori – è senza dubbio Raymond Williams[60]. Nel suo famoso saggio sulla televisione (Williams, 2000) fa notare che la vera novità della televisione è il broadcasting, ovvero il tipo di comunicazione da uno a molti che rese la televisione strumento di controllo sociale – nelle dittature totalitarie – e mezzo di approvvigionamento sociale – nelle democrazie liberali. Infatti non è un caso che i primi esperimenti di broadcast nazionale vennero compiuti durante le Olimpiadi di Berlino del 1936, organizzate dall’allora in ascesa Terzo Reich di Adolf Hitler. Questa idea è stata sviluppata dalle studiose femministe che hanno cercato di vedere nella tecnologia una specie di cavallo di Troia per la diffusione di valori maschili, come nel caso degli studi sulle tecnologie domestiche (Wajcman, 1991). Secondo questa impostazione, le tecnologie domestiche rivelano che sono prodotte da uomini ma sono destinate a donne, e così facendo l’industria degli elettrodomestici non fa altro che riprodurre la subordinazione femminile nella sfera domestica. Infatti la progettazione degli elettrodomestici rivela che essi sono pensati per essere utilizzati da una sola persona, in case unifamiliari, da persone che si dedicano sistematicamente a questa attività. Inoltre, le tecnologie domestiche di più recente introduzione non hanno lo scopo di far risparmiare tempo nei lavori di casa alle donne, ma vengono usate per eliminare quelle attività a sostegno della donna generalmente assegnate agli uomini. Come la lavastoviglie, che solleva l’uomo dal dare il proprio contributo nel lavare i piatti e lascia alla donna il compito di utilizzarla. Infine la tecnologia modifica i valori.

Quando affermiamo che la tecnologia modifica i valori intendiamo che l’uso sociale della tecnologia, seguendo strategie di fruizione non sempre prevedibili, può essere un ottimo strumento per far sì che il modo tradizionale in cui vengono percepiti alcuni valori possa cambiare o modificarsi. In senso stretto possiamo dire che, nel momento in cui la tecnologia è soggetta a un processo di appropriazione da parte dell’utente (MacKay, Gillespie, 1992), assistiamo a un fenomeno di ridefinizione della sfera valoriale a cui essa fa riferimento. Prendiamo ad esempio il caso della storia dell’aviazione (Corn, 1983). Tradizionalmente l’aviazione era legata ad una serie di miti tipici della sfera della mascolinità, come energia, coraggio, freddezza e destrezza fisica. Dopo le due guerre mondiali, con il trasformarsi in un’attività sempre più sicura e sempre più quotidiana, l’aviazione civile divenne appetibile per quelle donne che volevano allontanarsi dal ruolo tradizionale che le vedeva legate alla famiglia e alla sfera domestica. Un altro esempio più recente che coinvolge le tecnologie dell’informazione è il caso dell’etica hacker (Himanen, 2003). Uno degli ambiti sociali all’interno dei quali il computer ha trovato la sua legittimazione è senza dubbio quello del lavoro. Legandosi all’etica del lavoro tipica delle società capitaliste (che Max Weber aveva identificato nell’etica protestante), il computer non ha fatto altro che riprodurre le ideologie sociali alla base della società dell’informazione. Ma esiste un altro modo di intendere il rapporto del soggetto con il lavoro e il computer ed è rappresentato dall’etica hacker. Questa nuova concezione del lavoro rigetta i valori tipici dell’etica capitalista e li sostituisce con altri: passione, libertà, valore sociale, apertura, netica (ovvero attività e responsabilità) e infine creatività. Chi porta avanti questo sistema valoriale è la cultura hacker, ovvero quella cultura il cui scopo è la libera appropriazione della tecnologia guidata dall’idea della libera circolazione delle informazioni. Questa cultura esprime i propri valori non solo mediante un modo diverso di intendere la tecnologia, ma anche attraverso una specifica tecnologia, ovvero Linux. Linux non è altro che un sistema operativo – concorrente rispetto ad altri sistemi operativi commerciali – nato dal lavoro gratuito e collettivo di tutti coloro che, a diverso titolo, possono essere considerati come facenti parte della comunità hacker. Il progetto Linux è considerato il capofila delle tecnologie open source,

ovvero quelle tecnologie che fanno propri i valori espressi dall’etica hacker dando vita a diverse tipologie di prodotti[61]. Finora abbiamo affrontato il tema del rapporto fra tecnologie e valori, sia inquadrando in senso filosofico l’etica della tecnologia, sia descrivendo in che modo le tecnologie sono interconnesse con il tema dei valori. È arrivato il momento di introdurre la tecnoetica.

2. L’emergere della tecnoetica: Simputer e Miss Bimbo Alla luce di quanto fin qui sostenuto, possiamo affermare che intendiamo per tecnoetica lo studio delle relazioni che si instaurano fra tecnologia e società con particolare attenzione alla sfera dei valori, concepiti all’interno di un’ottica pluralista e liberale. Non è una posizione particolarmente innovativa, in quanto in realtà è un programma già presente in diversi ambiti disciplinari. Ma è questo il punto che si vuole affrontare. Essendo relegato in diversi ambiti disciplinari è difficile che un programma come quello della tecnoetica possa avvantaggiarsi del fatto che studiosi provenienti da diverse discipline affrontino l’argomento condividendo alcuni assunti su tecnologia e società. Il nostro scopo è quello di introdurre l’area problematica della tecnoetica cercando di vedere quali siano gli ambiti disciplinari che oggi si stanno sforzando di dare fisionomia a questo settore di studio e in che modo possano beneficiare dell’apporto delle scienze sociali. Chi ha sollevato in tempi recenti in maniera sistematica questioni relative al rapporto fra tecnologia ed etica è stata senza dubbio l’etica del computer (computer ethic), ovvero quella parte dell’etica che si occupa dei problemi sollevati dalle tecnologie informatiche. Secondo alcuni (Bynum, 2001) le riflessioni relative all’etica del computer possono essere identificate nei lavori di Norbert Wiener (1966) e Joseph Weizenbaum (1987). Ma la data di nascita ufficiale di questa nuova area dell’etica (o delle scienze sociali, come avremo modo di illustrare) è il 1985, anno in cui viene pubblicato l’articolo What is computer ethics? di James Moor. Moor definisce l’etica del computer come l’analisi della natura e dell’impatto sociale del computer e la formulazione e giustificazione delle politiche per un suo uso etico. Come si può notare dalla definizione,

l’etica del computer si connota come una specifica forma di scienza sociale che presta particolare attenzione all’aspetto politico. Da un punto di vista pratico Moor afferma che spesso il vuoto politico (political vacuum) che si crea intorno al computer deve essere risolto tramite la definizione di opportune strategie che prendano in considerazione le problematiche etiche da esso sollevate. Seguendo questa impostazione, una delle caratteristiche che rendono il computer una tecnologia rivoluzionaria è la sua particolare malleabilità logica (logical malleability), che lo porta a modificare profondamente le caratteristiche dei processi all’interno dei quali viene usato. Questa peculiarità del computer porta Moor a riflettere su quale sarà il destino della rivoluzione informatica e – in analogia con quanto accaduto con la rivoluzione industriale – a ipotizzare che il computer arriverà a integrarsi in molti aspetti della nostra vita quotidiana seguendo fondamentalmente due fasi distinte. Una fase introduttiva (introduction stage), durante la quale verranno perfezionate le caratteristiche tecnologiche del computer, e una fase di assorbimento (permeation stage), in cui il computer diventerà parte integrante della società[62]. E sarà proprio durante questa seconda fase che il computer solleverà i principali problemi etici, anche se questi problemi non saranno legati solo al vuoto politico ma anche al cosiddetto fattore di invisibilità (invisibility factor). Con questo concetto si vuole indicare che il computer compie una serie di operazioni al di fuori del controllo dell’utente umano poiché sottovalutate, troppo piccole, eccessivamente legate alla routine e così via. Il vuoto politico creato dal fattore di invisibilità può dare origine a problemi molto importanti come l’abuso invisibile (per esempio: la sorveglianza[63] e le truffe informatiche), i valori invisibili (per esempio: l’accessibilità[64]), l’invisibilità dei calcoli complessi (per esempio: le decisioni militari). Fin qui le principali argomentazioni a sostegno di un’etica che si occupi specificamente del computer. Come è facile intuire, molte sono state le reazioni positive alla nascita di questo campo di studi, tanto che adesso questo settore ha i suoi convegni annuali (Ethicomp, Cepe), le sue riviste («Ethics and Information Technology») e i suoi centri di studio e ricerca (Research Center on Computing and Society – Connecticut) (Bynum, 2001). L’etica del computer oggi è stata ampliata nei suoi temi e nelle sue specializzazioni e si insiste sempre di più per una apertura multidisciplinare. Non solo, secondo questa argomentazione non è solo necessario rendere l’etica del computer multidisciplinare, ma

bisogna anche distinguere tre diversi livelli di analisi. Il primo è il livello di svelamento (disclosure level) in cui si decostruiscono le dimensioni morali della tecnologia informatica, il secondo è il livello teoretico (theoretical level) in cui si mettono a punto le teorie morali a propria disposizione, il terzo è il livello applicativo (application level) in cui si passa allo studio di casi empirici concreti (Brey, 2000). L’esigenza di un’etica del computer o, più concretamente, di una serie di regole deontologiche (ma non solo) da usare come orientamento per le professioni legate alla tecnologia informatica si è fatta sentire molto presto. Basti pensare all’articolo di Richard Mason del 1986 in cui vengono delineati i principali problemi etici che avrebbero interessato il professionista informatico: la privacy, l’accuratezza nell’uso delle informazioni (accuracy), la proprietà delle informazioni (property), l’accessibilità delle informazioni (accessibility) (Mason, 1986). La cosa interessante è che questo saggio non è apparso su una rivista di filosofia, ma su una rivista dedicata ai professionisti della gestione di sistemi. Quello delle regole deontologiche alla base delle professioni legate alla tecnologia – designer, sistemisti, progettisti, ingegneri, in una parola tecnologi – è un tema piuttosto interessante destinato a crescere di importanza a mano a mano che si farà sentire in maniera sempre più forte l’influenza dei tecnici nella progettazione di relazioni sociali tecnologicamente mediate. Anche in questo caso è auspicabile un coinvolgimento professionale da parte delle scienze sociali per almeno tre motivi. In primo luogo perché le scienze sociali – nella loro variante della sociologia della scienza – si sono già concentrate sullo studio dell’ethos scientifico (Merton, 1981) e questo tipo di contributo potrebbe essere interessante per delineare valori e ideologie sottese all’attività del tecnologo. In secondo luogo perché nella sociologia della tecnologia si fa avanti con sempre più forza l’idea che la figura professionale dell’ingegnere usi in maniera inconsapevole competenze tipiche del sociologo. Ad esempio usa abilità di negoziatore nel momento in cui ha la necessità di creare una rete di interessi per il sostegno di una specifica tecnologia o innovazione (Law, 1987), oppure usa le sue conoscenze sulla società nel momento in cui viene chiamato nella progettazione di tecnologie alla stregua di un ingegnere-sociologo (Callon, 1987). Secondo alcuni, tale è la

responsabilità sociale dell’ingegnere nel momento in cui progetta tecnologie, che bisognerebbe immaginare una forma di giuramento di Ippocrate attraverso cui fissare i valori guida da usare nel produrre tecnologia (Pacey, 1986). C’è chi ha spinto oltre questa argomentazione parlando di responsabilità dei tecnologi verso l’umanità (Bunge, 1977). Secondo questa analisi i tecnologi (compresi manager e politici) assumono decisioni di tipo morale quando progettano una tecnologia: il tipo di progetto che essi sviluppano dipende dal modo in cui valutano le aspettative dell’utente, consumatore, cittadino e così via[65]. Tra l’altro la riflessione sul portato etico delle scelte tecniche sta cominciando a trovare ospitalità anche su riviste professionali non dedicate a temi filosofici (ad esempio: Brignell, 1996). Un terzo motivo a sostegno di un contributo delle scienze sociali alle competenze dei tecnologi è rappresentato dalla molteplicità di approcci sviluppati nelle scienze sociali per cercare di affrontare l’interpretazione del rapporto tra uomo, tecnologia e società in un modo sempre più articolato e che renda giustizia alla numerosità delle variabili in gioco. Tra le altre: ergonomia, design, semiotica degli oggetti, Human Computer Interaction. Per fare un esempio concreto di come la prospettiva tecnoetica possa essere interessante nello studio dell’impatto socioetico delle tecnologie, analizzeremo i seguenti casi (uno relativo all’hardware e uno al soware): il progetto Simputer (Chandru, 2002) e il caso di Miss Bimbo (Bottà, 2008; Di Pasqua, 2008; Locci, 2008). Il progetto Simputer, sviluppato tra il 2000 e il 2004, ha avuto come scopo principale la realizzazione di un dispositivo informatico destinato ai contadini delle aree rurali povere dell’India. La nascita del progetto risale al 1998 quando, durante l’International Seminar on Information Technology for Developing Countries, sono state definite una serie di strategie politiche e tecnologiche per il superamento del digital divide[66] orientate per la maggior parte all’incremento dell’alfabetizzazione informatica delle masse e all’accessibilità dei nuovi servizi basati sul web. Questi obiettivi – culminati nella Bangalore Declaration on Information Technology for Developing Economies – hanno trovato nel Simputer la tecnologia principe per dimostrare le potenzialità dell’informatica anche per i paesi in via di sviluppo. Analizzando le sue caratteristiche progettuali e produttive così come decise dall’organizzazione che si è occupata del progetto, il

Simputer Trust[67], si può vedere quanto le scelte tecniche esprimano una precisa etica della tecnologia (ovvero una tecnoetica). Dal punto di vista progettuale, l’idea del Simputer è quella di sviluppare una tecnologia che abbia le seguenti caratteristiche: facile da trasportare, semplice da usare (anche da chi è analfabeta)[68], pensata per piccoli gruppi (e non per individui), dotata di un basso consumo di energia, costo contenuto, predisposta per la fruizione di servizi legati a internet. Per risolvere il problema della portabilità è stato deciso che il Simputer sarebbe stato un particolare tipo di computer palmare (ovvero un dispositivo portatile grande circa quanto il palmo di una mano), così da poter essere usato in qualsiasi condizione di lavoro. Per risolvere la questione della facilità d’uso si è fatto ricorso allo sviluppo di un’interfaccia completamente grafica basata su icone (per i soggetti analfabeti) e compatibile con un’ampia libreria di lingue (per i soggetti alfabetizzati). L’interfaccia è stata sviluppata mettendo a punto una variante dell’Xml, un linguaggio avanzato di gestione di contenuti, chiamata Iml (Information markup language). La caratteristica principale di questo linguaggio è quella di garantire le funzioni soware più importanti dell’Xml usando dispositivi dalle capacità di calcolo contenute. Il Simputer è pensato non per un uso individuale, ma per l’uso da parte di piccoli gruppi. Perché? La messa in produzione di un palmare di questo tipo ha un costo per unità di circa 200$ (9.000 rupie), che rappresenta un costo molto alto per un contadino povero dell’India, ma relativamente abbordabile per le piccole comunità (come i villaggi). Non essendo un solo individuo il soggetto acquirente bensì un gruppo, il Simputer deve avere caratteristiche che lo rendano fruibile dai membri del gruppo. Per risolvere la questione, si è scelto di adottare la soluzione della smart card: ogni membro della comunità abilitato all’uso del Simputer è dotato di una smart card che provvede ad inserire ogni volta che necessita di usare il palmare. Il Simputer deve avere un basso consumo di energia e deve essere di facile approvvigionamento perché l’India ha grossi problemi per quanto riguarda le infrastrutture nelle zone rurali. La soluzione adottata è stata quella di usare tre normali batterie stilo AAA da 1,5 volt: relativamente facili da trovare anche nelle località lontane dai grandi centri industriali (ci sono esperimenti in corso sulle batterie solari).

Per quanto riguarda la compatibilità con internet, il Simputer è ricco di interfacce che facilitano il più possibile lo scambio e la condivisione delle informazioni. È dotato di un modem interno per la connessione a internet tramite normale linea telefonica, porta usb (standard per la stragrande maggioranza dei dispositivi informatici), porta a infrarossi (per tecnologie più datate). Ovviamente è dotato di browser per navigare in internet e di un gestore di posta elettronica per inviare e ricevere email. Il Simputer non richiede solo delle scelte progettuali molto attente all’utente finale, ma necessita di decisioni accurate per facilitare la produzione e la commercializzazione. A tale scopo sono state fatte precise scelte hardware e soware. Dal punto di vista hardware il Simputer non è coperto da brevetto, ma da un particolare tipo di licenza open source, la Simputer General Public License (Sgpl), in base alla quale chiunque può produrre Simputer seguendo le specifiche tecniche descritte dai responsabili del progetto e versando una cifra al Simputer Trust (differenziata fra compagnie di paesi in via di sviluppo e compagnie di paesi industrializzati). Simile discorso per quanto riguarda il soware. Per evitare i problemi del soware proprietario, il Simputer utilizza come sistema operativo Linux, distribuito secondo la licenza Gpl (General Public Licence), ovvero una licenza che permette di copiare, usare e modificare liberamente il soware. Tali scelte sono dettate da una duplice esigenza: far sì che il progetto decolli coinvolgendo moltissime compagnie nel produrre il Simputer, ed evitare che una sola compagnia diventi monopolista dell’hardware e del soware. Il Simputer per le sue caratteristiche è pensato per diverse tipologie di servizi online: politiche di e-government, telemedicina, e-book didattico, microtransazioni bancarie, acquisti online e altri ancora. Ben diverso è il caso di Miss Bimbo. A marzo del 2008, la rete dei blog e delle testate online europee si è animata per l’accendersi di una polemica relativa al sito Miss Bimbo (o Ma-Bimbo, nella versione in francese). Il sito si presenta come un servizio di social network tematico con le caratteristiche di un videogioco in cui si interpretano personaggi femminili. È stato originariamente sviluppato in Francia da Nicholas Jacquart, e in un secondo momento è stata creata una versione in lingua inglese, destinata al mercato del Regno

Unito. Una volta registrati ed effettuato il login, si ha a disposizione un avatar femminile (la traduzione italiana del francese bimbo potrebbe essere velina), il quale può essere plasmato non solo attraverso l’uso del trucco (occhi e capelli) e indossando particolari vestiti, ma anche attraverso diete, pillole dimagranti, chirurgia plastica, abbronzatura a base di raggi Uva e così via: tutto rigorosamente digitale e immateriale. Il gioco – che si autodefinisce virtual dress up game for fashion girls – per consentire agli utenti di acquistare tutti i prodotti e i servizi necessari per essere una velina che si rispetti (con relativo boyfriend di status sociale elevato) fornisce una particolare valuta, i bimbo dollars[69], erogati al momento della registrazione e riacquistabili attraverso semplici sms dal telefonino. L’obiettivo del gioco è quello di «Diventare la più hot, la più cool, la più intelligente e talentuosa velina che il mondo abbia mai conosciuto». Seguendo i consigli per procedere nel gioco, la strategia da seguire è quella di «[...] trovarle un ragazzo carino, un posto cool per vivere e trovarle un buon lavoro». C’è da dire che mentre prima erano molto simili, la versione inglese (missbimbo.com) e quella francese (mabimbo.com) sono adesso piuttosto diverse: infatti le avatar della seconda hanno mantenuto l’originario aspetto ammiccante che invece è stato cambiato dal restyling della versione inglese, presumibilmente per tacitare le polemiche che hanno interessato il mondo anglosassone. Inoltre la Blouzar, forte del successo di Miss Bimbo, ha sviluppato altri giochi simili, ovvero basati su particolari stili di vita che fanno riferimento a community di appassionati, come Super Fashion Star oppure MyBambino. Le polemiche sorte intorno al gioco si sono appuntate sul tipo di messaggio che veicola. L’idea di interpretare un particolare tipo di figura femminile che usa in maniera strategica e spregiudicata la propria femminilità può senza dubbio essere frutto di libera scelta da parte di una donna che – forte delle proprie esperienze – ha deciso di adottare questo approccio alla vita. Scelta questa che può essere condivisibile o meno, ma non per questo impraticabile. Il problema è che il gioco è pensato per ragazze dai dieci anni in su, pertanto i modelli culturali che il gioco propone potrebbero essere considerati come gli unici possibili. Quello che è davvero interessante della polemica è che, pur riecheggiando argomentazioni classiche della controversia sui videogiochi violenti, porta

la discussione su un livello nuovo che prende in considerazione elementi come comportamenti individuali e modelli culturali femminili. Un altro motivo di controversia è relativo all’uso che viene fatto delle informazioni raccolte con il gioco. In pratica i comportamenti messi in atto in questo videogioco possono essere studiati e analizzati come indicazioni per il marketing dei prodotti destinati a bambine e teenager. Ovviamente Miss Bimbo non è l’unico servizio web che si comporta in questo modo, ovvero raccogliendo strategie di relazione sociale e modelli di comportamento che vengono poi usati per il mercato della pubblicità. Siti come Facebook considerano questa strategia come uno dei modi per rendere redditizia la piattaforma. La questione che potrebbe essere sollevata in questo caso è: fino a che punto è legittimo usare queste informazioni senza che chi le produce ne abbia consapevolezza? Sono domande come queste che giustificano la necessità di un dibattito pubblico su questi temi: nel processo di integrazione della vita quotidiana con le relazioni sociali e le attività svolte sul web si stanno aprendo scenari in cui le scelte tecnologiche diventano sempre più spesso scelte culturali, decisioni che coinvolgono profondamente sia i valori in senso ampio, che il modo di intendere il rapporto tra tecnologia e società. I tempi sono ormai maturi per analizzare il rapporto fra tecnologia e società usando una serie di strumenti concettuali che capitalizzino risultati e teorie tipiche delle scienze sociali e si interroghino in maniera sempre più sistematica su un aspetto spesso sottodimensionato, quello dei valori.

3. Scimmie, lemming, alveari: critiche al web partecipativo Polemiche come quelle sorte su Miss Bimbo, le questioni della privacy poste da Facebook, i giudizi tranchant sulle produzioni user generated di Youtube o sull’attendibilità di Wikipedia mostrano come sia necessaria una riflessione approfondita sui valori in gioco quando si parla di social media. In questi casi è necessario sia rendere manifesto qual è il ruolo svolto dai valori nel dare forma a tali tecnologie, sia evidenziare come un atteggiamento di semplice resistenza culturale non sarebbe in grado di affrontare le questioni – sicuramente molto delicate – che alcuni usi dei media digitali potrebbero portare con sé.

Negli ultimi tempi è cominciata ad emergere una critica sistematica nei confronti del web partecipativo, che ha inaugurato il processo di decostruzione di quella che viene chiamata ideologia del Web 2.0. Queste critiche hanno caratterizzato sia il dibattito online di lingua inglese – più sensibile alla questione, anche perché il sistema sociale ed economico alla base della nuova organizzazione del web è di stampo americano – sia il dibattito in lingua italiana, anche se con forme lievemente diverse. Per fornire un quadro in grado di rendere conto delle diverse voci coinvolte nella critica al Web 2.0, proveremo a identificare alcuni elementi per comparare i diversi punti di vista rappresentati. Per prima cosa proveremo a identificare l’oggetto culturale di riferimento, ovvero, riprendendo il concetto sviluppato nelle scienze della cultura (Griswold, 1997), isoleremo l’istituzione sociale di riferimento e il tipo di cultura da cui la voce critica trae la propria vis polemica. Dopodiché definiremo il tipo di ideologia digitale che viene identificata in queste diatribe e il nome con cui essa viene definita. Assieme all’ideologia digitale identificheremo i processi sociali e culturali che sono ritenuti essere alla base dell’ideologia. Infine, delineeremo le metafore che vengono usate per rappresentare le moltitudini di utilizzatori di questi servizi, persone che – nell’argomentazione di questi polemisti – sono considerate fruitori acritici verso le conseguenze delle loro scelte sociali e, ovviamente, valoriali. Il primo autore da prendere in considerazione è certamente Andrew Keen, essendo stato il primo a dare visibilità ad una serie di critiche del web partecipativo. Keen appartiene a quella schiera di imprenditori della prima generazione del boom del web partecipativo che provarono a creare società per fornire servizi online, nel suo caso servizi musicali. Progressivamente si è allontanato dal suo ruolo imprenditoriale ed è tornato sulla scena pubblica del Web 2.0 come critico dei processi sociali ed economici che stanno alla base del nuovo modo di intendere il web. L’oggetto culturale che connota l’argomentazione di Keen e che sta alla base del suo ragionamento è senza dubbio il mercato, presumibilmente perché conosce il mondo delle startup basate sul web. Nel suo libro infatti fa costante riferimento ad esempi e schemi di ragionamento che provengono dal settore dell’imprenditoria. L’ideologia contro cui si scaglia è il culto del dilettante – titolo originale del suo libro – ovvero: l’idea di democrazia radicale applicata al mondo delle istituzioni mediali e

culturali. Propagandata dal web partecipativo, essa ha come conseguenza che un ruolo di primo piano in questa nuova organizzazione sociale è occupato non dagli esperti tradizionali, i quali hanno dedicato soldi e impegno per il raggiungimento della propria posizione, ma da una schiera di dilettanti, ovvero di sedicenti esperti improvvisati, che in realtà esperti non sono. Nelle parole di Keen: Ciò che il Web 2.0 sta generando non è un’analisi approfondita, ma un punto di vista superficiale sul mondo che ci circonda. Non è un giudizio ponderato, ma un’opinione affrettata. Internet sta trasformando il settore dell’informazione nel puro e semplice rumore generato dalle centinaia di milioni di blogger simultaneamente impegnati a parlare di se stessi. Oltretutto, i decantati contenuti user-generated, prodotti in quantità impressionanti dalla rivoluzione del Web 2.0, stanno decimando i ranghi degli intermediari culturali, mentre critici professionisti, giornalisti, redattori, musicisti, registi e altri approvvigionatori di informazioni specialistiche vengono scalzati [...] da una folla di blogger dilettanti, critici improvvisati, registi inesperti e discografici fai-date. Nel frattempo, modelli di business completamente nuovi, basati su materiale usergenerated, sottraggono ogni valore economico ai media tradizionali e ai contenuti culturali (Keen, 2009, pp. 36-37).

Come si può leggere dalla citazione precedente, il problema chiave è che il tempo dedicato al consumo di contenuti prodotti dagli utenti e la loro gratuità hanno come conseguenza la fine degli intermediari culturali e della cultura intesa come approfondimento e analisi. Una volta definiti i termini della sua critica, Keen passa in rassegna diversi casi di servizi Web 2.0 che erodono la sostenibilità economica di servizi tradizionali. Wikipedia viene vista come minaccia alle enciclopedie, il citizen journalism (giornalismo non professionale fatto da blogger) come pericolo per il giornalismo tradizionale, Youtube come cattivo sostituto di prodotti televisivi di qualità. L’argomentazione di Keen porta il discorso fino alle conseguenze più estreme, seguendo una foga anti-Web 2.0 che spesso diventa foga anti-web tout court, come nel caso in cui cita le nuove forme di controllo attuate online, le conseguenze del web sulla politica o il deleterio impatto del file sharing sull’industria musicale prima, cinematografica poi. Prevedibilmente poco spazio viene lasciato alla critica dei servizi di social network come Facebook o MySpace, in quanto estranei alla competizione con strumenti di produzione di contenuti. Il processo sociale che guida lo sviluppo dell’ideologia del dilettante, secondo Keen, è l’incompetenza, che porta ad una crescita costante del

numero di persone che, pur non avendo competenze specifiche, si improvvisano produttori culturali di diversa natura. Le metafore con cui descrive l’universo degli utenti del Web 2.0 sono due: le scimmie infinite e la grande seduzione. La prima metafora viene ripresa dalla citazione di Thomas Henry Huxley da parte di Jorge Luis Borges, ed è l’idea secondo cui se innumerevoli scimmie cominciassero a battere tasti su una macchina da scrivere in maniera casuale prima o poi sarebbero in grado di produrre un’opera di Shakespeare o qualche altro capolavoro letterario. La metafora intende radicalizzare l’immagine della letteratura come fenomeno combinatorio (in questo caso di lettere), ma nel ragionamento di Keen è utilizzata come similitudine con l’universo dei blogger, per suggerire che, sia pure con l’accavallarsi di opinioni arbitrarie e prive di riferimento, potrebbero produrre un testo dotato di senso. L’altra metafora, quella della grande seduzione, è invece racchiusa nella citazione sopra riportata, e si riferisce all’ideologia che una cultura radicalmente democratizzata potrebbe competere con forme culturali tradizionali. Andrew Keen è un autore piuttosto intrigante, soprattutto perché pone la sua critica del Web 2.0 da un punto di vista interessante, ovvero la sostenibilità economica dei media tradizionali. Si può però obiettare che non sempre ciò che è gratis può sostituire in tutto e per tutto un servizio a pagamento, Wikipedia può competere con l’Enciclopedia Britannica senza che debba necessariamente sostituirla. Anzi le strategie messe in atto dalla Britannica online per reagire alla visibilità digitale di Wikipedia hanno portato alla possibilità di accedere ad un prodotto culturale che tradizionalmente era precluso per motivi economici. Stesso ragionamento potremmo fare per l’Enciclopedia Treccani, la cui accessibilità gratuita via web ne fa una potente antagonista di Wikipedia, anche se i tentativi fatti dalle enciclopedie tradizionali per aumentare il bacino degli utilizzatori spesso si scontrano con la difficoltà di comunicare tale opportunità ad un pubblico ormai abituato a consultare quotidianamente Wikipedia. La vera questione sollevata da Keen è che i media tradizionali per competere con alcune forme di produzione mediale amatoriale online devono necessariamente ripensare i propri modelli di business. Inoltre, c’è da ricordare che in alcuni casi la produzione amatoriale online non vuole competere con la produzione professionale, ma in realtà vuole sperimentare spazi diversi. Pensiamo a casi come le fan fiction (i prodotti di fiction creati da appassionati di serie televisive) o i forum di appassionati

di prodotti culturali che spesso diventano strumenti per incrementare il consumo dell’industria culturale (Jenkins, 2007). Simile discorso per fenomeni come il citizen journalism: i blog non vogliono (né sono in grado di) sostituire il giornalismo professionale, ma sono in grado di fornire una copertura quasi giornalistica a fenomeni che non potrebbero essere coperti dal giornalismo professionale o che non sono economicamente interessanti (Sofi, 2006). Il libro di Keen è un vero e proprio pamphlet, in quanto manca una visione sistematica sul problema – al di là di un grande numero di esempi che illustrano i limiti del Web 2.0 – e la bibliografia non va mai oltre qualche libro celebre citato episodicamente e un numero piuttosto consistente di articoli di testate online. Il secondo autore da prendere in considerazione per una rassegna delle posizioni contro il Web 2.0 è Fabio Metitieri (2009), il quale ha argomentato in maniera molto ben documentata i limiti dell’ideologia della blogosfera e ha calato il dibattito nella realtà italiana, aggiungendo nuove sfumature alla critica dei media sociali. Metitieri è stato un’interessante figura di giornalista e divulgatore, protagonista fin dai primi timidi esordi di internet in Italia, giornalista sui temi del web per diverse testate, grande appassionato di Second Life (il celebre mondo tridimensionale online sviluppato dalla Linden Lab) e autore di diversi libri sulla cultura della rete e le biblioteche online (assieme a Riccardo Ridi). Per questi motivi, non è casuale che l’oggetto culturale che definisce la sua argomentazione è senza dubbio la biblioteca, intesa sia come strumento per la costruzione del sapere e per l’approfondimento della conoscenza, sia come istituzione culturale soggetta a profonde mutazioni con l’ingresso di internet nella sua realtà quotidiana e nella vita di chi lavora e fruisce dei suoi servizi. Sintomi del suo argomentare rispetto all’oggetto/istituzione biblioteca, le diverse occasioni in cui i suoi strali polemici sono diretti alla scarsa capacità di controllo delle fonti da parte di chi legge, scrive, studia, blogga online. La forma ideologica che assume l’internet degli ultimi anni è quella del blogging, ovvero la pratica di usare i blog come sostituto di una serie di istituzioni culturali considerate obsolete – la stampa in primis – perché non sono sufficientemente partecipative e cooperative così come vorrebbero i dettami del Web 2.0, termine questo che non fa altro che nascondere una sofisticata operazione di marketing messa in atto dall’editore americano

Tim O’Reilly. La stessa esistenza degli Ugc è da mettere in dubbio, in quanto la pratica di produrre informazioni e contenuti in rete esiste da quando esistono strumenti come newsgroup e forum, e in questa prima fase di sviluppo della rete nessuno sentiva la necessità di etichettare queste informazioni, necessità che si è fatta pressante per distinguere i contenuti prodotti amatorialmente che comunque posseggono una certa qualità da quelli che invece non la posseggono. Nella ricerca quasi spasmodica di riconoscimenti da parte del mondo dell’informazione tradizionale e soprattutto da parte di tutto ciò che è di carta, questa minuscola folla di rivoltosi, particolarmente aggressiva nel piccolo e provinciale scenario italiano, ha trovato nel Web 2.0 la giustificazione storica della propria esistenza, una bandiera da usare per potersi definire nuova e rivoluzionaria (Metitieri, 2009, p. 23). [...] il blogging [...] è diventato un’ideologia [...] Stretti da un lato dalla pretesa di produrre informazione dal basso e condivisa che deve essere migliore delle testate tradizionali e dal lato opposto dalla rivendicazione degli aspetti effimeri del loro scrivere, alcuni bloggher sono quasi schizofrenici e spesso attaccano i mass media, anche con prepotenza ma, dato che in nome della fuffa rifiutano ogni professionalità e ogni responsabilità, finiscono quasi sempre per scimmiottare proprio i difetti peggiori delle testate che vorrebbero criticare (p. 42).

Interessante il fatto che Metitieri chiami – ironicamente – bloggher (con la lettera h) quel gruppo ristretto ed elitario di autori di blog che si distinguono dalla massa dei blogger comuni in quanto Vib (appunto: Very important bloggher). L’ironia di Metitieri verso i Vib è basata su due elementi chiave. In primo luogo la relativa semplicità con cui è possibile far sì che il proprio blog sia visibile ad altri blogger. La tecnica è quella dello scambio di link: si chiede ai blog più importanti di essere linkati nei post o nel blogroll. In questo modo è possibile ingannare il sistema di ranking di Google consentendo di dare maggiore visibilità a blog che, se non fosse per lo scambio di link, rimarrebbero nascosti nelle centinaia di risultati dei motori di ricerca[70]. Il secondo elemento chiave è che la – relativa – popolarità raggiunta dal blogger viene usata come trampolino di lancio per raggiungere una posizione sociale percepita come «elevata» e rappresentata dalla possibilità di entrare a far parte in vario modo (attraverso la semplice citazione, per esempio) della stampa tradizionale, della televisione, della radio, o di qualunque altro medium che viene considerato con diffidenza o sufficienza fintantoché non se ne diventa

parte. Il principale destinatario della critica dell’ideologia dei blog, che Metitieri considera l’archetipo di questa posizione, è Giuseppe Granieri, blogger italiano della prima ora e scrittore di un celebre saggio (2005), che se da un lato ha l’encomiabile merito di aver illustrato perché i blog sono degli strumenti comunicativi interessanti sociologicamente e relazionalmente, dall’altro risente dei toni della scrittura che sono un po’ troppo iperbolici, anche per un saggio che vorrebbe essere divulgativo[71]. Secondo Metitieri il processo sociale che sta alla base del blogging come ideologia è il negazionismo: viene cioè negata cittadinanza alle idee che potrebbero mettere in dubbio la legittimità del blogging come forza trasformatrice dei media e dei rapporti sociali. Diversi sono gli esempi in questo senso e sono tutti presi dalla cultura blogger italiana. Per esempio, le manifestazioni nate per consentire ai blogger di incontrarsi (spesso adattamenti o evoluzioni di format americani), come i barcamp (le conferenze organizzate secondo un modello a wiki) o la BlogFest («L’evento che riunisce, ogni anno, tutto ciò che in Italia gravita attorno alle community della rete» recita il sito ufficiale). Metitieri le considera sintomi del negazionismo perché l’ideologia alla base di tali manifestazioni è che bisogna creare rapporti con persone potenzialmente sconosciute attraverso tecnologie di comunicazione a distanza in un contesto che suona internazionale perché usa l’inglese come lingua di riferimento, sostituendo così la dimensione conviviale e locale dei rapporti lavorativi e delle relazioni sociali tipici della quotidianità. Un altro esempio di negazionismo è la caratteristica della blogosfera italiana di tacere di persone come Geert Lovink e Dave Winer, un tempo considerati guru dell’ideologia del blogging, cancellati a causa della critica che hanno sollevato verso tale modello sociale e mediale. La metafora che rende bene conto di questo intrico di ideologia e servizi soware è quella dei lemming, ovvero quei roditori tipici della fauna norvegese che durante le loro migrazioni verso i fiordi si spingono a vicenda giù negli strapiombi, in una sorta di suicidio collettivo di massa. Similmente l’assenza di strumenti (e competenze) per la valutazione delle informazioni sul web, il fatto che spesso non siano identificabili gli autori dei contenuti online, la carenza di intermediari digitali attendibili sono l’equivalente di una corsa verso il baratro. Tra l’altro, Metitieri riprende anche una metafora tratta da una ricerca inglese, in cui il comportamento degli utenti web che cercano informazioni online ricorda la strategia degli

scoiattoli: tutto ciò che sembra interessante viene salvato sul computer, senza che verrà mai più letto o consultato. Rispetto a quella di Andrew Keen, la posizione di Fabio Metitieri è più difficile da controbattere, soprattutto perché ha buon gioco nel criticare alcuni dei tic della blogosfera italiana. Metitieri prende come obiettivo della sua critica il blog mentre – forse un po’ troppo rapidamente – considera spazi digitali come Facebook, Twitter e Friendfeed come caratterizzati da un ruolo ancillare rispetto al blog. Il successo che in Italia ha avuto il blogging come ideologia è innegabile ed è sotto gli occhi di chiunque abbia frequentato l’universo dei social media italiani degli ultimi sei anni. Così come è piuttosto palese che ci sia stata una proliferazione di eventi accomunati da una non meglio specificata appartenenza alla «cultura del web». Per non parlare dell’ascesa di un nucleo di personaggi che hanno usato la propria visibilità digitale per ottenere posizioni nei media tradizionali, spesso assegnando etichette di «vero blogger» a chi – a differenza loro – non aveva una visibilità sufficiente, secondo il classico principio della profezia che si autoavvera[72]. A nostro avviso la domanda più corretta potrebbe essere non perché la blogosfera italiana soffra di questi tic, ma perché il blogging abbia avuto successo fino a cristallizzarsi in una ideologia. Qui siamo nel campo delle opinioni. La mia personalissima è che il blog, come oggetto comunicativo e come strategia relazionale (da un lato) e professionale (dall’altro), è arrivato in un momento in cui la rete sembrava offrire un enorme ventaglio di opportunità e possibilità. Poter essere una voce – a suo modo – riconoscibile del dibattito pubblico in rete, poter condividere alcune impressioni (forse esageratamente ottimistiche) sul nuovo ordine digitale, sviluppare competenze (diventate in alcuni casi professioni) a partire dalla frequentazione di questo ambiente internet, è stato senza dubbio un momento importante della costruzione di una socialità parallela. Bisogna ricordare che la cultura del blog ha sviluppato in Italia esperienze, anche professionali, che per quanto abbiano difficoltà a sedimentarsi hanno portato una ventata di freschezza nel mondo del lavoro e dell’impresa. Fenomeni come il nanopublishing (network editoriali di blog scritti da professionisti e semiprofessionisti), la nuova cultura imprenditoriale delle startup (che si muovono tra web e telefonia mobile), la nascita di un nuovo modo di fare marketing e comunicazione attraverso i social media sono lasciti di un fenomeno che è riduttivo ascrivere a

semplice presenzialismo, ingenuità, mancanza di «senso del limite». L’Italia degli ultimi dieci anni è difficile da considerare come un luogo di opportunità sociale e professionale: l’aver abbracciato l’universo del blogging con un entusiasmo che è sfociato in ideologia è, probabilmente, attribuibile all’assoluta mancanza di prospettiva del mondo delle relazioni extra web. Il terzo ad aver sviluppato un’argomentazione interessante contro l’universo dei social media è Jaron Lanier (2010), autore di una critica piuttosto sofisticata non solo della cultura sottesa al Web 2.0, ma anche di alcune forzature ideologiche della cultura informatica in senso generale. La figura di Lanier è leggendaria nel panorama della cultura digitale. Lanier infatti è uno degli esponenti di spicco della tecnologia della realtà virtuale, ovvero la tecnologia informatica il cui scopo è quello di sviluppare ambienti tridimensionali immersivi (Rheingold, 1993). Tale tecnologia ha dato visibilità al termine virtuale, facendolo diventare una delle parole chiave – spesso abusata – per descrivere la condizione esperienziale dei mondi digitali. L’oggetto culturale rispetto al quale Lanier esercita la sua critica del Web 2.0 è il soware. La linea argomentativa di Lanier prende in esame sia l’informatica che l’intelligenza artificiale, settore che egli conosce bene in quanto laureato al Mit, culla della ricerca sull’intelligenza artificiale. L’ideologia contro cui Lanier esercita le sue doti di polemista è quella che lui chiama totalitarismo cibernetico, intendendo con questo termine l’idea, diffusa in alcuni circoli informatici e radicalizzata nel Web 2.0, che ogni dimensione umanistica del vissuto individuale possa essere ricondotta ad una dimensione digitale. La sottocultura vincente non ha un nome ufficiale, ma talvolta io ho definito i suoi esponenti sostenitori del totalitarismo cibernetico o «maoisti digitali». La tribù in ascesa è composta da gente che proviene dal mondo dei Creative Commons, dalla cultura dell’«open», la comunità di Linux, gente che, nei confronti dell’informatica, è legata all’approccio dell’Intelligenza Artificiale, sostenitori del Web 2.0, del file sharing e di ogni possibile contaminazione contro il sistema, e di svariati altri. La loro capitale è la Silicon Valley, ma hanno basi in tutto il mondo, dovunque si crei cultura digitale. Fra i loro blog preferiti: Boing Boing, TechCrunch e Slashdot; la loro ambasciata in Europa, «Wired» (Lanier, 2010, pp. 24-25).

Come si può leggere dalla citazione precedente, il Web 2.0 non è che l’ultimo di una serie di movimenti fra l’informatica e l’ideologia, che –

almeno nelle parole di Lanier – si sono resi protagonisti di un vero e proprio attacco alla concezione umanistica (sineddoche per «umana») dell’uomo contemporaneo. Così facendo, Lanier si inserisce in un filone di critiche all’informatica intesa come visione totalizzante del mondo e della realtà le cui origini possono essere rintracciate nelle critiche all’ideologia dell’intelligenza artificiale (Bennato, 2002a). L’idea chiave di questa prospettiva, ottimamente esemplificata da Lanier, è che l’essere umano e la società sono degli elementi troppo complessi (e delicati) per far sì che vengano semplificati e inariditi dal tentativo di ricondurre al computer ogni aspetto esperienziale. Per quanto complesso, il computer è una macchina: lasciare che il mondo si strutturi in modo tale da essere compreso (nel doppio senso di capito e accolto) dal computer provoca una perdita che può essere di senso, di libertà, di bellezza e così via. Il totalitarismo cibernetico, seguendo il ragionamento di Lanier, non è un concetto semplice, bensì è costituito da altri elementi: il lock-in, il maoismo digitale, la cultura open. Lock-in è un termine usato nell’economia dell’informazione (Shapiro, Varian, 1999) per descrivere come opportune scelte progettuali della tecnologia tendono a «legare» l’utente ad una specifica piattaforma o ad una specifica tecnologia. Per Lanier il lock-in altro non è che uno standard de facto che costringe l’informatico a non cercare soluzioni soware innovative ma ad utilizzare soware preesistenti dalla progettazione obsoleta per semplice facilità di programmazione. L’esempio che fa è quello delle specifiche Midi per riprodurre la musica in forma semplificata, che, essendo diventate uno standard, sono ormai difficili da rimpiazzare, fino ad arrivare al paradosso che sarà una banale musichetta Midi ad avvisare le generazioni del futuro di cambiare il filtro dei motori al plasma delle astronavi! Il secondo elemento è il maoismo digitale, che Lanier considera come sinonimo di totalitarismo cibernetico, mentre in realtà – a giudicare dalla sua argomentazione – è un aspetto specifico. Il concetto viene mutuato dall’esperienza del maoismo cinese, che mise al centro della rivoluzione le masse contadine, esponenti del lavoro manuale, relegando gli intellettuali a un ruolo subalterno. Similmente, nel maoismo digitale il protagonista della rivoluzione è il soware con le sue attività schematiche e semplificate, mentre l’essere umano – la controparte intellettuale – ha una posizione subalterna. Questo rende tecnologie come Google i veri detentori del potere nel totalitarismo cibernetico. Il terzo elemento è la

cultura open, ovvero quel tipo di cultura che ritiene economicamente sostenibile ed eticamente legittimo consumare e produrre contenuti senza riconoscere il merito – autoriale o economico – a chi ha prodotto i contenuti originari, mettendo sullo stesso piano produzione originale, distribuzione professionale di contenuti, remix, mashup, file sharing. Il processo sociale alla base del totalitarismo cibernetico è un intrecciarsi di riduzionismo e computazionalismo. Questi elementi, che sono alla base dell’informatica intesa come disciplina scientifica, rendono problematica l’estensione dell’informatica a contesti che non siano lo sviluppo di tecnologie. Il vero pericolo, secondo Lanier, è che la progettazione che segue i dettami del totalitarismo cibernetico riduce l’essere umano ad una semplice controparte progettuale: è su questa base che critica i progetti soware di servizi come Facebook. La metafora adottata da Lanier per descrivere la situazione che sta imponendosi col Web 2.0 è quella della mente alveare: ovvero un universo in cui gli utenti hanno perso la propria individualità a favore di una serie di processi collettivi come l’intelligenza collettiva e la saggezza delle folle. Fra tutte le posizioni fin qui descritte, quella di Jaron Lanier è la più delicata per due ordini di motivi: in primo luogo è una critica di tipo ontologico, ovvero sulla consistenza di un soggetto umano in un contesto informatizzato e deantropologizzato, in cui le macchine hanno una rilevanza maggiore dei processi sociali di cui dovrebbero essere infrastrutture. Il suo libro (2010) – che si presenta come un vero e proprio manifesto – riprende e attualizza una serie di timori sulla radicale informatizzazione dell’uomo e della società che hanno caratterizzato teorici come Joseph Weizenbaum o Terry Winograd, ovvero quel filone di studi che lavorando su una capacità profondamente umana come l’intelligenza si domandò se un’indagine su tali temi fosse legittima. In seconda istanza è una critica dall’interno della cultura digitale e informatica: paradossalmente i timori per una società Web 2.0 vengono proprio da chi conosce le pratiche, la cultura e la tecnologia informatica. Infatti, se non parlasse il curriculum di Lanier, critiche a realtà come Linux o a istituzioni dei social media come Creative Commons suonerebbero reazionarie se non luddiste. C’è anche da dire che la mente alveare, ovvero un mondo in cui gli individui sono privi di identità o al limite sono al servizio della sussistenza delle macchine, ha i suoi riferimenti culturali in un certo tipo di fantascienza distopica. Come nel

film Matrix, in cui l’umanità vive un’allucinazione digitale solo per permettere alle macchine di sfruttare la naturale energia elettrica del corpo umano, oppure come i Borg, cattivi della serie televisiva Star Trek: Next Generation e Star Trek: Voyager, una razza aliena perfettamente fusa con le proprie tecnologie, in cui non esiste il concetto di «io» e l’organizzazione sociale ricorda quella di un alveare o un formicaio. Non è facile argomentare contro l’idea di Lanier, in quanto mescola ricerca tecnologica, libertà economica e sociale, rispetto dei valori umani senza soluzione di continuità. La questione allora si pone nel modo seguente: se il Web 2.0 ha una sua specificità, è possibile intervenire dando spazio a un’interpretazione della centralità dei processi sociali che consideri diversamente il rapporto fra vita quotidiana e vita digitale. Se invece il Web 2.0 non ha una sua specificità ma è frutto di un’ideologia radicata nella contemporaneità, allora non c’è una via di scampo per tale situazione, data l’onnipervasività dell’informatica. Per affrontare la questione bisogna comprendere se il Web 2.0 sia oppure no il figliol prodigo della network society. Finora ci siamo concentrati sulle differenze fra le diverse posizioni fin qui esposte, ma ci sono anche dei punti comuni molto interessanti fra le diverse argomentazioni. Tutti questi saggi sollevano un ventaglio simile di questioni: l’autorialità (se sia valida oppure no una produzione culturale che trascenda l’autore), l’attendibilità (in che modo risolvere la questione dell’affidabilità delle informazioni presenti nel web), la legittimità (è facile pubblicare con i social media o produrre sapere e contenuti: ma è legittimo?). Anche gli obiettivi contro cui vengono indirizzati gli strali sono simili: Kevin Kelly (fondatore e primo direttore di «Wired» e autore di un blog piuttosto seguito sui temi dei media digitali), Chris Anderson (direttore di «Wired» e sostenitore della teoria della coda lunga con cui si legittima una forma economica che valorizza i mercati di nicchia contro i mercati di massa), Jimmy Wales (fondatore di Wikipedia). Simili anche i casi citati: Lonelygirl15, Essjay (la vicenda del ragazzino che scrisse diverse voci di Wikipedia spacciandosi per un plurilaureato docente di teologia), il file sharing, i Creative Commons. Una domanda legittima potrebbe sorgere: come spiegare la coerenza di temi? È perché sono parte integrante dell’ideologia del Web 2.0, oppure

perché sono casi ed eventi episodici che però hanno sollevato un feroce dibattito soprattutto nei media tradizionali? A nostro avviso, come tutti i cambiamenti sociali e tecnologici, i social media presentano degli elementi interessanti e danno indicazioni sulla società odierna poiché non possiamo considerarli con certezza causa o effetto del panorama culturale attuale. Questo però non esime nessuno dal fare i conti con una realtà sociale che, per quanto abbia una certa continuità storica, solleva questioni nuove e spinose. Ma su questo punto niente di nuovo sotto il sole: è stato il destino della stampa, è stato il destino della televisione, pertanto non sorprende che sia il destino del web partecipativo.

Bibliografia

Abbate, J., 1999, Inventing the Internet, MIT Press, Cambridge (Mass.). Abercrombie, N., Longhurst, B., 1998, Audiences. A Sociological Theory of Performance and Imagination, Sage, London. Abruzzese, A., 1992, Forme estetiche e società di massa. Arte e pubblico nell’età del capitalismo, Marsilio, Venezia. Abruzzese, A., Borrelli, D., 2000, L’industria culturale. Tracce e immagini di un privilegio, Carocci, Roma. Agre, P., 1998, The Internet and the Public Discourse, in «First Monday», 3, 3, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/581/502. Albrechtslund, A., 2008, Online Social Networking as Participatory Surveillance, in «First Monday», 13, 3, http://firstmonday.org/htbin/cgiwrap/bin/ojs/in dex.php/fm/article/viewArticle /2142/1949. Allen, C., 2004, Tracing the Evolution of Social Soware, in «Life With Alacrity», http://www.lifewithalacrity.com/2004/10/tracing_the_evo.html. Anderson, B., 2000, Comunità immaginate. Origine e diffusione dei nazionalismi, Manifestolibri, Roma (ed. or., Imagined Communities: Reflections on the Origin and Spread of Nationalism, Verso, New York 1996). Anderson, Ch., 2010, The Web is Dead. Long Live the Internet, in «Wired», 18, 9, pp. 118127. Anderson, J. (a cura di), 1988, Communication Yearbook 11, Sage, Newbury Park. Andò, R. (a cura di), 2004, Audience reader. Saggi e riflessioni sull’esperienza di essere audience, Guerini e Associati, Milano. Ang, I., 1998, Cercasi audience disperatamente, il Mulino, Bologna (ed. or., Desperately Seeking the Audience, Routledge, London 1991). Appadurai, A., 2001, Modernità in polvere, Meltemi, Roma (ed. or., Modernity at Large: Cultural Dimensions of Globalization, University of Minnesota Press, Minneapolis 1996). Ardigò, A., Mazzoli, G. (a cura di), 1993, Le nuove tecnologie per la promozione umana. Usi dell’informatica fra macro e micro comunicazioni, Franco Angeli, Milano. Bakardjieva, M., 2005, Internet Society. The Internet in Everyday Life, Sage, London. Barnes, S.B., 2006, A Privacy Paradox: Social Networking in the United States, in «First Monday», 11, 9, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/1394/1312. Baym, N., 2007, Vissuti interpersonali on-line, in Lievrouw, Livingstone (a cura di), pp. 536.

Beckwith, G.V., 1989, Science, Technology, and Society: Considerations of Method, in «Science, Technology and Human Values», 14, 4, pp. 323-339. Bell, D., 1976, The Coming of Post-Industrial Society, Basic Books, New York. Belmonte, W., 2002, Nuovi media e processi educativi, in Greco (a cura di), pp. 73-86. Benkler, Y., 2007, La ricchezza della rete. La produzione sociale trasforma il mercato e aumenta le libertà, Università Bocconi Editore, Milano (ed. or., The Wealth of Networks: How Social Production Transforms Markets, Yale University Press, New Haven 2006). Bennato, D., 2002a, Le metafore del computer. La costruzione sociale dell’informatica, Meltemi, Roma. Bennato, D., 2002b, Reti. Comunicazione e infrastruttura, in Giordano (a cura di), pp. 187224. Bennato, D., 2005, Blog. Un valore aggiunto ai sistemi di comunicazione, in «Innovazioni», 4, pp. 113-117. Bennato, D., 2007a, Individualismo reticolare e socialità virtuale. Cenni sul problema delle relazioni sociali mediate da internet, in Giordano, Parisi (a cura di), pp. 159-178. Bennato, D., 2007b, Culture tecnologiche emergenti. Analisi di una comunità di wardriver, in Santoro, M. (a cura di), Cultura in Italia. Nuovi media, vecchi media, il Mulino, Bologna, pp. 75-98. Bennato, D., 2008a, Verso la scienza 2.0. Le riviste scientifiche come piattaforma per la condivisione, in «La critica sociologica», 52, 168, pp. 37-45. Bennato, D., 2008b, Le professioni del web, in La creatività nelle professioni, a cura di M. Pedroni, P. Volontè, Bozen-Bolzano University Press, Bolzano, pp. 75-88. Bennato, D., 2009, I social network come metafore di spazi sociali, in «Lo Squaderno», 13, pp. 50-53. Bennato, D., 2010, voce La circolazione delle tecnologie, in «XXI Secolo – L’Universo Fisico», Istituto dell’Enciclopedia Italiana Giovanni Treccani, Roma, pp. 577-586. Bennato, D., i.c.s., Strategie di relazione sociale nelle piattaforme di social network, in Gagliasso, Memoli, Pontecorvo (a cura di). Bennato, D., Benothman, H., Panconesi, A., 2010, La diffusione delle informazioni online. Il caso Twitter, paper presentato al IX Convegno Nazionale dell’Associazione Italiana di Sociologia, http://www.scribd.com/doc/37923429/La-diffusione-delleinformazioni-online-Il-caso-Twitter. Bentivegna, S., 2009, Disuguaglianze digitali. Le nuove forme di esclusione nella società dell’informazione, Laterza, Roma-Bari. Berger, P.L., Luckmann, Th., 1969, La realtà come costruzione sociale, il Mulino, Bologna (ed. or., The Social Construction of Reality, Doubleday, New York 1966). Berra, M., Meo, A.R., 2001, Informatica solidale. Storia e prospettive del soware libero, Bollati Boringhieri, Torino. Bettetini, G., Colombo, F. (a cura di), 1993, Le nuove tecnologie della comunicazione, Bompiani, Milano. Bhabha, H., 2001, I luoghi della cultura, Meltemi, Roma (ed. or., The Location of Culture, Routledge, London 1994). Bijker W.E., 1998, La bicicletta e altre innovazioni, McGraw-Hill, Milano (ed. or., Of Bicycles, Bakelites and Bulbs, MIT Press, Cambridge [Mass.] 1995).

Bijker, W.E., Hughes, Th.H., Pinch, T.J. (a cura di), 1987, The Social Construction of Technological Systems. New Directions in the Sociology and History of Technology, MIT Press, Cambridge (Mass.). Biocca, F.A., 1988, Opposing Conceptions of the Audience. The Active and Passive Hemispheres of Mass Communication Theory, in Anderson (a cura di), pp. 51-80. Blood, R., 2002, The Weblog Handbook: Practical Advice On Creating And Maintaining Your Blog, Basic Books, New York. Blumler, J.G., Katz, E. (a cura di), 1974, The Uses of Mass Communications. Current Perspectives on Gratifications Research, Sage, London. Bolter, D.J., Grusin, R., 2002, Rimediazione. Competizione e integrazione fra media vecchi e nuovi, Guerini e Associati, Milano (ed. or., Remediation: Understanding New Media, MIT Press, Cambridge [Mass.] 1999). Boni, F., 2006, Teorie dei media, il Mulino, Bologna. Bottà, G., 2008, Giocare online insegna a vivere, in «Punto informatico», 26 marzo, http://punto-informatico.it/2234400/PI/News/giocare-online-insegna-vivere.aspx. Boudon, R., 2000, Il senso dei valori, il Mulino, Bologna (ed. or., Le sens des valeurs, Puf, Paris 1999). boyd, d., 2006, Friends, Friendsters, And Top 8: Writing Community Into Being On Social Network Sites, in «First Monday», 11, 12, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/ fm/article/viewArticle/1418/1336. boyd, d., 2007a, The Significance of Social Soware, in Burg, Schmidt (a cura di), pp. 1530. boyd, d., 2007b, Viewing American Class Divisions Through Facebook and MySpace, in «Apophenia Blog Essay», http://www.danah.org/papers/essays/ClassDivisions.html. boyd, d., 2008a, Facebook’s Privacy Trainwreck: Exposure, Invasion, and Social Convergence, in «Convergence», 14, 1, pp. 13-20. boyd, d., 2008b, Taken Out of Context. American Teen Sociality in Networked Publics, PhD Dissertation, University of California, Berkeley. boyd, d., Ellison, N.B., 2007, Social Network Sites: Definition, History, And Scholarship, in «Journal of Computer-Mediated Communication», 13, 1, http://jcmc.indiana.edu/vol13/issue1/boyd.ellison.html. boyd, d., Hargittai, E., 2010, Facebook Privacy Settings: Who cares?, in «First Monday», 15, 8, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/viewArticle/3086/ 2589. Brey, Ph., 2000, Method in Computer Ethics: Towards a Multi-Level Interdisciplinary Approach, in «Ethics and Information Technology», 2, 2, pp. 125-129. Brignell, J.E., 1996, The Future of Intelligent Sensors: A Problem of Technology or Ethics?, in «Sensors and Actuators A-Physical», 56, pp. 11-15. Brown, J.S., Duguid, P., 2001, La vita sociale dell’informazione, Etas, Milano (ed. or., The Social Life of Information, Harvard Business School Press, Cambridge [Mass.] 2000). Bruns, A., 2008, Blogs, Wikipedia, Second Life, and Beyond: From Production to Produsage, Peter Lang Publishing, New York.

Bryant, S., Forte, A., Bruckman, A., 2005, Becoming Wikipedian: Transformation of Participation in a Collaborative Online Encyclopedia, in Schmidt et al. (a cura di), pp. 1120. Buchner, P., Bois-Reymond, M.D., Kruger, H.H., 1995, Growing Up in Three European Regions, in Chisholm (a cura di), pp. 43-59. Bumgarner, B.A., 2007, You Have Been Poked: Exploring the Uses And Gratifications of Facebook Among Emerging Adults, in «First Monday», 12, 11, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/viewArticle/2026/ 1897. Bunge, M., 1977, Toward a Technoethics, in «The Monist», 60, 1, pp. 96-107. Buonanno, M., 2006, L’età della televisione. Esperienze e teorie, Laterza, Roma-Bari. Burg, Th.N., Schmidt, J. (a cura di), 2007, BlogTalks Reloaded: Social Soware Research & Cases, Book on Demand, Norderstedt. Burgess, J., Green, J., 2009, Youtube, Egea, Milano (ed. or., Youtube. Online Video And Participatory Culture, Polity Press, Cambridge [Mass.] 2009). Bynum, T.W., 2001, Computer Ethics: Its Birth and Its Future, in «Ethics and Information Technology», 3, pp. 109-112. Callon, M., 1987, Society in The Making: the Study of Technology As a Tool for Sociological Analysis, in Bijker, Hughes, Pinch (a cura di), pp. 83-103. Castells, M., 2002a, La nascita della società in rete, Università Bocconi Editore, Milano (ed. or., The Rise of Network Society, Blackwell, Oxford 1996/2000). Castells, M., 2002b, Galassia Internet, Feltrinelli, Milano (ed. or., The Internet Galaxy, Oxford University Press, Oxford 2001). Castronova, E., 2007, Universi sintetici. Come le comunità online stanno cambiando la società e l’economia, Mondadori, Milano (ed. or., Synthetic Worlds: The Business and Culture of Online Games, University of Chicago Press, Chicago, 2005). Cathcart, R., Gumpert, G., 1983, Mediated Interpersonal Communication: Toward a New Typology, in «Quarterly Journal of Speech», 69, 3, pp. 267-268. Celli, F., Di Lascio, F.M.L., Magnani, M., Pacelli, B., Rossi, L., 2010, Social Network Data and Practices: the Case of Friendfeed, in Chai, Salerno, Mabry (a cura di), pp. 346353. Cha, M., Haddadi, H., Benvenuto, F., Gummadi, K.P., 2010, Measuring User Influence in Twitter: The Million Follower Fallacy, Proceedings of the Fourth International AAAI Conference on Weblogs and Social Media, http://www.aaai.org/ocs/index.php/ICWSM/ICWSM10/paper/view/ 1538/1826. Chai, S.K., Salerno, J.J., Mabry, P.L. (a cura di), 2010, Advances in Social Computing. Third International Conference on Social Computing, Behavioral Modeling and Prediction (SBP 2010), Springer, Berlin. Chandru, V., 2002, Simputers and the Diffusion of Information, 35th Annual Meeting Of the Board of the Governor – Asia Development Bank. Charron, C., Favier, J., Li, C., 2006, Social Computing: How Networks Erode Institutional Power, And Whato to Do About It, Forrester research Inc, Cambridge. Chesebro, J.W., Bonsall, D.G., 1989, Computer Mediated Communication: Human Relationships in a Computerized World, University of Alabama Press, Tuscaloosa.

Chesney, T., 2006, An Empirical Examination Of Wikipedia’s Credibility, in «First Monday», 11, 11, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/1413/1331. Chiarvesio, A., Lemmi, L., 1996, Personal Media. Dalla comunicazione di massa alla comunicazione di rete, Guerini e Associati, Milano. Chisholm, L. (a cura di), 1995, Growing Up in Europe: Contemporary Horizons in Childhood and Youth Studies, Walter de Gruyter, Berlin. Clarke, R., 1988, Information Technology and Dataveillance, in «Communications of the ACM», 31, 5, pp. 498-512. Clary, E., Snyder, M., Ridge, R., Copeland, J., Stukas, A., Haugen, J., Miene, P., 1998, Understanding and Assessing the Motivations of Volunteers: A Functional Approach, in «Journal of Personality and Social Psychology», 74, pp. 1516-1530. Cohen, S., 1972, Folk Devils and Moral Panics: The Creation of the Mods and Rockers, St. Martin’s, New York. Cola, M., Prario, B., Richeri, G., 2010, Media, tecnologie e vita quotidiana: la domestication, Carocci, Roma. Collins, H.M., 1994, Esperti artificiali. Conoscenza sociale e macchine intelligenti, il Mulino, Bologna (ed. or., Artificial Experts. Social Knowledge and Intelligent Machines, MIT Press, Cambridge [Mass.] 1990). Collins, R., 1992, Teorie sociologiche, il Mulino, Bologna (ed. or., Theoretical Sociology, Harcourt Brace Jovanovich, Orlando 1988). Colombo, F., 1993, La comunicazione sintetica, in Bettetini, Colombo (a cura di), pp. 265-297. Colombo, F. (a cura di), 2005, Atlante della Comunicazione, Hoepli, Milano. Colombo, F. (a cura di), 2007, La digitalizzazione dei media, Carocci, Roma. Comunello, F., 2010, Networked sociability, Guerini e Associati, Milano. Corn, J.J., 1983, The Winged Gospel: America’s Romance with Aviation 1900-1950, Oxford University Press, New York. Corner, J., 1991, Meaning, Genre and Context: The Problematics of «Public Knowledge» in New Audience Studies, in Curran, Gurevitch (a cura di) pp. 267-284. Cosenza, V., 2011, Osservatorio Facebook, http://www.vincos.it/osservatorio-facebook/. Cover, R., 2006, Audience Inter/active: Interactive Media, Narrative Control and Reconceiving Audience History, in «New Media & Society», 8, 1, pp. 139-158. Curran, J., Gurevitch, M. (a cura di), 1991, Mass Media and Society, Arnold, London. Davies, A., 1996, Innovation in Large Technical Systems: The Case of Telecommunications, in «Industrial and Corporate Change», 5, 4, pp. 1143-1180. De Blasio, E., Gili, G., Hibberd, M., Sorice, M., 2007, La ricerca sull’audience, Hoepli, Milano. December, J., 1996, Units of Analysis for Internet Communication, in «Journal of Computer-Mediated Communication», 1, 4, http://jcmc.indiana.edu/vol1/issue4/december.html. de Certeau, M., 2001, L’invenzione del quotidiano, Edizioni Lavoro, Roma (ed. or., L’invention du quotidien, Gallimard, Paris 1990).

DeFleur, M.L., Ball-Rokeach, S.J., 1995, Teorie delle comunicazioni di massa, il Mulino, Bologna (ed. or., Theories of Mass Communication, Longman Publishing Group, New York 1989). De Sola Pool, I., 1998, Tecnologie senza frontiere. Le telecomunicazioni nell’era globale, Utet, Torino (ed. or., Technologies without Boundaries. On Telecommunications in Global Age, Harvard University Press, Cambridge [Mass.] 1990). Deuze, M., 2003, The Web and its Journalisms: Considering the Consequences of Different Types of Newsmedia Online, in «New Media & Society», 5, 2, pp. 203-230. Di Fraia, G. (a cura di), 2007, Blog-grafie. Identità narrative in rete, Guerini e Associati, Milano. Di Pasqua, E., 2008, Con Miss Bimbo la chirurgia plastica entra nei videogame. E fa discutere, in «Corriere della Sera.it», 25 marzo, http://www.corriere.it/cro nache/08_marzo_25/miss_bimbo_06ae2fd8-fa6a-11dc-b669-00144f486ba6.shtml. Dodge, M., Kitchin, R., 2001, Mapping Cyberspace, Routledge, London. D’Ottavi, A., 2006, Web 2.0. Le meraviglie della nuova internet, RGB, Milano. Downing, J.D.H., McQuail, D., Schlesinger, P., Wartella, E. (a cura di), 2004, The Sage Handbook of Media Studies, Sage, Thousand Oaks. Drucker, P., 1985, The Discipline of Innovation, in «Harvard Business Review», maggiogiugno, pp. 67-72. du Gay, P., Hall, S., Janes, L., Mackay, H., Negus, K., 1997, Doing Cultural Studies: The Story of the Sony Walkman, Sage, Thousand Oaks. Dwyer, C., Hiltz, S.R., Passerini, K., 2007, Trust and Privacy Concern Within Social Networking Sites: A comparison of Facebook and MySpace, Proceedings of the Thirteenth Americas Conference on Information Systems, http://csis.pace.edu/~dwyer/research/DwyerAMCIS2007.pdf. Economides, N., 2008, ‘Net Neutrality,’ Non-Discrimination and Digital Distribution of Content Through the Internet, in «I/S: A Journal Of Law And Policy», 4, 2, pp. 209233. Ehmann, K., Large, A., Beheshti, J., 2008, Collaboration in context: Comparing article evolution among subject disciplines in Wikipedia, in «First Monday», 13, 10, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/viewArticle/2217/ 2034. Ellis, J., 2000, Seeing Things: Television in the Age of Uncertainty, I.B. Tauris Publishers, London. Ellison, N.B., Steinfield, C., Lampe, C., 2007, The Benefits of Facebook «Friends»: Social Capital and College Students’ Use of Online Social Network Sites, in «Journal of Computer-Mediated Communication», 12, 4, http://jcmc.indiana.edu/vol12/issue4/ellison.html. Emigh, W., Herring, S.C., 2005, Collaborative Authoring on the Web: A Genre Analysis of Online Encyclopedias, in Proceedings of the 38th Hawai International Conference on System Sciences (HICSS), IEEE Press, Los Alamitos, pp. 99-109. Engelhardt, T.H., 1991, Manuale di bioetica, Il Saggiatore, Milano (ed. or., The Foundations of Bioethics, Oxford University Press, Oxford 1989).

Esquirol, J.M. (a cura di), 2003, Tecnoética. Actas del II Congreso Internacional de Tecnoética, Publicacions de la Universitat de Barcelona, Barcellona. Estalella, A., 2007, Blogs: from Communicative to Connective Artifacts, in Burg, Schmidt (a cura di), pp. 51-64. Fabris, G., 2008, Societing. Il marketing nella società postmoderna, Egea, Milano. Faulhaber, G.R., 2007, Network Neutrality: The Debate Evolves, in «International Journal of Communication», 1, pp. 680-700. Feenberg A., 2002, Tecnologia in discussione. Filosofia e politica della moderna società tecnologica, Etas, Torino (ed. or., Questioning Technology, Routledge, London 1999). Ferguson, A.D., Perse, E., 2000, The World Wide Web as a Functional Alternative to Television, in «Journal of Broadcasting and Electronic Media», 44, 2, pp. 155-174. Ferguson, M. (a cura di), 1990, Public Communication. The New Imperatives. Future Directions for Media Research, Sage, London. Fidler, R., 2000, Mediamorfosi. Comprendere i nuovi media, Guerini e Associati, Milano (ed. or., Mediamorphosis: Understanding New Media, Pine Forge, Thousand Oaks 1997). Fiske, J., 1990, Introduction to Communication Studies, Routledge, London. Fleck, J., 1994, Learning by trying: the implementation of configurational technology, in «Research Policy», 23, pp. 637-652. Flichy, P., 1994, Storia della comunicazione moderna. Sfera «pubblica» e dimensione privata, Baskerville, Bologna (ed. or., Une histoire de la communication moderne. Espace public et vie privée, La Découverte, Paris 1991). Flichy, P., 1996, L’innovazione tecnologica, Feltrinelli, Milano (ed. or., L’innovation technique, La Découverte, Paris 1995). Fogel, C., 2006, Producing Open Source Soware, O’Reilly Media, Sebastopol. Foiaia, L.G., 2007, Web 2.0. Guida al nuovo fenomeno della rete, Hoepli, Milano. Forrest, B., 2006, Controversy about our «Web 2.0» service mark, in «O’Reilly Radar», 25 maggio, http://radar.oreilly.com/archives/2006/05/controversy-about-our-web-20s.html Forte, A., Bruckman, A., 2008, Scaling Consensus: Increasing Decentralization in Wikipedia Governance, Proceedings of the 41st Annual Hawaii International Conference on System Sciences, pp. 157-166; http://www.cc.gatech.edu/elc/papers/forte/ForteBruckmanScalingConsensus.pdf. Fortunati, L., 2005, Mediatization of the Net and Internetization of the Mass Media, «Gazette: The International Journal For Communication Studies», 67, 1, pp. 27-44. Fragoso, S., 2006, WTF a Crazy Brazilian Invasion, in Sudweeks, Hrachovec (a cura di), pp. 255-274. Freeman, L.C., 2007, Lo sviluppo dell’analisi delle reti sociali. Uno studio di sociologia della scienza, Franco Angeli, Milano (ed. or., The Development of Social Network Analysis. A Study in the Sociology of Science, Empirical press, Vancouver, 2004). Fuller, M., 2003, Behind the Blip: Essays on the Culture of Soware, Autonomedia, New York.

Gagliasso, E., Memoli, R., Pontecorvo, M.E. (a cura di), i.c.s., Scienza e scienziati: colloqui interdisciplinari, vol. 1, Franco Angeli, Milano. Gal, S., 2002, A Semiotics of the Public/Private Distinction, in « Differences: A Journal of Feminist Cultural Studies», 13, 1, pp. 77-95. Galvan, J.M., 2001, La nascita della tecnoetica, in «Sant’Anna News», 18, pp. 12-15. Galvan, J.M., 2004, Tecnoetica e fede, domande e risposte, in «Vita & Pensiero», 87, 4, pp. 67-69. Galvan, J.M., 2005, La robotica come speranza: la tecnoetica, in Sanna, I. (a cura di), La sfida del post-umano. Verso nuovi modelli di esistenza?, Studium, Roma, pp. 101-112. Garfinkel, H., 1967, Che cos’è l’etnometodologia, in Giglioli, P.P., Dal Lago, A. (a cura di), Etnometodologia, Bologna, il Mulino, 1983, pp. 55-87. Garrett, J.J., 2005, Ajax: A New Approach to Web Application, in «Adaptive path», 18 febbraio, http://www.adaptivepath.com/ideas/e000385. Gasparini, B., 2005, voce Narrowcasting, in Colombo (a cura di), pp. 232-235. Gauntlett, D., 2007, Media Studies 2.0, http://www.theory.org.uk/mediastudies2.htm. Gauntlett, D., 2009, Media Studies 2.0: a Response, in «Interactions: Studies in Communication and Culture», 1, 1, pp. 147-157. Gauntlett, D., Horsley, R. (a cura di), 2004, Web Studies 2nd edition, Arnold, London. Gehlen A., 2003, L’uomo nell’era della tecnica, Armando Editore, Roma (ed. or., Die Seele im Technischen Zeitalter, Rowohlt, Hamburg, 1957). Geller, M. (a cura di), 1990, From Receiver to Remote Control: The TV Set, The New Museum of contemporary Art, New York. Giddens, A., 1984, The Constitution of Society, University of California Press, Berkeley. Giddens, A., 1994, Le conseguenze della modernità, il Mulino, Bologna (ed. or., The Consequences of Modernity, Stanford University Press, Stanford 1990). Giglietto, F., 2009, Io, i miei amici e il mondo: uno studio comparativo su Facebook e Badoo in Italia, in Mazzoli (a cura di), pp. 41-55. Gilbert, E., Karahalios, K., Sandvig, C., 2010, The Network in the Garden: Designing Social Media for Rural Life, in «American Behavioral Scientist», 53, 9, pp. 1367-1388. Giles, J., 2005, Internet Encyclopaedias Goes Head to Head, in «Nature», 438, 15, pp. 900901. Gili, G., 1990, La teoria della società di massa. Contesti, problemi, attualità, Edizioni Scientifiche Italiane, Napoli. Gillespie, T., 2010, The Politics of «Platform», in «New Media & Society», 12, 3, pp. 347364. Giordano, V. (a cura di), 2002, Linguaggi della metropoli, Liguori, Napoli. Giordano, V., Parisi, S. (a cura di), 2007, Chattare. Scenari della relazione in rete, Meltemi, Roma. Goffman, E., 1969, La vita quotidiana come rappresentazione, il Mulino, Bologna (ed. or., The Presentation of Self in Everyday Life, Doubleday, New York 1959). Gökalp, I., 1992, On the Analysis of Large Technical Systems, in «Science, Technology and Human Values», 17, 1, pp. 57-78. Grandi, R., 1992, I mass media fra testo e contesto. Informazione, pubblicità, intrattenimento, consumo sotto analisi, Lupetti, Milano. Granieri, G., 2005, Blog Generation, Laterza, Roma-Bari.

Gras, A., 1997, Nella rete tecnologica. La società dei macrosistemi, UTET-Telecom, Torino (ed. or., Grandeur et Dépendance, PUF, Paris 1993). Greco, G. (a cura di), 2002, ComEducazione. Conversazioni su comunicazione e educazione, Rubbettino, Soveria Mannelli. Griffith, M., Papacharissi, Z., 2010, Looking For You: An Analysis of Video Blogs, in «First Monday», 15, 1-4, http://firstmonday.org/htbin/cgiwrap/bin/ojs/in dex.php/fm/article/viewArticle /2769/2430. Griswold, W., 1997, Sociologia della cultura, il Mulino, Bologna (ed. or., Cultures and Societies in a Changing World, Pine Forge Press, Thousand Oaks 1994). Gross, R., Acquisti, A., 2005, Information Revelation and Privacy in Online Social Networks, Proceedings of Workshop on Privacy in the Electronic Society (WPES ’05), ACM Press, New York, pp. 71-80. Guadagni, P., De Tommaso, V., 2007, Il nuovo potere dei consumatori sul web, Hoepli, Milano. Gunkel, D., 2009, Beyond Mediation: Thinking the Computer Otherwise, in «Interactions: Studies in Communication and Culture», 1, 1, pp. 53-70. Gupta, T., Garg, S., Mahanti, A., Carlsson, N., Arlitt, M., 2009, Characterization of FriendFeed A Web-based Social Aggregation Service, Proceedings of the Third International AAAI Conference on Weblogs and Social Media, http://www.aaai.org/ocs/index.php/ICWSM/09/paper/viewFile/193/509. Ha, L., 2004, Webcasting, in Hossein (a cura di), pp. 674-686. Habermas, J., 2005, Storia e critica dell’opinione pubblica, Laterza, Roma-Bari (ed. or., Strukturwandel der Offentlichkeit, Hermann Luchterhand, Neuwild 1962). Hafner, K., Lyon, M., 1998, La storia del futuro. Le origini di Internet, Feltrinelli, Milano (ed. or., Where Wizards Stay up Late. The Origins of the Internet, Simon and Schuster, New York 1996). Halavais, A., Lackaff, D., 2008, An Analysis Of Topical Coverage Of Wikipedia, in «Journal of Computer-Mediated Communication», 13, pp. 429-440. Hall, S., 2000, Codifica e decodifica, in Marinelli, Fatelli (a cura di), pp. 67-84. Hargittai, E., 2007, Whose Space? Differences Among Users and Non-Users of Social Network Sites, in «Journal of Computer-Mediated Communication», 13, 1, http://jcmc.indiana.edu/vol13/ issue1/hargittai.html. Harrison, T.M., Barthel, B., 2009, Wielding New Media in Web 2.0: Exploring the History of Engagement with the Collaborative Construction Media Products, in «New Media & Society», 11, 1-2, pp. 155-178. Heidegger, M., 1953, La questione della tecnica, in Id., Saggi e discorsi, Mursia, Milano, 1976, pp. 5-27. Hermes, J., 2009, Audience Studies 2.0. On the theory, politics and method of qualitative audience research, in «Interactions: Studies in Communication and Culture», 1, 1, pp. 111-127. Herring, S.C., Scheidt, L.A., Kouper, I., Wright, E., 2007, A Longitudinal Content Analysis of Weblogs: 2003-2004, in Tremayne (a cura di), pp. 3-20. Hesmondhalgh, D., Toynbee, J. (a cura di), 2008, The Media and Social Theory, Routledge, London.

Himanen, P., 2003, L’etica hacker e lo spirito dell’età dell’informazione, Feltrinelli, Milano (ed. or., The Hacker Ethic and the Spirit of the Information Age, Random House, New York 2001). Hirst, M., Harrison, J., 2007, Communication and New Media: from Broadcast to Narrowcast, Oxford University Press, Melbourne. Holtz, S., Havens, J.C., 2009, Tactical Transparency. How Leaders can Leverage Social Media to Maximize Value and Build Their Brand, Jossey-Bass, San Francisco. Hossein, B. (a cura di), 2004, The Internet Encyclopedia vol. III, John Wiley & Sons, Hoboken. Hughes, Th.P., 1983, Networks of Power. Electrification in Western Society 1880-1930, Johns Hopkins University Press, Baltimore. Hughes, Th.P., 1987, The Evolution of Large Technological System, in Bijker, Hughes, Pinch (a cura di), pp. 51-82. Iannelli, L., 2010, Facebook & Co. Sociologia dei Social Network Sites, Guerini e Associati, Milano. Innis, H.A., 2001, Impero e comunicazioni, Meltemi, Roma (ed. or., Empire and Communications, Press Porcepic, Victoria 1950). Jackson, M.H., 2009, The Mash-Up: A New Archetype for Communication, in «Journal of Computer-Mediated Communication», 14, 3, pp. 730-734. Jenkins, H., 2007, Cultura convergente, Apogeo, Milano (ed. or., Convergence Culture, New York University, New York 2006). Jenks, C. (a cura di), 1995, Visual Communication, Routledge, London. Joerges, B., 1988, Large Technical Systems: Concept and Issues, in Mayntz, Hughes (a cura di), pp. 9-36. Joerges, B., 1999, Do politics have artifacts?, in «Social Study of Science», 29, 3, pp. 411431. Joinson, A., 2008, Looking up, Looking at or Keeping up with People? Motives and Use of Facebook, in Proceedings of the ACM CHI 2008 Conference on Human Factors in Computing Systems, ACM Press, New York, pp. 1027-1036. Jonas, H., 1993, Il principio di responsabilità. Un’etica per la civiltà tecnologica, Einaudi, Torino (ed. or., Das Prinzip Verantwortung. Versuch einer Ethik für die techologische Zivilisatio, Suhrkamp, Francoforte 1979). Jonas, H., 1997, Tecnica, medicina ed etica. Prassi del principio di responsabilità, Einaudi, Torino (ed. or., Technik, Medizin und Ethik: Zur Praxis des Prinzips Verantwortung, Insel Verlag, Francoforte 1985). Jones, B., Iredale, N., 2009, Entrepreneurship Education and Web 2.0, in «Journal of Research in Marketing and Entrepreneurship», 11, 1, pp. 66-77. Jones, J., Himelboim, I., 2010, Just a guy in pajamas? Framing the blogs in mainstream US newspaper coverage (1999-2005), in «New Media & Society», 12, 2, pp. 271-288. Jones, S., 2002, Distribuzione e downloading: la musica e le tecnologie del web, in D’Amato, F. (a cura di), Sound Tracks. Tracce, convergenze e scenari degli studi musicali, Meltemi, Roma, pp. 149-162. Joy, B., 2000, Why the Future Doesn’t Need Us, «Wired», 8, 4, pp. 238-262.

Kapor, M., 2006, Architecture is Politics (and Politics is Architecture), in «Mitch Kapor’s Blog», 23 aprile, http://blog.kapor.com/index9cd7.html?p=29. Katz, E., Blumler, J.G., Gurevitch, M., 2000, L’utilizzazione della comunicazione di massa da parte dell’individuo, in Marinelli, Fatelli (a cura di), pp. 47-66. (ed. or., Utilization of mass communication by the individual, in Blumler, Katz [a cura di]). Katz, E., Lazarsfeld, P.F., 1968, L’influenza personale nelle comunicazioni di massa, RaiERI, Torino (ed. or., Personal Influence. The Part Played by People in the Flow of Mass Communications, The Free Press, Glencoe 1955). Katz, J.E., Aakhus, M., 2002, Conclusion: Making Meaning of Mobiles – a Theory of Apparatgeist, in Id. (a cura di), Perpetual Contact. Mobile Communication, Private Talk, Public Performance, Cambridge University Press, Cambridge, pp. 301-320. Kay, A., Goldberg, A., 1977, Personal Dynamic Media, in Montfort, Wardrip-Fruin (a cura di), pp. 393-404. Keen, A., 2009, Dilettanti.com. Come la rivoluzione del Web 2.0 sta uccidendo la nostra cultura e distruggendo la nostra economia, De Agostini, Novara (ed. or., The Cult of the Amateur. How Today’s Internet Is Killing Our Culture, Doubleday, New York 2007). Kim, P., Sawhney, H., 2002, A Machine-like New Medium. Theoretical Examinations of Interactive TV, in «Media, Culture & Society», 24, 2, pp. 217-233. Kitzinger, J., 2004, Audience and Readership Research, in Downing, McQuail, Schlesinger, Wartella (a cura di), pp. 167-182. Kivikuru, U., 2006, Tsunami Communication in Finland. Revealing Tensions in the SenderReceiver Relationship, in «European Journal of Communication», 21, 4, pp. 499-520. Klapper, J.T., 1963, Mass Communications Research: An Old Road Resurveyed, in «Public Opinion Quarterly», 27, 4, pp. 515-527. Kling, R., 1991, Computerization and Social Transformations, in «Science, Technology and Human Values», 16, 3, pp. 342-367. Kling, R., 1999, What is Social Informatics and Why Does it Matter?, in «D-Lib Magazine», 5, 1, http://www.dlib.org/dlib/january99/kling/01kling.html. Kling, R., Crawford, H., Rosenbaum, H., Sawyer, S., Weisband, S., 2000, Learning from Social Informatics: Information and Communication Technologies in Human context, Center for Social Informatics, Indiana University, NSF Grant n. IRI-9714211. Kling, R., Scacchi, W., 1982, The Web of Computing: Computing Technology as Social Organization, in «Advances in Computers», 21, pp. 1-90. Kling, R., Star, S.L., 1998, Human Centered Systems in the Perspective of Organizational and Social Informatics, in «Computers and Society», 28, 1, pp. 22-29. Kostakis, V., 2010, Identifying and understanding the problems of Wikipedia’s peer governance: The case of inclusionists versus deletionists, in «First Monday», 15, 3http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/viewArti cle/2613/2479. Kranzberg, M., 1986, Technology and History: «Kranzberg’s Laws», in «Technology and Culture», 27, 3, pp. 544-560. Krotz, F., 2007, The Meta-Process of ‘Mediatization’ as a Conceptual Frame, in «Global Media and Communication», 3, 3, pp. 256-260. Kruse, H., 2002, Narrowcast Technology, Interactivity, and the Economic Relations of Space: the Case of Horse Race Simulcasting, in «New Media & Society», 4, 3, pp. 385-404.

Kubicek, H., Dutton, W.H., Williams, R. (a cura di), 1997, The Social Shaping of Information Superhighways: European and American Roads to the Information Society, Campus, Frankfurt. Kuhn, T.S., 1978, La struttura delle rivoluzioni scientifiche, Torino, Einaudi (ed. or., The Structure of Scientific Revolution, Chicago University Press, Chicago 1962). Kumar, K., 2000, Le nuove teorie del mondo contemporaneo. Dalla società post-industriale alla società post-moderna, Einaudi, Torino (ed. or., From Post-Industrial to Post-Modern Society. New Theories of the Contemporary World, Blackwell, Oxford 1995). Kwak, H., Lee Ch., Park, H., Moon, S., 2010, What is Twitter, a Social Network or a News Media?, Proceedings of the 19th International World Wide Web Conference, ACM Press, New York, http://an.kaist.ac.kr/~haewoon/papers/ 2010-www-twitter.pdf. Lakoff, G., Johnson, M., 1998, Metafora e vita quotidiana, Bompiani, Milano (ed. or., Metaphors We Live By, Chicago University Press, Chicago 1980). Lampe, C., Ellison, N., Steinfield, C., 2006, A Face(book) in the Crowd: Social Searching vs. Social Browsing, Proceedings of the 2006 20th Anniversary Conference on Computer Supported Cooperative Work, ACM Press, New York, pp. 167-170. Lange, P.G., 2008, Publicly Private and Privately Public: Social Networking on YouTube, in «Journal of Computer-Mediated Communication», 13, 1, pp. 361-380, http://jcmc.indiana.edu/vol13/issue1/lange.html. Langlois, G., Elmer, G., 2009, Wikipedia Leeches? The Promotion of Traffic Through a Collaborative Web Format, in «New Media & Society», 11, 5, pp. 773-794. Lanier, J., 2010, Tu non sei un gadget, Mondadori, Milano (ed. or., You Are Not a Gadget: A Manifesto, Alfred Knopf, New York 2010). Lasswell, H.D., 1948, The Structure and Function of Communication in Society, in Bryson, L. (a cura di), The Communication of Ideas, University of Illinois Press, Urbana, pp. 117130. Laughey, D., 2007, Key Themes in Media Theory, Open University Press, Maidenhead. Law, J., 1987, Technology and Heterogeneous Engineering: the Case of Portuguese Expansion, in Bijker, Hughes, Pinch (a cura di), pp. 111-134. Lee, J., Lee, H., 2010, The computer-mediated communication network: exploring the linkage between the online community and social capital, in «New Media & Society», 12, 5, pp. 711-727. Lerman, K., Ghosh, R., 2010, Information Contagion: an Empirical Study of the Spread of News on Digg and Twitter Social Networks, Proceedings of the Fourth International AAAI Conference on Weblogs and Social Media, http://www.aaai.org/ocs/index.php/ICWSM/ICWSM10/paper/view/1509/1839. Lessig, L., 1999, Code: And Other Laws of Cyberspace, Basic Books, New York. Lessig, L., 2009, Remix. Il futuro del copyright (e delle nuove generazioni), Etas, Milano (ed. or., Remix. Making Art and Commerce Thrive in the Hybrid Economy, Penguin Press, New York 2008). Levine, R., Locke, C., Searls, D., Weinberger, D., 2001, Cluetrain manifesto. The end of business as usual, Fazi, Roma (ed. or., The Cluetrain Manifesto. The End of Business as Usual, Perseus, New York, 2000).

Levy, P., 1996, L’intelligenza collettiva. Per un’antropologia del cyberspazio, Feltrinelli, Milano (ed. or., L’intelligence collective. Pour une anthropologie du cyberspace, La Découverte, Paris 1994). Lewis, J., West, A., 2009, ‘Friending’: London-Based Undergraduates’ Experience of Facebook, in «New Media & Society», 11, 7, pp. 1209-1229. Lewis, K., Kaufman, J., Gonzalez, M., Wimmer A., Christakis N., 2008, Tastes, ties, and time: A new social network dataset using Facebook.com, in «Social Networks», 30, 4, pp. 330-342. Lewis, L., 1992, The Adoring Audience: Fan Culture and Popular Media, Routledge, London. Li, C., Bernoff, J., 2008, L’onda anomala. Interagire e collaborare con i consumatori ribelli, Etas, Milano (ed. or., Groundswell. Winning in a World Transformed by Social Technologies, Harvard Business Press, Cambridge [Mass.], 2008). Liebowitz, S.J., Margolis, S.E., 1994, Network Externalities: An Uncommon Tragedy, in «Journal of Economic Perspectives», 8, 2, pp. 133-150. Lievrouw, L.A., 2004, What’s Changed About New Media? Introduction to the Fih Anniversary Issue of New Media & Society, in «New Media & Society», 6, 1, pp. 9-15. Lievrouw, L.A., Livingstone, S. (a cura di), 2007, Capire i new media. Culture, comunicazione, innovazione tecnologica e istituzioni sociali, Hoepli, Milano (ed. or., The Handbook of New Media, Sage, London 2006). Lievrouw, L.A., Livingstone, S., 2007, Introduzione all’edizione aggiornata per studenti, in Ead. (a cura di), pp. XIII-XXXII. Lih, A., 2010, La rivoluzione di Wikipedia, Codice Edizioni, Torino (ed. or., The Wikipedia Revolution, Hyperion Books, New York 2009). Lindlof, T., 1988, Media Audiences as Interpretive Communities, in Anderson (a cura di), pp. 81-107. Lindsey, D., 2010, Evaluating Quality Control Of Wikipedia’s Feature Articles, in «First Monday», 15, 4-5, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/viewArticle/2721/ 2482. Liu, H., Maes, P., Davenport, G., 2006, Unraveling the Taste Fabric of Social Networks, in «International Journal on Semantic Web and Information Systems», 2, 1, pp. 42-71. Livingstone, S., 1999, New Media, New Audiences?, in «New Media & Society», 1, 1, pp. 59-66. Livingstone, S., 2004, Come cambiano le audience. Quali sfide per la ricerca sull’audience nell’era di internet?, in Andò (a cura di), pp. 25-37 (ed. or., The Challenge of Changing Audiences. Or, What is the Audience Researcher to do in the Age of the Internet?, in «European Journal of Communication», 19, 1, pp. 75-86). Livingstone, S., 2008, Taking Risky Opportunities in Youthful Content Creation: Teenagers’ Use of Social Networking Sites for Intimacy, Privacy And Self Expression, in «New Media & Society», 10, 3, pp. 393-411. Locci, E., 2008, Arriva «Miss Bimbo», il gioco delle bambole rifatte e contente, «La Stampa.it», 26 marzo, http://www.lastampa.it/_web/cmstp/tmplrubri che/giornalisti/grubrica.asp?ID_blog=69&ID_articolo=1624.

Lopez, L.K., 2009, The Radical Act of ‘Mommy Blogging’: Redefining Motherhood Through the Blogosphere, in «New Media & Society», 11, 5, pp. 729-747. Lüders, M., 2008, Conceptualizing Personal Media, in «New Media & Society», 10, 5, pp. 683-702. Lughi, G., 2006, Cultura dei nuovi media. Teorie, strumenti, immaginario, Guerini e Associati, Milano. Lull, J., 2003, In famiglia, davanti alla tv, Meltemi, Roma (ed. or., Inside Family Viewing Ethnographic Research on Television’s Audience, Routledge, London 1990). Luppicini, R., Adell, R. (a cura di), 2009, Handbook of Research on Technoethics, Information Science Reference, Hershey. MacKay, H., Gillespie, G., 1992, Extending the Social Shaping of Technology Approach: Ideology and Appropriation, in «Social Studies of Science», 22, 4, pp. 685-716. MacKenzie, D., Wajcman, J. (a cura di), 1999, The Social Shaping of Technology, Open University Press, Buckingham. Magnani, M., Montesi, D., Rossi, L., 2010, Friendfeed Breaking News: Death of a Public Figure, IEEE Second International Conference on Social Computing, http://www.computer.org/portal/web/csdl/doi/10.1109/SocialCom.2010.83. Malcolm, J., 2008, Multi-Stakeholder Governance and the Internet Governance Forum, Terminus Press, Perth. Marinelli, A., 2004, Connessioni. Nuovi media, nuove relazioni sociali, Guerini e Associati, Milano. Marinelli, A., Fatelli, G. (a cura di), 2000, Tele-visioni. L’audience come volontà e come rappresentazione, Meltemi, Roma. Marvin, C., 1994, Quando le vecchie tecnologie erano nuove. Elettricità e comunicazione a fine Ottocento, Utet, Torino (ed. or., When Old Technologies Were New: Thinking about Electric Media in the Late Nineteenth Century, Oxford University Press, Oxford 1988). Marwick, A.E., 2008, To Catch a Predator? The MySpace Moral Panic, in «First Monday», 13, 6, http://www.uic.edu/htbin/cgiwrap/bin/ojs/index.php/fm/article/viewArticle/2152/19 66. Mason, R.O., 1986, Four Ethical Issues of the Information Age, in «Management Information Systems Quarterly», 10, 1, pp. 5-12. Mattelart, A., 2002, Storia della società dell’informazione, Einaudi, Torino (ed. or., Histoire de la société de l’information, La Découverte, Paris 2001). Mayntz, R., Hughes, Th.P. (a cura di), 1988, The Development of Large Technical Systems, Campus Verlag, Frankfurt. Mayntz, R., Schneider, V., 1988, The Dynamics of System Development in a Comparative Perspective: Interactive Videotext in Germany, France, Britain, in Mayntz, Hughes (a cura di), pp. 263-298. Mazzoli, L. (a cura di), 2009, Network Effect. Quando la rete diventa pop, Codice Edizioni, Torino. McCarty, C., 2002, Structure in Personal Networks, in «Journal of Social Structure», 3, 1, http://www.cmu.edu/joss/content/articles/volume3/McCarty.html.

McCracken, G., 1990, Culture and Consumption. New Approaches to the Symbolic Character of Consumer Goods and Activities, Indiana University Press, Bloomington. McDougall, J., 2010, Wiring the Audience, in «Participations. Journal of Audience & Reception Studies», 7, 1, pp. 73-101. McLuhan, M., 1990, Gli strumenti del comunicare, Il Saggiatore, Milano (ed. or., Understanding Media: The Extensions of Man, McGraw Hill, New York 1964). McLuhan, M., McLuhan, E., 1994, La legge dei media, Edizioni Lavoro, Roma (ed. or., The Laws of the Media. The New Science, University of Toronto Press, Toronto 1992). McMillan, S., 2002, A Four-Part Model of Cyber-Interactivity: Some Cyber-Places are More Interactive than Others, in «New Media & Society», 4, 2, pp. 271-291. McQuail, D., 2001, L’analisi dell’audience, il Mulino, Bologna (ed. or., Audience Analysis, Sage, London 1997). Merrin, W., 2009, Media Studies 2.0: Upgrading and Open-sourcing the Discipline, in «Interactions: Studies in Communication and Culture», 1, 1, pp. 17-34. Merton, R.K., 1981, La struttura normativa della scienza, in Id., La sociologia della scienza. Indagini teoriche ed empiriche, Franco Angeli, Milano, pp. 349-362 (ed. or., The Normative Structure of Science [1942], in Id., The Sociology of Science. Theoretical and empirical investigations, The University of Chicago Press, Chicago and London 1973). Metitieri, F., 2009, Il grande inganno del Web 2.0, Laterza, Roma-Bari. Meyrowitz, J., 1993, Oltre il senso del luogo. Come i media elettronici influenzano il comportamento sociale, Baskerville, Bologna (ed. or., No Sense of Place. The Impact of Electronic Media on Social Behaviour, Oxford University Press, New York 1985). Miller, T., 2008, Step Away From The Croissant: Media Studies 3.0, in Hesmondhalgh, Toynbeee (a cura di), pp. 213-228. Miller, T., 2009, Media Studies 3.0, in «Television & New Media», 10, 1, pp. 5-6. Miller, V., 2008, New Media, Networking and Phatic Culture, in «Convergence», 14, 4, pp. 387-400. Molyneaux, H., O’Donnell, S., Gibson, K., Singer, J., 2008, Exploring the Gender Divide on YouTube: An Analysis of the Creation and Reception of Vlogs, in «American Communication Journal», 10, 2, pp. 1-14. Montfort, N., Wardrip-Fruin, N. (a cura di), 2003, The New Media Reader, MIT Press, Cambridge (Mass.). Moor, J., 1985, What Is Computer Ethics?, in «Metaphilosophy», 16, 4, pp. 266-275. Moor, J., 2001, The Future of Computer Ethics: You Ain’t Seen Nothin’ Yet!, in «Ethics and Information Technology», 3, 2, pp. 89-91. Moores, S., 1998, Il consumo dei media. Un approccio etnografico, il Mulino, Bologna (ed. or., Interpreting Audiences, Sage, London 1993). Morin, E., 2002, Lo spirito del tempo, Meltemi, Roma (ed. or., L’esprit du temps 1. Nevrose, Grassette & Fasquelle, Paris 1962). Morley, D., 1995, Television: Not So Much a Visual Medium, More a Visible Object, in Jenks (a cura di), pp. 170-189. Morley, D., 2003, What’s ‘Home’ Got to Do With it? Contradictory Dynamics in the Domestication of Technology and the Dislocation of Domesticity, in «European Journal of Cultural Studies», 6, 4, pp. 435-458. Morozov, E., 2011, The Net Delusion. How Not to Liberate the World, Allen Lane, London.

Morris, M., Ogan, C., 1996, The Internet as Mass Medium, in «Journal of Communication», 46, 1, pp. 39-50. Mullen, M., 2002, The Rise and Fall of Cable Narrowcasting, in «Convergence», 8, 1, pp. 62-83. Mumford, L., 1969, Il mito della macchina, Il Saggiatore, Milano (ed. or., The Myth of the Machine I. Technics and Human Development, Harcourt, Brace and World, New York 1967). Murru, M.F., 2007, Social shaping of technology e diffusionismo: due prospettive a confronto, in Colombo (a cura di), pp. 39-67. Naaman, M., Boase, J., Lai, C., 2010, Is it Really About Me? Message Content in Social Awareness Streams, Proceedings of the 2010 Conference on Computer Supported Cooperative Work, ACM Press, New York, pp. 189-192. Nardi, B.A., Schiano, D.J., Gumbrecht, M., Swartz, M.L., 2004, Why We Blog, in «Communications of the ACM», 47, 12, pp. 41-46. Negroponte, N., 1999, Essere digitali, Sperling & Kupfer, Milano (ed. or., Being Digital, Alfred Knopf, New York 1995). Nielsen, F.A., 2007, Scientific Citations in Wikipedia, in «First Monday», 12, 8, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/1997/ 1872. Nov, O., 2007, What Motivates Wikipedians?, in «Communication of the ACM», 50, 11, pp. 60-64. Ofcom, 2008, Social Networking. A Quantitative and Qualitative Research Report into Attitudes, Behaviours and Use, Office of Communications, http://stakeholders.ofcom.org.uk/binaries/research/media-literacy/report1.pdf. Olivi, B., Somalvico, B., 1997, La fine della comunicazione di massa. Dal villaggio globale alla nuova Babele elettronica, il Mulino, Bologna. Ong, W.J., 1986, Oralità e scrittura. Le tecnologie della parola, il Mulino, Bologna (ed. or., Orality and Literacy. The Technologizing of the Word, Methuen, London, 1982). O’Reilly, T., 2005, What is Web 2.0. Design Patters and Business Models for the Next Generation of Soware, «O’Reilly.com», http://oreilly.com/web2/archi ve/what-is-web-20.html. Ortoleva, P., 2009, Il secolo dei media. Riti, abitudini, Mitologie, il Saggiatore, Milano. Ossicini, A., Mancini, E., 1999, La bioetica, Editori Riuniti, Roma. Ottaway, M., Hamzawy, A., 2011, Protest Movement and Political Change in the Arab World, Carnegie Endowment for International Peace, 28 gennaio, http://www.carnegieendowment.org/files/OttawayHamzawy_Outlook_Jan11_Prote stMovements.pdf. Paccagnella, L., 2000, La comunicazione al computer. Sociologia delle reti telematiche, il Mulino, Bologna. Pacey, A., 1986, Vivere con la tecnologia, Editori Riuniti, Roma (ed. or., The Culture of Technology, Basil Blackwell, Oxford 1983). Pahl, R., 2000, On Friendship, Polity Press, Cambridge.

Palen, L., Dourish, P., 2003, Unpacking «Privacy» for a Networked World, Proceedings of the ACM CHI 2003 Conference on Human Factors in Computing Systems, ACM Press, New York, pp. 129-136. Paolillo, J.C., 2008, Structure and Network in the YouTube Core, Proceedings of the 41st Annual Hawaii International Conference on System Sciences (HICSS), pp. 156166. http://www.computer.org/plugins/dl/pdf/proceedings/hicss/ 2008/3075/00/30750156.pdf. Papacharissi, Z., 2007, Audiences as Media Producers: Content Analysis of 260 Blogs, in Tremayne (a cura di), pp. 21-38. Papacharissi, Z., 2009, The Virtual Geographies of Social Networks: a Comparative Analysis of Facebook, LinkedIn and ASmallWorld, in «New Media & Society», 11, 1-2, pp. 199220. Parisi, D., 1993, Mass-media vs personal media, in Ardigò, Mazzoli (a cura di), pp. 86-98. Patchin, J.W., Hinduja, S., 2010, Trends in Online Social Networking: Adolescent Use of MySpace Over Time, in «New Media & Society», 12, 2, pp. 197-216. Pedemonte, E., 1998, Personal media. Storia e futuro di un’utopia, Bollati Boringhieri, Torino. Peha, J.M., Lehr, W.H., Wilkie, S., 2007, The State of the Debate on Network Neutrality, in «International Journal of Communication», 1, pp. 709-716. Pepe, A., Di Gennaro, C., 2009, Political protest Italian style. The blogosphere and mainstream media in the promotion and coverage of Beppe’s Grillo V-day, in «First Monday», 14, 12, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/viewArticle/2740/ 2406. Pessa, E., 1992, Intelligenza artificiale. Teorie e sistemi, Bollati Boringhieri, Torino. Peters, B., 2009, And Lead Us Not into Thinking the New is New: a Bibliographic Case for New Media History, in «New Media Society», 11, 1&2, pp. 13-30. Pfaffenberger, B., 1992, Technological dramas, Science, Technology and Human Values, 17, 3, pp. 282-312. Pfeil, U., Zaphiris, P., Ang, C.S., 2006, Cultural Differences in Collaborative Authoring of Wikipedia, in «Journal of Computer-Mediated Communication», 12, pp. 88-113. Postman, N., 1993, Technopoly. La resa della cultura alla tecnologia, Bollati Boringhieri, Torino (ed. or., Technopoly. The Surrender of Culture to Technology, Vintage, New York 1992). Preece, J., 2001, Comunità online. Progettare l’usabilità, promuovere la socialità, Tecniche Nuove, Milano (ed. or., Online Communities. Designing Usability, Supporting Sociability, John Wiley & Sons, Chicester 2000). Quan-Haase, A., Young, A.L., 2010, Uses and Gratifications of Social Media: A Comparison of Facebook and Instant Messaging, in «Bulletin of Science, Technology & Society», 30, 5, pp. 350-361. Quiniou, J.C., 1972, Marxismo e informatica, Editori Riuniti, Roma (ed. or., Marxisme et informatique, Édition Sociales, Paris, 1971). Raery, T., 2006, O’Reilly trademarks «Web 2.0» and sets lawyers on ITCork!, 25 maggio, http://tomraery.com/2006/05/25/oreilly-trademarks-web-20-and-sets-lawyers-on-

itcork/. Raymond, E.S., 1998, The Cathedral and the Bazaar, in «First Monday», 3, 3, http://www.firstmonday.org/issues/issue3_3/raymond/index.html (trad. it., http://www.apogeonline.com/openpress/cathedral). Rheingold, H., 1993, La realtà virtuale, Baskerville, Bologna (ed. or., The Virtual Reality, Touchstone, New York 1991). Rheingold, H., 2003, Smart Mobs. Tecnologie senza fili. La rivoluzione sociale prossima ventura, Raffaello Cortina, Milano (ed. or., Smart Mobs: The Next Social Revolution, Basic Books, Cambridge 2002). Riva, G., 2010, I social network, il Mulino, Bologna. Rodotà, S., 2004, Tecnopolitica. La democrazia e le nuove tecnologie della comunicazione, Laterza, Roma-Bari. Rogers, E., 2003, Diffusion of Innovations, Free Press, New York. Roversi, A., 2004, Introduzione alla comunicazione mediata dal computer, il Mulino, Bologna. Royal, C., Kapila, D., 2009, What’s On Wikipedia, and What’s Not...?: Assessing Completeness of Information, in «Social Science Computer Review», 27, 1, pp. 138148. Santoro, M., Sassatelli, R., 2009, Studiare la cultura. Nuove prospettive sociologiche, il Mulino, Bologna. Santos, R.L.T., Rocha, B.P.S., Rezende, C.G., Loureiro, A.A.F., 2007, Characterizing the YouTube Video-Sharing Community, http://security1.win.tue.nl/~bpontes/pdf/yt.pdf. Sawyer, S., Rosenbaum, H., 2000, Social Informatics in the Information Sciences: Current Activities and Emerging Directions, in «Informing Science», 3, 2, pp. 89-96. Schmidt, J., 2007, Blogging Practices. An Analytical Framework, in «Journal of ComputerMediated Communication», 12, 4, pp. 1409-1427. Schmidt, K., Pendergast, M., Ackerman, M., Mark, G. (a cura di), 2005, Proceedings of GROUP International Conference on Supporting Group Work, ACM Press, New York. Schudson, M., 2009, Come funziona la cultura: prospettive dallo studio dei media, in Santoro, Sassatelli (a cura di), pp. 115-142 (ed. or., How Culture Works: Perspectives on Media Studies on the Efficacy Of The Simbols, in «Theory and Society», 1989, 18, 2, pp. 153180). Schultz, W., 2004, Reconstructing Mediatization as an Analytical Concept, in «European Journal of Communication», 19, 1, pp. 87-101. Scifo, B., 2005, Culture mobili. Ricerche sull’adozione giovanile di telefonia cellulare, Vita & Pensiero, Milano. Scott, J., 1997, L’analisi delle reti sociali, Carocci, Roma (ed. or., Social Network Analysis. A Handbook, Sage, London 1991). Sessions, L.F., 2009, «You looked better on MySpace» Deception and authenticity on Web 2.0, in «First Monday», 14, 7, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/viewArticle/2539/ 2242. Shapiro, C., Varian, H.R., 1999, Information rules. Le regole dell’economia dell’informazione, Etas, Milano (ed. or., Information Rules. A Strategic Guide to the Network Economy,

Harvard Business School Press, Boston 1999). Shirky, C., 2005, Uno per uno, tutti per tutti. Il potere di organizzare senza organizzazione, Codice Edizioni, Torino (ed. or., Here Comes Everybody. The Power of Organizing without Organizations, Penguin, New York 2008). Siapera, E., 2004, From Couch Potatoes to Cybernauts? The Expanding Notion of the Audience on TV Channels’ Websites, in «New Media & Society», 6, 2, pp. 155-172. Silverstone, R., 1990, Television and Everyday Life: Towards an Anthropology of the Television Audience, in Ferguson (a cura di), pp. 173-190. Silverstone, R., 2000, Televisione e vita quotidiana, il Mulino, Bologna (ed. or., Television and Everiday Life, Routledge, London 1994). Silverstone, R., Hirsch, E. (a cura di), 1992, Consuming Technologies. Media and Information in Domestic Spaces, Routledge, London. Silverstone, R., Hirsch, E., 1992, Introduction, in Id. (a cura di), pp. 1-11. Silverstone, R., Hirsch, E., Morley, D., 1992, Information and Communication Technologies and The Moral Economy of the Household, in Silverstone, Hirsch (a cura di), pp. 15-31. Smith-Shomade, B.E., 2004, Narrowcasting in the New World Information Order. A Space for the Audience?, in «Television & New Media», 5, 1, pp. 69-81. Sofi, A., 2006, Un nuovo giornalismo s’intreccia nella rete. L’informazione nell’era dei blog, in Sorrentino (a cura di), pp. 141-168. Solove, D.J., 2004, The Digital Person: Technology and Privacy in the Information Age, New York University Press, New York. Sorice, M., 2005, voce Broadcasting, in Colombo (a cura di), pp. 24-26. Sorice, M., 2007a, Teorie e metodi della ricerca sull’audience, in De Blasio, Gili, Hibberd, Sorice, pp. 45-132. Sorice, M., 2007b, Alla ricerca dell’audience perduta, in «Economia della cultura», 17, 3, pp. 309-320. Sorrentino, C. (a cura di), 2006, Il campo giornalistico. I nuovi orizzonti dell’informazione, Carocci, Roma. Spadaro, A., 2010, Web 2.0. Reti di relazione, Paoline, Milano. Spigel, L., 2001, Media Homes. Then and Now, in «International Journal of Cultural Studies», 4, 4, pp. 385-411. Spoerri, A., 2007, What is Popular on Wikipedia and Why?, in «First Monday», 12, 4, http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/viewArticle/1765/ 1645. Standage, T., 1999, The Victorian Internet: The Remarkable Story of the Telegraph and the Online Pioneers, Walker & Company, New York. Star, S.L., Bowker, G., 2007, L’infrastruttura dei new media, in Lievrouw, Livingstone (a cura di), pp. 238-260. Staudenmayer, J.M., 1989, The Politics of Successful Technologies, in Cutliffe, S.H., Post, R.C. (a cura di), In context. History and the history of technology, Lehigh University Press, Bethlehem, pp. 150-171. Sudweeks, F., Hrachovec, H. (a cura di), 2006, Proceedings of the 5th International Conference on Cultural Attitudes Towards Technology and Communication (CATaC) 2006, Murdoch University, Murdoch.

Surowiecki, J., 2007, La saggezza della folla, Internazionale Fusi Orari, Milano (ed. or., The Wisdom of Crowds, Doubleday, New York 2004). Tapscott, D., Williams, A.D., 2007, Wikinomics. La collaborazione di massa che sta cambiando il mondo, Etas, Milano (ed. or., Wikinomics. How Mass Collaboration Changes Everything, Penguin, New York 2006). The Washington Times, 2009, Iran’s Twitter Revolution, http://www.washingtontimes.com/news /2009/jun/16/irans-twitter-revolution/. Thompson, J.B., 1998, Mezzi di comunicazione e modernità. Una teoria sociale dei media, il Mulino, Bologna (ed. or., The Media and Modernity. A Social Theory of the Media, Polity Press, Cambridge, 1995). Thorsen, E., 2008, Journalistic Objectivity Redefined? Wikinews And The Neutral Point Of View, in «New Media & Society», 10, 6, pp. 935-954. Tincknell, E., Raghuram, P., 2002, Big Brother. Reconfiguring the ‘Active’ Audience of Cultural Studies, in «European Journal of Cultural Studies», 5, 2, pp. 199-215. Toffler, A., 1987, La terza ondata, Sperling & Kupfer, Milano (ed. or., The Third Wave, Bantam, New York 1981). Tosini, D., 2005, Capitale sociale: problemi di costruzione di una teoria, Quaderni del Dipartimento di Sociologia e Ricerca Sociale dell’Università di Trento, n. 32, http://www.unitn.it/files/quad32.pdf. Tosoni, S., 2004, Identità virtuali, Franco Angeli, Milano. Trammell, K.D., Tarkowski, A., Hofmokl, J., Sapp, A.M., 2006, Rzeczpospolita blogów [Republic of Blog]: Examining Polish bloggers through content analysis, in «Journal of Computer-Mediated Communication», 11, 3, http://jcmc.indiana. edu/vol11/issue3/trammell.html. Tremayne, M. (a cura di), 2007, Blogging, Citizenship and the Future of Media, Routledge, London. Tufekci, Z., 2008, Can You See Me Now? Audience and Disclosure Regulation in Online Social Network Sites, in «Bulletin of Science, Technology & Society», 28, 1, pp. 2036. Valente, Th.W., 1996, Social Network Thresholds in the Diffusion of Innovations, in «Social Networks», 18, pp. 69-89. Valente, Th.W., Davis, R.L., 1999, Accelerating the Diffusion of Innovations Using Opinion Leaders, in «Annals of the American Academy of Political and Social Science», 566, pp. 55-67. Van Dijck, J., Nieborg, D., 2009, Wikinomics and Its Discontents: A Critical Analysis of Web 2.0 Business Manifestos, in «New Media & Society», 11, 5, pp. 855-874. Van Dijk, J., 1999, Sociologia dei nuovi media, il Mulino, Bologna (ed. or., The Network Society. An Introduction to the Social Aspects of New Media, Sage, London 1999). Viegas, F.B., Wattenberg, M., Dave, K., 2004, Studying Cooperation and Conflict Between Authors With History Flow Visualizations, Proceedings from ACM CHI 2004 Conference on Human Factors in Computing Systems, ACM Press, New York, pp. 575-582.

Wajcman, J., 1991, Feminism Confronts Technology, Polity Press, Cambridge. Wall, R., 2005, «Blogs of war». Weblogs as news, in «Journalism», 6, 2, pp. 153-172. Watt, S.E., Lea, M., Spears, R., 2002, How social is Internet Communication? A Reappraisal of Bandwidth and Anonymity effects, in Woolgar (a cura di), pp. 61-77. Web Ecology Project, 2009, The Iranian election on Twitter: the First Eighteen Days, 1, http://www.webecologyproject.org/wp-content/uploads/2009/08/WEPtwitterFINAL.pdf. Webster, F., 2007, La società dell’informazione rivisitata, in Lievrouw, Livingstone (a cura di), pp. 393-415. Weizenbaum, J., 1987, Il potere del computer e la ragione umana, Edizioni del Gruppo Abele, Torino (ed. or., Computer Power and Human Reason. From Judgement to Calculation, W.H. Freeman, New York 1976). Wejnert, B., 2002, Integrating Models of Diffusion of Innovations: a Conceptual Framework, in «Annual Review of Sociology», 28, pp. 297-326. Wellman, B., 2001, Physical Place and Cyber Place: The Rise of Personalized Networking, in «International Journal of Urban and Regional Research», 25, 2, pp. 227-252. Wellman, B., Salaff, J., Dimitrova, D., Garton, L., Gulia, M., Haythornthwyte, C., 1996, Computer Networks as Social Networks: Collaborative Work, Telework, and Virtual Community, in «Annual Review of Sociology», 22, pp. 213-238. Whittaker, J., 2004, The Cyberspace Handbook, Routledge, London. Wiener, N., 1966, Introduzione alla cibernetica, Bollati Boringhieri, Torino (ed. or., The Human Use of Human Beings, Hougton Mifflin Company, Boston 1950). Williams, R., 1997, The Social Shaping of Information and Communications Technologies, in Kubicek, Dutton, Williams (a cura di), pp. 299-338. Williams, R., 2000, Televisione. Tecnologia e forma culturale, Editori Riuniti, Roma (ed. or., Television. Technology and Cultural Form, Fontana, London 1974-90). Winner, L., 1980, Do Artifacts have Politics?, in «Daedalus», 109, pp. 121-136 (ripubblicato in Mackenzie, Wajcman [a cura di], pp. 28-40). Wittgenstein, L., 1967, Ricerche filosofiche, Torino, Einaudi (ed. or., Philosophische Untersuchungen, Basil Blackwell, Oxford 1953). Wood, H., 2009, My Media Studies 0.0, in «Television & New Media», 10, 1, pp. 169172. Woolgar, S., 1991, The Turn to Technology in Social Studies Of Science, in «Science, Technology and Human Values», 16, 1, pp. 20-50. Woolgar, S. (a cura di), 2002, Virtual society? Technology, cyberbole, reality, Oxford University Press, Oxford. Wu, S., Hofman, J.M., Mason, W.A., Watts, D.J., 2011, Who Says What to Whom on Twitter, Proceedings of the International World Wide Web Conference Committee (IW3C2), ACM Press New York, pp. 705-714. http://www.www2011india.com/proceeding/proceedings/p705.pdf.

Sitografia

Blog BlogHer: http://www.blogher.com/ Il blog di Beppe Grillo: http://www.beppegrillo.it/ Macchianera: http://www.macchianera.net/ News, Pointers & Commentary: http://nowthis.com/oldsite/ Robotwisdom: http://www.robotwisdom.com/ Scripting News: http://scripting.com/ Techcruch: http://techcrunch.com/

Enciclopedie collaborative Everything 2: http://everything2.com/ Wikipedia: http://www.wikipedia.org/

Piattaforme di blogging Blogger: http://www.blogger.com/ Frontier: http://frontier.userland.com/ Movable Type: http://www.movabletype.org/ Pitas: http://www.pitas.com/ Splinder: http://www.splinder.com/ Wordpress.com: http://wordpress.com/ Wordpress.org: http://wordpress.org/

Piattaforme di document sharing Docstoc: http://www.docstoc.com/ Empressr: http://www.empressr.com/ Issuu: http://issuu.com/ Scribd: http://www.scribd.com/ Slideboom: http://www.slideboom.com/ Slideshare: http://www.slideshare.net/

Piattaforme di microblogging Identi.ca: http://identi.ca/ Jaiku: http://www.jaiku.com/ Plurk: http://www.plurk.com/ Posterous: https://posterous.com/ Tumblr: http://www.tumblr.com/ Twitter: http://twitter.com/

Piattaforme di news Digg: http://digg.com/ (segnalazione/votazione delle news) Google News: http://news.google.it/ (aggregatore automatico) Indymedia: http://www.indymedia.org/ (vortale, portale tematico o verticale) Poynter: http://www.poynter.org/ (vortale) Slashdot: http://slashdot.org/ (segnalazione/votazione delle news) Wikileaks: http://www.wikileaks.ch/ (diffusione documenti riservati)

Piattaforme di videosharing/photosharing Blip.tv: http://blip.tv/ (videosharing) Dailymotion: http://www.dailymotion.com/ (videosharing) Flickr: http://www.flickr.com/ (photosharing e videosharing) Google video: http://video.google.com/ (videosharing) Metacafe: http://www.metacafe.com/ (videosharing) Viddler: http://www.viddler.com/ (videosharing) Vimeo: http://vimeo.com/ (videosharing) Youtube: http://www.youtube.com/ (videosharing)

Social Network Sites A Small World: http://www.asmallworld.net/ Bebo: http://www.bebo.com/ Blackplanet: http://www.blackplanet.com/ Cyworld: http://www.nate.com/?f=cymain Facebook: http://www.facebook.com/ Friendfeed: http://friendfeed.com/ Friendster: http://www.friendster.com/ (ora sito di social gaming) Last.fm: http://www.last.fm/ Linkedin: http://www.linkedin.com/ MiGente.com: http://www.migente.com/ MySpace: http://www.myspace.com/ Ning: http://www.ning.com/ Orkut: http://www.orkut.com/ Ryze: http://ryze.com/ Sixdegrees: http://sixdegrees.com/ Xanga: http://www.xanga.com/ (con funzione di piattaforma di blogging)

Altri servizi Delicious, piattaforma di social bookmarking: http://www.delicious.com/ Google Maps, servizio di mappe: http://maps.google.com/ Google Reader, servizio per la lettura di Feed RSS: http://www.google.com/reader/ Portland Pattern Repository, wiki che raccoglie modelli di programmazione: http://c2.com/cgi-bin/wiki?PortlandPatternRepository Touchgraph Facebook Browser, visualizzatore del proprio grafo sociale su Facebook: http://www.touchgraph.com/facebook UseMod, soware per la creazione di wiki: http://www.usemod.com/cgi-bin/wiki.pl

Wibiya, utility per blog: http://www.wibiya.com/

[1] Ci sono motivi politici e personali che portano l’autrice statunitense a non usare le maiuscole per il suo nome (per approfondire: http://www.danah.org/name.html). Noi, seguendo la letteratura del settore – anche italiana –, ci adeguiamo a tale convenzione. [2] Eliza è un soware alla base di un celebre esperimento di intelligenza artificiale che «rispondeva» alle domande che gli venivano poste dalle persone. Sviluppato da Joseph Weizenbaum, è la più citata falsificazione empirica del test di Turing (Bennato, 2002a, p. 62). [3] Il termine deriva dall’acronimo Asynchronous JavaScript and Xml. [4] Il termine reverse salient viene preso da Hughes (1983) dal linguaggio strategico della Prima guerra mondiale e consiste nella rottura dell’avanzamento di un fronte comune: a tutto ciò che impediva che il fronte avanzasse in modo compatto e unitario veniva attribuita la categoria di reverse salient. In italiano può essere reso con sacca di resistenza (Gras, 1997, p. 60), ma a giudicare dalla profonda interrelazione che il concetto ha con il modello teorico di Hughes preferiamo usarlo nella versione originale come già altri prima di noi (cfr. Star, Bowker, 2007). [5] Electronic Frontier Foundation. È la più importante associazione statunitense di difesa dei diritti digitali (https://www.eff.org). [6] È un particolare modello di attribuzione del prezzo, in cui alcune caratteristiche di un servizio sono gratuite (free) mentre eventuali altre funzioni aggiuntive sono a pagamento (premium). [7] Il termine è adattamento italiano di hacktivist, la crasi di hacker e activist, ovvero sostenitori dei diritti digitali attraverso strategie di hacking. [8] Per peer review system si intende un sistema di valutazione dei prodotti di un settore scientifico (articoli, ricerche, richieste di fondi, ecc.) basato su esperti di quello specifico settore. [9] Il sito principale è il Rob Kling Center for Social Informatics della Indiana University. L’indirizzo è http://rkcsi.indiana.edu/. [10] Invio di messaggi ostili ad un utente o ad una community.

[11] L’invio di posta elettronica indesiderata. [12] Persecuzione con tratti maniacali di una persona attraverso strumenti digitali. [13] Soware per il lavoro di gruppo. [14] Rispettivamente: il primo sistema operativo a larghissima diffusione, la più importante rete di newsgroup, una delle applicazioni per la posta elettronica interna più diffuse in ambito business dei primi anni ’90. [15] L’indirizzo – tuttora attivo – è: http://www.cluetrain.com/. [16]Tanto per fare un esempio, si pensi che il testo che introduce alle 95 tesi si rivolge ai popoli della Terra. È palese una componente di autoironia non indifferente. [17] Cofondatore della Eff, Electronic Frontier Foundation. [18] Il concetto è debitore all’ingegneria del soware secondo cui nel ciclo di rilascio dei programmi si distingue una fase pre-alfa, che definisce le attività svolte prima di testare il programma, una fase alfa, in cui il programma viene testato nelle sue funzionalità, e una fase beta, in cui il programma viene testato da parte degli utenti potenziali che ne verificano l’usabilità. [19] Il rimescolamento di servizi web diversi per creare un nuovo servizio è detto mashup, termine preso dal gergo musicale. [20] Un tipico esempio di oggetto mediale usato per creare dei mashup è Google Maps: infatti è possibile creare delle mappe personalizzate e tematiche a partire da questo servizio di Google. [21] I feed (o canali) RSS sono file strutturati che consentono di ricevere il contenuto di un blog senza la necessità di digitare l’indirizzo, ma ricevendo i contenuti in un soware specifico per la lettura di questi contenuti. Servono per tenere sotto controllo diverse fonti informative senza la necessità di digitare innumerevoli indirizzi. Per questo motivo sono usati in tutti i quotidiani online e in tutti i siti che prevedono un forte aggiornamento dei loro contenuti. [22] In inglese, log identifica il diario di bordo di una nave, da cui l’analogia. [23] In italiano si definiscono soware per la creazione di blog. [24] Servizio per le Informazioni e la Sicurezza Democratica, ora Aisi (Agenzia Informazioni e Sicurezza Interna) dopo la riforma dei servizi segreti italiani (Legge 124/2007). [25] Per la precisione è lo stesso identico soware per wiki che usa Wikipedia e che si chiama Mediawiki. [26] Preferiamo usare la dizione «delezionista», in quanto mantiene un legame vagamente etimologico con l’azione informatica del cancellare (delete). [27] Lo strumento è History Flow, disponibile all’indirizzo http://www.research.ibm.com/visual/projects/history_flow/. [28] http://meta.wikimedia.org/wiki/WikiCharts. [29] Il termine indica la posizione nella classifica dei risultati dei motori di ricerca. [30] In particolar modo il cosiddetto Seo: Search Engine Optimization (ottimizzazione dei motori di ricerca).

[31] È la pratica, considerata illecita, in cui un gruppo di siti inserisce collegamenti ipertestuali reciproci per scopi Seo. [32] Film diretto da David Fincher, con Jesse Eisenberg, Andrew Garfield, Justin Timberlake (Usa 2010). [33] Per la storia dei Sns, faremo riferimento al bel lavoro di boyd, Ellison, 2007. [34] L’angolo MySpace è un particolare modo di scattare le foto da inserire nel profilo del social network che consiste nel posizionare la fotocamera sopra la testa del soggetto. Nella cultura internet è considerato un modo per «mentire» sulle proprie caratteristiche fisiche (altezza, magrezza, ecc.) (cfr. Sessions, 2009). [35] Nello slang di internet le persone che cercano insistentemente attenzione nei social network usando qualunque strategia vengono definite in maniera dispregiativa attention whores. [36] Il termine grafo sociale (social graph) viene usato nella teoria delle reti per indicare la mappa di un insieme di individui e dei modi con cui essi sono collegati fra loro. [37] Per una rassegna, cfr. Tosini, 2005. [38] Bebo, Facebook, Friendster, MySpace, Orkut, Xanga. [39] La distinzione egemone/subalterno, tipica dei Cultural Studies, applicata a Facebook/MySpace è di boyd, 2007b. [40] Il verbo postare è la versione italiana del corrispondente inglese to post, e indica l’inserimento di informazioni all’interno delle piattaforme dei social media. [41] Techcrunch è uno dei blog più celebri del mondo dei social media; Slashdot è un sito famoso nella cultura hacker dedicato alle tecnologie informatiche. [42] La scenetta è famosa col titolo «Lazy Sunday»: una parodia rap che mescola il consumo di cannabis, dei dolcetti e il film Le cronache di Narnia, con riferimenti alla cultura «nerd». [43] L’atto del taggare (o tagging) è la pratica che consiste nell’associare delle etichette di testo (tag) al contenuto del video, rendendone possibile la classificazione, l’archiviazione e la ricerca da parte del motore interno di Youtube. È una pratica tipica di tutti i social media (blog, social network, document sharing, photosharing) (Bennato, 2008a). [44] Con utente registrato ci si riferisce a coloro che hanno le credenziali d’accesso alla piattaforma. Questi possono caricare video, inserire commenti, esprimere apprezzamenti sui video. [45] Non è un caso che esista una piattaforma di videosharing specificamente dedicata ai videoblog: Blip.tv. [46] Un sottogenere piuttosto diffuso dei vlog tecnologici è l’unboxing (letteralmente: disimballare), in cui il vlogger mostra le diverse fasi con cui una tecnologia recentemente acquistata viene tolta dalla scatola di imballaggio. Spesso a questa tipologia di video fanno seguito le videorecensioni del prodotto. [47] Il frattale è quella particolare figura geometrica, descritta dal matematico Benoît Mandelbrot, in cui la forma macroscopica viene riprodotta da ogni suo più microscopico

elemento costitutivo. In pratica gli oggetti frattali sia a livello macro che a livello micro hanno sempre la stessa forma. [48] Il canale Youtube è raggiungibile all’indirizzo http://www.youtube.com/user/lonelygirl15. [49] Con il termine fake si definisce un particolare canale social media che sembra appartenere ad una persona comune, mentre invece è costruito con scopi di scherzo, parodia, ironia, comunque non autentico. [50] Definite da alcuni Twitter Revolution (The Washington Times, 2009). [51] Abbiamo scelto una definizione vaga per un motivo specifico: Twitter non rivela le metriche usate dal suo algoritmo per calcolare i trending topic. [52] È necessario tenere separata la presenza della notizia nei trending topic dalla popolarità, in quanto una notizia può circolare dentro Twitter senza far parte della lista dei trending topic. [53] Omofilia è un termine dell’analisi delle reti sociali che indica la tendenza degli individui a creare legami con altri percepiti come simili. [54] Delicious è un servizio che serve per raccogliere i propri bookmark in uno spazio web e associare ad essi dei tag. [55] Google Reader è un servizio che serve per leggere i feed RSS. [56] Last.fm è un Sns specializzato nella condivisione dei propri gusti musicali. [57] Considereremo come semanticamente sovrapponibili il concetto di tecnica e il concetto di tecnologia. In realtà i due concetti sono distinti per quanto riguarda senso e uso. Per una riflessione su questo punto, cfr. Pacey, 1986. [58] Questa argomentazione è considerata la base del principio di responsabilità, ovvero l’idea che ha reso Hans Jonas uno dei filosofi più discussi (e fecondi) della bioetica contemporanea. Per approfondire: Jonas, 1993. [59] Siamo consapevoli dei problemi teoretici che possono essere sollevati da una definizione dei valori così smaccatamente culturalista (per una discussione cfr. Boudon, 2000). Ma la nostra definizione non ha uno scopo normativo bensì operativo. [60] Bisogna però fare dei distinguo. Per quanto riguarda l’argomento media e valori le loro idee sono sostanzialmente simili, ma i presupposti teorici di base di McLuhan e di Williams sono molto diversi, in quanto l’uno è un determinista tecnologico e l’altro non lo è. In particolare Williams critica apertamente la concezione tecnologica di McLuhan (Williams, 2000, p. 146). [61] Per una rassegna del fenomeno, cfr. Berra, Meo, 2001. [62] Recentemente Moor ha introdotto una terza fase, quella del potere (power stage), in cui il potere del computer è maggiormente diffuso e le sue potenzialità sono disponibili per un gran numero di persone (Moor, 2001). [63] Quelli della sorveglianza e della privacy sono stati problemi sentiti fin dalle origini dello sviluppo del computer. Non è un caso che solo qualche anno dopo verrà formalizzato il concetto di «dataveglianza», ovvero la sorveglianza computerizzata di dati personali. Cfr. Clarke, 1988.

[64] Moor non parla espressamente di accessibilità non essendo questo termine presente nel vocabolario filosofico di quel periodo, ma le metafore che utilizza (ovvero: scrivere soware è come costruire una casa) ci autorizzano ad usarlo. [65] Un altro motivo che rende interessante questo saggio: a quanto ne sappiamo è la prima volta che viene usato il termine tecnoetica (technoethics). [66] Il concetto indica il problema del diverso accesso alle tecnologie informatiche che si riproduce a livello globale fra Nord e Sud del mondo (ma non solo) (Bentivegna, 2009). [67] Fanno parte del Simputer Trust l’Indian Institute of Science e la Encore Soware Ltd. [68] Infatti il nome Simputer può essere considerato la crasi di Simple Computer (computer semplice) o l’acronimo di Simple, Inexpensive, and Multi-lingual People’s Computer (computer semplice, poco costoso e multilingue). [69] L’uso di valute virtuali, con una precisa convertibilità in valute realmente esistenti, è una caratteristica di molti mondi virtuali e videogiochi online come World of Warcra, Second Life e Ultima online (Castronova, 2007). [70] Google sta da tempo lavorando ad una soluzione a questa situazione e sembra che i nuovi algoritmi implementati servano proprio ad evitare lo scambio di link «fraudolento» (come nel caso del link farming). [71] Interessante anche il fatto che il saggio di Granieri e quello di Metitieri siano stati pubblicati dalla stessa casa editrice nella stessa collana. [72] Anche chi scrive, in quanto autore di un blog (Tecnoetica), è stato oggetto di un curioso gioco in cui blogger molto visibili (le cosiddette blogstar o A-list blogger) chiedevano ai propri lettori di segnalare quei blogger che nonostante la posizione molto bassa nelle classifiche producevano contenuti interessanti (ovvero Z-list blogger).