286 115 7MB
German Pages 496 Year 2014
Ramón Reichert (Hg.) Big Data
Digitale Gesellschaft
Ramón Reichert (Hg.)
Big Data Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie
MA 7, Gruppe Wissenschaft, 1082 Wien
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2014 transcript Verlag, Bielefeld
Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Kordula Röckenhaus, Bielefeld Umschlagabbildung: Eric Fischer, Data visualisation of Twitter activity, 2012 Korrektorat: Marie-Claire Thun, Unna, Georg Löwen, Bielefeld, Larissa Eliasch, Paderborn Druck: CPI – Clausen & Bosse, Leck Print-ISBN 978-3-8376-2592-9 PDF-ISBN 978-3-8394-2592-3 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]
Inhalt Einführung Ramón Reichert | 9
1. B ig D igital H umanities Licht und Schatten im digitalen Zeitalter Programmatische Vorlesung auf dem Digital Inquiry Symposium am Berkeley Center for New Media Bernard Stiegler | 35
Die Computerwende — Gedanken zu den Digital Humanities David M. Berry | 47
Trending Verheißungen und Herausforderungen der Big Social Data Lev Manovich | 65
Eine neue Betrachtung der Digital Humanities im Kontext originärer Technizität Federica Frabetti | 85
2. G eschichte und T heorie der D aten Die Konstruktion von Big Data in der Theorie Tom Boellstorff | 105
Daten vor Fakten Daniel Rosenberg | 133
Big Data — Big Humanities? Eine historische Perspektive Theo Röhle | 157
Nach dem Cyberspace: Big Data, Small Data Richard Rogers | 173
3. D igitale M ethoden Twitter-Archive und die Herausforderungen von »Big Social Data« für die Medien- und Kommunikationswissenschaft Jean Burgess/Axel Bruns | 191
Data-Mining von einem Prozent Twitter — Sammlungen, Basislinien, Stichproben Carolin Gerlitz/Bernhard Rieder | 203
Der Wert von Big Data für die Erforschung digitaler Medien Merja Mahrt/Michael Scharkow | 221
Twitter und Wahlen Zwischen 140 Zeichen und Milliarden von Tweets Katrin Weller | 239
From Mind to Document and Back Again Zur Reflexivität von Social-Media-Daten Johannes Paßmann | 259
4. D ataveill ance : A lgorithmen , G raphen und P rotokolle Protokoll, Kontrolle und Netzwerke Alexander Galloway/Eugene Thacker | 289
Der italienische Operaismo und die Informationsmaschine Matteo Pasquinelli | 313
Infodemiologie – von ›Supply‹ zu ›Demand‹ Google Flu Trends und transaktionale Big Data in der epidemiologischen Sur veillance Annika Richterich | 333
You cannot not Transact — Big Data und Transaktionalität Christoph Engemann | 365
5. D igitale T echnologien und soziale O rdnungsvorstellungen »All Watched Over by Machines of Loving Grace« Öffentliche Erinnerungen, demokratische Informationen und restriktive Technologien am Beispiel der »Community Memory« Stefan Höltgen | 385
(Very) Nervous Systems. Big Mobile Data Regine Buschauer | 405
Facebooks Big Data Die Medien- und Wissenstechniken kollektiver Verdatung Ramón Reichert | 437
Sozio-technische Imaginationen Social Media zwischen ›Digital Nation‹ und pluralistischem Kosmopolitismus Martin Doll | 453
Autorinnen und Autoren | 489
Einführung Ramón Reichert
In der jüngsten Gegenwart ist »Big Data« zum populären Schlagwort aufgestiegen und wird oft als Sammelbegriff für digitale Technologien verwendet, die in technischer Hinsicht für eine neue Ära digitaler Kommunikation und Verarbeitung und in sozialer Hinsicht für einen gesellschaftlichen Umbruch verantwortlich gemacht werden. Die weit verbreitete Popularität des Buzzwords »Big Data« kann als Hinweis verstanden werden, dass digitale Technologien nicht nur als neutrale Übermittler und passive Objekte firmieren, sondern in einer engen Verbindung mit Diskursen, Akteuren und Netzwerken stehen, die Gesellschaft und Subjekte verändern. Bisher haben vor allem die Branchen und Anwendungsbereiche von Wirtschaft, Marktforschung, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienst die digitalen Methoden und Technologien, die zur Erhebung, Analyse und Modellierung von großen Datenmengen eingesetzt werden, weiterentwickelt und nutzbringend eingesetzt. Dem Sammeln großer Datenmengen ist selbst eine Machtgeschichte der möglichen Herstellung sozialprognostischen Wissens inhärent. An der Schnittstelle von konzernorientierten Geschäftsmodellen und gouvernementalem Handeln experimentieren Biotechnologie, Gesundheitsprognostik, Arbeits- und Finanzwissenschaften, Risikound Trendforschung in ihren Social Media-Analysen und Webanalysen mit Vorhersagemodellen von Trends, Meinungsbildern, Stimmungen oder kollektivem Verhalten. Im Unterschied zum Medienhype um »Big Data«, der seine Entstehung der Möglichkeit zur kollektiven Adressierung durch Massenmedien verdankt, versucht der vorliegende Sammelband, einen Reflexionsraum zur differenzierten Auseinandersetzung mit dem datenbasierten Medienumbruch der Gegenwart zu schaffen. Der Band stellt einen fachübergreifenden Theorierahmen zur Verfügung, der es erlaubt, Big Data in seiner gesamten sozialen, kulturellen, ökonomischen und politischen Bandbreite zu reflektieren. Eine medien- und kulturwissenschaftliche Betrachtung der digitalen Großforschung distanziert sich von den normativen Diskursen des Daten- und Informationsmanagements, welche
10
Big Data
die Ansicht vertreten, dass die Entwicklung der spätmodernen Gesellschaften einerseits von der zunehmenden Verbreitung und alltäglichen Nutzung Sozialer Medien und andererseits von der Aussagefähigkeit von Großdaten abhängig ist. Die Big Data-Research differenziert sich innerhalb der letzten Jahre erheblich aus: Zahlreiche Studien betreiben mithilfe maschinenbasierter Verfahren wie der Textanalyse (quantitative Linguistik), der Sentimentanalyse (Stimmungserkennung), der sozialen Netzwerkanalyse oder der Bildanalyse vielschichtige Social Media-Analysen. Damit sollen Wahlentscheidungen (Gayo-Avello, 2012), politische Einstellungen (Conover et al., 2012), Finanztrends und Wirtschaftskrisen (Gilbert und Karahalios, 2010; Zhang, 2010), Psychopathologien (Wald et al., 2012) und Aufstände und Protestbewegungen (Yogatama, 2012) frühzeitig vorhergesagt werden können: »Analysts and consultants argue that advanced statistical techniques will allow the detection of on-going communicative events (natural disasters, political uprisings) and the reliable prediction of future ones (electoral choices, consumption).« (Burgess und Puschmann, 2013, S. 4) Von einer systematischen Auswertung der Big Data erwarten sich die Prognostiker eine effizientere Unternehmensführung bei der statistischen Vermessung der Nachfrage- und Absatzmärkte, individualisierte Serviceangebote und eine bessere gesellschaftliche Steuerung. So wertet etwa Google Flu in Zusammenarbeit mit der US-amerikanischen Seuchenbehörde CDC die Häufigkeit bestimmter Suchbegriffe aus, um mit diesem Data Mining die Wahrscheinlichkeit von Grippeerkrankungen und deren Ausbreitung vorhersagen zu können. Zahlreiche Studien beschäftigen sich mit den Auswertungen von Tweets, die Korrelationen zwischen realen Preiserhöhungen und Stimmungen vermessen, Mobilfunkkonzerne und Computerhersteller erfassen die Bewegungsdaten von Kunden, um neue Ansätze für Dienste und Werbevermarktung zu erschließen, und das Trendmining der Social Media-Analysen versucht, Entwicklungen auf den Absatz-, Finanz- oder Arbeitsmärkten frühzeitig zu erkennen. Big Data resultieren nicht nur aus den Onlinedaten, den Kundendaten und den nutzergenerierten Inhalten als ›unstrukturierte Daten‹ (Inhalte von Emails und SMS-Nachrichten etc.), sondern entstehen gleichermaßen an den Schnittstellen der automatisierten Datenverarbeitung. In diesem Sinne spricht man in der angewandten Netzforschung von transaktionalen Nutzerdaten, die durch Webtracking, Handy-Monitoring oder Sensorerfassung entstehen (Bobley, 2011). Wenn man es so betrachtet, ist das Social Web zur wichtigsten Datenquelle zur Herstellung von Regierungs- und Kontrollwissen geworden. Auch die politische Kontrolle sozialer Bewegungen hat sich in das Netz verschoben, wenn Soziologen und Informatiker gemeinsam etwa an der Erstellung eines Riot Forecasting mitwirken und dabei auf die gesammelten Textdaten von Twitter-Streams zugreifen: »Due to the availability of the dataset, we focused on riots in Brazil. Our datasets consist of two news streams, five blog streams, two Twitter streams (one for politicians in Brazil and one for general public in Brazil), and one stream of 34 macroeconomic variables related to Brazil and Latin America.« (Yogatama, 2012, S. 3)
Ramón Reicher t: Einführung
Seit dem späten 20. Jahrhundert zählen die digitale Großforschung und ihre großen Rechnerzentren und Serverfarmen zu den zentralen Bausteinen der Herstellung, Verarbeitung und Verwaltung von informatischem Wissen. Damit einhergehend rücken mediale Technologien der Datenerfassung und -verarbeitung und Medien, die ein Wissen in Möglichkeitsräumen entwerfen, in die Mitte der Wissensproduktion und der sozialen Kontrolle. In ihrer Einleitung in das »Routledge Handbook of Surveillance Studies« knüpfen die Herausgeber Kirstie Ball, Kevin Haggerty und David Lyon einen Zusammenhang zwischen technologischer und sozialer Kontrolle auf der Grundlage der Verfügbarkeit großer Datenmengen: »Computers with the Power to handle huge datasets, or ›big data‹, detailed satellite imaging and biometrics are just some of the technologies that now allow us to watch others in greater depth, breadth and immediacy.« (2012, S. 2) In diesem Sinne kann man sowohl von datenbasierten als auch von datengesteuerten Wissenschaften sprechen, da die Wissensproduktion von der Verfügbarkeit computertechnologischer Infrastrukturen und der Ausbildung von digitalen Anwendungen und Methoden abhängig geworden ist. Damit einhergehend verändern sich auch maßgeblich die Erwartungen an die Wissenschaft des 21. Jahrhunderts und es werden zunehmend Forderungen laut, die darauf bestehen, die historisch, kulturell und sozial einflussreichen Aspekte der digitalen Datenpraktiken systematisch aufzuarbeiten – verknüpft mit dem Ziel, diese in den künftigen Wissenschaftskulturen und Epistemologien der Datenerzeugung und -analyse zu verankern. Diesen fachübergreifenden Ansprüchen sieht sich der vorliegende Band verpflichtet und versammelt interdisziplinäre Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, die den aktuellen Debatten zum Stellenwert der Big Data eine theoretische, kritische und historische Tiefe verleihen wollen. Die heterogenen Anwendungsfelder der datengetriebenen Wissenschaftskulturen zeigen auf, dass das Datenwissen aus konkreten Praktiken der Erzeugung entsteht, die eine nuancierte Genealogie der datenintensiven Formen der Wissensproduktion nahelegt. Andererseits muss auch eingeräumt werden, dass die Repräsentation und die popularisierende Vermittlung der datengenerierten Forschung auch Anschlüsse auf frühere materielle Datenkulturen eröffnen, denen sowohl historische Kontinuitäten als auch mediale Umbrüche inhärent sind und die nur dann verständlich werden, wenn sie im historischen, sozialen und kulturellen Kontext reflektiert werden können (vgl. Gitelman und Pingree, 2004). Eine vergleichende Analyse der Datenverarbeitung unter Berücksichtigung der materiellen Kultur von Datenpraktiken vom 19. bis zum 21. Jahrhundert vermag aufzuzeigen, dass bereits im 19. Jahrhundert die mechanischen Datenpraktiken das taxonomische Erkenntnisinteresse der Forscher maßgeblich beeinflussten – lange bevor es computerbasierte Methoden der Datenerhebung gab (vgl. Driscoll, 2012). Weiterführende Untersuchungen erarbeiten die sozialen und politischen Bedingungen und Auswirkungen des Übergangs von der mechanischen Datenauszählung der ersten Volkszählungen um 1890 über die elektronischen Daten-
11
12
Big Data
verarbeitungen der 1950er Jahre bis zum digitalen Social Monitoring der unmittelbaren Gegenwart (Beniger, 1986; Berry, 2011). Das erste Kapitel »Big Digital Humanities« thematisiert die kulturellen Transformationen und die medialen Umbrüche der digitalen Medienkultur. Die Digital Humanities stellen ein heterogenes Forschungsfeld an der Schnittstelle zwischen der Informatik und den Kultur- und Geisteswissenschaften dar. In den letzten Jahren haben sie vor dem Hintergrund der gestiegenen Verfügbarkeit digitaler Daten stark an Bedeutung gewonnen. Der Begriff der »Digital Humanities« setzte sich erst mit der Verbreitung des Internets durch und ersetzte die seit dem Aufkommen des Computers in den 1960er Jahren gebräuchlichen Begriffe der »Computational Science« und »Humanities Computing«, die sich hauptsächlich mit der methodologischen und praktischen Entwicklung von digitalen Werkzeugen, Infrastrukturen und Archiven beschäftigt haben. In Anknüpfung an die wissenschaftstheoretischen Sondierungen von Davidson (2008), Svensson (2010), Burdick et al. (2012) und zuletzt Gold (2012) können die Digital Humanities dementsprechend in drei richtungsweisende Theorieansätze gegliedert werden, mit welchen gleichermaßen die historischen Entwicklungen und wissenspolitischen Verschiebungen des Forschungsfeldes gut abgesteckt werden können: (1) Im Zentrum der Digital Humanities steht die geistes- und kulturwissenschaftliche Computeranwendung und die Digitalisierung von »Ausgangsdaten«. Die Digitalisierungsprojekte umfassen dabei einerseits digitalisierte Portfolios und andererseits die computerphilologischen Nutzungstools zur Anwendung der Sekundär- oder Ergebnisdaten. Diese elementaren Methoden der Digital Humanities speisen sich bis heute aus der Tradition der Philologie, die das evidenzbasierte Sammeln und Ordnen der Daten zur Grundlage von Hermeneutik und Interpretation erklärte. Über die engere Methodendiskussion hinausführend, reklamiert das computergestützte Vermessen der Geistes- und Kulturwissenschaften mediale Objektivitätspostulate der modernen Wissenschaften. Im Unterschied zum textwissenschaftlichen Fächerkanon der 1950er und 1960er Jahre des »Humanities Computing« (McCarty, 2005) hat sich das Forschungsfeld der Fachdisziplinen indes heute erheblich ausdifferenziert und auf die Kunst-, Kultur- und Sozialgeschichte, die Medienwissenschaft, die Ethnologie, die Archäologie und die Geschichts- und Musikwissenschaften ausgeweitet (Gold, 2012). (2) Entsprechend der zweiten Phase entwickeln sich zusätzlich zur quantitativen Digitalisierung von Texten Forschungspraktiken, die sich mit den Methoden und Verfahren zur Herstellung, Analyse und Modellierung von digitalen Forschungsumgebungen für die geisteswissenschaftliche Arbeit mit digitalen Daten beschäftigen. Dieser Ansatz wird mit dem Begriff »Enhanced Humanities« umschrieben und versucht, neue methodische Ansätze der qualitativen Nutzung von erzeugten, auf bereiteten und gespeicherten Daten für die Rekonzeptionalisierung traditioneller Forschungsgegenstände zu finden.
Ramón Reicher t: Einführung
(3) Die Entwicklung der »Humanities 1.0« zu den »Humanities 2.0« (Davidson, 2008, S. 707-717) markiert den Übergang von der digitalen Methodenentwicklung im Bereich der »Enhanced Humanities« zu den »Social Humanities«, welche die Möglichkeiten des Web 2.0 zum Auf bau vernetzter Forschungsinfrastrukturen nutzen. Die »Social Humanities« nutzen zur Vernetzung und Interdisziplinarität des wissenschaftlichen Wissens Open-Access-, Social-Readingund Open-Knowledge-Software, indem sie die Möglichkeiten kooperativer und kollaborativer Forschungs- und Entwicklungsarbeit für die Wissenschaft nutzbar machen und online zur Verfügung stellen. Auf der Basis der neuen digitalen Infrastrukturen des Social Web (Hypertextsysteme, Wikitools, CrowdfundingSoftware u.Ä.) überführen diese Projekte die rechnergestützten Verfahren der früheren Entwicklungsgeschichte der Digital Humanities in die digitale Vernetzungskultur der »Social Humanities«. Heute sind es die Blogging Humanities (digitale Publikations- und Vermittlungsarbeit in Peer-to-Peer-Netzwerken) und die Multimodal Humanities (Wissensinszenierung- und repräsentation in multimedialen Softwareumgebungen), die für die technische Modernisierung des akademischen Wissens eintreten (McPherson, 2008) und dafür gesorgt haben, dass die Digital Humanities beanspruchen, eine paradigmatisch alternative Form der Wissensgenerierung darzustellen. Vor diesem Hintergrund ist es angebracht, die kultur- und medientechnischen Grundlagen der computergesteuerten Erkenntnisverfahren in der geistes- und kulturwissenschaftlichen Forschung datenkritisch, wissensgenealogisch und medienhistorisch zu reflektieren, um ihr Rollenverständnis unter den Vorzeichen der digitalen Wissensproduktion und -distribution angemessen beurteilen zu können (Thaller, 2012, S. 7-23). In dem hier abgedruckten Vortrag über digitale Techniken am Berkeley Center for New Media vertritt der Medienphilosoph Bernard Stiegler die These, dass man die digitalen Technologien als das letzte Stadium der Schriftkultur verstehen könne.1 Diese neue Ära der Schriftkultur nennt Stiegler in Abgrenzung zur ideografischen und alphabetischen Schrift die digitale Schrift, die er als mnemotechnisches Instrument begreift, das in der Lage sei, in uns eine neuartige soziotechnisch vermittelte Gehirnfunktion zu konstituieren. Insofern schreibt er in seiner Digital Studies-Anthropologie der digitalen Technik eine organologische Wirkungsmacht zu. Der englische Medientheoretiker David M. Berry ist Herausgeber des vielbeachteten Sammelbandes »Understanding Digital Humanities«, der 2012 erschienen ist und in fachübergreifenden Studien die Umbruchpotentiale der Verwendung quantitativer Methoden in den Geisteswissenschaften sondiert. Sein Beitrag mit dem Titel »Die Computerwende – Gedanken zu den Digital Humanities« untersucht die Medienspezifität der digitalen Technologien und vertritt die These, dass die medialen Umbrüche des ›datenzentrierten Zeitalters‹ nicht 1 | Jede(r) Autor(in) verfügt selbst über Verwendung und Art der geschlechtersensiblen Schreibung.
13
14
Big Data
nur epistemische Veränderungen erzeugen, sondern auch eine neue Art von computergestützter Subjektivität konstituieren, die er in der Schlüsselidee einer ›digitalen Universität‹ verortet. Berrys Konzept computergestützter Subjektivität distanziert sich aber von der Annahme einer hypostasierten Selbstbezüglichkeit, in der Medien lediglich als Werkzeuge zur Darstellung eines lebensweltlich bereits gegebenen Subjekts betrachtet werden, und lenkt den Blick auf das, was in den medialen Analysen der Subjektivität mit dem Analysebegriff »Dispositiv« beschrieben wird. Die Frage nach dem Code ist für ihn von zentraler Bedeutung, um die Digital Humanities als mediale Anordnung und als eine »Möglichkeitsbedingung für die vielen computerbasierten Formen, die unsere Erfahrung von zeitgenössischer Kultur und Gesellschaft vermitteln,« verstehen zu können. Im Unterschied zu Stiegler und Berry, die sich mit den anthropologischen Transformationen digitaler Medienkultur auseinandersetzen, reflektiert der USamerikanische Theoretiker der Digitalen Medien, Lev Manovich, in seinem vielzitierten Essay »Trending: Verheißungen und Herausforderungen der Big Social Data« die sozialen Auswirkungen der Datenforschung und warnt vor einem ›Digital Divide‹, der das Datenwissen einseitig verteilt und zu Machtasymmetrien zwischen Forschern innerhalb und außerhalb der Netzwerke führen könnte. Manovich hat den limitierten Zugang zu sozialstatistischen Daten bereits 2008 kritisiert, der von vornherein eine monopolartige Verfügbarkeit von Datenwissen schafft: »Nur Social-Media-Unternehmen haben Zugang zu wirklich großen sozialen Daten – insbesondere zu Transaktionsdaten. Ein Anthropologe, der für Facebook arbeitet, oder ein Soziologe in den Diensten von Google wird Zugang zu solchen Daten haben, die übrige wissenschaftliche Community hingegen nicht.« (Abgedruckt im vorliegenden Band.) Dieses ungleiche Verhältnis festigt die Stellung der sozialen Netzwerke als computerbasierte Kontrollmedien, die sich Datenwissen entlang einer vertikalen und eindimensionalen Netzkommunikation aneignen: (1) Sie ermöglichen einen kontinuierlichen Fluss von Daten (digitale Fußabdrücke); (2) sie sammeln und ordnen diese Daten; und (3) sie etablieren geschlossene Wissens- und Kommunikationsräume für Expert/innen und ihre Expertisen, welche die kollektiven Daten zu Informationen verdichten und interpretieren. In der Nachfolge haben danah boyd und Kate Crawford die von Manovich eingebrachte Kritik am technisch-infrastrukturellen Auf bau der Netzwerkkommunikation weitergeführt und auf die hierarchisch und pyramidal angeordnete Schichtung der Sozialen Medien bezogen: »The current ecosystem around Big Data creates a new kind of digital divide: the Big Data rich and the Big Data poor. Some company researchers have even gone so far as to suggest that academics shouldn’t bother studying social media data sets – Jimmy Lin, a professor on industrial sabbatical at Twitter argued that academics should not engage in research that industry ›can do better‹.« (boyd und Crawford, 2011) Das asymmetrische Verhältnis zwischen dem Kommunikationsraum gewöhnlicher Nutzer/innen innerhalb der Anwendungsschicht (Benutzeroberfläche im ›Frontend‹) und dem
Ramón Reicher t: Einführung
hauptsächlich von Informatikern verwalteten Datenraum im Backend-Bereich (mit dem Begriff ›Backend‹ wird die auf dem Server laufende Administrationsoberfläche verstanden, die ausschließlich der Dateneingabe, -verarbeitung und -weitergabe durch den Seitenbetreiber vorbehalten ist) wird in Anlehnung an die genannten Autoren und Autorinnen auch als »Participatory Gap« (vgl. Taewoo und Stromer-Galley, 2012, S. 133-149) diskutiert. Eine kritische Sondierung des Stellenwerts der digitalen Methoden in den Geisteswissenschaften nimmt auch die an der Brookes University in Oxford lehrende Medientheoretikerin Federica Frabetti vor. Sie kritisiert im Anschluss an Johanna Drucker (2009) das Objektivitätspostulat der Digital Humanities und stellt in diesem Zusammenhang die oft behauptete Bipolarität von Technik und Geist in Frage. Ihre Hauptthese ist, dass computerbasierte Wissensproduktion und Geisteswissenschaften nicht als zwei getrennte Sphären aufgefasst werden müssen, deren Beziehungen sich ein für allemal definieren lassen. Im Zentrum ihrer erkenntnis- und wissenskritischen Reflexion der Digital Humanities steht die Kritik an der instrumentellen Ausrichtung der digitalen Methoden in den Geisteswissenschaften: »Wenn akademische Arbeit der Instrumentalität widerstehen muss, um politisch zu bleiben, dann werden die Digital Humanities zum idealen Ort für eine beharrliche Kritik an allen instrumentellen Denkweisen.« (Abgedruckt im vorliegenden Band.) In diesem Zusammenhang arbeitet sie in produktiver Auseinandersetzung mit den Schriften von Derrida, Leroi-Gourhan, Kittler und Stiegler heraus, dass es eine der Stärken der Digital Humanities sein könnte, überkommene begriffliche Bezugssysteme im Hinblick auf die digitale Technik zu überdenken und die Frage nach den Beziehungen zwischen Geisteswissenschaften und Digitalität und allgemeiner zwischen Mensch und Technik offen zu halten. Im zweiten Kapitel werden die geschichtlichen Aspekte der Daten und die Theorien des Datenbegriffs erörtert. Der an der University of California lehrende Anthropologe Tom Boellstorff beschäftigt sich mit den theoretischen Grundlagen von Big Data und untersucht die begriffsgeschichtlichen, rhetorischen und metaphorischen Kontexte der Data Studies. In diesem Zusammenhang untersucht er die forschungspolitisch-strategischen Verwendungsweisen der Diskursfigur »Big Data« und zeigt die Vormachtstellung von »räumlichen Metaphern der Mobilität und der Omnipräsenz« in den einschlägigen Diskussionen auf. Seine etymologisch und wissenschaftsgeschichtlich motivierten Begriffsanalysen von Daten und Metadaten zeigen auf, dass die jeweiligen konkreten Verbindungen zwischen Technologien, Kommunikationspraktiken und Epistemologien stets ihre eigene Komplexität aufweisen. Während die Technologien sich ändern, bleiben die Praktiken zur Erzeugung von wissenschaftlichem Wissen und die Diskurse über die Organisation und die Repräsentation von Daten länger konstant. Seine wissensgeschichtlichen und -kritischen Einwände weitet Boellstorf auch auf datenkritische Positionen aus und kann aufzeigen, dass auch Datenkritik von rhetorischen Vereinfachungen und traditionellen Dichotomien geprägt ist. In die-
15
16
Big Data
sem Zusammenhang setzt er sich mit dem einflussreichen Sammelband »›Raw data‹ is an oxymoron« auseinander, der 2013 von Lisa Gitelman und Virginia Jackson herausgegeben wurde. Erst in den letzten Jahren sind neben überwiegend affirmativen Aufladungen des Schlagworts Big Data auch einige kritische Aufsätze und Anthologien zur Klärung des Datenbegriffs vorgelegt worden (vgl. exemplarisch Ballsun-Stanton, 2010, S. 119-24; Gitelman und Jackson, 2013; Hagner und Hirschi, 2013; Floridi, 2014). Die von Gitelman und Jackson normativ geäußerte Einschätzung, dass »Rohdaten sowohl ein Oxymoron wie eine schlechte Idee sind« und daher »Daten sorgfältig gekocht werden sollten« (2013, S. 3), nimmt Boellstorf zum Anlass, sich näher mit Lévi-Strauss’ Begriffsopposition »Rohes/ Gekochtes« (1964) zu beschäftigen. Dabei versucht er, die Dichotomie von rohen und gekochten Daten zu überwinden und in einer Relektüre des Aufsatzes »Das kulinarische Dreieck«, der ein Jahr nach »Das Rohe und das Gekochte« erschien, vielmehr ein präzise definiertes Dreiecksverhältnis zwischen »Rohem«, »Gekochtem« und »Verrottetem« in Aussicht zu stellen, welches er für besonders befähigt hält, als begriffliches Werkzeug bei der Erstellung von Big Data dienen zu können. Mit dem Begriff des »Verrotteten«, der die »Materialität von Daten« anzeigt, wäre es nach Boellstorf möglich, dass im »Kontext von roh und gekocht das ›Verrottete‹ Verwandlungen außerhalb der typischen Konstruktionen des handelnden Menschen als Koch versammelt – als das Ungeplante, Unerwartete und Zufällige. Bit Rot beispielsweise entsteht aus dem Zusammenwirken von Speicher- und Verarbeitungstechnologien, während diese sich durch die Zeit bewegen.« Die medien- und wissenschaftsgeschichtliche Aufarbeitung der Digital Humanities wurde erst vereinzelt in den letzten Jahren eingeleitet (Hockey, 2004). Eine Historisierung der Wechselbeziehungen zwischen den Geistes- und Kulturwissenschaften und dem Einsatz der computergestützten Verarbeitungsverfahren relativiert den Evidenz- und Wahrheitsanspruch der digitalen Methoden und stärkt die Argumentation, dass sich die Digital Humanities aus einem Geflecht historischer Wissenskulturen und Medientechnologien entwickelt haben, deren Anfänge bis in das ausgehende 19. Jahrhundert reichen. Auch der Beitrag von Daniel Rosenberg mit dem Titel »Daten vor Fakten« konfrontiert die Big DataForschung mit historischen Perspektivierungen und stellt die digitale Modernität des Datenbegriffs in Frage. Er verlagert die Diskussion um den Datenbegriff in das 17. Jahrhundert, die er eng verknüpft mit der »Entwicklung moderner Konzepte von Wissen und Argumentation« sieht. Seine Ausgangsfrage lautet: »Was also waren Daten vor dem 20. Jahrhundert?« Im Zentrum seines Aufsatzes steht also der vielversprechende Anspruch, die Geschichte des Datenbegriffs zu rekonstruieren, um seine entscheidende Rolle bei der Herausbildung neuer Wissensräume und -praktiken aufzeigen zu können. In diesem Zusammenhang interessiert er sich für die Frage der historischen Bedingungen, die für die moderne Semantisierung der Daten als ›Wahrheit‹, ›Faktum‹ oder ›Beweis‹ in Betracht gezogen werden können. Schließlich führt er den interessanten Nachweis, dass die zeitgenössischen digitalen Techniken der Gegenwart (Google Ngram Viewer, Google
Ramón Reicher t: Einführung
Books) als ein Echo der historischen Verfahren der Verarbeitung und Visualisierung von Wissens seit dem 17. und 18. Jahrhundert aufgefasst werden können. Die einschlägige Forschungsliteratur zum historischen Kontext und zur Genese der Digital Humanities sieht in Roberto Busas lochkartenbasierter Thomas von Aquin-Konkordanz einer der ersten Projekte genuin geisteswissenschaftlicher Computeranwendung (Vanhoutte, 2013, S. 126). Der italienische Jesuitenpater Roberto Busa (1913-2011) gilt vielen als der Pionier der Digital Humanities, was bereits früh zu einer weitgehenden Vereinheitlichung der Geschichtsschreibung der »Computational Science« geführt hat (Schischkoff, 1952). Busa, der seit 1949 gemeinsam mit Thomas J. Watson, dem Gründer von IBM, den korpuslinguistischen »Index Thomisticus« entwickelte (Busa, 1951; 1980, S. 81-90), wird in der einschlägigen Historiografie als »Gründungsvater« der Schnittstelle von Geisteswissenschaften und Informatik angesehen. Die erste digitale Edition auf Lochkarten initiierte eine Reihe von textphilologischen Folgeprojekten: »In den sechziger Jahren folgte eine erste elektronische Fassung der ›Modern Language Association International Bibliography‹ (MLAIB), einer periodischen Fachbibliografie aller modernen Philologien, die mit Telefonkopplern durchsucht werden konnte. Dann setzte die retrospektive Digitalisierung des kulturellen Erbes ein, die immer mehr Werke und Lexika wie etwa das Deutsche Wörterbuch der Brüder Grimm, historische Wörterbücher wie den Krünitz oder Regionalwörterbücher umfasste.« (Lauer, 2013, S. 104) Im Vorfeld haben sich aber zahlreiche andere Disziplinen und nichtphilologische Bereiche herausgebildet, wie die Literatur-, Bibliotheks- und Archivwissenschaften, die eine längere Wissensgeschichte im Feld der philologischen Case Studies und der praktischen Informationswissenschaft aufweisen und sich seit dem Aufkommen der Lochkartenmethode mit quantitativen und informatikwissenschaftlichen Verfahren für wissensverwaltende Einrichtungen befassten. Kevin Driscoll hat die Genealogie der Datenverarbeitung großer Datenmengen untersucht und unterscheidet dabei drei historische Perioden:2 »The first period begins in the late-19th century with the development of mass-scale Information processing projects and the electro-mechanical punched card systems that made them possible. Although these early machines were gradually replaced by programmable Computers in the 1950s and 1960s, the organizational logic embedded in such systems persisted more or less unchanged until the 1970s. The second period is marked by the rise of database populism and the increasing availability of microcomputers in the late-1970s. Implementations of the relational data model enabled the production of more accessible Interfaces for non-specialists and large institutional databases were increasingly accompanied by small personal databases built by individuals and stored on microcomputers. In the third period, however, small personal databases receded from the desktop with the increasing sophistication of spreadsheet software and the diffusion of internet access. 2 | Diesen Hinweis verdanke ich Johannes Paßmann.
17
18
Big Data In the early 21th century, the demanding , task of tracking millions of users through highly-centralized communication systems such as Facebook brought about new approaches to database design that departed significantly from the previous four decades.« (Driscoll, 2012, S. 6f.)
Die von Driscoll etablierte Geschichtsperiodisierung der Big Data bildet einen vielversprechenden Ansatz, um die sozialen und historischen Auswirkungen der Informationsverarbeitung mit sehr großen Datenmengen aufzeigen zu können. So gesehen sind weder die Forschungsfrage noch die methodischen Verfahren von Busa voraussetzungslos und können in einer breiter angelegten Wissensgeschichte und Medienarchäologie verortet werden. So finden sich bereits in den Schriften des Schweizer Archivars Karl Wilhelm Bührer (1861-1917) Modellentwürfe eines mechanisch kombinierungsfähigen Wissensapparates (Bührer, 1890, S. 190-92). Diese Denkfigur flexibilisierter und modularisierter Informationseinheiten wurde später zum konzeptionellen Inbegriff der mechanischen Datenverarbeitung. Die Archiv- und Bibliothekswissenschaften waren auch direkt am historischen Paradigmenwechsel der Informationsverarbeitung beteiligt. Denn es ist der Arzt und spätere Direktor der National Medical Library, John Shaw Billings, der die von Hermann Hollerith im Jahr 1886 entwickelte Apparatur zur maschinellen Verarbeitung von statistischen Daten mitentwickelte (Krajewksi, 2007, S. 43). Folglich verdankt die Lochkartentechnik ihre Entstehung also auch teilweise der technischen Pragmatik der bibliothekarischen Wissensorganisation; auch wenn erst später – unter den Vorzeichen der Rationalisierungsbewegung der 1920er Jahre – die bibliothekarischen Arbeitsverfahren gezielt mechanisiert wurden. Die weiterführenden Projekte der Datenverarbeitung zeigen, dass die maschinelle Erstellung eines Index oder einer Konkordanz für die Lexikografie und für den Katalogapparat der Bibliotheken den Beginn der computergestützten Geistes- und Kulturwissenschaften markiert. Im Zentrum der ersten Anwendungen der maschinellen Methode zur Erschließung großer Textmengen stand bis in die späten 1950er Jahre das Hollerith-Verfahren der Lochkarteisysteme. Das medientechnische Verfahren der Lochkarte veränderte die Lektürepraktiken der Texterschließung, indem es das Medium Buch in eine Datenbank transformierte und die linear-syntagmatische Ordnung des Textes in eine sachliche und begriffliche Systemordnung übersetzte. Bereits im Jahr 1951 etablierte sich eine zeitgenössische Debatte in akademischen Zeitschriften. Sie beurteilte die Anwendungsmöglichkeiten der Lochkarteisysteme überwiegend positiv und verknüpfte sie mit ökonomisch motivierten Rationalitätsvorstellungen. In seinem Aufsatz »Big Data – Big Humanities? Eine historische Perspektive« nutzt Theo Röhle die oben angesprochene historische Perspektivierung der Debatten im Umfeld von Big Data und Humanities Computing für eine kritische Auseinandersetzung mit den Ansprüchen und Versprechen der Digital Humanities. Vor diesem Hintergrund beschäftigt er sich mit historischen Debatten, die bereits in der naturwissenschaftlich dominierten Ära der »Big Science« (de Price,
Ramón Reicher t: Einführung
1963) der 1960er Jahre über die Verwendung quantifizierender Methoden in den Geschichtswissenschaft geführt wurden. Für ihn bietet eine quellenkritische Auseinandersetzung mit dieser Streitfrage die Möglichkeit, einerseits Parallelen zum aktuellen Diskurs in den Digital Humanities zu ziehen und andererseits problematische Behauptungen, die von einem Paradigmenwechsel (Kuhn, 1962) in der Geschichtswissenschaft sprechen, in die Schranken zu weisen. Die Historisierung von Big Data vermag aufzuzeigen, dass der historische Stellenwert der Arbeit mit Großdaten und der Diskurs der Großforschung nicht alleine aus der Tradition der Humanities abgeleitet werden kann, da die Entstehung und die Genese der Großforschung mit militärstrategischen und nationalstaatlichen Interessen und Institutionen verknüpft war (Leslie, 1993). Während des Kalten Kriegs erhielt die ›Big Science‹ einen entscheidenden Impuls und erfreute sich in den USA der frühen 1960er Jahre großer Popularität. In dieser Aufbruchsituation wurden im Rahmen des Internationalen Geophysischen Jahres (1957-1958) Weltdatenzentren (World Data Centers) geschaffen, die bis heute einen richtungsweisenden Stellenwert für die Erzeugung weltweiter Datennetzwerke und die Organisation großer Datenbanken einnehmen (vgl. Aronova, Baker und Oreskes, 2010, S. 183-224). Die automatischen Auswertungsverfahren von Texten für die literaturwissenschaftliche Editorik wurde in der frühen Phase des »Humanities Computing« (vorangetrieben durch dessen Teilbereiche »Computerphilologie« und »Computerlinguistik«) auf der Grundlage von zwei zentralen Diskursfiguren beschrieben, die bis heute gültig sind. Die eine Diskursfigur beschreibt die Errungenschaften des neuen Werkzeuggebrauchs mit der instrumentellen Verfügbarkeit der Daten (»Hilfsmittel«), die andere fokussiert die ökonomische Erschließung der Daten und betont das Effiziente und Effektive der maschinellen Methode bei der Dokumentation. Die mediale Figur der Automatisierung wurde schließlich in beiden Fällen mit der Erwartung zusammengeführt, interpretative und subjektive Einflüsse aus der Informationsverarbeitung und Informationserschließung systematisch auszuschließen. In den 1970er und 1980er Jahren etablierte sich die Computerlinguistik als ein institutionell verankerter Forschungsbereich inklusive universitärer Einrichtungen, Vereinszeitschriften (Journal of Literary and Linguistic Computing, Computing in the Humanities), Diskussionsforen (HUMANIST) und Konferenzaktivitäten. Das rechnergestützte Arbeiten in der historisch-sozialwissenschaftlichen Forschung erlebte damit einen ersten großen Aufschwung, wurde aber in den Arbeitsberichten weniger als eigenständige Methode, sondern hauptsächlich als ein Hilfsmittel bei der Textkritik und als eine Erleichterung bei der Quantifizierung der jeweiligen Gegenstände angesehen (Jarausch, 1976, S. 13). Ein nachhaltiger Medienumbruch sowohl im Bereich der Produktion als auch im Bereich der Rezeptionsästhetik ergab sich mit der Verwendung von standardisierten Textauszeichnungen wie der 1986 etablierten Standard Generalized Markup Language und softwarebasierten Textverarbeitungsprogrammen. Sie stellten
19
20
Big Data
eine zusätzliche Reihe digitaler Module, analytischer Werkzeuge und Textfunktionen zur Verfügung und transformierten den Text in ein Datenbankmodell. Texte konnten unter diesen Vorzeichen als strukturierte Informationen abgerufen werden und wurden optional als (relationale) Datenbanken verfügbar. In den 1980er und 1990er Jahren wurde die technische Entwicklung und die Textwahrnehmung also weitgehend vom Datenbank-Paradigma beherrscht. Mit der schrittweisen Durchsetzung des World Wide Web veränderten sich die Forschungs- und Lehrpraktiken der Kultur- und Geisteswissenschaften auf radikale Weise: Die Fachkommunikation erhielt durch die digitale Vernetzungskultur öffentlich zugänglicher Online-Ressourcen, Email-Verteiler, Chats und Foren eine breite Dynamik und ist durch die mediale Feedbackmentalität der Rankings und der Votings hochgradig responsiv geworden. Mit ihrem Anspruch, die hierarchischen Strukturen des akademischen Systems durch ein Re-Engineering des wissenschaftlichen Wissens zu überwinden, sorgen die Digital Humanities 2.0 in diesem Sinne für eine Wiederbelebung der Ideale von Egalität, Freiheit und Allwissenheit. Im Unterschied zu ihren Anfängen in den 1950er Jahren vertreten die Digital Humanities heute auch den Anspruch, das gesellschaftliche Wissen neu zu organisieren, und verstehen sich daher »sowohl als wissenschaftliches wie auch als sozialutopisches Projekt« (Hagner und Hirschi, 2013, S. 7). Mit dem Einzug der Social Media in die Geistes- und Kulturwissenschaften haben sich nicht nur die technologischen Möglichkeiten und die wissenschaftlichen Praktiken der Digital Humanities weiterentwickelt, sondern sie haben auch neue Phantasmagorien wissenschaftlicher Distribution, Qualitätsprüfung und Transparenz im World Wide Web angeregt (Haber, 2013, S. 175-190). Vor diesem Hintergrund haben Bernhard Rieder und Theo Röhle in ihrem 2012 veröffentlichten Aufsatz »Five Challenges« fünf zentrale Herausforderungen für die aktuellen Digital Humanities identifiziert: die Verlockung der Objektivität, die Macht der visuellen Evidenz, Black-Boxing (Unschärfen, Problematik der Stichprobenziehung etc.), institutionelle Turbulenzen (konkurrierende Serviceeinrichtungen und Lehrfächer) und das Streben nach Universalität. Computerunterstützte Forschung wird in der Regel von der Auswertung der Daten dominiert, und manche Forscher sehen fortgeschrittene Analyseverfahren im Forschungsprozess gar als Ersatz für eine gehaltvolle Theoriebildung. Forschungsinteressen könnten so fast ausschließlich durch die Daten selbst getrieben werden. Diese evidenzbasierte Konzentration auf das mit den Daten Mögliche kann Forscher aber dazu verleiten, heuristische Aspekte ihres Gegenstandes zu vernachlässigen. Diese Problematik hat der englische Medientheoretiker Richard Rogers zum Anlass genommen, sich intensiv mit der Theorie und der praktischen Anwendung digitaler Methoden auseinanderzusetzen. Seine Aufsätze und Bücher haben maßgeblich die einschlägigen Debatten geprägt und die digitale Medienanalyse entscheidend beeinflusst. In dem hier abgedruckten Text mit dem Titel »Nach dem Cyberspace: Big Data, Small Data« setzt er sich mit der digitalen methodologischen Perspektive auseinander, das
Ramón Reicher t: Einführung
Internet als Datensatz für die Sozial- und Kulturforschung zu betrachten, und beschäftigt sich vor diesem Hintergrund eingehend mit Methodenproblemen, die bei der Analyse von Suchmaschinen-Anfragedaten und bei der Formatierung der Daten in Metadaten auftreten können. Forschungsstrategisch gesehen zielt seine Argumentation darauf ab, die Datenkonstruktionen der sozialen ›Wirklichkeit‹ methodenkritisch in Frage zu stellen. Seine digitale Methodenkritik beschränkt sich hier weniger auf die methodischen Mängel im Prozess des Forschens (z.B. auf Fehlerquellen, die bei der Erhebung und Auswertung von Daten vorkommen könnten), sondern befragt darüberhinausgehend die technologischen Möglichkeitsbedingungen und theoretischen Vorannahmen, die dem Untersuchungsobjekt vorausgehen und die Modellierung sozialer Datenaggregate mitbestimmen. In ihrem Textbeitrag über die »Twitter-Archive und die Herausforderungen von ›Big Social Data‹ für die Medien- und Kommunikationswissenschaft« beschäftigen sich Jean Burgess und Axel Bruns mit den technischen, epistemologischen und politischen Verfahren und Praktiken, die bei der Nutzung von Twitter-Archiven in der medien- und kommunikationswissenschaftlichen Forschung zur Anwendung kommen. In ihrem Beitrag zeigen sie auf, dass die Forschungsinfrastrukturen der Big Data-Forschung wesentlich von der – kostspieligen und zeitaufwendigen – Weiterentwicklung mit technischen Experten und einer bisher stark eingeschränkten Verfügbarkeit experimenteller Werkzeuge und Methoden zur Social Media-Datenanalyse abhängig sind. Angesichts dieser strukturellen Beschränkungen plädieren sie dafür, die Agenda der ›Code Literacy‹ für die Konzeptentwicklung der Großdatenforschung zu stärken, um diese in das Feld der Medien-, Kommunikations- und Kulturwissenschaften transferieren zu können. In dieser Hinsicht könnten auch die narrativen, fiktionalen und bildkulturellen Anteile der Big Data in den Blick genommen werden, nämlich in dem Sinn, dass sie als etwas Gemachtes, Hergestelltes und Konventionelles aufgefasst werden können und nicht einfach als faktisch-gegebenes Fenster zur sozialen Welt der Tatsachen in einer passiven Rezeptionshaltung akzeptiert werden müssen (vgl. Hayles, 2005). Bernhard Rieder und Carolin Gerlitz befassen sich in ihrer Untersuchung »Data-Mining von einem Prozent Twitter – Sammlungen, Basislinien, Stichproben« mit den materialtechnischen Voraussetzungen von sozialen Netzwerken, indem sie die performativen Fähigkeiten von Twitter, spezifische Aktivitäten zu ermöglichen und zu strukturieren, untersuchen. Auf der Grundlage eines breit gestreuten Überblicks über die Methodenliteratur zur Social Media-Research entwickeln sie für das Mining von sozialen Medien ein Problemverständnis für die Techniken der Stichprobenziehung, Messung und Analyse von großen Datenmengen und interpretieren Twitter in erster Linie als eine mediendispositive Anordnung. Hashtags, Tweets, Retweets, Favoriten und Follows sind Medien des Sozialen und stellen Sozialität her. In dieser Sichtweise können die Funktionen der digitalen Kommunikation in Anlehnung an Deleuze als Sozialisierungslinien, die Sozialität hervorbringen, gekennzeichnet werden (vgl. Deleuze, 1991, S. 159).
21
22
Big Data
Mit dieser Sichtweise ausgerüstet können sie weiterführende Fragen nach dem Stellenwert der sozialen Vernetzungstechnologien von Online-Plattformen aufwerfen. Aufgrund der hohen Anforderungen an die schnelle Verfügbarkeit der großen Datenmengen können die Rohdaten nicht rechtzeitig verarbeitet werden. Folglich haftet den Datensamples eine technisch bedingte Unsicherheit oder Ungenauigkeit an, die in ihrer Überlagerung aufzeigen, dass den jeweiligen konkreten Verbindungen zwischen Technologien, Praktiken, Materialitäten und Epistemologien eine unauflösliche Mehrdeutigkeit anhaftet. Auch die Studie »Der Wert von Big Data für die Erforschung digitaler Medien« von Merja Mahrt und Michael Scharkow setzt sich mit den methodologischen Aspekten der Big Data-Forschung auseinander und befragt ihre Anwendbarkeit und ihren Nutzen bei der Erforschung der digitalen Medien. In ihrer theoretisch fundierten und empirisch ausgerichteten Argumentation plädieren sie dafür, dass die rezente Onlineforschung im Bereich der Sozialen Medien im Web 2.0 den Aussagewert von sehr großen Datenanalysen konsequenter theoretisch reflektieren sollte, da deren Validität durch infrastrukturelle Rahmenbedingungen stark eingeschränkt sein kann. Katrin Weller hat sich in ihrer Analyse »Twitter und Wahlen: Zwischen 140 Zeichen und Milliarden von Tweets« intensiv mit dem wissenschaftlichen Feld der Twitter-Forschung auseinandergesetzt und 49 Publikationen aus dem Jahr 2013 untersucht, die mit Twitter-Daten im Kontext von Wahlanalysen operieren. Das erklärte Ziel ihres innovativen Beitrags ist es, den aktuellen Forschungsstand hinsichtlich seiner Ergebnisse, verschiedenen Herangehensweisen, angewandten Methoden und unterschiedlichen Datentypen methodenkritisch zu vergleichen. In seinem Textbeitrag »From Mind to Document and Back Again. Zur Reflexivität von Social-Media-Daten« entwickelt auch Johannes Passmann eine vielversprechende theoretische Perspektive, die es erlaubt, das wissenschaftliche Wissen von Big Data-Analysen einer kritischen Revision zu unterziehen. Er zeigt auf, inwiefern nutzer- und plattformspezifische Reflexionsformen spezifische Social Media-Plattformdaten erzeugen, die nicht immer eindeutig lesbar sind, nicht auf die formale Genauigkeit repräsentativer Aussagen hochgerechnet werden können und eher auf die Erzeugung spieltaktischer Effekte und experimenteller Situationen verweisen. Bei 4chan und YouTube »besteht oft gerade der Reiz darin, Dokumente zu erzeugen, die absolut unerwartbare Konsequenzen zeitigen, wie bspw. dass der eigene Tweet in den Tagesthemen zitiert wird. Man könnte es so als ein Kernmoment des Social Web bezeichnen, aus der Reflexivität möglicher Konsequenzen einen spielähnlichen Vorgang zu machen, bei dem die Spielhaftigkeit dieser Konsequenzen stets in Frage steht.« (Abgedruckt im vorliegenden Band.) Der theoriekritische Ansatz von Paßmann kann als wertvoller Hinweis dafür genommen werden, die theoretisch in Aussicht gestellte Vermessung des Sozialen kritisch zu hinterfragen, wenn in Betracht gezogen wird, dass Soziales nicht einfach wie ein lebloses und bewusstloses Ding vermessen werden kann, da soziale Akteure über Reflexivität verfügen. Um Reflexivität auszubilden, müssen
Ramón Reicher t: Einführung
soziale Akteure auf sozialen Netzwerkseiten nicht unbedingt alle Prozeduren und Hintergründe ihrer Überwachung und Kontrolle durchschauen; den Akteuren genügt bereits ein vager Verdacht und ein nicht spezifizierbares Unbehagen, um eine Reflexivität möglicher Ordnungen oder möglicher Konsequenzen auszubilden. Das vierte Kapitel mit dem Titel »Dataveillance: Algorithmen, Graphen und Protokolle« widmet sich den sozialen Steuerungsprozessen und machtpolitischen Aspekten, die der Erzeugung von datengenerierter Forschung und materiellen Datenkulturen inhärent sind (vgl. Gillespie, 2010, S. 347-364). Auf welche Weise beschleunigen und verstärken Algorithmen, Protokolle und Netzwerke die Organisation, Analyse und Repräsentation einer digitalen Kontrollgesellschaft? Welche Analysemodelle bieten sich an, um die datenintensiven Formen der Wissensproduktion kritisch zu befragen? Die in diesem Kapitel zusammengeführten Texte arbeiten die politische Relevanz der Software und der digitalen Medientechnologien heraus. Diese den Critical Code Studies (Hayles, 2004, S. 67-90; Marino, 2006; Kirschenbaum, 2004, 2008; Berry, 2011; Chun, 2011; WardripFruin, 2011) nahestehenden Textbeiträge gestehen der Vernetzungstechnologie selbst eine strukturbildende Macht zu und interpretieren die digitalen Informations- und Kommunikationstechnologien als eine rechner- und softwarebasierte Ermöglichungsmacht sozialer und kultureller Praktiken, die weite Bereiche der Alltagskommunikation dominieren. Geht man von der Annahme aus, dass die kollektive Datenkommunikation in Rechnernetzen durch die Netzwerkinfrastruktur der Netzwerkprotokolle organisiert wird und in funktionale Internetschichten zergliedert ist, dann können die Netzwerkprotokolle als Kulturtechniken der sozialen Regulierung angesehen werden, mit denen kollektive Prozesse als technisch bedingte Effekte von Netzwerktechnologien angeschrieben werden können (Wagner, 2006, S. 26f.). Mit der von Alexander Galloway projektierten Medien- und Machttheorie der ›protokollogischen‹ Kontrolltechniken kann der liberale Machttypus der verteilten Kontrollgesellschaft treffend als nicht statische Kräfterelation beschrieben werden. Die Protokolle stehen folglich für eine liberale Regierungstechnologie, die hochgradige Spielräume an unregulierter Kommunikation und flexibilisierter Distribution von Inhalten für einen taktischen Mediengebrauch ermöglicht. Protokolle operieren unterhalb der sichtbaren Anwendungsschichten im Verborgenen und werden daher nicht als mediale Beschränkung von Informationsflüssen wahrgenommen, sondern als herrschafts- und machtneutrales Tool. Diesem blinden Fleck im Mediengebrauch schenkt der in diesem Sammelband erstübersetzte Essay »Protokoll, Kontrolle und Netzwerke« von Alexander Galloway und Eugene Thacker seine volle Aufmerksamkeit. In der Tradition medienmaterialistischer Ansätze und vor dem Theoriehintergrund der Science Studies fragen sie nach dem Stellenwert von informatischen Konzepten und Benutzerschnittstellen bei der Herausbildung sozialer Formationen und politischer Figuren des Wissens: »Das Set von Verfahren zur Überwachung, Regulierung und Modulierung von
23
24
Big Data
Netzwerken als lebendigen Netzwerken ist auf der grundlegendsten Ebene auf die Produktion von Leben in seinen biologischen, sozialen und politischen Kapazitäten ausgerichtet.« (Abgedruckt im vorliegenden Band.) Sie interpretieren die algorithmischen Standards, Normen und Protokolle also in erster Linie als vermittelnde Instanz zwischen den kulturellen Praktiken und den technischen Infrastrukturen. Galloway und Thacker verstehen Netzwerke nicht bloß als technische Systeme, sondern als sozial dynamische und lebendige Netzwerke, die sich in Echtzeit organisieren. Vor diesem Hintergrund untersuchen sie nicht nur die technischen Möglichkeiten der politischen Kontrolle durch Algorithmen und Protokolle, sondern befragen die politischen Handlungsmöglichkeiten von netzwerkbasierten Bewegungen. Auch Matteo Pasquinelli versteht Software als einen historischen Wissensbestand, der seine eigene Geschichte aufweist und somit nicht nur technologischen Normen und Standards unterliegt, sondern ebenso durch soziale, institutionelle und kulturelle Rahmenbedingungen bedingt ist. In seinem Aufsatz »Der italienische Operaismo und die Informationsmaschine« verknüpft Pasquinelli den Maschinenbegriff von Gilles Deleuze und Felix Guattari mit der Algorithmik des digitalen Codes, um beide Konzepte auf die Marx’sche Theorie der Maschinen zu beziehen. In diesem Sinn schlägt Pasquinelli vor, die Extraktion von Metadaten als einen wertschöpfenden Faktor zu deuten und Netzwerke als Maschinen zur Kontrolle, Akkumulation und Steigerung des Mehrwerts auszulegen: »Abschließend – als ein Set von vorläufigen Hypothesen innerhalb der entstehenden ›Big Data‹-Gesellschaft – kann von den Metadaten gesagt werden, dass sie dazu genutzt werden: 1) um den Wert von sozialen Beziehungen zu messen; 2) das Design von Maschinen und maschineller Intelligenz zu verbessern; und 3) Massenverhalten zu überwachen und vorherzusagen.« (Abgedruckt im vorliegenden Band.) Dieser strategische Zusammenhang von politischer Ökonomie, Wissensproduktion und Datenbanktechnik steht auch im Zentrum der Analyse von Christoph Engemann, der sich in seinem Textbeitrag »You cannot not Transact – Big Data und Transaktionalität« mit den gemeinsamen Bezugspunkten zwischen der ökonomischen und der formalisierten Transaktion in der Datenbanktechnik beschäftigt. In diesem Kontext vertritt er die These, dass sich am Transaktionsbegriff die genealogische Verschränkung von relationalen Datenbanken und Ökonomie ablesen lässt. In einer ersten Annäherung untersucht er die Begriffsgeschichte der Transaktionalität, um zu klären, was unter der bislang medienwissenschaftlich ungenügend untersuchten Kulturtechnik der Transaktion verstanden werden kann. In einem zweiten Schritt arbeitet er heraus, inwiefern Transaktionalität ein Kernelement von Big Data bildet, um schließlich die historisch fundierte und politisch motivierte Frage nach der ökonomischen Dimension von Big Data stellen zu können. Die Aggregation, Archivierung und Auswertung von transaktionalen Daten zählen heute zum Kernbereich erfolgreicher Geschäftsmodelle. Auch das epi-
Ramón Reicher t: Einführung
demiologische Data Mining nutzt große Verhaltensdatenbanken, um auf der Grundlage von transaktionalen Daten zukünftige Krankheitsentwicklungen vorhersagen zu können. Annika Richterich untersucht in ihrem Aufsatz »Infodemiologie – von ›Supply‹ zu ›Demand‹. Google Flu Trends und transaktionale Big Data in der epidemiologischen Surveillance« den Stellenwert von transaktionalen Daten im epidemiologischen Monitoring und Mapping von Nutzerverhalten und beschäftigt sich mit den sozial- und netzpolitischen Problemen dieser neuen Datenpraktiken. Ihre Forschungsperspektive auf die Software als eine sozial konstituierende Macht bleibt aber von der Prämisse begleitet, dass Geschichte nicht lückenlos geplant, sondern in unterschiedlichen sozialen Räumen und Kontexten nur als ein offener Prozess verstanden werden kann. So kreist etwa die Übertragung von Befragungs- und Nutzerdaten in Kombination mit dem Surfverhalten der User auf die Gesamtheit aller Nutzer statistischen Berechnungen durch das Social Media Targeting und das Predictive Behavioral Targeting um mathematische Optimierungsprobleme, da die sozialen Beziehungsgefüge stets wandelbar, schwach strukturiert und unzyklisch in ihrer Mediendynamik erscheinen. Das den Band abschließende fünfte Kapitel befasst sich mit den technik- und sozialgeschichtlichen Aspekten der Verarbeitung von Großdaten und erkundet das Wechselverhältnis von technischen Infrastrukturen und sozialen Ordnungsvorstellungen. Es ist aber weniger eine chronologische Geschichtsschreibung der technischen Innovationen, welche die Medienumbrüche und sozialen Transformationen erklären kann. Denn die gegenwärtigen Medien- und Subjektkulturen sind immer auch schon in den Technologien, Prozeduren und medialen Anordnungen enthalten, die ihnen vorausgehen und die sie schließlich voraussetzen – ohne sie damit auch schon kausal zu determinieren. Stefan Höltgen spürt einer dieser technologischen Entwicklungen zur sozialen Rechnervernetzung nach, die sich in den frühen 1970er Jahren herausbildete und veränderliche Wissensformen, kulturelle Hybridisierungen und multimediale Anordnungen im Operationsbereich der Großdaten hervorbrachte. Er vertritt in seiner Abhandlung »All Watched Over by Machines of Loving Grace. Öffentliche Erinnerungen, demokratische Informationen und restriktive Technologien am Beispiel der ›Community Memory‹« die These, dass für das Aufkommen großer Datenmengen mehr Maschinen als Menschen verantwortlich sind. Um die medienhistorischen Weichenstellungen der Rechnerverarbeitung von großen Datenmengen freizulegen, untersucht er das »Community Memory«-Projekt, das in den frühen 1970er Jahren in der California Bay Area bei San Francisco entstand. Das »Community Memory« interpretiert Höltgen als eine Basistechnologie sozialer Netzwerke und kann so eine mögliche Genealogie der Entstehung aller modernen MassendatenServices und Massendatenverarbeitungen nachweisen. In einem ersten Schritt beleuchtet er die Protagonisten und die institutionelle Einbettung des »Community Memory«-Projektes. Anschließend untersucht er die technischen und historischen Bedingungen seiner Software- und Speichertechnologie und rekonstruiert die medientechnischen Bedingungen der Mög-
25
26
Big Data
lichkeit zeitgenössischer Netzwerkseiten. In diesem Zusammenhang zeigt er nicht nur, dass Massendatenauswertung eine dauernde Forderung an die Weiterentwicklung von Hardware und Software stellt, sondern auch, dass sich seit den ersten rechnerbasierten Netzwerkprojekten eine sich formierende Politik des Informationszeitalters ablesen lässt. In dieser Hinsicht vollzieht der Computer als Medium einen Registerwechsel, insofern er von einer Medienkultur, die das Speichern privilegiert, zu einer Medienkultur der permanenten Übertragung und Vernetzung mutiert und damit die gegenwärtige Vernetzungskultur vorwegnimmt, deren Unterschiede und Gemeinsamkeiten Regine Buschauer in ihrer Untersuchung thematisiert. Sie befasst sich in »(Very) Nervous Systems. Big Mobile Data« mit der medien- und technikgeschichtlichen Reflexion der pervasiven Vernetzung des Alltags durch den Einsatz ›intelligenter‹ Medien. Zunächst wird die Geschichte des technischen ›Nervensystems‹ als die eines historisch grundlegenden Topos der Kommunikationstechnik nachgezeichnet. Schließlich befragt sie die aktuellen Mediendiskurse zur omnipräsenten Kommunikationstransparenz auf ihre techno-imaginären Geschichtsbezüge und sozialen Ordnungsvorstellungen. Ausgehend vom zellulären System des Mobilfunks und einem Location Sensing, das in der Konvergenz mobiler digitaler Medien seit den 1990er Jahren in den Vordergrund tritt, befragt sie in weiterer Folge die Vitalitätsmetaphern ›pervasiver‹ und ›ubiquitärer‹ Medien, die über die Ordnungsvorstellung einer imaginären ›God’s eye view‹ hinausweisen. In dieser Sichtweise kann sie die diskursive Ermöglichung von Gegenwartsaussagen freilegen und in ihrem normativen Anspruch problematisieren. Indem sie ihre Untersuchung auf die Medien- und Kommunikationsgeschichte der technischen Systeme konzentriert, vermag sie schließlich aufzuzeigen, dass das Technische immer schon an einem gemeinsamen Vorrat von Gedächtniskulturen und Bilderrepertoires partizipiert. In dieser Engführung erschließt sie sich die imaginären Bilderwelten der Big Data an den Schnittstellen der heterogenen Genealogie eines pervasiven Medienwandels. Digitale Infrastrukturen wie die von Buschauer erörterte rechnerbasierte Mobilität im Sinne selbstorganisierender ad-hoc-Netze und kontextorientierter Softwaresysteme zeigen auf, dass Mediengebrauch nicht länger als ›Unterwerfung‹ und ›Anpassungsleistung‹ einer ›ursprünglichen‹ Subjektivität angesehen werden muss, weil Subjektivität selbst schon hergestellt ist und das Netz bereits zu den gängigen Metaphern zählt, mit denen Subjekte und ihr Verhalten als zeitgemäß beschrieben werden. In diesem Sinne teilen netzwerktheoretische Ansätze eine konstruktivistische Grundeinstellung und gehen davon aus, dass die neuen »Verstehensformen von Subjektivität« (Paulitz, 2005, S. 40) maßgeblich von den Technologien der Vernetzung und dem Internet als technisches Artefakt geprägt sind. Ramón Reichert beschäftigt sich in seinem Textbeitrag »Facebooks Big Data: Die Medien- und Wissenstechniken der kollektiver Verdatung« mit dem Data Mining des Facebook Data Teams. Unter Leitung des Soziologen Cameron
Ramón Reicher t: Einführung
Marlow erstellt die Forschergruppe, bestehend aus der Sozialpsychologin Moira Burke, dem Informatiker Danny Ferrante und dem Soziologen Adam Kramer, Trend-, Text- und Sentimentanalysen zur Stimmungserkennung der FacebookUser. Auf der Datengrundlage der Status-Updates erstellt die Facebook Data Science Research seit 2007 ihren »Gross National Happiness Index« (GNH), der das ›Bruttonationalglück‹ großer sozialer Gruppen repräsentieren soll. Das Facebook Data Team hat anhand von Status-Updates die Stimmungslage in 22 Ländern analysiert und interpretiert damit die eigene Plattform als relevanten Indikator zur Vermessung der nationalen Stimmungslage. Daher steht zunächst die folgende Kernfrage im Zentrum der Analyse: Welche Medien- und Wissenstechniken werden von Facebook eingesetzt, um ›Stimmungsdaten‹ in Metadaten zu überführen? In einem zweiten Schritt wird aufgezeigt, inwiefern die von Facebook in Aussicht gestellten Verhaltensprognosen bereits in ihren Grundannahmen von Präsuppositionen durchdrungen sind und mit einer Rhetorik und »Poetologie des Wissens« (Vogl, 1998) operieren, welche in die jeweiligen Datenkonstruktionen einfließen. Neben den neuen Technologien zur Herstellung digitaler Kommunikationsgemeinschaften haben sich in den Peer-to-Peer-Netzwerken und Online-Portalen aber auch traditionelle Leitbilder des gemeinschaftlichen Zusammenlebens und -arbeitens erhalten, die zur Konstruktion sozialer, kultureller und politischer Identität eingesetzt werden. Die Gemeinschaftsidee ist heute zum Angelpunkt der Legitimation der Sozialen Medien im Web 2.0 aufgestiegen (van Dijck, 2012). Vor diesem Hintergrund untersucht Martin Doll den Bezugsrahmen von technischen Medien und den Ordnungsvorstellungen politischer Imaginationen. In seinem Beitrag »Theorie und Genealogie des Techno-Imaginären: Social Media zwischen ›Digital Nation‹ und pluralistischem Kosmopolitismus« richtet er ausgehend von einer luziden Lektüre von Benedict Andersons »Imagined Communities« seine Aufmerksamkeit auf die Entstehung der gegenwärtig mit den Social Media verbundenen Vorstellungen von Kollektivität. In produktiver Bezugnahme auf die Sozial- und Kommunikationsheorien von James Carey, Clifford Geertz und Bruno Latour entwickelt Doll ein vielschichtiges Interesse für die aktuellen gesellschaftlichen Selbstbeschreibungen der Plattformen Facebook und Twitter. Dabei kann er nicht nur eine Pluralität von bild-, ideen- und mediengeschichtlichen Tradierungslinien sozialer Ordnungsvorstellungen nachweisen, sondern auch gleichermaßen aufzeigen, inwiefern die mit den Sozialen Netzwerken verknüpften Imaginationen von Kollektivität auf künftige politische Handlungen und Entscheidungen Einfluss nehmen. Mit seiner Sichtweise verfolgt Martin Doll das Ziel, die Aufmerksamkeit für den veränderten Stellenwert der gegenwärtigen Vernetzungskultur zu schärfen. Zusammenfassend lässt sich feststellen, dass sich in der Ära der Big Data nicht nur die Datenpraktiken und Wissenskultur, sondern auch der Stellenwert von sozialen Netzwerken radikal geändert hat, denn sie figurieren zunehmend als gigantische Datensammler für die Beobachtungsanordnungen sozialstatisti-
27
28
Big Data
schen Wissens und als Leitbild normalisierender Praktiken. Es haben sich mit der Durchsetzung der digitalen Kommunikation, der Sozialen Medien und dem Internet der Dinge aber auch die sozialen Akteure selbst verändert. Insofern erfordert das Zeitphänomen Big Data nicht nur eine Neuorganisation der Digital Humanities und die institutionelle Einbindung digitaler Methodik, sondern auch eine weitgefasste politische, kritische und historische Perspektivierung von Daten, die in der Lage ist, die tektonischen Verschiebungen der Gegenwartsgesellschaft in allen Bereichen des Alltags angemessen reflektieren zu können.
L iter atur Aronova, Elena, Karen Baker und Naomi Oreskes: »Big Science and Big Data in Biology: From the International Geophysical Year through the International Biological Program to the Long-Term Ecological Research Program, 1957-present«, in: Historical Studies in the Natural Sciences 40/2, 2010, S. 183-224. Ball, Kirstie, Kevin D. Haggerty und David Lyon: Routledge Handbook of Surveillance Studies, London: Routledge 2012. Ballsun-Stanton, Brian: »Asking about Data: Experimental Philosophy of Information Technology«, in: 5th International Conference on Computer Sciences and Convergence Information Technology 1/5, 2010, S. 119-124. Beniger, James R.: The Control Revolution, Cambridge et al.: Harvard University Press 1986. Berry, David M.: The Philosophy of Software: Code and Mediation in the Digital Age, Basingstoke: Palgrave Macmillan 2011. Bobley, Brett: »Announcing the 2011 Digging into Data Challenge«, 2011. www.neh. gov/divisions/odh/grant-news/announcing-the-2011-digging-data-challenge (20. Mai 2014). boyd, danah, und Kate Crawford: »Six Provocations for Big Data«, in: Conference Paper, A Decade in Internet Time: Symposium on the Dynamics of the Internet and Society, September 2011, Oxford: University of Oxford 2011. http://papers.ssrn. com/sol3/papers.cfm?abstract_id=1926431 (20. Mai 2014). Bührer, Karl Wilhelm: »Ueber Zettelnotizbücher und Zettelkatalog«, in: Fernschau 4, 1890, S. 190-192. Burgess, Jean, und Cornelius Puschmann: »The Politics of Twitter Data«, 2013. www.papers.ssrn.com/sol3/papers.cfm?abstract_id=2206225 (20. Mai 2014). Burdick, Anne, Johanna Drucker, Peter Lunenfeld, Todd Presner und Jeffrey Schnapp: »Digital_Humanities«, Cambridge, MA: MIT Press 2012. http:// mitpress.mit.edu/sites/default/files/titles/content/9780262018470_Open_ Access_Edition.pdf (20. Mai 2014). Busa, Roberto: S. Thomae Aquinatis Hymnorum Ritualium Varia Specimina Concordantiarum. Primo saggio di indici di parole automaticamentecomposti e stampati da macchine IBM a schede perforate, Milano: Bocca 1951.
Ramón Reicher t: Einführung
Ders.: »The Annals of Humanities Computing: The Index Thomisticus«, in: Computers and the Humanities 14 (2), 1980, S. 83-90. Chun, Wendy H.K.: Programmed Visions: Software and Memory, Cambridge, MA: MIT Press 2011. Conover, Michael D., Bruno Goncalves, Alessandro Flammini und Filippo Menczer: »Partisan Asymmetries in Online Political Activity«, in: EPJ Data Science 1/6, 2012. www.epjdatascience.com/content/1/1/6 (20. Mai 2014). Davidson, Cathy N.: »Humanities 2.0: Promise, Perils, Predictions«, in: Publications of the Modern Language Association (PMLA), Vol. 123 (3), 2008, S. 707-717. Deleuze, Gilles: »Was ist ein Dispositiv?«, in: Francois Ewald und Bernhard Waldenfels (Hg.), Spiele der Wahrheit. Michel Foucaults Denken, Frankfurt a.M.: Suhrkamp 1991, S. 153-162. Dijck, José van (2013), The Culture of Connectivity: A Critical History of Social Media, Oxford: Oxford University Press. Driscoll, Kevin: »From punched cards to ›Big Data‹: A social history of database populism«, in: Communication +1 (1), 2012. http://kevindriscoll.info/ (20. Mai 2014). Drucker, Johanna: SpecLab: Digital Aesthetics and Projects in Speculative Computing, Chicago und London: University of Chicago Press 2009. Floridi, Luciano: The Fourth Revolution: How the Infosphere is Reshaping Human Reality, Oxford: Oxford University Press 2014. Gayo-Avello, Daniel: »No, You Cannot Predict Elections with Twitter«, in: IEEE Internet Computing 16/6, 2012, S. 91-94. Gilbert, Eric, und Karrie Karahalios: »Widespread Worry and the Stock Market«, in: 4th International AAAI Conference on Weblogs and Social Media (ICWSM), Washington, DC: George Washington University 2010, S. 58-65. Gillespie, Tarleton: »The Politics of ›Platforms‹«, in: New Media & Society 12/3, 2010, S. 347-364. Ders.: »The Relevence of Algorithms«, in: Tarleton Gillespie, Pablo Boczkowski und Kirsten Foot (Hg.), Media Technologies, Cambridge, MA: MIT Press 2012. www.tarletongillespie.org/essays/Gillespie%20-%20The%20Relevance%20 of %20Algorithms.pdf (20. Mai 2014). Gitelman, Lisa, und Virginia Jackson (Hg.) (2013): ›Raw data‹ is an oxymoron, Cambridge MA: MIT Press. Gitelman, Lisa, und Geoffrey B. Pingree: New Media: 1740-1915, Cambridge, MA: MIT Press 2004. Gold, Matthew K. (Hg.), Debates in the Digital Humanities, Minneapolis: University of Minnesota Press 2012. Haber, Peter: »›Google Syndrom.‹ Phantasmagorien des historischen Allwissens im World Wide Web«, in: Zürcher Jahrbuch für Wissensgeschichte 9, 2013, S. 175190. Hagner, Michael, und Caspar Hirschi (Hg.), Nach Feierabend, Digital Humanities – Zürcher Jahrbuch für Wissensgeschichte 9, Berlin: diaphanes 2013.
29
30
Big Data
Hayles, Katherine N.: »Print Is Flat, Code Is Deep: The Importance of Media-Specific Analysis«, in: Poetics Today 25 (1), 2004, S. 67-90. Dies.: My Mother Was a Computer: Digital Subjects and Literary Texts, Chicago: University of Chicago Press 2005. Hockey, Susan: »History of Humanities Computing«, in: Susan Schreibman, Ray Siemens und John Unsworth (Hg.), A Companion to Digital Humanities, Oxford: Blackwell 2004. Jarausch, Konrad H.: »Möglichkeiten und Probleme der Quantifizierung in der Geschichtswissenschaft, in: Ders. (Hg.), Quantifizierung in der Geschichtswissenschaft. Probleme und Möglichkeiten«, Düsseldorf: Droste 1976, S. 11-30. Kirschenbaum, Matthew G.: »Extreme Inscription: Towards a Grammatology of the Hard Drive«, in: TEXT Technology (2), 2004, S. 91-125. Ders.: Mechanisms: New Media and the Forensic Imagination, Cambridge: MIT Press 2008. Krajewski, Markus: »In Formation. Aufstieg und Fall der Tabelle als Paradigma der Datenverarbeitung«, in: David Gugerli, Michael Hagner, Michael Hampe, Barbara Orland, Philipp Sarasin und Jakob Tanner (Hg.), Nach Feierabend. Zürcher Jahrbuch für Wissenschaftsgeschichte, Bd. 3, Zürich und Berlin: diaphanes 2007, S. 37-55. Kuhn, Thomas S.: The Structure of Scientific Revolutions, Chicago: University of Chicago Press 1962. Lauer, Gerhard: »Die digitale Vermessung der Kultur. Geisteswissenschaften als Digital Humanities«, in: Heinrich Geiselberger und Tobias Moorstedt (Hg.), Big Data. Das neue Versprechen der Allwissenheit, Frankfurt a.M.: Suhrkamp 2013, S. 99-116. Leslie, Stuart W.: The Cold War and American science: The military-industrial-academic complex at MIT and Stanford, Columbia: Columbia University Press 1993. Lévi-Strauss, Claude (1964): Das Rohe und das Gekochte, Frankfurt a. Main: Suhrkamp. McCarty, Willard: Humanities Computing, London: Palgrave 2005. McPherson, Tara: »Dynamic Vernaculars: Emergent Digital Forms in Contemporary Scholarship«, Lecture presented to HUMlab Seminar, Umeå University, 3. April 2008. http://stream.humlab.umu.se/index.php?streamName=dynamic Vernaculars (20. Mai 2014). Paulitz, Tanja (2005): Netzsubjektivität/en. Konstruktionen von Vernetzung als Technologien des sozialen Selbst. Eine empirische Untersuchung in Modellprojekten der Informatik. Münster: Westfälisches Dampf boot. Price, Derek J. Solla: Little science, Big science, New York: Columbia University Press 1963. Schischkoff, Georgi: »Über die Möglichkeit der Dokumentation auf dem Gebiete der Philosophie«, in: Zeitschrift für Philosophische Forschung 6 (2), 1952, S. 282292.
Ramón Reicher t: Einführung
Svensson, Patrik: »The Landscape of Digital Humanities«, in: Digital Humanities Quarterly (DHQ), Vol. 4 (1), 2010. www.digitalhumanities.org/dhq/vol/4/ 1/000080/000080.html (20. Mai 2014). Taewoo, Nam, und Jennifer Stromer-Galley: »The Democratic Divide in the 2008 US Presidential Election«, in: Journal of Information Technology & Politics 9/2, 2012, S. 133-149. Thaller, Manfred: »Controversies around the Digital Humanities: An Agenda«, in: Ders. (Hg.), Computing Historical Social Research, Vol. 37 (3), 2012, S. 7-23. Vanhoutte, Edward: »The Gates of Hell: History and Definition of Digital | Humanities«, in: Melissa Terras, Julianne Tyham und Edward Vanhoutte (Hg.), Defining Digital Humanities, Farnham: Ashgate 2013, S. 120-156. Vogl, Joseph (Hg.), Poetologien des Wissens um 1800, München: Wilhelm Fink 1998. Wald, Randall, Taghi M. Khoshgoftaar und Chris Sumner: »Machine Prediction of Personality from Facebook Profiles«, in: 13th IEEE International Conference on Information Reuse and Integration, 2012, S. 109-115. Wagner, Kirsten: Datenräume, Informationslandschaften, Wissensstädte. Zur Verräumlichung des Wissens und Denkens in der Computermoderne, Freiburg: Rombach 2006. Wardrip-Fruin, Noah: Expressive Processing, Cambridge: MIT Press 2011. Yogatama, Dani: »Predicting the Future: Text as Societal Measurement«, Language Technologies Institute, School of Computer Science, Carnegie Mellon University 2012. www.cs.cmu.edu/~dyogatam/Home_files/statement.pdf (20. Mai 2014). Zhang, Qi: »Cloud computing: state-of-the-art and research challenges«, in: Journal of Internet Services and Applications 1/1, 2010, S. 7-18.
31
1. Big Digital Humanities
Licht und Schatten im digitalen Zeitalter Programmatische Vorlesung auf dem Digital Inquiry Symposium am Berkeley Center for New Media Bernard Stiegler
K ognition , Technik und W issen Meine akademische Karriere begann an der Technischen Universität von Compiègne (UTC), wo ich ein Labor gründete, das sich den Fragen von Kognition, Wissen und technischen Systemen widmete und das noch heute existiert. Das Projekt unseres Teams ging von dem gedanklichen Ansatz aus, dass es in den Kognitionswissenschaften, die damals noch sehr auf den Computer fixiert waren, ein großes Paradox und Missverständnis gebe. Diese Wissenschaften verwendeten nämlich ein technisches Artefakt – den Computer – als Modell, um die Kognition zu erklären, ohne die Technik selbst zum Gegenstand ihrer Theorie zu machen. Aufgrund dieser Tatsache sowie von Analysen zur Vorgeschichte, insbesondere der Thesen von André Leroi-Gourhan, wie von Theorien, etwa der von Georges Canguilhem inspirierten Philosophie der Individuation von Gilbert Simondon, gründete ich die Forschungsgruppe »Wissen, Organisation und technische Systeme« (COSTECH), die sich mit der Entwicklung der kognitiven Techniken befasste. Wir müssen zwischen Kognition und Wissen unterscheiden, und heute spreche ich lieber von Wissenstechniken als von kognitiven Techniken. Bevor wir uns eine Wissenschaft der Kognition vorstellen können, müssen wir uns mit den Techniken der Kognition befassen, d.h., der technischen Bedingung von Kognition, wenn sie nicht nur Kognition, sondern Wissen geworden ist. Offenkundig gibt es tierische Formen von Kognition. Und wenn eines der Hauptargumente der von der Kybernetik beeinflussten Kognitionstheorien lautete, man müsse die Einheit der Kognition in ihren unterschiedlichen tierischen, menschlichen und maschinellen Formen begreifen, erwiderten wir, man müsse vor allem die Frage nach der immanenten Rolle der Technik in der menschlichen Form von Kognition beantworten. Und genau deshalb müssen wir sorgfältig zwischen Wissen und Kognition unterscheiden.
36
1. Big Digital Humanities
Wenn die Kognition aus dieser technischen Form von Leben stammt, die das menschliche Leben für Canguilhem ist, wird aus Kognition Wissen, d.h. eine soziale und nicht bloß eine mentale oder zerebrale Produktion. Und deshalb ist Simondons Denken hier so fruchtbar, nämlich wenn er aufzeigt, dass es unmöglich ist, sich die psychische Individuation vorzustellen, ohne sich gleichzeitig die kollektive Individuation (und Transindividuation) vorzustellen. Damit uns dies gelingt, müssen wir die Vorgeschichte und die Rolle der Technik als Beginn eines Prozesses der Exteriorisierung von Leben studieren, um es mit den Begriffen von Leroi-Gourhan zu formulieren, eines Prozesses, der auch eine Transformation von Gedächtnis ist. Nun müssen wir allerdings diesen Begriff Prozess der Exteriorisierung sehr sorgfältig verwenden, weil es keine Innerlichkeit gibt, die einer Exteriorisierung vorausgeht, sondern im Gegenteil: Die Exteriorisierung konstituiert das Innere als solches, d.h., sie unterscheidet und konfiguriert es gerade in diesem Prozess der Exteriorisierung.
M enschliches G edächtnis als E piphylogenese Der Zinjanthropus wurde 1959 entdeckt. Er gehört zur Gruppe der Australopithecinen, die vor 1,75 Millionen Jahren existierten und deren älteste zweibeinige Verwandte bis zu 3,6 Millionen Jahre zurückreichen. Er wiegt etwa dreißig Kilo und ist ein echter Zweibeiner: Er benutzt seine Vorderbeine nicht mehr zur Fortbewegung, sondern fortan zur Herstellung von Werkzeugen und um sich auszudrücken, d.h., zur Exteriorisierung, die das Menschsein des Menschen ausmacht und damit einen Bruch in der Geschichte des Lebens darstellt. Was bis dahin ein Teil des Lebens war, nämlich Jagd und Verteidigung bedingte, verlagert sich außerhalb des Bereichs des Lebens: Der Kampf ums Leben – oder vielmehr um die Existenz und um Anerkennung und Re-Kognition, um es mit Hegel zu sagen – kann nicht mehr auf die Darwinsche Evolution beschränkt werden. Der Mensch führt diesen Kampf, den wir noetisch nennen könnten, als einen Kampf um ReKognition, um die Existenz, durch Exteriorisierung, d.h., durch nichtbiologische Organe, durch künstliche Organe – durch Technik. Und dies ist der Beginn dessen, was man heute die Erweiterung des Menschen als Beginn des Menschseins nennt – der Mensch, heißt das, existiert nicht, sondern ist immer noch im Kommen begriffen: Er ist eine Idee, bei der nach ihrer Konsistenz und nicht nur nach ihrer Existenz gefragt wird, und diese Konsistenz lässt sich nicht auf die Existenz reduzieren. Wir nennen diese Frage meist die Sinnfrage. Dieses Leben ist daher nicht einfach nur bio-logisch – es ist eine Existenz, die auf kommende Konsistenzen hin orientiert ist, d.h. eine technische Ökonomie der Antizipation, die auch eine technische Ökonomie des Memorierens wie eine Ökonomie der Erweiterung ist. Diese auf einem neuen Zustand des Memorierens begründete Antizipation ist als Verlangen organisiert, das durch hypomnesische technische Milieus aufrechterhalten wird. Dies sind auch symbolische Milieus, in
Bernard Stiegler: Licht und Schatten im digitalen Zeitalter
denen man Fetische und Werkzeuge findet, die aber so beschaffen sind, dass die Triebe einem Wirklichkeitsprinzip unterworfen sind, d.h., einem Aufschub ihrer Befriedigung und jenseits des Lustprinzips einem Prinzip der Sublimierung, das auch ein Prinzip der Idealisierung ist. All dies bildet eine triebhafte Ökonomie, wodurch die Energien der Triebe in triebhafte Energie umgewandelt werden, d.h. in Verlangen, Sublimierung und Ideen. Freud, dessen Theorie des Unbewussten eine Theorie der Erinnerung und ihrer Zensur ist, hat diese Frage ständig gequält, ohne dass er sie zu formulieren vermochte, was dann zu einem Neo-Lamarckismus in Der Mann Moses und die monotheistische Religion geführt hat. Leroi-Gourhan verdanken wir die These, dass die Technik ein Vektor des Gedächtnisses ist. Von den Australopithecinen bis zu den Neandertalern vollzieht sich eine biologische Differenzierung der Großhirnrinde, die sogenannte Entfaltung des Kortikalfächers. Aber seit dem Neandertaler ist die Entwicklung des Großhirns praktisch abgeschlossen – die neuronale Ausstattung des Neandertalers entspräche ziemlich der unseren. Und vom Neandertaler bis zu uns entwickelt sich die Technik in einem außerordentlichen Ausmaß, und das bedeutet, dass die technische Entwicklung nicht mehr von der biologischen Entwicklung abhängt. Die technische Entwicklung vollzieht sich vielmehr außerhalb und unabhängig von der Dimension des Biologischen. Der Prozess der Exteriorisierung ist in dieser Hinsicht der Prozess der Konstituierung einer dritten Schicht des Gedächtnisses. Seit dem Hervorgehen des Neodarwinismus aus der Molekularbiologie und August Weismanns Forschungen wird behauptet, sexuell differenzierte Lebewesen würden durch zwei Gedächtnisse konstituiert: das Gedächtnis der Art, das Genom, das Weismann »Germen« nennt, und das Gedächtnis des Individuums, das somatische Gedächtnis, das im Zentralnervensystem sitzt und das Gedächtnis der Erfahrung begründet. Dieses Gedächtnis existiert schon bei den Mollusken, die Piaget im Genfer See untersuchte, aber auch beim Schimpansen ebenso wie bei Insekten und Wirbeltieren. Inzwischen hat die Menschheit Zugang zu einem dritten Gedächtnis, das von der Technik unterstützt und konstituiert wird. Ein geformter Feuerstein bildet sich selbst durch Formung in organisierter anorganischer Materie: Die Geste des Technikers hinterlässt bleibende Gedächtnisspuren in einer Organisation, die über das Anorganische übertragen wird, womit erstmals in der Geschichte des Lebens die Möglichkeit der Übertragung individuell erworbenen Wissens eingeführt wird, aber auf eine nichtbiologische Art und Weise – und die gerade nicht einfach Kognition ist. Dieses technische Gedächtnis ist epiphylogenetisch: Es ist gleichzeitig das Produkt individueller epigenetischer Erfahrung und die phylogenetische Unterstützung der Akkumulation von Wissen, das das intergenerationelle kulturelle Phylum konstituiert. Weil dieses Wissen eine Funktion dieser ursprünglichen Exteriorisierung des Gedächtnisses ist, zeichnet der junge Sklave in Platons Menon in den Sand, als ob er der Figur dorthin folgen wolle, wo das geometrische Objekt sich befindet: Um sein Objekt zu denken, muss er es durch Organisieren des Anorganischen
37
38
1. Big Digital Humanities
des Sandes veräußerlichen, der als plastische Oberfläche eine Inschrift zu empfangen und zu bewahren vermag und damit Raum und Träger der Projektion eines geometrischen Begriffs wird. So veränderbar die Zeichnung im Sand auch sein mag, kann sie doch eine Eigenschaft eines Elements der Figur dauerhafter als der Verstand des Sklaven bewahren, weil der Verstand des Sklaven seinem Wesen nach fließend ist: Seine Gedanken vergehen ständig und löschen sich aus – seine Merkfähigkeit ist endlich. Sein Gedächtnis schnappt ständig Neues auf, seine Aufmerksamkeit wird von ihren Objekten immer zu neuen hin abgelenkt, und er hat Mühe, das geometrische Objekt zu »intentionalisieren« – es in seiner organischen Identität, seiner Notwendigkeit, seinem innersten Wesen: seinem eidos wahrzunehmen. Die Zeichnung als hypomnesisches Gedächtnis ist somit unverzichtbar für diesen potenziellen Philosophen, den jungen Sklaven, ebenso wie für sein Übergehen zum Handeln, d.h., von der Dunamis zur Energeia oder Entelecheia, d.h. zu seiner Anamnesis: Diese Zeichnung stellt eine Verständniskrücke dar, einen Raum der Intuition, der völlig von den in den Sand projizierten Gesten produziert wird, bei jedem Schritt seines Denkens, den abgebildeten Auswirkungen seines Denkens. Der Sand hält sie als Ergebnisse fest, die der Sklave, seine Intuition und sein Verstehen fortan »im Blick« haben und mit dem sie den geometrischen Beweis fortsetzen und konstruieren können. Allerdings führt der platonische Gegensatz zwischen dem Intelligiblen und dem sinnlich Erfahrbaren, d.h., zwischen Logos und Technè, dazu, dass dies in den auf Menon folgenden Dialogen unmöglich zu verstehen ist – und damit nimmt die Metaphysik die Form der Leugnung der ursprünglichen Technizität des Gedächtnisses an.
G r ammatisierung , H ypomnesis und A namnesis Laut Husserls Erkenntnis von 1936 ist die Geometrie durch das Erscheinen der Schrift bedingt, und die Schrift gehört zu einem neuen Prozess der Exteriorisierung: von mentalen Inhalten durch Projektion in den Raum von zeitlichen Inhalten des Verstandes – ich nenne diese Projektion Grammatisierung. Wird aus der Epiphylogenese der Prozess der Grammatisierung, hat dies die Mnemotechniken zur Folge. Mit dem Aufkommen der Mnemotechniken – also Techniken, die sich der Bewahrung von mentalen Gedächtnisinhalten widmen, was beispielsweise nicht die Rolle von Feuersteinwerkzeugen ist – wird der Prozess der Exteriorisierung, des technischen Werdens, in einer Geschichte der Grammatisierung konkretisiert. Der Prozess der Grammatisierung ist die technische Geschichte des Gedächtnisses, in der das hypomnesische Gedächtnis wiederholt die Konstitution einer anamnesischen Gedächtnisspannung neu startet – im Sinne von Platons Unterscheidung zwischen Hypomnesis und Anamnesis.
Bernard Stiegler: Licht und Schatten im digitalen Zeitalter
Jacques Derrida begründete in Platons Pharmazie einen Großteil seines Projekts der Dekonstruktion der Metaphysik auf seiner Interpretation von Phaidros, indem er darauf hinwies, dass der Dialog einer sophistischen Hypomnesis eine philosophische Anamnesis gegenüberstellt. Nach der Logik des Supplements, von der Derrida in Grammatologie spricht, ist es unmöglich, Innen und Außen als Gegensatz zu verstehen: Es ist unmöglich, das lebendige Gedächtnis diesem toten Gedächtnis gegenüberzustellen, das das Hypomnematon ist und das lebendige Gedächtnis als intelligent konstituiert. Während die Metaphysik statische Gegensätze aufstellt, müssen dynamische Kompositionen neu artikuliert werden – man muss in Prozessen denken. Derrida bezeichnet den Prozess als différance. Dennoch ist klar, dass das, was Sokrates in Phaidros beschreibt, nämlich dass die Exteriorisierung des Gedächtnisses ein Verlust von Gedächtnis und Wissen ist, heutzutage im täglichen Leben erfahren wird, in allen Aspekten unserer Existenz und immer häufiger im Gefühl unserer Machtlosigkeit, wenn nicht gar unserer Ohnmacht – und zwar genau in dem Augenblick, da die außergewöhnliche mnesische Kraft digitaler Netzwerke uns um so sensibler für die Unermesslichkeit des menschlichen Gedächtnisses macht, das anscheinend unendlich reaktivierbar und zugänglich geworden ist. Diese anamnesische Spannung exteriorisiert sich selbst in Form von Werken des Verstandes, in denen sich die Epochen der psychosozialen Individuation selbst konfigurieren. Die Grammatisierung ist der Prozess, durch den die Strömungen und Kontinuitäten, die die Existenzen formen, diskretisiert werden: Die Schrift als Diskretisierung des Sprechflusses, ist ein Stadium der Grammatisierung. Mit der industriellen Revolution überschreitet der Prozess der Grammatisierung plötzlich die Sphäre der Sprache, d.h. die Sphäre des Logos, und setzt die Sphäre der Körper ein. Die Grammatisierung ist die Geschichte des Gedächtnisses in all seinen Formen: des nervlichen und zerebralen Gedächtnisses, das zuerst linguistisch, dann auditiv und visuell ist, des körperlichen und muskulären Gedächtnisses, des biogenetischen Gedächtnisses. Das auf diese Weise exteriorisierte Gedächtnis wird das Objekt soziopolitischer und biopolitischer Kontrollen durch die ökonomischen Investitionen sozialer Organisationen, die psychische Organisationen damit wieder zu Werkzeugen machen, mittels mnemotechnischer Organe wie Maschinenwerkzeugen und allen Automaten, einschließlich der Haushaltsgeräte. Daher macht ein Nachdenken über die Grammatisierung eine allgemeine Organologie notwendig, d.h. eine Theorie der Artikulierung von Körperorganen, künstlichen Organen und sozialen Organen.
V on den kognitiven W issenschaf ten zu D igital S tudies , P harmakologie und allgemeiner O rganologie Digitale Techniken als kognitive Techniken und Techniken für Wissen sind nichts anderes als das letzte Stadium der Schrift. Besonders nach Nicholas Carrs
39
40
1. Big Digital Humanities
Bestseller The Shallows (deutsch Surfen im Seichten) können wir nicht mehr den nichtreduzierbaren »pharmakologischen« Charakter der Schrift ignorieren, ihren ambivalenten Charakter im Sinne von Sokrates, nämlich giftig wie heilsam zu sein – egal ob die Schrift alphabetisch oder digital ist, in Stein geritzt oder auf Papier geschrieben, in Silizium erfasst oder auf Bildschirmen im digitalen Licht. Von dieser nichtreduzierbaren Ambivalenz, die die Technik generell betrifft (Medikamente und Drogen, Kernkraft, Finanzroboter, Rückverfolgbarkeit usw.), vermochte weder die moderne noch die antike Philosophie beide Seiten zugleich zu bedenken. Aber dies wird auch zum Beispielz.B. von dem Philosophieprofessor Allen Buchanan ignoriert, nämlich in seiner Theorie des »Enhancement«, wie er sie in Better Than Human vortrug. Und dies wurde auch von den verschiedenen Theorien über die Wurzel des Kognitivismus ignoriert. Thematisiert aber wird es in der Theorie des »lesenden Gehirns«, die von Maryanne Wolf entwickelt wurde, die auf die Forschungen von Stanislas Dehaene zurückgriff, der seinerseits Jean-Pierre Changeuxs Theorie über das Gehirn und die Beziehung zwischen Gehirn und Kultur weiterentwickelte. Aber wie wir sehen werden, hat Dehaene selbst über diese Frage nicht nachgedacht. Buchanan sagt, es sei Teil der Natur des Menschen, nach einer Verbesserung, Weiterentwicklung seiner Fähigkeiten zu streben. Wir Menschen haben dies getan, indem wir einst die Fähigkeit zu lesen, zu schreiben und zu rechnen entwickelten und dafür die Institutionen der Wissenschaft errichteten und in neuerer Zeit den Computer und das Internet erfanden. Buchanans Behauptung steht meiner Theorie der Epiphylogenese sehr nahe, obwohl ich überrascht bin, dass Buchanan dieses Streben nach Weiterentwicklung auf Lesen, Schreiben und Rechnen beschränkt und anscheinend Leroi-Gourhans Theorie der Exteriorisierung oder Ernst Kapps Philosophie ignoriert, derzufolge die Weiterentwicklung lange vor der Grammatisierung beginnt. Vor allem aber meine ich, dass er nicht den Fehler berücksichtigt, der das konstituiert, was ich die Verzögerung des Ursprungs nenne: den Beginn des Prozesses der Hominisierung. Platon beschreibt ihn in Protagoras als den Mythos von Prometheus und Epimetheus. Und aus diesem Grund kann Buchanan auch nicht die pharmakologische Frage bedenken. Während diejenigen, die seiner Meinung nach einen rosigen, prädarwinistischen Standpunkt vertreten und folglich ihre Bedenken und Vorbehalte gegenüber einer Weiterentwicklung äußern, behauptet er, es könnte sich herausstellen, dass nur eine Weiterentwicklung von einigen unserer Fähigkeiten verhindern würde, dass sich unser Zustand erheblich verschlechtert oder wir gar aussterben. Demgegenüber meine ich, dass er mit dieser Behauptung völlig die pharmakologische Frage vernachlässigt. Es geht doch nicht bloß darum, unsere Fähigkeiten weiterzuentwickeln, sondern gegen den Verlust von Wissen anzukämpfen, der nach Amartya Sen auch der Verlust von Fähigkeiten ist. Dies aber wird immer durch einen Prozess des Delegierens von Fähigkeiten an ein künstliches Organ ermöglicht, selbst wenn dieses Delegieren – und da gebe ich Buchanan recht – die
Bernard Stiegler: Licht und Schatten im digitalen Zeitalter
Wirklichkeit des Prozesses der Hominisation ist, der von Leroi-Gourhan als ein Prozess der Exteriorisierung definiert wird. Denn die Weiterentwicklung von Fähigkeiten kann auch die zunehmende Unfähigmachung bedeuteten. Darauf haben Sokrates ebenso wie Karl Marx, Richard Sennett oder eben auch Amartya Sen hingewiesen, demzufolge wir bei der Untersuchung der schwarzen männlichen Bevölkerung in bestimmten Städten der USA feststellen, dass sie im Hinblick auf die Überlebensdauer von viel jüngeren Menschen aus China oder Kerala überholt wird, auch von vielen anderen Menschen aus Drittweltländern. So haben beispielsweise Männer aus Bangladesh eine größere Chance, älter als vierzig zu werden, als afroamerikanische Männer aus dem Stadtteil Harlem in der wohlhabenden Stadt New York. Wenn eine Weiterentwicklung stets auch mit der Möglichkeit verbunden ist, Wissen zu verlieren und kein neues zu schaffen, dann besteht die einzige Möglichkeit, eine erhebliche Verschlechterung unseres Zustands zu verhindern, nicht bloß in der Weiterentwicklung von einigen unserer Fähigkeiten, wie Buchanan meint, sondern mit der pharmakologischen Frage eine Dimension einer allgemeinen Organologie zu bedenken – und ich werde nun zu erklären versuchen, was ich damit meine – und die vom Pharmakon eröffneten positiven Möglichkeiten umzusetzen und damit die potenzielle Toxizität jeder Weiterentwicklung zu begrenzen.
D ie P harmakologie des L esens Auf diese pharmakologische Frage verweist Maryanne Wolf in Proust and the Squid (deutsch Das lesende Gehirn) ausdrücklich, wenn sie erklärt, dass wir nicht zum Lesen geboren wurden: »Die Menschen erfanden das Lesen erst vor ein paar tausend Jahren. Und mit dieser Erfindung setzten wir eine Umstrukturierung unseres Gehirn in Gang, die uns ihrerseits zuvor ungekannte Denkweisen eröffnete, was wiederum die geistige Evolution unserer Spezies in neue Bahnen lenkte.« (Wolf, 2009, S. 3)
Mit der neuen Organisation unseres Gehirns, die aus einer Weiterentwicklung wie der Schrift resultierte, vor allem wenn aus der alphabetischen Schrift eine digitale Schrift wird, stellt sich die Frage, ob wir wissen, was wir bewahren müssen, ebenso wie die Frage nach einer möglichen Zerstörung der vom lesenden Gehirn vererbten Schaltkreise, die wir bewahren sollten – insbesondere um eine Fähigkeit des Lesens zu bewahren, die nach Katherine Hayles zu einer tiefen Aufmerksamkeit gehört, die typisch für diese Art des Lesens ist, welche charakteristisch für die »literalisierte« Spezies Mensch (Walter Ong, 1987) ist. Mit anderen Worten: Was mit der digitalen Weiterentwicklung des Gehirns droht, ist eine Art Vergiftung unserer vom lesenden Gehirn ererbten Fähigkei-
41
42
1. Big Digital Humanities
ten durch einen Verlust des Wissens, das im Laufe von über zwei Jahrtausenden Kultur produziert wurde. Hier teilt Maryanne Wolf Nicholas Carrs Bedenken. Während sich Wolf auf Lew Wygotski bezieht und erklärt, Sokrates’ Abkehr von der Schrift sei durch den Umstand provoziert worden, dass Sokrates das dialogische Vermögen der geschriebenen Sprache niemals habe erfahren können, da die Schrift noch zu jung gewesen sei (ich selbst versuchte diese Geschichte mit Foucault in Die Logik der Sorge zu analysieren), fügt sie gleichwohl hinzu, Sokrates’ Bedenken würden erheblich verstärkt angesichts unserer gegenwärtigen Fähigkeit, mit einem Computer sehr, sehr schnell praktisch alles überall und jederzeit an einem »ungeführten« Computerbildschirm zu erfahren. Stellt diese Kombination von Unmittelbarkeit, scheinbar unbegrenzter Information und virtueller Realität die bislang stärkste Gefahr für die Art von Wissen und Tugend dar, die von Sokrates, Platon und Aristoteles geschätzt wurde? Wird die moderne Wissbegier durch die Flut von oft oberflächlicher Information auf einem Bildschirm gestillt werden oder zu einem Verlangen nach tieferem Wissen führen? Kann eine tiefe Untersuchung von Wörtern, Gedanken, Wirklichkeit und Tugend in einer Art von Lernen gelingen, die durch eine ständig geteilte Aufmerksamkeit und Multitasking charakterisiert wird? Dies alles sind typisch pharmakologische Fragen, wie ich das nenne. Wir müssen feststellen, dass sie von einer Mutter gestellt werden, die vielleicht behutsamer ist als ein simpler Wissenschaftler wie Dehaene oder ein simpler Philosoph wie Buchanan: Sokrates’ Sicht auf das Streben nach Information in unserer Kultur verfolgt mich jeden Tag, wenn ich sehe, wie meine beiden Söhne das Internet benutzen, um eine Hausaufgabe zu erledigen, und mir dann erklären, sie wüssten alles darüber. Wenn Wolf auf Stanislas Dehaene verweist, dann glaube ich, dass ihre Analyse viel »pharmakologischer« – und subtiler – ist als die von Dehaene. Bevor wir untersuchen, was eine allgemeine Organologie sein könnte, wollen wir uns einmal ansehen, wie Changeux und Dehaene das Problem des Lesens für die Neurologie begreifen. In seinem Vorwort zu Dehaenes Buch Les neurones de la lecture – ein sehr zweideutiger Titel, der dem Inhalt des Buches völlig widerspricht, weil er unterstellt, dass es im Gehirn etwas gab, das das Lesen vor der Erfindung der Schrift ermöglichte und das das Lesen bloß aktualisierte – schreibt Changeux, dass beim Menschen Kultur nicht ohne Biologie denkbar ist und dass das Großhirn nicht ohne eine starke Prägung der Umwelt existiert. Hier muss ich drei Fragen stellen: • Warum sagt Changeux nicht, dass die Biologie des Menschen nicht ohne die Kultur denkbar ist? • Warum spricht er hier von Kultur und nicht von Technik? • Warum fragt er nicht, wie die Technik die Biologie modifiziert und nicht bloß das Großhirn?
Bernard Stiegler: Licht und Schatten im digitalen Zeitalter
Ich verweise auf Leroi-Gourhan und behaupte, dass während der paläolithischen Kortikalisierung – nach Leroi-Gourhan zwischen dem Australopithecus afarensis und dem Neandertaler – das Gehirn durch seine Beziehung zur techno-logisch organisierten anorganischen Materie transformiert wird. Es exteriorisiert sich selbst, genauso wie es die Funktion dieser Materie für sein Überleben interiorisiert, und zwar nicht nur auf der zerebralen oder neuronalen Ebene, sondern in seiner genetischen Ausstattung oder seinem keimhaften Gedächtnis. Der Kampf ums Überleben wird durch den Umstand verändert, dass die Überlebensorgane artefaktisch geworden und nicht einfach nur biologisch und physiologisch sind. Um es mit Canguilhem zu formulieren: Die Hominisierung ist das Erscheinen des technischen Lebens, das eine neue Art von Leben ist – um es zu bedenken, reicht die Biologie nicht aus. Canguilhem erklärt, beim Menschen stünden das Normale, das Pathologische und das Normative in einer wesentlichen Beziehung zu künstlichen Organen: Der Mensch, selbst der physische Mensch, ist nicht auf seinen Organismus beschränkt. Nachdem der Mensch seine Organe mit Hilfe von Werkzeugen erweitert hat, sieht er in seinem Körper nur das Mittel für alle möglichen Handlungen. Um also festzustellen, was für den Körper selbst normal oder pathologisch ist, muss man über den Körper hinausschauen. Von dem Augenblick an, als der Mensch seine Bewegungsmöglichkeiten technisch vergrößerte, fühlt er sich anormal, wenn er erkennt, dass gewisse Aktivitäten, die eine Notwendigkeit und ein Ideal geworden sind, unerreichbar sind (Canguilhem 1977, S. 200f.). Das Normale und das Pathologische sind keine Gegensätze. »Das Pathologische ist eine Art Normalität«, und im Erfahren des Pathologischen ist das Leben normativ: Es erfindet Gesundheitszustände – Erfindungen, die Canguilhem als die Einführung neuer Normen bezeichnet: Gesund zu sein heißt nicht nur, in einer gegebenen Situation normal zu sein, sondern auch in dieser und anderen möglichen Situationen normativ zu sein. Charakteristisch für die Gesundheit ist die Möglichkeit, die Norm zu transzendieren, die das momentan Normale definiert, die Möglichkeit, Verstöße gegen die gewohnte Norm zu tolerieren und in neuen Situationen neue Normen einzuführen. Das Leben, das technisch erweitert worden ist, ermöglicht eine neue Erfahrung des Pathologischen und damit von Normativität. Allgemein formuliert ist die Gesundheit des Lebens als Variabilität oder Veränderbarkeit – und zwar nicht nur des technischen Lebens – die Erfahrung der »Treulosigkeiten« seines Milieus: Gesundheit ist eine Toleranzbreite für die Treulosigkeiten (infidélités) der Umwelt (milieu). Die Umwelt ist treulos (infidèle), ihre Treulosigkeit ist einfach ihr Werden, ihre Geschichte. Aber im technischen Leben muss Technizität als das begriffen werden, was eine neue »Treulosigkeit« der Umwelt herbeiführt, d.h. eine Veränderbarkeit, wobei sich das Normale, das Pathologische und die Normativität nach einer neuen Logik entwickeln. In diesem Fall hängt die Treulosigkeit der Umwelt mit dem zusammen, was Bertrand Gille »Unangepasstheit« nennt. Gille meint damit die Diskrepanzen zwi-
43
44
1. Big Digital Humanities
schen der ständig sich beschleunigenden Entwicklung des Systems der Technik (insbesondere seit der industriellen Revolution) und der Entwicklung der anderen menschlichen Systeme – den sozialen und den psychischen Systemen –, die man sich alle im Zusammenhang mit den natürlichen (geografischen, geologischen, meteorologischen, biologischen und physiologischen) Systemen vorstellen muss. Nur innerhalb dieses neuen organologischen Kontexts, insoweit er einen pharmakologischen Kontext konstituiert und als solcher auf neue Weise pathogen ist, kann Canguilhem zu der Feststellung gelangen: Der Mensch fühlt sich nur dann bei guter Gesundheit – die die Gesundheit an sich ist –, wenn er sich mehr als normal fühlt. Der gesunde Mensch ist normativ und damit fähig, sich nach neuen Lebensnormen zu richten. Und daraus folgert Canguilhem ausgesprochen kühn: Die Kraft und die Versuchung, krank zu werden, sind wesentliche Merkmale der menschlichen Physiologie. Die Pathogenese ist wesentlich für die Anthropogenese, die ihrerseits eine Technogenese von Pharmaka ist. Insofern hängt für Thérèse Brosse das Problem der funktionalen Pathologie eng mit der Erziehung zusammen. Folglich erfordert eine schlechte oder ganz unterbliebene sensorische, aktive, emotionale Erziehung nachdrücklich eine Umerziehung (Brosse, 1938, S. 107). Was bedeutet hier »krank zu werden«? Was ist hier die Rolle der Pathologie? Wenn sich bei guter Gesundheit zu fühlen bedeutet, sich mehr als normal zu fühlen, heißt das dann bloß, weiterentwickelt zu sein? Das glaube ich nicht.
S chlussfolgerungen Um zu verstehen, wie man sich die menschliche Weiterentwicklung vorstellen und in Frage stellen soll, muss man nach Canguilhem die darwinsche Biologie überwinden: Ist es absurd anzunehmen, dass die natürlichen Organe des Menschen langfristig den Einfluss der künstlichen Organe zum Ausdruck bringen können, durch den er die Kraft ersterer vervielfacht hat und noch immer vervielfacht? Heute stellen sich diese Fragen in einem doppelten Kontext: Einerseits in der Verallgemeinerung der Digitalisierung unserer Existenz in all ihren Dimensionen, wobei die Digitaltechnik das letzte Stadium der Grammatisierung und eine neue Art von Schrift ist, und andererseits in den Fortschritten der Neurowissenschaft und insbesondere in der Neurowissenschaft des Lesens. Hier gilt es zuerst, die Beziehungen zwischen Retentionen als erzeugten Protentionen zu bedenken, d.h. Antizipationen, Attentionen und Wünsche. Die ideografische, alphabetische und digitale Schrift ist eine Art tertiärer Retention, wie ich dies nenne. Das Gehirn ist die Stätte sekundärer Retentionen, die im Sinne Husserls auswendig gelernte Perzeptionen sind, miteinander verwoben durch primäre Retentionen.
Bernard Stiegler: Licht und Schatten im digitalen Zeitalter
Retention bezeichnet das, was auf bewahrt wird, durch eine mnesische Funktion als Bestandteil eines Bewusstseins, d.h. eines psychischen Apparats. Innerhalb dieser psychischen Retention war die sekundäre Retention, als konstitutives Element eines stets auf dem Gedächtnis basierenden Geisteszustands, ursprünglich eine primäre Retention. Primär heißt auf bewahrt im Laufe einer Perzeption und durch den Prozess dieser Perzeption, aber in der Gegenwart, und das bedeutet, dass die primäre Retention noch keine Erinnerung ist, selbst wenn sie bereits eine Retention ist. Eine primäre Retention ist das, was den Lauf einer gegenwärtigen Erfahrung konstituiert und dazu bestimmt ist, eine sekundäre Retention von jemandem zu werden, der diese Erfahrung erlebt hat, die Vergangenheit geworden ist – sekundär deshalb, weil sie nicht mehr perzipiert wird und dem Gedächtnis dessen eingeschrieben wird, der die Erfahrung gemacht hat, und aus dem sie reaktiviert werden kann. Aber eine Retention kann, als Ergebnis eines Flusses und aus dem zeitlichen Ablauf der Erfahrung hervorgehend, auch tertiär werden, durch die Verräumlichung, in der die Grammatisierung (und allgemeiner jeder technische Materialisierungsprozess) des Flusses der Retentionen besteht. Diese mentale Realität kann somit auf einen Träger projiziert werden, der weder zerebral noch psychisch, sondern ganz technisch ist. Michel Foucault sprach in der Archäologie des Wissens über die Materialisierung von Wissen, als er sich für die Archive interessierte, die alles Wissen möglich machen. Wissen ist vor allem eine Sammlung archivierter Spuren. Nach diesem Modell bewahrt Wissen somit die Spur des Alten, aus dem es kommt und dessen Wiedergeburt und Transformation es durch einen Prozess ist, den Platon als Anamnesis bezeichnete. Die Bewahrung von Spuren des Alten ermöglicht die Konstituierung von Schaltkreisen der kollektiven Individuation im Lauf der Zeit und im Rahmen einer Disziplin, die die Beziehung zwischen Geistern regelt, welche sich gemeinsam und im Laufe einer Übertragung zwischen den Generationen individuieren – dadurch wird ein Transindividuierungsprozess konkretisiert, der das produziert, was Gilbert Simondon die transindividuellen, formenden Signifikationen nannte. Nun sind aber die Bedingungen dieses Prozesses überdeterminiert durch die Merkmale der Grammatisierung, d.h. durch die Merkmale der Archivträger, die tertiäre Retentionen verschiedener Epochen sind: Ideogramme, Manuskripttexte, Drucke, Schallplatten, Datenbanken, Metadaten und so weiter. Das Archiv ist materiell, und Wissen wird seinem Wesen nach archiviert, was bedeutet, das seine Materialität nicht etwas ist, das nach dem Faktum geschieht, denn die Aufzeichnung von etwas, das vor seiner Materialisierung geschehen wäre, ist die wahre Produktion von Wissen. Diese Materialisierung erfolgt nicht nach der Form, die sie bewahrt, und muss jenseits des Gegensatzes von Materie und Form bedacht werden – sie konstituiert eine Hypermaterie. Wir müssen das Studium der Hypermaterialität von Wissen im Rahmen einer allgemeinen Organologie ansiedeln, die die Träger und Instrumente von
45
46
1. Big Digital Humanities
jeder Form von Wissen studiert. Und heute bedeutet das, dass dieses Studium der Hypermaterialität mitten in den Digital Studies angesiedelt werden muss, die ihrerseits das neue vereinheitlichende und transdisziplinäre Modell jeder Form von akademischem Wissen werden müssen. Die allgemeine Organologie studiert die Beziehung zwischen drei Arten von Organen, die für das technische Leben charakteristisch sind: physiologische Organe, technische Organe, soziale Organisationen. Die Grammatisierung begann vor dreißigtausend Jahren mit der Jungsteinzeit und eröffnete damit ein spezifisches Stadium des Prozesses der Koentwicklung dieser drei organischen Sphären, die untrennbar voneinander sind. Dies wurde auf eine überaus klare Weise durch die Neurophysiologie des Lesens sichtbar, wo das Gehirn, wie Maryanne Wolf es formuliert, buchstäblich von den sozio-technischen Organen beschrieben wird und wo unser eigenes Gehirn, das »lesende Gehirn«, einst von der alphabetischen Schrift beschrieben wurde, heute aber von der digitalen Schrift beschrieben wird. Heute müssen die Frage nach der Beziehung des Wissens zur Technik ebenso wie zum Gehirn und diese Beziehung als solche Gegenstände der Digital Studies werden. Diese müssen als allgemeiner Kontext für die Neurowissenschaften und als Paradigma für eine transdisziplinäre Forschung nach den Prinzipien der allgemeinen Organologie begriffen werden, die ihrerseits die pharmakologische Frage anspricht. In diesem neuen Paradigma geht es um die Rolle der tertiären Retention durch die technologische Geschichte der Menschheit, und hier genießt keine Disziplin ein Privileg vor anderen Disziplinen. Computer Science und Philosophical Engineering sind in einem erweiterten Sinn die neuen Produzenten von Pharmaka ebenso wie jene, die sich wie Asklepios um die Gesundheit kümmern sollten, nicht indem sie Gesundheit und Krankheit als Gegensatz begreifen, sondern neue Lebensformen (d.h. neue Formen von Gesellschaften und Prozessen der kollektiven Individuierung) aus dem erfinden, was anfangs als toxischer Zustand erscheint.
L iter atur Brosse, Thérèse: »L’énergie consciente, facteur de régulation psychophysiologique«, in: L’evolution psychiatrique 1, 1938. Canguilhem, Georges: Le normal et le pathologique, (dt. Das Normale und das Pathologische, Frankfurt a.M., Berlin, Wien 1977). Ong, Walter: Oralität und Literalität. Opladen 1987. Wolf, Maryanne: Das lesende Gehirn. Wie der Mensch zum Lesen kam – und was es in unseren Köpfen bewirkt, Heidelberg 2009.
Die Computerwende — Gedanken zu den Digital Humanities David M. Berry
E inleitung Unbestreitbar verändert die digitalen Technologien gerade grundlegend die Art und Weise, wie wir Forschung betreiben. Ja, es wird immer mehr evident, dass Forschung zunehmend durch die digitalen Technologien vermittelt wird. Viele behaupten, diese Vermittlung beginne langsam zu verändern, was es bedeute, Forschung zu betreiben, indem sie sowohl die Epistemologien wie die Ontologien beeinflusse, die einem Forschungsprogramm zugrundeliegen. Natürlich verläuft diese Entwicklung in den jeweiligen Disziplinen und Forschungsvorhaben unterschiedlich, je nachdem, wie weit sie von den digitalen Technologien abhängig sind, aber man findet heute kaum noch Wissenschaftler, die keinen Zugang zu digitalen Technologien als Teil ihrer Forschungstätigkeit haben. Bibliothekskataloge sind inzwischen wohl das minimale Mittel, mit dem sich Akademiker Bücher und Forschungsartikel ohne den Gebrauch eines Computers erschließen, aber da Karteikartenkataloge langsam, aber sicher aussterben (Baker, 1996, 2001), verbleiben dem nichtdigitalen Gelehrten nur wenige Möglichkeiten, an einer modernen Universität Forschung zu betreiben. E‑Mail, Google-Suchen und bibliografische Datenbanken werden zunehmend unentbehrlich, da immer mehr Bibliotheken auf der Welt gescannt und ins Internet gestellt werden. Während manche den Verlust von Fähigkeiten und Techniken älterer Forschungstraditionen beklagen, begrüßen andere freudig die so genannten Digital Humanities, die digitalen Geistes- und Sozialwissenschaften (Schreibman et al., 2008; Schnapp und Presner, 2009; Presner, 2010; Hayles, 2011). Die Digital Humanities versuchen, die Plastizität digitaler Formen und die damit verbundenen neuen Möglichkeiten einzubeziehen, mit Darstellung und Vermittlung zu arbeiten – mit dem also, was man die digitale »Faltung« der Wirklichkeit nennen könnte, wodurch man mit Kultur auf eine radikal neue Weise umgehen kann. Damit ein digitales oder computergestütztes Gerät ein Objekt zu vermitteln vermag, ist es erforderlich, dass dieses Objekt in den digitalen Code
48
1. Big Digital Humanities
übersetzt wird, den es verstehen kann. Diese minimale Umwandlung wird durch den Eingabemechanismus eines sozio-technischen Geräts beeinflusst, in dem ein Modell oder Bild stabilisiert und wahrgenommen wird. Dann wird es intern umgewandelt, in Abhängigkeit von einer Reihe von Interventionen, Prozessen oder Filtern, und schließlich als Endergebnis wiedergegeben, meist in visueller Form. Dies führt zu realen Situationen, in denen Berechnungen ereignisgesteuert und in diskrete Prozesse unterteilt sind, um eine bestimmte Nutzeraufgabe durchzuführen. Entscheidend ist hier, dass es ohne die Möglichkeit einer diskreten Verschlüsselung kein Objekt gibt, das der Computer verarbeiten kann. Doch wenn die Welt auf diese Weise zerlegt wird, müssen Informationen über die Welt notwendigerweise gelöscht werden, um eine Darstellung im Computer zu speichern. Mit anderen Worten: Ein Computer verlangt, dass alles aus dem kontinuierlichen Fluss unserer Alltagswirklichkeit in ein Raster von Zahlen umgewandelt wird, das als eine Darstellung der Wirklichkeit abgespeichert werden kann, die sich dann mit Hilfe von Algorithmen manipulieren lässt. Diese subtraktiven Methoden zum Verstehen der Wirklichkeit (episteme) erzeugen neues Wissen und neue Methoden zur Kontrolle der Wirklichkeit (techne). Dies geschieht durch eine digitale Vermittlung, die die Digital Humanities als ihr Problemfeld ernst zu nehmen beginnen. Die Digital Humanities selbst haben eine ziemlich interessante Geschichte. Alles begann als »Einsatz von Computern in den Geisteswissenschaften« oder als »geisteswissenschaftliche Computerarbeit«, die in der Anfangszeit oft als technische Unterstützung der Arbeit der »echten« Geisteswissenschaftler verstanden wurde, die die Projekte betreiben würden. Dies war mit dem Einsatz des Computers in den geisteswissenschaftlichen Disziplinen verbunden, wobei die »Leistung der Maschine als Diener« behandelt wurde und nicht als »ihr Beteiligter, der eine kritische Betrachtung ermöglicht« (McCarty, 2009). Wie Hayles erklärt, sollte der Wechsel zu dem Begriff »›Digital Humanities‹ signalisieren, dass das Gebiet vom geringwertigen Status einer Hilfsdienstleistung zu einem genuin intellektuellen Unternehmen aufgestiegen war, mit eigenen professionellen Praktiken, rigorosen Standards und aufregenden theoretischen Forschungsvorhaben« (Hayles, 2011). Ironie der Geschichte: Als die Projekte größer und komplexer wurden und sich die Computertechniken zum immanenten Bestandteil des Forschungsprozesses entwickelten, verstanden technisch bewanderte Forscher das Arbeiten mit dem Computer als unabdingbar für die geisteswissenschaftliche Forschung. Die Computertechnik ist somit zur Grundvoraussetzung geworden, um über viele Fragen, die sich heute in den Geisteswissenschaften stellen, nachdenken zu können. Im Digital Humanities Manifesto 2.0 beispielsweise erklären Schnapp und Presner: »Die erste Welle der Computerarbeit in den Digital Humanities war quantitativ, indem sie die Such- und Abfragestärken der Datenbank mobilisierte, die Korpuslinguistik automatisierte und Hypercards in wichtigen Datengruppen stapelte. Die zweite Welle ist ihrem Charakter nach qualitativ, interpretierend, empirisch, emotional, produktiv. Sie nutzt digitale
David M. Berry: Die Computer wende — Gedanken zu den Digital Humanities Werkzeuge im Dienst der methodologischen Kernstärken der Geisteswissenschaften: Beachten von Komplexität, Medienspezifizität, historischer Kontext, analytische Tiefe, Kritik und Interpretation.« (2009, S. 2)
Presner behauptet ferner, dass »die erste Welle des Arbeitens in den Digital Humanities in den späten 1990er-Jahren und zu Beginn des 21. Jahrhunderts sich gern auf großangelegte Digitalisierungsprojekte und die Errichtung einer technologischen Infrastruktur konzentrierte, [während] die zweite Welle der Digital Humanities – die man ›Digital Humanities 2.0‹ nennen kann – zutiefst produktiv ist, indem sie die Umgebungen und Werkzeuge zum Produzieren und Kuratieren von und zum Interagieren mit Wissen erschafft, das ›digital geboren‹ ist und in verschiedenen digitalen Kontexten lebt. Während sich die erste Welle der Digital Humanities vielleicht ein wenig verengt auf die Textanalyse (wie Klassifikationssysteme, Auszeichnung, Textverschlüsselung und wissenschaftliches Editieren) innerhalb etablierter Disziplinen konzentrierte, führen die Digital Humanities 2.0 völlig neue disziplinäre Paradigmen, konvergierende Gebiete, Hybridmethodologien und sogar neue Publikationsmodelle ein, die oft nicht auf die Printkultur zurückgehen oder auf sie beschränkt sind.« (2010, S. 6)
Umstritten bleibt, wie die Digital Humanities denn überhaupt ihre Forschung betreiben und ob Begriffe wie erste und zweite Welle von Digital Humanities dem gegenwärtigen Zustand verschiedener Arbeitspraktiken und Methoden in den Digital Humanities gerecht werden. Dennoch können sie nützliche analytische Begriffe sein, um die Veränderungen in den Digital Humanities zu durchdenken. Wir könnten allerdings Folgendes feststellen: Die Digital Humanities der ersten Welle erforderten den Auf bau einer Infrastruktur beim Studium geisteswissenschaftlicher Texte durch digitale Magazine, Textauszeichnung usw., während die Digital Humanities der zweiten Welle die begrifflichen Grenzen des Archivs erweitern, damit es auch digitale Werke umfasst, und daher die eigenen methodologischen Werkzeuge der Geisteswissenschaften einsetzen, um »digital geborene« Materialien wie elektronische Literatur (E-Lit), interaktive Fiktion (IF), internetbasierte Artefakte und so fort zu betrachten. Ich möchte hier gern einen provisorischen Weg für eine dritte Welle der Digital Humanities erkunden, die sich um die grundlegende digitale Berechenbarkeit der Formen konzentriert, die in einem Computermedium enthalten sind. D.h., ich schlage vor, die digitale Komponente der Digital Humanities im Licht ihrer Medienspezifizität zu betrachten, als eine Möglichkeit, darüber nachzudenken, wie mediale Veränderungen epistemische Veränderungen erzeugen. Diese Vorgehensweise beruft sich auf neuere Arbeiten in den Software Studies und den Critical Code Studies, reflektiert aber auch die Fragen, die von Platform Studies aufgeworfen werden, nämlich den Spezifika einer generellen digitalen Berechenbarkeit, wie sie spezifische Plattformen anbieten (Fuller, 2008; Manovich, 2008; Montfort und Bogost, 2009; Berry, 2011). Ich möchte auch behaupten, dass weder
49
50
1. Big Digital Humanities
die Digital Humanities der ersten noch die der zweiten Welle das zum Problem erhoben haben, was Lakatos (1980) den »harten Kern« der Geisteswissenschaften genannt hätte, also die unausgesprochenen Annahmen und ontologischen Grundlagen der »normalen« Forschung, die Geistes- und Sozialwissenschaftler tagtäglich betreiben. Ja, wir könnten sogar sagen, dass die Digital Humanities der dritten Welle aufzeigen, wie die digitalen Technologien die in einem geisteswissenschaftlichen Forschungsprojekt erzeugten Anomalien hervorhebt, und damit die in solchen Forschungen impliziten Annahmen in Frage stellen, wie Interpretation, Kanonbildung, Periodisierung, liberalen Humanismus usw. Wir stehen, wie Presner behauptet, »am Beginn eines Wandels der Standards, die zulässige Probleme, Begriffe und Erklärungen regeln, und auch inmitten einer Umwandlung der institutionellen und begrifflichen Bedingungen, die die Generierung, Übertragung, Zugänglichkeit und Bewahrung von Wissen ermöglichen« (2010, S. 10). Um dieses Problem genauer zu betrachten, möchte ich zunächst das komplexe Gebiet untersuchen, wie sich Kultur durch die digitalen Technologien verstehen lässt. Ich behaupte, um die gegenwärtige, von Haus aus digitale Kultur und ihre Alltagspraktiken zu verstehen – also den zentralen Gegenstand der Digital Humanities der zweiten Welle –, müssen wir uns auf den Computercode konzentrieren, der mit allen Aspekten unseres Lebens verknüpft ist, auch mit dem Rückschluss darauf, wie weit dieser Code den Wissenschaftsbetrieb an sich infiltriert. Oder wie es Matthew Fuller formuliert: »In einem gewissen Sinn ist jede intellektuelle Tätigkeit inzwischen ›Software Study‹, insofern Software ihr Medium und ihren Kontext bildet […]. [Doch] es gibt nur ganz wenige Orte, wo das spezifische Wesen von Software, ihre Materialität, studiert wird, außer als eine Frage der Technik.« (2006, S. 18) Außerdem müssen wir die »Struktur des Fühlens«, die der Computercode ermöglicht, und die Art und Weise in den Blickpunkt rücken, wie Menschen in ihrem Denken als Forscher und in ihren Alltagspraktiken Software nutzen. Dazu gehört auch die wachsende Akzeptanz und Nutzung von Software in Produktion und Konsum von Kultur wie in der Kritik an ihr. Somit haben die Computerarbeit und die medialen Angebote von Software eine unleugbare kulturelle Dimension. Dieser Zusammenhang verweist erneut darauf, wie wichtig es ist, sich mit dem Code zu befassen und ihn zu verstehen – ja, der Computercode kann sogar als Index der digitalen Kultur dienen (man stelle sich einmal vor, die Digital Humanities würden verschiedene Programmiersprachen für die kulturellen Möglichkeiten und Praktiken erarbeiten, die sie erzeugen, z.B. HTML für Cyberkultur, AJAX für soziale Medien).1 Wir können somit die Frage stellen: Was ist Kultur, nachdem sie zur Software geworden ist? (Manovich, 2008, S. 41). Die Digital Humanities zu verstehen heißt in einem 1 | HTML ist die HyperText Markup Language, mit der Internetseiten verschlüsselt werden. AJAX ist die Abkürzung für Asynchronous JavaScript und XML eine Sammlung von clientseitigen Techniken, die ein interaktives und audiovisuell dynamisches Internet ermöglichen.
David M. Berry: Die Computer wende — Gedanken zu den Digital Humanities
gewissen Sinn, den Code zu verstehen, und dies kann eine ergiebige Möglichkeit sein, die kulturelle Produktion ganz allgemein zu verstehen: So, wie z.B. der Computersatz die Druckindustrie veränderte, wird das wohl auch durch eBook und eInk-Techniken geschehen. Wir müssen daher die Computerarbeit als das Schlüsselproblem verstehen, dass diesen Veränderungen in allen Medien, Industrien und Wirtschaftsformen zugrundeliegt.
D as W issen über das W issen Wenn wir die Digital Humanities verstehen wollen, müssen wir zunächst vielleicht den Begriff der digitalen Berechenbarkeit als Problem verstehen, sodass wir kritisch darüber nachdenken können, wie Wissen im 21. Jahrhundert durch Computertechniken, insbesondere in Software, in Information umgewandelt wird. Es ist interessant, dass in einer Zeit, in der die Idee der Universität selbst ernsthaft überdacht und zur Disposition gestellt wird, Digitaltechniken unsere Fähigkeit umwandeln, Information außerhalb dieser traditionellen Wissensstrukturen zu nutzen und zu verstehen. Dies ist verbunden mit einem umfassenderen Infragestellen der traditionellen Erzählungen, die als Einheit stiftende Ideen für die Universität dienten und deren Niedergang es nun so schwierig macht, die postmoderne Universität gegenüber staatlicher Finanzierung zu rechtfertigen und zu legitimieren. Historisch gesehen ist die Rolle der Universität eng verknüpft mit der Produktion von Wissen. So befasste sich Immanuel Kant beispielsweise 1798 kritisch mit der zeitgenössischen Praxis an den Universitäten in seiner Schrift Der Streit der Facultäten. Kant argumentierte, alle Tätigkeiten der Universität sollten durch eine einzige regulierende Idee organisiert werden, nämlich durch den Begriff der Vernunft. Dazu Bill Readings (1996): »Einerseits liefert die Vernunft die ratio für alle Disziplinen, als ihr Organisationsprinzip. Andererseits hat die Vernunft ihre eigene Fakultät, die Kant ›Philosophie‹ nennt, die wir heute aber eher die ›Geisteswissenschaften‹ nennen würden.« (Readings, 1996, S. 15) Kant behauptete, Vernunft und Staat, Wissen und Macht ließen sich in der Universität durch das Hervorbringen von Menschen vereinen, die zu rationalem Denken und republikanischer Politik fähig seien – Studenten also, die für den Staatsdienst und die Gesellschaft ausgebildet würden. Kant beschäftigte die Frage nach der regulativen öffentlichen Vernunft, d.h., wie man für stabile, autonome und lenkbare Regime sorgen könne, die über freie Menschen herrschen können, im Gegensatz zur Tradition, die durch die Monarchie, die Kirche oder einen Leviathan repräsentiert werde. Dafür seien Universitäten erforderlich, als geregelte, Wissen produzierende Organisationen, die von der Fakultät der Philosophie geleitet und beaufsichtigt würden, die dafür sorgen könne, dass die Universität rational bliebe. Dies war Teil einer Reaktion auf das Aufkommen der Printkultur, einer wachsenden Bildung und den verschiedenen destabilisierenden Auswirkungen,
51
52
1. Big Digital Humanities
die dies mit sich brachte. Damit könne man zu einer Form von ewigem Frieden durch die Anwendung der eigenen Vernunft gelangen, ohne nach dogmatischer, doktrinärer Stärke oder Gewalt zu greifen.2 Dem folgte die Entwicklung der modernen Universität im 19. Jahrhundert, die von deutschen Idealisten wie Schiller und Humboldt begründet wurde, welche erklärten, die von Kant vorgegebene Struktur müsse eine explizitere politische Rolle spielen. Sie befürworteten die Ablösung der Vernunft durch die Kultur, da sie glaubten, die Kultur könnte als »vereinende Funktion für die Universität« dienen (Readings, 1996, S. 15). Für die deutschen Idealisten à la Humboldt war Kultur die Summe allen Wissens, das man studiert, ebenso wie die Kultivierung und Entwicklung des eigenen Charakters als Ergebnis dieses Studiums. Ja, Humboldt befürwortete die Gründung einer neuen Universität, der Universität von Berlin, als Mittlerin zwischen Nationalkultur und Nationalstaat. Im Projekt »Kultur« müsse die Universität sowohl Forschung wie Lehre betreiben, d.h., Wissen produzieren und verbreiten. Die moderne Ideeeiner Universität ermöglichte es somit, dass sie die herausragende Institution wurde, die ethnische Tradition und staatliche Rationalität durch das Hervorbringen eines gebildeten, kultivierten Menschen vereinte. Die deutschen Idealisten schlugen vor, »dass die Reintegration der Vielfalt der bekannten Fakten in einer vereinten Kulturwissenschaft durch Bildung geschieht, die Veredlung des Charakters […]. Die Universität produziert keine Diener, sondern Subjekte. Dies ist das zentrale Anliegen der Pädagogik der Bildung, die Wissenserwerb als Prozess und nicht als Produkt lehrt.« (Readings, 1996, S. 65-67) Diese Vorstellung wendeten die Engländer ins Literarische um, insbesondere John Henry Newman und Mathew Arnold, die behaupteten, nicht die Kultur oder die Philosophie, sondern die Literatur müsse die zentrale Disziplin in der Universität sein, ebenso wie allgemeiner in der Nationalkultur.3 Die Literatur wurde daher innerhalb der Universität institutionalisiert, und zwar »unter ausdrücklich nationalen Bedingungen und durch eine organische Vorstellung von der Möglichkeit einer einheitlichen Nationalkultur« (Readings, 1996, S. 16). Dies wurde durch die Idee eines literarischen Kanons geregelt, der den Studenten beigebracht wurde, um literarische Subjekte als nationale Subjekte zu produzieren. Readings behauptet, in der postmodernen Universität würden wir heute den Zusammenbruch dieser Ideale erleben, insbesondere verbunden mit dem Aufkommen der Idee einer »Exzellenz-Universität« – für ihn ein Begriff von Universität, die keinen Inhalt, keine Referenz hat. Demgegenüber würde ich meinen, dass wir heute vielmehr die Bedeutung des Digitalen als vereinheitlichende Idee von Universität zu erkennen beginnen. Anfangs wurde dies gewöhnlich mit Begriffen wie Informationskompetenz und digitale Kompetenz verbunden, die sich dem frü2 | Ich danke Alan Finlayson für seine Kommentare über diesen Abschnitt. 3 | Siehe z.B. Vom Wesen der Universität (Newman, 1960) und Culture and Anarchy (Arnold, 2009).
David M. Berry: Die Computer wende — Gedanken zu den Digital Humanities
heren literarischen Begriff von Universität verdankten, auch wenn sie als Berufsausbildung und Beschäftigung verstanden wurden. Demgegenüber möchte ich vorschlagen, dass wir nicht so sehr eine Praxis für das Digitale erlernen sollten, die im allgemeinen als IKT-Fähigkeiten und –Kompetenzen verstanden wird (siehe z.B. den Europäischen Computer-Führerschein4), sondern darüber nachdenken müssten, was Lesen und Schreiben in einem Computerzeitalter tatsächlich bedeuten. Ich spreche mich für ein kritisches Verständnis der Literatur des Digitalen aus und damit für eine Entwicklung einer gemeinsamen digitalen Kultur durch eine Form von digitaler Bildung. Ich befürworte indes keine Rückkehr zu den Geisteswissenschaften der Vergangenheit »für manche Menschen«, wie Fuller (2010) es formuliert, sondern vielmehr eine Hinwendung zu Geisteswissenschaften »für alle Menschen«. Ich trete ein für die Entwicklung eines digitalen Intellekts – im Gegensatz zu einer digitalen Intelligenz, um auf die von Hofstadter (1963) eingeführte Unterscheidung zurückzugreifen. Hofstadter schreibt: »Intellekt […] ist die kritische, kreative und kontemplative Seite des Verstands. Während die Intelligenz zu begreifen, zu manipulieren, umzuordnen, anzupassen versucht, untersucht der Intellekt, er wägt ab, staunt, theoretisiert, kritisiert, stellt sich vor. Die Intelligenz will die unmittelbare Bedeutung in einer Situation erfassen und bewerten. Der Intellekt bewertet Bewertungen und sucht nach den Bedeutungen von Situationen insgesamt […]. Der Intellekt [ist] eine einzigartige Manifestation menschlicher Würde.« (Hofstadter, 1963, S. 25)
Die digitalen Sammlungen, die heute angelegt werden, versprechen nicht nur einen großen Wandel auf der Ebene des einzelnen handelnden Menschen. Sie liefern auch destabilisierende Mengen von Wissen und Information, denen die regulierende Kraft der Philosophie fehlt – die, wie Kant erklärte, garantiert, dass Institutionen rational bleiben. Die Technik ermöglicht den Zugang zu den Datenbanken menschlichen Wissens von überallher, wobei sie die traditionellen Türhüter des Wissens im Staat, an den Universitäten und im Markt ignoriert und umgeht. Es scheint nicht mehr den Professor zu geben, der einem sagt, was man nachschlagen soll und welche »drei Argumente dafür« und welche »drei Argumente dagegen« sprechen. Dies führt nicht nur zu einem Moment der gesellschaftlichen Desorientierung, weil Individuen wie Institutionen mit Information überschwemmt werden, sondern bietet auch eine Computerlösung für diese Lage der Dinge in Form von künstlichen Intelligenzen, die bereits Turing (1950) als superkritische Modi des Denkens bezeichnete. Beide Kräfte werden auf einer tiefen strukturellen Ebene von den vom Computercode vorgeschlagenen Möglichkeitsbedingungen untermauert. Wie bereits erwähnt, ermöglicht der Computercode neue Kommunikationsprozesse, und mit der zunehmenden sozialen Dimension vernetzter Medien ergibt sich die Möglichkeit neuer und aufregender Formen gemeinsamen Denkens. 4 | Siehe www.bcs.org/server.php?show=nav.5829.
53
54
1. Big Digital Humanities
Das ist nicht die kollektive Intelligenz, mit der sich Levy (1999) befasste, sondern vielmehr das Versprechen eines kollektiven Intellekts. Die Situation erinnert an die mittelalterliche Vorstellung der universitatis, aber digital umgeformt, als Gesellschaft oder Vereinigung von Handelnden, die dank der Vermittlung durch die Technik gemeinsam kritisch denken können. Ferner stellt sich damit die Frage, welche neuen Modi kollektiven Wissens Software ermöglichen oder konstituieren kann. Können Software und Code uns über die individualisierenden Trends von Blogs, Kommentaren, Twitter-Feeds und so weiter hinausbringen und etwas wahrhaft Gemeinschaftliches ermöglichen – so etwas wie das superkritische Denken, das Ideen, Denkweisen, Theorien und neue Praktiken generiert? Das Interessante an Echtzeit-Streamingformen digitaler Speicher besteht ja sicher darin, dass sie nicht an der Vergangenheit orientiert sind wie die Geschichte, aber auch nicht auf eine Form von Zukünftigkeit ausgerichtet. Statt dessen könnten wir sagen, dass sie jetzt-vermittelt, neu-vermittelt, lebens-vermittelt, Jetztzeit-vermittelt zu sein scheinen (Benjamin, 1992, S. 252f.). Mit anderen Worten: Sie sammeln das Neue einer bestimmten Gruppe von Streams, eine Art kollektives Schreiben, das das Potenzial zu immenser Kreativität hat. Dies sind mögliche ergiebige Forschungsgebiete für Digital Humanities der dritten Welle, die diese potenziell neuen Formen von Literatur und das Medium, das sie unterstützt, verstehen wollen. Für die Forschungs- und Lehrdisziplinen an der Universität könnte der digitale Wandel die Anfänge eines Moments von »revolutionärer Wissenschaft« im Sinne Kuhns darstellen, als Wandel in der Ontologie der positiven Wissenschaften und als Entstehung einer Konstellation von neuer »normaler Wissenschaft« (Kuhn, 1996). Das hieße, dass die Disziplinen ontologisch gesehen einen ganz ähnlichen computerbasierten »harten Kern« (Lakatos, 1980) hätten.5 Dies hat viel weiterreichende Konsequenzen für die Vorstellung von der Vereinheitlichung von Wissen und für die Idee der Universität (Readings, 1996). Die Informatik könnte eine grundlegende Rolle im Hinblick auf die anderen Wissenschaften spielen, indem sie ihre Entwicklung unterstützt und leitet, ja sogar »klare Anweisungen für ihre Untersuchung« erteilt.6 Vielleicht beginnen wir gerade damit, Lesen und Schreiben von Computercode als Teil der Pädagogik zu verstehen, die erforderlich ist, um ein neues, von der Universität hervorgebrachtes Subjekt zu erschaffen, ein computergemäßes oder daten-zentriertes Subjekt.7 Damit will ich natürlich nicht 5 | Was Heidegger die »Gefahr« nennt, ist die Vorstellung, dass eine bestimmte Ontotheologie sich dauerhaft behaupten sollte, nämlich die mit Technik und »Gestell« verbundene Ontotheologie (siehe Heidegger, 1962). 6 | Siehe Thomson (2003, S. 531) über Heideggers Verständnis der Rolle der Philosophie. 7 | Kirschenbaum erklärt: »Ich glaube, solche Trends werden schließlich die akademische Politik im Detail beeinflussen. Die Fakultät für englische Literatur, an der ich lehre, verlangt wie die meisten Fakultäten, die eine Promotion anbieten, von ihren Studenten den Nachweis über Kenntnisse in mindestens einer Fremdsprache. Sollte es Doktoranden gestattet werden, diesen Nachweis stattdessen für Kenntnisse in einer Computerprogram-
David M. Berry: Die Computer wende — Gedanken zu den Digital Humanities
dafür plädieren, dass die existierenden Methoden und Praktiken der Informatik alles beherrschen sollen, sondern vielmehr dass ein humanistisches Verständnis der Technik entwickelt werden könnte, womit auch eine Untersuchung, was an den digitalen Geistes- oder Sozialwissenschaften menschlich ist, dringend erforderlich wäre. In ähnlicher Weise fordert Fuller (Fuller, 2006) eine »neue soziologische Fantasie« und verweist auf das historische Projekt der Sozialwissenschaften, die sich »einzig und allein für Menschen« engagieren, weil für sie »alle Menschen von gleichem epistemischem und moralischem Interesse sind« (Fuller, 2010, S. 242). Wenn Fuller auf die »ontologische Unsicherheit der Menschheit« (S. 244) verweist, stellt er zu Recht fest, dass das Projekt der Menschheit unbedingt neu bedacht werden muss, und dies um so mehr, könnten wir hinzufügen, in Bezug auf die Herausforderung einer digitalen Berechenbarkeit, die unser Verständnis dessen bedroht, was erforderlich ist, um überhaupt als Mensch erkannt zu werden. Wenn Software und Code die Möglichkeitsbedingung für die Vereinheitlichung der heute an der Universität produzierten Wissensformen werden, dann könnte die Fähigkeit zum selbstständigen Denken, die durch Auswendiglernen von Methoden, Berechnungen, Gleichungen, Interpretationen, Kanons, Prozessen usw. erworben wird, weniger wichtig werden. Auch wenn wir vielleicht die individuelle Fähigkeit, diese geistigen Leistungen zu vollbringen oder uns gar allein an den gesamten Kanon aufgrund seiner Größe und seines Umfangs zu erinnern, weniger benötigen könnten, würde der Einsatz technischer Geräte in Verbindung mit Methoden der Zusammenarbeit und des gemeinsamen Studiums eine kognitive unterstützte Methode ermöglichen. Die Verinnerlichung bestimmter Praktiken, die Kindern und Studenten seit Jahrhunderten eingetrichtert werden, müsste überdacht werden, und damit würde sich dann auch die von dieser Pädagogik produzierte Gemeinsamkeit des Denkens qua Denken ändern. Das Denken könnte sich stattdessen einer begrifflicheren oder kommunikativeren Denkmethode zuwenden, indem man beispielsweise komparative und kommunikative Analysen aus verschiedenen fachlichen Perspektiven zusammenbringt und weiß, wie man die Technik nutzen muss, um ein brauchbares Ergebnis zu erzielen – ein umwälzender Prozess des reflexiven Denkens und des gemeinschaftlichen Überdenkens. Wenn wir uns auf die Technik auf eine radikaler dezentrierte Weise verlassen und darauf bauen würden, dass technische Geräte die Leerstellen in unserem miersprache zu erbringen? Solche Fragen werden seit neuestem in meiner Fakultät und anderswo gestellt. Ich selbst erhielt vor fast einem Jahrzehnt die Erlaubnis, an Stelle der Kenntnisse in der zweiten von zwei Fremdsprachen, die meine Fakultät für die Promotion verlangte, Kenntnisse in der Computersprache Perl nachzuweisen. Ich brachte das überzeugende Argument vor, angesichts meines Interesses an den Digital Humanities sei das viel praktischer, als meine High-School-Kenntnisse in Spanisch aufzufrischen.« (Kirschenbaum, 2009, Hervorhebung von mir.)
55
56
1. Big Digital Humanities
Verstand füllen und Wissen auf neuartige Weise verknüpfen, würde sich unser Verständnis von Wissen, Weisheit und Intelligenz an sich verändern. In mancher Hinsicht wäre dies eine radikale Dezentrierung, da das von Kultur und einer gewissen Vorstellung von Rationalität erfüllte Humboldtsche Subjekt nicht mehr existieren würde – vielmehr würde das digital berechenbare Subjekt wissen, wo es die Kultur abrufen müsste, wenn sie in Verbindung mit digital verfügbaren anderen Subjekten benötigt würde. Das wäre dann vielleicht ein kulturelles Subjekt just-in-time, das in eine gewisse Form von verknüpftem, computergestütztem Denken und visualisierter Präsentation eingegeben würde. Statt einer Methode des Denkens mit Augen und Hand hätten wir dann eine Methode des Denkens mit Augen und Bildschirm.8 Das muss gar nicht entmenschlichend sein. Latour und andere haben zu Recht festgestellt, dass die Domestizierung des menschlichen Verstands bereits mit Feder und Papier stattfand (Latour, 1986). Das liegt daran, dass Computer wie Feder und Papier zur Stabilisierung von Bedeutung beitragen, indem sie codiertes Wissen kaskadieren und visualisieren, damit es ständig »gezeichnet, geschrieben [und] umcodiert« werden kann (Latour, 1986, S. 16). Computertechniken könnten uns zu einer stärkeren Denkkraft verhelfen, zu einer größeren Reichweite unserer Fantasien und es uns vielleicht ermöglichen, an politische Vorstellungen von Gleichheit und Umverteilung wiederanzuknüpfen, die auf dem Potenzial von Computern basieren, jedem nach seinem Bedürfnis wie nach seiner Fähigkeit zu geben. Nachdrücklich hat darauf Fuller (2010, S. 262) hingewiesen, als er feststellte, dass wir das Potenzial für Ungleichheit kritisch betrachten müssten, das entsteht, wenn neue Techniken in die Gesellschaft eingeführt werden. Dies ist nicht bloß eine Frage des »digitalen Gefälles«, sondern ein grundsätzlicheres Problem: Wie stufen wir die ein, die »menschlicher« als andere sind, wenn der Zugang zu Computerarbeit und Information den Markt passieren muss?
A uf dem W eg zu D igital H umanities ? Wie wichtig das Verstehen von computergestützten Methoden ist, wird zunehmend in einer Reihe von Disziplinen reflektiert, nämlich in den Geistes- und Sozialwissenschaften, die Techniken dazu nutzen, die kritische Grundlage ihrer Begriffe und Theorien zu verlagern – es kommt sozusagen zu einer Computerwende.9 Dies zeigt sich am zunehmenden Interesse an den digitalen Geisteswissenschaften (Schreibman et al., 2008) und an der computerbasierten Sozialwissenschaft (Lazer et al., 2009), wie es z.B. immer mehr Zeitschriften, Konferenzen, Bücher 8 | Das schließt andere, revolutionärere Mensch-Computer-Schnittstellen nicht aus, die sich derzeit in Entwicklung befinden wie haptische Schnittstellen, Augensteuerungsschnittstellen oder gar von Hirnwellen gesteuerte Softwareschnittstellen. 9 | Siehe www.thecomputationalturn.com/.
David M. Berry: Die Computer wende — Gedanken zu den Digital Humanities
und Forschungsstipendien belegen. In den Digital Humanities ist die »kritische Untersuchung mit der Anwendung von algorithmischer Suche und Abfrage und eines kritischen Prozesses verbunden, der […] seinen Ursprung in geisteswissenschaftlicher Arbeit hat«. Daher ist bei »exemplarischen Aufgaben, die traditionell mit computergestützter geisteswissenschaftlicher Tätigkeit verbunden sind, die digitale Darstellung von Archivmaterialien der Analyse oder kritischen Untersuchung ebenbürtig, ebenso den Analysetheorien oder der kritischen Untersuchung, die vom Studium dieser Materialien ausgehen« (Schreibman et al., 2008, XXV). In den Sozialwissenschaften, so Lazer et al., »entsteht gerade eine computerbasierte Sozialwissenschaft, die die Fähigkeit nutzt, Daten in einer noch nie dagewesenen Breite, Tiefe und Größenordnung zu sammeln und zu analysieren« (2009, S. 3). Latour vermutet, dass es in diesen Informationskaskaden einen Trend gibt, der sich mit Sicherheit in der permanenten Digitalisierung von Projekten in den Geistes- und Sozialwissenschaften widerspiegele. Diese Digitalisierung tendiere »zur größeren Zusammenführung von Figuren, Zahlen und Buchstaben, was durch ihre homogene Behandlung als binäre Einheiten im und durch den Computer erheblich erleichtert wird« (Latour, 1985, S. 16). Eine neue Rolle bei diesen computerbasierten Disziplinen spielen auch finanzielle Erwägungen, da sie mehr Geld und Organisation benötigen als der einzelne Gelehrte alter Schule. Nicht nur die Anlaufkosten sind entsprechend höher, die meist dafür benötigt werden, um Forscher, Computerprogrammierer, Computertechnik, Software, Digitalisierungskosten usw. zu bezahlen, sondern es stellen sich auch ganz reale Fragen hinsichtlich der Nachhaltigkeit digitaler Projekte: »Wer bezahlt die Wartung der digitalen Ressourcen? Werden die Nutzerforen und Nutzerbeiträge weiter überwacht und moderiert, wenn wir uns dafür kein Personal leisten können? Werden Wikiprojekte geschlossen, wenn ihre Finanzierung eingestellt wird, oder werden wir sie sich selbst überlassen, sodass sie zu Internetfreiräumen werden?« (Terras, 2010, Online-Publikation o.S.)10
Außerdem stehen Sozial- und Geisteswissenschaftler vor einer Menge neuer ethischer Fragen. So stellte die Zeitschrift Nature schon 2007 fest: »Für gewisse Sozialwissenschaftler sehen die Verkehrsmuster von Millionen E‑Mails wie Manna vom Himmel aus. Solche Datensätze ermöglichen es ihnen, formelle und informelle Netzwerke und Hackordnungen zu kartieren, zu erkennen, wie Interaktionen sich auf die Funktion einer Organisation auswirken, und die Entwicklung dieser Elemente im Lauf der Zeit zu beobachten. Sie sind ein Sinnbild dafür, wie riesige Mengen strukturierter Information neue Möglichkeiten eröffnen, Gemeinschaften und Gesellschaften zu studieren. 10 | Siehe die Übersetzung von Platons Protagoras für die offenen Digital Humanities als gutes Beispiel für ein wiki-basiertes Projekt – http://openprotagoras.wikidot.com.
57
58
1. Big Digital Humanities Eine solche Forschung könnte so sehr benötigte Erkenntnisse über einige der drängendsten Fragen unserer Zeit liefern, vom Funktionieren des religiösen Fundamentalismus bis zur Art und Weise, wie das Verhalten Epidemien beeinflusst […]. Damit aber eine solche Forschung Erfolg hat, muss sie erst erzeugen, was sie zu beschreiben sucht […]. Alle Daten über menschliche Individuen führen unweigerlich zu Fragen nach dem Schutz der Privatsphäre, und die wahren Risiken des Missbrauchs solcher Daten lassen sich nur schwer quantifizieren.« (Nature, 2007, Online: publ.nature.com)
Für Latour ist die »Soziologie besessen von dem Ziel, eine quantitative Wissenschaft zu werden. Doch es ist ihr nie gelungen, dieses Ziel zu erreichen, und zwar aufgrund dessen, was sie im Bereich des Sozialen als quantifizierbar definiert hat […]« Daher »ist es wirklich erstaunlich, dass gerade jetzt die rasch expandierenden Gebiete der ›Datenvisualisierung‹, ›computergestützten Sozialwissenschaft‹ oder ›biologischen Netzwerke‹ vor unseren Augen genau die Art von Daten ausfindig machen«, über die Soziologen wie Gabriel Tarde an der Wende zum 20. Jahrhundert bloß zu spekulieren vermochten (Latour, 2010, S. 116). Außerdem bietet sich mit diesen Methoden nicht nur die Quantifizierung einer Forschung an, die traditionellerweise qualitativ war. Vielmehr sollten wir, so Unsworth, bedenken, dass diese digitalen »Werkzeuge mit Provokationen aufwarten, Beweise erbringen, Muster und Strukturen suggerieren oder Trends andeuten« (Unsworth, zitiert in Clement et al., 2008). So ermöglichen es beispielsweise die Methoden der »Kulturanalyse«, durch den Einsatz quantitativer Computertechniken umfangreiche kulturelle, soziale und politische Prozesse für Forschungsprojekte zu verstehen und zu verfolgen – d.h., mit riesigen Mengen von literarischen oder visuellen Datenanalysen aufzuwarten (siehe Manovich und Douglas, 2009). Auf diesen Unterschied bezieht sich Moretti (2009), wenn er von ferner und naher Interpretation von Texten spricht. Er weist darauf hin, dass sich die traditionellen Geisteswissenschaften auf einen »geringen Bruchteil des literarischen Gebiets« fokussieren: »Ein Kanon von zweihundert Romanen für das Großbritannien des 19. Jahrhunderts beispielsweise wirkt sehr groß – und ist auch viel größer als der momentan verwendete. Aber er macht dennoch weniger als ein Prozent der Romane aus, die damals wirklich veröffentlicht wurden: zwanzig- oder dreißigtausend, vielleicht sogar noch mehr – die genauen Zahlen sind unbekannt. Eine Methode wie das Close Reading kann angesichts dieser Dimensionen kaum weiterhelfen: Würde man auf diese Weise Tag für Tag einen Roman interpretieren, hätte man eine Jahrhundertarbeit vor sich. Dabei ist das Problem noch nicht einmal eines des zeitlichen Aufwands, sondern eines der Methode. Ein Feld dieser Größe kann schlichtweg nicht verstanden werden, indem einzelne Wissensfetzen über vereinzelte Teilelemente aneinandergereiht werden. Felder sind eben nicht einfach die Summe vieler individueller Fälle, sondern eher kollektive Systeme, die als solche auch in ihrer Gesamtheit betrachtet werden müssen.« (Moretti, 2009, S. 11)
David M. Berry: Die Computer wende — Gedanken zu den Digital Humanities
Die traditionellen Geistes- und Sozialwissenschaften können die umfangreichen Digitalisierungsmaßnahmen, die um sie herum ablaufen, schwerlich völlig ignorieren, zumal wenn große Forschungsgelder für die Entwicklung von Archiven, Werkzeugen und Methoden in den digitalen Geisteswissenschaften und den computerbasierten Sozialwissenschaften zur Verfügung stehen. Weniger jedoch weiß man über die Art und Weise, wie sehr die so geschaffenen Archive in Struktur und Inhalt computerbasiert sind, weil die Computerlogik eng verknüpft ist mit den digitalen Darstellungen physischer Objekte, Texte und »digital geborenen« Artefakten. Computertechniken sind nicht einfach bloß durch traditionelle Methoden gefertigte Instrumente, sondern haben vielmehr nachhaltige Auswirkungen auf alle Aspekte der einzelnen Disziplinen. Sie führen nicht nur neue Methoden ein, die dazu tendieren, sich auf die Identifikation neuartiger Muster in den Daten gegenüber dem Prinzip von Erzählen und Verstehen zu fokussieren, sondern ermöglichen auch die Modularisierung und Rekombination von Disziplinen an der Universität. Computermethoden fördern die Hybridität der Disziplinen, die zu einer postdisziplinären Universität führt – was das traditionelle akademische Wissen zutiefst verunsichern kann. Software ermöglicht neue Formen von Lesen und Schreiben. So beschreibt beispielsweise Tanya Clement das ferne Interpretieren von Gertrude Steins The Making of Americans: »The Making of Americans wurde von [Leuten wie] Malcolm Cowley kritisiert, der meinte, Steins ›Experimente in Grammatik‹ machten diesen Roman ›zu einem der schwierigsten, vom Anfang bis zum Ende zu lesenden Bücher, das je erschienen ist‹ […]. Die überaus repetitive Beschaffenheit des Textes, der fast 900 Seiten und 3174 Absätze umfasst und nur etwa 5000 verschiedene Wörter enthält, macht Listen repetitiver Elemente unhandlich und letztlich unverständlich […]. [Doch] Text Mining ermöglichte es mir, mit Hilfe von statistischen Methoden Wiederholungen in tausenden von Absätzen tabellarisch zu erfassen […]. So konnte ich die Ergebnisse interpretieren, indem ich sie auf unterschiedliche Weise sortierte und im Kontext des Textes betrachtete. Die Visualisierung von Musterclustern von Wiederholungen auf den 900 Textseiten […] liefert einen neuen Schlüssel zur Interpretation des Textes als kreisförmigen Text mit zwei korrespondierenden Hälften, was die kritische Sichtweise untermauert und erweitert, dass Making weder unausgereift noch chaotisch, sondern ein überaus systematischer und kontrollierter Text ist. Diese Perspektive wird die Art und Weise verändern, wie Wissenschaftler The Making of Americans interpretieren und vermitteln.« (Clement, zitiert in Clement, Steger, Unsworth und Uszkalo, 2008, S. 362)
Ich würde die Unterscheidung zwischen Muster und Erzählen als verschiedenen Analysemodi nicht überstrapazieren wollen. Muster erfordern nämlich das Erzählen, um verstanden zu werden, und man kann sogar behaupten, dass der Code an sich aus einer Erzählform besteht, die es ermöglicht, dass Datenbanken, Sammlungen und Archive überhaupt funktionieren. Dennoch sind Muster und Erzählen nützliche analytische Begriffe, dank derer wir erkennen, wie die Computerwende das Wesen von Wissen an der Universität verändert und damit den
59
60
1. Big Digital Humanities
Typus des Computersubjekts, das die Universität hervorzubringen beginnt. Dazu Bruce Sterling: »›Humanistische Schwerarbeit‹: Die Geisteswissenschaften haben lange gebraucht, bis sie sich auf Supercomputer und das Management riesiger Datenbanken einließen. Im Grunde haben sie erst jetzt damit angefangen. Künftig wird es möglich sein, dass sogar Professoren für englische Literatur in der Lage sind, jedes Wort zu studieren, das je über oder von Charles Dickens oder Elizabeth Barrett Browning geschrieben wurde. Das ist einfach eine andere Möglichkeit, mit dem literarischen Korpus umzugehen. Ich glaube, dass es da ein großes Potenzial gibt.« (Sterling, 2010, Online: publ.www.wired.com2010/02/ ontemporality-forthecreative-artist/)
Tatsächlich hat dieser Prozess eine kulturelle Dimension, und je mehr wir uns an computerbasierte Visualisierungen gewöhnen, desto selbstbewusster und geläufiger werden wir sie erkennen und nutzen. Das computergestützte Subjekt ist entscheidend für ein datenzentriertes Zeitalter, vor allem wenn wir uns einmal Fallstudien ansehen, die beweisen, wie wichtig ein computergestütztes Verhalten sein kann, um gewisse Formen öffentlicher und privater Tätigkeiten in einer Welt auszuüben, die zunehmend von computerbasierten Geräten überschwemmt wird. Kurzum, Bildung ist noch immer eine Schlüsselidee an der digitalen Universität, aber weder für ein Subjekt, das beruflich für instrumentelle Arbeit ausgebildet ist, noch für ein Subjekt, das sich in einer nationalliterarischen Kultur auskennt, sondern vielmehr für ein Subjekt, das die Information, die die Gesellschaft inzwischen mit zunehmender Geschwindigkeit produziert, vereinheitlichen kann, neue Methoden und Praktiken eines kritischen Lesens (Code, Datenvisualisierung, Muster, Erzählen) versteht und offen für neue pädagogische Methoden ist, die dies ermöglichen. Ja, Presner (2010) behauptet sogar, dass sich die Digital Humanities »auf den weiten Horizont von Möglichkeiten einlassen müssen, die auf herausragenden Leistungen in den Geisteswissenschaften aufbauen, während sie zugleich auch unsere Forschungskultur, unseren Lehrplan, unsere Abteilungs- und Fachstrukturen, unsere Amtszeit und Promotionsstandards und vor allem die Medien und das Format unserer wissenschaftlichen Publikationen verändern.« (Presner, 2010, S. 6)
Dies ist ein Subjekt, das bevorzugt per Computer kommuniziert und das auch in der Lage ist, Informationen und Ergebnisse rasch und effektiv zu erschließen, zu verarbeiten und zu visualisieren. Auf allen Ebenen der Gesellschaft werden die Menschen zunehmend Daten und Informationen in brauchbare Computerformen umwandeln müssen, um sie überhaupt zu verstehen. So könnte man sich beispielsweise Formen von computerbasiertem Journalismus vorstellen, der es den Medien in ihrer Funktion für die öffentliche Sphäre ermöglicht, die großen Datenmengen, die unter anderem Regierungen generieren, vielleicht durch den
David M. Berry: Die Computer wende — Gedanken zu den Digital Humanities
zunehmenden Einsatz von »charticles« sinnvoll zu nutzen – journalistischen Artikeln, die Text, Bild, Video, Computeranwendungen und Interaktivität kombinieren (Stickney, 2008). Das ist eine Form von »vernetztem« Journalismus, der »ein nichtlinearer, multidimensionaler Prozess wird« (Beckett, 2008, S. 65). Außerdem werden Menschen, die sich im Alltag in einem immer größer werdenden computerbasierten Bereich zurechtfinden müssen – man denke nur an die Datenmengen, die im Umgang mit Geld, Musik, Film, Text, Nachrichten, E‑Mail, Renten usw. zu bewältigen sind –, neue Fähigkeiten in Bezug auf finanzielles und technisches Wissen oder, allgemeiner, auf computerbasiertes Wissen oder computerbasierte Pädagogik abverlangt, zu dem die Digital Humanities beitragen könnten.
D ie M enschheit und die G eisteswissenschaf ten Während die positiven Wissenschaften – Geschichte, Biologie, Literatur oder andere Disziplinen – von den Vorteilen des computerbasierten Herangehens an Forschung (und Lehre) überzeugt werden, beginnt sich die ontologische Vorstellung von den Entitäten, die sie studieren, zu wandeln. Diese Disziplinen fokussieren sich somit auf die Computerbasiertheit der Gegenstände ihrer Arbeit.11 Damit will ich, Heidegger folgend, behaupten, es werde weiterhin einen Ort für die Möglichkeit geben, dass Philosophie ausdrücklich nach dem ontologischen Verständnis dessen fragt, was das Computerbasierte in Bezug auf diese positiven Wissenschaften ist. Computerbasiertheit könnte dann als Ontotheologie verstanden werden, die eine neue ontologische »Epoche« als neue historische Konstellation von Intelligibilität erschafft. Die digitalen Geisteswissenschaftler könnten sich daher an Fragen orientieren, die sich stellen, wenn die Computerbasiertheit an sich auf diese Weise zum Problem erhoben wird (siehe Liu 2011). Mit dem Begriff der Ontotheologie folgt Heidegger Kants Argument, Intelligibilität sei ein Prozess des Filterns und Organisierens einer überwältigend komplexen Welt durch den Gebrauch von »Kategorien« – Kants »Diskursivitätsthese«. Heidegger historisiert Kants kognitive Kategorien, indem er behauptet, es gebe eine
11 | Leider kann ich hier nicht näher auf die Möglichkeiten einer Umwandlung der Unterscheidung zwischen Forschung und Lehre durch die Digitaltechnik eingehen, wobei diese Unterscheidung ja ihrerseits ein Ergebnis von Humboldts Idee der Universität ist. So könnte etwa eine neue hybride Form von Forschungslehre oder Lehrforschung entstehen, die zum Teil von der Möglichkeit eines neuen Wissens betrieben wird, das im Lehrprozess selbst erzeugt und entdeckt wird. Das hieße, dass sich dann auch die alten Unterscheidungen zwischen Forschung als kreativer Vorgang und Lehre als Verbreitung ändern müssten.
61
62
1. Big Digital Humanities »Abfolge von sich verändernden historischen Ontotheologien, die den ›Kern‹ der metaphysischen Tradition bilden. Diese Ontotheologien ermitteln ›die Wahrheit hinsichtlich der Entitäten als solchen und als eines Ganzen‹, mit anderen Worten, sie erklären uns, was und wie Entitäten sind – und damit stellen sie sowohl ihre Essenz wie ihre Existenz her.« (Thomson, 2009, S. 149f.)
Die Metaphysik im ontotheologischen Sinn »sichert zeitweilig die intelligible Ordnung«, indem sie sie »ontologisch«, also von innen nach außen, und zugleich »theologisch« versteht, von außen nach innen, und das ermöglicht die Bildung einer Epoche, einer »historischen Konstellation von Intelligibilität, welche um ihr ontotheologisches Verständnis des Seins von Entitäten vereint wird« (Thomson, 2009, S. 150). Thomson behauptet: »Die positiven Wissenschaften studieren alle Klassen von Entitäten […]. Heidegger […] bezeichnet [somit] die positiven Wissenschaften als ›ontische Wissenschaften‹. Philosophie hingegen studiere das Sein dieser Klassen von Entitäten, und darum ist sie eine ›ontologische Wissenschaft‹ oder noch großartiger eine ›Wissenschaft vom Sein‹.« (Thomson, 2003, S. 529)
Philosophie als Untersuchungsgebiet, könnte man behaupten, sollte »das Ganze im Auge behalten«, und dieser konzentrierte Blick auf »die Landschaft als Ganzem« zeichnet das philosophische Studium aus und kann äußerst nützlich sein, wenn man diese ontotheologischen Entwicklungen zu verstehen sucht (Sellars, 1962, S. 36). Wenn Code und Software Forschungsgegenstände für die Geistesund Sozialwissenschaften einschließlich der Philosophie werden sollen, müssen wir sowohl die ontischen wie die ontologischen Dimensionen des Computercodes begreifen. Vereinfacht formuliert schlägt dieser Aufsatz somit vor, dass wir auf philosophische Weise an das Thema Computercode herangehen, die größeren Aspekte von Code und Software beachten und sie mit der Materialität dieser wachsenden digitalen Welt verknüpfen. Dann wird die Frage nach dem Code von zentraler Bedeutung für das Verstehen in den Digital Humanities und dient als Möglichkeitsbedingung für die vielen computerbasierten Formen, die unsere Erfahrung von zeitgenössischer Kultur und Gesellschaft vermitteln.
L iter atur Arnold, Matthew: Culture and Anarchy, Oxford 2009. Baker, Nicholson: The Size of Thoughts: Essays and Other Lumber, New York 1996. Ders.: Double Fold: Libraries and the Assault on Paper, New York 2001 (deutsch: Der Eckenknick oder wie die Bibliotheken sich an den Büchern versündigen, Reinbek 2005).
David M. Berry: Die Computer wende — Gedanken zu den Digital Humanities
Beckett, Charlie: Supermedia: Saving Journalism So It Can Save the World, London 2008. Benjamin, Walter: »Über den Begriff der Geschichte«, in: Illuminationen. Ausgewählte Schriften 1, Frankfurt a.M. 1977, S. 251-261. Berry, David Michael: The Philosophy of Software: Code and Mediation in the Digital Age, London 2011. Clement, Tanya, Steger, Sara, Unsworth, John und Uszkalo, Kirsten: »How Not to Read a Million Books«, 2008. http://www3.isrl.illinois.edu/~unsworth/hownot 2read.html#sdendnote4sym. Fuller, Matthew: »Software Studies Workshop«, 2006. http://pzwart.wdka.hro. nl/mdr/Seminars2/softstudworkshop. Ders.: Software Studies: A Lexicon, Cambridge, MA, 2008. Fuller, Steve: The New Sociological Imagination, London 2006. Ders.: »Humanity: The Always Already – or Never to be – Object of the Social Sciences?«, in: Jeroen Van Bouwel (Hg.): The Social Sciences and Democracy, London 2010. Hayles, N. Katherine: »How We Think: Transforming Power and Digital Technologies«, in: David M. Berry (Hg.): Understanding the Digital Humanities, London 2011. Heidegger, Martin: Die Technik und die Kehre, Pfullingen 1962. Hofstadter, Richard: Anti-Intellectualism in American Life, New York 1963. Kirschenbaum, Matthew: Hello Worlds. The Chronicle of Higher Education, 2009. http://chronicle.com/article/Hello-Worlds/5476. Kuhn, Thomas S.: The Structure of Scientific Revolutions, Chicago 1996 (deutsch: Die Struktur wissenschaftlicher Revolutionen, Frankfurt a.M. 1969). Lakatos, Imre: Methodology of Scientific Research Programmes. Cambridge 1980 (deutsch: Die Methodologie wissenschaftlicher Forschungsprogramme, Braunschweig 1982). Latour, Bruno: »Visualization and Cognition: Thinking with Eyes and Hands«, in: Knowledge and Society, Bd. 6, 1986, S. 1-40. Ders.: »Tarde’s Idea of Quantification«, in: Matei Candea (Hg.): The Social After Gabriel Tarde: Debates and Assessments, London 2010. Lazer, David et al.: »Computational Social Science«, in: Science, Bd. 323, 5915 (6. Februar 2009), S. 721-723. Lévy, Pierre: Die kollektive Intelligenz, Mannheim 1997. Liu, Alan: Where is Cultural Criticism in the Digital Humanities? 2011. http://liu. english.ucsb.edu/where-is-cultural-criticism-in-the-digital-humanities/. Manovich, Lev: Software takes Command, 2008. http://lab.softwarestudies.com/ 2008/11/softbook.html. Ders., und Douglas, Jeremy: Visualizing Temporal Patterns In Visual Media: Computer Graphics as a Research Method, 2009. http://softwarestudies.com/cultural_analytics/visualizing_temporal_patterns.pdf.
63
64
1. Big Digital Humanities
McCarty, Willard: Attending from and to the Machine, 2009. http://staff.cch.kcl. ac.uk/~wmccarty/essays/McCarty,%20Inaugural.pdf. Montfort, Nick, und Ian Bogost: Racing the Beam: The Atari Video Computer System, Cambridge, MA, 2009. Moretti, Franco: Kurven, Karten, Stammbäume. Abstrakte Modelle für die Literaturgeschichte, Frankfurt a.M. 2009. Nature: »A matter of trust«, in: Nature, 449 (11. Oktober 2007), S. 637-638. Newman, John Henry: The Idea of a University, Yale 1996 (deutsch: Vom Wesen der Universität, Mainz 1960). Presner, Todd Samuel: Digital Humanities 2.0: A Report on Knowledge, 2010. http:// cnx.org/content/m34246/1.6/?format=pdf. Readings, Bill: The University in Ruins. Cambridge, MA, 1996 (deutsch: Universität in Ruinen, Zürich 2012). Schnapp, Jeffrey, und P. Presner: »Digital Humanities Manifesto 2.0«, 2009. www.humanitiesblast.com/manifesto/Manifesto_V2.pdf. Schreibman, Susan, und Ray Siemens: A Companion to Digital Humanities, London 2008. Sellars, Wilfrid: »Philosophy and the Scientific Image of Man«, in: Robert Colodny (Hg.): Frontiers of Science and Philosophy, Pittsburgh 1962, S. 35-78. Sterling, Bruce: »Atemporality for the Creative Artist«, in: Wired, 2010. www. wired.com/beyond_the_beyond/2010/02/atemporality-for-the-creative-artist/. Stickney, Dane: »Charticle Fever«, in: American Journalism Review, 2008. www. ajr.org/Article.asp?id=4608. Terras, Melissa: »Present, Not Voting: Digital Humanities in the Panopticon«, 2010. http://melissaterras.blogspot.com/2010/07/dh2010-plenary-present-notvoting.html. Thomson, Iain (2003) »Heidegger and the Politics of the University«, in: Journal of the History of Philosophy, Bd. 41, Nr. 4, 2003, S. 515–542. Thomson, Iain: »Understanding Technology Ontotheologically, Or: the Danger and the Promise of Heidegger, an American Perspective«, in: Jan. K. B. Olsen, Evan Selinger und Søren Riis (Hg.): New Waves in Philosophy of Technology, London 2009. Turing, Alan Mathison: »Computing Machinery and Intelligence«, in: Mind, Oktober 1950, S. 433-460.
Trending Verheißungen und Herausforderungen der Big Social Data Lev Manovich
Heutzutage wird der Begriff »Big Data« oft verwendet – in populären Medien, in Unternehmen, in der Informatik und in der Computerindustrie. So eröffnete beispielsweise das Magazin Wired im Juni 2008 seinen Sonderteil über »Das Petabyte-Zeitalter« mit der Feststellung: »Unsere Fähigkeit, riesige Datenmengen zu erfassen, zu speichern und zu verstehen, verändert gerade die Naturwissenschaften, die Medizin, die Wirtschaft und die Technik. Während wir immer mehr Fakten und Zahlen sammeln, wächst auch die Möglichkeit, Antworten auf grundlegende Fragen zu finden.« (»The Petabyte Age«) Im Februar 2010 leitete der Economist seinen Report »Daten, Daten über alles« mit dem vom Informatiker Joe Hellerstein geprägten Begriff der »industriellen Datenrevolution« ein und stellte dann fest: »Die Auswirkungen sind überall zu spüren, vom Wirtschaftsleben bis zur Wissenschaft, vom Staat bis zu den Künsten.« (»Data, data everywhere«). Populäre Medien definieren in ihren Ausführungen den Begriff »Big Data« meist nicht qualitativ. Doch in der Computerindustrie hat dieser Begriff eine genaue Bedeutung: »Big Data bezeichnet Datensätze, deren Größe die Fähigkeit allgemein üblicher Softwaretools übersteigt, die Daten innerhalb einer vertretbaren Durchlaufzeit zu erfassen, zu verwalten und zu verarbeiten. Big Data weisen Größenordnungen auf, die sich ständig verschieben – sie reichen derzeit von ein paar Dutzend Terabytes bis zu vielen Petabytes von Daten in einem einzigen Datensatz.« (Wikipedia, »Big Data«)
Seit seiner Gründung im Jahr 2008 unterstützt das NEH Office of Digital Humanities systematisch mit Fördergeldern Geisteswissenschaftler bei der Arbeit mit großen Datensätzen. Die folgende Erklärung aus einem Stipendienwettbewerb, den das NEH 2011 zusammen mit einer Reihe anderer Forschungseinrichtungen in den USA, in Kanada, Großbritannien und den Niederlanden organisierte, bringt es ausgezeichnet auf den Punkt, worum es hier geht:
66
1. Big Digital Humanities »Im Mittelpunkt der Digging Into Data Challenge steht das Thema, wie ‚big data‹ die Forschungslandschaft der Geistes- und Sozialwissenschaften verändern. Heute haben wir riesige Datenbanken mit Materialien, die von Geistes- und Sozialwissenschaftlern verwendet werden und die von digitalisierten Büchern, Zeitungen und Musikstücken bis hin zu Transaktionsdaten wie Suchvorgängen im Internet, Sensorendaten oder Mobiltelefonaufzeichnungen reichen. Daher stellt sich die Frage, welche neuen, computergestützten Forschungsmethoden wir anwenden könnten. Da die Welt zunehmend digital wird, werden neue Techniken benötigt, um diese Alltagsmaterialien zu suchen, zu analysieren und zu verstehen.« (»Digging Into Data Challenge«)
Mit den vom Stipendienprogramm der Digging Into Data Challenge 2009 finanzierten Projekten und zuvor mit dem NEH-Wettbewerb von 2008 zum Thema »Humanities High Performance Computing« beginnen die Umrisse der Forschungsbereiche datenintensiver Geisteswissenschaften sichtbar zu werden. Sie umfassen die Analyse europäischer Denker des 18. Jahrhunderts, Karten, Texte und Bilder in Zusammenhang mit den Eisenbahnstrecken in den USA im 19. Jahrhundert, Strafprozessakten (Datengröße: 127 Millionen Wörter), antike Texte, eine detaillierte 3-D-Karte des alten Rom sowie das Projekt meines Labors: die Entwicklung von Tools für die Analyse und Visualisierung großer Bild- und Videodatensätze. Während ich dies schreibe, sind die größten Datensätze, die in digitalen Projekten der Geisteswissenschaften verwendet werden, noch immer viel kleiner als die von Naturwissenschaftlern verwendeten Big Data – ja, nach der Definition der Industrie ließe sich fast keiner dieser Datensätze als Big Data bezeichnen. D.h., für die Arbeit mit ihnen sind keine Supercomputer erforderlich – ein normaler PC mit Standardsoftware reicht völlig aus. Aber dieser Unterschied wird schließlich verschwinden, wenn Geisteswissenschaftler einmal mit per se digitalen, nutzergenerierten Inhalten (wie Milliarden von Fotos auf Flickr), Online-Nutzerkommunikation (Kommentaren über Fotos), nutzergenerierten Metadaten (Tags) und Transaktionsdaten (wann und wo die Fotos hochgeladen wurden) arbeiten werden. Diese Netzinhalte und –daten sind unendlich viel größer als das gesamte bislang digitalisierte kulturelle Erbe, und im Gegensatz zur festen Anzahl historischer Artefakte nehmen sie ständig zu. So gehe ich etwa davon aus, dass die Anzahl der täglich bei Facebook hochgeladenen Fotos größer ist als die sämtlicher Kunstwerke, die in allen Museen der Welt auf bewahrt werden. In diesem Text möchte ich einige der theoretischen und praktischen Fragen ansprechen, die der Umgang in den Geistes- und Sozialwissenschaften mit riesigen Mengen von sozialen und kulturellen Daten aufwirft. Meine Beobachtungen basieren auf meinen Erfahrungen bei der Arbeit mit großen kulturellen Datensätzen in unserer Software Studies Initiative (softwarestudies.com) an der University of California in San Diego seit 2007. Im Folgenden befasse ich mich mit den Unterschieden zwischen »tiefen Daten« über ein paar Menschen und »Oberflächendaten« über viele Menschen, mit dem Zugang zu Transaktionsdaten sowie
Lev Manovich: Trending — Verheißungen und Herausforderungen der Big Social Data
der neuen »Datenanalysekluft« zwischen Datenexperten und Forschern, die keine ausgebildeten Informatiker sind. Das Aufkommen sozialer Medien im ersten Jahrzehnt des 21. Jahrhunderts schuf neue Möglichkeiten, dynamische soziale und kulturelle Prozesse zu studieren. Zum ersten Mal können wir die Fantasien, Meinungen, Ideen und Gefühle Hunderter Millionen von Menschen verfolgen. Wir können die Bilder und Videos, die sie produzieren, betrachten und kommentieren, die Unterhaltungen, die sie gerade führen, belauschen, ihre Blogs und Twitternachrichten lesen, nach ihren Karten navigieren, uns ihre Musik anhören und ihre Wege im physischen Raum verfolgen. Und dafür müssen wir sie nicht einmal um Erlaubnis bitten, da sie uns dazu regelrecht ermutigen, indem sie all diese Daten veröffentlichen. Im 20. Jahrhundert beruhte das Studium sozialer und kultureller Phänomene auf zwei Arten von Daten: »Oberflächendaten« über zahlreiche Menschen und »tiefen Daten« über wenige Individuen oder kleine Gruppen. Die erste Vorgehensweise war typisch für alle Disziplinen, die quantitative Methoden anwandten (d.h. statistische, mathematische oder computergestützte Techniken), um Daten zu analysieren. Die entsprechenden Gebiete umfassen quantitative Schulen der Soziologie, der Wirtschaftswissenschaften, der Politologie, der Kommunikationswissenschaft und der Marktforschung. Die zweite Vorgehensweise war typisch für die Geisteswissenschaften: Literaturwissenschaft, Kunstgeschichte, Medienwissenschaft, Geschichte. Sie wurde auch in nichtquantitativen Schulen der Psychologie (z.B. Psychoanalyse und Gestaltpsychologie), der Soziologie (Wilhelm Dilthey, Max Weber, Georg Simmel), der Anthropologie und der Ethnografie angewandt. Entsprechende Methoden sind beispielsweise Hermeneutik, teilnehmende Beobachtung, dichte Beschreibung, Semiotik und Close Reading. So arbeitete beispielsweise ein quantitativer Soziologe mit Zensusdaten, die die meisten Bürger des Landes erfassten. Allerdings wurden diese Daten nur alle zehn Jahre erhoben, und sie waren für jedes Individuum repräsentativ nur auf einer »Makroebene«, auf der es seine Meinungen, Gefühle, Geschmacksvorstellungen, Stimmungen und Motive äußerte (»US Census Bureau«). Im Gegensatz dazu befassten sich Psychologen jahrelang mit einem einzigen Patienten, wobei sie genau die Art von Daten aufspürten und interpretierten, die eine Volkszählung gerade nicht erfasste. Zwischen diesen beiden Methoden des Erfassens und Auswertens von »Oberflächendaten« und »tiefen Daten« rangierten die Statistik und das Sampling. Durch die sorgfältige Auswahl ihrer Stichproben konnten Forscher gewisse Arten von Daten über die Wenigen auf das Wissen über die Vielen übertragen. So begann beispielsweise die Nielsen Company (»Nielsen Company«) in den 1950er Jahren, Daten über den Fernsehkonsum in einem Sample amerikanischer Haushalte zu sammeln (über Tagebücher und spezielle Geräte, die mit Fernsehern in 25.000 Haushalten verbunden waren) und dann mit Hilfe dieser Sampledaten die
67
68
1. Big Digital Humanities
Einschaltquoten für das ganze Land vorherzusagen, also den prozentualen Anteil der Bevölkerung, der sich bestimmte Sendungen anschauen würde. Freilich waren die Möglichkeiten, mittels solcher Samples mehr über größere Bevölkerungen zu erfahren, sehr begrenzt. So vermochte beispielsweise das kleine Sample der Nielsen Ratings keine Erkenntnisse über die tatsächlichen stündlichen oder täglichen Fernsehgewohnheiten jedes Individuums oder jeder Familie außerhalb dieses Sample zu vermitteln. Möglicherweise schauten bestimmte Menschen den ganzen Tag nur Nachrichten, andere schalteten nur Konzerte an, ließen den Fernseher laufen, ohne ihn zu beachten, oder sahen sich vorzugsweise die Sendungen an, die bei der SampleGruppe nur ganz niedrige Einschaltquoten erzielten, und so weiter. Die Sample-Statistiken konnten über dieses Verhalten überhaupt nichts aussagen. Es war auch möglich, dass eine bestimmte Sendung null Marktanteile erzielte, weil zufällig kein Sample-Zuschauer sie sich ansah – und dies kam tatsächlich mehr als einmal vor (»Nielsen ratings«). Stellen wir uns einmal vor, wir würden gern ein Bild mit niedriger Auflösung mit Hilfe eines digitalen Bildbearbeitungsprogramms wie Photoshop vergrößern wollen. Wir nehmen beispielsweise ein Bild von 10x10 Pixeln (also insgesamt 100 Pixeln) und vergrößern es auf 1.000x1.000 Pixel (also insgesamt eine Million Pixel). Wir bekommen allerdings keine neuen Details – nur größere Pixel. Und genau das geschieht, wenn man mit Hilfe eines kleinen Sample das Verhalten einer viel größeren Bevölkerung vorhersagen möchte. Ein »Pixel«, das ursprünglich eine Person repräsentierte, repräsentiert nun 1.000 Personen, die sich vermutlich alle auf genau die gleiche Weise verhielten. Das Aufkommen der sozialen Medien ermöglicht zusammen mit dem Fortschritt bei den Computertools, die riesige Datenmengen verarbeiten können, grundlegend neue Methoden beim Studium von Mensch und Gesellschaft. Wir müssen uns nicht mehr zwischen Datengröße und Datentiefe entscheiden. Wir können die exakten Pfade verfolgen, die von Milliarden kultureller Ausdrucksformen, Erfahrungen, Texten und Links gebildet werden. Die Detailkenntnisse und Erkenntnisse, die bislang nur über einige wenige Menschen gewonnen werden konnten, lassen sich nunmehr über sehr viel mehr Menschen gewinnen. 2007 fasste Bruno Latour diese Entwicklungen so zusammen: »Die Kräfte, die unsere Subjektivität formen, und die Gestalten, die unsere Fantasie bevölkern, lassen sich nun von den Sozialwissenschaften exakt erforschen. Es ist, als ob das Innenleben privater Welten offen zutage tritt, weil sich ihre Inputs und Outputs total verfolgen lassen.« (Latour, 2007, Online, siehe Lit.-Verzeichnis)
Zwei Jahre zuvor gingen die Überlegungen des Doktoranden Nathan Eagle am MIT Media Lab bereits in die gleiche Richtung. Er und sein wissenschaftlicher Betreuer Alex Pentland stellten eine Seite mit dem Titel »reality mining« ins Internet (»MIT Media Lab: Reality Mining«) und merkten dazu an, dass die neu-
Lev Manovich: Trending — Verheißungen und Herausforderungen der Big Social Data
en Möglichkeiten, das tägliche Verhalten und Kommunizieren von Menschen per Handy im Detail zu erfassen, zu einer neuen Soziologie im 21. Jahrhundert führen könnten (»Sociology in the 21st Century«). Um dies in die Praxis umzusetzen, verteilten sie Nokia-Handys mit einer speziellen Software an hundert MIT-Studenten, die diese Handys dann neun Monate lang benutzten – und damit »kontinuierliche Daten über das tägliche menschliche Verhalten« generierten, die einem Gesamtumfang von annähernd 60 Jahren entsprachen. Eagle und Pentland veröffentlichten eine Reihe von Artikeln, die auf der Analyse der von ihnen gesammelten Daten basierten. Heute arbeiten viel mehr Informatiker mit großen sozialen Datensätzen; sie nennen ihr neues Arbeitsgebiet »Social Computing«. Nach der Definition der Internetseite der Third IEEE International Conference on Social Computing (2011) bezeichnet Social Computing »das computergestützte Ermöglichen von Studien über soziales Verhalten und soziale Dynamik ebenso wie Design und Anwendung von Informations- und Kommunikationstechniken, die den sozialen Kontext untersuchen«. (»Social Computing«) Sehen wir uns nun einmal die Suchmaschine Google an. Googles Algorithmen analysieren Milliarden von Internetseiten sowie PDF, Word-Dokumente, Excel-Tabellen, Flash-Dateien, einfache Textdateien und seit 2009 Inhalte von Facebook und Twitter. (Mehr dazu: http://de.wikipedia.org/wiki/Google). Derzeit bietet Google keinen Service an, der es einem Nutzer erlauben würde, bestimmte Muster in all diesen Textdaten direkt zu analysieren, wie Google Insights for Search dies bei Suchanfragen und Googles Ngram Viewer bei digitalisierten Büchern tut – technisch aber wäre dies natürlich machbar. Stellen wir uns einmal vor, wir könnten den kollektiven intellektuellen Raum des ganzen Planeten studieren und sehen, wie Ideen aufkommen und sich verbreiten, aufgehen und wieder absterben, wie sie miteinander verknüpft werden und so weiter – und dies im gesamten Datensatz, der schätzungsweise mindestens 14,55 Milliarden Seiten umfasst. (»The size of the World Wide Web«) Um es noch einmal mit dem erwähnten Artikel in Wired auf den Punkt zu bringen: »Denn im Zeitalter der big data ist mehr nicht einfach bloß mehr. Mehr ist anders.« (»The Petabyte Age«) Hört sich all das nicht aufregend an? Mit Sicherheit. Was könnte denn falsch sein an diesen Argumenten? Erleben wir in der Tat das Ende der Kluft zwischen tiefen Daten und Oberflächendaten? Beginnt damit nicht eine neue Ära für die Sozial- und Kulturforschung? Gegen diese optimistische Vision lassen sich vier Einwände vorbringen. Damit will ich nicht sagen, dass wir diese neuen Datenquellen über menschliche Kultur und menschliches Sozialleben nicht nutzen oder sie nicht mit Computertools analysieren sollten. Ich bin sogar entschieden der Meinung, dass wir dies tun sollten – aber wir müssen doch genau wissen, was in der Praxis und nicht nur im Prinzip möglich ist. Wir müssen uns auch darüber im Klaren sein, welche Fähigkeiten digitale Geisteswissenschaftler benötigen, um die neue Bandbreite von Humandaten zu nutzen.
69
70
1. Big Digital Humanities
1. Nur Social-Media-Unternehmen haben Zugang zu wirklich großen sozialen Daten – insbesondere zu Transaktionsdaten. Ein Anthropologe, der für Facebook arbeitet, oder ein Soziologe in den Diensten von Google wird Zugang zu solchen Daten haben, die übrige wissenschaftliche Community hingegen nicht. Ein Forscher kann an einige von diesen Daten durch APIs gelangen, die von den meisten Social-Media-Services und den größten Medien-Onlineanbietern (YouTube, Flickr, Amazon usw.) zur Verfügung gestellt werden. Eine API (Application Programming Interface) ist ein Set von Befehlen, die von einem Anwenderprogramm benutzt werden können, um die in den Datenbanken eines Unternehmens gespeicherten Daten abzurufen. So lassen sich beispielsweise mit Hilfe einer Flickr-API alle Fotos in einer bestimmten Gruppe downloaden sowie Informationen über alle Fotogrößen, vorhandenen Kommentare, Standorte, Listen von Menschen, denen dieses Foto gefällt, und so weiter. (»Flickr API Methods«) Die öffentlichen APIs, die Social Media- und Social Network-Unternehmen anbieten, geben nicht alle Daten wieder, die diese Unternehmen selbst über die Nutzer erfassen. Dennoch können Sie damit natürlich eine ganz interessante neue Kultur- und Sozialforschung betreiben, indem Sie Daten über APIs sammeln und sie dann analysieren – vorausgesetzt, Sie beherrschen das Programmieren, Statistiken und andere Datenanalysemethoden. (In meinem Labor haben wir vor kurzem mit Hilfe der Flickr-API 167.000 Bilder aus der Flickr-Gruppe »Art Now« heruntergeladen, und derzeit analysieren wir diese Bilder, um eine »Karte« dessen zu erstellen, was man »nutzergenerierte Kunst« nennen könnte.) Auch wenn APIs an sich nicht kompliziert sind, werden bislang alle wirklich groß angelegten Forschungsprojekte, die die Daten mit diesen APIs nutzen, von Informatikern betrieben. Eine gute Möglichkeit, sich über dieses Gebiet zu informieren, bieten die Aufsätze, die auf den jährlichen WWW-Konferenzen vorgetragen werden. (»WWW2009« und »WWW2010«) Aufsätze aus neuerer Zeit untersuchten, wie sich Informationen auf Twitter verbreiten (Datenumfang: 100 Millionen Tweets – siehe Kwak, Lee, Park und Moon, 2001), welche Eigenschaften die beliebtesten Fotos auf Flickr gemeinsam haben (Datenumfang: 2,2 Millionen Fotos), wie georeferenzierte Flickr-Fotos räumlich verteilt sind (Datenumfang: 35 Millionen Fotos – siehe Crandall, Backstrom, Huttenlocher, Kleinberg 2009) und wie nutzergenerierte Videos auf YouTube sich mit ähnlichen Videos auf Daum, dem beliebtesten Service für UGC (nutzergenerierten Content) in Korea, vergleichen lassen (Datenumfang: 2,1 Millionen Videos – siehe Cha, Kwak, Rodriguez, Ahn und Moon 2007). In diesem Zusammenhang muss darauf hingewiesen werden, dass selbst Forscher, die in den größten Social-Media-Unternehmen arbeiten, nicht einfach Zugang zu allen Daten haben, die von verschiedenen Abteilungen in diesen Unternehmen gesammelt werden. Vor einiger Zeit hörte ich mir den Vortrag eines wissenschaftlichen Mitarbeiters von Sprint (einem der größten US-Telefonkonzerne) an, der die Beziehungen zwischen den geografischen Adressen von Telefonkunden und der Häufigkeit ihrer Anrufe bei anderen Menschen analysierte.
Lev Manovich: Trending — Verheißungen und Herausforderungen der Big Social Data
Er hatte tatsächlich Zugang zu diesen Daten aller Sprint-Kunden – rund 50 Millionen. Doch als er gefragt wurde, warum er nicht andere Datensammlungen von Sprint hinzuziehe, wie Instant Messaging und die Nutzung von Apps, erklärte er, diese Dienste würden von einem anderen Teil der Firma betrieben und der Zugang zu all diesen Daten zusammen sei den Mitarbeitern per Gesetz untersagt. Er wies darauf hin, dass Sprint sich genauso wenig wie jedes andere Unternehmen Klagen wegen Verletzung der Privatsphäre zuziehen, hohe Geldstrafen bezahlen und sein Image beschädigen wolle, und darum sei man bei Sprint sehr vorsichtig, was den Zugang einzelner Mitarbeiter zu bestimmten Daten angehe. Auch wenn Sie es vielleicht nicht glauben – ich schon. Glauben Sie beispielsweise, dass Google alle Klagen wegen Street View gefallen? Wenn Sie ein Unternehmen betreiben, würden Sie es dann riskieren, Hunderte von Millionen Dollars zu verlieren und Ihr Unternehmensimage schwer zu beschädigen? 2. Wir müssen uns davor hüten, Kommunikationen über soziale Netzwerke und digitale Footprints als »authentisch« zu verstehen. Posts, Tweets, hochgeladene Fotos, Kommentare und andere Arten von Online-Aktivitäten gewähren keinen Blick ins Innere ihrer Urheber – sie werden vielmehr oft sorgfältig kuratiert und systematisch verwaltet. (Ellison, Heino, Gibbs, 2006) Stellen Sie sich vor, Sie würden die kulturelle Vorstellungskraft von Menschen im Russland der zweiten Hälfte der 1930er Jahre studieren wollen und sich dabei nur Zeitungen, Bücher, Filme und andere kulturelle Texte ansehen – die natürlich alle erst die staatliche Zensur passieren mussten, bevor sie veröffentlicht werden durften. Sie würden daraus folgern, dass tatsächlich jeder Mensch in Russland Lenin und Stalin liebte, sehr glücklich und bereit war, sein Leben für den Aufbau des Kommunismus zu opfern. Nun sagen Sie vielleicht, dass dies ein unfairer Vergleich sei und dass es angebrachter wäre, sich lieber die Tagebücher der Menschen anzusehen. Das wäre tatsächlich besser – doch wenn Sie damals in Russland gelebt und gewusst hätten, dass jederzeit ein schwarzes Auto vor Ihrem Haus hätte anhalten können und Sie abgeführt und wahrscheinlich kurz darauf erschossen worden wären, hätten Sie dann wirklich all Ihre wahren Gedanken über Stalin und sein Regime Ihrem Tagebuch anvertraut? 1934 schrieb der berühmte russische Dichter Ossip Mandelstam ein Gedicht, das Stalin nur indirekt kritisierte, ohne ihn beim Namen zu nennen – und doch bezahlte er letztlich dafür mit seinem Leben (»Stalin Epigram«). Wenn Sie heute in einem bestimmten Teil der Welt leben, dann wissen Sie, dass die Regierung wahrscheinlich Ihre elektronischen Kommunikationen systematisch erfasst. (»Internet Censorship by country«) In manchen Ländern werden Sie vielleicht auch einfach deshalb verhaftet, weil Sie eine falsche Internetseite besucht haben. In diesen Ländern werden Sie darauf achten, was Sie online von sich geben. In anderen Ländern hingegen wird Sie eine kritische Aussage über die Regierung nicht automatisch ins Gefängnis bringen, und daher werden Sie das Gefühl haben, offener sein zu können. Mit anderen Worten: Es spielt keine
71
72
1. Big Digital Humanities
Rolle, ob die Regierung uns ausspäht oder nicht – entscheidend ist vielmehr, was sie mit diesen Informationen tun kann. (Ich selbst bin in den 1970er Jahren in der Sowjetunion aufgewachsen und dann in die USA übergesiedelt. Nach meinen Erfahrungen in beiden Gesellschaften ist der Unterschied in dieser Hinsicht sehr groß. In der UdSSR machten wir niemals politische Witze am Telefon und diskutierten über Politik nur mit guten Freunden bei uns zu Hause.) Nehmen wir also an, wir leben in einem Land, in dem es höchst unwahrscheinlich ist, dass wir wegen gelegentlicher regierungskritischer Bemerkungen verfolgt werden. Und dennoch: Wie authentisch sind alle unsere übrigen Äußerungen online? Erving Goffman und andere Soziologen haben schon vor langer Zeit darauf hingewiesen, dass Menschen stets ihr öffentliches Auftreten konstruieren und sorgfältig gestalten, wie sie sich anderen präsentieren – und die sozialen Medien bilden da gewiss keine Ausnahme. (»Erving Goffman«) Variabel ist das Ausmaß dieser öffentlichen Selbstkonstruktion. So neigen die meisten Menschen beispielsweise dazu, auf Facebook weniger Selbstzensur und Verstellung zu betreiben als in den Profilen von Dating-Seiten oder in einem Bewerbungsgespräch. Andere kuratieren sorgfältig ihre Profilbilder, um ein Image zu konstruieren, das sie von sich projizieren wollen. (Wenn Sie sich einmal die Facebook-Profilbilder Ihrer Freunde vornehmen, werden Sie wahrscheinlich eine große Bandbreite an Selbstkonstruktion entdecken.) Aber genau wie in allen anderen Bereichen unseres Alltagslebens üben wir ständig eine gewisse Kontrolle aus, wenn wir online sind – über das, was wir sagen, was wir hochladen, was wir als unsere Interessen ausgeben usw. Aber auch das heißt nicht, dass wir nicht interessante Forschungen betreiben können, indem wir größere Mengen von Tweets, Facebook-Fotos, YouTube-Videos usw. analysieren – wir müssen eben nur daran denken, dass all diese Daten uns keineswegs die Fantasien, Absichten, Motive, Meinungen und Gedanken der Menschen offenbaren. Vielmehr sollten wir uns diese Daten als Schnittstellen zwischen den Menschen und der Welt vorstellen – als eine bestimmte Ansicht, die nur einige Daten ihres wirklichen Lebens und ihrer Fantasien zeigt und die vielleicht auch andere fiktive Daten enthält, die ein bestimmtes Image projizieren sollen. (Ellison, Heino, Gibbs, 2006) 3. Stimmt es denn wirklich, dass wir uns nicht mehr zwischen Datengröße und Datentiefe entscheiden müssen, wie ich behauptet habe? Ja und nein. Stellen wir uns einmal das folgende hypothetische Szenario vor. Auf der einen Seite gibt es Ethnografen, die sich jahrelang in einer bestimmten Gemeinschaft aufhalten. Auf der anderen Seite sind da die Informatiker, die zwar niemals mit Menschen in dieser Gemeinschaft zusammenkommen, aber Zugang zu ihren sozialen Medien und digitalen Footprints haben – zu ihren täglichen räumlichen Wegen, die sie mit GPS erfassen und mit Überwachungskameras aufzeichnen, ebenso wie zu ihren Unterhaltungen online wie offline, ihren hochgeladenen Medien, Kommentaren, Likes usw. Beide Seiten bekommen somit »tiefe Daten« – doch das
Lev Manovich: Trending — Verheißungen und Herausforderungen der Big Social Data
Informatikerteam hat den Vorteil, dass es diese Daten von Hunderten Millionen von Menschen erfassen kann statt nur von einer kleinen Gemeinschaft. Wie plausibel ist dieses Argument? Jahrtausendelang erfuhren wir etwas über andere Menschen ausschließlich durch persönliche Interaktionen. Später wurde das Schreiben von Briefen ein wichtiger neuer Mechanismus, um persönliche, insbesondere romantische Beziehungen zu entwickeln. Im 21. Jahrhundert können wir Zugang zu einem ganz neuen Set von maschinell erfassten Spuren und Aufzeichnungen individueller Aktivitäten erlangen. Da dies eine ziemlich neue Situation ist, steht zu erwarten, dass manche Menschen die Vorstellung, solche maschinellen Aufzeichnungen könnten genauso sinnvoll sein beim Verstehen von Gemeinschaften und Individuen wie Interaktionen von Angesicht zu Angesicht, nur schwer akzeptieren können. Sie werden einwenden: Egal, wie gut die Datenquellen, Analysemethoden und Algorithmen der Informatiker auch sind, werden sie doch niemals zu den gleichen Erkenntnissen über die Menschen und zum gleichen Verständnis der Dynamik in der Gemeinschaft gelangen wie die Ethnografen. Sie werden sagen, dass selbst die umfassendsten sozialen Daten über Menschen, die sich über Kameras, Sensoren, Computergeräte (Telefone, Spielekonsolen) und Internetserver erfassen lassen, nicht das gleiche »tiefe« Wissen vermitteln. Es ist durchaus möglich, beide Positionen zu verteidigen – doch wenn nun beide nicht stimmen? Ich glaube nämlich, dass in unserem hypothetischen Szenario Ethonografen und Informatiker Zugang zu unterschiedlichen Arten von Daten haben. Daher werden sie wahrscheinlich unterschiedliche Fragen stellen, unterschiedliche Muster wahrnehmen und zu unterschiedlichen Erkenntnissen gelangen. Das bedeutet nicht, dass die neuen computererfassten »tiefen Oberflächendaten« weniger »tief« sind als die durch langfristigen persönlichen Kontakt gewonnenen Daten. Im Hinblick auf die schiere Anzahl von »Datenpunkten« sind sie wahrscheinlich sogar viel tiefer. Doch viele dieser Datenpunkte sind ganz anders als die Datenpunkte, über die Ethonografen verfügen. Wenn Sie beispielsweise in irgendeiner Situation physisch präsent sind, stellen Sie vielleicht manche Dinge fest, die Sie nicht bemerken würden, wenn Sie sich ein hochauflösendes Video dieser Situation ansehen würden. Wenn Sie aber dieses Video einer Computeranalyse unterziehen, entdecken Sie andererseits Muster, die Sie nicht bemerken würden, wenn Sie in dieser Szene nur physisch anwesend wären. Natürlich werden immer wieder neue Techniken entwickelt, die die physische Präsenz mit computer- und netzwerkassistierten Techniken kombinieren. Ein gutes Beispiel stellt das Projekt valleyofthekhans.org der University of California in San Diego dar. Bei diesem Projekt werden Fotos, die von einem Archäologenteam von einem großen Gebiet in der Mongolei mit Hilfe unbemannter Luftfahrzeuge gemacht werden, sofort auf eine spezielle Internetseite von National Geographic (exploration.nationalgeographic.com) hochgeladen. Tausende von Menschen beginnen sogleich damit, interessante Details auf diesen Fotos zu
73
74
1. Big Digital Humanities
markieren – und damit erfahren die Archäologen, wonach sie auf dem Boden Ausschau halten müssen. (»Help Find Genghis Khan’s Tomb«) Besonders wichtig für die digitalen Geisteswissenschaften ist die Frage, was sich mit Hilfe der Computeranalyse sozialer und kultureller Daten gegenüber traditionellen qualitativen Methoden entdecken und verstehen lässt. In meinem hypothetischen Beispiel ging es um Daten über soziales Verhalten, doch solche »Daten« können auch Briefe europäischer Denker des 18. Jahrhunderts sein, Karten und Texte über Eisenbahnstrecken im 19. Jahrhundert, Hunderttausende von Bildern, die Nutzer für eine Flickr-Gruppe hochladen, oder alle anderen Sammlungen kultureller Artefakte. Wenn wir anfangen, diese Artefakte mit Computern zu analysieren, werden viele Geisteswissenschaftler richtig nervös. Diese Reaktion erlebe ich oft, wenn ich Vorträge über digitale geisteswissenschaftliche Forschungen in meinem Labor der Software Studies Initiative an der UCSD halte (softwarestudies.com). Im Labor konzentrieren wir uns auf die Entwicklung von Methoden und Tools zur Erforschung und Auswertung riesiger kultureller visueller Daten – sowohl von digitalisierten visuellen Artefakten wie von heutigen visuellen und interaktiven Medien. (»Softwar Studies: Cultural Analytics«) Wir bedienen uns der digitalen Bildanalyse und neuer Visualisierungstechniken, um kulturelle Muster in großen Bild- und Videosets zu erkunden – von nutzergenerierten Videos, bildender Kunst, Zeitschriftencover und –seiten, grafischem Design, Fotos, Spielfilmen, Cartoons, Motion-Design. Die von uns analysierten visuellen Datensätze umfassen 20.000 Seiten der zwischen 1872 und 1922 erschienenen Ausgaben der Zeitschriften Science und Popular Science, 780 Gemälde von van Gogh, 4.535 Cover des Time Magazine von 1923 bis 2009 und eine Million Manga-Seiten. (»One million manga pages«) Nach unserer Erfahrung entdecken wir praktisch jedesmal, wenn wir ein neues Bild, eine Videosammlung oder auch nur ein einziges zeitbezogenes Medienartefakt (ein Musikvideo, einen Spielfilm, die Videoaufnahme eines Computerspiels) analysieren und dann visualisieren, irgendwelche überraschenden neuen Muster. Dies gilt auch für Sammlungen visueller Artefakte, über die wir bereits vorab ein paar Mutmaßungen angestellt hatten (z.B. 167.000 Bilder, die Nutzer auf »Art Now« Flickr hochgeladen hatten), ebenso wie für Artefakte, die bereits ausgiebig von vielen Autoren untersucht worden waren. Auf ein Beispiel für Letzteres will ich hier näher eingehen, nämlich eine Visualisierung des Films Das elfte Jahr des bedeutenden russischen Filmemachers Dziga Vertov. (Manovich, »Visualizing Large Image Collections for Humanities Research«. Die Visualisierung lässt sich aus unserem Flickr-Account herunterladen – Manovich, »Motion Studies: Vertov’s The Eleventh Year«.) Meine Quellen waren die digitalisierte Kopie des Films, die uns das Österreichische Filmmuseum zur Verfügung stellte, und die Informationen über alle Schnitte, die ein Museumsmitarbeiter manuell erstellt hatte. (Bei anderen Quellen bewegter Bilder verwenden wir die Open Source Software Shotdetect, die automatisch die meisten Schnitte in einem typischen Film ermittelt.) Die Visualisie-
Lev Manovich: Trending — Verheißungen und Herausforderungen der Big Social Data
rung verwendet nur das erste und letzte Bild jedes Schnitts im Film und ignoriert alle anderen Bilder. Jeder Schnitt wird als Kolumne dargestellt: das erste Bild ist oben und das letzte Bild gleich darunter. »Vertov« ist ein Neologismus, den der Regisseur erfand und den er schon früh in seiner Karriere als Künstlernamen wählte. Er geht auf das russische Verb vertet zurück, was so viel bedeutet wie »etwas drehen«. »Vertov« bezieht sich wohl auf die einfache Bewegung beim Filmen in den 1920er Jahren, als man die Kurbel einer Kamera drehte, ebenso wie auf die Dynamik der Filmsprache, die Vertov entwickelte. Zusammen mit einer Reihe anderer russischer und europäischer Künstler, Designer und Fotografen jenes Jahrzehnts wollte er die vertraute Wirklichkeit verfremden, und zwar durch dynamische diagonale Kompositionen und das Filmen aus ungewöhnlichen Perspektiven. Meine Visualisierung allerdings vermittelt ein ganz anderes Bild von Vertov. Fast jede Einstellung von Das elfte Jahr beginnt und endet praktisch mit der gleichen Komposition und dem gleichen Thema. Mit anderen Worten: Die Schnitte sind großenteils statisch. Wenn wir uns den ganzen Film vornehmen und diese Schnitte genauer studieren, stellen wir fest, dass einige von ihnen tatsächlich völlig statisch sind – etwa die Großaufnahmen von Gesichtern, die in verschiedene Richtungen blicken, ohne sich zu bewegen. Bei anderen Einstellungen fängt eine statische Kamera eine gewisse Bewegung ein – etwa sich bewegende Maschinen oder Arbeiter bei ihrer Arbeit –, aber die Bewegung findet komplett im Bildausschnitt statt, die Objekte und menschlichen Figuren durchqueren nicht das Bild, das die Kamera festhält. Natürlich wissen wir, dass eine Reihe von Einstellungen in Vertovs berühmtestem Film, Der Mann mit der Kamera (1929), das Gegenteil darstellen sollten: Beim Drehen von einem sich bewegenden Auto aus durchquerten die Personen ständig den Bildausschnitt der Kamera. Aber selbst hier, in Vertovs experimentierfreudigstem Film, stellen solche Einstellungen nur einen ganz kleinen Teil des Films dar. Einer der typischen Einwände bei meinen Vorträgen lautet: Computer können nicht zur gleichen nuancierten Interpretation gelangen wie traditionelle geisteswissenschaftliche Methoden und nichts zum Verstehen tieferer Bedeutungen von Kunstwerken beitragen. Darauf kann ich nur erwidern, dass wir menschliche Experten ja gar nicht durch Computer ersetzen wollen. Im hypothetischen Szenario der Arbeit mit einer Million YouTube-Videos im Dokumentarstil werde ich näher darauf eingehen, dass wir Computer dafür nutzen können, riesige visuelle Datensätze rasch zu durchforsten, um dann bestimmte Objekte für eine genauere manuelle Analyse auszuwählen. Während die computergestützte Untersuchung riesiger kultureller Datensätze typischerweise neue Muster in diesen Daten enthüllt, die selbst dem besten manuellen »Close Reading« entgehen würden – und natürlich wäre selbst eine Armee von Geisteswissenschaftlern gar nicht einmal in der Lage, derart riesige Datensätze einem sorgfältigen »Close Reading« zu unterziehen –, bedarf es noch immer eines Menschen, der den Sinn dieser Muster erkennt.
75
76
1. Big Digital Humanities
Letzten Endes wird eine vollautomatische Analyse sozialer und kultureller Daten heutzutage keine sinnvollen Ergebnisse liefern, weil die Fähigkeit von Computern, den Inhalt von Texten, Bildern, Videos und anderen Medien zu verstehen, noch immer begrenzt ist. (Man erinnere sich nur an die Fehler, die der AI-Computer Watson von IBM beging, als er beim Fernsehquiz Jeopardy! Anfang 2011 antrat – siehe »Watson [computer]«.) Idealerweise wollen wir natürlich gern die menschliche Fähigkeit des Verstehens und Interpretierens – an die Computer derzeit nicht ganz heranreichen können – mit der Fähigkeit von Computern kombinieren, riesige Datensätze mit Hilfe von Algorithmen zu analysieren, die wir kreieren. Stellen wir uns nun das folgende Forschungsszenario vor. Sie möchten dokumentarfilmartige YouTubeVideos studieren, die von Nutzern in Land X im Zeitraum Y produziert wurden, und Sie wären in der Lage festzustellen, dass der relevante Datensatz eine Million Videos enthält. Was tun Sie nun? Ideal wäre die Computeranalyse für den nächsten Schritt, nämlich die gesamte »Datenlandschaft« zu kartieren: die typischsten und einzigartigsten Videos zu ermitteln, automatisch alle Videos einer Reihe von Kategorien zuzuordnen, alle Videos zu finden, die die gleichen Strategien verfolgen usw. Am Ende dieser analytischen Phase wären Sie dann vielleicht in der Lage, den Satz von einer Million Videos auf 100 Videos zu reduzieren, die ihn auf eine umfassendere Art und Weise repräsentieren, als wenn Sie einfach ein Standardsamplingverfahren anwenden würden. Nehmen wir nun an, Ihr reduzierter Satz enthält sowohl die typischsten wie die einzigartigsten Videos in verschiedenen Kategorien. Da Sie ja jetzt eine überschaubare Anzahl von Videos haben, können Sie sie sich nun anschauen. Finden Sie ein besonders interessantes Video, können Sie vom Computer weitere Videos mit den gleichen Merkmalen abrufen lassen und sie sich anschauen. Während der Analyse können Sie ständig zwischen bestimmten Videos, Gruppen von Videos und der gesamten Sammlung von einer Million Videos hin und her wechseln und dabei noch mit neuen Kategorien und Gruppierungen experimentieren. Und genau wie es Ihnen die GoogleAnalyse ermöglicht, irgendein Subset von Daten auszuwählen und seine Muster in zeitlicher (Anzahl der besuchten Seiten) wie in räumlicher Hinsicht (woher die Besucher kommen) zu betrachten, werden Sie auch in der Lage sein, irgendein Subset von Videos auszuwählen und sich in diesem Subset verschiedene Muster anzusehen. So stelle ich mir also vor, wie wir große kulturelle Datensätze studieren können – ob dies nun Milliarden von Videos auf YouTube oder Milliarden Fotos auf Flickr sind, kleinere Stichproben halbprofessioneller oder professioneller kreativer Produktionen wie 100 Millionen Bilder auf deviantart.com oder 250.000 Design-Portfolios auf coroflot.com. Seit 2007 erarbeitet unser Labor nach und nach Visualisierungstechniken, die solche Forschungsrecherchen ermöglichen. 4. Stellen Sie sich vor, Sie haben eine Software, die eine umfangreiche automatische Datenanalyse mit einer interaktiven Visualisierung kombiniert. (Wir sind
Lev Manovich: Trending — Verheißungen und Herausforderungen der Big Social Data
dabei, nach und nach verschiedene von uns im Labor erschaffene Tools zu intergrieren, um so ein System zu erhalten. Siehe »Cultural Analytics Research Environment«.) Wenn Sie außerdem fähig sind, individuelle Artefakte zu untersuchen, und offen sind, neue Fragen zu stellen, wird Ihnen diese Software behilflich sein, Ihre Forschungen in viele neue aufregende Richtungen voranzutreiben. Es gibt jedoch auch viele interessante Fragen, die Fachkenntnisse in Informatik, Statistik und Data Mining erfordern – Fachkenntnisse, über die Sozial- und Geisteswissenschaftler typischerweise nicht verfügen. Dies ist ein weiterer ernsthafter Einwand gegen die optimistische Aussicht auf neue, an »Big Data« interessierte geistes- und sozialwissenschaftliche Forschungen, wie ich sie oben dargestellt habe. Die Explosion von Daten und das Aufkommen der computergestützten Datenanalyse als maßgebliche wissenschaftliche und ökonomische Vorgehensweise in heutigen Gesellschaften erzeugen neue Spaltungen. Insbesondere lassen sich Menschen und Organisationen in drei Kategorien unterteilen: in diejenigen, die Daten erzeugen (sowohl bewusst wie durch Hinterlassen digitaler Footprints), in die, die die Mittel haben, sie zu sammeln, und in die, die über die Fachkenntnisse verfügen, sie zu analysieren. Zur ersten Gruppe zählen so gut wie alle Menschen auf der Welt, die das Internet und/oder Smartphones nutzen; die zweite Gruppe ist kleiner und die dritte noch viel kleiner. Ich möchte diese drei Gruppen als die neuen »Daten-Schichten« unserer »Big Data-Gesellschaft« bezeichnen. Bei Google erarbeiten Informatiker die Algorithmen, die eine Internetseite erfassen, auf der sich ein Nutzer gerade befindet, und die Anzeigen auswählen, die darauf gezeigt werden sollen. Bei YouTube erarbeiten Informatiker Algorithmen, die automatisch eine Liste anderer Videos zeigen, die für dasjenige, das Sie sich gerade anschauen, als relevant erachtet werden. Bei BlogPulse erarbeiten Informatiker Algorithmen, die es Unternehmen ermöglichen, mit Hilfe von Stimmungsanalysen die Empfindungen zu studieren, die Millionen von Menschen im Hinblick auf ihre Produkte in Blogs artikulieren. In gewissen Hollywood-Filmstudios erarbeiten Informatiker Algorithmen, die vorhersagen, wie beliebt demnächst gezeigte Filme sein werden, indem sie Tweets über sie analysieren (das funktioniert!). In jedem Fall können die Daten und Algorithmen auch wirklich interessante Dinge über menschliches Kulturverhalten generell aussagen – doch daran sind die Firmen, die diese Informatiker beschäftigen, nicht interessiert. Die Analysen dienen vielmehr spezifischen geschäftlichen Zwecken. (Weitere Beispiele finden Sie bei »What People Want [and How to Predict it]«). Und was haben wir davon? Heute bekommen wir eine Vielzahl raffinierter kostenloser Software-Tools, um die für uns interessanten Inhalte aus diesem riesigen und sich ständig erweiternden Universum professioneller Medienangebote und nutzergenerierter Medien auszuwählen. Zu diesen Tools zählen Suchmaschinen, RSS-Feeds und Empfehlungssysteme. Doch während sie Ihnen dabei helfen können, das zu finden, was Sie lesen, anschauen, anhören, spielen, neu abmischen, mitteilen, kommentieren und mit eigenen Beiträgen ergänzen möch-
77
78
1. Big Digital Humanities
ten, sind sie im Allgemeinen nicht darauf ausgelegt, systematische Sozial- und Kulturforschung gemäß dem von mir beschriebenen »kulturanalytischen« Szenario zu betreiben. Zwar stehen seit einigen Jahren kostenlose Datenanalyse- und Visualisierungstools im Internet zur Verfügung (Many Eyes, Tableau, Google docs usw.), doch sie sind nur dann nützlich, wenn Sie Zugang zu großen sozialen Datensätzen haben. Einige kommerzielle Internettools ermöglichen es jedem von uns, gewisse Arten von Trends in gewissen Datensätzen, mit denen sie verkoppelt sind, in begrenztem Umfang zu analysieren (oder uns zumindest Appetit auf mehr zu machen, indem sie uns zeigen, was möglich ist). Ich denke hier an die bereits erwähnten: Google Ngram Viewer, Trends, Insights for Search, Blogpulse, aber auch an YouTube Trends Dashboard, Social Radar, Klout. Und wenn Sie nach »social media analytics« oder »twitter analytics« suchen, bekommen Sie Listen mit Dutzenden anderer Tools. So stellt beispielsweise Google Ngram Viewer die relative Häufigkeit von Wörtern oder Formulierungen, die Sie eingeben, in ein paar Millionen englischsprachigen Büchern dar, die in den letzten 400 Jahren veröffentlicht und von Google digitalisiert wurden (erhältlich sind auch Datensätze in anderen Sprachen). Damit können Sie alle möglichen interessanten kulturellen Muster ermitteln. Hier einige meiner Lieblingskombinationen von Wörtern und Formulierungen, die Sie eingeben können: »data, knowledge«, »engineer, designer«, »industrial design, graphic design«. Und YouTube Trends Dashboard ermöglicht es Ihnen, die meistbetrachteten Videos nach verschiedenen geografischen Orten und Altersgruppen zu vergleichen. Dennoch ist das, was Sie mit diesen Tools anfangen können, ziemlich begrenzt. Dies liegt natürlich auch daran, dass Firmen ihr Geld damit verdienen, Muster in den Daten zu analysieren, die sie über unsere Internetpräsenz und unser physisches Verhalten sammeln, und danach ihre Angebote, Anzeigen, Verkaufsaktionen und Promotions auszurichten beziehungsweise diese Daten an andere Firmen zu verkaufen. Daher wollen sie natürlich den Konsumenten keinen direkten Zugang zu all diesen Daten einräumen. (Nach einer Schätzung von ComScore haben fünf große Internetfirmen Ende 2007 »mindestens 336 Milliarden Übertragungsvorgänge in einem Monat« erfasst. (»To Aim Ads, Web Is Keeping Closer Eye on You.«) Wenn allerdings Konsumenten Muster in den Daten analysieren wollen, die ihre ökonomischen Beziehungen zu einem Unternehmen konstituieren/reflektieren, ist das etwas anderes. Oft stellen die Unternehmen den Konsumenten professionelle Analysen dieser Daten zur Verfügung – etwa von ihren finanziellen Aktivitäten (beispielsweise schlüsselt die Internetseite meiner Bank meine Ausgabekategorien detailliert auf), ihren Internetseiten und Blogs (Google Analytics) oder ihren Internet-Anzeigenkampagnen (Google AdWorks). Ein weiterer relevanter Trend ist es, Nutzer ihre Daten mit den statistischen Zusammenfassungen von Daten über andere vergleichen zu lassen. Google Analytics etwa zeigt mir die Performance meiner Internetseite im Vergleich zu allen
Lev Manovich: Trending — Verheißungen und Herausforderungen der Big Social Data
ähnlichen Internetseiten, während Sie bei vielen Fitnesseinrichtungen und – Internetseiten Ihre Leistungsfähigkeit mit der summarischen Leistungsfähigkeit anderer Nutzer vergleichen können. In jedem Fall freilich geben die Firmen nicht die tatsächlichen Daten preis, sondern nur die Zusammenfassungen. Außerhalb der kommerziellen Sphäre erleben wir tatsächlich ein allmähliches Freigeben der von staatlichen Behörden gesammelten Daten. Beispiele in den USA sind Data.gov (»Data.gov«), HealthData.gov (»HealthData.gov«) und Radar.Oreilly.com (»Gov 2.0 Coverage and Insight«). Alex Howard stellt in »Making open government data visualizations that matter« fest: »Jeden Monat stehen weitere offene Regierungsdaten im Internet. Lokale Behörden werden zu Datenlieferanten.« Man beachte allerdings, dass es sich bei diesen Daten typischerweise um statistische Zusammenfassungen handelt und nicht um Transaktionsdaten (die Pfade des Online-Verhaltens von Menschen) oder ihre von Social-Media-Firmen gesammelten Medien. Der begrenzte Zugang zu riesigen Mengen von sozialen Transaktionsdaten, die von Unternehmen gesammelt werden, ist einer der Gründe dafür, warum heute sozial- und geisteswissenschaftliche Forschungen an großen zeitgenössischen Datensätzen in der Praxis nicht so leicht zu betreiben sind. (Beispiele von derzeit verfügbaren digitalisierten Kulturarchiven finden sich in der Liste von Repositorien (»List of Data Repositories«), die bereit waren, ihre Daten Digging-IntoData-Konkurrenten zur Verfügung zu stellen.) Ein weiterer Grund ist die große Diskrepanz zwischen dem, was sich mit den richtigen Software-Tools und den richtigen Daten machen lässt, auch wenn man nicht über Kenntnisse in Informatik und moderner Statistik verfügt – und dem, was sich wirklich damit machen lässt, wenn man diese Kenntnisse hat. Stellen Sie sich beispielsweise vor, Sie hätten vollen Zugang zu den digitalisierten Büchern im Ngram Viewer (oder zu eigenen großen Datensätzen, die Sie aus dem Projekt Gutenberg oder einer anderen Quelle zusammengestellt haben) und möchten nun mit Hilfe einer Software Grafiken erstellen, die sich im Laufe der Zeit ändernde Themenhäufigkeiten anzeigen statt nur einzelne Wörter. In diesem Fall sollten Sie unbedingt Kenntnisse im Text Mining der Computerlinguistik haben. (Eine Suche nach »Themen-Analyse« bei Google Scholar ergab 38 Treffer für das erste Themengebiet und 38.000 Treffer für das zweite neuere Themengebiet.) Oder stellen Sie sich vor, Sie würden gern wissen, wie soziale Medien die Informationsverbreitung ermöglichen, und Sie möchten für Ihre Untersuchung Twitter-Daten verwenden. In diesem Fall können Sie diese Daten mit Hilfe der Twitter API oder mit Hilfe von Diensten Dritter bekommen, die diese Daten sammeln und kostenlos oder gegen eine Gebühr zur Verfügung stellen. Aber wieder müssen Sie das richtige theoretische Wissen haben, um diese Daten nutzen zu können. Die Software selbst ist kostenlos und leicht zu bekommen – R, Weka, Gate, Mallet usw. –, aber Sie müssen die richtige Ausbildung haben (zumindest ein paar Kurse in Informatik und Statistik besucht haben) und bereits über prak-
79
80
1. Big Digital Humanities
tische Erfahrungen verfügen, um dank dieser Ausbildung sinnvolle Ergebnisse zu erzielen. Hier ein Beispiel dafür, was Menschen mit der richtigen Ausbildung schaffen können. 2010 veröffentlichten Forscher aus dem Fachbereich Informatik am KAIST (Südkoreas führender technischen Hochschule) einen Aufsatz mit dem Titel »What is Twitter, a social network or a news media?« Mit Hilfe der Twitter-API vermochten sie die gesamte Twittersphäre von 2009 zu untersuchen – 41,7 Millionen Nutzerprofile, 1,47 Milliarden soziale Beziehungen, 106 Millionen Tweets. Unter anderem fanden sie heraus, dass über 85 Prozent von Trendthemen »von Haus aus Schlagzeilen oder Dauerthemen in den Nachrichten« sind. (Beachtlicherweise war der Hauptautor des Aufsatzes ein Doktorand, und die Autoren stellen ihre ganzen gesammelten Datensätze kostenlos zum Download zur Verfügung, sodass auch andere Forscher sie nutzen können.) Weitere Beispiele für die Analyse von »social flows« finden Sie in den Aufsätzen der IEEE International Conference on Social Computing 2010. In diesem Artikel habe ich eine optimistische Vorstellung von einem neuen existierenden Paradigma vorgestellt, das sich für die Geistes- und Sozialwissenschaften aufgetan hat, und bin dann auf vier Einwände gegen diese optimistische Vorstellung eingegangen. Es gibt noch andere genauso wichtige Einwände, aber sie wurden bereits in populären Medien wie in Wissenschaftskreisen ausgiebig abgehandelt. Ein ganz großes Thema beispielsweise ist die Privatsphäre – würden Sie Ihre gesamten Kommunikations- und Verhaltensdaten automatisch von akademischen Forschern erfassen lassen? Welche Schlussfolgerungen also sollen wir aus dieser Analyse ziehen? Stimmt es denn, dass »die Oberfläche die neue Tiefe ist« – in dem Sinn, dass die Quantitäten »tiefer« Daten, die in der Vergangenheit von wenigen zu bekommen waren, sich nun automatisch über viele abrufen lassen? Theoretisch ist das zu bejahen, solange wir beachten, dass die beiden Arten von tiefen Daten unterschiedliche Inhalte haben. In der Praxis stehen der Verwirklichung dieser Vorstellung aber noch eine Reihe von Hindernissen im Weg. Doch mit dem, was wir bereits heute nutzen können (APIs von Social-Media-Unternehmen, Infochimps.com, kostenlosen Archiven wie das Projekt Gutenberg, Internet Archive usw.), gibt es schon unendlich viele Möglichkeiten – vorausgesetzt, Sie kennen sich ein wenig im Programmieren und in Datenanalysen aus und sind auch offen dafür, neue Fragen über Menschen, ihr Sozialleben und ihre kulturellen Äußerungen und Erfahrungen zu stellen. Ich zweifle nicht daran, dass es schließlich viele weitere geistes- und sozialwissenschaftliche Forscher gibt, die sich nicht nur auf die abstraktesten theoretischen Argumente verstehen, sondern auch die neuesten Datenanalyse-Algorithmen selbst implementieren können, statt auf Informatiker angewiesen zu sein.
Lev Manovich: Trending — Verheißungen und Herausforderungen der Big Social Data
Allerdings muss sich an der Ausbildung besonders der Studenten der Geisteswissenschaften grundsätzlich etwas ändern. Das derzeitige Modell, nach dem Big Data in den Geisteswissenschaften erforscht werden, basiert auf der Zusammenarbeit zwischen Geisteswissenschaftlern und Informatikern. Es ist durchaus richtig, das »Digging into Data« so zu beginnen. Doch wenn jedes datenintensive geisteswissenschaftliche Projekt eines Forschungsstipendiums bedürfte, das eine solche Zusammenarbeit ermöglichen würde, kämen wir nur sehr langsam voran. Wir möchten, dass Geisteswissenschaftler in der Lage sind, in ihrer täglichen Arbeit Datenanalysen und Visualisierungssoftware zu nutzen, damit sie in ihrer Arbeit quantitative und qualitative Methoden kombinieren können. Wie es einmal dazu kommt, ist eine der Schlüsselfragen für »digitale Geisteswissenschaften«. Ich danke dem UCSD-Fakultätsmitglied James Fowler für ein anregendes Gespräch, das wir vor ein paar Jahren über das Ende der Unterscheidung zwischen Tiefe und Oberfläche geführt haben. Mehr über ihn bei jhfowler.ucsd.edu.
L iter atur »Big Data.« Wikipedia. http://de.wikipedia.org/wiki/Big_data. Cha, Meeyoung, Haewoon Kwak, Pablo Rodriguez, Yong-Yeol Ahn, und Sue Moon: »I Tube, You Tube, Everybody Tubes: Analyzing the World’s Largest User Generated Content Video System«, 2007 ACM Internet Measurement Conference. http://an.kaist.ac.kr/traces/papers/imc131-cha.pdf. Crandall, David J., Lars Backstrom, Daniel Huttenlocher und Jon Kleinberg: »Mapping the world’s photos.« 18. Internationale Konferenz über das World Wide Web, 2009. www.cs.cornell.edu/~dph/papers/photomap-www09.pdf. »Cultural Analytics Research Environment.« 2007. http://lab.softwarestudies. com/2008/12/cultural-analytics-hiperspace-and.html. »Data.gov.« Data.gov. Data.gov. www.data.gov/. »Digital footprint.« Wikipedia. http://en.wikipedia.org/wiki/Digital_footprint. »Flickr API Methods.« Flickr.com. www.flickr.com/services/api/. »Digging into Data Challenge.« DiggingIntodata.org. DiggingIntoData, 2011. http://diggingintodata.org/. Ellison, Nicole, Rebecca Heino und Jennifer Gibbs: »Managing impressions online: Selfpresentation processes in the online dating environment«, in: Journal of Computer-Mediated Communication, 11(2), 2006. http://jcmc.indiana.edu/ vol11/issue2/ellison.html. »Erving Goffman.« Wikipedia.org. http://de.wikipedia.org/wiki/Erving_Goffman. »GOV 2.0 Coverage and Insight.« Radar.Oreilly.com/gov2. O’Reilly Media. http:// radar.oreilly.com/gov2/. »Health.Data.gov.« Data.gov/health. Data.gov. www.data.gov/health.
81
82
1. Big Digital Humanities
»Help Find Genghis Khan’s Tomb From the Comfort of Your Home«, in: Wired,2011. www.wired.com/geekdad/2010/07/mongoliavalley-of-the-khans/>. »Internet Censorship by country.« Wikipedia.org. http://en.wikipedia.org/wiki/ Internet_censorship_by_country. Latour, Bruno: »Beware, your imagination leaves digital traces«, in: Times Higher Education Literary Supplement, 6. April 2007. www.brunolatour.fr/poparticles /index.html. »List of Data Repositories.« DiggingIntodata.org. DiggingIntoData. http://digging intodata.org/Home/Repositories/tabid/167/Default.aspx. Kwak, Haewoon, Changhyun Lee, Hosung Park und Sue Moon: »What is Twitter, a Social Network or a News Media?« 19. Internationale Konferenz über das World Wide Web, 2011. an.kaist.ac.kr/~haewoon/papers/2010-www-twitter. pdf. »Making open government data visualizations that matter.« Gov20.govfresh.com. Alex Howard, 13. März 2011. http://gov20.govfresh.com/making-open-govern mentdata-visualizations-that-matter/. Manovich, Lev: »Visualizing Large Image Collections for Humanities Research«, in: Media Studies Futures, hg. v. Kelly Gates. http://manovich.net/DOCS/media _visualization.2011.pdf. Manovich, Lev: »Motion Studies: Vertov’s The Eleventh Year«. www.flickr.com/ photos/culturevis/5952098107/in/set-72157623326872241. »MIT Media Lab: Reality Mining.« Reality.media.mit.edu. MIT, 2011.http://reality. media.mit.edu/. »The Nielsen Company.« Wikipedia.org http://de.wikipedia.org/wiki/The_Nielsen _Company. »Nielsen Ratings.« Wikipedia.org http://de.wikipedia.org/wiki/Nielsen_Ratings. »One million manga pages.« Softwarestudies.com. Software Studies Intitative. 2011. http://lab.softwarestudies.com/2010/11/one-million-manga-pages.html. »Social Computing: Introduction.« 3. IEEE Internationale Konferenz über Social Computing, 2011. www.iisocialcom.org/conference/socialcom2011/. »Software Studies: Cultural Analytics.« Softwarestudies.com. Software Studies Initiative. http://lab.softwarestudies.com/2008/09/cultural-analytics.html. »Sociology in the 21st Century.« Reality.media.mit.edu. MIT, 2011.http://reality. media.mit.edu/soc.php. »Stalin Epigram.« Wikipedia.org. http://de.wikipedia.org/wiki/Ossip_Emiljewitsch _Mandelstam. »The Petabyte Age: Because More Isn’t Just More — More Is Different«, in: Wired, 7. Juni 2008. www.wired.com/science/discoveries/magazine/16-07/pb_intro. »The size of the World Wide Web.« WorldWideWebSize.com. Maurice de Kunder, 2011. www.worldwidewebsize.com/.
Lev Manovich: Trending — Verheißungen und Herausforderungen der Big Social Data
»To Aim Ads, Web Is Keeping Closer Eye on You«, in: New York Times, 10. März 2008. www.nytimes.com/2008/03/10/technology/10privacy.html?pagewanted =1. »US Census Bureau.« Census.gov. USCensusBureau, 2011.www.census.gov/. »Watson (Künstliche Intelligenz).« Wikipedia.org. http://de.wikipedia.org/wiki/ Watson_(Künstliche_Intelligenz). »What People Want (and How to Predict It)«, in: SloanReview.MIT.edu. MIT, 2. Mai 2011. http://sloanreview.mit.edu/the-magazine/200winter/50207/what-peoplewantand-how-to-predict-it/. »WWW2009.« www2009.org. http://www2009.org/. »WWW2010.« www2010.org. http://www2010.org/www/.
83
Eine neue Betrachtung der Digital Humanities im Kontext originärer Technizität Federica Frabetti
Wissenschaftler der Digital Humanities haben anscheinend das vage Gefühl, dieses neu entstehende Gebiet sollte sich mit den Geisteswissenschaften auf eine andere, neue Weise befassen. Allerdings ist man sich durchaus nicht einig darüber, was dies konkret bedeuten könnte.1 Reicht das Zusammenkommen von Geisteswissenschaften und Digitalität aus, damit die Geisteswissenschaften »anders« oder »neu« werden? In welchem Sinn würde die Digitalität etwas »Neues« in die Geisteswissenschaften einbringen, und welche Folgen hätte dies für die Art und Weise, wie die Geisteswissenschaften an den Universitäten betrieben werden? Neben anderen Autoren hat Alan Liu eine solche Suche nach Neuem oder »Neuanfängen« in akademischen Disziplinen in Frage gestellt (Liu, 2008, S. 4). In seinem 2008 erschienenen Buch Local Transcendence versteht er die Jagd nach »dem Neuen oder Innovativen in Wirtschaft, Technik, Medien, Kunst, Mode« und, wie wir hinzufügen dürfen, in akademischen Disziplinen als ein typisches Merkmal des postindustriellen westlichen Gefühls von Zeithaftigkeit – als ein »Gefühl von losen Anfängen und losen Enden« (S. 1). Liu weist auch darauf hin, dass die Logik von Management und Flexibilität in die Digital Humanities vorgedrungen ist und dass viele computergestützte geisteswissenschaftliche Projekte »die Geisteswissenschaften in die Techno-Logik des Diskursnetzwerks 2000 einbinden« (S. 211), indem sie die Übermittlung akademischen Wissens effizienter und flexibler machen.2 Die Digital Humani1 | Im Rahmen dieses Aufsatzes verstehe ich unter Digital Humanities alle wissenschaftlichen Tätigkeiten, die die Nutzung von Computertechniken und –methoden (Bildverarbeitung, Datenvisualisierung, Netzwerkanalyse) einbeziehen, um neue Möglichkeiten zu erschließen im Umgang mit geisteswissenschaftlichen Texten sowie mit den Praktiken bei Prozessen der digitalen Medienproduktion (Erstellung interaktiver elektronischer Literatur oder Aufbau von Online-Datenbanken und Wikis). 2 | Lius Begriff »Diskursnetzwerk 2000« bezieht sich auf Friedrich Kittlers Konzept vom »Diskursnetz«. Kittler versteht darunter »das Netzwerk von Techniken und Institutionen, die
86
1. Big Digital Humanities
ties, so Liu weiter, widerstehen nämlich der Effizienz aufgrund »ihrer eigenen Werte«: »Während der technologische Maßstab des neuen Diskursparadigmas postindustrielle Effizienz plus Flexibilität ist, also die Fähigkeit, allen alles schnellstmöglich zu sagen, ist der Maßstab akademischen Wissens auch historische, soziale, philosophische, künstlerische und öffentliche (ungeschützte) Vielfalt, also beispielsweise die Fähigkeit, allen alles vollständig, reichlich, offen, unterschiedlich, freundlich oder langsam zu sagen.« (Ebd., S. 211)
Doch in diesem Beitrag möchte ich gerade die Vorstellung in Frage stellen, dass die Geisteswissenschaften traditionellerweise auf einem klar identifizierbaren Set gemeinsamer Werte basieren und sich säuberlich von technologischen Konzepten unterscheiden lassen, ja gar ihr genaues Gegenteil darstellen. Denn haben sich die Geisteswissenschaften nicht immer mit Technik befasst, zumindest in einem gewissen Ausmaß? Ist nicht schon der Zugang zu jedem Text stets bereits durch Technik vermittelt (wie z.B. durch die Schrift)? Um dies genauer zu erklären, möchte ich zunächst darlegen, wie Johanna Drucker in ihrem 2009 erschienenen Buch SpecLab die Beziehung zwischen Computertechnik und Geisteswissenschaften versteht. In diesem Buch warnt Drucker die Geisteswissenschaften vor der Prämisse von Objektivität, wie sie in computerbasierten Methodologien angelegt ist. Für sie gehört die Vernarrtheit der Geisteswissenschaften in die Computertechnik zur Tradition der mathesis universalis, mit ihrem Anspruch auf Versöhnung der natürlichen und der mathematischen Sprache, der von den intellektuellen Annahmen der britischen analytischen Philosophie und des Wiener Kreises ebenso wie von der strukturalen Linguistik und ihrem Erbe vorangetrieben wurde (Drucker, 2009, S. 4). Dem hält Drucker den Begriff der »spekulativen Computerarbeit« entgegen, als einer Möglichkeit, »die kulturelle Autorität zurückzudrängen, durch die computertechnische Methoden ihre Auswirkungen in vielen Disziplinen instrumentalisieren« (S. 5). Daher möchte ich hier eine andere, wenn auch vielleicht komplementäre These vortragen – nämlich dass Computerarbeit und Geisteswissenschaften nicht als zwei getrennte Einheiten verstanden werden können, deren Beziehungen sich ein für allemal definieren lassen, und dass die Digital Humanities vielleicht gerade die Frage nach den Beziehungen zwischen Geisteswissenschaften und Digitalität und allgemeiner zwischen Mensch und Technik offen halten müssen. Ja, die Fähigkeit, überkommene begriffliche Bezugssysteme im Hinblick auf die Technik
einer gegebenen Kultur die Adressierung, Speicherung und Verarbeitung relevanter Daten erlauben« (Kittler, 1985, S. 519). Mit »Diskursive Netzwerke 2000« bezeichnet Liu den diskursiven Schaltkreis, der »codierten oder strukturierten Diskurs [produziert], im technischen Sinn von digitalem Text, der Auszeichnungen codiert und strukturiert« (Liu, 2008, S. 210).
Federica Frabetti: Eine neue Betrachtung der Digital Humanities
in Frage zu stellen, könnte vielleicht eine der Stärken der Digital Humanities sein, die ausschlaggebend für die Produktion neuen Wissens ist. Ein guter Ausgangspunkt für eine neue Betrachtung der Digital Humanities könnte die erneute Überprüfung der philosophischen Vorstellungen von Technik sein. Bernard Stiegler hat festgestellt, dass es der westlichen Philosophie immer schon ziemlich schwergefallen ist, über Technik nachzudenken. Im ersten Band seines Buchs Technik und Zeit (2009a) weist Stiegler darauf hin, dass die außergewöhnlichen technischen Veränderungen unserer Zeit zwar so bald wie möglich in Begriffe gefasst und verständlich gemacht werden müssten, doch wenn man das versuchen wolle, könne man sich nicht auf eine Darstellung der Technik in der westlichen philosophischen Tradition berufen: »schon bei ihrem Ursprung und bis heute hat die Philosophie die Technik als Gegenstand des Denkens verdrängt. Die Technik ist das Ungedachte.« (Stiegler, 2009a, S. 7)3 Zwar verweist Stiegler später in seinem Buch auf ein paar Ausnahmen von dieser Weigerung der Philosophie, sich der Technik offen zu nähern – nämlich im Werk mehrerer französischer Philosophen wie Jacques Derrida und dem von Martin Heidegger –, gleichwohl beharrt er darauf, dass die philosophische Reflexion die Technik traditionellerweise an den Rand gedrängt hat. Und doch ergibt eine kritische Bewertung solcher Reflexion, dass der Begriff der Technik stets eng mit den Begriffen »Wissen«, »Sprache« und »Menschsein« verbunden ist. Dem philosophischen Denken über Technik nachzugehen ist gar nicht so einfach. Um mich diesem Problem anzunähern, möchte ich kurz der von Stiegler (2009a) vorgeschlagenen innovativen Genealogie folgen. Stieglers Einstellung gegenüber der Beziehung zwischen Philosophie und Technik ist doch recht erstaunlich. Obwohl er, wie wir bereits gesehen haben, die »Dringlichkeit und Notwendigkeit einer Begegnung zwischen Philosophie und Technologie« betont (2009a, S. 9), hält er die Philosophie eigentlich für traditionell wie grundsätzlich unfähig, über Technik nachzudenken. Für ihn hat die Philosophie ja die Technik stets als Gegenstand des Denkens »verdrängt«. Noch bezeichnender ist es, dass sich die westliche Philosophie von Anfang an von der Technik unterschieden und sich tatsächlich als Nicht-Technik verstanden hat, und zwar indem sie technê und epistêmê getrennt hat. Das griechische Wort epistêmê wird oft mit »Wissen« übersetzt, technê hingegen mit »Handwerk« oder »Kunst« (Parry, 2003). Die Trennung zwischen technê und epistêmê hatte ihren Ursprung in der politischen Arena Athens im fünften vorchristlichen Jahrhundert – sie verband technê mit den rhetorischen Künsten der Sophisten. Als Berufsredner verstanden die Sophisten sich auf die Konstruktion politischer Argumente. Ihre Kunstfertigkeit (technê) wurde als Gleichgültigkeit gegenüber der Ermittlung der Wahrheit verstanden, oder schlimmer noch: als Versuch, die Wahrheit zum Instrument der Macht zu machen. Die technê der Sophisten galt als Gegenteil von wahrem Wissen. Somit 3 | Der Begriff »Technik« gehört zu Stieglers teilweise heideggerianischem philosophischem Vokabular.
87
88
1. Big Digital Humanities
blieb die Wahrheit der einzige Gegenstand der epistêmê, die wiederum mit der Philosophie gleichgesetzt wurde. Dieser ausgesprochen politische Schachzug sprach dem technischen Wissen jeden Wert ab. Stiegler betont, dass der nächste Schritt in der Abwertung der Technik von Aristoteles vollzogen wurde, nämlich durch seine Definition eines »technischen Wesens« als eines Wesens, das keinen Selbstzweck habe und bloß als Werkzeug von jemand anderem für seine Zwecke benutzt werde.4 Mit anderen Worten: Das Ausklammern der Technik aus der Philosophie beruht auf dem Begriff der Instrumentaliät: Technisches Wissen wird als instrumentell interpretiert und damit als Nicht-Philosophie. Laut Timothy Clark (2000) lässt sich »der Begriff der Technik, der das westliche Denken seit fast dreitausend Jahren beherrscht«, folgendermaßen zusammenfassen: »Nach der traditionellen aristotelischen Betrachtungsweise gehört die Technik nicht zur menschlichen Natur – sie ist ein Werkzeug, das dazu benutzt wird, gewisse Ziele zu erreichen. Die Technik ist angewandte Wissenschaft, ein Instrument des Wissens. Die heute übliche Umkehrung dieses Konzepts besagt, dass das Instrument die Kontrolle über seinen Hersteller, die Schöpfung die Kontrolle über seinen Schöpfer übernommen hat (Frankensteins Monster).« (Clark, 2000, S. 238)
Somit ist das utilitaristische Modell der Technik, wie es noch heute verwendet wird, im aristotelischen Denken begründet. Außerdem hat die Instrumentalität, wie Stiegler behauptet, während des Prozesses der Industrialisierung der westlichen Welt eine neue Bedeutung erlangt. Dementsprechend nimmt die Technik allmählich einen neuen Stellenwert im philosophischen Denken ein. Tatsächlich ist die Wissenschaft im Laufe der letzten beiden Jahrhunderte immer mehr ein Instrument geworden (für die Wirtschaft, den Krieg) und verleugnet damit nach und nach ihr Wesen als »reines« Wissen. Gleichzeitig interessiert sich die Philosophie für die »Technisierung« der Wissenschaft. Ein Beispiel dafür ist Edmund Husserls Beschäftigung mit der Mathematisierung der Geometrie.5 4 | Mehr darüber siehe Nikomachische Ethik 6,3–4 (Aristoteles, 1986). 5 | Im Dritten Reich befasste sich Husserl mit dem Aufkommen der Algebra als einer Rechentechnik, die die Geometrie von ihrem anschaulichen Inhalt befreit: »Man lässt im algebraischen Rechnen von selbst die geometrische Bedeutung zurücktreten, ja ganz fallen; man rechnet, sich erst am Schluss erinnernd, dass die Zahlen Größen bedeuten sollten.« (Husserl, 1954, S. 44) Indem die Geometrie berechenbar wird, verzichtet sie laut Husserl auf ihre Fähigkeit, geometrische Formen – oder »raumzeitliche Idealitäten« (S. 41) – zu veranschaulichen. Für Stiegler bedeutet das: »Die Technisierung der Wissenschaft ist ihre eidetische Erblindung.« (Stiegler, 2013a, S. 14). Ich möchte hier darauf hinweisen, dass der Begriff der »Berechnung« ein konstitutiver Teil des Konzepts der Instrumentalität ist. Für Husserl ist Berechnung anscheinend gleichbedeutend mit Formalisierung und Algebra, da die Technik der Berechnung nichts weiter als ein Formalismus ist, der es uns ermög-
Federica Frabetti: Eine neue Betrachtung der Digital Humanities
Wichtig in diesem Zusammenhang ist es, so Stiegler, dass die platonische Vorstellung von der Technisierung als Verlust des Gedächtnisses noch immer Husserls Verständnis von Algebra zugrundeliegt (2009a, S. 13). Auf Platons Verständnis von Technik werde ich gleich zurückkommen. Vorab sei an die berühmte Stelle in seinem Dialog Phaidros erinnert, wo Platon die Schrift, die als Technik galt, die dem Gedächtnis helfen würde, mit dem Verlust des wahren Gedächtnisses verbindet, das für ihn die anamnesis, die Wiedererinnerung an eine ideale Wahrheit ist. Aus dieser Sicht, die erneut Wissen und Technik voneinander trennt, wird die Schrift aufgrund ihrer Instrumentalität abgewertet.6 Die Abwertung der Technik in der westlichen Philosophie geht also Hand in Hand mit der Abwertung der Schrift. Ich will damit sagen, dass die von Stiegler hergestellte Beziehung zwischen Technik und Schrift, die sowohl vom Wissen ausgeschlossen wie vom Konzept der Instrumentalität impliziert wird, im Kontext der Digital Humanities eine besondere Bedeutung annimmt. Damit stellt sich hier die Frage: Wenn digitale Techniken das Konzept der Instrumentalität übersteigen und destabilisieren, destabilisieren sie dann nicht auch das Konzept der Schrift? Und welche Folgen hätte eine solche Destabilisierung für die Digital Humanities? Um diesen Punkt weiterzuentwickeln, wende ich mich nun der alternativen Tradition des Denkens über Technik zu, die nach Stiegler bei Heidegger beginnt und nicht auf dem Begriff der Instrumentalität basiert. Clark (2000) spricht von der Tradition der »originären Technizität» – ein Begriff, den er von Richard Beardsworth (1996) übernimmt. Dieser Begriff bekommt nur dann etwas Paradoxes, wenn man innerhalb der instrumentellen Konzeptualisierung der Technik verharrt: Wenn die Technik instrumentell wäre, könnte sie nicht originär sein – d.h., für das Menschliche konstitutiv. Somit widersteht das Konzept der »originären Technizität« der utilitaristischen Konzeptualisierung von Technik. Um zu erläutern, was er mit »originärer Technizität« meint, verweist Clark auf den 1992 erschienenen Roman Die Turing-Option, dessen Co-Autor Marvin Minsky war, ein führender Theoretiker auf dem Gebiet der Künstlichen Intelligenz (Harry und Minsky, 1992). Damit Brian Delaney, der Protagonist des Romans, seine kognitiven Fähigkeiten zurückerlangt, nachdem ein Schießunfall sein Gehirn schwer beschädigt hat, lässt er sich einen kleinen Computer als Prothese in seinen Schädel implantieren. Nach der Operation beginnt er sein Wissen zu rekonstruieren, dass er vor dem Unfall hatte. Der Roman zeigt, wie er versucht, sein Selbstgefühl durch seine früheren Notizen zurückzugewinnen, und wie ihn licht, numerische Konfigurationen zu manipulieren und ihre anschauliche Bedeutung zu vergessen. Die Betonung liegt hier nicht auf dem angeblich »mechanischen« Charakter der Berechnung – Husserl hebt ja gerade hervor, dass die Algebra noch immer geometrische Entdeckungen möglich macht. Betont werden soll vielmehr das Vergessen dessen, was Husserl als anschauliche Bedeutung der Geometrie versteht. 6 | Siehe Phaidros, S. 108 (Platon, 1988).
89
90
1. Big Digital Humanities
das übermächtige Gefühl überkommt, dass das Ich, das diese Notizen in der Vergangenheit geschrieben hat, für immer verloren gegangen ist. Clark bedient sich dieser Story als einer genialen Metapher für die Tatsache, dass sich ohne Technik kein Selbstbewusstsein erlangen lässt: »Delaneys Erfahrung in Die Turing-Option unterscheidet sich nur graduell vom normalen Arbeiten des Verstands von Minute zu Minute […]. Kein Denken – keine Innenwelt der Psyche – lässt sich begreifen außer einer Technik im Gewand eines Systems von Zeichen, die es vielleicht zu verwenden scheint, die aber eine Bedingung seiner eigenen Identität sind.« (Clark, 2000, S. 240)
Diese Passage leitet ein Verständnis von »Technik« nicht von gewaltigen Ingenieursleistungen ab, sondern von der »subtileren engen Beziehung zwischen Technik und menschlichem Denken« und insbesondere von der »engen Beziehung zwischen Technik und Sprache« (Clark, 2000, S. 240). Ein solches Verständnis von Technik greift offensichtlich auf Heideggers Denken ebenso wie auf das von Derrida und Stiegler zurück. Was Clark (2000) »originäre Technizität« nennt, heißt bei Stiegler wiederum »originäre Prosthetizität« des Menschlichen (Stiegler, 1998a, S. 98-1100). Um das besser zu verstehen, ist es hilfreich, kurz auf Stieglers Essay »The Time of Cinema« sowie auf den dritten Band von Technik und Zeit einzugehen, insbesondere auf den Abschnitt, wo er in einem Dialog mit Derrida Husserls Philosophie der Zeit überarbeitet (Stiegler, 1998b, 2001a, 2003a).7 Stieglers Philosophie der Technik basiert auf der zentralen Prämisse, dass »der Mensch stets technisch ist« (Hansen, 2003). Stiegler knüpft hier an das Werk des französischen Paläontologen André Leroi-Gourhan an, der das Erscheinen des Menschen eng mit dem Gebrauch von Werkzeugen verbindet. Auch für Stiegler entwickelt sich der Mensch zusammen mit dem Gebrauch von Werkzeugen: »Menschen sterben, doch ihre Geschichten überleben – das ist der große Unterschied zwischen der Menschheit und anderen Lebensformen. Die meisten dieser Spuren sind tatsächlich nicht im Hinblick auf die Überlieferung von Erinnerungen erzeugt worden: Ein Stück Keramik oder ein Werkzeug wurde nicht gemacht, um irgendeine Erinnerung zu überliefern, und dennoch tun sie dies, und zwar spontan. Und daher suchen die Archäologen auch nach ihnen: Sie sind oft die einzigen Zeugen der meisten uralten Episoden. Andere Spuren sind ganz spezifisch für die Überlieferung von Erinnerung bestimmt, zum Beispiel die Schrift, die Fotografie, die Fonografie und die Kinematografie.« (Stiegler, 2003a) 7 | Ich zitiere hier nach der englischen Übersetzung des 4. Kapitels von Stieglers La technique et le temps 3. Le temps du cinéma et la question du mal-être (2001a), veröffentlicht in Culture Machine (Stiegler, 2003a). Stieglers ursprüngliches Aufgreifen der Korrelation zwischen dem Menschsein und dem Technischen prägt seine Neuinterpretation von Heidegger ebenso wie sein Abweichen von Derridas Umdeutung von Heidegger (Hansen, 2004).
Federica Frabetti: Eine neue Betrachtung der Digital Humanities
Für Stiegler überträgt die Technik Spuren vergangener Ereignisse. Mark Hansen erklärt, sie sei »der Träger für die Aufnahme von Erinnerung« (Hansen, 2003) – d.h., die Technik ist immer eine Gedächtnisstütze, und nur durch die Erinnerung haben Menschen Zugang zu ihrer eigenen Vergangenheit und werden sich daher ihrer selbst bewusst oder erlangen Bewusstsein. Jedes technische Instrument registriert und überliefert die Erinnerung an seinen Gebrauch. Ein als Messer benutzter zurechtgemeißelter Stein bewahrt den Akt des Schneidens und wird somit zum Träger für Erinnerung. In diesem Sinn ist die Technik Bedingung für die Konstitution unserer Beziehung zur Vergangenheit. Kurz gesagt: Menschen »exteriorisieren« ihre Erinnerung in technische Objekte, die wiederum nichts anderes als exteriorisierte Erinnerung sind. Zudem wird die menschliche Spezies dadurch in die Lage versetzt, ihr genetisches Programm aufzuheben und sich durch andere Mittel als durch tierische Instinkte weiterzuentwickeln – um es mit Stiegler zu formulieren: »Die Technik als ›Exteritorisierungsprozess‹ ist die Fortsetzung des Lebens mit anderen Mitteln als denen des Lebens.« (Stiegler, 2009a, S. 31f.). Stiegler nennt diesen Prozess »Epiphylogenese« (2003a) Die Epiphylogenese ist die Umwandlung und Evolution der menschlichen Spezies durch ihr Verhältnis zur Technik statt nur auf der Basis ihres genetischen Programms. Indem ein technisches Objekt als Träger der Erinnerung fungiert, bildet es für Stiegler außerdem »die Bedingung für das Gegebensein der Zeit in jeder konkreten Situation« (Hansen, 2003). Aus diesem Grund behauptet Stiegler, dass Menschen sich selbst nur durch die Technik erleben können.8 Doch Stieglers Reflexionen über originäre Technizität lassen sich nicht unkritisch auf die Digital Humanities übertragen. Hier geht es vor allem um den Unterschied, den Stiegler zwischen Technik und Mnemotechnik macht. Auch wenn »Technik stets eine Gedächtnisstütze ist«, ist nicht jede Technik eine Mnemotechnik. »Die ersten mnemotechnischen Systeme erscheinen nach der Jungsteinzeit. Sie bilden das, was später die Art von Schrift wird, die wir noch heute verwenden.« (Stiegler, 2003a) Für Stiegler trägt jede Technik (z.B. die Keramik) die Erinnerung an ein vergangenes Erlebnis; doch nur Mnemotechniken (beispielsweise die Schrift) werden für den primären Zweck konzipiert, die Erinnerung an ein vergangenes Erlebnis zu tragen. Stiegler betont also das Ziel oder den Zweck verschiedener Techniken: Manche Techniken werden nur fürs Aufzeichnen konzipiert, andere nicht. Dem möchte ich nun Folgendes entgegenhalten: Die Digitalität (wie dies insbesondere softwarebasierte Techniken belegen) übersteigt Stieglers Unterscheidung zwischen Techniken und Mnemotechniken. Zwar muss diese These noch weiter untersucht werden, doch es ist wichtig, sie zuerst als Problem darzustellen. Folgt man der allgemein akzeptierten Definition von Software, die die Grundlage 8 | Eine solche Erfahrung des Selbst haben die Philosophen »Selbstliebe« (Kant) oder – und das ist besonders wichtig in Stieglers Denken – »inneres Zeitbewusstsein« (Husserl) genannt.
91
92
1. Big Digital Humanities
von Softwaretechnik darstellt, dann erfährt man, dass »Software« die Gesamtheit aller Computerprogramme ebenso wie aller geschriebenen Texte ist, die mit Computerprogrammen zusammenhängen (Humphrey, 1989; Sommerville, 1995). So schreibt z.B. Ian Sommerville, dass »Software-Techniker Teile der realen Welt in Software modellhaft nachbilden. Diese Modelle sind groß, abstrakt und komplex, und daher müssen sie sichtbar gemacht werden in Dokumenten wie Systemkonstruktionen, Nutzerhandbüchern und so weiter. Die Produktion dieser Dokumente gehört genauso zum Software-Engineering-Prozess wie das Programmieren.« (Sommerville, 1995, S. 4) 9
Nach dieser Definition kann man sich Software als eine Gesamtheit von »Dokumenten« oder »Texten« vorstellen, die in jeder Phase der Softwareentwicklung in natürlichen wie in formalen Sprachen geschrieben werden. Damit kann man Software – um es mit Stiegler zu formulieren – als Mnemotechnik verstehen. Andererseits kann man nicht sagen, dass der Hauptzweck von Software das Aufzeichnen ist, wie dies bei der Schrift oder beim Film der Fall ist. Vielmehr könnte man behaupten, der Hauptzweck von Software sei es, Dinge in der Welt geschehen zu lassen (z.B. die Polaritäten der elektronischen Schaltkreise in einem Computer zu ändern, auf dem Software läuft). Daher könnte Software der Punkt sein, an dem Stieglers Unterscheidung zwischen Technik und Mnemotechnik aufgehoben wird.10 Aber wenn die Digitalität die Unterscheidung zwischen Technik und Mnemotechnik in Frage stellt, wie soll man sich dann die Digitalität im Rahmen von originärer Technizität vorstellen? Und stellt die Digitalität nicht vor allem auch das Konzept von Schrift in Frage, auf dem die Geisteswissenschaften traditionellerweise basieren? Wenn dem so ist, kann man dann die digitalen Techniken als rein instrumentell für die Digital Humanities betrachten oder müssen die Digital Humanities nicht vielmehr den Begriff von Instrumentalität im Zusammenhang 9 | »Software« ist bislang von keiner Disziplin eindeutig definiert worden. Die Definition von Software durch Software Engineering ist jedoch ganz allgemein – wie nicht anders zu erwarten von einer Disziplin, die in den späten 1960er Jahren entstand, um Programmierern zu helfen, Software kostengünstig zu konstruieren, unabhängig von den spezifischen Anwendungen und Programmiersprachen, mit denen sie arbeiteten. 10 | Anzumerken ist, dass Stiegler im dritten Band von Technik und Zeit von der gegenwärtigen Konvergenz zwischen Technik und Mnemotechnik im allgemeinen Sinn der Konvergenz von Produktionstechniken und Informations- und Kommunikationstechniken spricht. Allerdings gehören für ihn Informations- und Kommunikationstechniken zweifelsfrei in die Rubrik Mnemotechnik – oder einer Technik, deren primäres Ziel das Aufzeichnen ist. Dagegen möchte ich einwenden, dass Stiegler, um zwischen Technik und Mnemotechnik zu unterscheiden, letztlich auf den Begriff des Ziels (oder Zwecks) der Technik zurückgreift und damit anscheinend auf den instrumentellen Begriff von Technik zurückfällt – was aber offensichtlich seinem Verständnis von Technik als originär widerspricht.
Federica Frabetti: Eine neue Betrachtung der Digital Humanities
mit Digitalität und Schrift überdenken? Um dies genauer zu erklären, lohnt es sich, auf Clarks Behauptung zurückzugreifen, dass die Verfechter der originären Technizität die Frage nach der Technik »in der subtilen engen Beziehung« zwischen Technik und Sprache ansiedeln (2000, S. 240). Laut Clark ist Jacques Derrida denn auch einer der bedeutendsten Verfechter der originären Technizität, gerade weil er »sich den radikalen Konsequenzen stellt, die damit verbunden sind, technische Objekte (und damit auch Zeichensysteme) so zu begreifen, dass sie eine Seinsweise haben, die sich dagegen verwahrt, einzig und allein als irgendeine postulierte Funktion oder als Zweck für den Menschen verstanden zu werden (ebd.). Weil Derrida sich weigert, Technik wie Sprache als instrumentell oder funktionalistisch zu erklären, widersteht er der weit verbreiteten Verunglimpfung des »bloß« Technischen im westlichen Denken. Derrida ist ja berühmt dafür, dass er in seinem ganzen Werk bei der Definition des Menschseins auf die Technik und die Bedeutung der Technizität verweist. Vor allem seine Konzeption von Technik als etwas, das sich nicht im begrifflichen Rahmen von Instrumentalität verstehen lässt, ist von seinem Verständnis von Schrift nicht zu trennen. Tatsächlich führt Derrida die Abwertung der Instrumentalität auf die berühmte Abwertung der Schrift in Platons Phaidros zurück (Derrida, 1981), die ich bereits zitiert habe. Für Derrida wie für Stiegler lässt sich die Abwertung der Instrumentalität nicht von der Abwertung der Schrift trennen. Derridas Reflexion über die Schrift ist ganz entscheidend für seine gesamte Theorie und bildet den Kern seiner Kritik an der westlichen Metaphysik. Derridas Ziel ist nicht etwa eine Umkehr von Prioritäten – nämlich der Schrift eine höhere Priorität als der gesprochenen Sprache einzuräumen –, sondern eine Kritik an der ganzen westlichen Metaphysik, die er als »logozentrisch« bezeichnet. Gayatri Chakravorty Spivak hat in der Einleitung zu ihrer englischen Übersetzung der Grammatologie darauf hingewiesen, dass Derrida mit dem Begriff »Schrift« eine ganze Untersuchungsstrategie benennt und nicht bloß »Schrift im engen Sinn« als eine Art Notation auf einem materiellen Träger versteht (Derrida, 1976, S. XIX). Somit habe Derrida Grammatologie nicht etwa deshalb geschrieben, um eine bloße Aufwertung der Schrift gegenüber der gesprochenen Sprache zu betreiben, sondern um die Unterdrückung von Schrift »im engen Sinn« als ein Symptom des Logozentrismus darzustellen, der es uns verbiete zu erkennen, dass alles von der Struktur der »Schrift im allgemeinen« durchdrungen sei – d.h., von einem ewigen Sich-Verflüchtigen des »Dings an sich«.11 Derrida behauptet, auch die gesprochene Sprache sei wie die Schrift strukturiert. Es gebe keinen strukturellen Unterschied zwischen Schrift und gesprochener Sprache – nur in der Geschichte der Metaphysik sei die Schrift unterdrückt und als Surrogat der gesprochenen Sprache interpretiert worden. 11 | Anderseits legt Derrida in der Grammatologie im Abschnitt über Lévi-Strauss dar, dass sich kein eindeutiger Unterschied zwischen Schrift im »engen« und im »allgemeinen« Sinn feststellen lasse, da die eine in die andere übergehe.
93
94
1. Big Digital Humanities
In seinem Hauptwerk Grammatologie behauptet Derrida im Kapitel »Das Ende des Buches und der Anfang der Schrift«, heute könne die Schrift nicht mehr verstanden werden als »eine besondere und abgeleitete, eine Hilfsform der Sprache im allgemeinen« oder als »die Hülle, das inkonsistente Doppel eines höheren Signifikanten, den Signifikanten des Signifikanten« (2013, S. 17). Die Schrift zu instrumentalisieren sei ein Schachzug der westlichen Metaphysik, und dies sei verbunden mit der Vorstellung, die gesprochene Sprache sei ganz gegenwärtig. Aus dieser Perspektive wird die Schrift als eine Interpretation der ursprünglichen gesprochenen Sprache verstanden, als Technik im Dienst der Sprache. Demgegenüber behauptet Derrida, Sprache könne nur ein »Modus« oder ein Aspekt der Schrift sein. Mit dem Logozentrismus stellt Derrida zugleich auch den instrumentellen Begriff von Technik in Frage. In Mémoires. Für Paul de Man erklärt er: »Es gibt keine Dekonstruktion […], die nicht mit einer Infragestellung der Dissoziation von Denken und Technik, insbesondere, wenn sie eine, sei es auch versteckte, subtile, erhabene oder verleugnete Neigung zur Hierarchiebildung zeigt, einsetzt.« (Derrida, 1988, S. 106) Somit stellt Derrida erneut ausdrücklich fest, dass die Dissoziation von Denken und Technik – wie jeder andere Dualismus – hierarchisch ist, da sie die Abwertung eines der beiden Begriffe im Dualismus impliziere, in diesem Fall der Technik. Aus diesem Grund behauptet Clark (2000), dass »originäre Technizität« als eine andere Bezeichnung für Derridas »Schrift im allgemeinen« betrachtet werden könne. So stellt Derrida in Grammatologie fest, dass »die Schrift nicht bloß ein Hilfsmittel im Dienst der Wissenschaft – und unter Umständen ihr Gegenstand – ist, sondern, woran besonders Husserl in Ursprung der Geometrie […] erinnert hat, allererst die Möglichkeitsbedingung für ideale Gegenstände und damit für wissenschaftliche Objektivität. Die Schrift ist die Bedingung der episteme, ehe sie ihr Gegenstand sein kann.« (Derrida, 2013, S. 49f.)
Diese Passage ist ganz entscheidend, um die Beziehung zu verdeutlichen, die Derrida zwischen Schrift und Denken herstellt, und damit letztlich für sein Verständnis von Technik als konstitutiv für das Menschsein. Für Derrida, erklärt Clark, »zeichnet die Schrift die Vergangenheit auf eine Weise auf, die eine neue Beziehung zu Gegenwart und Zukunft herstellt, die nun im Horizont einer historischen Zeitlichkeit und als Element von Idealität begriffen werden können« (2000, S. 241). Damit ermöglicht es uns das Schriftzeichen, eine Spur der Vergangenheit zu bewahren und ein Gefühl für Zeit zu gewinnen. Eindeutig betrachtet Derrida die Schrift – hier als Technik verstanden, als technische Fähigkeit, die Vergangenheit zu registrieren – als eine konstitutive Bedingung von Denken. Folglich lässt sich Technik nicht durch den Gegensatz zwischen technê und epistêmê verstehen, weil sie einem derartigen Gegensatz vorausgeht und ihn erst ermöglicht. Doch was würde all das für die Digital Humanities bedeuten? Genauer gefragt: Auf welche Weise würde die Umformulierung von »originärer Techni-
Federica Frabetti: Eine neue Betrachtung der Digital Humanities
zität« im Sinne von Derridas »Schrift im allgemeinen« unser Verständnis des Digitalen und seiner Beziehungen zu den Geisteswissenschaften weiterbringen? Um eine Antwort auf beide Fragen zu finden, ist es nützlich, Derridas Neuinterpretation von Leroi-Gourhans Denken in Grammatologie näher zu betrachten. In diesem Werk betont Derrida ausdrücklich, dass das begriffliche Umdenken der westlichen Denktradition heute besonders vordringlich ist. Ein solches Umdenken bezeichnet Derrida mit einer berühmten Formulierung als »das Ende des Buches« oder als das Ende der linearen Schrift. Nach Derrida befinden wir uns heute zwischen zwei Schriftzeitaltern – und daher können wir unsere Vergangenheit auf eine neue Weise uminterpretieren. Für Derrida hat Leroi-Gourhan in Le geste et la parole (deutsch Hand und Wort) nachgewiesen, dass die historische Sicht, die die Menschheit mit dem Aufkommen der Schrift verbindet (und damit Menschen »ohne Schrift« aus der Geschichte ausschließt), zutiefst ethnozentrisch ist. Tatsächlich spricht sie kurzsichtig das Merkmal von Menschlichkeit Menschen ab, denen die »Schrift« eigentlich nicht fehlt, sondern nur »ein ganz bestimmter Schrifttypus« (Derrida, 2013, S. 148) – d.h. die alphabetische Schrift. Zur Erklärung zieht Derrida Leroi-Gourhans Begriff der »Linearisierung« heran. Für Leroi-Gourhan muss das Aufkommen der alphabetischen Schrift als ein Prozess der Linearisierung verstanden werden (Leroi-Gourhan, 1993, S. 240). In seiner Analyse des Entstehens des Graphismus betont Leroi-Gourhan, was er als das unterschätzte Bindeglied zwischen figurativer Kunst und Schrift betrachtet, nämlich »dass die bildende Kunst an ihrem Ursprung unmittelbar mit der Sprache verbunden ist und der Schrift im weitesten Sinne sehr viel näher steht als dem Kunstwerk.« (S. 240) Angesichts der Schwierigkeit, die primitive figurative Kunst von Sprache zu trennen, schlägt er die Bezeichnung »Piktoideographie« für dieses allgemein figurative Denksystem vor. Er macht jedoch unmissverständlich klar, dass ein solches Denksystem nicht der Schrift »in ihrer Kindheit« entspricht (S. 244). Eine solche Interpretation würde darauf hinauslaufen, dass man an das Studium des Graphismus mit einer Mentalität herangeht, die von den viertausend Jahren der alphabetischen Schrift beeinflusst ist – was Linguisten oft tun, z.B. wenn sie Piktogramme studieren. Aber die »Piktoideographie« signalisiert gerade eine originäre Unabhängigkeit des Graphismus von der geistigen Einstellung, die die Grundlage dessen ausmacht, was Leroi-Gourhan »Linearisierung« nennt. Um den Begriff der Linearisierung besser zu verstehen, muss man von Leroi-Gourhans Begriff der Sprache als einer »Welt der Symbole« ausgehen, »die parallel zur wirklichen Welt eine Sprachwelt konstituieren, mit der sich die Realität ergreifen lässt« (S. 244). Für Leroi-Gourhan ist der Graphismus nicht von der gesprochenen Sprache abhängig, auch wenn beide demselben Bereich angehören. Das Aufkommen der alphabetischen Schrift ist für Leroi-Gourhan mit der technoökonomischen Entwicklung der Gruppe der mediterranen und europäischen Kulturen verbunden. Ab einem bestimmten Zeitpunkt während dieses Prozesses wurde die Schrift der gesprochenen Sprache untergeordnet. Davor, so Leroi-Gour-
95
96
1. Big Digital Humanities
han, hatte die Hand ihre eigene Sprache, die mit dem Sehen zusammenhing, während das Gesicht eine andere Sprache besaß, die mit dem Hören zusammenhing. »Im Stadium des linearen Graphismus, der für die Schrift charakteristisch ist, wandelt sich das Verhältnis beider Bereiche von neuem: phonetisiert und linear im Raum, ordnet sich die geschriebene Sprache vollständig der gesprochenen Sprache unter, die ihrerseits phonetisch und linear in der Zeit ist. Der Dualismus zwischen gesprochener Sprache und Graphismus verschwindet, und der Mensch verfügt über einen einheitlichen Sprachapparat, ein Instrument zum Ausdruck und zur Bewahrung eines Denkens, das seinerseits mehr und mehr in der Vernunft kanalisiert wird.« (S. 262)
Indem die Schrift ein Mittel für die phonetische Aufzeichnung der gesprochenen Sprache wird, wird sie eine Technik. Eigentlich wird sie damit auf die Stufe des Werkzeugs oder der »Technik« in ihrem instrumentellen Sinn gestellt. Als Werkzeug entwickelt sich ihre Effizienz proportional zu dem, was Leroi-Gourhan als eine »Verengung« ihrer figurativen Kraft ansieht, die gerade durch eine rigorose Linearisierung von Symbolen betrieben wird. Für Leroi-Gourhan war der »Verlust eines mehrdimensionalen symbolischen Denkens« vollzogen, »als der technische Utilitarismus in einer vollständig kanalisierten Schrift das Mittel einer unbegrenzten Entwicklung fand« (S. 264f.). Nachdem Derrida auf Leroi-Gourhans Ansicht, die phonetische Schrift sei »in einer Vergangenheit der nichtlinearen Schrift verwurzelt«, und auf den Begriff der Linearisierung der Schrift als dem Sieg »der irreversiblen Zeitlichkeit des Lautes« näher eingegangen ist, verbindet er das Aufkommen der phonetischen Schrift mit einem linearen Verständnis von Zeit und Geschichte (Derrida, 2013, S. 151f.). Für ihn ist die Linearisierung nichts anderes als die Konstituierung der »Linie« als Norm, als Modell – und doch dürfe man nicht vergessen, dass die Linie nur ein, wenn auch privilegiertes Modell ist. Das lineare Konzept der Schrift impliziert ein lineares Konzept der Zeit – d.h. einen Begriff von Zeit, die homogen und in einer kontinuierlichen geraden oder kreisförmigen Bewegung begriffen ist. Derrida greift damit auf Heideggers Argument zurück, dass dieser Zeitbegriff die ganze Ontologie von Aristoteles bis Hegel determiniere, also das ganze westliche Denken. Daher, und das ist der Hauptpunkt von Derridas These, könne »die Betrachtung der Schrift nicht länger von der Dekonstruktion der Geschichte der Philosophie getrennt werden« (S. 153). Auch diese vereinfachte Wiedergabe von Derridas Argument zeigt, dass er in seiner Neuinterpretation von Leroi-Gourhans Theorie die Beziehung des Menschen zu Schrift und Technik als konstitutiv und nicht als instrumentell für das Menschsein versteht. Die Schrift wurde zu dem, was sie ist, durch einen Prozess der Linearisierung – d.h. durch Anpassung an das Modell der Linie –, und damit ist sie zu einem Instrument der gesprochenen Sprache geworden. Da das Modell der Linie auch die Vorstellung von Zeit im westlichen Denken charakterisiert, impliziert das Infragestellen der Vorstellung von Sprache als linear das Infrage-
Federica Frabetti: Eine neue Betrachtung der Digital Humanities
stellen der Rolle der Linie als Modell und damit auch das Infragestellen des Begriffs der Zeit, die dem Modell der Linie entspricht. Damit sind außerdem die Grundlagen des westlichen Denkens in Frage zu stellen, nämlich mittels einer Untersuchungsstrategie, die Derrida »Schrift im allgemeinen« oder »Schrift im weiteren Sinn« nennt. Nun wird klar, warum – wenn wir Derridas Überarbeitung des Konzepts der originären Technizität folgen – ein neues Verständnis von Technik (die aufs engste mit Sprache und Schrift zusammenhängt) ein Überdenken der westlichen Philosophie zur Folge hat, so ehrgeizig diese Aufgabe auch sein mag. Hierzu muss festgestellt werden, dass Derrida in Grammatologie ausdrücklich hervorhebt, wie vordringlich die Neukonzeption der westlichen Denktradition gerade heute ist. Tatsächlich ist das »Unbehagen« der Philosophie im vergangenen Jahrhundert auf eine zunehmende Destabilisierung des Modells der Linie zurückzuführen. Derrida erklärt, dass das, was heute gedacht wird, nicht in ein Buch geschrieben werden kann – d.h., nicht mit einem linearen Modell durchdacht werden kann –, genauso wenig wie »die moderne Mathematik mit Hilfe einer Rechenschiebermaschine« bewältigt werden kann (S. 155). Diese Unangemessenheit betrifft nicht nur den gegenwärtigen Zeitpunkt zu, sondern rückt heute klarer denn je in den Vordergrund. Dazu Derrida: »Die Geschichte der Schrift hebt sich vom Grund der Geschichte des gramma als das Abenteuer der Verhältnisse zwischen dem Gesicht und der Hand ab. Hierzu sei jedoch mit aller gebotenen Vorsicht festgestellt, dass die Geschichte der Schrift nicht durch unser vermeintliches Wissen über das Gesicht, die Hand, den Blick, das gesprochene Wort und die Geste erklärt werden kann. Es geht vielmehr um eine Verwirrung dieses vertrauten Wissens und, von dieser Geschichte aus, um die Erneuerung der Bedeutung der Hand und des Gesichts.« (2013, S. 150)
Am wichtigsten an Leroi-Gourhans Geschichte der Schrift ist für Derrida, dass sie unser Konzept vom Menschsein problematisiert (»was wir von Gesicht und Hand zu wissen glauben«). Doch im Mittelpunkt von Derridas Werk steht nicht die konkrete Analyse historischer Schriftsysteme, da er ja »Schrift im allgemeinen« von allen derartigen Systemen unterscheidet. Im Hinblick auf meine Untersuchung der Digital Humanities hat Derridas Verständnis von dem, was Clark »originäre Technizität« nennt, zwei wichtige Implikationen. Einerseits bestätigt es die grundlegende Beziehung zwischen Technik und Menschsein und befürwortet ein radikales Infragestellen beider Konzepte in den Digital Humanities. Andererseits lässt Derrida offen, wie denn eine historisch spezifische Technik zu untersuchen sei, ohne ihre Bedeutung für ein radikales Überdenken der Beziehung zwischen Technik und Menschsein aus dem Auge zu verlieren. Tatsächlich ermöglicht Stieglers Neuinterpretation von Derridas Denken in Technik und Zeit eine solche Untersuchung. Dies möchte ich nun ein wenig genauer analysieren. Wie Stiegler betont, transformiert das Aufkommen der Technik der linearen Schrift die Weitergabe von Kultur von Generation zu Generation radikal. Ja, aus
97
98
1. Big Digital Humanities
der Sicht des vorsokratischen Denkens, das nicht von der Unsterblichkeit der Seele ausgeht, können die Toten dennoch als Gespenster zurückkehren, die ein Erbe weitergeben, und ein solches Erbe soll von einem Geist (esprit) kommen, der Generationen übergreift. So also haben sich die Vorsokratiker die Weitergabe von Kultur vorgestellt. Im Gegensatz dazu ermöglicht das Aufkommen der linearen Schrift die Weitergabe von Kultur »als ein einheitlicher Geist, und zwar genau durch die durch Literalisierung bewirkte Vereinheitlichung von Sprache« (1998a, S. 154). Stiegler bezieht sich hier auf Leroi-Gourhans und Derridas Denken und erklärt nachdrücklich, dass das Aufkommen des Modells der Linie die Weitergabe von Kultur ebenso wie die Denkweisen verändert habe. Laut Stiegler sind die Sophisten ein Nebenprodukt dieses Prozesses. Zwischen dem siebten und dem fünften vorchristlichen Jahrhundert erscheinen die Grammatisten, die Meister der Schrift, und später die Sophisten, die »systematisch eine Technik von Sprache entwickeln, die rasch eine kritische Dimension annimmt, insoweit diese Technik einer entwickelten Sprache wiederum eine moralische Krise auslösen wird« (S. 155). Somit ist die Sophistik nicht eine mündliche Technik, sondern setzt die Schrift voraus.12 Dementsprechend kritisiert Platon die Sophisten, weil sie zwar gut zu sprechen vermögen, »aber alles auswendig lernen, mittels dieser techno-logischen ›hypomnesis‹, d.h. der Logographie, des vorausgehenden Aufschreibens von Reden. Weil die Schrift existiert, können die Sophisten die anscheinend ›orale‹ Technik der Sprache erlernen, die die rhetorische Konstruktion ist« (ebd.). Im Dialog Ion stellt Platon sogar eine Verbindung zwischen den Dichtern und den Sophisten her und behauptet, sie würden beide Falsches verbreiten: »Sophisten, Dichter, sind nur Lügner, und das heißt so viel wie Techniker« (ebd.). Dieses starke Bild vom Techniker als Lügner ist der Inbegriff von Platons Abwertung von Technik und Schrift. Zusammenfassend weist Stiegler darauf hin, dass die Frage nach der Technik, die als Objekt von Unterdrückung betrachtet wird, »eine Frage ist, die mit und durch ihre Anprangerung durch Platon aufkommt« (ebd.). Sie stellt sich »vor allem als Verleugnung und in diesem Sinn somit als eine Art von Vergessen« ein – und das ist doch recht paradox, da Platon in Phaidros der Technik ja gerade ihre Kraft des Vergessens vorwirft (ebd.). Andererseits kann man sagen, dass die Frage nach der Technik lange vor Platon aufkommt – wie wir gesehen haben, im Zusammenhang mit der Umwandlung der griechischen Stadtstaaten, die mit der Entwicklung der Seefahrt, des Geldes und vor allem der Mnemotechnik verbunden ist, d.h. von Techniken, die die Bedingungen des sozialen und politischen Lebens sowie des Denkens umzuwandeln vermögen. Letztlich haben technê und epistêmê – also Technik und Wissen – eine gemeinsame Beziehung zur Schrift, der grundlegenden Mnemotechnik. Mnemotechnik und Technik im Allgemeinen weisen wiederum eine konstitutive Verbindung mit der Zeitlichkeit auf. 12 | Stieglers Behauptung spiegelt Derridas Argument wider, dass wir einen Sinn für Schrift haben müssen, um einen Sinn für Mündlichkeit zu haben.
Federica Frabetti: Eine neue Betrachtung der Digital Humanities
Stieglers Verständnis der Transformation von Technik im Lauf der Zeit hängt ganz entscheidend mit seiner »Distanzierung« von der Dekonstruktion zusammen, die auch zum Bruch mit Heidegger führt (Hansen, 2003). Dazu Stiegler: »Nehmen wir zum Beispiel an, dass ich nachts den Satz schreibe: ›Es ist dunkel.‹ Zwölf Stunden später lese ich diesen Satz wieder und sage mir: Moment mal, es ist doch nicht finster, es ist hell. Damit beginnt für mich die Dialektik. Was soll hier geschehen? […] Was das Bewusstsein zum Selbstbewusstsein macht (das heißt zum Bewusstsein, das sich des Widerspruchs mit sich selbst bewusst ist), ist doch die Tatsache, dass das Bewusstsein fähig ist, sich zu veräußerlichen.« (Stiegler, 2003b, S. 163)
Diese Passage ist äußerst wichtig, da sie das Konzept der technischen Konstitution des Bewusstseins umformuliert, das Clark in seiner Analyse des Romans Die Turing-Option analysiert (Clark, 2000, S. 240). Hier wird das, was Stiegler – und vor ihm Leroi-Gourhan – »Exteriorialisierung« nennt (das, was die Grundlage für Selbstbewußtsein konstituiert), eindeutig durch die Schrift betrieben. Da schreibt man »es ist dunkel«, und wenn man das zwölf Stunden später erneut liest, ist es hell. Dies erzeugt, wie Stiegler selbst weiter ausführt, »einen Widerspruch zwischen Zeiten«, nämlich der Zeit des Bewusstseins, wenn man dies schreibt, und der Zeit des Bewusstseins, wenn man dies erneut liest. Und doch hat man noch immer dasselbe Bewusstsein, das daher »in eine Krise gestürzt« wird (Stiegler, 2003b, S. 163), und diese Krise wiederum erhöht das Selbstbewusstsein. Der Akt des Einschreibens – d.h. der Exteriorialisierung – konstituiert letztlich die Innerlichkeit, die nicht der Äußerlichkeit vorausgeht, und umgekehrt. Wie ich bereits erklärt habe, konstituiert für Stiegler (der sich hier erneut auf Leroi-Gourhan beruft) der Prozess der Exteriorialisierung die Grundlage der Zeitlichkeit, der Sprache und der technischen Produktion, und dies erfordert eine grundlegende neurologische »Kompetenz« – d.h., ein bestimmtes »Level der angemessenen kortikalen und subkortikalen Organisation« (S. 164). An diesem Punkt weicht Stiegler fundamental von Derridas Theorie ab. Durch dieses Abweichen schafft er die Grundlage für das konkrete Studium historisch spezifischer Techniken, die von grundlegender Bedeutung für das Verständnis der konstitutiven Beziehung zwischen Technik und Menschsein sind. Um dies näher zu erläutern, müssen wir Stieglers Interpretation des Mythos von Prometheus und Epimetheus kurz untersuchen. Dem Mythos zufolge beauftragt Zeus Prometheus damit, Eigenschaften und Kräfte an die Lebewesen zu verteilen, aber Prometheus überlässt es seinem Zwillingsbruder Epimetheus, an seiner Statt zu handeln. Epimetheus verteilt alle Eigenschaften an die Lebewesen, vergisst aber, mindestens eine für den Menschen aufzuheben. Die Menschen sind hier somit anscheinend durch einen »Mangel an Eigenschaft« charakterisiert (Stiegler, 2003b, S. 156). Stiegler bemerkt dazu, dass der Mensch »ein Mangelwesen ist, ein Wesen, das durch seinen eigenen ursprünglichen Fehler oder Mangel gekennzeichnet ist, also sozusagen an einem ursprünglichen Handicap leidet«
99
100
1. Big Digital Humanities
(S. 156). Aus diesem Grund beschließt Prometheus, die Technik – nämlich das Feuer – zu stehlen und sie den Menschen zu geben, damit sie befähigt sind, Artefakte zu erfinden und somit alle Eigenschaften selbst zu entwickeln. Mit der Gabe der Technik entsteht ein Problem: Die Sterblichen können sich nicht darauf einigen, wie die Artefakte zu nutzen seien, und daher beginnen sie miteinander zu kämpfen und einander zu vernichten. Oder wie es Stiegler formuliert: »Ihnen wird die Verantwortung für ihr eigenes Schicksal übertragen, doch nichts sagt ihnen, was dieses Schicksal ist, weil der Mangel [défaut] des Ursprungs auch ein Mangel des Zwecks oder Ziels ist.« (S. 156) Stieglers Bearbeitung des Mythos beweist eindeutig, dass für ihn die Technik das Problem der Entscheidung aufwirft und dass diese Begegnung des Menschen mit der Entscheidung wiederum die Zeit konstituiert – oder vielmehr das, was Stiegler »technische Zeit« nennt. Die technische Zeit entsteht, weil Menschen ihre Fähigkeit erfahren, durch Entscheidungen einen Unterschied in der Zeit zu machen. Zeitlichkeit ist genau dieses Eröffnen der Möglichkeit einer Entscheidung, die auch die Möglichkeit ist, das Unvorhersehbare, das Neue zu erschaffen. Genau aus diesem Grund ist das historisch Spezifische der Technik von zentraler Bedeutung für Stieglers Denken. Die Fähigkeit des Menschen zu entscheiden, »was werden soll«, konstituiert die Zeitlichkeit. Darüberhinaus bildet die menschliche Prothetizität – d.h. die Tatsache, dass Menschen zum Überleben nichtlebendige Organe wie Häuser, Kleider, zugespitzte Feuersteine und all das benötigen, was Stiegler »organisierte anorganische Materie« nennt – die Basis für das Gedächtnis oder spezifischer für das technische Gedächtnis. Im Unterschied zum genetischen und individuellen Gedächtnis deckt sich das technische Gedächtnis mit dem Prozess der Exteritorialisierung, der »die Übertragung der individuellen Erfahrung von Menschen von Generation zu Generation ermöglicht, was in der Tierwelt undenkbar ist« (S. 159). Diese ererbte Erfahrung nennt Stiegler »die Welt« – eine Welt, die stets schon heimgesucht worden ist von den »Geistern« im vorsokratischen Sinn und immer schon von den Erinnerungen anderer konstruiert worden ist. Ich möchte hier betonen, dass Stieglers Denkansatz äußerst hilfreich ist, um die Notwendigkeit zu kontextualisieren, aus der Sicht der Digital Humanities Entscheidungen im Hinblick auf die Technik zu treffen. Tatsächlich wirken sich solche Entscheidungen nicht bloß auf die Technik aus, sie verändern auch unsere Erfahrung von Zeit, unsere Denkweisen und letztlich unser Verständnis dessen, was es bedeutet, Mensch zu sein. Wird Technik als originär verstanden, konstituiert sie unser Gefühl von Zeit – oder vielmehr: Wir erlangen ein Gefühl von Zeit und Erinnerung und damit von dem, was wir sind, nur durch Technik. Jede Veränderung in der Technik wiederum verändert unser Gefühl von Zeit, und dies verändert dann die Bedeutung, die wir der Tatsache beimessen, Mensch zu sein. Ich habe hier zu zeigen versucht, dass die Digital Humanities kritisch über Digitalität nachdenken müssen, indem sie vor allem zuerst die Annahmen der
Federica Frabetti: Eine neue Betrachtung der Digital Humanities
Rationalität in Frage stellen, die der Digitalität zugrundeliegen. Das Modell (oder die Modelle) von Rationalität, auf der digitale Techniken basieren, lässt sich nicht fraglos in die Geisteswissenschaften »importieren«. Das gilt auch für die Vorstellung von Instrumentalität. Tatsächlich sind die Digital Humanities einerseits der ideale Ort, um die wechselseitige Kokonstitution von Technik und Menschsein zu untersuchen. Die originäre Verbindung zwischen Technik und Sprache rückt die Technik ins Zentrum der Geisteswissenschaften. Andererseits müssen die Besonderheiten singulärer Begegnungen zwischen Beispielen digitaler Techniken und Beispielen der Geisteswissenschaften untersucht werden. Um Gary Hall zu paraphrasieren: Digital Humanities werden immer dann betrieben, wenn sich die Geisteswissenschaften mit Beispielen von Digitalität befassen – sei es eine OpenAccess-Datenbank, ein Blog oder ein Algorithmus (Hall, 2007). Ein solches radikales Sich-Einlassen auf Digitalität soll keineswegs das laufende Experiment der Geisteswissenschaften mit Digitalität unterbrechen. Allerdings erfordert es eine kritische Reflexion über Digitalität (z.B. über die konzeptuellen Grundlagen der Algorithmen, die wir verwenden), während wir mit ihr experimentieren. Vor allem aber könnten die Digital Humanities in einer Welt, in der die Universität immer mehr nur zu einer weiteren wissensbasierten, von Effizienz und Flexibilität geleiteten Organisation wird, der ideale Kontext werden, in dem der Universität erneut die Rolle einer öffentlichen Sphäre zugewiesen wird. Das Infragestellen von Instrumentalität ist ein wesentlicher Schritt hin zum Infragestellen der Vorstellung von Wissen als Ware und der »neoliberalen Logik, die Schulen und Hochschulen als Malls, Schüler und Studenten als Konsumenten und Lehrkörper und Fakultäten als Unternehmen betrachtet« (Giroux, 2010). Wenn akademische Arbeit der Instrumentalität widerstehen muss, um politisch zu bleiben, dann werden die Digital Humanities zum idealen Ort für eine beharrliche Kritik an allen instrumentellen Denkweisen.
L iter atur Aristoteles: Nikomachische Ethik, in: Philosophische Schriften in sechs Bänden, Bd. 3, Hamburg 1986. Beardsworth, Richard: »From a Genealogy of Matter to a Politics of Memory: Stiegler’s Thinking of Technics«, in: Tekhnema 2, 1995. http://tekhnema.free. fr/2Beardsworth.htm. Ders.: Derrida and the Political, New York 1996. Clark, Timothy: »Deconstruction and Technology«, in: N. Royle (Hg.): Deconstructions. A User’s Guide, Palgrave 2000, S. 238-257. Derrida, Jacques: Of Grammatology, Baltimore 1976 (deutsch: Grammatologie, Frankfurt a.M. 122013). Ders.: »Plato’s Pharmacy«, in: Dissemination, Chicago 1981, S. 63-171. Ders.: Mémoires. Für Paul de Man, Wien 1988.
101
102
1. Big Digital Humanities
Drucker, Johanna: SpecLab: Digital Aesthetics and Projects in Speculative Computing, Chicago und London 2009. Giroux, Henry A.: »Public Values, Higher Education and the Scourge of Neoliberalism: Politics at the Limits of the Social«, in: Culture Machine, Interzone, 2010. www.culturemachine.net/index.php/cm/article/view/426/444. Hall, Gary: Culture in Bits: The Monstrous Future of Theory, London und New York 2002. Ders.: »IT, Again: How to Build an Ethical Virtual Institution«, in: Simon M. Wortham und Gary Hall (Hg.): Experimenting: Essays with Samuel Weber, New York 2007, S. 116-140. Hansen, Mark: »›Realtime Synthesis‹ And The Différance of The Body: Technocultural Studies In The Wake Of Deconstruction«, in: Culture Machine 5, 2003. www.culturemachine.net/index.php/cm/article/view/9/8. Harry, Harry, und Minsky, Marvin: The Turing Option, London 1992. Humphrey, Watts S.: Managing the Software Process, Harlow 1989. Kittler, Friedrich A.: Aufschreibesysteme 1800-1900, Freiburg i.Br. 2003. Leroi-Gourhan, André: Hand und Wort. Die Evolution von Technik, Sprache und Kunst, Frankfurt a.M. 1988. Liu, Alan: Local Transcendence. Essays on Postmodern Historicism and the Database, Chicago und London 2008. Parry, Richard: »Episteme and Techne«, in: E.N. Zalta (Hg.): The Stanford Encyclopedia of Philosophy, 2003. http://plato.stanford.edu/archives/sum2003/entries/ episteme- techne/: non-pag. Platon: Phaidros, in: Sämtliche Dialoge, Bd. 2, Hamburg 1988. Ders.: Der Staat, in: Sämtliche Dialoge, Bd. 5, Hamburg 1988. Sommerville, Ian: Software Engineering, Harlow 1995. Stiegler, Bernard: Technics and Time, 1: The Fault of Epimetheus, Stanford, CA, 1998a (deutsch: Technik und Zeit 1. Der Fehler des Epimetheus, Zürich 2009a). Ders.: »The Time of Cinema: On the ›New World‹ and ›Cultural Exception‹«, in: Tekhnema: Journal of Philosophy and Technology 4, 1998, S. 62-118. Ders.: La Technique et le temps 3. Le temps du cinéma et la question du mal-être, Paris 2001a. Ders.: »Derrida and Technology: Fidelity at the Limits of Deconstruction and the Prosthesis of Faith«, in Tom Cohen (Hg.): Jacques Derrida and the Humanities: A Critical Reader. Cambridge 2001b, S. 238-270. Ders.: »Our Ailing Educational Institutions: The Global Mnemotechnical System«, in: Culture Machine 5, 2003a. www.culturemachine.net/index.php/cm/article/ viewArticle/258/243. Ders.: »Technics of Decision: An Interview«, in: Angelaki 8 (2), 2003b, S. 151-168. Ders.: Technics and Time 2: Disorientation, Stanford, CA, 2009.
2. Geschichte und Theorie der Daten
Die Konstruktion von Big Data in der Theorie Tom Boellstorff
E inleitung »Wegbereitende viktorianische historische Darstellungen der britischen Presse, die zwischen 1850 und 1887 erschienen […], knieten am Altar der Technik, als sie die Anfangsbuchstaben von Newspaper Press groß schrieben […] Klügere und skeptischere [spätere Autoren] hörten auf, ›Newspaper Press‹ mit Großbuchstaben zu schreiben. Vielleicht sollten wir das auch in Bezug auf das ›Internet‹ tun.« (Curran, 2012, S. 34, 60)
Wir leben in einer Zeit, in der »Big Data« die Gesellschaft verwandeln werden. So behauptet es zumindest der Hype. Wie jeder Mythos ist auch das derzeitige Trara um Big Data überzogen, enthält aber ein Körnchen Wahrheit. Dagegen ließe sich relativ leicht einwenden: Es gibt kein einheitliches Phänomen »Big Data«. Es gibt keine einzigartige Form von »Gesellschaft«. Und so weiter. Doch Big Data haben ganz reale Auswirkungen und verdienen unsere ganze Aufmerksamkeit. Vielleicht haben Sie bemerkt, dass ich »Big Data« nicht mit Großbuchstaben schreibe. Dies ist mein erster theoretischer Einstieg in einen theoretischen Aufsatz, der so tief von der Geschichte geprägt ist. Wie James Curran oben festgestellt hat, gibt es einen historischen Background für Praktiken der Großschreibung in Bezug auf die Technik – und es hat einen gewissen Wert, Big Data als Gattungsnamen zu behandeln, der für eine Umgestaltung anfällig ist. Mein Ziel ist es, vier Möglichkeiten für eine Umgestaltung zu erkunden, die zur »großen Theorie« beitragen können, die wir im Hinblick auf Big Data so dringend benötigen. Ich gehe bei diesen Erkundungen von meinem primären fachlichen Background, der Anthropologie, aus, ziehe dazu aber auch andere Gebiete zu Rate: die Etymologie ebenso wie die Ethnografie, die Philosophie ebenso wie die Wissenschaftsforschung. Dieser Aufsatz hat seinen Ursprung im Interesse an Begriffen, das mich bei meiner Arbeit über digitale Kultur und auch bei meiner früheren Forschung über die Sexualität in Indonesien stets begleitet hat (z.B. Boellstorff, 2005, 2007, 2008,
106
2. Geschichte und Theorie der Daten
2012). Es gibt jedoch auch ein näher liegendes Motiv: die Affäre um Edward Snowden 2013. Seine Enthüllungen über das Ausspähen von »Metadaten« durch die National Security Agency entfachten eine lebhafte Debatte über Big Data, Überwachung und das Gemeinwohl – eine Debatte, die zu dem Zeitpunkt, da ich dies schreibe, noch nicht verstummt ist (beim ersten Entwurf dieses Aufsatzes saß Snowden noch am Moskauer Flughafen fest). An verschiedenen Stellen werde ich auf Aspekte der Snowden-Affäre und die damit verbundenen umfassenden Diskussionen zurückkommen. Dieser Aufsatz hat viel mit Begriffen zu tun: Ich bin weniger daran interessiert, abschließende Urteile anzubieten, als Gespräche zu eröffnen. Ich werde Begriffe entwickeln wie »überholte Theorie«, »metastasierende Daten«, »Dialektik von Überwachung und Anerkennung« und »faule Daten«. Der Titel »Erstellen von big data – in der Theorie« verweist auf die Themen »Erstellen« und »Theorie«, von denen hier immer wieder die Rede sein wird. Eine Analyse von über 27.000 sozialwissenschaftlichen Artikeln, die zwischen 2000 und 2009 erschienen, fand heraus, dass »nur etwa 30 Prozent von Internetstudien eine oder mehrere theoretische Quellen zitieren, was die Vermutung nahelegt, dass Internetstudien im vergangenen Jahrzehnt nur eine bescheidene theoretische Basis hatten« (Peng et al., 2012, S. 655). Gerade dann besteht ein erheblicher Bedarf an Theoretisierung, wenn sich entwickelnde Datenkonfigurationen Begriffe scheinbar überflüssig machen könnten – nämlich um zu unterstreichen, dass es außerhalb der Welt der Begriffe keinen archimedischen Punkt der reinen Daten gibt. Daten haben stets theoretische Rahmenbedingungen als Grundvoraussetzung ihres Erstellens. Wer konkret mit Big Data arbeitet, weiß: Auch wenn sie »aufschlussreich sein können, sind sie doch nicht unproblematisch. Jeder Datensatz erweist sich als begrenzte Darstellung der Welt.« (Loudon et al., 2013, Unveröffentl. Manuskript. o.S.) Es steht viel auf dem Spiel. Die algorithmische Lebensweise löst gerade die künstliche Intelligenz als die Modalität ab, nach der die Computertechnik die Gesellschaft gestaltet: Aus einem Paradigma der Semantik, des Verstehens wird ein Paradigma der Pragmatik, der Suche.1 Beim Übersetzen mit Hilfe von Computerprogrammen etwa versucht man keineswegs einen Computer dazu zu bringen, eine Sprache auf intelligente Weise zu verstehen – Systeme wie Google Translate beispielsweise gleichen Texte aus einem riesigen Korpus ab, ohne dass der Computer jemals »weiß«, was da gesagt wird. Historisch gesehen war dieser Mangel an Wissen ein Problem, über das man diskutierte, etwa beim Gedankenexperiment des »Chinesischen Zimmers«. Es stellte in Frage, dass ein Mensch, der in einem Zimmer eingesperrt ist und Anweisungen auf Englisch bekommt, um chinesische Schriftzeichen zu verwenden, Chinesisch versteht (Searle, 1980; siehe z.B. Collins, 1990). Aber während man natürlich noch immer über die Möglichkeit von künstlicher Intelligenz debattiert, ist es doch überaus erstaunlich, wie sehr solche Fragen ad acta gelegt worden sind. Darüber hinaus machen auf1 | Mehr über die »algorithmische Lebensweise« bei Mainwaring und Dourish, 2012.
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
kommende Paradigmen einer algorithmischen Lebensweise es möglich auf, dass Pragmatik und Semantik konvergieren könnten, dass das »Nutzen« der »Sinn« sein werde, auf den es in einem angeblich neuen Zeitalter der Big Data ankomme. Die Big Data – dieser riesige und sich ständig verändernde Korpus – stehen somit im Zentrum der Vorstellung, dass eine Hinwendung zur algorithmischen Lebensweise nahe sei, auch wenn dieser Begriff relativ neu sein mag. Der Begriff »Big Data« geht wahrscheinlich informell auf die 1990er Jahre zurück, taucht erstmals in einer akademischen Publikation von 2003 (Lohr, 2013) auf, erlangt aber breitere Legitimität erst um 2008 (Lohr, 2012; siehe Bryant et al., 2008). Gleichwohl haben die Big Data in weniger als einem Jahrzehnt eine Vormachtstellung in vielen Bereichen des technischen Sektors, des Wissenschaftsbetriebs und darüber hinaus erlangt. Gewaltige Subventionen, private und öffentliche Arbeitskraft sowie unternehmerisches, staatliches und militärisches Kapital fließen inzwischen in die Generierung, Erfassung und Analyse von Big Data. Die Geistesund Sozialwissenschaften werden mit Gefahren wie Chancen konfrontiert, nicht zuletzt weil die »Ethnografie« oft als das Andere gegenüber den Big Data dargestellt wird, was wiederum faszinierende Fragen hinsichtlich ihrer Rekombination aufwirft (Manovich, 2011). Es ist von großer Bedeutung, dass eine lebhafte theoretische Diskussion diese aufkommenden Paradigmen gestaltet, denn die »Big Data« stehen im Begriff, eine wichtige Rolle bei der wechselseitigen Konstitution von Technik und Gesellschaft im 21. Jahrhundert zu spielen.
Ü berholte Theorie Auffällig sind räumliche Metaphern von Mobilität und Omnipräsenz in den Diskussionen über Big Data, aber Big Data sind auch ein überaus zeitliches Phänomen, mit dem sich Debatten über Zeit, Technik und Theorie befassen. Denken Sie nur daran, dass ich über die Snowden-Affäre rede, obwohl sich diese Ereignisse zu dem Zeitpunkt, wenn dieser Aufsatz erscheint, verändert haben werden. Was bedeutet es zu sagen, dass dieser Artikel zu dem Zeitpunkt, da Sie ihn lesen, veraltet sein wird? Habe ich damit seine Nützlichkeit eingeschränkt – wird er 2014 oder gar 2024 interessant sein? Könnte es irgendwie relevant sein hinterherzuhinken? Ich möchte gern ein wenig bei diesem Problem des Zeitgemäßen verweilen, einem Problem, das stets hinter Diskussionen über Big Data und das Digitale generell hinterherhinkt und den Einfluss der Analyse gefährdet. Ich möchte gern über den Wert von Argumenten nachdenken, deren Zeit abgelaufen ist, die unzeitgemäß sind (Grosz, 2004) – die überholt sind. Um die Zusammenhänge zwischen Big Data, Darstellung, Überwachung und Anerkennung anzusprechen, ist es wichtig, dass ich den Begriff »überholte Theorie« entwickle. Meine Vorstellung von »überholter Theorie« basiert auf der Begriffsgeschichte von Daten. Als er dem Aufkommen des Begriffs im 17. und 18. Jahrhundert
107
108
2. Geschichte und Theorie der Daten
nachging, stellte Daniel Rosenberg fest, Daten seien »der Plural des lateinischen Wortes datum, das wiederum das Neutrum des Partizips Perfekt des Verbs dare, geben, ist. Ein ›Datum‹ […] ist somit etwas Gegebenes, etwa in einem Argument, etwas, das für selbstverständlich gehalten wird« (Rosenberg, 2013, S. 18). Wenn ich aber im Englischen einen Zusammenhang zwischen »data« und »dated« (deutsch: veraltet, überholt) erkenne, ist das durchaus nicht falsch. »Date« geht auch auf das lateinische Wort datum gleich »Datum« zurück – die gemeinsame Etymologie verweist auf eine buchstäbliche Entsprechung:2 »Im klassischen Latein wurde das Datum eines Briefs durch eine Formulierung wie data xviii K. Maias de Tarentino, ›abgeschickt von Tarentum am 18. April‹, ausgedrückt. Somit wurde data, das erste Wort der Formel, als Begriff für Zeit und Ort verwendet, die darin genannt wurden.« (OED, 2013a)
»Data«, Daten, werden also seit langem mit »Zeit und Ort« des Absenders eines Briefes verbunden – mit dem, was man heute »Metadaten« nennt, die ja in der Snowden-Affäre ein zentrales Thema darstellen. Mit dem Begriff »überholte Theorie« (dated theory) möchte ich betonen, dass Daten immer auch ein zeitliches Gebilde sind – »Daten« haben stets ein »Datum«, das Einfluss auf ihren Wahrheitsanspruch hat. Der Begriff der überholten Theorie ist nützlich aufgrund gewisser Ängste, nämlich »dass wir alle in der Zeit, die erforderlich ist, um ein bedeutsames Forschungsprojekt zu formulieren, zu finanzieren, durchzuführen, zu überarbeiten und zu veröffentlichen, befürchten müssen, dass Veränderungen im Medienmilieu unsere Arbeit obsolet machen« (Karpf, 2012, S. 640). Ich teile zwar Karpfs Skepsis gegenüber dieser Ansicht, doch eins trägt eindeutig zu einer derartigen Besorgnis bei, nämlich der Gedanke, dass der Wert einer Analyse von ihrer Antizipation abhängig sei. Dieser Gedanke wird von positivistischen Traditionen, die wissenschaftlichen Wert mit vorausschauenden Gesetzen gleichsetzen, ebenso wie von der vom Hype erfüllten Rhetorik der Selbstdarsteller im Silicon Valley geprägt, die so sehr auf »Trending« stehen. Diese Rhetorik wirkt sich auch auf Wissenschaft und Forschung aus: »Die vorherrschende Zeitform […] ist die der allernächsten Zukunft. Das heißt, Motive und Rahmenbedingungen […] bilden eine allernächste Zukunft ab, die gleich hinter der nächsten Ecke lauert.« (Dourish und Bell, 2011, S. 23) Das erinnert an die rhetorische Figur der Prolepsis, das literarische Mittel der »Vorausblende«, wie es in einer Formulierung wie »Du bist ein toter Mann« verwendet wird, die ein Killer gegenüber dem Menschen gebraucht, den er gleich ermorden wird (Boellstorff, 2011). Gegenüber den proleptischen zeitbezogenen Fantasievorstellungen, die Big Data oft begleiten, kann es hilfreich sein, sich daran zu erinnern, dass die Wis2 | In manchen indogermanischen Sprachen wie Deutsch hat Datum noch diese zeitliche Bedeutung. Ich danke Axel Bruns, dass er mich daran erinnert hat.
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
sensproduktion sich nie vom Wissensproduzenten trennen lässt. Eine Auseinandersetzung mit überholter Theorie ist zugleich eine Auseinandersetzung mit überholten Theoretikern. Denken Sie nur an die gut dokumentierte zeitgebundene Politik der Anthropologie. Die großenteils der Kolonialzeit entstammende Anthropologie wurde beherrscht von einer »Leugnung der Zeitgenossenschaft […], einer beharrlichen und systematischen Tendenz, die Belege der Anthropologie in eine andere Zeit als die Gegenwart des Produzenten des anthropologischen Diskurses zu versetzen« (Fabian, 1983, S. 31). Innerhalb der Anthropologie ist diese Tendenz entschieden kritisiert worden: Der Begriff der »Rettungsanthropologie« stammt von 1970 (Gruber, 1970), und es gibt viele Forderungen, die »Wildennische« zu überwinden, der die Anthropologie traditionell ihr Forschungsobjekt zuweist, und »eine Anthropologie der Gegenwart besser zu verankern» (Trouillot, 1991, S. 40). Diese selbstbezogenen Debatten prägen eine Kritik der vorherrschenden zeitbezogenen Fantasievorstellung ihrer Fachleute. Dies ist der Tropus, den man vielleicht am ehesten durch das mythische Bild des Wegbereiters Bronisław Malinowski kennt: Ein einsamer Anthropologe landet auf einer tropischen Insel und »entdeckt« einen »abgeschiedenen« Stamm, dessen Lebensweise sich anscheinend seit Jahrhunderten nicht verändert hat (ein Bild, mit dem ich gespielt und das ich in Frage gestellt habe, siehe Boellstorff, 2008, S. 3-4). Der berühmte Cartoon »Far Side« von Gary Larson, auf dem eine Gruppe von »Eingeborenen« in panischer Hast ihre Fernseher und andere technische Geräte versteckt, als ein Kanu mit zwei Anthropologen landet, ist nur ein weiteres Beispiel dafür, wie hartnäckig sich dieser Tropus hält. Noch immer werden einige Ethnografen von dieser zeitbezogenen Fantasievorstellung motiviert. Aber die Kritik, so unvollständig sie sein mag, zeitigt bereits Konsequenzen: Um von seinem Beruf leben zu können, muss ein Ethnograf inzwischen auch Phänomene wie Immigration, Wissenschaftler oder schwule Indonesier studieren. Vor allem ist man sich weitgehend darin einig, dass die Einbeziehung der Subjektivität des Forschers seine Forschungen wissenschaftlicher, stabiler und ethischer macht. Dagegen hat man sich noch kaum mit der zeitbezogenen Fantasievorstellung von Forschern auseinandergesetzt, die sich mit Big Data befassen. Wie also prägt die Zeit ihre Subjektivität und das Erstellen von Big Data? Möglicherweise besteht ihre zeitbezogene Fantasievorstellung nicht darin, dass sie in der Vergangenheit herumgraben, sondern in eine gar nicht so nahe Zukunft vorausschauen – eine ferne Zukunft, die sich vorhersagen und sogar proleptisch antizipieren lässt. Und wie sieht die paradigmatische Figur dieses Forschertyps aus? Ein Kandidat könnte Hari Seldon sein, der Protagonist in Isaac Asimovs klassischer Science-Fiction-Romantrilogie Foundation. Seldon, der bedeutendste »Psychohistoriker«, wird zwanzigtausend Jahre in der Zukunft vom Galaktischen Imperium vor Gericht gestellt. Sein Verbrechen ist die Antizipation: Er droht eine Panik auszulösen, weil er das, was wir Big Data nennen können, dazu benutzt, um den Untergang des Imperiums »auf der Grundlage der Mathematik der Psychogeschichte«
109
110
2. Geschichte und Theorie der Daten
(Asimov, 1951, S. 26) vorherzusagen. Seldon bringt zu seiner Verteidigung vor, er versuche eine »Encyclopedia Galactica« zu schaffen, um die anschließende Zeit der Anarchie abzukürzen: »Indem ich das Wissen der Rasse rette. Die Summe menschlichen Wissens reicht weit über einen einzelnen Menschen, ja über tausend Menschen hinaus. Mit der Zerstörung unserer sozialen Struktur wird die Wissenschaft in Millionen Teile zerbrochen […]. Doch wenn wir jetzt eine riesige Zusammenfassung allen Wissens vorbereiten, wird es nie verloren gehen.« (Asimov, 1951, S. 28)
Asimovs Vorwegnahme von Wikipedia, seine Vision dessen, was wir so anachronistisch wie treffend als »Big Data als Social Engineering« bezeichnen können, steht im Einklang mit einem zeitgenössischen Kontext, in dem »die Entwicklung algorithmischer Berechnungen […] einen wichtigen Zug signalisiert – vom Bemühen, künftige Trends auf der Basis starrer statistischer Daten vorherzusagen, zu einem Mittel, der Zukunft zuvorzukommen« (Amoore, 2009, S. 53). Nun möchte ich freilich nicht behaupten, dass alle, die mit Big Data arbeiten, Asimov gelesen haben oder Hari Seldon sein wollen, genauso wenig wie alle Ethnografen einen »unberührten« Eingeborenenstamm entdecken möchten. Ich meine vielmehr, dass wir nicht bloß Big Data »datieren« müssen, sondern auch die zeitbedingten Fantasievorstellungen, welche diejenigen prägen, die diese Daten nutzen. So ist beispielsweise in Forschungsprojekten über das Digitale der Gebrauch von Begriffen wie »Zeitalter«, »Äras« und »Epochen« nahezu allgegenwärtig. Umstritten etwa sind solche »Formulierungen, mit denen man sich das Digitale im Sinn von epochalen Veränderungen vorstellt« (Ruppert et al., 2013, S. 22) – weil z.B. »der Begriff Digitales Zeitalter Medienhierarchien für jene klassifiziert, die nicht an der Macht teilhaben« (Ginsburg, 2008, S. 139). Diese Bedenken sind berechtigt (ebenso wie der Einwand, der Wortgebrauch von »Zeitaltern« könne dazu führen, die Geschichte zu ignorieren), doch ebenso auch die Behauptung, dass »die Ära von big data begonnen hat« (Boyd und Crawford, 2012, S. 662). Die Periodisierung ist ja nicht bloß ein Silicon-Valley-Hype – für Sozialtheoretiker kann sie genauso wie für Geologen analytisch nützlich und empirisch genau sein. Wir wollen doch nicht das Kind mit dem zeitbedingten Bad ausschütten, denn viele wissenschaftliche Arbeiten über das Digitale wenden Periodisierungen auf einfühlsame Weise an. Natürlich sind Formulierungen wie »das digitale Zeitalter« inzwischen selbst unter leitenden Mitarbeitern in Unternehmen üblich geworden (siehe z.B. Schmidt und Cohen, 2013). Aber der übertriebene Gebrauch oder Missbrauch von Periodisierungen bedeutet ja nicht, dass sie sinnlos sind. Periodisierungen sind heuristische Verfahren, keine Invariablen. Wir können über das genaue Ende des Mesozoikums diskutieren, ebenso wie über den genauen Beginn der industriellen Revolution. Aber gerade weil Periodisierungen umstritten sind, haben sie einen Wert – sie stellen somit ein wichtiges Mittel für das Entstehen von »überholter Theorie« dar.
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
M e tadaten erstellen Die Snowden-Affäre rückte eine vermeintliche Untermenge von Big Data in den Vordergrund, nämlich die »Metadaten« – d.h. Dinge wie die Zeit, in der ein Handyanruf erfolgte, seine Dauer und der Standort des Anrufers, im Gegensatz zum Telefongespräch selbst. Vertreter der US-Regierung beharrten darauf, die Überwachungen durch die NSA seien harmlos, weil es dabei nur um Metadaten gehe (siehe Mayer, 2013). Solche Versuche einer Entpolitisierung von Metadaten hingen somit von der Behauptung eines offensichtlichen Unterschieds zwischen Daten und Metadaten ab, und kritische Reaktionen stellten diese Behauptung daher oft in Frage.3 Dies zeigt, dass es im Hinblick auf eine Theorie der Big Data dringend geboten ist, Metadaten zu historisieren und ihre begrifflichen Implikationen darzulegen. Der Begriff Metadaten ist älter als der Begriff Big Data – er wurde 1968 vom Informatiker Philip R. Bagley (1927–2011) geprägt: »Mit jedem Datenelement lassen sich gewisse Datenelemente verbinden, die Daten ›über‹ das betreffende Element darstellen. Wir bezeichnen solche Daten als ›Metadaten‹.« (Bagley, 1968, S. 91) Als Bagley zu Beginn des Internetzeitalters die Vorsilbe meta- verwendete, bezog er sich auf eine vielschichtige Vorgeschichte mit impliziten Voraussetzungen. Insbesondere enthält die Vorsilbe eine uneingestandene Spannung zwischen Lateralität und Hierarchie. Diese Spannung ist unauflöslich und hat entsprechende Folgen für Macht, Selbstsein und Gemeinschaft. Vor Bagleys Begriffsprägung reicht die Verwendung der Vorsilbe meta- in den Sprach-, Informations- und Kommunikationswissenschaften bis in die 1950er Jahre zurück, als der Linguist Roman Jakobson den Begriff der »Metasprache« zu entwickeln begann. Jakobson ging es um eine »Unterscheidung, die eindeutig von der altgriechischen und indischen Tradition vorweggenommen wurde […], ein Bedürfnis, zwischen zwei Sprachebenen zu unterscheiden, nämlich der ›Objektsprache‹, die von Dingen spricht, die der Sprache als solcher fremd sind, und einer Sprache, in der wir über den verbalen Code selbst sprechen. Der letztere Aspekt von Sprache heißt ›Metasprache‹, eine Lehnübersetzung des in den 1930er-Jahren von Alfred Tarski eingeführten polnischen Begriffs.« (Jakobson, 1980, S. 86)
3 | Ich will damit nicht behaupten, dass eine staatliche Überwachung nicht Daten wie Metadaten umfasse; ich will damit nur sagen, dass es Versuche gibt, letztere so zu behandeln, als seien sie sicherer zu überwachen, und dass der Unterunterschied zwischen beidem nicht a priori besteht. Ein Beispiel für eine populäre Reaktion auf die versuchte Entpolitisierung von Metadaten bildet der Cartoon »Nothing to worry about, it‘s just metadata« von Jeff Parker vom 12. August 2013; siehe www.truthdig.com/cartoon/item/ nsa_its_ just_metadata_20130812/.
111
112
2. Geschichte und Theorie der Daten
Metasprache ist somit Sprache über Sprache – wenn ich z.B. sage: »Ich träumte von einem Einhorn«, dann ist das Sprache und die Aussage »Ein Einhorn ist ein imaginäres Pferd mit einem einzelnen Horn auf dem Kopf« ist Metasprache. Mit einer pragmatischen Formel stellt ein Geistlicher fest: »Ich erkläre euch zu Mann und Frau.« Daraus folgt, dass »die Aussage: ›Wenn in unserer Gesellschaft ein dazu berechtigter religiöser oder gerichtlicher Funktionär gegenüber einem Mann und einer Frau ernsthaft äußert: ›Ich erkläre euch zu Mann und Frau‹, dann gelten beide als verheiratet‹, eine metapragmatische Aussage ist, die den effektiven Gebrauch dieser Formel beschreibt« (Silverstein, 2001, S. 383). Jakobsons Anspielung auf Tarski verweist auf eine zweite Traditionslinie der Vorsilbe meta-, nämlich in Verbindung mit dem Begriff »Metamathematik«. Er wurde von David Hilbert in den 1920er Jahren entwickelt, geht aber zurück auf Denker wie Russell, Frege, Gödel und Whitehead (siehe Lee, 1997). Diese Tradition hat anscheinend die Kommunikationswissenschaft und damit die Big Data ganz direkt beeinflusst. Die Autoren des Buchs Menschliche Kommunikation beispielsweise leiten ihre Theorie der »Metakommunikation« mit der Feststellung ein: »Wenn wir Kommunikation nicht mehr ausschließlich zur Kommunikation verwenden, sondern um über die Kommunikation selbst zu kommunizieren, […] so verwenden wir Begriffe, die nicht mehr Teil der Kommunikation sind, sondern (im Sinne des griechischen Präfix meta) von ihr handeln. In Analogie zum Begriff der Metamathematik wird dies Metakommunikation genannt […].« (Watzlawick et al., 1969, S. 47, Hervorhebung von mir)
Während des 20. Jahrhunderts wurde die Verwendung der Vorsilbe meta- immer mehr ausgeweitet, etwa in Begriffen wie »Metawissen« (Watzlawick et al., 1969), »Metaindexikalität« (Lee, 1997), ja sogar »Metakultur« (Urban, 2001). Dennoch ist die Vorsilbe grundlegend instabil geblieben. Einerseits wird sie im hierarchischen Sinn verwendet, sodass es »zwei Ebenen von Sprache« (Jakobson, 1980, S. 86) geben, Metawissen »ein Wissen zweiter Ordnung« (Watzlawick et al., 1969, S. 287) sein kann oder Metadaten »transzendent und allumfassend« (Beer und Burrows, 2013, S. 51) sein können. Dies ist das System einer Null-Grad-Referenz (z.B. Sprache, Wissen oder Daten) und dann von »Metaphänomenen«, die darüber oder darunter liegen. Andererseits wird die Vorsilbe meta- (zuweilen vom selben Autor) im lateralen Sinn verwendet, und dann ist Metasprache »eine Sprache, in der wir über den verbalen Code selbst sprechen« (Jakobson, 1980, S. 86), oder Metakultur ist »Kultur, in der es um Kultur geht« (Urban, 2001, S. 3). Nur selten hat man sich mit dem Ursprung dieser Doppelbedeutung der Vorsilbe meta- befasst: »meta« ist noch keine überholte Theorie. Denken wir nur an die lange Geschichte von μετα (auf die Jakobson mit seinem Hinweis auf die »altgriechische und indische Tradition« anspielt), in der die Vorsilbe ursprünglich nur eine laterale Bedeutung hatte: »Im Altgriechischen und im hellenistischen Griechischen dient die Vorsilbe dazu, Vorstellungen von Teilen, Handeln im All-
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
gemeinen, Streben, Suche und vor allem von Veränderung (von Ort, Ordnung, Zustand oder Wesen) auszudrücken« (OED, 2013b). Diese ursprüngliche Bedeutung liegt den Begriffen »Massenmedien« oder »digitalen Medien« zugrunde: »Aristoteles […] spricht von zwei Elementen, nämlich Luft und Wasser, im Sinne von ›Zwischenelementen‹. Mit anderen Worten: Er hat als Erster eine verbreitete griechische Präposition – metaxú, zwischen – in ein philosophisches Substantiv, in einen Begriff umgewandelt: tò metaxú, das Medium.« (Kittler, 2009, S. 26) Nach dieser ursprünglichen Bedeutung der Vorsilbe meta- ist »Metamedien« somit ein redundanter Begriff. Diese Lateralität ist mittlerweile nahezu vergessen und taucht nur in ein paar Begriffen auf, nämlich »Metapher« (wörtlich »hinübertragen«), »Metathese« und interessanterweise »Metastase«, seit der Spätrenaissance ein medizinischer Begriff, der die Funktionsübertragung zwischen Organen bezeichnet. Sein Gegenteil war Redux, die Rückkehr eines erkrankten Organs in seinen ursprünglichen Zustand (Maurer, 1997). Die Metastase bewirkt eine Zustandsänderung, nicht einen Zustand darüber; somit kann es nützlich sein, sich theoretisch mit Daten zu befassen, die »metastasieren«. Aber wenn sich μετα ursprünglich auf Lateralität bezog – »vorher« und »nachher« –, wieso kam es dann zu seiner hierarchischen, abstrahierenden Bedeutung? Das lag an einem Klassifizierungsfehler, einer falschen Zuordnung von Büchern. Andronikos von Rhodos, der im 1. Jahrhundert v. Chr. die erste Gesamtausgabe der Werke von Aristoteles zusammenstellte, »fasste eine Reihe von Aristoteles’ Schriften in einem einzigen Band zusammen und ordnete diesen nach (meta-)den naturwissenschaftlichen Abhandlungen (physika) ein. Somit bedeutete der Begriff metaphysika, der diesen Band der Werke von Aristoteles bezeichnete, nicht das, was er später bedeutete – ein Untergebiet der Philosophie« (Anagnostopoulos, 2009, S. 18). Aufgrund der Überlieferung »der zwölf Bücher, die leider den Titel ›Metaphysik‹ tragen« (Kittler, 2009, S. 24), wurde der Begriff »als Bezeichnung für den in diesen Büchern behandelten Wissenszweig verwendet und schließlich fehlinterpretiert als ›die Wissenschaft von Dingen, die das, was physisch oder natürlich ist, transzendieren‹ […], ungeachtet der Tatsache, dass μετα sich keineswegs im Sinn von ›jenseits‹ oder ›transzendierend‹ interpretieren lässt« (OED, 2013c). Die Geschichte dieser Fehlinterpretation ist keineswegs unbekannt – man kann sie sogar im Eintrag »meta« bei Wikipedia nachlesen. Wenn ich sie hier nacherzähle, will ich damit weder einem etymologischen Determinismus noch dem Eurozentrismus das Wort reden. Wie viele gelehrte Kenner von Aristoteles festgestellt haben, bedeutet die Konstruiertheit des Begriffs »Metaphysik«, der »in keinem uns bekannten Werk von Aristoteles vorkommt« (Merlan, 1968, S. 175), durchaus nicht, dass es überhaupt keinen Begriff von Metaphysik geben kann. Zur Debatte steht vielmehr das beredte Schweigen im Hinblick auf die zufällige Entstehung des Begriffs sowie die Spannungen, die in der Vorsilbe meta- an sich enthalten sind. Insbesondere ist die Vorstellung von »Metadaten« von dieser Fehlübersetzung von »Metaphysik« abgeleitet, die sich von der Lateralität entfernt und zur Hierarchie tendiert. Insbesondere seit dem 17. Jahrhundert war »Metaphy-
113
114
2. Geschichte und Theorie der Daten
sik« stark christlich geprägt: Möglicherweise entstammt der einzige neuartige Gebrauch von meta- als Vorsilbe vor dem 19. Jahrhundert John Donnes Konzept einer »Metatheologie« über den persönlichen Göttern der Reformation von 1615 (Aronson, 2002; OED, 2013c). Dass Metadaten nach diesen Vorstellungen von Metaphysik gestaltet sein könnten, ist doch beachtenswert in einem Gebiet, in dem sich manche Leute als »Technologieevangelisten« bezeichnen und »Avatare« verwenden, zuweilen auf Apple-Computern, deren Logo an den Biss in den Apfel vom Baum der Erkenntnis im Paradies erinnert (Halberstam, 1991). Ausschlaggebend ist aber, dass der Schwellenwert, der bewirkt, dass sich etwas von einer Nullgrad-Kategorie hin zu seinem »Meta-Analogon« bewegt, nicht a priori existiert. Es handelt sich um einen Akt des Klassifizierens, der als solcher »einen Standpunkt aufwertet und einen anderen unterdrückt« (Bowker und Star, 1999, S. 5). Ich möchte Annahmen einer sauberen Trennung zwischen Daten und Metadaten nicht einfach deshalb in Frage stellen, weil Metadaten eindringlicher sein können als Daten, sondern weil gerade die Einteilung der Welt der Informationen in zwei Bereiche – Nullgrad und meta – Systeme einer impliziten Kontrolle errichtet. Ja, sobald eine solche Unterteilung in null Grad und meta akzeptiert wird, weiß man einfach nicht mehr, wann das aufhört. Wenn wir z.B. annehmen, dass man eine »Metasprache« verwenden muss, um etwas über Sprache zu sagen, dann benötigen wir »eine Metametasprache, wenn wir über die Metasprache reden wollen, und so fort in theoretisch unendlichem Progress« (Watzlawick et al., 1969, S. 217). Daten über Metadaten ließen sich also als »Metametadaten« bezeichnen, aber der Umstand, dass ein »theoretisch unendlicher Progress« in die Vorsilbe meta- eingebaut ist, verweist auf eine Schwäche des Begriffs – nämlich dass er die anfechtbaren sozialen Praktiken, durch die Daten als Gegenstand des Wissens konstituiert werden, überflüssig macht. Diese Probleme im Zusammenhang mit Metadaten sind nicht auf das Internet beschränkt. Während der Snowden-Affäre waren viele überrascht, als sie von einem seit langem existierenden System der Überwachung physischer Metadaten erfuhren, nämlich »dem Mail Isolation Control and Tracking Programm, bei dem Computer der US-Post alle Briefe, die in den USA verschickt werden, fotografieren« (Nixon, 2013). Hier könnte die Unterscheidung zwischen Daten und Metadaten scheinbar außer Frage stehen (genauso wie der Hinweis auf die historische Verbindung zwischen dem Schreiben von »Daten« auf einen Briefumschlag und der »Datierung«). Was ließe sich schließlich leichter unterscheiden als die Adresse, die auf einem Briefumschlag geschrieben steht, und der Brief, der darin steckt? Doch genau das und alle Unterscheidungen zwischen Nullgrad und metamöchte ich in Frage stellen. Was wäre denn, wenn wir nicht zwischen Briefen in Umschlägen, zwischen Innen und Außen unterscheiden, sondern zwischen den beiden Seiten einer Postkarte? Postkarten waren umstritten, als sie im späten 19. Jahrhundert aufkamen, weil ihr »Inhalt« von jedem gelesen werden konnte (Cure, 2013) – hier wird es nämlich schwierig, zwischen Form und Inhalt zu unterscheiden (Boellstorff, 2013). Könnte nicht die analoge Behandlung der Post-
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
karte eine Möglichkeit darstellen, diesen Binarismus zu überdenken? Wenn ich nämlich aus einer Postkarte eine Möbiusschleife formen könnte, würde mich das noch mehr freuen: Das würde dann eine Vorstellung davon vermitteln, wie verschränkt Form und Inhalt auf der fundamentalsten Ebene sind, sodass Akte der Zuschreibung von »meta-« eindeutig die kulturellen und politischen Akte sind, die sie eigentlich sind, und nicht irgendwelche vorgegebenen Merkmale. Bemerkenswerterweise haben Informatiker und Ingenieure das schon lange erkannt. So bestehen beispielsweise Dateisysteme generell aus mindestens zwei »Schichten«, wobei die eine Portionen der »Daten« und die andere »Metadaten« speichert (z.B. wem die Datei gehört oder wann sie angelegt wurde). Aber das ist eine begriffliche Unterscheidung, und eine Operation eines Dateisystems (etwa das Schreiben einer Datei) wird als eine einzige Operation angesehen, die einige Informationen in die »Datenportion« und einige Informationen in die »Metadatenportion« des Dateisystems eingibt. Die »Metadaten« werden nicht wegen irgendwelcher »Metamerkmale« als speziell behandelt, sondern wegen ihrer Nutzung als Daten (z.B. unterschiedliche Zugriffsgeschwindigkeiten oder unterschiedliche Speichereigenschaften).4 Diese praktischen Erkenntnisse im Hinblick auf die Konstruiertheit der Unterscheidung von Nullgrad und meta werden in wissenschaftlichen Arbeiten über die digitale Technologie aufgegriffen, die die oft verborgene »mühsame Arbeit der Erstellung von Metadaten« betonen (Losh, 2009, S. 266). So hat z.B. ein leitender Bibliothekar an der British Library hingewiesen auf »die Gefahren des teilweisen Outsourcing der mühsamen Erstellung von Metadaten nach Indien, wo selbst die am besten Englisch sprechenden Operators, die an den digitalen Kopien von Zeitungen arbeiten, vielleicht nicht einmal übliche englische Ortsnamen erkennen. Somit beweist selbst die angeblich neutralste Tätigkeit der Erstellung von Metadaten […], dass ein kulturell orientiertes Wissen noch immer wichtig sein kann für ein sinnvolles Auszeichnen im digitalen Zeitalter.« (Ebd.)
Diese Beispiele unterstreichen die praktischen und politischen Konsequenzen einer Theorie. Es ist eben nicht einfach so, dass das Bezeichnen von Dingen als »Daten« bloß ein Akt des Klassifizierens ist – Dinge als »Metadaten« zu bezeichnen ist nicht weniger ein Akt des Klassifizierens und nicht weniger in Machtund Kontrollprozesse verstrickt. Dies beruht auf einer langen und verwickelten Geschichte der Spannungen zwischen hierarchischem und lateralem Denken, die alles gestalten, von Dateisystem bis hin zu Gesellschaften.5 Diese Geschichte
4 | Ich danke Mic Bowman für diese Erkenntnisse über Dateisysteme. 5 | Ironischerweise sind es ausgerechnet Markierungen an der Außenseite alter mesopotamischer Tongefäße, die auf deren Inhalt hinweisen, die vielleicht »den genauen Beginn der Technik des Schreibens darstellen« (Schmandt-Besserat, 1980, S. 357). Was man heute als Metadaten versteht, war vielleicht zuerst da.
115
116
2. Geschichte und Theorie der Daten
stellt jeden Versuch in Frage, die Unterscheidung zwischen Nullgrad-Daten und Metadaten für selbstverständlich zu halten. Scherzhaft erkläre ich gern, dass das Definieren von »meta« wie das Definieren eines anderen englischen Four-letter word ist, nämlich von »porn«: Man erkennt es, wenn man es sieht. Aber diese scherzhafte Parallele ist überraschend genau, denn im Hinblick auf das Obszöne gilt weithin – fast nie aber im Hinblick auf die Vorsilbe meta- –, dass beides (wie alle sozialen Phänomene) von einer gemeinsamen Praxis definiert wird. Was als Obszönität betrachtet wird, hängt von bestimmten zeitlichen und lokalen Normen ab, und ähnlich kontextuell ist auch »meta«. Linguistisch gesprochen ist es irreführend, eine Parallele zwischen Nullgrad und meta im Sinne einer strukturellen Unterscheidung wie der zwischen gesprochener Sprache und Grammatik zu suchen. Effektiver ist es, dies im Sinne eines »Sprachwechsels« zwischen Englisch und Spanisch zu tun, der Bewegung zwischen formellen und informellen Registern einer Sprache oder gar des »Tagging« – sich entwickelnden Akten des Auszeichnens, die im Lauf der Zeit allgemein akzeptierte »Hashtag-Kategorien« werden. Es ist somit empirisch korrekt und politisch geboten, »Metasprachen nicht bloß als Analysesysteme, sondern als Kommunikationspraktiken zu behandeln« (Jensen 2013) Man denke nur daran, wie Suchbegriffe, ein prototypisches Beispiel für »Metadaten«, durch die soziale Praxis »Daten« werden können. Dies geschieht etwa, wenn solche Suchverfahren (oft ungenau) dazu benutzt werden, mögliche Grippeausbrüche aufzuspüren, indem man verstärkt nach Begriffen wie »Grippebehandlung« sucht (Crawford, 2013). Ein weiteres Beispiel ist die Reaktion von LGBT-Aktivisten auf die heterosexistische Einstellung von Rick Santorum, eines ehemaligen Kongressabgeordneten aus Pennsylvania: Sie benutzten seinen Namen als Teil einer Kettensuche nach Begriffen für sexuelle Flüssigkeiten, indem sie vorübergehend die eigens geschaffene Internetseite »spreadingsantorum.com« an die Spitze der Google-Ergebnisse für eine Suche nach dem Begriff »santorum« manipulierten (Gillespie, 2012). In derartigen Beispielen fungieren Phänomene, die typischerweise als Metakommunikation eingestuft werden, als Formen von Kommunikation. Dies ist vielleicht der wichtigste theoretische Aspekt im Hinblick auf das Erstellen von Metadaten, da er sich allgemeiner auf die Sozialtheorie auswirkt. Die Tatsache, dass der Akt der Zuschreibung von »meta« in einem kulturellen Kontext steht, ist relevant für jeden Gebrauch der Vorsilbe, von der Metaphysik bis zur Metapragmatik, von der Metakommunikation bis zu den Metamedien, vom Metawissen bis zur Metakultur. Ja, Gregory Bateson – einer der von Fachwissenschaftlern für Kommunikation und digitale Kultur meistzitierten klassischen Anthropologen – hat die Theorie aufgestellt, Spiel und Fantasie seien eine Art Metakommunikation, die ganz entscheidend für die Entwicklung von Kommunikation an sich sei, nämlich dann, wenn »ein bestimmter Organismus in der Lage ist […], die von ihm und anderen Angehörigen der Spezies ausgehenden Zeichen als Signale zu erkennen« (Bateson, 1972, S. 243). Ein besseres Verständnis des Entste-
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
hens von meta- wird daher von zentraler Bedeutung sein, um sich entwickelnde Formen von Big Data und ihre sozialen Implikationen zu begreifen.
D ie D ialek tik von Ü berwachung und A nerkennung Die Snowden-Affäre verstärkte die bereits geführten Debatten über Big Data, Überwachung und die Macht des Staates. Um diese Macht in Frage zu stellen, ging Snowden schließlich all diese Risiken ein und betonte: »Die größte Angst bereitet mir das, was sich nach diesen Enthüllungen für Amerika daraus ergibt, nämlich dass sich nichts ändern wird.« (Edward Snowden, in Rodriguez, 2013) Diese Angst war durchaus begründet – öffentliche Umfragen ergaben, dass viele Amerikaner im Hinblick auf diese staatliche Überwachung zwiespältig, gleichgültig oder gar begeistert waren (Ohlheiser, 2013). Debatten über das Erstellen von Big Data beziehen sich eindeutig auf eine umstrittene kulturelle Logik von Überwachen, Privatsphäre und Enthüllung. Ich bezeichne diese Logik vorläufig als »die Dialektik von Überwachung und Anerkennung«. Nach Snowdens Enthüllungen über eine von Big Data ermöglichte staatliche Überwachung griffen viele Leute auf Präzedenzfälle, Vergleiche, Metaphern zurück. Am häufigsten wurde Orwell herangezogen, wobei man bereits zuvor festgestellt hatte, dass Big Data »eine finsterere Konnotation aufweisen, gewissermaßen als linguistischer Vetter des Großen Bruders« (Lohr, 2012) Doch viele hielten dies für einen begrenzten Tropus (z.B. M. Jensen, 2013), nicht zuletzt weil »Orwell nicht erkannte, dass die Technik […] Gruppen von Menschen ungeheure Macht verlieh, Dinge aufzubauen, die so kompliziert und wunderbar sind wie […] Wikipedia« (Cory Doctorow, interviewt in Porzucki, 2013). Mit anderen Worten: Die orwellsche Metapher greift zu kurz, weil das Konzept der »Big Data« sowohl relativ ungewollte Daten (wie von einem bewegten Smartphone generierte GPSDaten) wie relativ gewollte Daten (wie ein Posten bei Facebook) umfasst. Vielleicht berief Snowden sich deshalb nicht auf George Orwell, sondern auf Michel Foucault, als er erklärte: »Wenn ein Überwachungsprogramm wertvolle Informationen liefert, ist es legitim […] In einem Schritt ist es uns gelungen, die Operation des Panopticon zu rechtfertigen.« Snowden spielte hier auf Foucaults Darstellung des Panopticon in Überwachen und Strafen an, wie es der utilitaristische Philosoph Jeremy Bentham als Teil einer Gefängnisreform vorschlug.6 Ein Gefängnis sollte danach aus ringförmig angeordneten Zellen bestehen, die auf einen zentralen Turm ausgerichtet sind, das Panopticon, der es einem einzigen Aufseher ermögliche, das Gefängnis zu überwachen. Außerdem wäre das 6 | Foucault wird zwar nicht namentlich genannt, doch die Anspielung ist wahrscheinlich bewusst. Dazu ein Beobachter: »Mit Sicherheit hat Snowden seinen Michel Foucault genau gelesen (so hat er auch seinen Abscheu angesichts der ›Fähigkeiten dieser Architektur der Unterdrückung‹ betont.)« (Escobar, 2013)
117
118
2. Geschichte und Theorie der Daten
Panopticon so konstruiert, dass die Gefangenen niemals wissen, ob sich jemand im Turm befindet. Sie würden den Blick des Panopticons verinnerlichen und ihr eigenes Verhalten überwachen: »Daraus ergibt sich die Hauptwirkung des Panopticon: die Schaffung eines bewussten und permanenten Sichtbarkeitszustandes beim Gefangenen […] Die Wirkung der Überwachung ist permanent, auch wenn ihre Durchführung sporadisch ist.« (Foucault, 2008b, S. 906) Das Panopticon stellt eine optische Metapher dar, die geradezu vorausschauend zu sein scheint, wenn ein Überwachungsprogramm der NSA den Codenamen »Prisma« bekommen kann: »Zu ihrer Durchsetzung muss sich diese Macht mit einer ununterbrochenen, erschöpfenden, allgegenwärtigen Überwachung ausstatten […]. Tausende von Augen, die überall postiert sind; bewegliche und ständig wachsame Aufmerksamkeiten; ein weites, hierarchisiertes Netz […].« (Foucault, 2008b, S. 920) Doch aus der Sicht Foucaults müsste die Hauptmetapher für das Erstellen von Big Data nicht das Panopticon sein, sondern das Geständnis. Der erste Band von Sexualität und Wahrheit erschien zwar nur ein Jahr nach Überwachen und Strafen und griff viele Themen des früheren Werks auf, doch Foucault widmete hier noch mehr Aufmerksamkeit der Frage, wie Macht, Wissen und Selbstsein in spezifischen historischen Kontexten zusammenkommen. In dem Kapitel Die Anreizung zu Diskursen heißt es: »Um das 18. Jahrhundert herum entsteht ein politischer, ökonomischer und technischer Anreiz, vom Sex zu sprechen […], in Form von Analyse, Buchführung, Klassifizierung und Spezifizierung, in Form quantitativer oder kausaler Untersuchungen.« (Foucault, 2008a, S. 1045) Sex wurde in Daten umgesetzt, und das hatte zwei entscheidende Konsequenzen. Zum einen waren diese Daten Teil eines staatlichen Projekts: »Der Sex, das ist nicht nur eine Sache der Verurteilung, das ist eine Sache der Verwaltung. Er ist Sache der öffentlichen Gewalt, er erfordert Verwaltungsprozeduren, er muss analytischen Diskursen anvertraut werden.« (Foucault, 2008a, S. 1046) Zum andern wurden diese Daten produziert durch das Diskursritual des »Geständnisses«, das auf das Christentum und die psychoanalytische Begegnung zwischen Therapeut und Patient zurückgeht: »Für uns verbinden sich Wahrheit und Sex im Geständnis mittels des obligatorischen und erschöpfenden Ausdrucks eines individuellen Geheimnisses […]. [Z]ugleich ist es ein Ritual, das sich innerhalb eines Machtverhältnisses entfaltet, denn niemand leistet sein Geständnis ohne die wenigstens virtuelle Gegenwart eines Partners, der nicht einfach Gesprächspartner, sondern Instanz ist, die das Geständnis fordert, erzwingt […].« (Foucault, 2008a, S. 1074f.)
Das Geständnis ist eine moderne Möglichkeit, Daten zu produzieren, ein Anreiz zum Diskurs, den wir nun einen Anreiz zur Enthüllung nennen könnten. Er ist zutiefst dialogisch: Einer gesteht einem Mächtigen/Anderen. Dies kann technisch vermittelt sein – wie Foucault feststellte, denn es kann in der »virtuellen Gegenwart« einer Instanz stattfinden. Das ist die einzige Stelle im ersten Band von Se-
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
xualität und Wahrheit, an der das Wort »virtuell« vorkommt, und seine Verwendung ist bedeutsam. Um der Frage nachzugehen, welche Rolle dieser Anreiz zur Enthüllung in zeitgenössischen Kontexten spielt, ist es hilfreich, sich mit Charles Taylors Darstellung der »Politik der Anerkennung« zu befassen, die für ihn von zentraler Bedeutung für die Moderne ist: »Die These lautet, unsere Identität werde teilweise von der Anerkennung oder Nicht-Anerkennung, oft auch von der Verkennung durch die anderen geprägt, so dass ein Mensch oder eine Gruppe von Menschen wirklichen Schaden nehmen, eine wirkliche Deformation erleiden kann, wenn die Umgebung oder die Gesellschaft ein einschränkendes, herabwürdigendes oder verächtliches Bild ihrer selbst zurückspiegelt.« (Taylor, 2009, S. 13)
Wenn ich von der »Dialektik von Überwachung und Anerkennung« spreche, versuche ich, den Gedanken des Geständnisdiskurses mit der Politik der Anerkennung zu verknüpfen.7 Zur weiteren Erforschung stelle ich die These auf, dass das Aufkommen von Big Data von einem Diskurs begleitet wird, der Überwachung mit Anerkennung verbindet, der Überwachung als eine Form von Zugehörigkeit strukturiert. Kein Diskurs ist einzigartig, und mit Sicherheit gibt es umgekehrte Diskurse, Gegendiskurse und alternative Diskurse. Die Frage ist nicht, ob die von der Snowden-Affäre ans Licht gezerrte staatliche Überwachung unumstritten ist (weil sie offensichtlich umstritten ist), sondern warum so viele Menschen Überwachung akzeptabel und sogar angenehm finden: »Das Spiel ist ganz entscheidend für das Verständnis der neuen sozialen Daten.« (Beer und Burrows, 2013, S. 51). Eine der wichtigsten politischen Lehren von Foucaults Werk war die Erkenntnis, dass Widerstand oft im Rahmen eines Diskurses auf eine komplexe Weise erwächst, der puristische Vorstellungen von Gegnerschaft kaum gerecht werden. Im Hinblick auf den Umgang der Politik mit Homosexualität hat Foucault festgestellt, die Diskurse im 19. Jahrhundert über die Arten und Unterarten der Homosexualität hätten »auch die Konstitution eines Gegen-Diskurses ermöglicht: die Homosexualität hat begonnen von sich selber zu sprechen, auf ihre Rechtmäßigkeit oder auf ihre ›Natürlichkeit‹ zu pochen – und dies häufig in dem Vokabular und in den Kategorien, mit denen sie medizinisch disqualifiziert wurde. Es gibt nicht auf der einen Seite den Diskurs der Macht und auf der andern Seite den Diskurs, der sich ihr entgegensetzt.« (Foucault, 2008a, S. 1105)
Noch ist nicht klar, was für Gegen-Diskurse im Hinblick auf Big Data und ihre Dialektik von Überwachung und Anerkennung aufkommen werden. Doch eine gewisse Vorstellung davon vermittelt die Tatsache, dass viele Reaktionen auf das Erstellen von Big Data implizit nicht etwa Aufrufe für ihre Abschaffung, sondern für 7 | Weitere wichtige Ausführungen zu Anerkennung und Zugehörigkeit finden sich bei Fraser, 2000; Povinelli, 2002.
119
120
2. Geschichte und Theorie der Daten
ihre Ausweitung sind. In ihrer Kritik an Big Data bemerkte Kate Crawford: »Daten spiegeln angeblich die soziale Welt wider, doch da gibt es erhebliche Lücken, weil von bestimmten Gemeinschaften nur geringe oder keine Signale kommen«, sodass »wir bei jedem Satz von big data fragen müssen, welche Menschen ausgeschlossen worden sind. Welche Orte sind weniger sichtbar? Was geschieht, wenn man im Schatten von Big-Data-Sätzen lebt?« (Crawford, 2013) Auch viele andere Wissenschaftler äußern diese Bedenken und fordern, dass wir uns »der Zweifel am repräsentativen Charakter von Daten bewusst sein sollen, wenn von Suchmaschinennutzern pauschale Schlüsse auf eine ganze Bevölkerung gezogen werden» (Trevisan, 2013, S. 2). Ich teile diese Bedenken und wünsche mir, dass mehr Menschen einbezogen werden. Es geht darum, dass auf eine beinahe homöopathische Weise das Heilmittel innerhalb des begrifflichen Horizonts der Krankheit liegt, die es lindern soll – innerhalb der Dialektik von Überwachung und Anerkennung.
V errot te te D aten , dichte D aten Snowden rechtfertigte seine Enthüllungen über die NSA-Überwachung mit dem Argument, dass eine solche Datensammlung stets in einem Interpretationsrahmen stattfinde, der sogar nachträglich angelegt werde, sodass eine Regierung »zeitlich zurückgehen und jede Entscheidung, die Sie je getroffen haben, überprüfen« könne (Edward Snowden, in Rodriguez, 2013). Damit verknüpfte er Behauptungen über Daten und Zeitlichkeit mit »Überprüfung« – mit der in einem kulturellen Kontext stehenden Arbeit der Interpretation. Dies spiegelt sich in einer gerade entstehenden Literatur wider, die die Vorstellung von »Rohdaten« in Frage stellt. In ihrer Einleitung zu »Raw data« is an oxymoron bemerkten Gitelman und Jackson, der Titel des von ihnen herausgegebenen Bandes spiele auf eine Bemerkung von Geoffrey Bowker an (Bowker, 2013, S. 1). Diese Bemerkung lautet: »Rohdaten sind sowohl ein Oxymoron wie eine schlechte Idee – im Gegenteil, Daten sollten sorgfältig gekocht werden.« (Bowker, 2005, S. 184). Dies wiederum spielt natürlich auf Claude Lévi-Strauss’ Buch Das Rohe und das Gekochte (1964) an: »Der Begriff ›Rohdaten‹ entspricht Levi-Strauss’ Gebrauch des Begriffs ›roh‹ […] [zur Beschreibung] eines riesigen mythologischen Feldes […]. Er argumentierte, eine Reihe von Zweiteilungen würde dieses Feld charakterisieren, wobei viele eine Variante dessen wären, was wir die Kluft zwischen Natur und Gesellschaft nennen würden. Das Natürliche wäre dann das Rohe (Honig), das Soziale das Gekochte (Asche).« (Bowker, 2013, S. 168)
Überraschenderweise ist diese Zweiteilung von roh und gekocht sowohl etisch (aus der Sicht eines Außenseiters) wie emisch (im Alltagsgebrauch). So fanden Räsänen und Nyce beispielsweise in ihrer Studie über die schwedischen Geheimdienste heraus, dass »Geheimdienstangehörige den Begriff ›Rohdaten‹ als Ver-
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
nunftkategorie verwenden«, und versuchten, »dieses praktische Verständnis zentraler Kategorien wie des Rohen und des Gekochten in Frage zu stellen« (Räsänen und Nyce, 2013, S. 656, 660). Diese Kategorien sind nämlich im Hinblick auf Big Data unglaublich wichtig. Ein Grund dafür ist die Folgerung, die »Größe« von Daten bedeute, dass sie vor jeder Interpretation gesammelt werden müssten – also »roh«. Darauf verweisen Metaphern wie das »Datenscraping«, die an das Abschaben von Fleisch vom Knochen erinnern, an das Entfernen von etwas, das für ein augenscheinliches Oberflächenphänomen gehalten wird. Eine weitere Folgerung lautet, dass in einer schönen neuen Welt der Big Data die Interpretation dieser Daten, ihr »Kochen«, zunehmend von Computern selbst geleistet werde. Doch wie die oben genannten Autoren (und andere) festgestellt haben, ist dies ein weiteres Beispiel dafür, wie die klassische Anthropologie wertvolle Erkenntnisse auf anderen Gebieten vermittelt. Lévi-Strauss betonte zu Beginn von Das Rohe und das Gekochte die Bewegung zwischen emisch und etisch: »Das Ziel dieses Buches ist es, aufzuzeigen, auf welche Weise empirische Kategorien […], die nur durch die ethnographische, jeweils den Standort einer besonderen Kultur einnehmende Beobachtung, präzise definierbar sind, […] dennoch als begriffliches Werkzeug dienen können.« (Lévi-Strauss, 1969, S. 1) In diesem Buch behandelte Lévi-Strauss das Rohe und Gekochte oft im Sinne einer Dichotomie. Doch in dem Aufsatz »Das kulinarische Dreieck«, der ein Jahr nach Das Rohe und das Gekochte erschien, stellte er diese Kategorien in ein Dreiecksverhältnis zum »Verrotteten«.8 Nach dieser Theorie stellen »roh« und »gekocht« keine Zweiteilung dar, in der roh gleich Natur und gekocht gleich Kultur ist. Vielmehr werden sie als Elemente eines »kulinarischen Dreiecks« dargestellt, das von der Schnittstelle der Zweiteilungen von »Natur« und »Kultur« sowie von »normal« und »verwandelt« gebildet wird (Abb. 1). Hier »stellt das Rohe den unbetonten Pol dar, während die anderen beiden Pole stark betont sind, aber in unterschiedlichen Richtungen: Tatsächlich ist das Gekochte eine kulturelle Verwandlung des Rohen, während das Verrottete eine natürliche Verwandlung ist« (Lévi-Strauss, 1997, S. 29).
8 | Lévi-Strauss befasste sich mit der Kategorie des Verrotteten nur gelegentlich in Das Rohe und das Gekochte (z.B. S. 176, 254). Das Rohe und das Gekochte erschien zuerst 1964, »Das kulinarische Dreieck« 1965 (siehe Lévi-Strauss, 1997).
121
122
2. Geschichte und Theorie der Daten
Abbildung 1: Lévi-Strauss’ kulinarisches Dreieck (Zeichnung des Autors) (Kultur – Natur, normal – verwandelt, roh, gekocht, verrottet)
Diese Dreiteilung ist überaus anregend für eine Theorie des Erstellens von Big Data. Wie »roh« und »gekocht« ist auch die Kategorie des »Verrotteten« sowohl emisch wie etisch, wie es im Begriff des »Bit Rot« zum Ausdruck kommt. Damit kann die Materialität von Daten gemeint sein – die Art und Weise, wie verrottendes Magnetband und beschädigte Festplatten zu Datenverlust führen. Doch seit langem hat man festgestellt, dass beim »Bit Rot« nicht so sehr der Datenverlust auf dem Spiel steht, sondern die Fähigkeit zur Interpretation: »Lange bevor die Festplatte sich abnützt oder einem Bit Rot erliegt, ist die Maschine, die die Festplatte liest, ein Museumsstück geworden. Die unmittelbare Aufgabe besteht also nicht darin, die Informationen zu erhalten, sondern die Mittel, um an sie zu gelangen.« (Hayes, 1998, S. 410) Im Kontext von roh und gekocht ermöglicht das »Verrottete« Verwandlungen außerhalb der typischen Konstruktionen des handelnden Menschen als Koch – das Ungeplante, Unerwartete und Zufällige. Bit Rot beispielsweise entsteht aus dem Zusammenwirken von Speicher- und Verarbeitungstechnologien, während diese sich durch die Zeit bewegen. Aber »Verrotten« bewegt sich zwischen Natur und Gesellschaft ebenso wie zwischen absichtlich und unabsichtlich. Verrotten kann »entweder spontan oder kontrolliert« (Lévi-Strauss, 1997, S. 29) sein, wobei es im letzteren Fall oft als »Gärung« oder »Destillation« bezeichnet wird und alles Mögliche erzeugt, von Brot und Käse bis zu Bier und Wein. Da es die Vorstellung des »Destillierens« von Bedeutung aus Big Data schon lange gibt (z.B. Frankel und Reid, 2008), könnte die Vorstellung von verrotteten Daten somit eine begriffliche Lupe darstellen, um Überschneidungen des Absichtlichen und des Zufälligen in der Erzeugung, Interpretation und Anwendung von Big Data zu betrachten. Ein »kulinarisches Datendreieck« stellt zwischen dem Rohen und dem Gekochten eine logische statt eine zeitliche Beziehung her. Bei drei Begriffen in einem Dreieck statt zwei Begriffen in einer Reihe lässt sich das
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
Einfügen eines Zeitstrahls leichter vermeiden – ebenso wie die Annahme, dass das Rohe vor dem Gekochten komme, und damit lässt sich der Machtanspruch leichter in Frage stellen, der im zeitlichen Argument enthalten ist, dass Daten vor der Interpretation kommen. Der Gedanke von »verrotteten Daten« spiegelt somit wider, wie sich Daten in parahumane, komplex materielle und zeitlich emergente Möglichkeiten umwandeln lassen, die nicht immer einem vorgegebenen algorithmischen »Rezept« folgen. Auch auf anderen anthropologischen Erkenntnissen außer denen von LéviStrauss lässt sich auf bauen. Indem sie die Vorstellung von »Rohdaten« in Frage stellen, knüpfen Gitelman und Jackson auch an Snowden, Bowker und viele andere an, wenn sie betonen, dass »man sich Daten als Daten vorstellen muss, die als solche existieren und funktionieren, und die Vorstellung von Daten ist mit einer Interpretationsgrundlage verbunden« (Gitelman und Jackson, 2013, S. 3). Dieser Hinweis auf eine »Interpretationsgrundlage« erinnert an Clifford Geertz‹ Einmischungen in eine andere Debatte über das Erstellen von Daten, die vor fast einem halben Jahrhundert geführt wurde. In Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme reagierte Geertz (ein Anthropologe, der oft zitiert wird von denen, die sich mit Big Data auseinandersetzen) auf kognitive Ethnologen wie Ward Goodenough und Charles Frake, deren wissenschaftliche Arbeiten wiederum zu den algorithmischen Strukturen beitrugen, die für heutige Big Data von so zentraler Bedeutung sind.9 Geertz fasste zunächst das Gedankenexperiment des Philosophen Gilbert Ryle im Hinblick auf das zusammen, was Ryle als »dichte Beschreibung« bezeichnete: »Stellen wir uns, sagt er, zwei Knaben vor, die blitzschnell das Lid des rechten Auges bewegen. Beim einen ist es ein ungewolltes Zucken, beim anderen ein heimliches Zeichen an seinen Freund. Als Bewegungen sind die beiden Bewegungen identisch […]. [Es] besteht jedoch ein gewichtiger Unterschied […]. Der Zwinkerer teilt etwas mit, und zwar auf ganz präzise und besondere Weise: (1) er richtet sich absichtlich (2) an jemand Bestimmten, (3) um eine bestimmte Nachricht zu übermitteln, (4), und zwar nach einem gesellschaftlich festgelegten Code und (5) ohne dass die übrigen Anwesenden eingeweiht sind […]. Sobald 9 | Diese historischen Zusammenhänge sind komplex und noch unzureichend erforscht. Doch klar ist, dass viele heutige algorithmische Methoden zur Analyse von Big Data auf die Beschäftigung mit der Kognition um die Mitte des 20. Jahrhunderts zurückgehen, die ausgesprochen interdisziplinär war und auf Forschungen von Psychologen wie Amos Tversky zurückgriff (so Nick Seaver in einem Gespräch mit mir). Dies prägte eine ganze Generation von kognitiven Anthropologen für die es möglich war, »die ganze Kultur als Information zu betrachten und jede einzelne Kultur als ›Informationsökonomie‹ zu verstehen« (Roberts, 1964, S. 438). Ein solches Paradigma führte z.B. zu Formen der mathematischen Konsensanalyse, die auf der Prämisse basierte, dass man bei »jedem systemischen Kulturmuster davon ausgehen kann, dass es einen damit verbundenen semantischen Bereich hat« (Romney et al., 1986, S. 315).
123
124
2. Geschichte und Theorie der Daten es einen öffentlichen Code gibt, demzufolge das absichtliche Bewegen des Augenlids als geheimes Zeichen gilt, so ist das eben Zwinkern.« (Geertz, 1983, S. 10f.; Hervorhebung im Original)
Während Geertz’ Argument komplexer ist, als ich es hier darstellen kann (da gibt es noch einen dritten Jungen, der das Zwinkern des zweiten parodiert), ist es in diesem Zusammenhang relevant, wenn er betont, dass die materielle Geste und das semiotische System auf der gleichen ontologischen Ebene liegen – einer Ebene der öffentlichen, von anderen geteilten Bedeutung. Und genau das macht Daten »dicht«: Was »wir als unsere Daten bezeichnen, [sind] in Wirklichkeit unsere Auslegungen davon […], wie andere Menschen ihr eigenes Tun und das ihrer Mitmenschen auslegen […]« (Geertz, 1983, S. 14). Geertz setzte sich hier zwar mit ethnografischen Daten auseinander, doch »Dichte« ist für jede Form von Daten relevant. Ja, Geertz stellte fest, einer Auffassung von Kultur wie die von Goodenough folge »eine ebenso eindeutige Auffassung davon, was es heißt, eine Kultur zu beschreiben: nämlich ein System von Regeln aufzustellen, [einen] ethnografischen Algorithmus« (Geertz, 1983, S. 17, Hervorhebung von mir). Gegenüber dieser früheren Wiederholung von Datenmustern und algorithmischen Lebensweisen betonte Geertz den Wert einer Interpretationsgrundlage: »Wir haben die Triftigkeit unserer Erklärung nicht nach der Anzahl uninterpretierter Daten und radikal verdünnter Beschreibungen zu beurteilen, sondern danach, inwieweit ihre wissenschaftliche Imagination uns mit dem Leben von Fremden in Berührung zu bringen vermag.« (Geertz, 1983, S. 24) Ich bin hier bewusst anachronistisch. Natürlich ist Geertz’ Formulierung »ethnografischer Algorithmus« nicht identisch mit dem heutigen Gebrauch von Algorithmen in der Analyse von Big Data. Aber sie sind eben auch nicht völlig voneinander zu trennen, denn ein historisches Erbe verbindet sie. Dazu gehören auch Kritiken am Strukturalismus von Lévi-Strauss und anderen Anthropologen wie Lacan. Dagegen erkennt das, was Daten »dicht« macht, ihre unreduzierbare Kontextualität an: Was »wir niederschreiben (oder niederzuschreiben versuchen) [ist] kein roher sozialer Diskurs« (Geertz, 1983, S. 29, Hervorhebung von mir). Für Geertz waren »Rohdaten« bereits in den frühen 1970er Jahren ein Oxymoron. Ob gekocht oder verrottet – Daten entstehen aus Interpretationssystemen: »Ebenso wenig haben mich […] Behauptungen überzeugt, wonach es uns die strukturale Linguistik, die Computertechnik oder irgendeine andere fortgeschrittene Form des Denkens möglich macht, Menschen zu verstehen, ohne sie zu kennen.« (Geertz, 1983, S. 43) Wenn ich Lévi-Strauss und Geertz in zeitgenössische Debatten über »Rohdaten« einbeziehe, möchte ich damit weder sie verkürzt darstellen noch behaupten, sie würden uns eine Lösung liefern. Vielmehr erfordert der Begriff »Rohdaten« wie der Begriff »Metadaten« eine weitergehende theoretische Beschäftigung damit. Wichtig in diesem Zusammenhang kann es sein, die Rhetorik des Noch-nie-Dagewesenen und des Beschleunigten zu überdenken, die unter-
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
stellt, wir hätten nichts aus der Geschichte der Sozialtheorie zu lernen – dass Big Data »das Ende der Theorie« bedeuten könnten (Anderson, 2008). Entgegen dem »dünnen« Begriff von Rohdaten können wir uns Daten nicht bloß als gekocht oder verrottet vorstellen, sondern auch als »dicht«. Damit wird betont, dass Big Data niemals einer Interpretation ontologisch vorausgehen – »Interpretation steht im Mittelpunkt der Datenanalyse« (boyd und Crawford, 2012, S. 668) – und dass die Interpretation innerhalb kultureller Horizonte stattfindet, die in Kontexte von Macht eingebettet sind.
S chlussbemerkung : D as E rfinden von B ig D ata In diesem Aufsatz habe ich versucht, mehrere Untersuchungsmöglichkeiten im Hinblick auf das Erstellen von Big Data darzulegen. Auf bauend auf einer Reihe von wissenschaftlichen Gesprächen, habe ich die Zeitlichkeit und die Möglichkeiten der »überholten Theorie« erforscht, die impliziten Geschichten, die Metadaten gestalten, »die Dialektik von Überwachung und Anerkennung« sowie Fragen der Interpretation, die sich im Zusammenhang mit Begriffen wie »verrotteten Daten« und »dichten Daten« stellen. Mein Ziel war es, Systeme zu erweitern, mit denen sich Probleme von Zeit, Kontext und Macht ansprechen lassen. Als Ethnograf schätze ich den Wert der fokussierten und lokalisierten Erklärung, doch wir dürfen ein verallgemeinertes Theoretisieren nicht nur einigen Disziplinen und methodologischen Vorgehensweisen überlassen. Notwendig ist eine »plattformagnostische Theorie«, wie ich das nennen möchte – eine Theorie, die Behauptungen über Muster und Dynamik jenseits der Fallstudie und des individuellen Forschungsgebiets aufstellt, selbst wenn diese Besonderheiten das Gebäude der Theorie wie dessen kontextuelle Modifikation bilden. Wenn wir die Big Data einen Gang herunterschalten (indem wir sie nicht mehr mit Großbuchstaben schreiben), können wir sie als konzeptuelle Rubrik, aber auch als ein Forschungsgebiet verstehen, das der Kulturkritik und der ethnografischen Interpretation zugänglich ist. Es ist ebenso bezeichnend wie beunruhigend, dass Edward Snowden, während ich dies schreibe, noch immer am Moskauer Flughafen ausharren muss – an einem Durchgangsort, der inzwischen zu einem Ort der Nichtzugehörigkeit geworden ist. Außerhalb des Zugriffs der Staatsmacht, die er herausgefordert hat, ist seine Notlage ausgerechnet ein Teil des Systems des Erstellens von Big Data, das er enthüllt hat. Er und viele andere bemühen sich darum, zu zeigen, wie die Gefahren und Verheißungen von Big Data von der Erkenntnis abhängen, dass Big Data nicht bloß »gemacht«, sondern »ausgedacht« werden, im Sinne des »Ausdenkens von Menschen«, von dem Ian Hacking gesprochen hat – demnach beeinflussen Klassifizierungen »die klassifizierten Menschen, und […] die Beeinflussungen der Menschen verändern wiederum die Klassifizierungen« (Hacking, 2006, S. 23).
125
126
2. Geschichte und Theorie der Daten
Wie Ethnografien sind auch ausgedachte Big Data »Fiktionen, und zwar in dem Sinn, dass sie ›etwas Gemachtes‹ sind, ›etwas Hergestelltes‹ – die ursprüngliche Bedeutung von fictio –, nicht in dem Sinn, dass sie falsch wären, nicht den Tatsachen entsprächen oder bloße Als-ob-Gedankenexperimente wären« (Geertz, 1983, S. 23). Sie sind mehr als bloß »Schnipsel« der Wirklichkeit, sondern wesentliche Bestandteile dieser Wirklichkeit, dem Menschsein immanent. Big Data sind stets auch »große Theorie«, ob sie nun anerkannt wird oder nicht. Wie diese Informationssysteme die Gesellschaften in die sich entfaltende Zukunft hinein gestalten, hängt in nicht geringem Maß von unserer Fähigkeit ab, das Ausdenken von Big Data an sich zu verstehen und darauf zu reagieren.
D ank Mit vielen Menschen habe ich über die Themen diskutiert, die ich in diesem Aufsatz anspreche. Insbesondere danke ich Ken Anderson, Geoffrey Bowker, Mic Bowman, Axel Bruns, Tarleton Gillespie, Klaus Bruhn Jensen, Elizabeth Losh, Annette Markham, Bill Maurer und Nick Seaver. Geistige Anregungen für diese Arbeit verdanke ich dem Intel Science and Technology Center for Social Computing.
L iter atur Anagnostopoulos, Georgios: »Aristotle’s works and the development of his thought«, in: Georgios Anagnostopoulos (Hg.): A companion to Aristotle, Malden, Mass., S. 14-27. Amoore, Louise: »Algorithmic war: Everyday geographies of the War on Terror«, in: Antipode, Bd. 41, Nr. 1, 2009, S. 49-69. http://dx.doi.org/10.1111/j.1467-8330. 2008.00655.x. Anderson, Chris: »The end of theory: The data deluge makes the scientific method obsolete«, in: Wired, Bd. 16, Nr. 7, 2008. www.wired.com/science/discoveries/ magazine/16-07/pb_theory. Aronson, Jeff: »When I use a word: Meta-«, in: British Medical Journal, Bd. 324, Nr. 7344 (27. April 2002), S. 1022. Asimov, Isaac: Foundation, New York 1951. Bagley, Philip R.: Extension of programming language concepts. Philadelphia 1968. Bateson, Gregory: »A theory of play and fantasy«, in: Gregory Bateson: Ökologie des Geistes, Frankfurt a.M. 1973, S. 150-166. Beer, David, und Roger Burrows: »Popular culture, digital archives, and the new social life of data«, in: Theory, Culture & Society, Bd. 30, Nr. 4, 2013, S. 47-41. http://dx.doi.org/10.1177/0263276413476542.
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
Boellstorff, Tom: »An afterword in three postcards«, in: Dominic Power und Robin Tiegland (Hg.): The immersive Internet: Reflections on the entangling of the virtual with society, politics and the economy. Houndmills, Basingstoke, Hampshire 2013, S. 247-252. Ders.: »Rethinking digital anthropology«, in: Heather A. Horst und Daniel Miller (Hg.): Digital anthropology. London 2012, S. 39-60. Ders.: »But do not identify as gay: A proleptic genealogy of the MSM category«, in: Cultural Anthropology, Bd. 26, Nr. 2, 2011, S. 287-312. http://dx.doi.org/10.1111/ j.1548-1360.2011.01100.x. Ders.: Coming of age in Second Life: An anthropologist explores the virtually human. Princeton, N.J. 2008. Ders.: A coincidence of desires: Anthropology, queer studies, Indonesia. Durham, N.C. 2007. Ders.: The gay archipelago: Sexuality and nation in Indonesia. Princeton, N.J. 2007. Collins, Harry M.: Artificial experts: Social knowledge and intelligent machines. Cambridge, Mass., 1990. Cure, Monica: »Tweeting by mail: The postcard’s stormy birth«, in: Los Angeles Times (22. Juni 2013). http://articles.latimes.com/2013/jun/22/opinion/la-oecure-postcards-twitter-20130623. Bowker, Geoffrey C.: »Data flakes: An afterword to ›Raw Data‹ is an oxymoron«, in: Lisa Gitelman (Hg.): »Raw data« is an oxymoron, Cambridge, Mass., 2013, S. 167-171. Ders.: Memory practices in the sciences. Cambridge: Mass. 2005. Ders. und Susan Leigh Star: Sorting things out: Classification and its consequences, Cambridge, Mass., 1999. boyd, danah und Kate Crawford: »Critical questions for Big Data: Provocations for a cultural, technological, and scholarly phenomenon«, in: Information, Communication & Society, Bd. 15, Nr. 5, 2012, S. 662-679. http://dx.doi.org/10.1080 /1369118X.2012.678878. Bryant, Randall E., Randy H. Katz und Edward D. Lazowska: »Big-Data computing: Creating revolutionary breakthroughs in commerce, science, and society«, in: Computing Research Consortium, 2008. www.cra.org/ccc/resources/ ccc-led-white-papers/. Crawford, Kate: »The hidden biases in big data«, in: HBR Blog Network (1. April 2013). http://blogs.hbr.org/2013/04/the-hidden-biases-in-big-data/. Curran, James: »Rethinking Internet history«, in: James Curran, Natalie Fenton und Des Freedman: Misunderstanding the Internet, London 2012, S. 34-65. Dourish, Paul und Genevieve Bell: Divining a digital future: Mess and mythology in ubiquitous computing. Cambridge, Mass., 2011. Escobar, Pepe: »Digital Blackwater rules«, in: Asia Times (11. Juni 2013). www. atimes.com/atimes/World/WOR-03-110613.html. Fabian, Johannes: Time and the other: How anthropology makes its object, New York 1983.
127
128
2. Geschichte und Theorie der Daten
Foucault, Michel: Sexualität und Wahrheit, in: Die Hauptwerke, Frankfurt a.M. 2008(a), S. 1021-1582. Ders.: Überwachen und Strafen, in: Die Hauptwerke, Frankfurt a.M. 2008(b), S. 7011019. Frankel, Felice und Rosalind Reid: »Big data: Distilling meaning from data«, in: Nature, Bd. 455, Nr. 7209 (4. September 2008), S. 30. http://dx.doi. org/10.1038/455030a. Fraser, Nancy: »Rethinking recognition«, in: New Left Review, Bd. 3, 2000, S. 107120. http://newleftreview.org/II/3/nancy-fraser-rethinking-recognition. Geertz, Clifford: »Thick description: Toward an interpretive theory of culture«, in: Clifford Geertz: The Interpretation of Culture: Selected Essays, New York 1973 (deutsch »Dichte Beschreibung. Bemerkungen zu einer deutenden Theorie von Kultur«, in: Clifford Geertz: Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme, Frankfurt a.M. 1983, S. 7-43). Gillespie, Tarleton L.: »The relevance of algorithms: The case of ›spreading santorum‹«, in: Internet Research 13.0, Association of Internet Researchers (AoIR), Salford, GB (Oktober 2012). Ginsburg, Faye: »Rethinking the digital age«, in: David Hesmondhalgh und Jason Toynbee (Hg.): The media and social theory, New York 2008, S. 127-144. Gitelman, Lisa und Virginia Jackson: »Introduction«, in: Lisa Gitelman (Hg.): »Raw data« is an oxymoron, Cambridge, Mass., 2013, S. 1-14. Grosz, Elizabeth: The nick of time: Politics, evolution, and the untimely, Durham, N.C., 2004. Gruber, Jacob: »Ethnographic salvage and the shaping of anthropology«, in: American Anthropologist, Bd. 72, Nr. 6, 1970, S. 1,289-1,299. http://dx.doi.org/10.1525/ aa.1970.72.6.02a00040. Hacking, Ian: »Making up people«, in: London Review of Books, Bd. 28, Nr. 16 (17. August 2006), S. 23-26. www.lrb.co.uk/v28/n16/ian-hacking/making-up-people. Halberstam, Judith: »Automating gender: Postmodern feminism in the age of the intelligent machine«, in: Feminist Studies, Bd. 17, Nr. 3, 1991, S. 439-460. Hayes, Brian: »Bit rot«, in: American Scientist, Bd. 86, Nr. 5, 1998, S. 410-415. http://dx.doi.org/10.1511/1998.5.410. Jakobson, Roman: »Metalanguage as a linguistic problem«, in: Roman Jakobson: The framework of language, Ann Arbor 1980, S. 81-92. Jensen, Morten Høi: »What everybody gets wrong about Orwell,« Salon (19 June), at http://www.salon.com/2013/06/19/big_brother_is_the_wrong_meta phor_for_our_time/, accessed 12 July 2013. (12. Juli 2014) Jensen, Klaus Bruhn: How to do things with data: Meta-data, meta-media, and meta-communication. First Monday, [S. 1.], sep. 2013. Available at: http://first monday.org/ojs/index.php/fm/article/view/4870, Date accessed: 28 Jul. 2014. doi:10.5210/fm.v18i10.4870.
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
Karpf, David: »Social science research methods in Internet time«, in: Information, Communication & Society, Bd. 15, Nr. 5, 2012, S. 639-661. http://dx.doi.org/10.1 080/1369118X.2012.665468. Kittler, Friedrich: »Towards an ontology of media«, in: Theory, Culture & Society, Bd. 26, 2009, Nr. 2-3, S. 23-31. http://dx.doi.org/10.1177/0263276409103106. Lee, Benjamin: Talking heads: Language, metalanguage, and the semiotics of subjectivity, Durham, N.C., 1997. Lévi-Strauss, Claude: »The culinary triangle«, in: Carole Counihan und Penny Van Esterik (Hg.): Food and culture: A reader, London 1997, S. 28-35. Ders.: Mythologica. 1. Das Rohe und das Gekochte, Frankfurt a.M. 1976. Lohr, Steve: »The origins of ›Big Data‹: An etymological detective story«, in: New York Times (1. Februar 2013). http://bits.blogs.nytimes.com/2013/02/01/the-origins -of-big-data-an-etymological-detective-story/. Ders.: »How big data became so big«, in: New York Times (11. August 2012). www. nytimes.com/2012/08/12/business/how-big-data-became-so-big-unboxed. html/. Losh, Elizabeth: Virtualpolitik: An electronic history of government media-making in a time of war, scandal, disaster, miscommunication, and mistakes, Cambridge, Mass., 2009. Loudon, Melissa, Bill Maurer, Jessamy Norton-Ford, Martyn Fricker und Joshua Blumenstock: »Big data in ICT4D: What can we learn from prepaid mobile airtime transactions?« Proceedings of ICTD 2013: Sixth International Conference on Information and Communication Technologies and Development (7.-10. Dezember 2013, Kapstadt). Mainwaring, Scott und Paul Dourish: »Intel Science and Technology Center for Social Computing: White paper«, 2012. http://socialcomputing.uci.edu/ ISTC-Social-Whitepaper.pdf. Manovich, Lev: »Trending: the promises and the challenges of big social data« (28. April 2011). www.manovich.net/DOCS/Manovich_trending_paper.pdf. Maurer, Bill: »Creolization redux: The plural society thesis and offshore financial services in the British Caribbean«, in: New West Indian Guide, Bd. 71, Nr. 3-4, 1997, S. 249-264. Mayer, Jane: »What’s the matter with metadata?«, in: New Yorker (6. Juni 2013). www.newyorker.com/online/blogs/newsdesk/2013/06/verizon-nsa-metadatasurveillance-problem.html. Merlan, Philip: »On the terms ›metaphysics‹ and ›being-qua-being‹«, in: Monist, Bd. 52, Nr. 2, 1968, S. 174-194. doi: http://dx.doi.org/10.5840/monist196852216. Nixon, Ron: »U.S. Postal Service logging all mail for law enforcement«, in: New York Times (3. Juli 2013). www.nytimes.com/2013/07/04/us/monitoring-ofsnail-mail.html. Ohlheiser, Abby: »Twitter’s jaded reaction to the NSA’s phone records collection program«, in: Atlantic Wire (5. Juni 2013). www.theatlanticwire.com/technology
129
130
2. Geschichte und Theorie der Daten
/2013/06/twitters-jaded-reaction-nsas-phone-records-collection-program /65951/. Oxford English Dictionary (OED): »date, n.2«, 2013a. www.oed.com/. Oxford English Dictionary (OED): »theory, n.1.«, 2013b. www.oed.com/. Oxford English Dictionary (OED): »metaphysics, n. pl. [1989 edition]», 2013c. www. oed.com/. Peng, Tai-Quan, Lun Zhang, Zhi-Jin Zhong und Jonathan J.H. Zhu: »Mapping the landscape of Internet studies: Text mining of social science journal articles 2000-2009«, in: New Media & Society, Bd. 15, Nr. 5, 2012, S. 644-664. http:// dx.doi.org/10.1177/0263276409103106. Porzucki, Nina: »NSA leak: Did George Orwell get it right in 1984?«, in: PRI’s The World (12. Juni 2013). www.theworld.org/2013/06/nsa-leak-orwell-1984/. Povinelli, Elizabeth A.: The cunning of recognition: Indigenous alterities and the making of Australian multiculturalism. Durham, N.C., 2002. Räsänen, Minna und James M. Nyce: »The raw is cooked: Data in intelligence practice«, in: Science, Technology, & Human Values, Bd. 38, Nr. 5, 2013, S. 655677. http://dx.doi.org/10.1177/0162243913480049. Roberts, John M.: »The self-management of cultures«, in: Ward Goodenough (Hg.): Explorations in cultural anthropology: Essays in honor of George Peter Murdock, New York 1964, S. 433-454. Rodriguez, Gabriel: »Edward Snowden interview transcript full text: Read the Guardian’s entire interview with the man who leaked PRISM« in: Policymic 2013. www.policymic.com/articles/47355/edward-snowden-interview-transcriptfull-text-read-the-guardian-s-entire-interview-with-the-man-who-leaked-prism. Romney, A. Kimball, Susan C. Weller und William H. Batchelder: »Culture as consensus: A theory of culture and informant accuracy«, in: American Anthropologist, Bd. 88, Nr. 2, 1986, S. 313-338. http://dx.doi.org/10.1525/aa.1986.88.2.02a00020. Rosenberg, Daniel: »Data before the fact«, in: Lisa Gitelman (Hg.): »Raw data« is an oxymoron, Cambridge, Mass., 2013, S. 15-40. Ruppert, Evelyn, John Law und Mike Savage: »Reassembling social science methods: The challenge of digital devices«, in: Theory, Culture & Society, Bd. 30, Nr. 4, 2013, S. 22-46. http://dx.doi.org/10.1177/0263276413484941. Schmandt-Besserat, Denise: »The envelopes that bear the first writing«, in: Technology and Culture, Bd. 21, Nr. 3, 1980, S. 357-385. Schmidt, Eric und Jared Cohen: The new digital age: Reshaping the future of people, nations and business. New York 2013. Searle, John R.: »Minds, brains, and programs«, in: Behavioral and Brain Sciences, Bd. 3, Nr. 3, 1980, S. 417-457. Silverstein, Michael: »The limits of awareness«, in: Alessandro Duranti (Hg.): Linguistic anthropology: A reader. Oxford 2001, S. 382-401. Taylor, Charles: »The politics of recognition«, in: Charles Taylor: Multiculturalism: Examining the politics of recognition«, Princeton, N.J., 1994, S. 25-73
Tom Boellstor ff: Die Konstruktion von Big Data in der Theorie
(deutsch: »Die Politik der Anerkennung«, in: Charles Taylor: Multikulturalismus und die Politik der Anerkennung, Frankfurt a.M. 2009, S. 11-66). Filippo Trevisan: »Social engines and social science: A revolution in the making« (15. Mai 2013). http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2265348. Trouillot, Michel-Rolph: »Anthropology and the savage slot: The poetics and politics of otherness«, in: Richard G. Fox (Hg.): Recapturing anthropology: Working in the present, Santa Fe, N.M., 1991, S. 17-44. Urban, Greg: Metaculture: How culture moves through the world, Minneapolis 2001. Watzlawick, Paul, Janet Helmick Beavin und Don D. Jackson: Pragmatics of human communication: A study of interactional patterns, pathologies, and paradoxes, New York 1967 (deutsch: Menschliche Kommunikation. Formen, Störungen, Paradoxien, Bern, Stuttgart 1969).
131
Daten vor Fakten Daniel Rosenberg
Sind Daten modern? Das hängt ganz davon ab, was man unter »Daten« und was man unter »modern« versteht. Der für das Arbeiten mit elektronischen Computern spezifische Begriff Daten ist offensichtlich ein Kunstwort des 20. Jahrhunderts, doch die Vorstellungen, die diesem Begriff zugrunde liegen, sind ebenso wie sein Gebrauch viel älter. Im Englischen sprach man erstmals im 17. Jahrhundert von Daten. Dennoch ist es nicht falsch, das Aufkommen dieses Begriffs mit dem Begriff von Modernität zu verbinden. Das Entstehen des Begriffs im 17. und 18. Jahrhundert ist eng verknüpft mit der Entwicklung moderner Konzepte von Wissen und Argumentation. Und obwohl diese Konzepte weitaus älter als die Neuerungen in der Informationstechnik des 20. Jahrhunderts sind, spielten sie eine entscheidende Rolle bei der Erschließung des begrifflichen Raums für diese Technik. Ziel dieses Aufsatzes ist es daher, die frühe Geschichte des Begriffs Daten zu skizzieren, um zu verstehen, wie sich dieser Raum bildete. Mein Ausgangspunkt für dieses Projekt war eine zufällige Begegnung mit einem Text, die sich schließlich zu einer Art von Irritation entwickelte: Bei der Lektüre der 1788 erschienenen Lectures on History and General Policy des englischen Universalgelehrten Joseph Priestley stieß ich auf eine Passage, in der Priestley die Fakten der Geschichte als Daten bezeichnet (Priestley, 1788, S. 104).1 Im Text ist die Wortbedeutung ganz klar, doch der Wortgebrauch überraschte mich. Bislang hatte ich den Begriff von Daten mit den bürokratischen und statistischen Revolutionen des 19. Jahrhunderts und den technischen Revolutionen des 20. Jahrhunderts verbunden. Und während ich Priestley den Gebrauch des Begriffs gern zugestehe, kam er mir doch sehr früh vor. Wenn man sich eine Gestalt des 18. Jahrhunderts aussuchen soll, die sich am ehesten für Daten interessiert, dann ist Priestley natürlich durchaus eine gute Wahl. Schließlich war er ein früher Neuerer auf dem Gebiet, das wir heute Data Graphics nennen. Seine Chart of Biography von 1765 ist eine großartige Leistung 1 | Ich danke McKenna Marsden und Dennis O’Connell für ihre unschätzbare Hilfe bei diesem Projekt.
134
2. Geschichte und Theorie der Daten
auf diesem Gebiet: ein Stahlstichdiagramm im doppelten Folioformat, das die Lebensdaten von etwa zweitausend berühmten historischen Persönlichkeiten in einem Messraster darstellt (Priestley, 1765a). Es war eines der frühesten Werke, das die heute für historische Zeitleisten üblichen Konventionen von Linearität und Regularität anwandte, und damit das bedeutendste Werk seiner Art, das im 18. Jahrhundert erschien (Abbildung 1).
Abbildung 1: Joseph Priestleys biografische Tabelle aus dem Werk History and Present State of Discoveries Relating to Vision, Light, and Colours von 1772. Die in der Chart of Biography enthaltenen biografischen Informationen sind die Lebensdaten wichtiger Persönlichkeiten in der Geschichte der Optik. Mit freundlicher Genehmigung der Rare Book Division. Department of Rare Books and Special Collections der Bibliothek der Universität Princeton.
Außerdem war Priestley ein empirischer Forscher und Experimentator. Am bekanntesten von seinen vielen naturwissenschaftlichen Beiträgen ist die Isolation von Sauerstoff aus Luft im Jahr 1774. Ihn interessierten gerade zusammengesetzte Phänomene in den vielen Gebieten, auf denen er forschte und über die er schrieb. In seinen historischen Werken, die außer Texten auch Diagramme enthielten, interessierte sich Priestley nicht nur für individuelle Fakten – Wann war Newton geboren? Wann war er gestorben? –, sondern für große Konstellationen von Informationen. Er untersuchte wissenschaftliche Gebiete quantitativ, indem er historische Gestalten nach den Bereichen ihrer Errungenschaften zusammenfasste und ihre Lebensdaten auf einer Zeitleiste festhielt, um Erscheinungsmuster und Variationen nach ihrer Dichte zu beobachten. Historische Daten in einer Grafik darzustellen, wie es Priestley tat, ist heutzutage selbstverständlich, und dies verdanken wir zum Teil Priestley selbst. Heu-
Daniel Rosenberg: Daten vor Fakten
te betrachten wir eine Zeitleiste und ermitteln intuitiv und mühelos historische Muster. Doch all das war neu, als Priestley seine Tabellen veröffentlichte, und die Gesamtschau, die sie vermittelten, wurden als wichtiger und neuartiger Beitrag zur Sozial- wie zur Naturwissenschaft betrachtet. Tatsächlich wird auf die Chart of Biography und nicht auf eine Errungenschaft in der Experimentalwissenschaft in Priestleys Berufungsurkunde in die Royal Society verwiesen. Auch spätere Autoren wie der Volkswirt William Playfair, der frühe Versionen des Linien- und Balkendiagramms in seinem Commercial and Political Atlas von 1786 einführte, würdigten Priestley für seine innovative Arbeit auf diesem Gebiet. Tatsächlich taucht der Begriff »data« wiederholt in Priestleys Werken auf. In seinen Experiments and Observations on Different Kinds of Air bezeichnet Priestley experimentelle Volumenmessungen als »data«. In Evidence of Revealed Religion merkt er an, dass die Heilige Schrift uns »keine hinreichenden Daten« über die physische Beschaffenheit des auferstandenen Leibes Christi offenbare. Im Essay on a Course of Liberal Education for Civil and Active Life heißt es: »Erziehung ist ebenso eine Kunst (gegründet, wie alle Künste, auf Wissenschaft) wie Landwirtschaft, Architektur oder Schiff bau. In all diesen Fällen stehen wir vor einem praktischen Problem, das mit Hilfe von Daten bewältigt werden muss, welche Erfahrung und Beobachtung uns zur Verfügung stellen.« (Priestley, 1777, S. 54; Priestley, 1794-179, S. 231; Priestley, 1765b, S. 144). Doch Priestley steht in dieser Hinsicht nicht allein da. Der Begriff »data« taucht in allen möglichen Werken englischer Autoren des 18. Jahrhunderts auf. Aber was besagte dieser frühe Wortgebrauch? Worin bestand seine Bedeutung in der Sprache und Kultur des 18. Jahrhunderts? Und wie hängt er mit dem uns heute vertrauten Wortgebrauch zusammen? Was waren das für Daten, die nichts mit modernen Informationsbegriffen und -systemen zu tun hatten? Welche Vorstellung von Daten ging unserer Vorstellung voraus und bereitete den Weg zu ihr? All diese Fragen sind umso dringlicher, da in neueren historischen Darstellungen von Wissenschaft und Erkenntnistheorie wie so grundlegenden Werken von Lorraine Daston, Mary Poovey, Theodore Porter und Ann Blair der Begriff »Daten« zwar einen Löwenanteil hat, doch ohne dass darauf näher eingegangen wird (Blair, 2010, S. 2; Daston, 1988, S. 466; Porter, 1986, S. 3). Nehmen wir z.B. die ersten Zeilen von Mary Pooveys bahnbrechendem Buch A History of the Modern Fact: »Was sind Fakten? Sind sie unumstößliche Daten, die schlicht beweisen, was wahr ist? Oder sind sie Beweisstücke, die man auf bietet, um andere von seiner Theorie zu überzeugen?« Fakten können entweder als theoriebeladen oder als simpel und unumstößlich verstanden werden, meint Poovey. Im letzteren Fall nennen wir sie »Daten« (Poovey, 1998, S. 1). Natürlich wäre es nicht schwer, hier ein wenig den Neunmalklugen zu spielen. Wenn sich Fakten dekonstruieren lassen, wenn sich nachweisen lässt, dass sie »theoriebeladen« sind, dann gilt dies auch für Daten. Aber es ist nicht klar, ob dies sinnvoll wäre, von einem begrifflichen wie von einem praktischen Standpunkt aus. Die existierende Historiografie der Fakten ist aus sich selbst her-
135
136
2. Geschichte und Theorie der Daten
aus stark, und eine ungedeckte, nicht dekonstruierte Verwendung des Begriffs »Daten« richtet keinen besonderen Schaden an. Wichtiger ist, dass es da eine praktische Erwägung gibt: Man muss über eine gewisse Sprache verfügen, mit der man arbeiten kann, und nach spannenden Begriffsgeschichten von »Wahrheit«, »Fakten«, »Beweis« und anderen derartigen Begriffen ist es hilfreich, noch den einen oder anderen nicht ableitbaren Begriff übrig zu haben. Vor allem ist es ganz entscheidend festzustellen, dass der Begriff »Daten« eine andere rhetorische und konzeptuelle Funktion erfüllt als geschwisterliche Begriffe wie »Fakten« und »Beweis«. Genauer gesagt: Im Gegensatz zu diesen anderen Begriffen haben Daten eine spezifisch rhetorische semantische Funktion. (Rosenberg 2007) Die Frage lautet somit: Wodurch wird der Begriff Daten ein guter Kandidat für etwas, das wir nicht dekonstruieren wollen? Um das zu verstehen, müssen wir wissen, was Daten von anderen, eng verwandten konzeptuellen Einheiten unterscheidet, woher Daten kommen und wie sie sich einen bestimmten Bereich innerhalb einer größeren konzeptuellen und diskursiven Sphäre schufen. Was also waren Daten vor dem 20. Jahrhundert? Und wie kamen sie zu ihrem präanalytischen, präfaktischen Status? Ein guter Ausgangspunkt ist die Etymologie. Das Wort »data« stammt aus dem Lateinischen. Es ist der Plural des lateinischen Wortes »datum«, das seinerseits das neutrale Partizip Perfekt des Verbs »dare«, geben, ist. Ein »datum« ist somit etwas in einem Argument Gegebenes, etwas, das als selbstverständlich gilt. Dies steht im Gegensatz zum »Faktum«, das auf das neutrale Partizip Perfekt des lateinischen Verbs »facere«, machen oder tun, zurückgeht – »factum« ist also das, was getan worden oder geschehen ist. Die Etymologie von »Daten« steht auch im Gegensatz zu der von »Evidenz«, nach dem lateinischen Verb »videre«, sehen. Hier gibt es wichtige Unterschiede: Fakten sind ontologisch, Evidenz ist epistemologisch, Daten sind rhetorisch. Ein Datum kann auch ein Faktum sein, so wie ein Faktum eine Evidenz sein kann. Aber seit seiner ersten sprachlichen Formulierung ist die Existenz eines Datums unabhängig von jeder Berücksichtigung einer entsprechenden ontologischen Wahrheit. Wenn sich ein Faktum als falsch erweist, hört es auf, ein Faktum zu sein. Falsche Daten hingegen bleiben dennoch Daten. Im Englischen ist »data« ein ziemlich junges Wort, wenn auch nicht so jung, wie man meinen möchte. Der früheste Gebrauch des Begriffs ist laut Oxford English Dictionary in einem theologischen Traktat von 1646 nachweisbar, in dem von »einem Haufen von Daten (data)« die Rede ist. Bemerkenswerterweise wird hier der Plural »data« und nicht der Singular »datum« verwendet. Zwar erscheint auch das Wort »datum« im Englischen des 17. Jahrhunderts, doch sein Gebrauch war wie heute begrenzt – so begrenzt, dass Kritiker bezweifelt haben, ob das lateinische »datum« im Gegensatz zum durchaus akzeptierten Gebrauch der Pluralform sich jemals im Englischen eingebürgert hat.2 2 | Beispiele aus unterschiedlichen Bereichen: Myers, 1972; Carter und Smith, 1983; Bates und Benz Jr., 2009.
Daniel Rosenberg: Daten vor Fakten
»Data« zogen nicht kommentarlos aus dem Lateinischen ins Englische ein. Bereits im 18. Jahrhundert diskutierten Stilisten darüber, ob das Wort ein Singular oder ein Plural sei und ob ein fremdsprachliches Wort seiner Art überhaupt ins Englische gehöre. Im Lateinischen ist »data« stets ein Plural, doch im Englischen lässt es sogar im 18. Jahrhundert der allgemeine Sprachgebrauch zu, dass »data« entweder als Plural oder als Kollektivsingular fungiert. Stilführer geben zwar unterschiedliche Empfehlungen, doch der Sprachgebrauch lässt beide Formen zu, und ein Vergleich mit anderen lateinischen Lehnwörtern führt nicht zu eindeutigen Ergebnissen.3 Ja, das moderne Englisch überlässt es anscheinend dem Kontext, ob der Begriff als Plural oder als Kollektivsingular zu behandeln sei, da es unterschiedliche Konnotationen gibt. Wenn man sich auf einzelne Bits oder verschiedene Arten von Daten bezieht und sie einander gegenüberstellt, kann es vernünftig sein, den Plural vorzuziehen, da in diesen Daten nicht alle gleichermaßen verlässlich sind. Wenn man sich hingegen auf Daten als Masse bezieht, kann es besser sein, den Singular zu verwenden, da Daten in dieser Masse verlässlich sind. Laut Steven Pinker ist letzterer Gebrauch in heutigem Englisch üblich geworden (Pinker, 1999, S. 178). Die Tatsache, dass ein englisches Standardwörterbuch ein »datum« als »ein Stück Information«, als ein Fragment eines anderen linguistisch komplexen Stoffnamens definiert, bestärkt diesen intuitiven Sprachgebrauch zusätzlich.4 Im Englisch des 17. Jahrhunderts allerdings kam weder »data« noch »datum« besonders häufig vor. Damals wurde der Begriff »data« speziell in der Mathematik verwendet, und zwar in dem fachlichen Sinn, den er bei Euklid hat, nämlich als gegebene Quantitäten in mathematischen Problemen im Gegensatz zu den »quaesita«, den gesuchten Quantitäten, sowie in der Theologie, wo er Wahrheiten der Heiligen Schrift bezeichnete, entweder Prinzipien oder Fakten, die von Gott gegeben und daher nicht in Frage zu stellen waren. Im 17. Jahrhundert konnte man in der Theologie bereits von »historischen Daten« sprechen, die jedoch genau die Arten von Information bezeichneten, die sich außerhalb des Reichs des Empirischen befanden: gottgegebene Fakten und Prinzipien, die den Historiker dazu befähigten, die »quaesita« der Geschichte zu ermitteln. Dieser Hinweis ist durchaus keine Marginalie: Die fachliche historische Praxis in der frühen Neuzeit bedingte die Anpassung historischer Fakten an Daten der Heiligen Schrift, damit das Unbekannte bekannt wurde. Einige der heroischsten Bemühungen dieser Art gab es im Bereich der Chronologie, besonders wenn es darum ging, europäische und nichteuropäische historiografische Traditionen 3 | Beinahe jeder vollständige Stilführer enthält Ausführungen über das Problem im Allgemeinen oder im speziellen Fall von »data«. Eine klassische Abhandlung über fremdsprachige Lehnwörter im Englischen ist Fowler, 1908. Über den Gebrauch von »data« im heutigen Englisch siehe American Heritage Dictionary. Fachliteratur, die sich mit dem Thema befasst: Zins, 2007; Daniel und Smith, 1983; Meyers, 1972. 4 | Oxford Dictionaries Online, Stichwort »Datum«. Siehe auch Nunberg, 1996.
137
138
2. Geschichte und Theorie der Daten
abzugleichen. Weitere Beispiele sind antike Berichte über Kometen und andere astronomische Phänomene, die historische Darstellungen, die auf der Heiligen Schrift basierten, vor Interpretationsprobleme stellten. Und bezeichnenderweise ist gerade die Chronologie eines der Gebiete, auf denen das englische Wort »data« am frühesten florierte. In der Philosophie und Naturphilosophie ebenso wie in der Mathematik und Theologie des 17. Jahrhunderts diente der Begriff »data« dazu, jene Kategorie von Fakten und Prinzipien zu bezeichnen, die nach allgemeiner Übereinkunft unbestreitbar waren. In unterschiedlichen Kontexten könnte eine solche Übereinkunft auf einem Konzept der selbstevidenten Wahrheit basieren, etwa bei biblischen Daten, oder auf schlichter argumentativer Zweckmäßigkeit, wie in der Algebra, wenn z.B. x = 3 ist und so weiter. Der Begriff »data« an sich erhob keinerlei ontologischen Anspruch. In der Mathematik, in der Theologie und in jedem anderen Bereich, in welcher der Begriff verwendet wurde, war »data« etwas durch die Regeln des Arguments Gegebenes. Ob diese Regeln nun faktisch, kontrafaktisch oder willkürlich waren, hatte keine Bedeutung für den Status von Gegebenheiten (»givens«) wie Daten. Im englischen Sprachgebrauch hatte »data« eine viel engere Bedeutung als »data« im Lateinischen oder als »given« im Englischen. In der Mathematik, in der Theologie oder in sonst einem Gebiet betonte der Gebrauch des Begriffs »data« den argumentativen Kontext ebenso wie den Gedanken der Problemlösung, indem er bekannte mit unbekannten Dingen in Beziehung setzte. Der »heap of data« (»Haufen von Daten«), den das OED in Henry Hammonds theologischem Traktat A Brief Vindication of Three Passages in the Practical Catechisme von 1646 entdeckte, ist nicht etwa ein Haufen Zahlen, sondern eine Liste mit theologischen Behauptungen, die als wahr akzeptiert wurden, und zwar um des Arguments willen, dass Priester zum Gebet gerufen, dass die Liturgie streng befolgt werden sollte und so fort (Hammond, 1674, S. 248). Im Übrigen wurde das lateinische Wort »data«, eine konjugierte Form des Verbs »dare«, während des 17. und 18. Jahrhunderts ständig gebraucht. Im frühneuzeitlichen wie im klassischen Latein ist überall von »data« die Rede. Doch dieses lateinische »data« wird im Englischen selten mit »data« übersetzt. Ein gutes Beispiel dafür ist eine Übersetzung von Bacons Novum Organum (deutsch Neues Organon) aus dem Jahr 1733. Der »Aphorismus 105« im Ersten Buch des Novum Organum lautet hier folgendermaßen: Inductioenim quae procedit per enumerationem simplicem res puerilis est, et precario concludit, et periculo exponitur ab instantia contradictoria, et plerumque secundum pauciora quam par est, et ex his tantummodo quae praesto sunt, pronunciat. For that Induction which proceeds by simple Enumeration, is a childish thing; concludes with Uncertainty; stands exposed to Danger from contradictory Instances; and generally pronounces upon scanty Data; and such only as are ready at hand.
Daniel Rosenberg: Daten vor Fakten (Denn die bloß auf die einfache Abzahlung sich stützende Induktion ist ein kindisches Ding und führt nur zu unsicheren Schlüssen; sie bleibt der Gefahr entgegengesetzter Fälle ausgesetzt und stützt sich meistens auf die wenigen Fälle, welche gerade zur Hand sind.) (Bacon, 1733, S. 397).
Hier finden wir also das Wort »data« in der englischen Übersetzung, aber nicht im lateinischen Original. Ja, in der lateinischen Fassung haben wir an dieser Stelle nicht einmal ein Substantiv, sondern nur das substantivierte Adjektiv »pauciora«, das so viel wie eine kleine Anzahl von etwas bedeutet, einem Etwas, das Bacons Übersetzer im 18. Jahrhundert als »data« verstand. Es wird sogar noch komplizierter, denn Bacon selbst gebrauchte den Begriff »data« nicht, als er auf Englisch schrieb. »Data« erscheint in Bacons Werk erst nachträglich, posthum – und genau zu dem Zeitpunkt, wenn wir es erwarten würden, nämlich in den frühen 1730er Jahren. Dieses Phänomen der posthumen Einführung des Begriffs »data« beschränkt sich im Übrigen nicht auf Bacon. Dies geschah auch in der Ausgabe der Werke von Newton praktisch zur gleichen Zeit. Bacons Übersetzer, der Arzt Peter Shaw, interpolierte den Begriff »data« in das Novum Organum 1733; Newtons Übersetzer John Colson führte »data« in Newtons Werke drei Jahre später ein. Im Gegensatz zu dem, was im Fall Bacons geschah, legte Colson das englische Wort »data« Newton eigentlich nicht in den Mund. Aber er machte ausgiebig Gebrauch von diesem Begriff in seinen analytischen Anmerkungen zu Newtons Werken. Meist verwendete er den Begriff »data« im engen euklidischen Sinn, nämlich im Gegensatz von mathematischen »data« und »quaesita«. Aber nicht immer. Am bemerkenswertesten ist Colsons Gebrauch von »data« in seiner hagiografischen Einführung in seine Übersetzung von Newtons Schrift The Method of Fluxions and Infinite Series: »To improve Inventions already made, to carry them on, when begun, to farther perfection, is certainly a very useful and excellent Talent; but however is far inferior to the Art of Discovery, as having pou sto (foundations), or certain data to proceed upon and where just method, close reasoning, strict attention, and the Rules of Analogy, may do very much.« (Erfindungen zu verbessern, die bereits gemacht wurden, sie, wenn sie begonnen wurden, zu größerer Vollkommenheit weiterzuführen, ist gewiss ein sehr nützliches und ausgezeichnetes Talent; es ist jedoch weitaus geringer als die Kunst der Entdeckung, wenn man Grundlagen oder gewisse Daten hat, um von da aus weiterzugehen, und wo allein die Methode, der genaue Verstand, die strenge Aufmerksamkeit und die Regeln der Analogie sehr viel auszurichten vermögen.) Newton 1736, S. XX.
Das Zitat ist insofern interessant, weil es so entschieden zwischen den Künsten der Erfindung und der Entdeckung unterscheidet und weil es letzterer einen hohen Wert beimisst. Die Entdeckung ist nach Colson »die edelste Begabung« des menschlichen Geistes, die Erfindung hingegen ist bloß »nützlich«.
139
140
2. Geschichte und Theorie der Daten
Am interessantesten aus der Perspektive dieser lexikografischen Geschichte aber ist das Vorhandensein des englischen Wortes »data«, das hier auf eine Weise gebraucht wird, die für Colsons Zeit ganz charakteristisch ist. »Pou sto« ist der Boden, auf dem man steht, wie in der berühmten Formulierung von Archimedes »Gib mir einen Punkt, wo ich hintreten kann, und ich bewege die Erde«, und zweifellos hat Colson in seinem Text darauf angespielt. Um 1730 war nichts merkwürdig daran, den Begriff »data« zu gebrauchen, um damit Fakten zu bezeichnen, die man durch Experimentieren wahrnimmt, aber hier verwendet Colson »data« im üblichen abwägenden Sinn von Prinzipien oder Axiomen, auf deren Grundlage Methoden ersonnen und Fakten entdeckt werden können. Das also erfährt man durch Lektüre. Aber wie steht es um die Daten über »data«? Könnte hier auch eine quantitative Vorgehensweise möglich sein? Könnte man die Gesamtheit aller gedruckten englischen Bücher studieren, um herauszufinden, wann »data« ein üblicher Begriff im Englischen wurde, wie er aus dem Lateinischen eingeführt wurde und wann er zu seinen verschiedenen Bedeutungen gelangte? Zum Glück schwimmen wir heute in Daten für die lexikografische Forschung, die uns spezialisierte wie allgemeine Datenbanken zur Verfügung stellen, samt einem ganzen Spektrum eigenständiger elektronischer Bücher bis zu riesigen Archiv- und Scanprojekten wie dem Projekt Gutenberg und Google Books. Einige dieser Ressourcen sind so angelegt, dass sie ganz allgemein Druckformate imitieren. Sie können zwar verschiedene Suchmerkmale, Hyperlinks, Umformattierungsoptionen, Zugänglichkeit auf vielen Plattformen und so weiter aufweisen, doch im Prinzip ist es ihr Zweck, ein lesbares Produkt zu liefern, das dem Buch aus Papier und Druckerschwärze gleicht. Andere, wenn auch noch relativ wenige Projekte stellen die Aggregats- und statistischen Merkmale der Textkorpora in den Vordergrund, die sie erschließen, und in ein paar Fällen wird sogar die Möglichkeit der konventionellen Lektüre vom Anfang bis zum Ende ausgeschlossen. Viel ist bereits über Google Books geschrieben worden, aber ein Großteil dieser wissenschaftlichen Literatur befasst sich mit der Art und Weise, wie Google mit Autoren, Verlegern, Bibliotheken und konkurrierenden Datenbanken interagiert und diese hervorhebt, was vor allem mit dem Schicksal von Büchern im Zeitalter der Elektronik zusammenhängt.5 Seit Anfang 2011 jedoch ist das Recherchepotenzial von Google Books als linguistischer Korpus statt als elektronische Bibliothek in den Fokus geraten. Um Recherchen zu ermöglichen, hat Google seinen Buchkorpus in zwei neuen Formen zugänglich gemacht: Die einzelnen Werken entnommenen Rohdaten lassen sich für eine Analyse downloaden, entsprechend den Interessen der jeweiligen Forscher, oder sie lassen sich durch eine einfache Onlineschnittstelle suchen, den so genannten Google Books Ngram Viewer. Ein »ngram« ist eine Formulierung, die aus einer begrenzten Anzahl von Wörtern (n) besteht: Der Ngram Viewer lässt Korpussuchen über diese Formulie5 | Zwei Beispiele aus dieser umfangreichen Literatur: Baker, 2002; Darnton, 2009.
Daniel Rosenberg: Daten vor Fakten
rungen zu und liefert dann statistische Ergebnisse. Während der Ngram Viewer nur begrenzte Arten von Suchen ausführen kann, ist seine einfache Vorgehensweise schon eindrucksvoll: Gibt man eine oder mehrere Suchformulierungen von bis zu fünf Wörtern sowie einen historischen Zeitrahmen ein, kann der Ngram Viewer sofort einen Graphen der relativen Verwendungshäufigkeit im Laufe der Zeit produzieren.
Abbildung 2: Relative Häufigkeit von Daten in Google Books pro Jahr von 1700 bis 2000, generiert von Google Ngram Viewer.
Abbildung 3: Relative Häufigkeit von Daten im Korpus von Google Books von 1700 bis 2000, manuell generiert. Achtung: Daten sind durch wiederholte datenbegrenzte Google-Suchen generiert.
141
142
2. Geschichte und Theorie der Daten
Abbildung 4: Suchvolumen für Ngram, von Mai 2010 bis Dezember 2011, generiert von Google Trends.
Ein Team von Harvard-Forschern unter Leitung des Physikers Erez Lieberman Aiden und des Biologen Jean-Baptiste Michel hat den Ngram Viewer entwickelt. Die Forscher haben ihn mit einer cleveren Publicitystrategie eingeführt: Sie haben sich an eine untere wie an eine obere Zielgruppe gewandt, indem sie den Ngram Viewer als amüsanten Zeitvertreib wie als Werkzeug für seriöse wissenschaftliche Forschung präsentierten. In ihrem im Januar 2011 in der Zeitschrift Science erschienen Beitrag »Quantitative Analysis of Culture Using Millions of Digital Books« stellen Michel und Lieberman Aiden den Ngram Viewer als ein Werkzeug vor für die so genannte Kulturomik, einer quantitativen Kulturanalyse nach dem Vorbild der Genomik und anderer -omik-Gebiete, die gerade in den Naturwissenschaften boomen. (Michel et al., 2011; Lieberman Aiden et al., 2007)6 Michels und Lieberman Aidens Publicitystrategie erwies sich als erfolgreich – sie fand Beachtung in Schlüsselmedien wie der New York Times ebenso wie in der Blogosphäre, wo das einfache Nutzen und Verlinken eine Menge Küchen-Kulturomik auslöste. Kurz gesagt: Es hatte den Anschein, als würden alle nur noch ngrammen (Cohen, 2010; Zimmer, 2011; North, 2010; Madrigal, 2010; Klein, 2010). Das Harvard-Team brachte den Stein ins Rollen mit einigen eigenen provokativen Diagrammen, die die sich verändernde Bedeutung im linguistischen Korpus einer Vielzahl von Menschen, Ereignissen und Dingen grafisch darstellten. »›Galilei‹, ›Darwin‹ und ›Einstein‹ mögen sehr bekannte Wissenschaftler sein«, schreiben Michel und Lieberman Aiden, »aber ›Freud‹ ist tiefer in unserem kollektiven Unbewussten verwurzelt […]. Im Kampf der Geschlechter machen ›Frauen‹ Boden gut gegenüber den ›Männern‹« (Michel et al., 2011, S. 181f.). Selbst Jahre 6 | Siehe auch www.culturomics.org.
Daniel Rosenberg: Daten vor Fakten
als solche lassen sich durch den Korpus verfolgen, und dies ergab interessante Regelmäßigkeiten: »Genau wie Individuen vergessen auch ganze Gesellschaften die Vergangenheit. Um diesen Effekt zu quantifizieren, argumentierten wir, dass sich anhand der Häufigkeit von 1-grams wie ›1951‹ das Interesse an den Ereignissen des entsprechenden Jahres messen ließe, und dann erstellten wir Diagramme für jedes Jahr zwischen 1875 und 1975. Diese Diagramme hatten eine charakteristische Form. So wurde beispielsweise über ›1951‹ bis zu den Jahren unmittelbar vor 1951 kaum gesprochen. Die Häufigkeit stieg 1951 an, blieb drei Jahre lang hoch und ging dann rasch zurück – im Laufe der nächsten 15 Jahre um die Hälfte. Schließlich nehmen die Diagramme einen Verlauf an, der durch langsameres Vergessen bestimmt wird: Das kollektive Gedächtnis hat sowohl eine kurzfristige wie eine langfristige Komponente. Aber es gibt Veränderungen. Die Amplitude der Diagramme nimmt jedes Jahr zu: Genaue Daten werden zunehmend geläufig. Außerdem ist ein stärkerer Fokus auf die Gegenwart festzustellen. So ging beispielsweise ›1880‹ 1912 auf die Hälfte seines Spitzenwertes zurück – ein Rückgang von 32 Jahren. ›1973‹ hingegen ging schon 1983 auf die Hälfte seines Spitzenwertes zurück – also innerhalb von nur zehn Jahren. Mit jedem Jahr, das vergeht, vergessen wir unsere Vergangenheit schneller.« (Ebd., S. 178f.)
Abbildung 5: Relative Häufigkeit von »he sobbed« gegenüber »she sobbed« in Google Books von 1800 bis 2000, erfasst von jezebel.com und generiert von Google Ngram Viewer.
Über das, was man mit diesen Worthäufigkeitstrends anfängt, lässt sich natürlich streiten. »Frauen« sind nicht einfach Frauen, so wie »Männer« nicht einfach Männer sind, und es gibt gute bürokratische Gründe, die nichts mit »kollektivem Gedächtnis« zu tun haben, warum 1951 in Dokumenten von 1950 auftauchen würde, doch die Forscher behaupten, im Rahmen des linguistischen Korpus würden die Daten für sich sprechen.
143
144
2. Geschichte und Theorie der Daten
Abbildung 6: Relative Häufigkeit von »zombie« gegenüber »vampire« in Google Books von 1800 bis 2000, erfasst von the-atlantic.com und generiert von Google Ngram Viewer.
Der Wert dieser Diagramme wurde sofort ein Gegenstand der wissenschaftlichen Debatte. Manche Geisteswissenschaftler waren höchst skeptisch; andere, wie Anthony Grafton und Geoffrey Nunberg, nahmen sie wohlwollender an. Grafton lud Michel und Lieberman Aiden ein, ihre Ergebnisse der American Historical Association in zwei Sondersitzungen 2011 und 2012 vorzutragen, wobei sich die zweite ausgiebig damit befasste, Missverständnisse zu entkräften wie die Vorstellung, die Kulturomik wolle Historiker durch Computerprogrammierer ersetzen (Nunberg, 2010; Grafton, 2010). Bedeutsamer als der Ngram Viewer war Googles Entscheidung, seine Rohdaten7 – falls dieser Begriff überhaupt zutrifft – zum Download zur Verfügung zu stellen, damit Wissenschaftler sich die Zahlen selbst vornehmen können, ohne sie durch die Ngram-Schnittstelle laufen lassen zu müssen.20 Diese Ressource wird wahrscheinlich zu einer signifikanten neuen Forschung führen – gleichzeitig müsste sie auch neue Kritik auslösen.
7 | Von unserer generellen Kritik an der Vorstellung von »Rohdaten« ganz abgesehen, zeigt sich in diesem speziellen Fall, dass die Daten überhaupt nicht roh sind. Um Anomalien im größeren Korpus von Google Books zu korrigieren, behandelt der Ngram Viewer nur eine Teilmenge der größeren Daten, rund fünf Millionen von den fünfzehn Millionen Büchern, die von Google Ende 2010 digitalisiert waren. Das ist natürlich auch keine kleine Zahl. Michel und Lieberman Aiden schätzen, dass dies etwa vier Prozent aller je erschienenen Bücher sind. Michel et al., 2011, S. 176.
Daniel Rosenberg: Daten vor Fakten
Abbildung 7: Relative Häufigkeit von »Männer« gegenüber »Frauen« in Google Books, 1900– 2000, erfasst von Michel und Lieberman Aiden und generiert durch Google Ngram Viewer.
Als ich mit der Forschung für diese Studie begann, gab es den Google Ngram Viewer noch nicht, und obwohl es möglich war, ähnliche Ergebnisse manuell zu erzielen, bot Google Books weder den naheliegendsten noch den vielversprechendsten Korpus an, mit dem sich eine Studie wie diese durchführen ließe. Abbildung 3 beweist, dass sich eine Kurve erzeugen lässt, die mit der vom Ngram Viewer erzeugten übereinstimmt, indem man eine Suche nach dem Begriff »data« Jahr für Jahr wiederholt und die Ergebnisse durch die Suchergebnisse für ein Kontrollwort in ein und demselben Jahr teilt, um den Effekt einer sich verändernden Korpusgröße wettzumachen. Dies deutet zwar an, welche Möglichkeiten der Korpus bietet, kann sie aber nicht einmal ansatzweise nutzen. Jedenfalls begann ich meine Forschungen nicht mit Google Books, sondern indem ich vielmehr die Datenbank Eighteenth-Century Collection Online (ECCO) des Schulbuchverlags Gale subskribierte. ECCO ist in vielerlei Hinsicht ein primitives Werkzeug und leidet unter mehreren der entscheidenden Schwächen, für die Google Books kritisiert wird, etwa die schwankende Scanqualität. Doch ECCO hat auch einige beachtliche Vorzüge. Der auf dem English Short Title Catalogue basierende Korpus von ECCO I ist groß – er umfasst über 136.000 Einzeltitel, 155.000 Bücher und 26 Millionen Seiten Text und wird unterstützt von einer zugänglichen analogen Mikrofilmsammlung, aus der er hervorging, sowie von gut katalogisierten Büchern. Durch das später gelieferte Supplement ECCO II erhöhen sich diese Zahlen auf 182.000, 205.000 und 32 Millionen. Außerdem ist ECCO klar definiert und viel stabiler als Google Books, das sich ständig verändert. ECCOs Quellen sind gut ausgewählt, gut bekannt und zugänglich. Seine Standardsuchfunktionen sind flexibler. Und zu diesem Zeitpunkt sind die Metadaten viel besser.
145
146
2. Geschichte und Theorie der Daten
Tatsächlich gibt es so viel Gutes an ECCO, dass man vor zehn Jahren hätte glauben können, ECCO würde sich so revolutionär auf die Wissenschaft auswirken, wie dies heute Google und die Fürsprecher von Kulturomik von Google Books behaupten. ECCO hat zwar viele neue Forschungswege eröffnet, aber nicht derartige Auswirkungen gehabt. 2002 pries die Werbung des Verlags ECCO als »Forschungsrevolution« an. Eine Rezension sprach vollmundig von einer »Ressource, für die Wissenschaftler sterben werden«.8 Meine mit mir promovierenden Freunde nannten es »die Dissertationsmaschine«. Zunächst einmal war ECCOs Wirkung insofern begrenzt, als sie nicht offen verfügbar war wie Google Books. Außerdem ist ECCO zwar eine Volltextdatenbank, doch sie gestattet es Nutzern nicht, Text zu kopieren und einzufügen. Und während die Nutzer Wörter unter den Seitenbildern suchen können, können sie nicht erkennen, was der Computer sieht: Sie können die Zeichen nicht erkennen, die der Computer im Seitenbild erkennt. Ironischerweise hat ECCOs Verlag die Regeln für das Downloaden von Seitenbildern gelockert. Somit können Subskribenten der Datenbank leicht und schnell Seitenbilder ganzer Bücher aus ECCO downloaden. Doch normale Nutzer können nicht einmal eine einzige Seite Text downloaden, wie sie von ECCOs Zeichenerkennungsprogramm (OCR) interpretiert wird, was darauf hindeutet, dass Gale im Laufe der Zeit entschied, dass es keinen prozentualen Anteil an Büchern, nicht einmal an digitalisierten Bildern von Büchern gebe, solange die Bücher nicht bereits als Daten verpackt sind.9 Die Zukunft gehört den Daten. Als ich mit ECCO arbeitete, wollte ich zunächst die Bedeutung von »data« bei Priestley verstehen. Zum Glück erwiesen sich meine ersten Suchanfragen als vielversprechend. Einerseits stimmen die ECCO-Ergebnisse mit denen von Google überein. Aus einer streng quantitativen Perspektive ist der Start von »big data« zweifellos ein für die Zeit nach der Aufklärung typisches Phänomen. Andererseits weist ECCO klare Trends im Wortgebrauch des 18. Jahrhunderts nach, die die Grundlagen für alle späteren Entwicklungen schufen, welche in Googles Projektionen nur schwer auszumachen sind. Das 18. Jahrhundert brachte wichtige
8 | Anzeige für Eighteenth Century Collections Online, erschienen in Choice 40, Nr. 9 (Mai 2003), S. 1525; Library and Information Update 2, Nr. 9 (September 2003), S. 10. 9 | Zum Glück haben andere Nutzer dies auch bemerkt und den Verlag Gale erfolgreich gedrängt, ihnen einen begrenzten Zugang zu gescannten Texten zu gestatten, die sie sogar korrigieren dürfen. Im April 2011 erlaubte Gale der Text Creation Partnership an der University of Michigan, 2.231 Texte aus ECCO manuell einzugeben und herauszubringen: www. lib.umich.edu/tcp/ecco/description.html. Ähnliche Projekte, Texte neu einzuscannen, per Schwarmauslagerung einzugeben und zu korrigieren, werden derzeit von 18th Correct organisiert. Siehe www.18thconnect.org.
Daniel Rosenberg: Daten vor Fakten
neue Denkweisen im Hinblick auf Daten hervor, und Priestley befand sich zum Glück genau da, wo diese neuen Denkweisen entstanden.10
Abbildung 8: Prozentualer Anteil der Werke im Korpus von ECCO von 1701 bis 1800, die den englischen Gattungsnamen »data« enthalten.
Die ECCO-Zahlen sind interessant, aber auch überraschend klar angesichts der Ergebnisse von Google Books, die den Eindruck vermitteln, dass die starken Trends in der Geschichte des Begriffs »data« im 19. Jahrhundert einsetzen und sich eindeutig erst im 20. beschleunigen. Zunächst einmal war »data«, statistisch gesehen, weder ein seltener noch ein besonders häufiger Gattungsbegriff im Englischen des 18. Jahrhunderts. Zum Vergleich erzielt eine simple Volltextsuche mit ECCO für das Wort »truth« Treffer in etwa 112.000 Büchern oder in etwa 82 Prozent der insgesamt 136.000 Bücher, die in ECCO I enthalten sind. »Evidence« taucht in 66.000 Büchern oder insgesamt 49 Prozent auf, »Fact« in etwa 35.000 oder 28 Prozent. Selbst wenn wir die großzügigste Zählung für »data« nehmen würden (ohne Ausschluss des lateinischen Wortgebrauchs, von Scanfehlern und so weiter), würden wir nicht mehr als 10545 Werke finden, in denen »data« auftaucht – also insgesamt etwa acht Prozent. Und eine strengere Analyse dieser Stellen ergibt eine erheblich kleinere Zahl, die eher bei zwei Prozent liegt. Im 18. Jahrhundert war »data« noch ein Fachbegriff.11 10 | Um die Schwankungen in der Größe des ECCO-Korpus zwischen den Jahrzehnten des 18. Jahrhunderts in den Griff zu bekommen, teilte ich die Zahl der Treffer für »data« durch die Trefferzahl für ein normales Kontrollwort. Experimente mit mehreren verschiedenen Kontrollwörtern ergaben, dass sich durch die Verwendung von »the« als Kontrollword ein stabiles Ergebnis erzielen ließ. 11 | Wie schwierig es ist, Zahlen wie diese zu interpretieren, wird durch die ganz unterschiedlichen Ergebnisse unterstrichen, die eine einfache Wortsuche in Google im Vergleich
147
148
2. Geschichte und Theorie der Daten
Je weiter man in die Daten über »data« einsteigt, desto komplizierter wird es. In meinem größeren Projekt will ich jeden Gebrauch des Begriffs »data« im ECCO-Korpus nicht nur
Abbildung 9: Werke von 1701 bis 1800 im Korpus von ECCO I, die »data«, »fact«, »evidence« und »truth« enthalten.
auf Häufigkeiten hin untersuchen, sondern auch im Kontext und nach den semantischen Merkmalen. Das erste und häufigste Problem, das in diesem Werk auftaucht, besteht darin, dass »data« selbst in den englischsprachigen Büchern in der Datenbank überwiegend als lateinisches Wort gebraucht wird. Oft taucht das lateinische Wort in Zitaten, Fußnoten oder konventionellen Formulierungen wie »data desuper« (wie sich aus Obigem ergibt) auf, die in längeren englischen Texten enthalten sind. Andere Treffer beziehen sich auf den Titel von Euklids Buch Data. Wieder andere erweisen sich als Fehler beim Scannen. In einem Fall wartete die Suchmaschine mit einem Verweis auf einen gewissen King Data auf, einem Riesen, der seine 25 Kinder mästete, indem er sie mit Puddings voller Zauberkräuter fütterte.12 Folglich ist es sinnvoll, jeden einzelnen Treffer genauer zu untersuchen, um die guten von den schlechten zu trennen und sie zu codieren, will man sich am konstruktiven Prozess des Erstellens von Daten beteiligen, der so gut in neueren Ethnograzu einer parallelen Suche in Google Books liefert. An dem Tag, als ich diesen Text verfasste, ergab eine einfache Suche in Google nach »facts« 163.000.000 Treffer, nach »data« hingegen 1.160.000.000, also sieben mal mehr Treffer als bei »facts«. Bei einer Suche in Google Books erhielt ich das umgekehrte Verhältnis, nämlich 166.000.000 Treffer für »facts« und 28500000 für »data«, also etwa ein Sechstel. 12 | Antonio de Herrera y Tordesillas, 1740, S. 119. Mehr über die Schwierigkeiten beim Arbeiten mit ECCO bei Patrick Spedding, 2011.
Daniel Rosenberg: Daten vor Fakten
fien der wissenschaftlichen Praxis beschrieben worden ist. Meine eigenen Daten mögen einmal roh gewesen sein, doch als ich sie einer ernsthaften Interpretation unterzog, hatte ich sie recht gut gekocht. Eine Herausforderung ist es gewesen, eine genaue Zählung für »data« zu bekommen. Als ich jeden Treffer eingehend prüfte und alle ausschloss, die keine Gattungsbegriffe im Englischen waren, schrumpfte der Pool der brauchbaren Fälle. Tatsächlich schrumpfte die Gesamtzahl doch zu stark. Viele Werke, die ECCO als solche auswies, die das Wort »data« enthielten, enthalten in Wirklichkeit mehr Stellen, als ECCO anzeigt – selbst in
Abbildung 10: Prozentualer Anteil von »data« im Lateinischen an den gesamten Treffern in ECCO I von 1701 bis 1800.
Werken, in denen die OCR-Algorithmen »data« einmal korrekt erkannten, übersahen sie den Begriff oft an anderen Stellen. Und mit Sicherheit lässt sich sagen, dass es mindestens ebenso viele Fälle gibt, in denen die ECCO-Textsuche »data« übersah, wie Fälle, in denen ECCO meinte, »data« erkannt zu haben, sich aber irrte. Die Zahlen zu schätzen ist schwierig: Einerseits gibt es mehr Möglichkeiten, dass ein OCR-Programm ein Vorkommen des Wortes übersieht, als dass es einen falschen Treffer erzielt; da andererseits der Begriff »data« in einem bestimmten Werk häufig mehr als einmal auftaucht (nach meinen Ergebnissen in rund 38 Prozent aller Werke dieses Zeitraums), wird eine signifikante Anzahl von Stellen, die das OCR übersieht, durch korrekt erkannte Stellen anderswo im selben Werk ausgeglichen. Weil sich herausstellte, dass es nur etwa 2300 sinnvolle Suchtreffer für »data« gab, war es möglich, alle Stellen genau zu lesen, sie nach mehreren Protokollen zu codieren und für jeden Fall sehr reiche Datensätze anzulegen. Es war auch möglich, die Quellenwerke ausgiebig zu lesen, um zu einem nuancierten Verständnis des Kontexts zu gelangen. Dies hat es mir gestattet, eine ziemlich breite Vielfalt
149
150
2. Geschichte und Theorie der Daten
von Fragen zu dem Begriff und zu entscheidenden Trends in seinem Gebrauch zu stellen. Und während diese Forschungen noch nicht abgeschlossen sind, gibt es bereits eine Anzahl vorläufiger Ergebnisse, und auf vier davon möchte ich nun näher eingehen. Erstens: Das Wort »data« ging in die englische Sprache im 17. Jahrhundert ein und wurde im 18. Jahrhundert eingebürgert. Es gibt eine Reihe von verschiedenen Belegquellen dafür, und diese Belege sind unzweideutig. Die aus der ECCODatenbank gewonnenen Daten weisen eine erhebliche Zunahme im Gebrauch des Begriffs im 18. Jahrhundert auf. Die Zahl der Bücher, in denen das englische Wort »data« auftaucht, beträgt 34 im ersten Jahrzehnt des Jahrhunderts und 885 im letzten Jahrzehnt, und diese Zahl von Büchern, in denen »data« auftaucht, nimmt relativ zur Gesamtzahl von Büchern in ECCO für dieses Jahrzehnt zu, und zwar von einem Anteil von 0,3 Prozent im ersten Jahrzehnt auf 3 Prozent im letzten. Zwar hat diese zehnfache Zunahme der relativen Häufigkeit »data« nicht zu einem weit verbreiteten Wort gemacht, aber zu einem bekannten. Zu Beginn des Jahrhunderts wurde der Begriff »data« in der überwiegenden Mehrheit der Fälle (88 Prozent) kursiv gesetzt – ein Hinweis darauf, dass das Wort noch als lateinisches Lehnwort galt. Am Ende des Jahrhunderts wurde »data« nur noch in 19 Prozent der Fälle kursiv gesetzt. Diese beiden Trends verstärken einander erheblich. Zweitens: Der Begriff »data« ging ins Englische im frühen 18. Jahrhundert prinzipiell durch Erörterungen in der Mathematik und in der Theologie ein, nämlich in 70 Prozent der Fälle. Am Ende des Jahrhunderts hatten Mathematik und Religion nur noch einen Anteil von 20 Prozent an der Gesamtzahl der Fälle, in denen inzwischen empirische Kontexte aus Medizin, Finanzwelt, Naturgeschichte und Geografie dominierten. Drittens: Im Laufe des 18. Jahrhunderts verlagerten sich die Hauptkonnotationen des Begriffs »data«. Zu Beginn des Jahrhunderts wurde »data« insbesondere dafür gebraucht, um entweder Prinzipien, die als Grundlage für ein Argument akzeptiert wurden, oder um Fakten aus der Heiligen Schrift zu bezeichnen, die nicht in Frage zu stellen waren. Am Ende des Jahrhunderts wurde der Begriff am häufigsten dafür gebraucht, um unübersehbare Fakten zu bezeichnen, die durch Experiment, Erfahrung oder Ansammlung ermittelt worden waren. Es war üblich geworden, sich Daten als das Ergebnis einer Untersuchung und nicht als ihre Voraussetzung vorzustellen. Diese semantische Umkehrung ergab zwar nicht die im 20. Jahrhundert gebräuchliche Bedeutung von Daten, aber sie ermöglichte sie. Noch heute verstehen wir Daten als Prämissen für ein Argument; doch unsere prinzipielle Vorstellung von Daten als Information in numerischer Form geht auf die Entwicklung im späten 18. Jahrhundert zurück.
Daniel Rosenberg: Daten vor Fakten
Abbildung 11: Prozentualer Anteil der Fälle von 1701 bis 1800, in denen das von ECCO I erfasste englische Wort »data« kursiv gesetzt wurde.
Abbildung 12: Prozentualer Anteil der Fälle an den Gesamttreffern von »data« in ECCO I von 1701 bis 1800, die sich auf die Bereiche Mathematik und Theologie beziehen.
Damit stellt sich natürlich eine zusätzliche Frage. Wenn »data« denn während des 18. Jahrhunderts immer häufiger gebraucht wurde, warum dauerte es dann bis zum 20. Jahrhundert, dass der Begriff wahrhaft omnipräsent wurde? Es ist klar, dass die grundlegende semantische Struktur des Begriffs »data«, die für den modernen Sprachgebrauch unerlässlich ist, um 1750 festgelegt worden war. Es hat allerdings den Anschein, dass der neu verfasste Begriff zwar der erkenntnistheoretischen Perspektive in der Mitte des 18. Jahrhunderts entsprach und sie veranschaulichte, aber dafür nicht unabdingbar war. Darüber hinaus hatte der
151
152
2. Geschichte und Theorie der Daten
Begriff »data« trotz aller wissenschaftlichen Errungenschaften des 19. Jahrhunderts noch nicht seine umfassende kulturelle Bedeutung. Tatsächlich durchlief der Begriff nach seiner Erfindung eine kulturelle Latenzphase. Auch wenn sich sein Gebrauch innerhalb gewisser Bereiche ständig ausweitete, spielte er während dieser Phase nur eine geringe Rolle in der allgemeinen Kultur. Paradoxerweise vermag diese lange Latenzphase zum Teil die großartige Zweckmäßigkeit des Begriffs im 20. Jahrhundert zu erklären. Als »data« im 20. Jahrhundert dann seine statistische Karriere startete, war dieser Begriff bereits gut eingeführt, aber ohne allen konnotativen Ballast. Durch das Aufkommen der Computertechnik und der Informationstheorie bekam der Grundbegriff der Daten, wie er im 18. Jahrhundert eingeführt wurde, neue Relevanz. Und weil der Begriff noch relativ ungewöhnlich war, ließ er sich an neue Assoziationen anpassen. Viertens: Das OED hat recht und Google nicht. Oder zumindest ist Google im Hinblick auf diese Frage noch nicht besonders hilfreich. Es gibt nämlich eindeutig quantifizierbare Trends in der Geläufigkeit wie im Gebrauch des Begriffs »data« im 18. Jahrhundert. Es war zwar ziemlich aufwendig, diese Trends anhand der ECCO-Daten sichtbar zu machen, aber nachdem dies geschafft war, ist es klar, dass sich die Darstellung der Geschichte des Begriffs im Oxford English Dictionary in den quantitativen Ergebnissen widerspiegelt. Es gibt eine Reihe von Gründen dafür, warum die Rohergebnisse von Google Books diese Aufgabe für »data« nicht ganz schaffen. Erstens ist Google Books noch nicht sehr gut oder repräsentativ für Zeiträume vor dem 19. Jahrhundert. Und selbst wenn Google Books sich weiterentwickelt, stellen Unterschiede in der Quellengrundlage einen quantitativen Vergleich vor der Neuzeit wahrscheinlich noch vor heikle Probleme. Weitere Schwierigkeiten ergeben sich, weil Nachbarschafts- und Platzhaltersuche sowie andere Werkzeuge fehlen, die eine Arbeit wie das Unterscheiden des lateinischen vom englischen Sprachgebrauch unterstützen. Die Schwierigkeit, die wahren lexikografischen Sachverhalte im Englisch des 18. Jahrhunderts unabhängig von der jeweils verwendeten Datenbank zu erkennen, wird zusätzlich verstärkt durch den Umstand, dass das Aufkommen des englischen Sprachgebrauchs von »data« während des 18. Jahrhunderts genau zusammenfällt mit dem Niedergang der allgemeinen Verwendung von Latein in der englischsprachigen Welt. Ohne Sortierung sind die Rohzahlen höchst zweideutig, da die Zunahme im Gebrauch von »data« im Englischen großenteils vom Niedergang im allgemeinen Gebrauch des Lateinischen ausgelöst wird. Dieser Effekt beschränkt sich zwar nicht strikt auf das 18. Jahrhundert, aber er ist in dieser Übergangszeit höchst signifikant. Das Problem der Untersuchung der Geschichte und Semantik von »data« verweist auf einen anderen erheblichen blinden Fleck: Solange Suchmaschinen nicht komplett ausgestattet sind und gute Techniken der Begriffsklärung wie Nachbarschaftssuche zulassen, können gebräuchliche Begriffe – unter Umständen genau die, die wir unbedingt gut verstehen müssen – aus dem Bereich der
Daniel Rosenberg: Daten vor Fakten
praktischen Untersuchung herausfallen. Manchmal entspricht dies den Regeln: So ist es beispielsweise typisch für Suchmaschinen, dass sie grammatikalische Artikel und Boolesche Operatoren von möglichen Suchen ausklammern. In vielen Fällen schließen diese Einschränkungen praktisch die Möglichkeit aus, die Linguistik von Konjunktionen mit Hilfe von Datenbanksuchfunktionen zu untersuchen. In anderen Fällen entstehen derartige blinde Flecken zufällig. So kommt etwa der Begriff »data« sehr häufig in Metadaten vor. Ein typisches Beispiel: Jedes Werk im Projekt Gutenberg enthält eine juristische Ausschließungsklausel, den Begriff »data« zu verwenden. Aus diesem Grund wird eine simple Suche im Projekt Gutenberg, die Werke in seinem Korpus ermitteln will, die das Wort »data« enthalten, Ergebnisse erzielen, die deckungsgleich mit dem Korpus selbst sind. Ein anderes Problem gibt es im Internetbibliothekskatalog WorldCat, da dieser den Begriff »data« in den Titeln vieler Archivsammlungen eingebettet hat. Keines dieser Probleme ist zwar unüberwindbar, wird aber gewiss nicht in nächster Zeit behoben werden. Fairerweise muss hier hinzugefügt werden, nur weil das OED recht und Google heute nicht recht hat, heißt das noch lange nicht, dass Google auch weiterhin nicht recht hat. Wenn Google nämlich gute Metadaten hätte und Nachbarschaftsund Platzhaltersuchen zuließe, wären wir ziemlich nahe daran, es für eine Menge Anwendungen in den Geisteswissenschaften nutzen zu können – egal, ob man diese Anwendungen als »Kulturomik« bezeichnen oder solche Vorgehensweisen für grundlegend neu erachten möchte. Zur Zeit ist es ein Gewinn für die Lektürepraktiken des 19. Jahrhunderts, aber dieser Erfolg wird wahrscheinlich nicht lange Bestand haben. Selbst das ehrwürdige OED ist dabei, eine datengestützte Vorgehensweise zu übernehmen, und das ist immerhin ein gutes Zeichen dafür, dass wir alle bereit sein sollten, uns auf eine entschieden kritische Weise auf quantitative Methoden in den Geisteswissenschaften einzulassen. Unter anderem müssen wir als Geisteswissenschaftler viel mehr Aufmerksamkeit den erkenntnistheoretischen Implikationen der Suche widmen, einer völlig neuen und bereits dominanten Form der Untersuchung, einer Form mit eigenen Regeln und mit typischen blinden Flecken im Design wie in der Nutzung. Auf jeden Fall glaube ich wirklich, dass meine Ergebnisse einmal gut für die Lektüre sein werden, selbst wenn sie für Daten nicht schlecht sind. Wichtiger ist es, wie wir es bei Priestley gesehen haben, dass die durch die Digitalisierung unserer Literatur ermöglichten Techniken in vieler Hinsicht mit Ideen über die Ideen und das Schreiben, die für das 18. Jahrhundert typisch sind, übereinstimmen. Mit anderen Worten: Zumindest bei der Untersuchung dieses Korpus gibt es ein erfreuliches Echo des primären Materials, wie der Tabellen von Priestley und Playfair, in den zeitgenössischen analytischen Techniken. Was sagt uns die Geschichte des Begriffs »data« schließlich über heutige Daten? Auf diese Frage gibt es eine ganze Reihe möglicher Antworten, doch eine verdient besondere Beachtung.
153
154
2. Geschichte und Theorie der Daten
Abbildung 13: Liniengraf mit Zeitleiste aus William Playfairs Werk An Inquiry into the Permanent Causes of the Decline and Fall of Powerful and Wealthy Nations, 1805. Mit freundlicher Genehmigung der Library Company von Philadelphia.
Diese Feststellung stützt sich auf die Zahlen, geht aber nicht auf sie zurück: Von Anfang an war »data« ein rhetorischer Begriff. »Data« bedeutet – und zwar schon sehr lange – dasjenige, was vor einer Argumentation gegeben ist. Das hat zur Folge, dass die Bedeutung von »data« sich stets mit der Strategie und dem Kontext einer Argumentation und mit der Geschichte von beiden wandeln muss. Das Entstehen moderner Wirtschaftsformen und empirischer Naturwissenschaften schuf neue Bedingungen für die Argumentation und neue Annahmen über Fakten und Beweise. Und die Geschichte dieser und anderer verwandter Begriffe veranschaulicht sehr schön die größeren erkenntnistheoretischen Entwicklungen. Die Geschichte von »data« ist mit dieser anderen Geschichte auf eine sehr bedeutsame Weise verknüpft, aber auf genauso bedeutsame Weise bleibt sie ein Sonderfall. Seltsamerweise machte die vorgegebene semantische Struktur des Begriffs »data« ihn besonders flexibel in diesen sich wandelnden erkenntnistheoretischen und semantischen Kontexten. Ohne dass sich seine Bedeutung änderte, änderte sich im 18. Jahrhundert die Konnotation von »data«. War er zunächst rückbezüglich assoziiert mit den Dingen, die außerhalb jedes möglichen Entdeckungsprozesses liegen, wurde er schließlich geradezu zum Paradigma dessen, was man durch Experiment und Beobachtung sucht. Es ist verlockend, Daten einen Kerngehalt zu verleihen, zu definieren, welche Art von Fakten Daten sind. Doch damit übersieht man den wichtigsten Aspekt des Begriffs und verschleiert, warum der Begriff um die Mitte des 18. Jahrhunderts so sinnvoll wurde. Daten haben keine Wahrheit. Selbst wenn wir heute von Daten sprechen, äußern wir überhaupt keine Mutmaßungen über den Wahrheitsgehalt.
Daniel Rosenberg: Daten vor Fakten
Elektronische Daten sind genau wie die Daten der frühen Neuzeit gegeben. Es mag sein, dass die Daten, die wir sammeln und übertragen, keinerlei Beziehung zu irgendeiner Wahrheit oder Wirklichkeit jenseits der Wirklichkeit haben, die wir mit ihrer Hilfe konstruieren. Dieser Umstand ist ganz wesentlich für unseren gegenwärtigen Sprachgebrauch. Dies war genauso der Fall in der frühen Neuzeit – doch in unserem Zeitalter der Kommunikation macht dieser rhetorische Aspekt des Begriffs »data« ihn für unverzichtbar.
L iter atur Bacon, Francis: The Philosophical Works of Francis Bacon, Baron of Verulam, Viscount St. Albans, and Lord High-Chancellor of England, Bd. 2, London 1733, (deutsche Übersetzung bei zeno.org). Baker, Nicholson: The Double Fold: Libraries and the Assault on Paper, New York 2002. Bates, Susan E. und Edward J. Benz Jr.: »Troublesome Words, Linguistic Precision and Medical Oncology«, in: The Oncologist 14, Nr. 4, April 2009, S. 445-447. Blair, Ann: Too Much to Know: Managing Scholarly Information before the Modern Age, New Haven, CT, 2010. Cohen, Patricia: »Analyzing Literature by Words and Numbers«, in: New York Times, 3. Dezember 2010. Dies.: »In 500 Billion Words, New Window on Culture«, in: New York Times, 16. December 2010. Dies.: »Five-Million-Book Google Database Gets a Workout, and a Debate, in Its First Days«, in: New York Times, 21. Dezember 2010. Dies. und Ben Zimmer: »The Future Tense«, in: New York Times 25. February 2011. Daniel, Carter A. und Charles C. Smith: »An Argument for Data as a Collective Singular«, in: ACBA Bulletin 45, Nr. 3, September 1983, S. 31-33. Darnton, Robert: The Case for Books, New York 2009. Daston, Lorraine: »The Factual Sensibility«, in: Isis 79, Nr. 3, September 1988. Fowler, Henry W.: The King’s English, Oxford 21908, S. 26-36. Grafton, Anthony: »From the President«, in: AHA Perspective, März 2010, http:// www.historians.org/Perspectives/issues/2011/1103/1103pre1.cfm. Hammond, Henry: »A Brief Vindication of Three Passages in the Practical Catechisme«, in: The Workes of the Reverend and Learned Henry Hammond, London 1674. de Herrera y Tordesillas, Antonio: The General History of the Vast Continent and Islands of America, Bd. 3, London 21740. Klein, Dan: »A Short History of Words: New Google Tool Reveals Relative Popularity of ›Shmuck‹, ›Zionist‹, Other Terms«, 17. Dezember 2010. www.tabletmag. com/scroll/53877/a-short-history-of-words/?utm_source=Tablet+Magazine +List&utm_campaign=fcdbed4176-12_20_2010 & utm_medium=email.
155
156
2. Geschichte und Theorie der Daten
Lieberman Aiden, Erez, Jean-Baptiste Michel, Joe Jackson, Tina Tang und Martin Nowak: »Quantifying the Evolutionary Dynamics of Language«, in: Nature 449, 2007. Madrigal, Alexis: »Vampire vs. Zombie: Comparing Word Usage through Time«, 17. December 2010. www.theatlantic.com/technology/archive/2010/12/vampirevs-zombie-comparing-word-usage-through-time/68203. Meyers, Walter E.: »A Study of Usage Items«, in: College Composition and Communication 23, Nr. 2, Mai 1972, S. 155-169. Michel, Jean-Baptiste, Yuan Kui Shen, Aviva Presser Aiden, Adrian Veres, Matthew K. Gray, The Google Books Team, Joseph P. Pickett, Dale Hoiberg, Dan Clancy, Peter Norvig, Jon Orwant, Steven Pinker, Martin A. Nowak und Erez Lieberman Aiden: »Quantitative Analysis of Culture Using Millions of Digitized Books«, in: Science 331, 2011. Morris, William (Hg.): The American Heritage Dictionary of the English Language, Boston 1975. Newton, Isaac: The Method of Fluxions and Infinite Series, London 1736. North, Anna: »New Google Graphs Reveal Centuries of Dicks, Pimps and Hos«, 17. Dezember 2010. http://jezebel.com/5714665/word-graphs-reveal-centuriesof-dicks-pimps-and-hos. Nunberg, Geoffrey: »Farewell to the Information Age«, in: Ders. (Hg.): The Future of the Book, Berkeley, CA, 1996, S. 103-138. Ders.: »Counting on Google Books«, in: Chronicle of Higher Education, 16. Dezember 2010, http://chronicle.com/article/Counting-on-Google-Books/125735. Pinker, Steven: Words and Rules: The Ingredients of Language, New York 1999. Oxford Dictionaries Online. http://oxforddictionaries.com. Poovey, Mary: A History of the Modern Fact: Problems of Knowledge in the Sciences of Wealth and Society, Chicago 1998. Porter, Theodore: The Rise of Statistical Thinking, 1820-1900, Princeton, NJ, 1986. Priestley, Joseph: A Chart of Biography, London 1765.(a) Ders.: An Essay on a Course of Liberal Education for Civil and Active Life, London 1765.(b) Ders.: Experiments and Observations on Different Kinds of Air, Bd. 3, London 1777. Ders.: Lectures on history, and general policy; to which is prefixed, an essay on a course of liberal education for civil and active life, Dublin 1788. Ders.: Discourses Relating to the Evidences of Revealed Religion, Bd. 3, London 17941799. Rosenberg, Daniel: »Joseph Priestley and the Graphic Invention of Modern Time«, in: Studies in Eighteenth-Century Culture 36, Frühjahr 2007, S. 55-104. Spedding, Patrick: »›The New Machine‹: Discovering the Limits of ECCO«, in: Eighteenth-Century Studies 44, Nr. 4, Sommer 2011, S. 437-453. Zins, Chaim: »Conceptual Approaches for Defining Data, Information, and Knowledge«, in: Journal of the American Society for Information Science and Technology 58, Nr. 4, 2007, S. 479-493.
Big Data — Big Humanities? Eine historische Perspektive Theo Röhle »With enough data, the numbers speak for themselves.« C hris A nderson , 2009 »Emphasis on data collection does not derive, of course, from the caricature of inductionist method which holds that researchers need to do little more than amass mountains of vaguely related ›facts‹ and then, somehow, the mountains themselves will move and reveal the ›truth.‹« L ee B enson , 1966
1. E inleitung In den Digital Humanities herrscht Auf bruchstimmung.1 Während der computergestützte Umgang mit großen Datenmengen in den Naturwissenschaften spätestens seit der Entwicklung hin zur ›Big Science‹ (de Price, 1963) zum Alltag der Forschungspraxis gehört, gelten Rufe nach ›Big Humanities‹ weiterhin als innovativ und visionär (Davidson, 2008). Angekündigt wird nicht nur eine Erweiterung des Methodenarsenals, sondern die Neuverhandlung geisteswissenschaftlicher Wissensproduktion insgesamt. Die Aufgeregtheit der Debatte ist einerseits nachvollziehbar, schließlich spielt sich im Kern der Digital Humanities ein Grundkonflikt um die Prämissen der Geisteswissenschaft ab. Schreibt man diesen eine Kompensationsrolle gegenüber naturwissenschaftlichen Reduktionen zu, was die Restitution von Vieldeutigkeiten und die Pflege eines gesellschaftlichen Sinnreservoirs beinhaltet (Marquard, 1986), so erscheint die Kompatibilität des Computers mit diesem Programm frag1 | Danke an Oliver Leistert für ergiebige Diskussionen im Vorfeld des Beitrags. Nicht mehr bedanken kann ich mich leider bei Peter Haber, der durch eine Einladung zur Tagung ».hist 2001 – Geschichte im digitalen Wandel« den Anstoß zur vorliegenden Auseinandersetzung gab.
158
2. Geschichte und Theorie der Daten
würdig. Fürsprecher der Digital Humanities halten dem entgegen, dass gerade der experimentelle Charakter automatisierter Verfahren das Potential biete, blinde Flecken geisteswissenschaftlicher Forschungstraditionen zu korrigieren (Wilkens, 2012). Was an der Debatte jedoch erstaunt, ist die eklatante Geschichtsvergessenheit, mit der sie geführt wird. In den aktuellen Umbruchsszenarien gerät immer wieder aus dem Blick, dass das Feld bereits seit Mitte der 1960er Jahre Institutionalisierungstendenzen aufweist und Vorläufer hat, die bis in die Mitte des 19. Jahrhunderts zurückreichen (vgl. z.B. Lord, 1958). Die vorhandenen Ansätze zur Selbsthistorisierung (z.B. Hockey, 2004; Svensson, 2009) weisen diese Traditionen zwar deutlich aus, ein systematischer Stellenwert dieser Ansätze im Sinne einer reflektierenden Grundlagenforschung ist jedoch noch kaum zu erkennen. Wenn den Digital Humanities – in dieser Hinsicht vergleichbar mit der Rede von Big Data im Allgemeinen – der Ruf des Neuen vorauseilt, so scheint dies vielmehr auf das Ignorieren historischer Vorläufer und Kontinuitäten zurückführbar. Dieser Beitrag beschreitet den umgekehrten Weg und versucht, die Rekonstruktion einer historischen Debatte für eine kritische Auseinandersetzung mit den Ansprüchen und Versprechen der Digital Humanities und des Humanities Computing fruchtbar zu machen. Ausgangspunkt ist die Beobachtung, dass viele Fragen, die heute im Umfeld von Big Data und Digital Humanities debattiert werden, in den 1960er Jahren zur Diskussion standen und die Positionen zum Teil erstaunliche Übereinstimmungen aufweisen. Verbindungen dieser Art werfen die Frage nach historischen Kontinuitäten auf. In den Diskursen der 1960er Jahre wird vielfach die Kontinuität zwischen manuellen und computergestützten Verfahren betont, noch 1976 kommentiert Jarausch in einem deutschsprachigen Sammelband zur Quantifizierung in der Geschichtswissenschaft: »Die Computerschwelle ist daher qualitativ nichts Neues, sondern die EDV ermöglicht genauere und schnellere Antworten auf traditionelle Fragestellungen.« (Jarausch, 1976, S. 13) In den aktuellen Szenarien steht dagegen die Diskontinuität im Fokus: Mit der Ausweitung der Speicher- und Übertragungskapazitäten sowie neuer Möglichkeiten der Erhebung und Relationierung von Daten gelangen, so wird suggeriert, bisher ungekannte methodologische Zugänge in Reichweite. Der historisierende Blick verspricht an dieser Stelle besondere Erkenntnisse, weil er gegenüber der aktuellen Debatte eine Art Verfremdungseffekt herstellt. Dies gilt insbesondere für die Rolle der Medientechnik, spielte der Computer doch in den 1960er Jahren im Arbeitsalltag von GeisteswissenschaftlerInnen noch keine Rolle. Warum sich jemand die Mühe machen sollte, für ein geisteswissenschaftliches Projekt Zeit an einem Mainframe-Rechner zu buchen oder sich mit der Codierung von Lochkarten vertraut zu machen, musste erst einmal plausibilisiert werden. Solche Momente der Fremdheit können als Hinweise auf Brüche und Inkompatibilitäten dienen, die im weiteren Verlauf medientechnischer Entwicklungen
Theo Röhle: Big Data — Big Humanities? Eine historische Perspektive
unter die Wahrnehmungsoberfläche absinken. Zudem fällt mit größerem zeitlichem Abstand die Distanzierung vom Untersuchungsgegenstand insgesamt leichter und die historische Debatte kann als Kontrastfolie dienen, um Zusammenhänge zwischen medientechnischer Entwicklung, Methodenentwicklung und deren diskursiver Bearbeitung herauszuarbeiten. Im Fokus dieses Beitrags steht eine Debatte, die in den 1960er und 1970er Jahren in der US-amerikanischen Geschichtswissenschaft unter dem Stichwort »New Political History« geführt wurde (Anderson, 2007; Bogue, 1983). Streitpunkt ist die Verwendung quantifizierender Methoden in der Geschichtswissenschaft sowie die Rolle des Computers in diesem Zusammenhang. Diese Debatte bietet sich als Fallbeispiel für eine historisierende Reflektion insbesondere deshalb an, weil sie nicht auf eine ›Schule‹ begrenzt bleibt, sondern sie, zumindest für einen bestimmten Zeitraum, die methodologische und epistemologische Ausrichtung der Geschichtswissenschaften insgesamt erfasst.2 Im Folgenden werden nacheinander drei Perspektiven auf das Material entwickelt: Zunächst werden Akteure und Institutionen beleuchtet, die die Debatte maßgeblich vorantreiben. Anschließend stehen die medientechnischen Entwicklungen zur Diskussion, die gerade in dieser Phase, in der sich die Computernutzung insgesamt stark ausbreitet und verändert, besonders relevant erscheinen.3 Schließlich wird gefragt, inwiefern ›externalistische‹ Faktoren, insbesondere ökonomische, Einfluss auf die Entwicklung der historiografischen Debatte nehmen.
2. »A genuinely scientific historiogr aphy« — A k teure und I nstitutionen Als entscheidender Impuls für die Entstehung der »New Political History« gilt eine Tagung an der Rutgers University im Jahr 1957, bei der ein Beitrag des Historikers Lee Benson zu »Research Problems in American Political Historiography« (1972 [1957]) eine Schlüsselrolle spielt (Bogue, 1990, S. 95). Benson fordert hier eine Orientierung der Geschichtswissenschaften an den rigiden methodo2 | Hierin unterscheidet sie sich vom Gebiet der Wirtschaftsgeschichte, in der unter der Bezeichnung »Cliometrics« ähnliche Tendenzen zur Quantifizierung zu verzeichnen waren. Diese blieben jedoch im Wesentlichen eine interne Angelegenheit der Wirtschaftsgeschichte (Thernstrom, 1970 [1967], S. 69). 3 | Die sich verändernde Rolle des Computers macht diese Phase der quantifizierenden Geschichtswissenschaft besonders interessant aus medienwissenschaftlicher Sicht. Rückblicke aus dem Fach selbst fokussieren vielfach auf die Veröffentlichung von »Time on the Cross: The Economics of American Negro Slavery« von Robert Fogel und Stanley Engerman (1974). Die dort durchgeführte quantitative Untersuchung der Sklaverei unter rein ökonomischen Gesichtspunkten gab Anlass zu besonders kontroversen Debatten (Thomas, 2004, S. 57f.).
159
160
2. Geschichte und Theorie der Daten
logischen Vorgaben der Naturwissenschaften. Voraussetzung für die angestrebte »scientific study of history»4 ist die Verfügbarkeit von Daten in quantitativer und systematisch zu verarbeitender Form: »Another criterion is that the data are compiled, classified, and analyzed comprehensively and rigorously, not partially or in unstandardized fashion. Finally, systematic methods yield objective data, i.e., data which experts can agree are factually correct and unambiguous in meaning, whether or not they agree in their interpretations of those data or share the same frame of reference.« (Benson, 1972 [1957], S. 6f., Hervorh. i.O.)
Bensons Forderungen richten sich in erster Linie gegen die Ansätze der etablierten Political History, vertreten z.B. von Frederick Jackson Turner. Hauptgegenstand dieses Forschungsgebiets sind politische Konflikte der US-Geschichte, die vielfach als Ausdruck ökonomischer Ungleichgewichte gedeutet wurden, in der Progressive History teilweise auch in explizit marxistischer Terminologie.5 In Bensons Forderungen äußert sich auf besonders prägnante Weise ein für die New Political History insgesamt charakteristisches Misstrauen gegenüber solchen, intuitiv als plausibel erscheinenden, Erklärungsansätzen. An Quantifizierung und systematische Methoden werden Hoffnungen geknüpft, die vermeintliche ›Willkür‹ narrativer Historiografie überwinden zu können und zu Hypothesen zu gelangen, die nicht nur plausibel, sondern auch »potentially verifiable« (Benson, 1972 [1957], S. 5) sind. Voraussetzung für dieses Programm ist neben der Verfügbarkeit großer Mengen historischer Daten eine Methodologie, die den Ansprüchen an Rigidität und Systematik genügt. Prägend für Benson ist in dieser Hinsicht der Kontakt zu Paul Lazarsfeld am Bureau of Applied Social Research an der Columbia University. Als Assistent ist er hier an der Auswertung der Studien zu Wahlverhalten beteiligt, die in den 1940er Jahren in Eerie und Elmira durchgeführt werden und in »The People‘s Choice« (Lazarsfeld, Berelson und Gaudet, 1944) veröffentlicht werden. Insbesondere ein Ergebnis dieser Studien – dass zwischen Religion und Ethnizität und Wahlverhalten ein signifikanter Zusammenhang besteht – gibt Benson Anlass, in seinen nachfolgenden historischen Untersuchungen stärker auf diese Faktoren zu fokussieren. (Bogue, 1990, S. 93; Zahavi, 2003, S. 359) Unterstützt von Lazarsfeld, der selbst Interesse an einer stärkeren sozialwissenschaftlichen Orientierung der Geschichtswissenschaften hat, arbeitet Benson an einer Studie zum Wahlverhalten im New York der Jackson-Ära. Auch hier weist er stärkere Korrelationen zwischen religiösen und ethnischen Zugehörigkeiten und dem Wahlverhalten aus, als dies bei ökonomischen Faktoren der Fall ist. In der 4 | Unter dieser Rubrik fasst Benson sein Projekt in einer 1972 erschienenen Zusammenstellung seiner Schriften zusammen (Benson, 1972). 5 | Das Verhältnis der Progressive History zum Marxismus wird differenzierter dargelegt in Breisach (1993, S. 88-99).
Theo Röhle: Big Data — Big Humanities? Eine historische Perspektive
1961 veröffentlichten Untersuchung bringt er umfangreiche quantitative Analysen gegen die etablierten Erklärungsansätze in Stellung und hält polemisierend fest: »I penetrated the rhetorical surface and struck hard data.« (Benson, 1961, S. 331). Die Studie gewinnt in den darauffolgenden Jahren an Einfluss und wird 1970 bei einer Umfrage unter HistorikerInnen als eine der wichtigsten zeitgenössischen historiografischen Veröffentlichungen genannt. Neben der diskursiven Ebene spielt Benson aber auch auf der institutionellen Ebene eine wichtige Rolle. Dies gilt insbesondere für das »Inter-University Consortium for Political Research« (ICPR), das sich u.a. auf Bensons Initiative hin von einem sozialwissenschaftlichen Archiv zu einem der umfangreichsten Repositorien für historische Datensätze entwickelt (Bogue, 1986, 1990), und damit als eine zeitgenössische Form von »Big Data« gelten kann. In der American Historical Association gründet Benson 1962 das »Ad Hoc Committee to Collect the Basic Quantitative Data of American Political History«, zunächst mit dem Ziel, sämtliche US-Wahlergebnisse auf County-Ebene bis zurück ins Jahr 1824 zusammenzustellen. Als Vorsitzendem des Committees gelingt es Benson, sowohl umfangreiche Fördermittel zu akquirieren als auch die Kontakte zum ICPR und dessen Leiter Warren E. Miller zu intensivieren. Während es ursprünglich die Aufgabe des ICPR war, Ergebnisse von sozialwissenschaftlichen Umfragen zu archivieren, wird es ab 1964 mit der Archivierung und Beschreibung historischer Daten aus Zensus, Wahlen und Abstimmungen betreut und wächst u.a. finanziert von American Historical Association, zu einem Zusammenschluss von mehreren hundert Archiven und Hochschulen heran (Bogue, 1983, S. 52, 62; Bogue, 1986, S. 138). Bensons Initiativen bleiben in der Geschichtswissenschaft der 1960er Jahre keineswegs randständig. An der University of Iowa entsteht in der Nachfolge von William O. Aydelotte eine eigene ›Schule‹, deren Vertreter wie Allan G. Bogue, Samuel P. Hayes und später Robert Swierenga eine zentrale Rolle für die Etablierung quantitativer Ansätze spielen. Mitte der 1960er Jahre gilt New Political History als die »hot area« (Bogue, 1986, S. 138) des Fachs, auf der Gründungssitzung des Quantitative Data Committees gibt es trotz großer Räumlichkeiten »standingroom only« (ebd.). Auch die Vertreter der herkömmlichen Ansätze sehen sich zur Verteidigung ihrer Positionen genötigt. So resümiert der Präsident der American Historical Association Carl Bridenbaugh auf der Jahrestagung 1962: »bigness has struck us by proliferating sources and editing, thereby deluging us with an overwhelming mass of data for the study of the last one and a half centuries of history« (Bridenbaugh, 1963, S. 322), um sich anschließend unmissverständlich von den neuen methodologischen Entwicklungen zu distanzieren: »The finest historians will not be those who succumb to the dehumanizing methods of social sciences, whatever their uses and values, which I hasten to acknowledge. Nor will the historian worship at the shrine of that Bitch-goddess, QUANTIFICATION [sic!]. History offers radically different values and methods.« (Ebd., S. 326)
161
162
2. Geschichte und Theorie der Daten
Bensons Programm einer vollständigen Umgestaltung der Geschichtswissenschaften auf quantitativer Basis einerseits und Bridenbaughs vollständige Ablehnung der Quantifizierung andererseits markieren Extrempositionen einer Debatte, die ansonsten durch zahlreiche Vermittlungsversuche gekennzeichnet ist. Auch die gemäßigteren Vertreter der New Political History teilen jedoch den grundlegenden Vorwurf an die etablierten Geschichtswissenschaften, dass diese mit willkürlichen Generalisierungen, narrativen Elementen und subjektiven Einschätzungen operieren und insofern einer insgesamt ›impressionistischen‹ Argumentationsweise verhaftet bleiben.6
3. »P eople cannot count, at le ast not very high « 7 — M edientechnische E nt wicklungen In der New Political History gelten Quantifizierung und die systematische Verarbeitung von Daten vor allem als Mittel gegen die Beliebigkeit menschlicher Wahrnehmung und Erinnerung, die als Bedrohung historiografischer Evidenz betrachtet wird. Bei einer Verarbeitung von Daten ohne diese Hilfsmittel, so die Annahme, schleichen sich immer wieder Inkorrektheiten und Verzerrungen ein. Durch das strikte Befolgen formalisierter Verfahrensabfolgen werden diese vermieden und somit die Schwächen menschlicher Kognition kompensiert: »Memory is selective, and general impressions are notoriously untrustworthy. When the data are so numerous that they cannot all be kept clearly in mind at once, the investigator is likely to remember best the cases that fit his own preconceptions or his pet hypotheses. An orderly presentation of the evidence in quantitative form helps the student to escape the tricks that his memory plays upon him.« (Aydelotte, 1970 [1966], S. 8)
In dieser Argumentation spielt der Computer wohlgemerkt zunächst noch keine Rolle. Bis Mitte der 1960er Jahre ist es eher der Tischrechner, der die bisherigen Werkzeuge der Historiker wie Stift, Papier, Schreibmaschine und Zettelkästen ergänzt (Anderson, 2007, S. 258; Bogue, 1990, S. 104). Auch Bensons Analysen von Wahlverhalten werden zunächst nicht auf dem Computer durchgeführt, sondern folgen dem Prinzip der »eyeball correlation«, bei der nach bestimmten Variablen sortierte Listen nebeneinander aufgehängt wurden, um an den oberen und unteren Enden nach auffälligen Übereinstimmungen und Abweichungen zu suchen (Bogue, 1990, S. 101). 6 | Die Charakterisierung der etablierten Geschichtswissenschaften als »impressionistisch« findet sich an zahlreichen Stellen in der Debatte, z.B. bei Aydelotte (1970 [1966], S. 17), Benson (1970 [1966], S. 28) und Dollar (1969, S. 141). 7 | Das Zitat stammt aus einer quantitativen Untersuchung in der Literaturwissenschaft (Mosteller und/Wallace, 1964, S. 7) und wird wiedergegeben bei Holsti (1969, S. 151).
Theo Röhle: Big Data — Big Humanities? Eine historische Perspektive
Als erste computergestützte Untersuchung gilt eine Studie von William O. Aydelotte, die 1963 veröffentlicht wird und das Wahlverhalten von 815 Mitgliedern des britischen House of Commons im Zeitraum 1841-1847 zum Gegenstand hat (Aydelotte, 1963). Ausgangsfrage ist, inwiefern die biografischen Details der Abgeordneten mit ihren Wahlentscheidungen korrelieren (z.B. was sozialen Status anging). Angesichts eines Umfangs von über 90.000 Datensätzen stößt die manuelle Auswertung an ihre Grenzen. Unterstützt von Programmierern des Rechenzentrums der University of Iowa entwickelt Aydelotte ein Programm, mit dem diese Daten einer automatisierten Analyse unterzogen werden kann, die auf der Psychologie importierten Methode der Guttman-Skala basiert (Swierenga, 1970, S. 5). Die Guttman-Skala zählt neben Inhaltsanalyse und Faktorenanalyse zum Kern des Methodenrepertoires der New Political History (Dollar, 1969, S. 143ff.; Zemsky, 1969, S. 34f.). Für den Import dieser in anderen Fachgebieten etablierten Methoden in die Geschichtswissenschaft spielen Schulungen in computergestützter Datenanalyse eine entscheidende Rolle, die u.a. vom ICPR und vom Quantitative Data Committee angeboten werden. Auch der Umgang mit Programmiersprachen wie FORTRAN und PL/I wird hier erlernt, was dazu beiträgt, dass ab Mitte der 1960er Jahre gerade NachwuchswissenschaftlerInnen in immer größerem Umfang mit computergestützten Methoden der multivariaten Statistik experimentieren (Swierenga, 1970, S. 5). Die vom ICPR bereitgehaltenen statistischen Daten können zu dieser Zeit in Form von Magnetbändern und gedruckten Codebüchern per Post angefordert werden, um dann am Mainframe-Rechner der eigenen Universität anhand von Statistik-Software ausgewertet zu werden (Anderson, 2007, S. 257). Die Tatsache, dass die Debatte sich relativ lange beim Thema Quantifizierung aufhält und der Computer erst später ins Zentrum des Interesses rückt, legt nahe, dass die Medientechnik nicht als eigentlicher Motor hinter den methodologischen Entwicklungen zu betrachten ist.8 Der Computer befeuert vielmehr die Dynamik der bereits angelaufenen Debatte zur Quantifizierung und leistet damit Hoffnungen auf eine Überwindung der ›impressionistischen‹ Historiografie Vorschub. So werden auf den Computer eine ganze Reihe von Eigenschaften und Funktionen projiziert, die letztlich auf die Austreibung menschlicher Insuffizienz und Idiosynkrasie aus der Geschichtswissenschaft abheben. »[T]he computer can tolerate much more complexity than an individual human being, and can thus preserve a degree of concreteness that a historian working without a machine would necessarily sacrific«, postuliert beispielsweise Thernstrom (1970 [1967], S. 74). Damit einher geht laut Dollar (1969) eine Entlastungsfunktion, die es dem Menschen erlaubt, anderen, ›adäquateren‹ Tätigkeiten nachzugehen: »the computer will liberate historians from the limitations of their memory, time, and energy. This means that in the not-so-near future historians 8 | Vgl. auch Bogue, 1990, S. 104.
163
164
2. Geschichte und Theorie der Daten
should have more time to devote to creative interpretation, analysis, and writing.« (Ebd., S. 151) Diese Zuschreibungen knüpfen zum Teil an weitreichendere zeitgenössische Debatten an.9 Was den Diskurs in der New Political History jedoch auszeichnet, ist, dass der Computer explizit als Alliierter geisteswissenschaftlicher Erkenntnisprozesse begrüßt wird. Besonders positiv wird in zahlreichen Beiträgen der vom Computer ausgeübte Zwang zur Rigidität hervorgehoben: »the use of computers will require historians to be more precise in their thinking about the dimensions of the problem to be analyzed. Vague conceptualization and inadequately formulated research problems are magnified by the computer«, so Dollar (1969, S. 151). Ähnlich äußert sich Jarausch in einem späteren Beitrag über die positiven Aspekte der Formalisierung: »Darüber hinaus verlangt er [der Computer, TR] nach einem klareren theoretischen Rahmen als es in erzählender Geschichtsschreibung nötig ist: Probleme müssen operationalisiert werden, d.h. durch eindeutige Hypothesen aufgegliedert werden, die an dem gegebenen Datenmaterial erprobt werden können und sich dann durch Bestätigung oder Widerlegung in Modelle weiterentwickeln lassen.« (Jarausch, 1976, S. 16f.)
Der Gewinn des Computers wird also nicht zuletzt darin gesehen, dass er zu einer »durchsichtigeren Forschungsweise« (ebd., S. 17) führt. Damit wird gleichzeitig anerkannt, dass die Medientechnik einen erheblichen Einfluss auf die Art und Weise nimmt, wie die geisteswissenschaftliche Wissensproduktion vonstatten geht. Auch wenn es sicherlich verfehlt wäre, hierin bereits einen Vorboten der »Austreibung des Geists aus den Geisteswissenschaften« (Kittler, 1980) zu sehen, erscheint es dennoch bemerkenswert, dass die Frage der medientechnologischen Bedingungen der Geisteswissenschaften an dieser Stelle in solcher Deutlichkeit aufgeworfen wird.
9 | Z.B. wenn in der ersten Ausgabe der Zeitschrift Computers and the Humanities vom Computer als »extension of man« die Rede ist (Milic, 1966, S. 5) und so implizit auf McLuhan (1964) Bezug genommen wird. Vorstellungen des Computers als Entlastung von repetitiver Arbeit, wie die von Dollar anvisierte ›Befreiung‹ zugunsten von Aufgaben wie »creative interpretation«, werden zudem auf sehr ähnliche Art in der utopisch geprägten Debatte zum Thema »Cybernation« verhandelt (vgl. Müggenburg und Pias, 2013).
Theo Röhle: Big Data — Big Humanities? Eine historische Perspektive
4. »the e volving › marke t‹ of the humanities « — E x terne F ak toren Wichtig für das Verständnis der Entwicklung der »New Political History« sind neben den Akteuren und den medientechnischen Entwicklungen auch Rahmenbedingungen, die ›von außen‹ gesetzt werden. Für die Situation der US-Geisteswissenschaften insgesamt ist in den 1960er Jahren eine Umstrukturierung in der staatlichen Förderung prägend, nicht zuletzt, weil mit der Gründung der National Endowment for the Humanities im Jahr 1965 die Förderung der Geisteswissenschaften zur Angelegenheit der Bundesregierung wird (Bogue, 1986, S. 140f.). Von dieser Verschiebung profitiert insbesondere die Geschichtswissenschaft, deren Aufgabe in der Aufarbeitung, Vermittlung und Verwaltung des nationalen Kulturerbes gesehen wird. In diesen Bereichen wächst auch außerhalb der Universitäten der Bedarf an akademisch ausgebildetem Personal. Diese Entwicklungen tragen dazu bei, dass sich das Feld der Geschichtswissenschaft in den 1960er und den frühen 1970er Jahren stark ausdehnt, z.B. erhöht sich die Zahl der lehrenden HistorikerInnen an US-amerikanischen und kanadischen Hochschulen im Zeitraum von 1963 bis 1978 fast um das Doppelte. Mit diesem personellen und finanziellen Wachstum geht auch eine thematische Ausweitung einher, da sich sowohl Institute als auch Individuen berufen fühlen, sich gegenüber den etablierten ›Schulen‹ als besonders innovativ zu profilieren (Bogue, 1986, S. 141f.). Es herrschen also in der US-Geschichtswissenschaft der 1960er Jahre finanzielle Rahmenbedingungen, die generell günstig für die Rekrutierung von NachwuchswissenschaftlerInnen und das Erproben neuer Ansätze sind. Zudem entsteht eine diskursive Situation, in der die Abkehr von Konventionen und die Besetzung neuer thematischer Nischen honoriert wird. Mit ihren Forderungen nach einer methodologischen Umorientierung und der als radikaler Bruch inszenierten Infragestellung konventioneller Erklärungsansätze hat die New Political History in diesem Klima besonders gute Erfolgschancen. Am Beispiel der oben genannten Schulungen in computergestützter Datenanalyse lässt sich zudem nachvollziehen, inwiefern sich der Einfluss der Forschungsförderung konkret zu erkennen gibt. Die Schulungen haben zum einen die Funktion, gegenüber den Geldgebern die forschungspraktische Relevanz der Datensammlungen aufzuzeigen und so ihre Investitionen in umfangreiche Archivierungsprojekte zu legitimieren. (Bogue, 1983, S. 52). Zum anderen hat, wie der Musikwissenschaftler Michiel Schuijer (2008, S. 241) in einem Rückblick konstatiert, auch die Wirtschaft ein ausgeprägtes Interesse an diesen Entwicklungen: »When we answer the question of what stimulated scholars to apply the computer around 1965, we should not overlook the fact that the computer industry had taken an interest in the evolving ›market‹ of the humanities. It provided funds and equipment for scholars who worked with computers. The International Business Machines Corporation (IBM) was
165
166
2. Geschichte und Theorie der Daten frequently mentioned on sponsor lists of conferences and research projects, together with universities, and institutions like the Rockefeller Foundation and the National Science Foundation. Apart from supporting current research projects, it tried to increase the awareness of data processing techniques at universities.«
Die Verwendung des Computers auf dem ›Markt‹ der Humanities ist also auch vor dem Hintergrund eines Bedarfs der Wirtschaft zu betrachten, neue Anwendungsfelder zu erschließen. Durch den Fokus auf rein numerisches Prozessieren in der Industrie und den Naturwissenschaften drohen letztlich profitable Einsatzmöglichkeiten außerhalb dieser Bereiche aus dem Blick zu geraten. Die Finanzierung von Tagungen und Schulungen im Bereich der Humanities schafft insofern ein Experimentierfeld, um diese Begrenzungen zu umgehen und trägt dazu bei, den Computer allererst als general purpose-Maschine vorstellbar zu machen.10
5. » a sedate , hesitant, circumspect, lit tle behavior al re volution « — K ontinuität und B ruch Trotz aller zeitgenössischer Umbruchsrhetorik ist aus heutiger Sicht fragwürdig, ob die New Political History tatsächlich eine nachhaltige Transformation eingeleitet hat. Bogue (1986, S. 138) deutet an, dass die Begeisterung für Quantifizierung in der US-Geschichtswissenschaft nur wenige Jahre anhielt und schon Ende der 1960er Jahre die auf herkömmlichen Methoden basierende Social History höher im Kurs stand. Die Encyclopædia Britannica vermerkt, dass die Debatte über Quantifizierung in der New Political History eine Generation später im Sand verlaufen sei. Auch wenn im Feld insgesamt einige ihrer Verdienste anerkannt würden, so sei das Potential der quantitativen und computergestützten Methoden für die Geschichtswissenschaft überschätzt worden: »Its idea of scientific procedures was startlingly old-fashioned, and many of the studies based solely on quantification failed to produce significant results. Sometimes things already believed were confirmed—not a useless exercise but not a high priority either. More-interesting correlations often failed the significance test or showed inexplicable relationships.« (Encyclopædia Britannica, 2013)
10 | Ein Indiz hierfür findet sich auch in einem Beitrag des IBM-Mitarbeiters J.A. Painter zur Tagung »Literary Data Processing« 1964: »These newer equipments are neither ›business‹ nor ›scientific‹ but rather general purpose. They are adequate, with the possible addition of some optional equipment, for either business or scientific work as well as all mixed problems. There have also been designs specifically tailored for textual processing.« (Painter, 1964, S. 170)
Theo Röhle: Big Data — Big Humanities? Eine historische Perspektive
Von einem Paradigmenwechsel (Kuhn, 1962) in der Geschichtswissenschaft insgesamt kann also kaum die Rede sein, die quantitativen Ansätze etablieren sich eher an der Peripherie des Fachs, z.B. als Teil des Curriculums im Rahmen der Methodenausbildung. Der Konflikt selbst verbleibt schwelend, bis sich in den 1990er Jahren eine Art Waffenruhe abzeichnet, wobei trotz grundsätzlicher Uneinigkeit in Bezug auf die Rolle der Quantifizierung in der US-Geschichtswissenschaft einige Vorteile der jeweiligen Methoden gegenseitig anerkannt werden (Anderson, 2007, S. 257). In ihrer Hochphase weist die Debatte zur New Political History zahlreiche Parallelen zum aktuellen Diskurs in den Digital Humanities auf. Es dominiert eine grundlegend optimistische Einstellung gegenüber den Möglichkeiten der Operationalisierung geisteswissenschaftlicher Fragestellungen sowie gegenüber den Erkenntnisgewinnen, die durch die computergestützte Verarbeitung entsprechender Daten zu erwarten sind. Vielleicht werden sich im Rückblick auch Parallelen abzeichnen, was die Faszinationsgeschichte der Felder angeht. Es scheint zumindest nicht ausgeschlossen, dass auch die heutige Debatte auf eine Phase der Enttäuschung zusteuert, in der stärker in Frage gestellt wird, wie relevant die Erkenntnisse hinter den beeindruckenden Visualisierungen, dem methodologischen Aufwand und den großen Datenmengen tatsächlich sind. In einem Beitrag mit dem Titel »A Telescope for the Mind?« stellt Willard McCarty (2012) die Frage, wie man einen adäquaten Umgang mit der Geschichte der Digital Humanities finden kann. Er schlägt vor, die im Material vorgefundenen Anliegen der Forschungspraxis so in übergreifenden kulturellen Zusammenhängen zu verorten, dass die Aspekte herauspräpariert werden können, die für die heutige Situation besonders relevante Fragen aufwerfen. Folgt man diesem Vorschlag,11 so kann man die beiden hier entwickelten Perspektiven, d.h. den Fokus auf die medientechnischen und die ökonomischen Bedingungen, gleichzeitig als Ausgangspunkt für einen Abgleich mit der heutige Debatte heranziehen. Dabei fällt zuallererst eine Verschiebung auf, was den Stellenwert der Theorie angeht. Stimmen heute selbst renommierte HistorikerInnen in den Tenor eines »post-theoretical age« ein, in dem Datenakkumulation statt Theoriebildung auf der Tagesordnung stehe (vgl. Cohen, 2010), so gilt in der New Political History, dass theoretische und methodologische Präzision Hand in Hand gehen müssen. Tun sie dies nicht, so verkommen Korrelationsanalysen zu »fishing expeditions«, die im Verdacht stehen, auf gut Glück nach Gemeinsamkeiten zu suchen (Holsti, 1969, S. 151; Zemsky, 1969, S. 35). Genau dieses ungeplante, explorative Vorgehen, bei dem unerwartete Korrelationen Hinweis auf Phänomene geben sollen, die erst im Anschluss weiter erforscht werden, macht heute jedoch einen großen Teil der Faszination der Digital Humanities aus:
11 | Ohne dabei McCartys Ziel einer »genuine history of the digital humanities« (2012, S. 117) für sich in Anspruch zu nehmen.
167
168
2. Geschichte und Theorie der Daten »In particular, work with data can be exploratory and deliberately without the mathematical rigor that social scientists must use to support their epistemological claims. Using data in this way is fundamentally different from using data for quantifying, computing and creating knowledge as per quantitative history.« (Gibbs und Owens, 2013)
Zum Stellenwert der Theorie gehört in der historischen Debatte allerdings auch die Anerkennung der Rolle der Medientechnik. Als Alliierter der New Political History wird der Computer vor allem deshalb betrachtet, weil er zu Präzision, Rigidität und expliziter Operationalisierung anhält und somit dazu beiträgt, die Ansprüche einer ›systematischen‹ Methodologie und Theoriebildung zu erfüllen. Im aktuellen Diskurs über Big Data und Digital Humanities ist die Frage nach den medientechnischen Bedingungen dagegen seltsam abwesend. Vielfach erscheint die Verwendung computergestützter Methoden als voraussetzungslos – Urteile, Entscheidungen und Annahmen, die auf unterschiedlichen Ebenen in die Hard- und Software-Infrastruktur eingeschrieben sind, werden zu selten Gegenstand eingehender Reflektion (Rieder und Röhle, 2012, S. 70). Wie lässt sich dieses Desinteresse an einer Auseinandersetzung mit den medientechnischen Bedingungen erklären? Man könnte argumentieren, dass auf der Ebene der Medientechnik selbst eine Veränderung stattgefunden hat. Gilt der Computer im Zeitalter von Mainframes und FORTRAN als Inbegriff von Rigidität, so wären die Ansprüche an Formalisierung heute, im Zeitalter von ›fuzzy‹ und ›soft‹ computing, weniger ausgeprägt und der Widerspruch zwischen Computer und Geisteswissenschaften damit weniger signifikant. Auch wenn tatsächlich erste Ansätze in der Verwendung solcher Verfahren in den Geisteswissenschaften existieren (Seising, 2012), dürften sie von einem flächendeckenden Einsatz jedoch noch weit entfernt sein. Plausibler erscheint daher, dass die Vorstellung einer ständigen Ausweitung von Erfassungs-, Speicherungs- und Verarbeitungskapazitäten, wie sie die Rede von »Big Data« evoziert, den Blick auf die medientechnischen Bedingungen systematisch verstellt. Damit ergibt sich für eine kritische Auseinandersetzung ein doppeltes Desiderat: Zum einen wäre genauer nachzufragen, in welchem Verhältnis die Erweiterung der technischen Kapazitäten zur Reduktion steht, z.B. indem sie den Daten eine bestimmte Form auferlegt (Gitelman, 2013). Zum anderen wären die Wunschkonstellationen, z.B. solche der Restlosigkeit (Krajewski, 2006) und der Voraussetzungslosigkeit (Sprenger, 2012), näher zu beleuchten, die sich hinter diesen Vorstellungen abzeichnen.12 12 | Vielleicht stellen die Digital Humanities auch nur die Neuauflage einer sehr viel älteren Utopie dar: »Die ›Enzyklopädie‹, heißt es im ›Prospekt‹, duldet – streng genommen – überhaupt keine Auslassung. Sie verfährt also ihrer Intention nach exhaustiv. Und doch kann sie, will sie die Welt des Wissens nicht dadurch abbilden, dass sie sie in sich selbst einfach wiederholt, auf ein Prinzip der Reduktion von Komplexität nicht verzichten. Der Figur des Sammlers, der sich bückt, um das auf der ›Erdoberfläche‹ verstreute Wissen aufzu-
Theo Röhle: Big Data — Big Humanities? Eine historische Perspektive
Die zweite Frage, die die Rekonstruktion der historischen Debatte aufgeworfen hat, betrifft die ökonomischen Bedingungen, unter denen die Digital Humanities operieren. Im Rückblick wurde deutlich, dass strategische Interventionen von wirtschaftlicher Seite sowie Änderungen in der Förderpolitik eine ausschlaggebende Rolle für die methodologischen Entwicklungen spielen. Im Vergleich dazu bleibt bisher unterbeleuchtet, welche ›externalistischen‹ Faktoren auf die aktuelle Situation Einfluss nehmen. Hier wäre es lohnenswert, die Perspektive auf die Humanities als ›Markt‹ aufzugreifen und der Frage nachzugehen, welches Interesse unterschiedliche Förderinstitutionen mit ihrem finanziellen Engagement verbinden. Analog zur historischen Situation, in der IBM an der Erweiterung der Einsatzmöglichkeiten des Computers – und letztlich am Verkauf von Hardware – interessiert war, wäre heute zu untersuchen, inwiefern den Digital Humanities eine strategische Rolle zukommt, was die Vermarktbarkeit von Daten angeht. Gerade bei der Entwicklung von Interpretationsansätzen, etwa für Daten aus dem Bereich des Social Media Monitoring oder der Netzkultur, könnte man untersuchen, inwiefern geisteswissenschaftliche Kompetenzen schlicht ›eingekauft‹ werden, weil sie anderswo fehlen. Auch müsste näher untersucht werden, wieso sich sowohl IT-Unternehmen wie Google als auch nationale Förderinstitutionen gerade in diesem Bereich so leicht mit der Bewilligung umfangreicher finanzieller Unterstützung tun. Welche Beweggründe sich hinter den entsprechenden Förderkonzepten abzeichnen und welche Vorstellungen des ›Auftrags‹ der Geisteswissenschaften damit verbunden sind, ist bisher kaum Gegenstand der Debatte. Eine solche Untersuchung könnte sicherlich zusätzliche Hinweise darauf liefern, wieso die Bezeichnung »Digital Humanities« in den letzten Jahren eine solche Strahlkraft entwickelt hat. Ebenso wie im Fall der medientechnischen Bedingungen gilt auch bei den ökonomischen Bedingungen, dass der Verweis auf ›externalistische‹ Faktoren immer mit einer Kränkung einhergeht (Shapin, 1992, S. 339). Niemandem gefällt es, in seiner Autonomie in Frage gestellt zu werden. Genau in dieser selbstreflexiven Befragung der eigenen Existenz- und Erkenntnisbedingungen lag jedoch bisher die Stärke der Geisteswissenschaften. Welche Halbwertzeit die »Digital Humanities« in ihrer aktuellen Form haben, wird sich vielleicht daran entscheiden, inwiefern sie zur Kritik der eigenen Bedingungen fähig sind und einen produktiven Umgang mit den eigenen Kränkungen finden.
lesen, steht daher die Figur des Philosophen gegenüber, dem es um nichts Geringeres als um die Freilegung der Wurzel geht, aus der alles empirisch vorfindliche Wissen entspringt.« (Balke, 2002, S. 156)
169
170
2. Geschichte und Theorie der Daten
L iter atur Anderson, Chris: »The End of Theory. The Data Deluge Makes the Scientific Method Obsolete«, in: Wired, 23.06.2008. www.wired.com/science/discoveries/ magazine/16-07/pb_theory (20. November 2013). Anderson, Margo: »Quantitative History«, in: Stephen P. Turner und Outwaithe (Hg.), The SAGE handbook of social science methodology, Los Angeles; London: SAGE 2007, S. 246-263. Aydelote, William O.: »Voting Patterns in the British House of Commons in the 1840’s«, in: Comparative Studies in Society and History, Jg. 5, 1963, S. 134-163. Ders.: »Quantification in History«, in: Robert P. Swierenga (Hg.), Quantification in American history. Theory and research, New York: Atheneum 1970 [1966], S. 6-24. Balke, Friedrich: »Die Enzyklopädie als Archiv des Wissens«, in: Hedwig Pompe und Leander Scholz (Hg.), Archivprozesse. Die Kommunikation der Auf bewahrung, Köln: DuMont 2002, S. 155-172. Benson, Lee: The concept of Jacksonian Democracy. New York as a Test Case, Princeton, N.J.: Princeton University Press 1961. Ders.: »Quantification, Scientific History, and Scholarly Innovation«, in: Robert P. Swierenga (Hg.), Quantification in American history. Theory and research, New York: Atheneum 1970 [1966], S. 25-29. Ders.: »Research Problems in American Political Historiography«, in: Ders., Toward the scientific study of history, Philadelphia: Lippincott 1972 [1957], S. 3-80. Bogue, Allan G.: »United States: The ›New‹ Political History«, in: Robert P. Swierenga (Hg.), Quantification in American history. Theory and research, New York: Atheneum 1970 [1968], S. 36-52. Ders.: Clio & the Bitch Goddess. Quantification in American Political History, Beverly Hills: Sage Publications 1983. Ders.: »Systematic Revisionism and a Generation of Ferment in American History«, in: Journal of Contemporary History, Jg. 21, H. 2, 1986, S. 135-162. Ders.: »The Quest for Numeracy. Data and Methods in American Political History«, in: Journal of Interdisciplinary History, Jg. 21, H. 2, 1990, S. 89-116. Breisach, Ernst A.: American progressive history. An Experiment in Modernization, Chicago: University of Chicago Press 1993. Bridenbaugh, Carl (1963): »The Great Mutation«, in: The American Historical Review 68/2, S. 315-331. Davidson, Cathy: »Humanities 2.0: Promise, Perils, Predictions«, in: PMLA, Jg. 123, H. 3, 2008, S. 707-717. de Price, Derek J. Solla: Little science, Big science, New York: Columbia Univ. Press 1963. Dollar, Charles M.: »Innovation in Historical Research: A Computer Approach«, in: Computers and the Humanities, Jg. 3, H. 1, 1969, S. 139-151.
Theo Röhle: Big Data — Big Humanities? Eine historische Perspektive
Encyclopædia Britannica: »historiography«, in: Encyclopædia Britannica Online Academic Edition, 2013. www.britannica.com/EBchecked/topic/267436/histo riography (20. November 2013). Fogel, Robert William, und Stanley L. Engerman: Time on the Cross. The Economics of American Negro Slavery, Boston: Little Brown 1974. Gibbs, Frederick W., und Trevor J. Owens: »The Hermeneutics of Data and Historical Writing«, in Jack Dougherty und Kristen Nawrotzki (Hg.), Writing history in the digital age. XX, 2013. Gitelman, Lisa: »Raw data« Is an Oxymoron, Cambridge, Mass.: MIT Press 2013. Hockey, Susan: »The History of Humanities Computing«, in Susan Schreibman, Ray Siemens und John Unsworth (Hg.), A companion to digital humanities, Malden, MA: Blackwell 2004, S. 3-19. Holsti, Ole R.: Content analysis for the social sciences and humanities, Reading, Mass.: Addison-Wesley Pub. Co. 1969. Jarausch, Konrad H.: »Möglichkeiten und Probleme der Quantifizierung in der Geschichtswissenschaft«, in: Konrad H. Jarausch (Hg.), Quantifizierung in der Geschichtswissenschaft. Probleme und Möglichkeiten, Düsseldorf: Droste 1976, S. 11-30. Kittler, Friedrich A. (Hg.): Austreibung des Geistes aus den Geisteswissenschaften. Programme des Poststrukturalismus, Paderborn, München, Wien, Zürich: Schöningh 1980. Krajewski, Markus: Restlosigkeit. Weltprojekte um 1900, Frankfurt a.M.: Fischer 2006. Kuhn, Thomas S.: The Structure of Scientific Revolutions, Chicago: University of Chicago Press 1962. Lazarsfeld, Paul F, Bernard Berelson und Hazel Gaudet: The People’s Choice. How the Voter Makes Up his Mind in a Presidential Campaign, New York: Duell, Sloan and Pearce 1944. Lord, R.D.: »Studies in the History of Probability and Statistics.: VIII. De Morgan and the Statistical Study of Literary Style«, in: Biometrika, Jg. 45, H. 1/2, 1958, S. 282. Marquard, Odo: »Über die Unvermeidlichkeit der Geisteswissenschaften«, in: Ders., Apologie des Zufälligen. Philosophische Studien, Stuttgart: Ph. Reclam jun. 1986, S. 98-116. McCarty, Willard: »A Telescope for the Mind?«, in: Matthew K. Gold (Hg.), Debates in the Digital humanities, Minneapolis: Univ. of Minnesota Press 2012, S. 113121. Müggenburg, Jan und Claus Pias: »Blöde Sklaven oder lebhafte Artefakte? Eine Debatte der 1960er«, in: Hannelore Bublitz, Irina Kaldrack, Theo Röhle und Mirna Zeman (Hg.), Automatismen – Selbst-Technologien, Paderborn: Fink 2012, S. 45-69. Painter, James A.: »Implications of the Cornell Concordances for Computing«, in: Jess B. Bessinger, Stephen M. Parrish und Harry F. Arader (Hg.), Liter-
171
172
2. Geschichte und Theorie der Daten
ary data processing. Conference proceedings, White Plains, New York: IBM 1964, S. 160-170. Schuijer, Michiel: Analyzing atonal music. Pitch-class set theory and its contexts, Rochester, NY: University of Rochester Press 2008. Seising, Rudolf, und Veronicy Sanz (Hg.): Soft Computing in Humanities and Social Sciences, Berlin, Heidelberg: Springer 2012. Shapin, Steven: »Discipline and Bounding: The History and Sociology of Science as Seen through the Externalism-Internalism Debate«, in: History of Science, Jg. 30, H. 90, 1992, S. 333-369. Smelser, Marshall, und William I. Davisson: »The Historian and the Computer: A Simple Introduction to Complex Computation«, in: Robert P. Swierenga (Hg.), Quantification in American history. Theory and research, New York: Atheneum 1970, S. 53-66. Sprenger, Florian: Medien des Immediaten. Elektrizität, Telegraphie, McLuhan, Berlin: Kadmos 2012. Svensson, Patrik: »Humanities Computing as Digital Humanities«, in: DHQ: Digital Humanities Quarterly, Jg. 3, H. 3, 2009. Swierenga, Robert P.: »Clio and Computers: A Survey of Computerized Researchin History«, in: Computers and the Humanities, Jg. 5, H. 1, 1970, S. 1-21. Thernstrom, Stephan: »The Historian and the Computer«, in: Robert P. Swierenga (Hg.), Quantification in American history. Theory and research, New York: Atheneum 1970, S. 67-74. Thomas III, William G.: »Computing and the Historical Imagination«, in: Ray Siemens, Susan S. Schreibman und John Unsworth (Hg.), A companion to digital humanities, Malden, MA: Blackwell 2004, S. 56-68. Wilkens, Matthew: »Canons, Close Reading, and the Evolution of Method«, in: Matthew K. Gold (Hg.), Debates in the digital humanities, Minneapolis: Univ. of Minnesota Press 2012, S. 249-258. Zahavi, Gerald: »The ›Trial‹ of Lee Benson: Communism, White Chauvinism, and the Foundations of the ›New Political History‹ in the United States«, in: History and Theory Jg. 42, H. 3, 2003, S. 332-362. Zemsky, Robert M.: »Numbers and History: The Dilemma of Measurement«, in: Computers and the Humanities, Jg. 4, H. 1, 1969, S. 31-40.
Nach dem Cyberspace: Big Data, Small Data Richard Rogers
In diesem Aufsatz1 werde ich den Status des Internets als Datenquelle untersuchen – als Quelle von Big Data und Small Data.2 Dabei soll das Internet sehr viel ernster genommen werden als wir es bislang getan haben, und zwar insbesondere im Hinblick auf das, was es für die Sozial- und Kulturforschung zu bieten hat. Zunächst einmal sollten wir uns von der Vorstellung verabschieden, der Cyberspace und das Virtuelle seien primäre Ausgangspunkte für die Forschung im Zusammenhang mit dem Internet, und stattdessen diese Begriffe neu fassen, sodass sie die konzeptuellen Möglichkeiten widerspiegeln, die sie gegenwärtig bieten. Der Cyberspace, der seinen Ursprung in der Science-Fiction-Literatur hat und dessen Erbe die cyberkulturellen Studien angetreten haben, ist seit einiger Zeit ein spezifischer Untersuchungsbereich für Sicherheitsstudien über das Internet geworden. So hat beispielsweise das US-Militär 2009 ein »Cyber Command« eingerichtet, während die US Air Force im selben Jahr für ihre Mission die griffige Formulierung »Fly, fight and win in air, space und cyberspace« (»Fliegen, kämpfen und siegen – in der Luft, im All und im Cyberspace«) (US Air Force, 2009) gewählt hat. Und auch »das Virtuelle«, ein Begriff mit einer reichen theoretischen Geschichte, bezieht sich weniger auf das Internet generell als auf virtuelle Welten wie Second Life und Spielmilieus wie World of Warcraft (Shields, 2003; Van Doorn, 2009). Studien über das Virtuelle, etwa über diese spezifischen Arten von Onlinewelten und –milieus, werden damit ein Unterthema der Forschung im Zusammenhang mit dem Internet, genauso wie auch Cyberspace-Studien inzwischen Nischengebieten gelten: Cyberwar, Cyberspionage und Cyberkriminalität (Information Warfare Monitor, 2009). 1 | Rogers, Richard: Digital Methods. S. 203-211, © 2013 Massachusetts Institute of Technology, by permission of The MIT Press. 2 | Eine frühere Fassung dieses Aufsatzes wurde zusammen mit Erik Borra geschrieben. Der Titel spielt auf Derek de Solla Prices klassische Monografie Little Science, Big Science (1963) an, die sich unter anderem auch mit dem Zusammenhang zwischen Status und Autorität und der Datengröße sowie mit einem Apparat befasst, damit umzugehen.
174
2. Geschichte und Theorie der Daten
Zum andern möchte ich die Behandlung des Internets als eines Gebiets für das Studium von Amateurproduktionspraktiken und nutzergeneriertem Inhalt überdenken, in einer Neuauflage der Debatten über »Online-Qualität«. Solche Debatten hat es im Internet wiederholt gegeben, erstmals in den 1990er Jahren über den Wert von Online-Informationen, wobei das Internet weithin als Gerüchteküche und als Nährboden für Verschwörungstheorien betrachtet wurde (Marres und Rogers, 2000). Um 2007 herum bezog sich die zweite Debattenwelle auf die Qualität von Inhalten, wobei das Internet nun als freier Contentraum von Amateuren gesehen wurde, der für den bezahlten Profi eine Gefahr darstellte (Keen, 2007; Thelwall und Hasler, 2007). Demgegenüber möchte ich behaupten, dass das Internet weiterhin die Analyse von Inhalten vor Probleme stellt, insoweit es all die enttäuscht, die nach traditionellen Qualitätsmerkmalen und nach einem zugrundeliegenden Interpretationsapparat suchen (Hayles, 2004). Insbesondere mit dem Niedergang des Surfens und des Hypertexts als literarische Theorie, die den Raum eines Surfers untermauert, hat das Internet ein wenig von seiner frühen hermeneutischen Produktivität eingebüßt (Elmer, 2001). Heute verführt das Internet zu einer Einstellung, die eher der von Forschern zu Popukultur und Fernsehen gleicht, die vor ein paar Jahrzehnten ihren relativ neuen Forschungsgegenstand betrachteten – nämlich dass man kulturelle Interessen aus dem Medium ablesen und diagnostizieren könne, indem man beim Studium des TV Guide und dessen, was gerade läuft (und dessen, was nicht läuft) anfängt. So bezeichnete beispielsweise ein (von Asa Briggs zitierter) britischer Historiker die BBC-Zeitschrift The Listener als »einen Führer zu den vielfachen und sich wandelnden Interessen und Aktivitäten des Zeitalters« (Briggs, 1991, S. 212). Zu fragen ist jedoch nach den Mitteln und Techniken, durch die dies geschieht. Meiner Meinung nach liefern »digitale Methoden« Mittel, die sich von anderen gegenwärtigen Vorgehensweisen zum Studium digitaler Materialien unterscheiden, wie Kulturanalyse und Culturomics, die beide das Digitalisierte dem nativ Digitalen vorziehen.3 Die hier vorgetragene Vorgehensweise lässt sich vielleicht auch von bislang dominanten Ausgangspunkten in den digitalen Sozial- und Geisteswissenschaften unterscheiden, wo man unbedingt mit großen Datensätzen arbeiten und sie begleitende Infrastrukturen schaffen möchte (boyd und Crawford, 2011). Ich hingegen will auch die Produktivität bescheidener Werkzeuge und kleiner Internetdaten untersuchen. Dabei befasse ich mich mit Daten unabhängig von ihrer Größe aus der Perspektive digitaler Methoden. Drittens möchte ich einräumen, dass das Internet die Reputation von Forschern in Frage stellt, die es gewohnt sind, es sich als Cyberspace und als virtuellen Bereich vorzustellen, als Domäne von Gerüchten und Selbstveröffentlichungen ebenso wie in letzter Zeit als Fundgrube chaotischer Daten. Aus der Debatte über die Qualität von Informationen, der die Debatte über die Qualität von (Amateur-)Content folgte, ist die Debatte über die Qualität von Daten geworden. Zu3 | Neben der Inhaltsanalyse wäre das Nutzerstudium ein weiterer Kandidat.
Richard Rogers: Nach dem Cyberspace: Big Data, Small Data
nächst hatte man sich für unvollständige Internetarchive interessiert. Außerdem vermochten vielfache Daten auf Internetseiten und Suchmaschinenregister keine genauen Ergebnisse für Anfragen zur Datenreichweite liefern; man glaubte, die Längsschnittanalyse, ein Kriterium für Qualitätsforschung, sei zum Scheitern verurteilt (Hellsten et al., 2006). Nun stellt man Fragen nach der Robustheit so genannter nutzergenerierter Daten wie soziale Bookmarks, Tags, Kommentare, Likes und Shares (Thelwall et al., 2005). Sie ist unstrukturiert. Wie ließe sich das alles möglicherweise klären?
D as I nterne t als D atensammlung Zunehmend mehr neue Internetdatenquellen stehen zur Verfügung, doch ihre Reputation leidet insgesamt unter einem Problem, und solche Online-Probleme haben eine lange Tradition. Die Bedenken über Internetdaten gehen noch immer auf ihre historische Verbindung mit einem für alle kostenlosen »Cyberspace« sowie einer Epistemologie zurück, die auf einem Do-it-yourself-Medium der Selbstveröffentlichung basierte, in dem die Redakteure fehlten, die eine Qualitätskontrolle durchführen. Tatsächlich stellt man sich traditionellerweise das Internet als eine Quelle von doxa vor, von Meinungen, die erst noch erhärtet werden müssen. Die Erhärtung von Meinungen, die »im Internet herumschweben«, würde voraussetzen, dass man z.B. das Medium verlässt, indem man ein Telefongespräch führt, sich den Bericht eines Augenzeugen beschafft usw. Damit können Internet-Accounts nicht allein als Quellen gelten; sie können auch nicht als die entscheidende zweite Quelle dienen, die im journalistischen Sinn eine Behauptung bestätigt. Internetbehauptungen würden Offline-Begründungen erfordern. Ich habe bereits erwähnt, dass das Internet zunächst als Infrastruktur auftauchte, die auf Inhalt wartet. Es war gewissermaßen nur ein Raum von Daten – Befehls-, Kommunikations- und Verkehrsdaten –, für die der Inhalt (traditionell ausgedrückt) erst noch zubereitet werden musste. In Vorbereitung befindliche (»under construction«) Internetseiten mögen heutzutage als Quellen für Nostalgie betrachtet werden, so wie andere ästhetische Formen der 1990er Jahre wie nächtlicher Sternhimmel als Hintergrund für Internetseiten, animierte GIF-Dateien oder »Random Site«-Links, welche Surfer dazu animieren, zu unbekannten Gebieten zu navigieren und in einen anderen Hyperspace zu springen – lauter Themen, mit denen ich mich früher befasst habe (Espenschied und Lialina, 2009). Der »Ich bin glücklich«-Button bei Google ist so ein Hyperspace-Sprungschnitt, und die Namen der Browser (Netscape Navigator, Internet Explorer und Safari) suggerieren dem Nutzer, er sei ein Abenteurer. Das war unser CyberspaceInternet, der Vorläufer dessen, was inzwischen in Businesskreisen als Web 1.0 (Info-Netz) und Web 2.0 (soziales Netz) historisiert wird und was ich als eine Geschichte des Internets als Hyperspace, Cyberspace, Raum von Formen (Sphäre, Netzwerk) und als geerdeten oder lokativen Raum zu erarbeiten suchte.
175
176
2. Geschichte und Theorie der Daten
In der neuen Geschichte des Internet 1.0, dem das Internet 2.0 folgte, wird das Internet jedenfalls als Abfolge zweier stabiler Softwareversionen verstanden. Ob es nun mit Fangemeinden, Porno und Aliens, mit Gauklern, Verschwörung und Selbstverlegern (in der ersten Version) oder mit Amateur-Produktionspraktiken, nutzergeneriertem Content und Lolcats (in der zweiten Version) assoziiert wird – das Internet hat jedenfalls keine sehr beständigen Quellen geliefert. Wenn man das Internet als Datensatz für die Sozial- und Kulturforschung betrachtet, wird man mit einer Fülle von Problemen im Hinblick auf chaotische Daten konfrontiert. Der Webometriker Mike Thelwall hat die Herausforderungen hinsichtlich einer Nutzung des Internets für die Forschung so zusammengefasst: »Ein Problem ist die Unaufgeräumtheit von Internetdaten und der entsprechende Bedarf einer Datenbereinigungs-Heuristik. Das unkontrollierte Netz erzeugt zahlreiche Probleme bei der Interpretation der Ergebnisse […]. Tatsächlich könnte ein skeptischer Forscher behaupten, die Hindernisse […] seien so hoch, dass alle Netzanalysen wertlos seien. Demgegenüber könnte man etwa darauf verweisen, dass Internetdaten mit manchen Nichtnetzdaten signifikant korrelieren, um zu beweisen, dass die Internetdaten nicht ganz und gar beliebig sind.« (Thelwall et al., 2005, S. 81)
Hier wird das allgemeine Reputationsproblem von Online-Qualität zunächst als Frage artikuliert, wie sich die Daten bereinigen lassen, da die Nutzer durchaus nicht einheitlich Formulare, Felder, Kästchen und andere Texteintragräume ausfüllen. In gewisser Hinsicht wird das (nichtredigierte) Internet als ein großer Raum für »freien Text« betrachtet. Da gibt es falsche Schreibweisen und zu wenige Konventionen. Verschiedene Tags werden für denselben Content verwendet, ohne dass es clevere Mittel gibt, Inhalte in solchen Massen und Größenordnungen zu vereindeutigen. Dieser Zustand veranlasst viele Forscher schlicht dazu, das Internet als Quelle abzulehnen, es sei denn, man bekommt die gesamten Datensätze (alle Transaktionen in Second Life) und studiert nur die Online-Kultur (Amateurproduktionspraktiken und nutzergenerierten Inhalt). Und wenn man schließlich Internetdaten nutze, so Thelwall, müsse man Offline-Daten zu Vergleichszwecken einführen – Internetdaten müssten mit Nichtnetzdaten abgeglichen werden. Zu den oben genannten Problemen möchte ich gern eine Bemerkung hinzufügen, die David Lazer in einem Schlüsseltext über die Computerwende in den Sozialwissenschaften gemacht hat: »Die härtesten Herausforderungen gibt es vielleicht auf der Datenseite, und zwar im Hinblick auf Zugang und Datenschutz.« (Lazer et al., 2009, S. 722) Internetdaten sind belastet wegen ihrer ultimativen Fähigkeit, Personen zu identifizieren, die nicht damit einverstanden sind oder nicht erwarten, identifiziert zu werden. Tatsächlich mag die Anonymisierung der in den Daten identifizierbaren Menschen versagen, wie bei der bekannten Datenfreigabe durch AOL, als eine Liste von Suchanfragen anonymisierter Nutzer ein Puzzle für investigative Journalisten wurde, die daraus die Identitäten der Nutzer zusammenfügten. Die Lehren aus diesem Fall hatten weitere Konsequenzen für
Richard Rogers: Nach dem Cyberspace: Big Data, Small Data
die Aufgeräumtheit von Internetdaten. Gewisse Internetdaten erscheinen inzwischen bewusst chaotisch.
A ufr äumen online Man ist zwar dabei, die verschiedenen Probleme im Zusammenhang mit Internetdaten zu lösen, oder zumindest die drei, die Thelwall vorgestellt hat (Unaufgeräumtheit, Ganzheit und Offline-Begründung von Daten), sowie das von Lazer genannte (Anonymisierung), doch jede »Lösung« führt erneut zu der Komplikation, dass sie bislang ziemlich gut von Google und anderen Big-Data-Unternehmen behandelt werden. Dies verschlimmert wahrscheinlich das, was man den Neid auf Google nennen könnte, nämlich wegen der Kapazität von Suchmaschinenfirmen und von Internetseiten sozialer Netzwerke, Daten zu sammeln, die Daten der Art und der Größenordnung nahekommen, die Sozialwissenschaftler gern selbst generieren würden, wenn auch ohne die noch feinerkörnige Struktur, die Forscher vielleicht bevorzugen (z.B. mit mehr demografischen und ideologischen Informationen) (Marres, 2011). Als ob sie auf die Forderungen von Thelwall und Lazer reagieren wollten, stellten die Google Labs 2011 Software ihrer Server zur Verfügung, die beim Datenbereinigen hilft (Google Refine), sowie Software, die Onlinedaten mit Offlinedaten abgleicht (Google Correlate).4 Hier tritt auch das bekannte Problem des Abschöpfens auf, wie es in der Wissenschaftssoziologie (ebenso wie im Journalismus) Usus ist: Das Forschungsobjekt gelangt zu der Schlussfolgerung, an der der Forscher gearbeitet hat, und veröffentlicht sie zuerst. Damit versetzt das Forschungsobjekt den Forscher in die unerwartete und zuweilen nicht beneidenswerte Lage, bestätigen zu müssen, dass er früher als das Forschungsobjekt zu seinen Erkenntnissen gelangt ist. Google ist auf diese Kritik an Internetdaten eingegangen und hat sogar Forscher eingeladen, mit den Registrierdaten der Suchmaschine zu arbeiten, und zwar auf eine Art und Weise, die sich in Form wie Format von der Datenfreigabe durch AOL unterscheidet. Damit hält sich das Unternehmen an den neuen Spirit der Medienplattform (mache nicht das Werkzeug, sondern den Werkzeugmacher) und liefert somit den zugrundeliegenden Apparat, der das Flu-Trends-Projekt von Google ermöglichte. Mit Correlate hat Google vielleicht auch genau das initiiert, was die digitalen Sozialwissenschaftler und Webometriker verlangt haben: eine großangelegte Dateninfrastruktur von Internetdaten (Suchregistrierungen), die man für einen Abgleich mit Nichtnetzdaten (einer Offline-Baseline) nutzen kann.
4 | Google Refine und Google Correlate wurden 2011 von Google Labs eingeführt.
177
178
2. Geschichte und Theorie der Daten
D igitalisierte D aten und native digitale D aten In ihrer Darstellung von digitalen Daten und ihren Eigenschaften im Vergleich zu anderen Daten listet die Informatikerin Christine Borgman klassische Datenarten auf wie Observationsdaten, Computerdaten, experimentelle Daten und Aufzeichnungen und beschreibt, warum sie als qualitativ wertvoll gelten (National Science Board, 2005; Borgman, 2007; Borgman, 2009). Gute Daten werden »so rein und so früh wie möglich in ihrem Lebenszyklus« gesammelt; sie werden regelmäßig erfasst und möglichst über lange Zeiträume (Borgman, 2009, S. 44). Gewisse Internetdaten, insbesondere Anmeldungen bei Suchmaschinen, würden nach diesen Kriterien kläglich versagen. Bestimmte digitalisierte Datensätze hingegen würden diesen Kriterien genügen. Ich möchte mich gern mit zwei typischen Beispielen befassen, nämlich relativ neuartigen Projekten in den Digital Humanities, um die gegenwärtige Abhängigkeit von digitalisierten Daten, die die obigen Tests bestehen, und die Herausforderungen von nativ digitalen Daten, die sie nicht bestehen, zu verdeutlichen. Ein Programm der Kulturforschung, das sich auf digitalisierte Daten stützt, die Kulturanalyse, will »Kultur als Daten, die gewonnen und visualiert werden sollen« (Franklin und Rodriguez, 2008) betrachten. Tatsächlich haben Lev Manovich, ein Theoretiker der neuen Medien, und seine Kollegen Längsschnittanalysen der sich wandelnden Eigenschaften aller Cover von Time, Science und Popular Science sowie aller Bilder von Mark Rothko durchgeführt. Das digitalisierte Bildmaterial bearbeiten sie mit Computervisualisierungstechniken, »um numerische Beschreibungen seiner Struktur und seines Inhalts zu generieren« (Manovich, 2009, S. 208; Huber et al., 2010), wie unterschiedliche Grautöne, Helligkeit, Farbton, Sättigung und Formen. Ein weiteres, allerdings größeres Forschungsvorhaben nach diesen Kriterien nennt sich »Culturomics«, ein Kunstwort für ein Forschungsgebiet, das eine »quantitative Kulturanalyse« betreibt, und zwar zunächst an Google Books, deren gescannte Sammlung vier Prozent aller je erschienen Bücher umfassen soll (Michel et al., 2011). Die Gründer von Culturomics verweisen auf die Unmöglichkeit, die Werke tatsächlich zu lesen, die sie nun durch ausgeklügelte Suchverfahren zu analysieren vermögen. Allgemein formuliert hat Culturomics mit digitalen Methoden ein »Suchprogramm als Forschungsprogramm« gemeinsam und untersucht Kontext und Häufigkeit des Wortgebrauchs im Laufe der Zeit und in allen Weltkulturen. Da gibt es faszinierende lexikografische Befunde (etwa dass das amerikanische Englisch allmählich die britische Schreibweise derselben Wörter ablöst) sowie allgemeinere kulturelle Trends, etwa eine zunehmende Neigung, die Vergangenheit zu vergessen oder sich zumindest auf bestimmte Jahre in der Vergangenheit weniger häufig zu beziehen. Auch Prominenz wird kurzlebiger, insofern man sich im Lauf der Zeit auf immer mehr Prominente immer weniger bezieht (ebd.; Bohannon, 2010). Kann man das Internet als mehr als bloß eine infrastrukturelle Plattform für die Speicherung digitalisierter Datensätze betrachten, doch ebenso auch Erkennt-
Richard Rogers: Nach dem Cyberspace: Big Data, Small Data
nisse aus dem Studium der oben genannten digitalisierten Materialien anwenden? D.h., kann das Internet seine eigenen Datensätze zur Verfügung stellen und schließlich ein privilegierter Ort werden, von dem aus man einen kulturellen und sozialen Wandel ablesen und diagnostizieren kann? In diesem Zusammenhang hat der Sozialtheoretiker Noortje Marres die Debatte um das Reputationsproblem des Internets (und die Unaufgeräumtheit seiner Daten) auf den Kopf gestellt, als er erklärte: »Internetdienste beziehen sozialwissenschaftliche Methoden mit ein, wie Textanalyse, Analyse sozialer Netzwerke und georäumliche Analyse, wobei sie vertretbarerweise Daten für […] die Forschung ordnen.« (Marres, 2009) Mit anderen Worten: Es lohnt sich, die in den Internetdiensten integrierte Methode wegen ihrer Fähigkeit zu studieren, Internetdaten sinnvoll zu machen. Kann das Internet schließlich strukturierte Daten liefern? Nach dieser Sichtweise werden Internetdienste – Suchmaschinen, kollaborativ verfasste Wikis und Plattformen sozialer Netzwerke – die Datenfilterer, die die Daten für die Endnutzung ebenso wie vielleicht für die Forschung bereinigen und ordnen. Ich möchte mich nun mit den Anmeldedaten für Suchmaschinen befassen, denn sie erfordern einen vereinbarten Zugang, eine großräumige Infrastruktur sowie die Fähigkeit, Big Data bewältigen zu können. Oft meint man ja, dass Daten von Einrichtungen wie Suchmaschinen auf unauffällige Weise gesammelt werden. D.h., im Hinblick auf Suchmaschinen und unter Umständen auch auf kollaborativ verfasste Wikis und Nutzerplattformen wie die Seiten sozialer Netzwerke kann das Internet als Stätte gelten, an der unauffällige Messungen vorgenommen werden, d.h. solche, die weniger von anderen methodologischen Apparaten beeinflusst werden (Webb et al., 1966; Lewis et al., 2008; Taksa et al., 2008). Während die Daten ohne einen sichtbaren und präsenten methodologischen Apparat in Gegenwart des Nutzers oder in Anwesenheit eines beiläufig mithörenden Ethnografen gesammelt werden können, muss jede Nutzung vor dem Hintergrund des Skandals um die Datenfreigabe durch AOL im Jahr 2006 betrachtet werden. AOL Researchs, die Wissenschaftsabteilung von AOL, stellte die Suchmaschinenanfragen von rund 650.000 Nutzern ein Vierteljahr lang Forschern zur Verfügung, samt Listen von Anfragen nach nummerierten Nutzer- und anderen Daten, etwa angeklickten URL (Pass et al., 2006). Die New York Times war in der Lage, einen der Nutzer zu »de-anonymisieren«, indem man sich die Liste der Suchanfragen vornahm und mit Hilfe von relativ einfacher Detektivarbeit Nutzer 4417749 als Thelma Arnold identifizierte, eine 62-Jährige aus Lilburn im US-Staat Georgia (Barbaro und Zeller, 2006). Sie hatte nach Personen mit ihrem Nachnamen Arnold sowie nach Dienstleistungsunternehmen in ihrer Heimatstadt Lilburn gesucht. Alle Suchdaten, die AOL während der SIGIR-Konferenz in Seattle der wissenschaftlichen Community zur Verfügung gestellt hatte, wurden ein paar Tage nach der Freigabe vom Internet genommen (Hafner, 2006). Der Informatiker Jon Kleinberg bezeichnete diese Daten als unsauber, denn »die Anzahl der Dinge, die sie über einzelne Menschen enthüllen, erscheint mir doch viel zu groß« (Anderson, 2006, S. 1). Diese Daten waren auf eine Art und Weise freigegeben
179
180
2. Geschichte und Theorie der Daten
worden, die für »naiv« gehalten wurde, und sie waren auch so organisiert, dass sie unter Umständen zur Detektivarbeit und zur De-Anonymisierung einluden (Poblete et al., 2008). Aus der Sicht der Forschung waren die Anmeldedaten so formatiert, dass sie einen bestimmten Recherchestil ermöglichten, nämlich die Untersuchung des Nutzerverhaltens bei Suchmaschinen und letztlich die Verbesserung der personalisierten Suche (siehe Tabelle 1). Tabelle 1 • Felder und Feldbeschreibungen des Nutzerdatensatzes der AOL-Suchmaschine, 500k Nutzer-Sitzungssammlung • AnonID – eine anonyme Nutzer-ID-Nummer • Query – die vom Nutzer eingegebene Anfrage, fallverschoben, Interpunktion großenteils entfernt • QueryTime – die Zeit, zu der die Suchanfrage eingegeben wurde • ItemRank – Klickte der Nutzer auf ein Suchergebnis, wurde dessen Rang aufgelistet. • ClickURL – Klickte der Nutzer auf ein Suchergebnis, wurde der Domain-Anteil der URL im angeklickten Ergebnis aufgelistet. Quelle: Greg Sadetsky’s mirror of AOL’s 500k User Session Collection Data and Readme Text, 2006. www.gregsadetsky.com/aol-data/U500k_README.txt.
Insbesondere die AOL-Datenfelder, die geliefert wurden, verraten eine Suchmaschineneffektivität bei relativ einfachen Fragen. Klicken die Nutzer gleich die ersten Ergebnisse an, die sie bekommen? Diese Information steht im ItemRank-Feld. Nuancierter ist die Frage: Finden Nutzer, wonach sie suchen? (Van Couvering, 2007). Klicken Nutzer auf die ersten Ergebnisse einer Anfrage (ItemRank) und es gibt nur eine Anfrage in ihrer Sitzung (QueryTime), werden die Nutzer finden, wonach sie suchen, und die Suchmaschine würde vermutlich ihr Bestes geben. Lange Sitzungen, wiederholt umformulierte Anfragen und angeklickte URLs, die auf der zweiten oder dritten Eergebnisseite erscheinen (ItemRank 11-30), würden die Effektivität der Suchmaschine wohl eher in Frage stellen. Eine nützliche Untersuchungsmethode könnte das Studium der Merkmale solcher Suchanfragen sein. Um auf spezielle Fragesteller zu reagieren, könnten die Forscher versuchen, Elemente in den Algorithmus einzubauen, die den Suchmaschinen dabei behilflich wären, solchen Nutzern Ergebnisse zu liefern (siehe Tabelle 2). So könnten Nutzer den Maschinen ganz konkrete Fragen stellen. Sie könnten Bemerkungen gegenüber den Maschinen abgeben. Sie könnten sich auch mit ihnen unterhalten oder ihnen sogar etwas beichten. Ein solcher Nutzer ist das Subjekt der »wahren und herzzerreißenden (Such)geschichte« des AOL-Suchnutzers 711391, das Subjekt des Videokunstprojekts I Love Alaska, das nach einer Suchanfrage benannt ist
Richard Rogers: Nach dem Cyberspace: Big Data, Small Data
(Engelberts und Plug, 2008). Tatsächlich ist der Anfragestil von 711391 genau der Stil, den die AOL-Forscher im Sinn hatten, als sie den ReadMe-Text schrieben, mit dem sie die wissenschaftliche Community einluden, mit »realen Tabelle 2 • AOL-Suchanfragen von Nutzer 711391, 2006 • kann neben meinem schnarchenden Mann nicht schlafen… Gott wird dir deine Herzenswünsche erfüllen… Internetfreundschaften können etwas ganz Besonderes sein… Die Leute sind nicht immer so, wie sie im Internet zu sein scheinen… Kirchen für Schwule in Houston tx… Mit wem ist Crystal Bernard verbandelt… Ist Crystal Bernard bisexuell… Männer muss man ermutigen… Wie viele Romanzen im Internet führen zu Sex… Wie viele Romanzen im Internet führen zu richtigem Sex… Die Bibel sagt, man soll lieb zueinander sein… Ich kann Dr. phil oder seine Frau nicht ausstehen… Ist George Clooney schwul… Wie kann ich ein gutes Beispiel für einen nicht erlösten Freund sein… Furzender Priester… Wer ist der geilste Pornostar… Andachten für Frauen… Hillary Swanke nackt… Beste Nacktszenen von 1999… Wie bekommt man seine Körpermaße… Jake Gyllenhaal ist scharf… Gebleichte Schamhaare… Oprah hat in letzter Zeit zugenommen… Star Jones Hubby ist ein verflixter Homosexueller… Wie macht man einen guten ersten Eindruck… Seinen Körper akzeptieren… Wieso wiege ich so viel, obwohl ich doch gut in Form bin… Bibelstudium am Tisch des Herrn… Wie kann ich rauskriegen, ob meine Frau mir nachspioniert, während ich online bin… Hätte Lust zu einer Affäre… Außereheliche Affären sind nicht die Lösung… Ruhig bleiben, während ich einen Freund im Internet kennen lerne… Schuldgefühl beim Betrügen meiner Frau… Bryce Howard nackt… Was die Bibel über Kummer sagt… Piratinnenkostüme… Symptome von Blasenentzündung… Gott wird dir zeigen, was in der Zukunft passiert… Symptome von Herpes auf der Zunge… Ich will meinen Ex nicht wieder haben… Wieso betrügen christliche Männer… Nimm keinen Kontakt zu einem Ex auf, wenn du ihn vergessen willst… Christliche Männer, die sich schuldig fühlen, weil sie ihre Frauen betrügen… Wenn du aufgeregt bist, kannst du schlimme Träume kriegen… Und nachdem du ein bisschen gelitten hast, wird Gott dich stärker als je zuvor machen… Kelly Ripa ist so nervig… Wie kann man sich selbst vergeben… Wie kann man über Internetaffären hinwegkommen… Denise Richards ist eine Schlampe… Grund für ständige böse Träume… Eine Affäre zu haben ist Zeitverschwendung… Wie bringt man einen Mann dazu, dass er einen haben will… Quelle: »User 711391«, in: Smith Magazine, 10. August 2006. www.smithmag.net/2006/8/10/ user-711391/
181
182
2. Geschichte und Theorie der Daten
Suchanmeldedaten, die auf realen Nutzern basieren« zu arbeiten. (AOL, 2006; Pass et al., 2006). Die Daten sollten für Personalisierungen wie zur »Umformulierung von Suchanfragen« verwendet werden, damit die Suchmaschine die Anfrage des Nutzers so umwandelt, dass sie sie besser beantworten kann (AOL, 2006). Uns interessiert in diesem Zusammenhang, wie die Daten formatiert waren: als Listen von Anfragen der nummerierten Nutzer. Tatsächlich können die Datensätze vieler individueller Nutzer der Vorstellung entsprechen, dass Anmeldungen bei Suchmaschinen eine »Datenbank von Intentionen« einrichten, wie John Battelle es im Hinblick auf den neuen »Datenkörper« formuliert hat, den eine Suchgeschichte erschafft (Battelle, 2005; Engelberts und Plug, 2008). Nach den Anmeldungen zu schließen, sind Nutzer der AOL-Suchmaschine Opfer abscheulicher Handlungen geworden, denn sie haben ja eigentlich Hilfe gesucht. Oder sie planen vielleicht Rache und wollen sich feinfühlig oder ruchlos verhalten (Electronics Frontier Foundation, 2006). In ihrer Beschwerde an die Federal Trade Commission, die US-Verbraucherbehörde, über die Datenfreigabe und die damit verbundenen Enthüllungen über Nutzer, die nicht erwarteten, dass ihre Anfragen veröffentlicht und sie damit vielleicht persönlich identifizierbar würden, schreibt die Electronic Frontier Foundation: »Die Freigabe […] veröffentlichte extrem sensible Suchanfragen wie etwa ›Wie sagt man seiner Familie, dass man ein Inzestopfer ist?‹, ›Ärztliche Hilfe bei Depressionen‹, ›Wie bringt man seine Frau um?‹, ›Männer, die emotionales und physisches Verlassen dazu nutzen, ihre Partner zu kontrollieren‹, ›Selbstmord durch Erdgas‹, ›Wie tut man jemandem weh wegen des Schmerzes, den er jemand anderem angetan hat?‹, ›Rache an einer fremd gehenden Ehefrau‹, ›Werde ich wegen Trunkenheit am Steuer von New York nach Florida ausgeliefert?‹ und ›Der Vater meines Babys missbraucht mich physisch.‹« (Ebd., S. 4f.)
Viele der anschließenden Kommentare über die Veröffentlichung der Suchanmeldedaten befassten sich mit Verstößen gegen den Datenschutz sowie mit den Möglichkeiten der Strafverfolgung, und dieses Echo veranlasste Suchmaschinenfirmen, zurückhaltender bei der Überlassung von Suchanmeldedaten für Forschungszwecke zu werden (ebd.). Eine wichtige Lehre, die aus der Freigabe von Suchanmeldedaten durch AOL gezogen wurde, ist die Überzeugung, dass Nutzer von Suchmaschinen kaum anonym bleiben (Poblete et al., 2008). Der Umstand, dass jeder Nutzer durch eine Zahl und eine Liste von Anfragen zu identifizieren ist, tarnt eben nicht seine Identität, sondern lädt geradezu zur Detektivarbeit ein. Zwei weitere Konsequenzen aus der Freigabe von Suchanmeldungen durch AOL sind für Sozialforscher relevant, die mit Internetdaten arbeiten. Zum einen haben Suchmaschinenfirmen anschließend gelobt, die Privatsphäre ihrer Nutzer durch Anweisungen zur Datenanonymisierung und -zerstörung zu schützen, indem sie die gesammelten Daten downgradeten und auch nur kurzfristig bevorrateten – womit sie gegen zwei der oben erwähnten Kriterien von »guten Daten« verstießen und einen der Gründe dafür lieferten, dass Internetdaten den
Richard Rogers: Nach dem Cyberspace: Big Data, Small Data
Qualitätstest nicht bestehen würden.5 Echte Namen lassen sich ja durch beliebige Namen ersetzen, damit man den Richtlinien zur Datenvorratsspeicherung entspricht. Google jedenfalls entschied sich dafür, seine Suchmaschinennutzer (in den Anmeldungen) zu anonymisieren, indem man die letzten paar Zahlen der IPAdresse des Suchenden wegließ, während Microsoft die IP-Adressen ganz strich (Sullivan, 2008). Die IP-Adresse zeigt jedoch auch den geografischen Standort des Nutzers an, und dies ist die zweite Konsequenz aus dem Skandal der Freigabe von Suchanmeldungen durch AOL. Statt sich mit dem einzelnen Nutzer zu befassen (der durch eine Zahl anonymisiert wird oder dessen IP-Adresse ganz oder teilweise weggelassen wird), kann die Forschung über Log-ins ihr Augenmerk auf das richten, was wir die Orte von Suchanfragen nennen. An welchen Orten suchen Nutzer nach bestimmten Begriffen, etwa einem Kandidaten in einer bevorstehenden Wahl? Könnte der Ort eines solchen kollektiven Suchanfrageverhaltens für die Forschung relevant gemacht werden? Eine derartige sozialwissenschaftliche Perspektive könnte nicht nur verändernd darauf einwirken, wie Daten erforscht, sondern auch wie sie zur Verfügung gestellt werden. Dann wäre es nämlich weniger interessant, eine Liste von Suchanfragen durch einen individuellen Nutzer zu bekommen, als eine Liste von Suchanfragen aus einem Ort.6 Für den entscheidenden Durchbruch in dieser Hinsicht hat das Projekt Google Flu Trends gesorgt, das herausfand, dass es »grippeartige Erkrankungen in einer Bevölkerung verfolgen kann […], indem es den aktuellen Stand der wöchentlichen Grippefälle in jeder Region der USA genau einschätzte« (Ginsberg et al., 2009, S. 1012). Google Flu Trends verlagerte damit die Aufmerksamkeit weg von der Privatsphäre des einzelnen Nutzers und auch generell weg von der Sucheffektivität oder der personalisierten Suchmaschinenforschung als der Haupttätigkeit im Umgang mit Suchanmeldedaten. Suchanfragen werden so vielmehr ein Instrument, um Trends zu ermitteln. Das war eine Zeit lang nur ein Nebenprodukt von Suchmaschinen gewesen, wobei Dienste wie Google Trends die beliebtesten Suchanfragen zu einer bestimmen Zeit (und an einem bestimmten Ort) auflisteten. Mit der Hinzufügung der Ortsdaten (via Zipcode für registrierte Nutzer eines Toolbar oder anderer Dienste oder via IP-Adresse), ändert sich die Forschungsperspektive, und die Interessen können sich dann vom Zeitgeist und einer Marketingmentalität hin zur Gesundheits- und Sozialforschung verlagern. 5 | Suchanmeldedaten könnten durchaus Qualitätstests für »gute Daten« bestehen, wenn sie nicht regelmäßig vernichtet und abgewertet würden durch die Einfügung von Fantasienamen an Stelle von echten Namen und von Redeteilen, durch die sich reale Personen identifizieren lassen. 6 | Interessant wäre es auch, eine Liste von Suchanfragen zu haben, die durch Klicks von Nutzern letztlich auf besonderen Arten von Internetseiten landen, etwa politischen Blogs rechts oder links von der Mitte. Diese Technik wandten Erik Borra und Ingmar Weber bei der Entwicklung von Yahoo! Political Insights an. Siehe Borra und Weber, 2012; Weber et al., 2012.
183
184
2. Geschichte und Theorie der Daten
Das bereits erwähnte Verkürzen oder Weglassen der IP-Adresse ist ein Mittel, Nutzer zu anonymisieren; im Fall von Google wurde nur bei nichtauthentifizierten Nutzern (also denen, die sich nicht eingeloggt hatten) die IP-Adresse weggelassen. Authentifizierte Nutzer hingegen sind damit einverstanden, dass Suchmaschinenfirmen ihre Daten für den Zweck speichern, die Suchtechnik zu verbessern. Damit ergeben sich neue Forschungsmöglichkeiten. Beispielsweise spiegelt ein Satz von Suchmaschinenanmeldedaten von Yahoo! Research von registrierten Yahoo!-Nutzern großenteils die Demografie der US-Bevölkerung wider (Weber und Castillo, 2010). Damit könnte man die Verteilung spezifischer kultureller und sozialer Vorlieben mit Hilfe von drei Variablen studieren: Suchbegriffe (einschließlich des Umfangs), Suchort (Zip-Codes) und Eingangsdatum der Suchanfragen (Taksa et al., 2008; Baeza-Yates et al., 2009; Silvestri, 2010). Hierfür würde sich auch die Sozial- und Politikforschung interessieren. Man könnte sich ein Spektrum von Forschungsprojekten über Suchanmeldungen vorstellen, etwa Zeit und Ort von volksverhetzenden Äußerungen oder extremistischer Aussagen, sodass man die Befunde aus archivierten Internetseiten an zusätzlichen Internetdaten (Suchanmeldungen) festmachen könnte, also Internetbefunde an Internetbefunden. Man könnte auch nach Kandidaten im Vorfeld einer Wahl suchen, auch in Verbindung mit sozialen Fragen. Eine der entscheidenden Herausforderungen liegt darin, die Fähigkeit des Internets (durch die Analyse von Suchmaschinen-Anfragedaten) zu untersuchen, den Ort und die Zeit sowie die Stärke kultureller Vorlieben und politischer Äußerungen zu benennen, im Vergleich zu anderen Mitteln, mit denen sich die gleichen Befunde erzielen lassen. Eine Forschung, die sich mit den Orten, Zeiten und Intensitäten von Suchanfragen befasst, bekundet die methodologische Fantasie von Sozialforschung, wie ich sie beschreiben möchte (im Gegensatz zur Tätigkeit des Online-Detektivs oder der Konstrukteure personalisierter Suchmaschinen). Denn hier werden Fragen zu Einstellungen und Vorlieben formuliert und nicht solche, die letztlich persönlich identifizierbare Daten enthüllen (Ess, 2002; Jones et al., 2007; Dutton und Piper, 2010). Solche Forschungsvorhaben mögen es mit »Big Data« zu tun bekommen, allerdings mit einer digitalen methodologischen Perspektive.
L iter atur AOL: 500k User Session Collection, 2006. Früher erhältlich von research.aol. com. Anderson, Nate: »The Ethics of Using AOL Search Data«, in: Ars Technica, August 2006. http://arstechnica.com/old/content/2006/08/7578. Baeza-Yates, Ricardo, Christian Middleton und Carlos Castillo: »The Geographical Life of Search«, in: Proceedings of the 2009 IEE/WIC/ACM International Joint Conference on Web Intelligence and Intelligent Agent Technology, Band 1 (WI-IAT ‘09), Washington, DC, 2009, S. 252-259.
Richard Rogers: Nach dem Cyberspace: Big Data, Small Data
Barbaro, Michael, und Tom Zeller: »A Face Is Exposed for AOL Searcher No. 4417749«, in: New York Times, 9. August 2006. Battelle, John: The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture, New York 2005. Bohannon, John: »Google Opens Books to New Cultural Studies«, in: Science 330 (6011), 2010, S. 1600. Borgman, Christine: Scholarship in the Digital Age, Cambridge, MA: MIT Press 2007. Dies.: »The Digital Future Is Now: A Call to Action for the Humanities«, in: Digital Humanities Quarterly, 3(4), 2009. www.digitalhumanities.org/dhq/ vol/3/4/000077/000077.html (15. Dezember 2010). Borra, Erik, und Ingmar Weber: »Political Insights: Exploring Partisanship in Web Search Queries«, in: First Monday 17 (7), 2012. boyd, danah, und Kate Crawford: »Six Provocations for Big Data«, Artikel für die Konferenz: »A Decade in Internet Time: Symposium on the Dynamics of the Internet and Society«, Oxford Internet Institute, 21. September 2011. Briggs, Asa: Serious Pursuits: Communications and Education, Champaign, IL, 1991. Dutton, William, und Tina Piper: »The Politics of Privacy, Confidentiality, and Ethics: Opening Research Methods«, in: William Dutton und Paul Jeffreys (Hg.), World Wide Research: Reshaping the Sciences and Humanities, Cambridge, MA: MIT Press 2010, S. 223-240. Electronic Frontier Foundation: »FTC Complaint«, 14. August 2006. http://w2.eff. org/Privacy/AOL/aol_ftc_complaint_final.pdf (12. März 2011). Elmer, Greg: »Hypertext on the Web: The Beginnings and Ends of Web Pathology«, in: Space and Culture 10, 2001, S.1-14. Engelberts, Lernert, und Sander Plug: »I Love Alaska«, Minimovies series, SubmarineChannel production, in collabolation with VPRO Television, 2008. www.minimovies.org/documentaires/view/ilovealaska (20. Juni 2011). Espenschied, Dragan, und Olia Lialina: Digital Folklore, Stuttgart: Merz Academy 2009. Ess, Charles, und AoIR Ethics Working Committee: »Ethical Decision-Making and Internet Research: Recommendations from the AoIR Ethics Working Committee«, Association of Internet Research 2002. http://aoir.org/reports/ethics.pdf (18. Oktober 2012). Franklin, Kevin, und Karen Rodriguez: »The Next Big Thing in Humanities, Arts, and Social Science Computing: Cultural Analysis«, in: HPCWire, 29. Juli 2008. www.hpcwire.com/hpcwire/2008-07-29/the_next_big_thing_in_huma nities_arts_and_social_science_computing_cultural_analytics.html. Ginsberg, Jerry, Matthew H. Mohebbi, Rajan S. Patel, Lynnette Brammer, Mark S. Smolinski und Larry Brilliant: »Detecting Influenza Epidemics Using Search Engine Query Data«, in: Nature 457 (7232), 2009, S. 1012-1014.
185
186
2. Geschichte und Theorie der Daten
Hafner, Katie: »Researchers Yearn to Use AOL Logs, but They Hesitate«, in: New York Times, 23. August 2006. Hayles, N. Katherine: »Print Is Flat, Code Is Deep: The Importance of Media-Specific Analysis«, in: Poetics Today 25 (1), S. 67-90. Hellsten, Tina, Loet Leydesdorff und Paul Wouters: »Multiple Presents: How Search Engines Rewrite the Past«, in: New Media and Society 8 (6), 2006, S. 901-924. Huber, William/Tara Zeipel/Lev Manovich (2010): Science and Popular Magazines, 1872-2007. Blog Posting, http://lab.softwarestudies.com/2010/11/scienceand-popular-science-magazines.html Information Warfare Monitor: Tracking Ghostnet: Investigating a Counterespionage Network, Ottawa 2009. Jones, Rosie, Ravi Kumar, Ro Pang und Andrew Tomkins: »›I Know What You Did Last Summer‹ – Query Logs and User Privacy«, in: Proceedings of the sixteenth ACM Conference on Information and Knowledge Management (CIKM ‘07), New York 2007, S. 909-914. Keen, Andrew: The Cult of the Amateur: How Today’s Internet Is Killing Our Culture, London 2007. Lazer, David, Alex Pentland, Lula Adamic, Sinan Aral, Albert-László Barabási, Devon Brewer, Nicholas Christakis et al.: »Computational Social Science«, in: Science 323 (5915), 2009, S. 721-723. Lewis, Kevin, Jason Kaufman, Marco Gonzalez, Andreas Wimmer, und Nicholas Christakis: »Tastes, Ties, and Time: A New Social Network Dataset Using Facebook.com«, in: Social Networks 30 (4), 2008, S. 330-342. Manovich, Lev: »How to Follow Global Digital Cultures: Cultural Analytics for Beginners«, in: Konrad Becker und Felix Stalder (Hg.), Deep Search: The Politics of Search beyond Google, Edison, NJ, 2009, S. 198-212 (deutsch: Deep Search. Politik des Suchens jenseits von Google, Wien 2008). Marres, Noortje, und Richard Rogers: »Depluralising the Web, Repluralising Public Debate: The GM Food Debate on the Web«, in: Richard Rogers (Hg.), Preferred Placement, Maastricht 2000, S. 113-135. Marres, Noortje (2009): »Re-distributing Methods: Digital Social Research as Participatory Research«, in: Sociological Review: Goldsmiths Research Online, http://eprints.gold.ac.uk/6086/, accessed December 29, 2011 (12. Juni 2014). Marres, Noortje: »Re-distributing Methods: Digital Social Research as Participatory Research«, in: Sociological Review: Goldsmiths Research Online, 2011. http://eprints.golci.ac.uk/6086/. Michel, Jean-Baptiste, Yuan Kui Shen, Aviva Presser Aiden, Adrian Veres, Matthew K. Gray, Google Books Team, Joseph P. Pickett, Dale Hoiberg, Dan Clancy, Peter Norvig, Jon Orwant, Steven Pinker, Martin A. Nowak und Erez Lieberman Aiden: »Quantitative Analysis of Culture Using Millions of Digitized Books«, in: Science 331 (6014), 2011, S. 176-182.
Richard Rogers: Nach dem Cyberspace: Big Data, Small Data
National Science Board: »Long-Lived Digital Data Collections: Enabling Research and Education in the 21st Century«, Washington, DC: National Science Foundation 2005. Pass, Greg, Abdur Chowdhury und Cayley Torgeson: »A Picture of Search«, in: InfoScale ‘06, New York 2006. Poblete, Barbara, Myra Spiliopoulou und Ricardo Baeza-Yates: »Website Privacy Preservation for Query Log Publishing«, in: Francesco Bonchi, Elana Ferrari, Malin Bradley und Yücel Saygin (Hg.), Privacy, Security and Trust in KDD, Lecture Notes in Computer Science, 2008, S. 80-96. Price, Derek de Solla: Little Science, Big Science, New York 1963 (deutsch: Little Science, Big Science. Von der Studierstube zur Großforschung, Frankfurt a.M. 1974). Shields, Rob: The Virtual, London: Routledge 2003. Silvestri, Fabrizio: »Mining Query Logs: Turning Search Usage Data Into Knowledge«, in: Foundations and Trends in Information Retrieval 4 (1-2), 2010, S. 1-174. Sullivan, Danny: »Anonymizing Google’s Server Log Data – How’s It Going?«, in: Search Engine Land, 10. Oktober 2008. http://searchengineland.com/anony mizing-googles-server-log-data-hows-it-going-15036 (12. März 2011). Taksa, Isak, Amanda Spink und Bernard J. Jansen: »Web Log Analysis: Diversity of Research Methodologies«, in: Dies. (Hg.), Handbook of Research on Web Log Analysis, Hershey, Pennsylvania: IGI Global 2008, S. 506-522. Thelwall, Mike, und Laura Hasler: »Blog Search Engines«, in: Online Information Review, 31, (4), 2007, S. 467-479. Thelwall, Mike, Laura Vaughan, und Lennart Björneborn: »Webometrics«, in: Blaise Cronin (Hg.), Annual Review of Information Science and Technology, 39, Medford, NJ: Information Today 2005, S. 81-135. US Air Force: Our Mission, 2009. www.af.mil/main/welcome.asp. Van Couvering, Elizabeth: »Is Relevance Relevant? Market, Science, and War: Discourses of Search Engine Quality«, in: Journal of Computer-Mediated Communication, 12 (3), 2007. Van Doorn, Niels: Digital Spaces, Material Traces, Diss. Univ. Amsterdam 2009. Webb, Eugene J., Donald T. Campbell, Richard D. Schwartz und Lee Sechrest: Unobtrusive Measures: Nonreactive Research in the Social Sciences, Chicago 1966 (deutsch: Nichtreaktive Messverfahren, Weinheim 1975). Weber, Ingmar, und Carlos Castillo: »The Demographics of Web Search«, in: Proceeding of the 33rd international ACM SIGIR conference on research and development in information retrieval (SIGIR ’10), New York 2010, S. 523-530. Weber, Ingmar, Venkata Rama Kiran Garimella und Erik Borra: »Mining Web Query Logs to Analyze Political Issues«. ACM International Conference on Web Search and Data Mining, 2012.
187
3. Digitale Methoden
Twitter-Archive und die Herausforderungen von »Big Social Data« für die Medien- und Kommunikationswissenschaft 1 Jean Burgess/Axel Bruns
S ocial M edia und ihre L isten Listen sind seit langem ein Ordnungsmechanismus für computervermittelte soziale Interaktion. Aujch wenn sie bei weitem nicht der erste derartige Mechanismus waren, boten Blogrolls beispielsweise ihren Bloggern die Chance, eine Liste ihrer Kollegen bereitzustellen; die derzeitige Generation von Social-Media-Umgebungen bietet in ähnlicher Weise eine Listenfunktion für Freunde und Follower. Wo Blogrolls und andere frühere Listen jedoch nutzergeneriert waren, sind die Social-Media-Listen von heute eher von den Plattformen selbst erzeugt, und haben daher einen ebenso großen intrinsischen Wert für Plattform-Anbieter wie für die Nutzer selbst; sowohl Facebook als auch Twitter haben z.B. die Bedeutung der jeweiligen »social graphs« ihrer Netzwerke (ihre Datenbanken von Nutzerverbindungen) als grundlegende Elemente ihrer noch jungen Geschäftsmodelle hervorgehoben. Dieses stellt dar, was Mejias (2012) als einen »nodocentrism« beschreibt, der »alle menschliche Interaktion mit den Begriffen der Netzwerk-Dynamik beschreibt (nicht nur irgendeines Netzwerks, sondern eines digitalen Netzwerks mit einer profitgetriebenen Infrastruktur)« (unsere Übersetzung). Die kommunikativen Inhalte von Social-Media-Räumen werden ebenfalls häufig in Form von Listen dargestellt. Bekanntlich werden Blogs in erster Linie durch die umgekehrt chronologische Auflistung ihrer Beiträge definiert (Walker Rettberg, 2008), doch gilt dies auch für Social-Media-Plattformen: Twitter, Facebook und andere Social-Media-Plattformen sind von Natur aus um eine endlose, ständig aktualisierte und erweiterte Liste der von den einzelnen Benutzern und ihren Verbindungen hergestellen Beiträge aufgebaut. 1 | Eine englischsprachige Version dieses Artikels ist in M/C Journal 15.5 (2012) erschienen: http://journal.media-culture.org.au/index.php/mcjournal/article/viewArticle/561.
192
3. Digitale Methoden
Die Idee der Liste bedeutet ein gewisses Maß an Ordnung, und die geordnete Abruf barkeit von Inhalten, wie sie von der neuesten Generation zentralisiert aufgebauter Social-Media-Plattformen bereitgestellt werden, hat auch zur Entwicklung von umfassenderen und leistungsfähigeren, kommerziellen wie wissenschaftlichen, Ansätzen zur Erforschung sozialer Medien geführt. Am Beispiel von Twitter beschreibt dieser Artikel daher die Herausforderungen solcher »Big Data«-Forschung, die auf die Inhalte der durch kommerzielle Social-Media-Plattformen bereitgestellten Listen auf baut.
Twit ter -A rchive in der F orschung Twitter ist eine besonders nützliche Quelle für Social-Media-Daten: Mit dem Twitter-API (dem Application Programming Interface, das einen strukturierten Zugang zu Kommunikationsdaten in standardisierten Formaten bietet) ist es Forschern möglich, mit ein wenig Mühe und ausreichenden technischen Ressourcen sehr große Archive öffentlich verbreiteter Tweets zu bestimmten Themen, Interessenbereichen oder Veranstaltungen aufzubauen. Grundsätzlich liefert das API sehr lange Listen von Hunderten, Tausenden oder Millionen von Tweets und den Metadaten zu diesen Tweets; diese Daten können dann auf verschiedene Weise extrahiert, kombiniert und visualisiert werden, um die Dynamik der Social-Media-Kommunikation zu verstehen. Diese Forschung ist häufig um althergebrachte Fragestellungen herum aufgebaut, wird aber in der Regel in einem bislang unbekannt großen Maßstab durchgeführt. Die Projekte von Medien- und Kommunikationswissenschaftlern wie Papacharissi und de Fatima Oliveira (2012), Wood und Baughman (2012) oder Lotan et al. (2011) – um nur eine Handvoll der letzten Beispiele zu nennen – sind grundlegend auf Twitter-Datensätze aufgebaut, die jetzt routinemäßig Millionen von Tweets und zugehörigen Metadaten umfassen, erfasst nach einer Vielzahl von Kriterien. Was allen diesen Fällen gemein ist, ist jedoch die Notwendigkeit, neue methodische Wege in der Verarbeitung und Analyse derart großer Datensätze zur medienvermittelten sozialen Interaktion zu gehen. Unsere eigene Arbeit befasst sich generell mit dem Verständnis der Rolle sozialer Medien in der zeitgenössischen Medienökologie, mit einem Schwerpunkt auf der Beobachtung der Entwicklung und Dynamik interessen- und themenbedingter Öffentlichkeiten. Wir haben zu diesem Zweck große Archive von Twitter-Daten erfasst und analysiert, um moderne Krisenkommunikation (Bruns et al., 2012), die Rolle sozialer Medien bei Wahlen (Burgess und Bruns, 2012) und Formen aktueller Publikumsbeteiligung an Fernseh- und Nachrichtenmedien zu untersuchen (Harrington, Highfield und Bruns, 2012). Mit Hilfe einer modifizierten Version des Open-Source-Twitter-Archivierungstools yourTwapperkeeper sind wir in der Lage, alle verfügbaren Tweets (und die zugehörigen Metadaten) zu erfassen und zu archivieren, die einen bestimm-
Jean Burgess/Axel Bruns: Twitter-Archive und die Herausforderungen von »Big Social Data«
ten Suchbegriff (z.B. »Bundesliga« oder »Dubstep«), Namen (Guardiola, Bieber, Obama) oder Hashtag (#btw13, #royalwedding, #qldfloods) beinhalten. In ihrer einfachsten Form sind solche Twitter-Archive gemeinhin als Text-Dateien (z.B. Komma- oder Tab-getrennt) gespeichert, mit jedem der folgenden Werte in einer eigenen Spalte: text: to_user_id: from_user: id: from_user_id: iso_language_code: source: profile_image_url: geo_type: geo_coordinates_0: geo_coordinates_1: created_at: time:
Inhalt des Tweets selbst, in 140 Zeichen oder weniger numerische ID des Tweet-Empfängers (für @replies) Twitter-Name des Tweet-Absenders numerische ID des Tweets selbst numerische ID des Tweet-Absenders Code (z.B. en, de, fr, …) der vom Absender benutzten Sprache vom Absender benutztes Twittertool (z.B. Web, Tweetdeck, …) URL für das Profilbild des Tweet-Absenders Format der geografischen Koordinaten des Tweet-Absenders erstes Element der geografischen Koordinaten zweites Element der geografischen Koordinaten Sendezeit des Tweets in direkt lesbarem Format Sendezeit des Tweets als Unix Timestamp
Um diese Daten zu verarbeiten, benutzen wir in der Regel eine Reihe unserer eigenen Skripts (geschrieben in der Programmiersprache Gawk), die den Datensatz auf verschiedene Weise bearbeiten oder filtern, und extrahieren eine Reihe zeitlich, qualitativ oder inhaltlich aufschlussreicher Metriken aus den Daten, sodass es uns möglich wird, Aktivitätsmuster über die Zeit zu erkennen, sowie Inhalte und Themen, wichtige Akteure und die Beziehungen zwischen ihnen zu identifizieren; in einigen Fällen folgen weitere Phasen der Filterung und detaillierten inhaltlichen Analyse von Tweet-Inhalten. Netzwerkanalyse (der Beziehungen zwischen den Akteuren in einer Diskussion oder zwischen wichtigen Themenbereichen) wird mit der Open-Source-Anwendung Gephi vorgenommen. Während eine ausführliche methodische Diskussion den Rahmen dieses Artikels sprengen würde, bietet unsere umfassende Projektwebseite Mapping Online Publics ausführliche Details und Beispiele zu unseren Methoden sowie Hilfsmittel zur Datenanalyse und -visualisierung, einschließlich unserer GawkSkripts. In diesem Artikel beziehen wir uns stattdessen auf die technischen, epistemologischen und politischen Herausforderungen solcher Nutzung von großen Twitter-Archiven in der medien- und kommunikationswissenschaftlichen Forschung; wir siedeln diese Diskussion im Kontext des von Lev Manovich als »Big Social Data« beschriebenen Phänomens an. Dabei erkennen wir an, dass unsere empirische Arbeit über Twitter sich auf ein komplexes Forschungsobjekt bezieht, welches selbst geprägt ist durch eine komplexe Reihe menschlicher und nichtmenschlicher Akteure, die in einer dynamischen, ja unsteten Medienökologie
193
194
3. Digitale Methoden
(Fuller, 2005) operieren, und dass wir Methoden für die Erfassung und Analyse von Daten verwenden, die selbst tief in diese Ökologie eingebettet sind.
»B ig S ocial D ata« Wie Manovichs Begriff schon aufzeigt, hat die Big-Data-Idee nun vor kurzem auch die Medien-, Kommunikations- und Kulturwissenschaften erreicht – deutlich später als die Naturwissenschaften, die traditionell stärker computergestützten Zweige der Sozialwissenschaften, und vielleicht sogar als die erste Welle der »Digital Humanities« (welche computergestützte Methoden weitgehend auf bereits bestehende, historische »Big Data«-Sammlungen angewendet haben) –, und diese neue Entwicklung wurde zu einem großen Teil durch das dramatische quantitative Wachstum und die scheinbar zunehmende kulturelle Bedeutung von sozialen Medien hervorgerufen: daher sprechen wir nun von »Big Social Data«. Wie Manovich es ausdrückt: Zum ersten Mal können [den] Vorstellungen, Meinungen, Ideen und Gefühlen hunderter Millionen Menschen folgen. Wir können die Bilder und Videos, die sie erstellen und kommentieren, sehen, die Gespräche, an denen sie beteiligt sind, mitverfolgen, ihre Blogposts und Tweets lesen, ihre Karten navigieren, ihre Musiklisten hören, und ihre Laufbahnen durch den physischen Raum nachverfolgen. (Manovich, 2012, S. 461; unsere Übersetzung)
In den Medien-, Kommunikations- und Kulturwissenschaften ist dieser Moment wegen des wachsenden Umfangs der Social-Media-Beteiligung und wegen der textlichen Spuren, die diese Beteiligung hinterlässt, gekommen – er erlaubt es den Forschern, mit digitalen Werkzeugen und Methoden ausgestattet, »soziale und kulturelle Prozesse und Dynamiken auf neue Art und Weise« zu erforschen (Manovich, 2012, S. 461; unsere Übersetzung). Allerdings, und für unsere Zwecke in diesem Artikel entscheidend, würden viele dieser wissenschaftlichen Möglichkeiten unverwirklicht bleiben, wenn Open APIs für Social-Software-Plattformen (einschließlich von Social Media) nicht weitreichend verfügbar wären. APIs bieten die technischen Spezifikationen, wie eine Software-Anwendung auf eine andere zugreifen soll, wodurch die Einbettung oder Weiterverbreitung von sozialen Inhalten über Websites möglich gemacht wird (sodass z.B. die Tweets eines Nutzers auch in seiner Facebook-Timeline erscheinen können), oder ermöglichen es Drittanbietern, zusätzliche Anwendungen zu entwickeln, die auf Social-Media-Plattformen auf bauen (wie etwa den Twitter-Nutzer-Ranking-Service Klout), geben aber dabei den Plattformbetreibern auch die Macht, mit Hilfe desselben Codes de facto auch derartige Nutzung durch Dritte zu regulieren. Und auch wenn die Plattformanbieter nicht unbedingt auch Forschungsanwendungen im Sinn haben, stehen die durch APIs bereitgestellten Datenzugriffsmöglichkeiten auch für wissenschaftliche Zwecke zur Verfügung.
Jean Burgess/Axel Bruns: Twitter-Archive und die Herausforderungen von »Big Social Data«
Wie Manovich aufzeigt (2012, S. 464), sind bis vor kurzem fast alle wirklichen »Big Data«-Ansätze zur Social-Media-Forschung von Informatikern unternommen worden. Aber als Teil eines umfassenderen »computational turn« in den digitalen Geisteswissenschaften (Berry, 2012) und wegen der erhöhten Verfügbarkeit von Datenerfassungs- und -analysetools für Nicht-Spezialisten sind nun auch Medien-, Kommunikations- und Kulturwissenschaftler im Begriff, den Abstand zu ihren Kollegen zu verkürzen. Viele der neuen, großangelegten Forschungsvorhaben, die die gesellschaftliche Nutzung und Auswirkung von Social Media untersuchen – einschließlich unserer eigenen Arbeit – und die von verschiedenen führenden Medien-, Kommunikations- und Kulturwissenschaftlern rund um die Welt eingeleitet wurden, haben ihre Arbeit damit begonnen, eine Bestandsaufnahme der Palette verfügbarer Werkzeuge und Methoden zur Social-MediaDatenanalyse zu machen sowie diese oft durch neue Entwicklungen wesentlich zu erweitern. Die durch solche Projekte entwickelte Forschungsinfrastruktur spiegelt daher nun ihre eigenen fachlichen Hintergründe mindestens so sehr wieder wie die grundlegenden Prinzipien der Informatik. Im Gegenzug schaffen solche neuen und oft experimentellen Werkzeuge und Methoden notwendigerweise auch neue epistemologische und methodische Herausforderungen.
D as Twit ter - API und Twit ter -A rchive Das Open API war ein wichtiger Aspekt der Vorstellungen über den Wert des offenen Webs und der »Web 2.0«-Geschäftsmodelle in der Mitte der 2000er Jahre (O’Reilly, 2005), welche die offene, plattformübergreifende Verbreitung von Inhalten sowie die Förderung von Innovation am Rande des Marktes durch Drittanbieter-Anwendungsentwicklung herausstellten – und es war in diesem ideologischen Umfeld, dass der Microblogging-Dienst Twitter startete und sich eines raschen Wachstums in seiner Popularität unter Nutzern gleich wie unter Entwicklern erfreute. Wie José van Dijck (2011) überzeugend argumentiert, hat jedoch ein komplexes Zusammenspiel von technischen, wirtschaftlichen und sozialen Dynamiken dazu geführt, daß Twitter eine Transition von einer relativ offenen, ad hoc entstehenden und nutzerzentrierten Plattform hin zu einer sehr viel mehr formalisierten Medienfirma durchgemacht hat: Für Twitter hat der Wandel von einem primär konversationellen Kommunikationstool zu einem globalen, anzeigengestützten Followertool in einer relativ kurzen Zeitspanne stattgefunden. Dieser Wandel resultierte nicht einfach aus der Entscheidung des Eigentümer für ein bestimmtes Geschäftsmodell oder aus der Entscheidung des Unternehmens, seine Hardware-Features zu ändern. Stattdessen war die Verbreitung von Twitter als Tool ein komplexer Prozess, in dem technologische Anpassungen unauflöslich mit Veränderungen in der Nutzerschaft, Transformationen im Inhalt, und Entscheidungen für Geschäftsmodelle verflochten sind. (Van Dijck, 2011, S. 343; unsere Übersetzung)
195
196
3. Digitale Methoden
Die Spezifikationen des Twitter-APIs sowie die schriftlichen Richtlinien für seine Nutzung durch Entwickler (Twitter, 2012a) sind ein hervorragendes Beispiel für diese »technologischen Anpassungen« und Art und Weise, auf die diese direkt mit Twitters Suche nach einem tragfähigen Geschäftsmodell verwoben sind. Diese Veränderungen zeigen, wie die scheinbare semantische Offenheit oder »interpretative Flexibilität« des Begriffs »Plattform« es erlaubt, seine Bedeutung im Laufe der Zeit umzuformen, wenn Geschäftsmodelle oder Plattformeigner sich ändern (Gillespie, 2010). Die Freigabe des API wurde erstmals im September 2006 auf dem Twitter-Blog angekündigt (Stone, 2006) – nicht lange nach dem Start des Twitter-Services, aber nachdem einige beliebte Drittanbieter-Anwendungen (wie ein Mashup von Twitter mit Google Maps, das eine dynamische Anzeige kürzlich geposteter Tweets auf weltweiter Basis erlaubte) bereits entwickelt worden waren. Seitdem hat Twitter vom Erblühen dessen, was das Unternehmen selbst als »Twitter-Ökosystem« bezeichnet hat (Twitter, 2012a; unsere Übersetzung), profitiert, einschließlich von Drittanbietern entwickelter Softwareclients (wie Twitterific und TweetDeck), Anwendungsfälle in wichtigen Institutionen (z.B. großangelegte Social-Media-Visualisierungen der London Riots im Guardian) und parasitärer Geschäftsmodelle (einschließlich Social-Media-Metrikendienste wie HootSuite und Klout). Während die Geschichte der Entwicklung von Twitters API-Regeln und den damit verbundenen regulatorischen Instrumenten (wie seine Developer Rules of the Road und Terms of Use) viele Drehungen und Wendungen hat, stechen zwei besonders wichtige jüngere Kontroversen um Datenzugriff und -kontrolle hervor. Zum einen hat das Unternehmen Entwickler und Forscher vom direkten Zugriff auf die »Firehose« (sehr hohes Volumen), den kompletten Twitter-Feed ausgeschlossen; dies wurde von einer Aktion gegen freie und öffentliche Twitter-Archivierungsdienste wie 140Kit und die Web-Version von Twapperkeeper begleitet (Sample, 2011) und fiel mit der Etablierung einer Content-Licencing-Vereinbarung zwischen Twitter und Gnip zusammen, die zu dieser der Firma Gnip ein Monopol für ihr Angebot eines hochvolumigen Zugangs zu Tweets (und den Inhalten anderer Social-Media-Plattformen) auf kommerziellem Preisniveau verschaffte. Eine zweite Welle der Kontroverse ergab sich unter der Entwickler-Community im August 2012 als Ergebnis von Twitters Veröffentlichung seiner neuesten APIRegeln (Sippey, 2012), die unter bestimmten Umständen weitere, deutliche Grenzen für Verwendung und Verwendbarkeit des APIs setzten. Im Wesentlichen ist das Ergebnis dieser Änderungen in den Twitter-API-Regeln, die ohne wirkliche Konsultation mit der Entwickler-Community, die das Twitter-Ökosystem schuf, verkündet wurden, eine erzwungene Neuausrichtung der Entwicklungaktivitäten: Auf der einen Seite versucht Twitter explizit, die Weiterentwicklung API-basierter Tools von Drittanbietern, die »consumer engagement activities« ermöglichen (wie etwa Endnutzer-Twitterclients), zu beschränken (Sippey, 2012), um die Nutzung der von Twitter selbst bereitgestellten und vermarkteten Endnutzertools zu steigern; auf der anderen Seite zielt das Unter-
Jean Burgess/Axel Bruns: Twitter-Archive und die Herausforderungen von »Big Social Data«
nehmen darauf ab, die weitere Entwicklung von »consumer analytics« und »business analytics« sowie »business engagement«-Tools zu »ermutigen«. Impliziert in diesen Änderungen ist eine Neupositionierung der TwitterNutzer (zunehmend als Inhaltskonsumenten, statt als aktive Kommunikatoren), aber auch von kommerziellen und akademischen Forschern, die die Nutzung von Twitter untersuchen (als Bereitsteller einer beschränkten Reihe von bestehenden Twitter-»Analytics«-Ansätzen, statt als Betreiber einer umfassenderen Untersuchung sowohl der aktuellen Nutzung von Twitter als auch der weiteren Entwicklung solcher Nutzung). Die Änderungen stellen einen Versuch des Unternehmens dar, eine bestimmte, kommerziell wünschenswerte und wertvolle Vision davon, wie Twitter genutzt (und analysiert) werden sollte, zu arretieren, und jegliche mögliche Weiterentwicklung jenseits dieser gewünschten Stufe zu verhindern oder zumindest zu verzögern. Obwohl es nicht unwahrscheinlich ist, dass solche Versuche, die Entwicklung gleichsam »einzufrieren«, angesichts der erheblichen, dokumentierten Rolle, die die Twitter-Nutzerbasis historisch in die Erforschung neuer und unvorhergesehener Verwendungen von Twitter gespielt hat (Bruns, 2012; Halavais, 2013), vergeblich sein werden, untergraben sie die wissenschaftliche Forschungsarbeit, tatsächliche TwitterNutzung stichprobenartig zu untersuchen – was bedeutet, dass die Forscher zunehmend gezwungen sind, Zeit und Ressourcen in die Suche nach Umgehungsmöglichkeiten für die durch das Twitter-API auferlegten neuen Beschränkungen zu investieren.
Technische , politische und epistemologische F r agen In ihrem kürzlich erschienenen Artikel »Critical Questions for Big Data« richten danach boyd und Kate Crawford unsere Aufmerksamkeit auf die Beschränkungen, Politik und Ethik von Big-Data-Ansätzen in den Sozialwissenschaften insgesamt, berühren aber auch mit der Erforschung sozialer Medien einen besonders wichtigen Ort des Social Data Mining. Als Antwort bieten wir die folgenden ergänzenden Punkte, welche sich speziell auf datengestützte Twitter-Forschung beziehen, die sich auf mit Hilfe des Twitter-APIs gesammelten Tweet-Archive stützt. Zum Ersten, und anders als die meisten digitalen Geisteswissenschaften (wo Forscher oft mit einem großen, bereits bestehenden Textkorpus beginnen), haben wir im Fall der Twitter-Forschung keinen Zugang zu einer ursprünglichen Sammlung von Texten – wir können nur auf das zugreifen, was Twitters proprietäres und häufig wechselndes API zur Verfügung stellt. Die von Twitter-Forschern verwendeten Werkzeuge bauen auf verschiedene Kombinationen von Teilen des Twitter-APIs – oder, genauer gesagt, der verschiedenen Twitter-APIs (insbesondere die Search- und Streaming-APIs). Wie oben besprochen, wird Twitter natürlich bei der Bereitstellung seines APIs nicht durch
197
198
3. Digitale Methoden
wissenschaftliche Interessen geleitet, sondern durch den Versuch, einer Reihe von potentiell wertschaffenden Endnutzern zu dienen – insbesondere denjenigen, mit denen Twitter direkte Geschäftsbeziehungen schaffen kann, wie etwa in seiner exklusiven Partnerschaft mit dem amerikanischen Fernsehsender NBC bei der Berichterstattung über die Olympischen Spiele 2012 in London. Der folgende Abschnitt aus Twitters eigener Entwickler-FAQ hebt die möglichen Konflikte zwischen den Business-Case-Einsatzszenarien, für die die APIs zur Verfügung gestellt werden, und der tatsächlichen Nutzung, die akademische Forscher und andere Dataminers von ihnen machen, hervor: Die Twitter-Suche ist optimiert, um Endnutzern relevante Tweets als Reaktion auf direkte, nicht-wiederkehrende Anfragen wie #Hashtags, URLs, Domains und Keywords bereitzustellen. Das Search-API (das auch Twitters Such-Widget antreibt) ist eine Schnittstelle zu dieser Suchmaschine. Unser Suchdienst ist nicht dazu gedacht, ein erschöpfendes Archiv öffentlicher Tweets zu sein, und nicht alle Tweets werden im Index erfasst oder zurückgegeben. Einige Ergebnisse werden zur besseren Bekämpfung von Spam und zur Erhöhung der Relevanz verfeinert. Aufgrund von Kapazitätsengpässen deckt der Index derzeit nur etwa eine Woche an Tweets ab. (Twitter, 2012b; unsere Übersetzung)
Da externe Forscher keinen Zugang zu den vollen, »rohen« Daten haben, gegen die die vom API abgerufenen Archive, die wir in unseren späteren Analysen nutzen, verglichen werden könnten, und da unsere Datenzugangsansätze so stark auf Twitters API angewiesen sind – jeder Ansatz mit seinen eigenen technischen Besonderheiten und Grenzen – ist es für uns unmöglich, mit irgendwelcher Sicherheit zu sagen, dass wir ein komplettes Archiv oder wenigstens eine »repräsentative« Stichprobe (was auch immer »repräsentativ« in einem datenabhängigen, textualistischen Zusammenhang heißen mag) erfassen. Mit anderen Worten, die »Listen« von Tweets, die auf der Grundlage einer Stichwortsuche an uns geliefert werden, sind nicht unbedingt vollständig, und es gibt keine Möglichkeit zu wissen, wie unvollständig sie sind. Die Gesamtausbeute selbst der robustesten Erfassungssysteme (die das Streaming-API und nicht nur das Search-API benutzen) hängt ab von einer Reihe von Variablen: von Zugriffsgeschwindigkeitsbeschränkungen (Twitters sogenanntes »API rate limiting«), von den filternden und spambegrenzenden Elementen in Twitters Suchalgorithmus, von Serverausfällen und so weiter; zudem ist es, weil Twitter die Weitergabe von Datensätzen verbietet, auch schwerlich möglich, die eigenen Daten mit denen anderer Forschungsteams zu vergleichen. Von einer epistemologischen Perspektive resultiert grundlegende Abhängigkeit auch in einer neuen Art von Forschung in den Medien-, Kommunikationsund Kulturwissenschaften: was entsteht, ist eine Form der durch Daten angetriebenen Forschung, die in Richtung eines abduktiven Denkens neigt; damit hebt es Spannungen zwischen den traditionellen Fragestellungen in diskurs- oder textbasierten Disziplinen wie Medien- und Kommunikationswissenschaften und
Jean Burgess/Axel Bruns: Twitter-Archive und die Herausforderungen von »Big Social Data«
den Annahmen und Modi der Mustererkennung hervor, die erforderlich werden, wenn die Arbeit »aus dem Korpus heraus« stattfinden soll, anstatt von außen nach innen (für eine ausführliche Diskussion dieser epistemologischen Fragen in den »Digital Humanities« allgemein vgl. Dixon, 2012). Schließlich sind auch die Heuristiken unserer Analysen von Twitter-Datensätzen vom API vermittelt: Die Datenpunkte, die in den Daten fest verankert sind, werden ganz natürlich zu den markantesten und gestalten dadurch die weiteren Schritte. Zum Beispiel ist es ein gängiges Verfahren in unserer Forschung, die Syntax von Tweets selbst zu verwenden, um sie als eine der folgenden Arten von Aktivitäten zu kategorisieren: Original-Tweets: Retweets: Unveränderte Retweets: Veränderte Retweets: Wirkliche @replies: URL-Weiterleitungen:
Tweets, die weder @reply noch Retweets sind Tweets, die ein RT @user… (oder ähnlich) enthalten Retweets, die mit RT @user… anfangen Retweets, die nicht mit RT @user… anfangen Tweets, die @user enthalten, aber keine Retweets sind Tweets, die URLs enthalten
Diese Kategorien werden durch die textlichen und technischen Symbole für bestimmte Arten von Interaktion, die in die Syntax von Twitter selbst eingebaut sind, (@replies oder @mentions, Retweets) sowie durch spezifische Formen von Informationsreferenzen (URLs) bestimmt. Alle von ihnen konzentrieren sich auf (und privilegieren damit tendenziell) eher informationsorientierte Formen der Kommunikation als die ephemeren, affektiven oder ambient intimen Verwendungen von Twitter, welche leichter durch ethnografische Forschungsansätze beleuchtet werden können: Ansätze, die sich tatsächlich auf einzelne Nutzer, ihre sozialen Kontexte und den weiteren kulturellen Kontext der Spuren, die sie auf Twitter hinterlassen, konzentrieren können.
S chlussfolgerungen In diesem Artikel haben wir einige der soziotechnischen, politischen und wirtschaftlichen Aspekte der strukturierten Twitter-Daten – der Datenlisten –, auf die unsere Forschung auf baut und die mit Hilfe des Twitter-APIs erfasst werden können, beschrieben und diskutiert. Wie wir an anderer Stelle argumentiert haben (Bruns und Burgess, 2012) – und wie wir hoffentlich in diesem Artikel demonstriert haben – sind die Medien- und Kommunikationswissenschaftler, die tatsächlich an der Nutzung computergestützter Forschungsmethoden beteiligt sind, in einer guten Stellung, um sowohl zu den methodischen Fortschritten, die wir am Anfang dieses Artikels herausgestellt haben, als auch zu den politischen Debatten um die computerbasierten Forschungsmethoden des »Big Social Data«-Moments, auf
199
200
3. Digitale Methoden
die wir uns im zweiten Teil dieses Artikels bezogen haben, einen wichtigen Beitrag zu leisten. Ein dringendes Problem im Bereich der Methodik ist es, die auf die gegenwärtigen Fortschritte aufzubauen, um großangelegte Datamining-Ansätze mit ethnografischen und anderen qualitativen Ansätzen zusammenzubringen, insbesondere auch mit der detaillierten manuellen Textanalyse. Darüber hinaus gibt es für unseren Umgang mit dem »Big Social Data«-Moment ein drückendes Bedürfnis für die Entwicklung von »Code Literacy« in den Medien-, Kommunikations- und Kulturwissenschaften. In erster Linie hat eine solche Kompetenz eine wichtige instrumentelle Verwendung: Wie Manovich (2012, S. 472) argumentiert, erfordert die meiste Big-Data-Forschung in den Geisteswissenschaften derzeit kostspielige und zeitaufwendige (und manchmal auch entfremdende) Partnerschaften mit technischen Experten (in der Regel Informatiker), weil die kostenlosen Tools, die Nicht-Programmierern zugänglich sind, immer einen im Vergleich zu dem, was mit Rohdaten und speziell entwickeltem Code erreicht werden kann, nur einen stark begrenzten Nutzen haben. Aber Code Literacy ist auch ein Erfordernis rigoroser wissenschaftlicher Forschung im Kontext dessen, was David Berry den »computational turn« nennt, der für ihn eine »dritte Welle« der Digital Humanities bedeutet. Berry meint, dass Code und Software zunehmend selbst zu Objekten, nicht nur Werkzeugen, für die Forschung werden könnten: Ich schlage vor, dass wir einen humanistischen Ansatz für das Thema Computer-Code einführen, indem wir unsere Aufmerksamkeit auf die weiteren Aspekte von Code und Software richten, und sie mit der Materialität dieser wachsenden digitalen Welt verknüpfen. Vor diesem Hintergrund wird die Frage des Codes zunehmend wichtig für das Verständnis in den Digital Humanities und dient als eine Bedingung der Möglichkeit für die vielen neuen rechnerischen Formen, die unsere Erfahrung der zeitgenössischen Kultur und Gesellschaft vermitteln. (Berry, 2012, S. 17; unsere Übersetzung)
Ein erster Schritt liegt hier in der Entwicklung einer robusteren, belastungsfähigen Kenntnis der konzeptionellen Modelle und methodischen Prioritäten, die durch die Funktion sowohl der Werkzeuge als auch der Quellen, die wir für »Big Social Data«-Forschung nutzen, vorausgesetzt werden. Die Kenntnis davon, wie etwa das Twitter-API die Nutzungskulturen der Plattform vermittelt, sowie ein reflexives Engagement mit seiner vermittelnden Rolle in der datengestützten Twitter-Forschung ermöglicht und unterstützt ein viel greif bareres kritisches Verständnis der Politik der Social-Media-Plattformen (Gillespie, 2010), die nun so mächtige Akteure in der Medienökologie geworden sind.
Jean Burgess/Axel Bruns: Twitter-Archive und die Herausforderungen von »Big Social Data«
L iter atur Berry, David M.: »Introduction: Understanding Digital Humanities«, in: David M. Berry (Hg.), Understanding Digital Humanities, London: Palgrave Macmillan 2012, S. 1-20. boyd, danah, und Kate Crawford: »Critical Questions for Big Data«, in: Information, Communication & Society 15/5, 2012, S. 662-679. Bruns, Axel: »Ad Hoc Innovation by Users of Social Networks: The Case of Twitter«, in: ZSI Discussion Paper 16, 2012. https://www.zsi.at/object/publication/ 2186. Bruns, Axel, und Jean Burgess: »Notes towards the Scientific Study of Public Communication on Twitter«, in: Alexander Tokar et al. (Hg.), Science and the Internet, Düsseldorf: Düsseldorf University Press 2012, S. 159-169. Bruns, Axel, Jean Burgess, Kate Crawford und Frances Shaw: #qldfloods and @ QPSMedia: Crisis Communication on Twitter in the 2011 South East Queensland Floods, Brisbane: ARC Centre of Excellence for Creative Industries and Innovation 2012. http://cci.edu.au/floodsreport.pdf. Burgess, Jean, und Axel Bruns: »(Not) the Twitter Election: The Dynamics of the #ausvotes Conversation in Relation to the Australian Media Ecology«, in: Journalism Practice 6/3, 2012, S. 384-402. Dixon, Dan: »Analysis Tool Or Research Methodology: Is There an Epistemology for Patterns?«, in: David M. Berry (Hg.), Understanding Digital Humanities, London: Palgrave Macmillan 2012, S. 191-209. Fuller, Matthew: Media Ecologies: Materialist Energies in Art and Technoculture, Cambridge, Mass.: MIT Press 2005. Gillespie, Tarleton: »The Politics of ›Platforms‹«, in: New Media & Society 12/3, 2012, S. 347-364. Halavais, Alexander: »Structure of Twitter: Social and Technical«, in: Katrin Weller et al. (Hg.), Twitter and Society, New York: Peter Lang 2013, S. 29-41. Harrington, Stephen, Timothy J. Highfield und Axel Bruns: »More than a Backchannel: Twitter and Television«, in: José Manuel Noguera (Hg.), Audience Interactivity and Participation, Brüssel: COST Action ISO906 Transforming Audiences, Transforming Societies 2012, S. 13-17. www.cost-transforming-audien ces.eu/system/files/essays-and-interview-essays-18-06-12.pdf. Lotan, Gilad, Erhardt Graeff, Mike Ananny, Devin Gaffney, Ian Pearce und danah boyd: »The Arab Spring: The Revolutions Were Tweeted: Information Flows during the 2011 Tunisian and Egyptian Revolutions«, in: International Journal of Communication 5, 2011, S. 1375-1405. http://ijoc.org/ojs/index.php/ijoc/article/ view/1246/613. Manovich, Lev: »Trending: The Promises and the Challenges of Big Social Data«, in: Matthew K. Gold (Hg.), Debates in the Digital Humanities, Minneapolis: University of Minnesota Press 2012, S. 460-475.
201
202
3. Digitale Methoden
Mejias, Ulises A.: »Liberation Technology and the Arab Spring: From Utopia to Atopia and Beyond«, in: Fibreculture Journal 20, 2012. http://twenty.fibreculture journal.org/2012/06/20/fcj-147-liberation-technology-and-the-arab-springfrom-utopia-to-atopia-and-beyond/. O’Reilly, Tim: »What is Web 2.0? Design Patterns and Business Models for the Next Generation of Software«, in: O’Reilly Network 30 Sep. 2005. www.oreilly net.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html. Papacharissi, Zizi, und Maria de Fatima Oliveira: »Affective News and Networked Publics: The Rhythms of News Storytelling on #Egypt«, in: Journal of Communication 62/2, 2012, S. 266-282. Sample, Mark: »The End of Twapperkeeper (and What to Do about It)«, in: The Chronicle of Higher Education: ProfHacker, 8. März 2011. http://chronicle.com/ blogs/profhacker/the-end-of-twapperkeeper-and-what-to-do-about-it/31582. Sippey, Michael: »Changes Coming in Version 1.1 of the Twitter API«, in: Twitter Developers Blog, 16. August 2012. https://dev.Twitter.com/blog/changes-comingto-Twitter-api. Stone, Biz: »Introducing the Twitter API«, in: Twitter Blog, 20. Sep.tember 2006. http://blog.Twitter.com/2006/09/introducing-Twitter-api.html. Twitter: »Developer Rules of the Road«, in: Twitter Developers Website, 17 May 2012, 2012a. https://dev.Twitter.com/terms/api-terms. Twitter: »Frequently Asked Questions«, 18. September 2012, 2012b. https://dev. twitter.com/docs/faq. Van Dijck, José: »Tracing Twitter: The Rise of a Microblogging Platform«, in: International Journal of Media and Cultural Politics 7/3, 2011, S. 333-348. Walker Rettberg, Jill: Blogging. Cambridge: Polity 2008. Wood, Megan M., und Linda Baughman: »Glee Fandom and Twitter: Something New, or More of the Same Old Thing?«, in: Communication Studies 63/3, 2012, S. 328-344.
Data-Mining von einem Prozent Twitter — Sammlungen, Basislinien, Stichproben Carolin Gerlitz/Bernhard Rieder
E inleitung Plattformen sozialer Medien stellen die empirische Forschung vor zahlreiche Herausforderungen, weil sie sich von Forschungsobjekten außerhalb des Internets, aber auch vom Studium des »offenen« Internets unterscheiden. Wegen der eingeschränkten Zugriffsmöglichkeiten und der schieren Größe von Plattformen wie Facebook oder Twitter ist das Problem der Abgrenzung bei der Auswahl von Unterthemen für die Analyse besonders relevant. Während Stichprobentechniken im Kontext sozialwissenschaftlicher Forschung ausführlich behandelt worden sind (Uprichard, 2011; Noy, 2008; Bryman, 2012; Gilbert, 2008; Gorard 2003), gibt es noch kaum entsprechende Stichprobenverfahren im Kontext der Analyse sozialer Medien. Selbst für Twitter, einer Plattform, der die empirische Forschung aufgrund ihrer relativen Offenheit für das Sammeln von Daten erhebliche Aufmerksamkeit widmet, sind methodologische Ansätze großenteils noch im Entstehen begriffen. Insbesondere im Hinblick auf die Frage, wie kleinere Sammlungen mit der Gesamtheit von Aktivitäten der Plattform zusammenhängen, herrscht noch große Unklarheit. Neuere Arbeiten, die Fallstudien vergleichen, um sich ein umfassendes Bild zu verschaffen (Bruns und Stieglitz, 2012), und die Entwicklung graphentheoretischer Methoden für Stichproben (Papagelis, Das und Koudas, 2013) sind sicher Schritte in die richtige Richtung. Aber wirklich groß angelegte Twitter-Studien sind bislang nur im Fachbereich der Informatik (z.B. Cha et al., 2010; Hong, Convertino und Chi, 2011) realisierbar, wo sich die erkenntnistheoretische Orientierung erheblich vom Arbeiten in den Geistes- und Sozialwissenschaften unterscheiden kann. Ziel dieses Aufsatzes ist es, über den Angebotscharakter verschiedener Techniken zur Erstellung von Twitter-Sammlungen zu reflektieren und die durch Twitters Streaming API (Application Programming Interface) ermöglichte Verwendung einer Zufallsstichprobentechnik für Praktiken und Probleme beim Baselining, Scoping und Kontextualisieren vorzuschlagen. Wir werden diese Tech-
204
3. Digitale Methoden
nik näher darstellen, indem wir eine einprozentige Stichprobe aller an einem Tag geposteter Tweets analysieren und eine Reihe von analytischen Richtlinien vorschlagen, die wir für nützlich halten, um einige der Kernelemente der Plattform, insbesondere Hashtags, zu qualifizieren. Zunächst wollen wir näher darauf eingehen, wie Plattformen bestimmte Angebote vorschlagen, aber dem Entstehen einer großen Vielfalt von Praktiken einen beträchtlichen Spielraum gewähren. Dieses Argument wird dann mit der Frage verbunden, inwiefern Medium und Stichprobentechnik immanent miteinander verknüpft sind.
D ie U nbestimmtheit von P l at tformen Zahlreiche Forschungsprojekte über die neuen Medien haben damit begonnen, die materialtechnischen Bedingungen für Plattformen zu untersuchen (Rogers, 2009; Gillespie, 2010; Hayles, 2005), indem sie auf die performativen Fähigkeiten von Plattformprotokollen, spezifische Aktivitäten zu ermöglichen und zu strukturieren, aufmerksam gemacht haben. Im Fall von Twitter bezieht sich das auf Elemente wie Tweets, Retweets, E‑Mail-Antworten, Favoriten, Follows und Listen. Solche Merkmale und Konventionen sind Thema wie Ausgangspunkt für das Erforschen von Plattformen, z.B. durch die Verwendung von Hashtags, um Unterhaltungen zum Thema abzugrenzen (Bruns und Stieglitz, 2012), von E‑MailAntworten, um Interaktionen nachzuspüren, oder durch das Verfolgen von Beziehungen, um soziale Netzwerke zu errichten (Paßmann, Boeschoten und Schäfer, 2013). Das Aufkommen von Plattformstudien (Gillespie, 2010; Montfort und Bogost, 2009; Langlois et al., 2009) hat auf Plattformen als Schnittstelleninfrastrukturen aufmerksam gemacht, die Blaupausen für Nutzeraktivitäten anbieten, und zwar durch den Angebotscharakter von Technik und Schnittstelle, der zwar vorgegeben, doch unterbestimmt ist, wobei er am Front-End die Geselligkeit fördert, während er am Back-End Daten erhebt (Stalder, 2012). Dabei versorgen sie alle möglichen Akteure wie Nutzer, Entwickler, Werbetreibende und Fremddienstleister und lassen es zu, dass sich eine Vielfalt von unterschiedlichen Nutzungspraktiken entwickeln. Die Nutzungspraktiken von Plattformmerkmalen auf Twitter werden jedoch nicht allein von den Nutzern selbst produziert, sondern kristallisieren sich im Zusammenhang mit größeren Ökologien von Plattformen, Nutzern, anderen Medien und Fremddienstleistern heraus (Burgess und Bruns, 2012) und ermöglichen damit zuweilen unerwartete Entwicklungsvektoren. Das wird offenkundig im Fall der Retweet-Funktion, die ursprünglich von Nutzern als wortgetreue Operation eingeführt wurde, indem »retweet« und später »RT« vor den kopierten Inhalt gesetzt wurde, bevor Twitter 2009 offiziell einen RetweetButton einführte (boyd, Golder und Lotan, 2010). Inzwischen wird das Retweet für eine Reihe von Zielen eingesetzt wie Informationsverbreitung, Unterstützung von Meinungen, aber auch als ironischer Kommentar.
Carolin Gerlitz/Bernhard Rieder: Data-Mining von einem Prozent Twitter
Gillespie behauptet, die Fähigkeit, alle möglichen Akteure und Nutzungspraktiken zu verknüpfen und relevant zu machen, sei tatsächlich das zentrale Merkmal von Plattformen (Gillespie, 2010). Frühere Forschungsprojekte beispielsweise befassten sich mit Twitter als Medium für die öffentliche Teilhabe an spezifischen gesellschaftlichen Fragen (Burgess und Bruns, 2012; boyd, Golder und Lotan, 2010), für private Unterhaltungen (Marwick und boyd, 2011; boyd, Golder und Lotan, 2010) und als Vermittler von plattformspezifischen Communities (Paßmann, Boeschoten und Schäfer, 2013). Diese fallbasierten Studien behandeln ihre Forschungsgegenstände und grenzen sie ab, indem sie sich auf bestimmte Hashtags oder Nutzungspraktiken wie Favoriten benennen oder Retweets konzentrieren. Aber wenn man diese Elemente als Grundlage für den Aufbau einer Sammlung von Tweets, Nutzern usw. verwendet, die analysiert werden soll, hat dies ein beträchtliches erkenntnistheoretisches Gewicht: Diese Stichprobenmethoden gehen mit spezifischen Vorstellungen von in sie eingebauten Nutzungsszenarien einher, oder es sind, wie Uprichard behauptet, gewisse »a priori philosophische Annahmen jedem Stichprobendesign und der daraus folgenden Gültigkeit der Stichprobenkriterien als solchen immanent« (Uprichard, 2011, 2). Der Aufbau von Sammlungen von Tweets beispielsweise, die spezifische Hashtags enthalten, geht davon aus, dass a) die Unterhaltung von Hashtags zusammengehalten wird und b) die gewählten Hashtags tatsächlich die relevantesten sind. Derartige Annahmen gehen über die statistische Frage voreingenommener Stichproben hinaus und betreffen das grundlegende Problem, wie man in einem Teich angeln soll, der groß, undurchsichtig und voller rasch sich entwickelnder Fischpopulationen ist. Die Begriffe der klassischen Informationsrückgewinnung, Recall (Wie viele von den relevanten Fischen fange ich?) und Precision (Wie viele gefangene Fische sind relevant?), sind in diesem Kontext voll zutreffend. Im nächsten Schritt wenden wir uns direkter der Frage zu, wie eine Stichprobe von Twitter aussehen sollte, indem wir darlegen, welche Methoden den Zugang zu welchen Praktiken ermöglichen – oder auch nicht – und welche Rolle medium-spezifische Merkmale spielen.
E ine S tichprobe von Twit ter Die Stichprobe, also die Auswahl von Teilmengen aus einer größeren Menge von Elementen (der Bevölkerung), hat breite Aufmerksamkeit im Kontext der empirischen Soziologie gefunden (Uprichard, 2011; Noy, 2008; Bryman, 2012; Gilbert, 2008; Gorard, 2003; Krishnaiah und Rao, 1987). Während sich Stichprobenpraktiken der quantitativen Soziologie und der Erforschung von sozialen Medien erheblich überlappen, müssen einige entscheidende Unterschiede dargelegt werden. Erstens existieren die Daten sozialer Medien wie Tweets generell vor ihrer Sammlung und müssen nicht erst durch Studien produziert werden. Zweitens weisen sie plattformspezifische Formate auf, in die bereits analytische Merkma-
205
206
3. Digitale Methoden
le wie Zählungen eingebaut sind (Marres und Weltevrede, 2012). Und drittens setzen sich soziale Medien aus sehr großen Populationen zusammen, doch eine Auswahl bezieht sich nur selten auf volle Datensätze oder basiert auf BasislinienDaten, da die meisten Vorgehensweisen einem bestimmten Fallstudiendesign folgen (Rieder, 2009). Das Erheben von Stichproben in den Sozialwissenschaften weist eine lange Geschichte auf (Krishnaiah und Rao, 1987), die mindestens bis ins 19. Jahrhundert zurückreicht. Kurz gesagt lassen sich moderne Stichprobenmethoden unterteilen in Wahrscheinlichkeitstechniken, die die repräsentative Beziehung zwischen der Gesamtbevölkerung und der ausgewählten Stichprobe betonen, und Nichtwahrscheinlichkeitstechniken, bei denen ein Rückschluss auf die Gesamtbevölkerung problematisch ist (Gilbert, 2008). In der ersten Gruppe können Stichproben entweder auf einer vollständigen Zufallsauswahl von Fällen basieren oder geschichtet sein oder auf Clustern basieren, wobei Einheiten zufällig aus einem proportionalen Raster von bekannten Untergruppen einer Population ausgewählt werden. Nichtwahrscheinlichkeits-Stichproben dagegen können für die größere Population repräsentativ sein, sind es aber nur selten. Zu den entsprechenden Techniken zählt die Zufallsstichprobe (Gorard, 2003), die auf dem leichten Zugang zu gewissen Fällen basiert. Zielorientierte NichtwahrscheinlichkeitsStichproben beziehen sich hingegen auf Stichprobenabgrenzung durch Experten, auf Quoten, auf fallbasierte oder Schneeball-Stichprobentechniken – sie ermitteln die Stichprobe über ein Vorabwissen über die Population statt über streng repräsentative Verhältnisse. Während das Verhältnis zwischen Stichprobe und Population ebenso wie der Zugang zu solchen Populationen (Gorard, 2003) von zentraler Bedeutung für jede Sozialforschung ist, ermöglichen Plattformen sozialer Medien die Reflexion darüber, wie Stichproben als »erfassbare Wissensobjekte« (Uprichard, 2011, S. 2) für die Rolle medienspezifischer Merkmale wie eingebauter Marker oder bestimmter Formen des Datenzugangs fungieren können. Idealerweise hätten wir bei der Erforschung von Twitter Zugang zu einer vollständigen Stichprobe, dem Thema und der Fantasievorstellung vieler Debatten über Big Data (boyd und Crawford, 2012; Savage und Burrows, 2007), was sich in der Praxis freilich oft auf die Plattforminhaber beschränkt. Außerdem erfordern die wachsenden Mengen täglicher Tweets, derzeit rund 450 Millionen (Farber, 2012), spezifische logistische Anstrengungen, worauf ein Projekt von Cha et al., 2010 verweist: Um Zugang zu den Tweets von 55 Millionen Nutzeraccounts zu haben, müssen 58 Server eine Gesamtmenge von 1,7 Milliarden Tweets sammeln (Cha et al., 2010). Vollständige Stichproben sind besonders interessant für die exploratorische Datenanalyse (Tukey, 1977), wo die Forschungsfragestellungen nicht vor der Stichprobe feststehen, sondern sich erst bei der Beschäftigung mit den Daten entwickeln. Die meisten Stichprobenmethoden zur Untersuchung von Twitter gehen jedoch nichprobabilistisch, nichtrepräsentativ vor, indem sie ihre Stichproben auf der Basis von plattformspezifischzen Merkmalen darstellen.
Carolin Gerlitz/Bernhard Rieder: Data-Mining von einem Prozent Twitter
Die üblichste Twitter-Stichprobentechnik ist ein themenbasiertes Sampling, das Tweets über Hashtags oder Suchanfragen auswählt, die durch API-Abrufe gesammelt werden (Bruns und Stieglitz, 2012; Burgess und Bruns, 2012; Huang, Thornton und Efthimiadis, 2010). Solche Samplingtechniken beruhen auf der Vorstellung, dass sich der Content um die gemeinsame Nutzung von Hashtags oder Themenbegriffen gruppieren wird. Hier werden Hashtags mit einem Interesse an Aufkommen und Entwicklung thematischer Anliegen studiert (Burgess und Bruns, 2012), um Markenkommunikation zu erforschen (Stieglitz und Krüger, 2011), während öffentlicher Unruhen und Ereignisse (Vis), aber auch um die Vielfalt von Hashtag-Nutzungspraktiken zu erklären (Bruns und Stieglitz, 2012). Die Methode eignet sich dazu, Aufkommen und Struktur von Problemen anzusprechen, lenkt aber auch die Aufmerksamkeit auf mediumspezifische Nutzungspraktiken von Hashtags. Die Schneeballstichprobe, eine Erweiterung der themenbasierten Stichprobe, geht von vordefinierten Listen von Nutzeraccounts aus (Rieder, 2009), die oft von Experten, Handbuchsammlungen oder existierenden Listen definiert werden, die dann durch »Schneeballtechnik« oder Triangulation erweitert werden, oft über mediumspezifische Beziehungen wie Following. Die Schneeballstichprobe dient der Erforschung von nationalen Bereichen (Rieder, 2009), themen- oder aktivitätsbasierten Nutzergruppen (Paßmann, Boeschoten und Schäfer, 2013), kulturellen Besonderheiten (Garcia-Gavilanes, Quercia und Jaimes, 2006) oder der Verbreitung von Content (Krishnamurthy, Gill und Arlitt, 2008). Neuere Versuche, Zufallstechniken mit Graphentechniken zu kombinieren (Papagelis, Das und Koudas, 2013), um größere Netze auszuwerfen, während die technischen Anforderungen in Grenzen gehalten werden, sind vielversprechend, aber konzeptuell eher abschreckend. Die markerbasierte Stichprobe nutzt mediumspezifische Metadaten, um Sammlungen zu erstellen, die auf der Gemeinsamkeit von Sprache, Ort, Twitter-Client, Nationalität oder anderen Elementen basieren, die in Nutzerprofilen angeboten werden (Rieder, 2009). Mit dieser Methode lässt sich die sprach- oder ortsspezifische Nutzung von Twitter studieren. Doch immer mehr Studien entwickeln ihre eigenen Techniken, um Sprachen zu ermitteln (Hong, Convertino und Chi, 2011). Auf Nichtwahrscheinlichkeit beruhende Auswahltechniken wie das themen-, marker- und das einfache graphenbasierte Sampling bemühen sich um Repräsentativität (Sind meine Ergebnisse verallgemeinerbar?), Vollständigkeit (Habe ich alle relevanten Einheiten erfasst?), Reinheit (Wie viele irrelevante Einheiten habe ich erfasst?) und Spielraum (Wie »groß« ist mein Datensatz im Vergleich zu anderen?), was natürlich die Ergebnisse nicht entwertet. Allerdings wirft es Fragen über die Allgemeingültigkeit abgeleiteter Behauptungen auf, da fallbasierte Vorgehensweisen nur sinnvolle Aussagen aus der Stichprobe heraus und nicht in Relation zur Gesamtpopulation von Tweets ermöglichen. Und jede dieser Techniken verpflichtet auch zu a priori Konzeptualisierungen von Twitter-Praktiken:
207
208
3. Digitale Methoden
Die Schneeballstichprobe setzt kohärente Netzwerktopologien voraus, das markerbasierte Sampling muss viel Vertrauen in Twitters Fähigkeit setzen, Sprache oder Ort zu identifizieren, und themenbasierte Stichproben halten Wörter oder Hashtags für ausreichend, um Probleme und Anliegen zu identifizieren. Ferner ermöglichen spezifische Stichprobentechniken das Studium einer Problem- oder Mediumdynamik und liefern Erkenntnisse, um thematische Anliegen gegenüber den spezifischen Nutzungspraktiken und Mediumoperationen auf der Plattform zu verhandeln. Nachdem wir den Zusammenhängen zwischen Stichprobe, Population und Mediumspezifizität nachgegangen sind, wenden wir uns nun dem Zufallssampling zu und fragen, ob es ermöglicht, sich auf Twitter einzulassen, ohne Verpflichtungen – oder vielleicht andere Verpflichtungen? – gegenüber bestimmten a priori Konzeptualisierungen von Praktiken einzugehen. Statt die Beziehung zwischen dieser und anderen Samplingtechniken in gegensätzlichen Begriffen zu formulieren, untersuchen wir, auf welche Weise sie als Basis dienen könnte, indem wir die Möglichkeiten ermitteln, Nichtwahrscheinlichkeitsstichproben mit der Gesamtpopulation in Beziehung zu setzen, und sie damit in eine größere Perspektive integrieren, die einen Kontext und ein Potenzial für induktives Denken und Forschen bietet. Da wir unsere Argumente mit der Analyse einer konkreten Zufallsstichprobe begründen, kann unsere Vorgehensweise als experimentell betrachtet werden.
Z ufallssampling mit der S tre aming API Während viele Merkmale der Entwickler-API, die Twitter zur Verfügung stellt, zum Standard zählen und es Drittanbietern ermöglichen, mit ihren Anwendungen andere Schnittstellen auf der Plattform anzubieten, ist die sogenannte Streaming API in mindestens zweierlei Hinsicht unkonventionell. Statt die übliche Anfrage-Antwort-Logik zu nutzen, die die meisten Implementierungen vom REST-Typ charakterisiert, erfordert die Streaming API eine ständige Verbindung mit dem Twitter-Server, wo Tweets dann fast in Echtzeit zum sich verbindenden Client gelangen. Und da die API außerdem in der Lage ist, auf spezifische Schlüsselwörter oder Nutzernamen zu »hören«, ermöglicht die Logik des Stream Twitter, eine Form von Datenzugang anzubieten, der in quantitativen Begriffen umschrieben ist, statt auf bestimmte Einheiten fixiert zu sein. Der sogenannte statuses/firehose-Endpunkt liefert den gesamten Stream von Tweets an ausgewählte Clients; der statuses/sample-Endpunkt hingegen »gibt eine kleine Zufallsstichprobe aller öffentlichen Statuse« mit einer Größe von einem Prozent des gesamten Stream wieder. (In einem forum post erklärt Twitters Cheftechniker Taylor Singletary: »Der Samplestream ist eine Zufallsstichprobe von einem Prozent der Tweets, die öffentlich herausgegeben werden.«) Wenn wir von einem täglichen Volumen von schätzungsweise 450 Millionen Tweets ausgehen (Farber, 2012), hieße das nach
Carolin Gerlitz/Bernhard Rieder: Data-Mining von einem Prozent Twitter
der Standard-Stichprobentheorie, dass der 1-Prozent-Endpunkt eine repräsentative und hochaufgelöste Stichprobe mit einer maximalen Fehlertoleranz von 0,06 bei einem Konfidenzniveau von 99 Prozent liefern würde, sodass das Studium selbst von relativ kleinen Subpopulationen innerhalb dieser Stichprobe eine realistische Möglichkeit wäre. Während wir wie boyd und Crawford generell zurückhaltend sind, wenn es um die Aussagekraft dieses Samplestreams geht, zeigt eine technische Analyse der Streaming API, dass einige ihrer Vorbehalte unbegründet sind: Weil Tweets fast in Echtzeit in der Schlange erscheinen (nach unseren Tests werden Tweets über die API annähernd zwei Sekunden, nachdem sie gesendet wurden, ausgegeben), ist es klar, dass das System nicht nur »die ersten paar tausend Tweets pro Stunde« zieht (boyd und Crawford, 2012, S. 669); und weil die Stichprobe höchstwahrscheinlich ein einfacher Filter am statuses/firehose-Endpunkt ist, wäre es technisch unpraktisch, nur »Tweets aus einem bestimmten Segment des Netzwerkgraphen« aufzunehmen (ebd.). Doch ohne Zugang zum kompletten Stream ist es schwierig, den Auswahlvorbehalt der verschiedenen APIs vollständig zu bewerten (González-Bailón, Wang und Rivero, 2012). Eine Reihe von Tests, in denen wir die Stichprobe mit dem vollen Output von hochvolumigen Bot-Accounts verglichen, kann als Indikator dienen: Insbesondere untersuchten wir die Aktivität von SportsAB, Favstar_Bot und TwBirthday, den drei aktivsten Accounts in unserer Stichprobe (jeweils wurden 38, 28 und 27 Tweets erfasst). Twitter kommuniziert zwar nur ein Limit von 1.000 Tweets pro Tag und Account, doch wir fanden heraus, dass diese Bots durchgehend über 2.500 Nachrichten im Laufe von 24 Stunden posten. SportsAB versucht, 757 Tweets alle drei Stunden zu posten, stößt aber hin und wieder an eine gewisse Grenze. Bei jeder erfolgreichen Spitzenmessung erfassten wir zwischen fünf und acht Nachrichten, was auf ein Muster verweist, das mit einem Zufallsauswahlverfahren übereinstimmt. Während noch weitere Tests erforderlich sind, deuten verschiedene Elemente darauf hin, dass der statuses/sample-Endpunkt Daten liefert, die in der Tat für alle öffentlichen Tweets repräsentativ sind. Mit Hilfe des demnächst als Open-Source-Software verfügbaren Digital Methods Initiative Twitter Capture and Analysis Toolset (DMI-TCAT) begannen wir am 23. Januar 2013 um 19 Uhr, die Methode und die Erkenntnisse zu testen, die mit diesem Toolset gewonnen werden können, indem wir 24 Stunden Twitter-Aktivität erfassten. Wir sammelten insgesamt 4.376.230 Tweets, die von 3.370.796 Accounts mit einer Durchschnittsrate von 50,56 Tweets pro Sekunde gesendet wurden, und erhielten etwa 1,3 GB unkomprimierte und unindizierte MySQLTabellen. Während eine gründliche Untersuchung mehr Zeit für die Datenerfassung benötigen würde, wollten wir in erster Linie untersuchen, wie die Streaming API dazu dienen kann, sich ein umfassendes Bild von Twitter zu verschaffen und eine Basis für andere Samplingmethoden zu bilden, und daher beschränkten wir uns auf einen zu bewältigenden Datencorpus. Wir behaupten nicht, dass unser 24-stündiger Datensatz als Basis an sich fungieren könnte, aber er gestattet doch
209
210
3. Digitale Methoden
Reflexionen über repräsentative Kriterien und die Möglichkeiten von Stichproben generell. Wir veröffentlichen unsere Ergebnisse in der Hoffnung, damit Hintergrundstichproben für andere Forschungsprojekte zu erleichtern. (DMI-TCAT wird von Erik Borra und Bernhard Rieder entwickelt. Die Stream Capture Scripts gibt es bereits bei https://github.com/bernorieder/twitterstreamcapture).
E in Tag Twit ter Nachdem wir untersucht haben, wie die einprozentige Twitter-Stichprobe uns eine Kontrastfolie für andere Sammeltechniken liefern kann, behaupten wir, dass sich damit Beziehungen zwischen Gesamtpopulationen, Stichproben und mediumspezifischen Merkmalen auf verschiedene Weise herstellen lassen könnten. Wir wollen dies an vier Beispielen veranschaulichen. a) Basislinie der Tweet-Praktiken Abbildung 1 zeigt über der zeitlichen Basislinie Tempo und Stärke der Aktivität im Laufe des Tages an. Das Zeitmuster weist eine erhebliche Aktivitätsdelle auf, die mit der Tatsache übereinstimmt, dass rund 60 Prozent aller Tweets auf Englisch abgefasst werden – in dieser Zeit werden die englischsprachigen Nutzer wohl schlafen.
Abbildung 1: Zeitmuster (in der Abbildung Zahlen ohne Punkt, Uhrzeit: 23.19 Uhr usw.)
Wenn man die Zusammensetzung der Nutzer untersucht, zeigt die Stichprobe, wie »kommunikativ« Twitter ist. Die 3.370.796 Nutzer, die wir erfassten, nannten 2.034.688 Nutzeraccounts (lauter »@Nutzername«-Varianten). Verglichen mit der von boyd et al., 2009 erhobenen Zufallsstichprobe von Tweets weist unse-
Carolin Gerlitz/Bernhard Rieder: Data-Mining von einem Prozent Twitter
re Stichprobe Unterschiede in den Nutzungspraktiken (boyd, Golder und Lotan, 2010) auf: Während die Anzahl von Tweets mit Hashtags signifikant höher ist (doch klein in Relation zu allen Tweets), ist die Häufigkeit der Nutzung von URL geringer. Zwar verdecken diese Durchschnittszahlen signifikante Varianten in Nutzungsmustern zwischen Untergruppen und Sprachen (Poblete et al., 2011), sie liefern jedoch eine Basislinie, auf die man sich beziehen kann, wenn man mit einer fallbasierten Sammlung arbeitet. Tweets enthalten
boyd et al., 2010
Unsere Befunde
einen Hashtag
5%
13,18%
eine URL
22%
11,7%
eine @Nutzer-Nennung
36%
57,2%
Tweets, die mit @Nutzer beginnen
86%
46,8%
Tabelle 1: Vergleich zwischen boyd et al., 2010 und unseren Befunden
b) Hashtag-Qualifizierung Hashtags stehen im Mittelpunkt der Twitter-Forschung, doch die Berichte über ihre Nutzung fallen unterschiedlich aus. In unserer Stichprobe kamen in 576.628 Tweets (13,18%) 227.029 einzelne Hashtags 844.602 Mal vor. Nach der typischen Potenzgesetzverteilung tauchten nur 25,8% mehr als einmal und nur 0,7% (1.648) mehr als 50 Mal auf. Diese Zahlen sind interessant, weil sie Twitter als Plattform charakterisieren, können aber auch nützlich sein, wenn man individuelle Fälle von einer quantitativen Basislinie absetzen will. In ihren Hashtag-Kriterien schlagen Bruns und Stieglitz eine Kategorisierung vor, die sie von a priori Diskussionen spezifischer Nutzungsfälle und von einem Fallvergleich in der Literatur ableiten (Bruns und Stieglitz, 2012). Die Zufallsstichprobe lässt jedoch alternative a posteriori qualifizierende Kriterien zu, die auf sich bildenden Themenclustern, gleichzeitigem Auftreten und Annäherungsmessungen basieren. Über rein statistische Vorgehensweisen hinaus eröffnet die Co-Word-Analyse (Callon et al., 1983) eine Reihe von Perspektiven, um Hashtags nach der Art und Weise zu charakterisieren, wie sie zusammen mit anderen erscheinen. Nach dem Grundprinzip, dass im selben Tweet genannte Hashtags als verknüpft betrachtet werden können, lassen sich Netzwerke von Hashtags mittels Graphenanalyse und Visualisierungstechniken errichten – in unserem Fall mit Hilfe von Gephi. Unsere Stichprobe weist ein hohes Level von Vernetztheit zwischen Hashtags auf: 33,8% aller einzelnen Hashtags sind verknüpft in einer Riesenkomponente mit einem Durchschnittsgrad (Anzahl der Verknüpfungen) von 6,9, einem Durchmesser (längster Abstand zwischen Knoten) von 15 und einer durchschnittlichen Pfadlänge zwischen Knoten von 12,7. Wenn man die 10.197 Hashtags betrachtet, die mit mindestens 10 anderen verknüpft sind, wird das Netzwerk allerdings viel dichter: Der Durchmesser schrumpft auf 9, und die durchschnittliche
211
212
3. Digitale Methoden
Pfadlänge von 3,2 verweist auf eine »kleine Welt« von eng zusammenhängenden Themenräumen. Wenn wir uns nun ansehen, wie Hashtags mit dieser vernetzten Komponente zusammenhängen, stellen wir fest, dass 96,6% von den 1.648 Hashtags mit einer Häufigkeit höher als 50 ein Teil von ihr sind, während die restlichen 3,4% Spamhashtags sind, die nur von einem einzigen Account eingesetzt werden. Im Folgenden befassen wir uns eingehend mit den 1627 Hashtags, die Teil der Riesenkomponente sind.
Abbildung 2: Karte von gemeinsam erscheinenden Hashtags (räumliche Darstellung: Force Atlas 2; Größe: Häufigkeitsvorkommen; Farbe: von hell bis dunkel nach Modularität ermittelte Communities)
Wie aus Abbildung 2 hervorgeht, ermöglicht uns das sich ergebende Netzwerk, thematische Cluster mit Hilfe von Community-Ermittlungstechniken wie dem Modularitätsalgorithmus Gephi zu identifizieren. Neben klar zu identifizierenden thematischen Clustern – etwa einem dichten Cluster mit hoher Häufigkeit in Türkis, das dem Following gewidmet ist (#teamfollowback, #rt, #followback und #sougofollow), einem Cluster in Braun1, das sich mit arabischen Ländern befasst, oder 1 | Anm. d. Hg.: die Farbangaben der Abb. beziehen sich auf die Illustrationen im Erstabdruck.
Carolin Gerlitz/Bernhard Rieder: Data-Mining von einem Prozent Twitter
einem Pornografiecluster in Rot – gibt es eine große, diffuse Zone in Grün, die man vielleicht am treffendsten als »Alltagsleben« auf Twitter bezeichnen könnte, wo Essen, Geburtstage, lustige Bilder, Tiraden und Leidenschaft koexistieren können. Diese Zone – für die der Begriff Cluster zu viel Zusammenhang suggerieren würde – wird durchzogen von Aufregung über Prominenz (#arianarikkumacontest) oder Augenblicken von gesellschaftlichem Geplänkel (#thingsidowhenigetbored, #calloutsomeonebeautiful), was zu hohen Tweet-Volumina führt. Die Abbildungen 3 und 4 versuchen zu zeigen, wie man mit Hilfe von Netzwerkkriterien Hashtags qualifizieren oder sogar klassifizieren könnte, die darauf basieren, wie sie sich mit anderen verknüpfen. Dank eines einfachen Kriteriums wie dem Grad eines Knotens, d.h. seiner Anzahl von Verknüpfungen, können wir zwischen »Kombinationshashtags«, die nicht themengebunden sind (#love, #me, #lol, #instagram, die verschiedenen »Follow-Hashtags«), und spezifischeren Themenmarkern (#arianarikkumacontest, #thingsidowhenigetbored, #calloutsomeonebeautiful, #sosargentinos) unterscheiden.
Abbildung 3: Karte von gemeinsam erscheinenden Hashtags (räumliche Darstellung: Force Atlas 2; Größe: Häufigkeitsvorkommen; Farbe [von hell über dunkel bis schwarz]: Grad) (Degree = Grad, wordFrequency = Worthäufigkeit)
213
214
3. Digitale Methoden
Abbildung 4: Gemeinsames Erscheinen von Hashtags in Relation zur Häufigkeit
Ein anderes Kriterium, das wir »Nutzervielfalt« nennen, lässt sich gewinnen, wenn man die Anzahl der einzelnen Nutzer eines Hashtag durch die Anzahl der Tweets, in denen es erscheint, teilt und auf einen Prozentwert normiert.
Abbildung 5: Karte gemeinsam erscheinender Hashtags (räumliche Darstellung: Force Atlas 2; Größe: Häufigkeitsvorkommen; Farbe [von dunkel über hell zu schwarz]: Nutzervielfalt) (Degree= Grad; userDiversity = Nutzervielfalt)
Carolin Gerlitz/Bernhard Rieder: Data-Mining von einem Prozent Twitter
Abbildung 6: Hashtag-Nutzervielfalt in Relation zur Häufigkeit
Ein Punktwert von 100 besagt, dass kein Nutzer den Hashtag zweimal verwendet hat, während ein Punktwert von 1 darauf hinweist, dass der fragliche Hashtag von einem einzigen Account verwendet wurde. Wie die Abbildungen 5 und 6 zeigen, ist es uns damit möglich, Hashtags, die einen »Aufrufcharakter« haben (#thingsidowhenigetbored, #calloutsomeonebeautiful, #love), von Begriffen zu unterscheiden, die »insistierender« geworden und daher nahe dran sind, Spam zu werden.
Abbildung 7: Die meisterwähnten URLs nach Domain
All diese Techniken führen nicht nur an sich schon zu Befunden, sondern lassen sich auch als nützlicher Hintergrund für andere Stichprobenmethoden betrachten. Schlüsselwort- oder hashtagbasierte Stichproben werden oft von dem Problem beeinträchtigt, ob die »richtigen« Fragen gewählt wurden. Hier kann die Co-Hashtag-Analyse leicht weitere verwandte Begriffe finden, und diese Analyse lässt sich auch für Schlüsselwörter verwenden, wenn auch mit einem viel höheren Rechneraufwand.
215
216
3. Digitale Methoden
c) verlinkte Quellen Nur 11% aller Tweets enthielten URLs, und unsere Befunde weisen eine Verteilung von verlinkten Quellen nach dem Potenzgesetz auf. Die stark geteilten Domains deuten darauf hin, dass Twitter tatsächlich ein überwiegend »sozialer« Raum ist, mit einer hohen Präsenz von wichtigen sozialen Medien, Photosharing (Instagram und Twitpic) und Q&A-Plattformen (ask.fm). Nachrichtenquellen weisen eine geringe Präsenz auf – obwohl wir einräumen müssen, dass sich das täglich ändern könnte. d) Zugangspunkte Die Zunahme täglicher Tweets ist bereits mit der wachsenden Bedeutung von mobilen Geräten wie Smartphones und Tablets in Verbindung gebracht worden (Farber, 2012), und im Zusammenhang damit weist die Stichprobe eine starke Zunahme von Zugangspunkten auf. Sie folgen einer Long-Tail-Verteilung: Während es 18.248 einzelne Quellen gibt (einschließlich der Tweet Buttons), werden 85,7% aller Tweets von den 15 dominierenden Applikationen gesendet. Abbildung 8 zeigt, dass das Internet noch immer der verbreitetste Zugangspunkt ist, dicht gefolgt vom iPhone. Etwa 51,7% aller Tweets wurden von vier mobilen Plattformen gesendet (iPhone, Android, Blackberry und Twitters mobiler Internetseite), was die Bedeutung der mobilen Geräte bestätigt. Dieser Befund hebt auch die Vielfalt und Komplexität der Kontexte hervor, in die Twitter-Praktiken eingebettet sind.
Abbildung 8: Twitter-Zugangspunkte
S chlussbemerkungen Nachdem wir uns mit der Stichprobe von einem Prozent Twitter befasst haben, können wir nun drei Schlussfolgerungen hinsichtlich des Mining von sozialen Medien ziehen. Erstens lassen sich Datenpunkte in verschiedene Beziehungen zueinander setzen, wenn wir unter Stichproben das Produzieren von »erkennbaren Wissensgegenständen« (Uprichard, 2011, S. 2) verstehen. Was Mackenzie in Bezug auf Datenbanken behauptet, nämlich dass es nicht auf die individuellen
Carolin Gerlitz/Bernhard Rieder: Data-Mining von einem Prozent Twitter
Datenpunkte ankomme, sondern auf die Beziehungen, die sich zwischen ihnen herstellen lassen (Mackenzie, 2012), gilt auch für das Erheben von Stichproben – es setzt mediumspezifische Objekte und Aktivitäten in Beziehung zueinander. Techniken zum Erstellen kleiner Datensammlungen, die auf Umfragen, Hashtags, Nutzern oder Markern basieren, stehen nicht in Beziehung zur Gesamtpopulation, sondern werden durch interne und vergleichende Beziehungen definiert, während Zufallsstichproben auf der Beziehung zwischen der Stichprobe und dem vollen Datensatz basieren. Zweitens: Wenn wir unter Sampling ein Zusammenstellen verstehen, ein Herstellen von Beziehungen zwischen Teilen, Ganzen und dem Medium, kann die Forschung somit ihre Aufmerksamkeit entweder auf eine Thematik oder die Mediumdynamik richten. Das Erforschen kleiner Stichproben, haben wir dargelegt, ist mit einer Investition in spezifische Nutzungsszenarien und dem daraus folgenden Anspruch verbunden, dass die Sammlungskriterien ihrerseits auf einer Mediumspezifität basieren. Die Eigenschaften einer »relevanten« Sammelstrategie sind erkennbar an dem Ausmaß, in dem sich Nutzungspraktiken angleichen und dafür nutzen lassen, die Sammlung zu erstellen. Umgekehrt kann es zu verzerrten Befunden führen, wenn mediumspezifische Nutzungspraktiken und Stichprobenzielsetzungen nicht übereinstimmen. Wir schlagen daher vor, dass sich das Sampling nicht nur mit den internen Beziehungen zwischen Datenpunkten in Sammlungen, sondern auch mit der Beziehung zwischen der Sammlung und einer Basislinie befassen sollte. Drittens: Solange es keinen Zugang zu einer vollständigen Stichprobe gibt, schlagen wir vor, dass die durch die Streaming AP angebotene Zufallsstichprobe im Prinzip als Basislinie für Fallstudienmethoden dienen kann. Die in unserem Aufsatz vorgetragene experimentelle Studie ermöglichte die Errichtung eines Ausgangspunktes für eine künftige langfristige Datensammlung, aus der sich solche Basislinien entwickeln lassen. Dann wäre es möglich, a priori-Annahmen, die dem Design kleiner Datensammlungen immanent sind, in Medienspezifizität und Nutzerpraktiken zu begründen, indem man die relative Bedeutung von Hashtags, URLs und @-Nutzernennungen ermittelt. Auch wenn dies eine detailliertere Spezifizierung erfordert, können solche Darstellungen der inneren Zusammensetzung, des gleichzeitigen Vorkommens oder der Nähe von Hashtags und Schlüsselwörtern Grundlagen für Fallstichproben liefern, um Umfragen anzupassen und zu spezifizieren oder sich mit Hashtags als Teilen größerer Problemumfelder zu befassen. Um diesen Prozess logistisch zu ermöglichen, stellen wir unsere Scripts kostenlos zur Verfügung. Wir schlagen daher vor, dass sich das Sampling nicht nur mit den inneren oder vergleichsweisen Beziehungen befassen sollte, sondern, wenn möglich, mit der – in der Basislinie erfassten – Gesamtpopulation, sodass sich die Mediumspezifizität sowohl in spezifischen Stichprobentechniken wie in der relativen Relevanz von Praktiken innerhalb der Plattform selbst widerspiegelt.
217
218
3. Digitale Methoden
D ank Dieses Projekt ist im Rahmen des Digital Methods Winter School Projekts »One Percent of Twitter« entstanden. Daher würden wir gern unseren Projektkollegen Esther Weitevrede, Julian Ausserhofer, Liliana Bounegru, Giulio Fagolini, Nicholas Makhortykh und Lonneke van der Velden danken. Unser Dank gilt auch Erik Borra für sein nützliches Feedback und seine Arbeit an der DMI-TCAT. Danken möchten wir schließlich unseren Gutachtern für ihre konstruktiven Kommentare.
L iter atur boyd, danah, und Kate Crawford: »Critical Questions for Big Data«, in: Information, Communication & Society 15.5, 2012, S. 662-679. boyd, danah, Scott Golder und Gilad Lotan: »Tweet, Tweet, Retweet: Conversational Aspects of Retweeting on Twitter.« 43. Hawaii International Conference on System Sciences. IEEE, 2010, S. 1-10. Bruns, Axel, und Stefan Stieglitz: »Quantitative Approaches to Comparing Communication Patterns on Twitter«, in: Journal of Technology in Human Services, 30.3-4, 2012, S. 160-185. Bryman, Alan: Social Research Methods, Oxford 2012. Burgess, Jean, und Axel Bruns: »Twitter Archives and the Challenges of ›Big Social Data‹ for Media and Communication Research«, in: M/C Journal 15.5, 2012. http://journal.media-culture.org.au/index.php/mcjournal/article/viewArticle/ 561. Callon, Michel, et al.: »From Translations to Problematic Networks: An Introduction to Co-word Analysis«, in: Social Science Information 22.2, 1983, S. 191-235. Cha, Meeyoung, et al.: »Measuring User Influence in Twitter: The Million Follower Fallacy«, in: ICWSM ’10: Proceedings of the International AAAI Conference on Weblogs and Social Media, 2010. Farber, Dan: »Twitter Hits 400 Million Tweets per Day, Mostly Mobile«, in: cnet, 2012. http://news.cnet.com/8301-1023_3-57448388-93/twitter-hits-400-milliontweets-per-day-mostly-mobile/. Garcia-Gavilanes, Ruth, Daniele Quercia und Alejandro Jaimes: »Cultural Dimensions in Twitter: Time, Individualism and Power«, 2006. www.ruthygarcia. com/papers/cikm2011.pdf. Gilbert, Nigel: Researching Social Life, London 2008. Gillespie, Tarleton: »The Politics of ›Platforms‹«, in: New Media & Society 12.3, 2010, S. 347-364. González-Bailón, Sandra, Ning Wang und Alejandro Rivero: »Assessing the Bias in Communication Networks Sampled from Twitter«, 2012. http://papers. ssrn.com/sol3/papers.cfm?abstract_id=2185134.
Carolin Gerlitz/Bernhard Rieder: Data-Mining von einem Prozent Twitter
Gorard, Stephan: Quantitative Methods in Social Science, London 2003. Hayles, N. Katherine: My Mother Was a Computer: Digital Subjects and Literary Texts, Chicago 2005. Hong, Lichan, Gregorio Convertino und Ed H Chi: »Language Matters in Twitter: A Large Scale Study Characterizing the Top Languages in Twitter Characterizing Differences Across Languages Including URLs and Hashtags«. Proceedings of the Fifth International AAAI Conference on Weblogs and Social Media, 2011, S. 518-521. Huang, Jeff, Katherine M. Thornton und Efthimis N. Efthimiadis: »Conversational Tagging in Twitter«. Proceedings of the 21st ACM Conference on Hypertext and Hypermedia – HT ’10, 2010, S. 173. Krishnamurthy, Balachander, Phillipa Gill und Martin Arlitt: »A Few Chirps about Twitter«. Proceedings of the First Workshop on Online Social Networks – WOSP ’08, New York 2008, S. 19. Krishnaiah, P.R. und C.R. Rao: Handbook of Statistics. Amsterdam 1987. Langlois, Ganaele, et al.: »Mapping Commercial Web 2.0 Worlds: Towards a New Critical Ontogenesis«, in: Fibreculture 14, 2009, S. 1-14. Mackenzie, Adrian: »More Parts than Elements: How Databases Multiply«, in: Environment and Planning. D: Society and Space 30.2, 2012, S. 335-350. Marres, Noortje, und Esther Weltevrede: »Scraping the Social? Issues in Real-time Social Research«, in: Journal of Cultural Economy, 2012, S. 1-52. Marwick, Alice, und danah boyd: »To See and Be Seen: Celebrity Practice on Twitter«, in: Convergence: The International Journal of Research into New Media Technologies 17.2, 2011, S. 139-158. Montfort, Nick, und Ian Bogost: Racing the Beam: The Atari Video Computer System, Cambridge, Mass., 2009. Noy, Chaim: »Sampling Knowledge: The Hermeneutics of Snowball Sampling in Qualitative Research«, in: International Journal of Social Research Methodology 11.4, 2008, S. 327-344. Papagelis, Manos, Gautam Das und Nick Koudas: »Sampling Online Social Networks«, in: IEEE Transactions on Knowledge and Data Engineering 25.3, 2013, S. 662-676. Paßmann, Johannes, Thomas Boeschoten und Mirko Tobias Schäfer: »The Gift of the Gab. Retweet Cartels and Gift Economies on Twitter«, in: Katrin Weller et al. (Hg.): Twitter and Society, New York 2013. Poblete, Barbara et al.: »Do All Birds Tweet the Same? Characterizing Twitter around the World Categories and Subject Descriptors«. 20th ACM Conference on Information and Knowledge Management, CIKM 2011, ACM, Glasgow, 2011, S. 1025-1030. Rieder, Bernhard: »The Refraction Chamber: Twitter as Sphere and Network«, in: First Monday 11, 5. November 2012. Rogers, Richard: The End of the Virtual – Digital Methods, Amsterdam 2009.
219
220
3. Digitale Methoden
Savage, Mike, and Roger Burrows: »The Coming Crisis of Empirical Sociology«, in: Sociology 41.5, 2007, S. 885-899. Stalder, Felix: »Between Democracy and Spectacle: The Front-End and Back-End of the Social Web«, in: Michael Mandiberg (Hg.): The Social Media Reader, New York 2012, S. 242-256. Stieglitz, Stefan, und Nina Krüger: »Analysis of Sentiments in Corporate Twitter Communication – A Case Study on an Issue of Toyota«. ACIS 2011 Proceedings. Paper 29. Tukey, John Wilder: Exploratory Data Analysis, New York 1977. Uprichard, Emma: »Sampling: Bridging Probability and Non-Probability Designs«, in: International Journal of Social Research Methodology 16.1, 2011, S. 1-11.
Der Wert von Big Data für die Erforschung digitaler Medien Merja Mahrt/Michael Scharkow
Die Kommunikationswissenschaft ist ein interdisziplinäres Fach, und dies gilt für die Forschung zu digitalen Medien umso mehr. Jede Disziplin wendet ihre eigenen Theorien und Methoden auf in jüngerer Zeit entstandene Formen computervermittelter Kommunikation an. Dies hat beispielsweise dazu geführt, dass geisteswissenschaftlich orientierte Medienwissenschaftler quantitative Methoden für die Erforschung großer Datensätze entdeckt haben (Lazer et al., 2009; Manovich, 2012), während Informationswissenschaftler den Wert qualitativer Analysen erproben (Parker, Saundage und Lee, 2011). Einige dieser Ansätze sind für die Analyse von Daten entwickelt worden, die durch die Nutzung digitaler Medien entstehen oder zugänglich werden. Die entsprechenden Datenstrukturen unterscheiden sich oft von denen, die in einem bestimmten Fach üblicherweise untersucht werden, was methodische Innovationen begünstigt. Die Reaktion der Medienpraxis und angewandter Forscher auf Daten aus Blogs, Twitter, Facebook und anderen sozialen Medien kann man als »Datenrausch« beschreiben, der neue Einsichten in die Entscheidungen und das Verhalten von Konsumenten erlauben soll (z.B. Kearon und Harrison, 2011; Russom, 2011). Einige Anhänger von Data Mining sehen dies beispielsweise als möglichen Zugang zu vielen verschiedenen Phänomenen, ohne dass man über »wesentliches Hintergrundwissen in Datenanalyse« verfügen müsse (Russell, 2011, S. XVI, Übers. M.M. und M.S.). Im Gegensatz zu solcher Begeisterung sind andere deutlich zurückhaltender und stellen in Frage, inwiefern sehr große Datenanalysen Praktikern oder Wissenschaftlerinnen tatsächliches Verständnis der Befunde ermöglichen. Sie schlagen etwa vor, datengetriebene mit ethnografischen Verfahren zu kombinieren (Hooper, 2011). Neben solchen methodologischen Fragen zum Umgang mit neuen Datenstrukturen und neuen Entwicklungen digitaler Medien hat sich auch eine Diskussion um den Stellenwert von Theorie in der Onlineforschung entwickelt (Anderson, 2008; Bailenson, 2012; Bollier, 2010). Einige argumentieren dabei, Forscher sollten die Daten für sich sprechen lassen, »die Daten sind selbst die
222
3. Digitale Methoden
Frage!« (IBM Ingenieur Jeff Jonas, zitiert in Bollier, 2010, S. 9, Übers. M.M. und M.S.). Angesichts dieser unterschiedlichen disziplinären und methodologischen Zugänge bietet dieser Beitrag einen Überblick über aktuelle Debatten zur Erforschung digitaler Medien und plädiert für den bleibenden Wert bestehender Prinzipien der empirischen Forschung – unabhängig davon, wie modern oder en vogue ein Medium oder eine Forschungsfrage daherkommen mag.
D er »D atenr ausch « Seit den 1990er und frühen 2000er Jahren haben digitalisierte Methoden mehr und mehr Einzug in die Sozialwissenschaften gehalten. Befragungen können über Webseiten statt auf Papier oder über das Telefon durchgeführt werden, digitale Aufzeichnungen von Interviews oder Experimentalsituationen erleichtern die Analyse von Inhalten oder beobachtetem Verhalten, und die Codierung von Analysematerial wird durch immer ausgefeiltere Software unterstützt. Doch zusätzlich zu Forschungswerkzeugen für die Sammlung oder Verarbeitung von Daten in digitaler Form nutzen Forscherinnen immer häufiger auch digitales Material, das nicht speziell für Forschungszwecke erstellt worden ist. Die Einführung digitaler Technologien, beispielsweise in Telefonanlagen oder Registrierkassen, sowie die Verbreitung des Internets über weite Teile der Bevölkerung eines Landes hat riesige Mengen an digitalen Daten entstehen lassen, deren Größe und Struktur bislang unvorstellbar waren. Da Telefongesellschaften und Einzelhandelsunternehmen ihre Kundendaten der Wissenschaft üblicherweise nicht zur Verfügung stellen (Savage und Burrows, 2007), konzentrieren sich Forscher auf die schier unendlichen Mengen an frei verfügbaren Daten über Internetnutzer, die häufig Zutritt zu bisher nicht zugänglichen Gegenstandsbereichen ermöglichen. Entsprechend hat sich die Methodenliteratur mit neuen Forschungspraktiken, Möglichkeiten und Beschränkungen von Onlineforschung auseinandergesetzt (Batinic, Reips und Bosnjak, 2002; Johns, Chen und Hall, 2004; Jones, 1999a). Dieser Abschnitt gibt einen kurzen Überblick über methodologische Probleme der Onlineforschung verschiedener Disziplinen und Forschungstraditionen der Sozialwissenschaften. Zwei Aspekte werden dabei eingehender betrachtet: die aktuelle Debatte um »Big Data« sowie die Frage nach der Bedeutung von Daten, die aus digitalen Medien gewonnen wurden.
M e thodische P robleme der E rforschung von D aten aus digitalen M edien Christians und Chen (2004) diskutieren technische Vorteile von Onlineforschung, warnen ihre Leser aber auch vor deren Kehrseiten. Auch wenn man riesige Mengen an »natürlich« durch Internetnutzung entstandenen Daten zur
Merja Mahrt/Michael Scharkow: Der Wert von Big Data für die Erforschung digitaler Medien
Verfügung hat, müsse man sich entscheidender Einschränkungen bewusst sein: Das Material verfügt über keinerlei Index, so dass kein Überblick über die Daten möglich ist. Entsprechend gibt es unter Umständen bestens geeignetes Material für eine Vielzahl an Forschungsinteressen – wie man aber auf diese Daten zugreifen und sie auswählen kann, ist häufig unklar. Stichprobenziehung ist daher wohl das Problem, das am häufigsten in der Literatur zu Onlineforschung diskutiert wird (Erlhofer, 2010; Mitra und Cohen, 1999; Vogt, Gardner und Haeffele, 2012; Welker et al., 2010). Einerseits bringt die Stichprobenziehung von Onlinematerial technische und praktische Herausforderungen mit sich. Durch Onlinenutzung entstehen zwar Daten, aber es ist zur Zeit unmöglich, daraus eine Stichprobe zu ziehen, die den etablierten Qualitätsansprüchen der Sozialwissenschaften genügen würde. Dies liegt zum einen an der schieren Größe des Internets, aber das Problem wird noch dadurch verschärft, dass sich Onlineinhalte häufig im Laufe der Zeit verändern (Jones 1999b; Mitra und Cohen 1999). Inhalte von Webseiten und noch weniger von sozialen Medien sind nicht so stabil und klar abgrenzbar wie in den meisten traditionellen Medien, was die Stichprobenziehung und Festlegung von Analyseeinheiten erschwert (Herring, 2010). Es ist daher üblich, Kombinationen aus bewussten und zufälligen Auswahltechniken einzusetzen, was auch Mazur (2010) empfiehlt. Die Probleme bei der Stichprobenziehung zeigen auf, dass etablierte Verfahren und Standards der empirischen Sozialforschung nicht immer auf digitale Medienforschung übertragen werden können. Inwiefern man sich daher an den alten Methoden orientieren oder neue entwickeln sollte, wird unterschiedlich gesehen: Einige Forscher schlagen vor, etablierte Verfahren einzusetzen, um die Qualität von Onlineforschung zu gewährleisten (Jankowski und van Selm, 2005; Lally, 2009; McMillan, 2000). Andererseits stellt Jones (1999b) in Frage, ob konventionelle Methoden auf große Datensätze aus digitalen Medien übertragbar sind. Herring (2010) vertritt die Ansicht, dass Kommunikationswissenschaftlerinnen ihre Methodenkenntnisse der konventionellen Inhaltsanalyse wenigstens teilweise an digitales Material anpassen müssen. Sie schlägt vor, Methoden anderer Disziplinen zu adaptieren, um die Struktur von Webseiten, Blogs oder sozialen Netzwerkseiten angemessen untersuchen zu können (siehe auch Christians und Chen, 2004). Etwa aus der Linguistik oder Diskursanalyse könnten Forscher passende oder ergänzende Verfahren übernehmen. Aber methodische Übernahmen und Innovationen haben auch Nachteile, und so findet sich die Erforschung neuer Phänomene oder Datenstrukturen in einem Spannungsfeld zwischen alten und neuen Methoden und Problemen wieder. Während Forscher wie Herring (2010) oder Jones (1999b) zu einem gewissen Maß an Zurückhaltung gegenüber experimenteller Nutzung neuer Methoden und Verfahren raten, scheinen andere alle Vorsicht fahren gelassen zu haben und sind vom Reiz der großen Datenmengen (Big Data) verführt worden.
223
224
3. Digitale Methoden
B ig D ata Der Begriff Big Data hat eine relative Bedeutung und bezieht sich über die Jahre auf immer größere Datensätze. In der Informatik bezeichnet er Datensätze, die zu groß sind, um mit üblicher Infrastruktur gespeichert und verarbeitet zu werden. Es liegt auf der Hand, dass große Datensätze anders behandelt werden müssen als kleine; sie erfordern andere Verfahren der Mustererkennung – und ermöglichen manchmal Auswertungen, die in kleinerem Rahmen unmöglich wären (Bollier, 2010; Manovich, 2012; Russom, 2011; Savage und Burrows 2007). Sowohl in den Geistes- und Sozialwissenschaften als auch in angewandter Forschung stellt die Größe eines Datensatzes oft sowohl Forscherinnen und Forscher als auch Softund Hardware vor Herausforderungen. Dies gilt insbesondere für Fächer oder Forschungsfelder, in denen quantitative Forschung eher weniger verbreitet ist. Manovich (2012) betrachtet daher Kenntnisse in Informatik und quantitativer Datenanalyse als Determinanten für die forscherischen Möglichkeiten einer Gruppe von Wissenschaftlern. Er fürchtet einen »data analysis divide« (ebd, S. 461) zwischen denjenigen, die über die notwendige analytische Ausbildung und Software verfügen, um die neuen Arten von Datensätzen zu nutzen, und denen, die unweigerlich nur an deren Oberfläche werden kratzen können. Neue Software zur Datenauswertung formt und leitet das forscherische Denken und die Arbeit mit Daten. Big Data-Forschung wird in der Regel von der Auswertung der Daten dominiert, und manche Forscher sehen fortgeschrittene Analyseverfahren im Forschungsprozess gar als Ersatz für Theorie (Anderson, 2008; Bailenson, 2012). Forschungsinteressen könnten so fast ausschließlich durch die Daten selbst getrieben werden. Diese Konzentration auf das mit den Daten Mögliche kann Forscher aber dazu verleiten, zentrale Aspekte ihres Gegenstandes zu vernachlässigen. boyd und Crawford (2012) betonen dagegen, wie zentral der (soziale) Kontext von Daten in der Analyse ist. Die Forscherinnen zeigen, wie Analysen großer Mengen an Nachrichten (»Tweets«) des Mikroblogs Twitter zur Zeit genutzt werden, um Stimmungen und Trendthemen zu aggregieren – ohne dass wirklich diskutiert würde, was und besonders wen diese Tweets eigentlich repräsentieren: Nur Teile einer Gesellschaft nutzen Twitter überhaupt, und das auf sehr unterschiedliche Weise. boyd und Crawford weisen darauf hin, dass diese Kontexte den Forschern in der Regel unbekannt sind, die mit großen Stichproben von Twitter-Daten arbeiten. Darüber hinaus zeigen Big Data-Analysen in der Regel nur auf, was Nutzer tun, aber nicht, warum sie es tun. In seiner Diskussion von Techniken für Big Data-Forschung stellt Manovich (2012) die Bedeutung von entsprechenden Ergebnissen für das Individuum oder die Gesellschaft in Frage. Das Problem der Deutung von beobachteten Daten und/oder ihrer Analyse spielt daher eine zentrale Rolle in der Debatte um Big Data.
Merja Mahrt/Michael Scharkow: Der Wert von Big Data für die Erforschung digitaler Medien
B edeutung Schon Jones (1999b) schreibt über den Glauben oder die Hoffnung von Onlineforschern, dass aus Webseiten, Onlinespielen, E‑Mails, Chats oder anderen Formen von Internetnutzung gewonnene Daten »schon irgendetwas repräsentieren werden, einen Hauch von Realität oder Stückchen Online-Leben« (S. 12, Übers. M.M. und M.S.). Dagegen zeigen Park und Thelwall (2005), dass schon ein vermeintlich schlichtes Phänomen wie ein Hyperlink zwischen zwei Webseiten nicht leicht zu interpretieren ist. Was kann das Vorhandensein dieser Verbindung zwischen zwei Seiten an sich dem Forscher darüber sagen, warum sie eingefügt wurde oder was sie für die Gestalter oder Nutzer der beiden Seiten bedeutet? Die Untersuchung von Onlineverhalten durch große Datensätze hebt den technischen Aspekt dieser Nutzung stark hervor (Christians und Chen, 2004) und ist auf Kategorien und Eigenschaften der Plattform angewiesen, über die die Daten generiert wurden. Allerdings können online sichtbare Verhaltensweisen oder Beziehungen nur scheinbar einem Gegenstück in der Offlinewelt gleichen. boyd und Crawford (2012) zeigen, dass beispielsweise Netzwerkbeziehungen zwischen Mobilfunknutzern dokumentieren, wer mit wem wie oft und wie lange telefoniert. Ob allerdings häufige Gesprächspartner ihre Beziehung zueinander auch persönlich wichtig finden oder welche Bedeutung sie ihr beimessen, kann aus den Verbindungsdaten ohne weiteren Kontext nicht erschlossen werden. Zusätzlich rät Mazur (2010) Forschern, Daten aus sozialen Medien mit gewisser Vorsicht zu behandeln, da sie das Ergebnis bewusster Gestaltung durch die Nutzer sein können, die ihre Onlineidentität planvoll anlegen. Es ist unbekannt, wie ähnlich oder unähnlich Nutzer ihren online verkörperten Rollen sind (Utz, 2010). Daher sollten Forscherinnen Daten zurückhaltend nur als das sehen, was sie sind (nämlich Spuren von Verhalten), aber nicht zu viele Schlüsse über mögliche Einstellungen, Emotionen oder Motivationen derjenigen ziehen, deren Verhalten die Daten generiert hat – auch wenn andere genau solche Inferenzen freimütig anstellen (Kearon und Harrison, 2011). Orgad (2009) und Murthy (2008) halten Forscher dagegen an, gründlich zu prüfen, ob eine Studie sich allein auf online gesammelte Daten stützen kann oder durch kontextuelle Offlinedaten flankiert werden sollte.
M öglichkeiten von B ig D ata -F orschung Wie oben bereits ausgeführt, ist Datenerhebung durch die Nutzung von Onlinemedien offensichtlich für viele wissenschaftliche und kommerzielle Forschungsfelder reizvoll. Wir fassen zunächst kurz zentrale Vorteile von Big Data zusammen, bevor wir kritische Aspekte ausführlicher beleuchten. Wichtige Vorteile und Möglichkeiten aus Perspektive der Sozialwissenschaften betreffen die Tatsache, dass Daten aus digitalen Medien oft als Nebenpro-
225
226
3. Digitale Methoden
dukt von Alltagshandeln der Nutzer entstehen und damit über ein gewisses Maß an natürlicher Validität verfügen (Mehl und Gill, 2010). Solches Verhalten kann durch die Spuren untersucht werden, die es automatisch hinterlässt, wodurch menschliches Verhalten erforscht werden kann, ohne dass Personen zunächst beobachtet oder aufgezeichnet werden müssen. Dadurch können außerdem Seiten menschlicher Interaktion untersucht werden, die bei aufdringlicheren Methoden oder künstlichen Designs, etwa durch Beobachtereffekte oder das Bewusstsein über die Studienteilnahme, verzerrt werden könnten (Jankowski und van Selm, 2005; Vogt et al., 2012). Beobachtungsdaten dieser Art ähneln dem Untersuchungsmaterial von Inhaltsanalysen, da es in Dokumentform gespeichert werden kann oder bereits so vorliegt. Somit können etablierte inhaltsanalytische Verfahren der Kommunikationswissenschaft oder anderer Forschungsfelder auf neue Forschungsfragen angewendet werden (Herring, 2010; McMillan, 2000). Wenn man auf einer Plattform gepostete Inhalte mit Kontextdaten kombiniert (etwa Zeitpunkt der Veröffentlichung einer Reihe von Beiträgen, Standort der Nutzer oder Beziehungen zwischen verschiedenen Nutzern derselben Plattform oder eines Profils), können Daten aus digitalen Medien dafür genutzt werden, z.B. durch explorative Visualisierungen Muster in menschlichem Verhalten sichtbar zu machen (Dodge, 2005). Für andere ebenfalls explorative Forschungsinteressen scheint die schiere Menge an online verfügbaren Informationen Forscherinnen zu faszinieren, weil sie (zumindest scheinbar) zahlreiche Gelegenheiten für neue Forschungsfragen bietet (Vogt et al., 2012; Welker et al., 2010). Zu guter Letzt kann die Erhebung von Big Data auch als erste Teilstudie dienen, der Analysen von deutlich kleineren Substichproben folgen. In der Realität schwer erreichbare Gruppen (Christians und Chen, 2004) oder seltene und verstreute Phänomene können aus riesigen Datensammlungen herausgefiltert werden, um so Zugang zur sprichwörtlichen Nadel im digitalen Heuhaufen zu ermöglichen. Dieses Verfahren kann effizienter sein, als über herkömmliche Methoden wie Random Dialing oder Random Walking eine sehr große Stichprobe von Personen zu ziehen, um vergleichsweise seltenes Verhalten untersuchen zu können.
H er ausforderungen von B ig D ata -F orschung Während Big Data insbesondere für kommerzielle Forscher ein Heilsversprechen zu geben scheint (Kearon und Harrison, 2011; Russom, 2011), wird der Begriff in der wissenschaftlichen Literatur deutlich kritischer gesehen. boyd und Crawford (2012) sowie Manovich (2012) diskutieren Probleme der Nutzung von Big Data in der Erforschung digitaler Medien, die wir oben in ausgewählter Form wiedergegeben haben. Zusätzlich zu allgemeinen politischen Fragen zur Nutzung privatwirtschaftlicher Plattformen und »new digital divides« hinsichtlich des Zu-
Merja Mahrt/Michael Scharkow: Der Wert von Big Data für die Erforschung digitaler Medien
gangs zu Daten oder der Bedeutung von Big Data stellt auch die Analyse selbst Sozialwissenschaftlerinnen vor konkrete Herausforderungen. Dieser Abschnitt diskutiert verschiedene Aspekte von Big Data-Forschung, die sich im Laufe des Forschungsprozesses stellen. Ein wiederkehrendes Motiv in vielen Studien, die Big Data verwenden, ist deren Verzerrung qua Verfügbarkeit: Anstatt Analyseeinheiten und Messverfahren theoretisch festzulegen, tendieren Forscher hier dazu, jegliche Daten zu verwenden, solange sie verfügbar sind, und in einem zweiten Schritt ex post Begründungen oder sogar Theoretisierungen nachzuliefern. Eine solche Forschungs»strategie« steht in deutlichem Kontrast zu herkömmlicher theoriegetriebener Forschung und stellt die Validität und Generalisierbarkeit der Ergebnisse in Frage.
S tichprobenziehung und D atenerhebung Das Problem der Stichprobenziehung in der Onlineforschung ist oben bereits angesprochen worden und wird in fast jedem Text zu Onlineforschung behandelt (Batinic et al., 2002; Herring, 2010; McMillan, 2000). Trotz vielversprechender Entwicklungen in der Onlineforschung wie der Rückfangmethode (Engesser und Krämer, 2011) oder adaptiver Clusterstichproben bleibt das Problem echter Zufallsstichproben bestehen, auf die alle statistische Inferenz angewiesen ist. Big Data-Forschung verwendet normalerweise keine Zufallsstichproben, sondern setzt Schneeballverfahren ein oder verwendet schlicht alle Daten, die technisch und rechtlich erhältlich sind. Ein weiteres Problem vieler Big Data-Projekte besteht aber darin, dass selbst eine große Stichprobe oder Vollerhebung einer bestimmten Seite immer noch wenig oder keine Varianz hinsichtlich der Plattform oder Seite aufweist. Wenn Forscherinnen sich für soziale Netzwerkseiten, Multiplayerspiele oder Onlinenachrichten interessieren, ist die ausschließliche Verwendung von Daten aus Facebook und Twitter, World of Warcraft und Everquest II oder einer Handvoll Webseiten von Nachrichtenanbietern problematisch. Aus Plattformperspektive sind die Stichproben solcher Studien winzig, selbst wenn pro Seite Millionen von Datenpunkten vorliegen. Dies ist nicht nur für Inferenzen auf Basis der entsprechenden Daten folgenreich, sondern auch bezüglich der Validität: Um die Generalisierbarkeit der Befunde zu vergrößern oder auch zu überprüfen, wären nicht mehr Daten derselben Quelle notwendig, sondern Informationen aus einer Vielzahl an Quellen. Somit besteht die größte Herausforderung der Erforschung digitaler Medien nicht darin, Big Data von wenigen, wenn auch wichtigen, Webseiten oder Nutzergruppen zu erheben, sondern von vielen Plattformen und Individuen. Angesichts des Aufwands, der nötig ist, um Daten aus einer einzigen Quelle auszuwählen, zu sammeln und auszuwerten, und der Schwierigkeit, diese Prozesse zu automatisieren oder auszulagern, bleibt die »horizontale« Erweiterung in der Onlineforschung kompliziert.
227
228
3. Digitale Methoden
Ein dritter wichtiger Punkt bei der Erhebung von Big Data ist die Entwicklung ethischer Standards und Verfahrensweisen bei öffentlichen oder halböffentlichen Daten. Zimmer (2010) bietet einen hervorragenden Überblick über die Probleme, denen Wissenschaftler bei der Erhebung von scheinbar für die Forschung öffentlich zugänglichen Daten begegnen müssen. Effektive Möglichkeiten, große Datensätze zu deanonymisieren (Narayanan und Shmatikov, 2008), erschwert es Forscherinnen, Daten aus sozialen Netzwerken wie YouTube, Facebook oder Twitter zu erfassen und später zu veröffentlichen. Darüber hinaus hat das Risiko versehentlicher Preisgabe sensibler Nutzerdaten die Bereitschaft von Firmen verringert, Dritten anonymisierte Datensätze zur Verfügung zu stellen, selbst wenn diese Firmen grundsätzlich an Zusammenarbeit mit der Wissenschaft interessiert sind. Und auch Forscher, die öffentlich zugängliche Daten sammeln, gehen ein Risiko ein, da die Plattformanbieter oder einzelne Nutzer der Veröffentlichung der Daten im Rahmen von Forschung widersprechen können, insbesondere wenn diese Daten erfolgreich deanonymisiert worden sind. Die spätere Rücknahme von Forschungsmaterial macht Replikationen dagegen unmöglich und verletzt somit ein Kernprinzip empirischer Forschung. Schließlich gründet alle Big Data-Forschung auf der Annahme, dass Nutzer der Erhebung und Auswertung ihrer Daten implizit zustimmen, indem sie sie online stellen. Angesichts aktueller Forschung zum Schutz privater Daten im Netz bleibt aber fraglich, ob Nutzer immer genau zwischen privaten und öffentlichen Nachrichten und Verhaltensweisen unterscheiden können (Barnes, 2006). Aber selbst wenn ihnen dies möglich ist, können private Informationen technisch aus wenigen öffentlichen Angaben rekonstruiert werden (Zheleva und Getoor, 2009), was Big Data-Forschung vor das Problem stellt, einerseits Datenschutz- und ethische Standards zu gewährleisten, aber andererseits offen genug für wissenschaftlichen Austausch und Replikationen zu bleiben (siehe auch Markham und Buchanan, 2012).
M essung Bedenken bezüglich der Reliabilität und Validität der Messung werden in zahlreichen kritischen Beiträgen zu Big Data-Forschung geäußert, zuletzt von boyd und Crawford (2012). Die am häufigsten genannten Probleme betreffen 1. vergleichsweise oberflächliche Maße, 2. das Fehlen von Kontexten und 3. die Dominanz automatisierter Analyseverfahren. Diese Bedenken gründen sich offensichtlich implizit oder explizit auf die Neigung zu eher daten- als theoriegeleiteten Operationalisierungen. Zusätzlich zu oben genannten möglichen »Verzerrungen qua Verfügbarkeit« behandeln viele bekannte Big Data-Studien aus digitalen Medien ausgelesene Daten als inhaltlich per se valide, indem sie beispielsweise Freundschaftsbeziehungen auf Facebook als gleichbedeutend mit tatsächlichen Freundschaften ansehen oder etablierte kommunikationswissenschaftliche Konzepte
Merja Mahrt/Michael Scharkow: Der Wert von Big Data für die Erforschung digitaler Medien
wie »Thema« oder »Diskurs« auf das schlichte Zählen von Schlagwörtern (hashtags) oder Weiterleitungen (retweets) reduzieren (Romero, Meeder und Kleinberg, 2011; Xifra und Grau, 2010). Damit wollen wir nicht sagen, dass die Messung von Konzepten anhand von Daten statt von Theorie in jedem Fall problematisch ist. Aber Forscherinnen und Forscher sollten sich bewusst machen, dass die am leichtesten auszulesenden Maße nicht die validesten sein müssen, und sie sollten diskutieren, inwiefern ihre Validität mit der von etablierten Verfahren konvergiert. Sowohl Kommunikationswissenschaft als auch Linguistik haben lange inhaltsanalytische Traditionen, die leicht für Inhalte aus digitalen Medien weitergeschrieben werden können. Natürlich ist es nicht möglich, manuell Millionen von Kommentaren, Tweets oder Blogbeiträgen zu annotieren. Dennoch können und sollten Forscher, die digitale Medien untersuchen, die Validität der verwendeten Maße belegen, insbesondere dann, wenn sie bis dato nicht verfügbare oder erprobte Verfahren verwenden. Die Verwendung von oberflächlichen, »verfügbaren« Maßen geht oft mit einer impliziten Neigung zu automatisierten Codierungsverfahren statt zu menschlicher Bewertung einher. Dieses Phänomen hat mehrere Gründe: Erstens werden viele Big Data-Studien von Forschern aus Informatik oder Ingenieurswissenschaften durchgeführt, die möglicherweise schlicht nicht mit üblichen sozialwissenschaftlichen Methoden wie der Inhaltsanalyse vertraut sind (einige diskutieren aber die Vorteile qualitativerer manueller Verfahren; Parker et al., 2011). Darüber hinaus haben diese Forscher oft eher Zugang zu leistungsfähiger Recheninfrastruktur als zu geschulten studentischen Mitarbeitern, die üblicherweise als Coder oder Rater eingesetzt werden. Zweitens weisen Befürworter von Big Data häufig darauf hin, dass automatisierte Verfahren zumindest technisch höchst reliabel sind, da sie keine zufälligen Fehler machen und für große Stichproben besser geeignet sind (King und Lowe, 2003; Schrodt, 2010). Allerdings gilt dieses Argument nur, wenn die Codierung von Tausenden Beiträgen inhärente Vorteile gegenüber einer kleineren Stichprobe hat und diese Vorteile die niedrigere Validität automatisierter Codierung kompensieren können, die für viele Anwendungsfelder der Inhaltsanalyse belegt ist (Krippendorff, 2004). Beispielsweise geben Thelwall, Buckley, Paltoglou, Cai und Kappas (2010) eine durchschnittliche Korrelation von r = 0,5 zwischen automatisierter Stimmungsanalyse (sentiment analysis) und menschlichen Ratern an, und Scharkow (2013) zeigt, dass regelgeleitete Textklassifikation im Schnitt 20 Prozent weniger reliabel ist als manuelle Themencodierung. Trotz der umfangreichen Forschung zu diesen Verfahren wird der tatsächliche Zielkonflikt zwischen Qualität der Messung und Quantität der Stichprobe in der Literatur selten diskutiert, obwohl er zentral für die Frage ist, ob und wenn ja, wann z.B. oberflächlichen lexikalischen Maßen, die einfach zu implementieren und technisch reliabel sind, der Vorzug vor etablierten inhaltsanalytischen Kategorien und menschlicher Codierung gegeben werden sollte.
229
230
3. Digitale Methoden
D atenanalyse und I nferenzen Neben Stichprobenziehung, Datenerhebung und Messung wird auch die Analyse großer Datensätze im Zusammenhang mit Big Data ausgiebig diskutiert. Wenn Forscher mit Big Data im ursprünglichen Wortsinn arbeiten, die Daten also nicht mit einem herkömmlichen Computer und üblicher Software wie SPSS oder SAS verarbeitet werden können, kann eine Lösung in verteilten Algorithmen und Software bestehen, die Analysen über mehrere Prozessoren und Rechnerknoten durchführen kann. Alternativ könnte man aber auch einen Schritt zurücktreten und sich fragen, ob ein Ausschnitt aus den Daten ebenfalls gehaltvoll genug für die Überprüfung einer Hypothese oder eine Prognose sein kann. Obwohl mit dem Umfang der Stichprobe im Allgemeinen auch die Präzision von Schätzwerten zunimmt und eine größere Zahl an Indikatoren oder wiederholten Messungen den Messfehler verringert (Nunnally, 1978), benötigen die meisten sozialwissenschaftlichen Theorien ein solches Maß an Präzision gar nicht (Gerring, 2001). Bei einem geeigneten Stichprobenverfahren gelten die Gesetze der Wahrscheinlichkeit und der zentrale Grenzwertsatz auch für die Onlineforschung, und selbst Verfahren, die viel statistische Power erfordern, können auf einem Einzelrechner durchgeführt werden. In einem solchen Fall kann Big Data ohne Weiteres auf eine mittlere Datengröße reduziert werden und trotzdem noch valide und reliable Ergebnisse liefern. Ob man größere oder kleinere Datenmengen benötigt, hängt auch davon ab, welche Inferenzen man mit der Analyse bilden möchte: Geht es um aggregierte oder individuelle Wirkungen, Kausalanalysen oder Prognosen? Um individuelles Nutzerverhalten etwa von Webseiten vorherzusagen, benötigt man sowohl reliable und valide Messungen von früherem Verhalten als auch eine große Zahl an Messpunkten. Dagegen sind für Längsschnittanalysen aggregierter Daten, z.B. Suchmaschinenanfragen (Scharkow und Vogelgesang, 2011) oder große Mengen an Tweets (Chew und Eysenbach, 2010), nicht unbedingt vollständig reliable Codierungen und große Stichproben notwendig: Wenn ein grobes Codierschema auf Basis einfacher Wortlisten nur eine Genauigkeit von 50 Prozent erreicht, können dennoch Zusammenhänge zwischen Zeitreihen aus Medieninhalten und Nutzerverhalten untersucht werden – solange der Messfehler über die Zeit konstant ist (siehe Granger, 1986). Darüber hinaus macht es in den seltensten Fällen einen Unterschied für mögliche Inferenzen auf aggregierter Ebene, ob eine Zeitreihe aus Hunderten oder Tausenden beobachteten Werten besteht, zumindest wenn die Daten die gleiche Grundgesamtheit abbilden. Ist eine Forscherin dagegen daran interessiert, den genauen Inhalt von ausgewählten Beiträgen oder das Verhalten einer zuvor bestimmten Gruppe von Internetnutzern zu untersuchen, wäre eine Reliabilität von 0,5 vermutlich nicht ausreichend. Wie in anderen Fächern, z.B. Psychologie, Erziehungswissenschaft oder Medizin, erfordern individuelle Diagnose und Inferenz deutlich mehr Genauigkeit als das Auffinden von Trends im Aggregat.
Merja Mahrt/Michael Scharkow: Der Wert von Big Data für die Erforschung digitaler Medien
Schließlich sollte man sich fragen, wie hoch der Grad der Verallgemeinerbarkeit der Befunde sein kann oder soll: Qualitative und quantitative Tiefenanalysen ermöglichen zwar genaue Prognosen und Einsicht für einzelne Personen, sie können aber nicht auf größere Stichproben oder die gesamte Bevölkerung übertragen werden. Die Untersuchung von wenigen Internetnutzern in einem Computerlabor kann nur in den seltensten Fällen zu Inferenzen führen, die für alle Internetnutzer gelten, weil schlicht nicht genug Informationen über individuelle Unterschiede oder, technisch gesprochen, interindividuelle Varianz vorliegen. Dem gegenüber können Korrelationen im Aggregat nicht einfach auf die Individualebene übertragen werden, ohne einen ökologischen Fehlschluss zu riskieren, weil z.B. etwas im Aggregat beobachtet wird, was auf der Individualebene nie vorkommt (Yanovitzky und Greene, 2009).
I nterpre tation und theore tische I mplik ationen Forscher, die Analysen mit Big Data durchgeführt haben, müssen ihre Befunde selbstverständlich im Hinblick auf die Entscheidungen interpretieren, die sie im Laufe des Forschungsprozesses gefällt haben. Die Kernfrage sollte dabei sein: Was sind theoretische Aussagekraft und Relevanz der Daten? Auch große Mengen an digitalen Medieninhalten unterliegen gewissen Beschränkungen, daher sollten Inferenzen mit der gebotenen Vorsicht gebildet werden. Das Problem der unklaren Bedeutung bestimmter Daten aus digitalen Medien ist oben schon angesprochen worden. Die Anzahl an Weiterleitungen einer Nachricht auf Twitter (retweet) kann beispielsweise ein gewisses Maß an Interesse unter Internetnutzern aufzeigen. Aber ohne genauere Untersuchung des Inhalts und/oder der Form des Tweets kann »Interesse« tatsächlich so unterschiedliche Dinge wie Beliebtheit und Zustimmung, Abscheu und Empörung oder auch gedankenlos routiniertes Twitter-Nutzungsverhalten bedeuten. Um es mit boyd und Crawford (2012) zu sagen: Wie leicht auch immer es sein mag, Daten aus Facebook, YouTube oder Twitter zu beziehen, sie stammen von einer kleinen und sicherlich nicht zufällig zusammengesetzten Untergruppe von Internetnutzern, und dies gilt umso mehr, wenn man bestimmte Webseiten, Diskussionsforen, Onlinespiele oder -anwendungen untersucht. Wenn weniger als fünf Prozent der Onlinenutzer eines Landes Twitter überhaupt nutzen, wie etwa in Deutschland (Busemann und Gscheidle, 2012), kann eine Analyse von Trends in diesem Mikroblogdienst wohl kaum die in der breiten Bevölkerung aktuell wichtigen Themen aufzeigen. Zusätzlich erlauben es die Schnittstellen einer Plattform (oder ethische Beschränkungen) Forschern unter Umständen nicht, auf die eigentlich für sie interessantesten Daten zuzugreifen, so dass sie sich mit Deskription und Exploration von letztlich künstlichen Kategorien begnügen müssen. Visualisierungen entsprechender Daten, etwa Verbindungen zwischen Nutzern sozialer Medien, können zwar Muster aufzeigen (Dodge, 2005), aber ohne Vergleichsmaßstäbe führen
231
232
3. Digitale Methoden
solche Befunde nicht zu Einsichten. In dieser Hinsicht haben wir oben bereits betont, dass das bloße Vorkommen von bestimmten Schlagworten in einer Auswahl von Nachrichten aus sozialen Medien nicht per se »Diskurs« bedeutet. Ein solches theoretisches Konstrukt sollte nicht bis zur Unkenntlichkeit verstümmelt werden, nur um es für die Datenstruktur einer bestimmten Plattform passend zu machen. Zusammengefasst sollten Forscherinnen ihr ursprüngliches Forschungsinteresse nicht dadurch kompromittieren, dass dieses weniger einfach als andere umgesetzt werden kann. Wenn nach sorgfältiger Prüfung der Möglichkeiten, die eine bestimmte Plattform oder Art der Analyse bietet, ein Big Data-Ansatz nicht ratsam erscheint, liefert eine detaillierte Analyse von kleineren Datenmengen womöglich deutlich aussagekräftigere Ergebnisse. Obwohl ähnliche Schwierigkeiten für jede Art von empirischer Forschung bestehen, erscheint dieses Problem im Bereich Big Data besonders drängend.
F a zit Die Möglichkeiten von breit angelegter Forschung zu digitalen Medien liegen auf der Hand – ihre Fallstricke und Kehrseiten aber ebenso. Forscherinnen und Forscher sollten daher sorgfältig aus verschiedenen Forschungsansätzen auswählen und unbekannte Software, Analysetechniken oder methodische Neuheiten mit dem gebotenen Maß an Vorsicht einsetzen. Ohne oder mit nur wenigen Vergleichsmöglichkeiten sind Befunde nicht leicht zu interpretieren, so dass Onlineforscher an sich selbst »hohe Maßstäbe hinsichtlich konzeptueller Klarheit, systematischem Vorgehen bei Stichprobenziehung und Datenanalyse sowie Abwägung von Einschränkungen bei der Interpretation ihrer Ergebnisse anlegen sollten« (Herring, 2010, S. 246; Übers. M.M. und M.S.). Sowohl boyd und Crawford (2012) als auch Manovich (2012) kommen zu dem Schluss, dass Teil der Antwort auf die Herausforderungen der digitalen Medienforschung Ausbildung in Methoden sein sollte. Manovich schlägt dabei fortgeschrittene statistische und informatische Analyseverfahren vor, die ohne Zweifel das Verständnis der zu Grunde liegenden Algorithmen einer Plattform oder einer Analysesoftware verbessern können. Dennoch bleiben Reflexion über und Verständnis für die Aufgaben vor der Datenerhebung ebenso wichtig, wenn nicht letztlich bedeutsamer. Eine Methodenausbildung vermittelt nicht nur praktische Kenntnisse für den Umgang mit Daten, sondern versetzt Studierende und Forschende auch in die Lage, gehaltvolle Fragen zu stellen und sich bewusst zu machen, wie ihre Entscheidungen an einer beliebigen Stelle im Forschungsprozess sich auf alle folgenden Phasen auswirken. Theoretische Überlegungen sollten schlüssig in konkrete Hypothesen oder forschungsleitende Fragen überführt werden, die wiederum sowohl eine bestimmte Operationalisierung nahelegen als auch zu einem erheb-
Merja Mahrt/Michael Scharkow: Der Wert von Big Data für die Erforschung digitaler Medien
lichen Maße bestimmen, welche Arten von Analysen möglich und sinnvoll sind. Ein entsprechendes Verständnis der Zusammenhänge zwischen forscherischen Entscheidungen kann nicht ohne Weiteres erworben werden, ist aber von zentraler Bedeutung. Mehl und Gill (2010) etwa betonen, dass Forscher Software einsetzen sollen, die zu ihrer Forschungsfrage passt und dass die erhaltenen Ergebnisse vernünftig interpretiert werden sollen, und zwar als das, was sie sind. In jeder Phase des Forschungsprozesses sollte daher geprüft werden, welchen Wert große oder kleine Datenmengen für die zu Grunde liegende Frage besäßen. Normalerweise sollten wir der Versuchung widerstehen, unsere Forschungsfrage von Möglichkeiten und Beschränkungen einer Plattform bestimmen zu lassen; sie sollte aus interessanten und relevanten Phänomenen abgeleitet werden – unabhängig davon, ob etwas über die Schnittstelle einer Plattform verfügbar ist oder mit einer bestimmten Software als leicht auszuwerten erscheint. Die Methodenausbildung für kommende Generationen von Kommunikationswissenschaftlerinnen sollte sich nicht nur auf computerbezogene Themen und Datenmanagement konzentrieren, sondern auch weiterhin die Bedeutung methodischer Stringenz und sorgfältig ausgewählter Forschungsdesigns herausstellen. Dazu gehört auch theoretische Reflexion, ganz im Gegensatz zum angeblichen »Ende der Theorie« (Anderson, 2008; Bailenson, 2012). Kommunikations- und Medienwissenschaftler sollten neue Datenstrukturen und Forschungsmöglichkeiten natürlich nicht ignorieren, und es gibt viele relevante und interessante Forschungsfragen, die mit Big Data-Analysen hervorragend bearbeitet werden können. Andererseits sollten etablierte Verfahren empirischer Forschung nicht vernachlässigt werden, da sie Kohärenz und Qualität einer Studie gewährleisten können. Dies ist letztlich einer der zentralen Beiträge, die Sozialwissenschaftlerinnen zu interdisziplinären Forschungsfeldern leisten können. Es sollte sich von selbst verstehen, dass ein klarer Fokus auf theoretisch relevante Fragen die wissenschaftliche Aussagekraft einer Studie und ihrer Befunde stets erhöht. Angesichts einiger aktueller Entwicklungen in der Erforschung digitaler Medien, insbesondere im Bereich Big Data, hielten wir es aber für geboten, an dieses grundlegende Prinzip erneut zu erinnern.
L iter atur Anderson, Chris: »The End of Theory: The Data Deluge Makes the Scientific Method Obsolete«, 2008. www.wired.com/science/discoveries/magazine/16-07/ pb_theory/. Bailenson, Jeremy N.: »Beitrag zur Podiumsdiskussion der ICA in Phoenix: ›The Internet is the end of communication theory as we know it‹«, in: 62. Jahrestagung der International Communication Association, Phoenix 2012. www.icahdq. org/conf/2012/closing.asp.
233
234
3. Digitale Methoden
Barnes, Susan B.: »A privacy paradox: Social networking in the United States«, in: First Monday, 11/9, 2006. http://firstmonday.org/htbin/cgiwrap/bin/ojs/index. php/fm/article/view/1394/1312. Batinic, Bernad, Ulf-Dietrich Reips und Michael Bosnjak (Hg.): Online Social Sciences, Seattle, WA: Hogrefe & Huber 2002. Bollier, David: »The Promise and Peril of Big Data«, 2010. www.aspeninstitute. org/sites/default/files/content/docs/pubs/The_Promise_and_Peril_of_Big_ Data.pdf. boyd, danah, und Kate Crawford: »Critical Questions for Big Data. Provocations for a Cultural, Technological, and Scholarly Phenomenon«, in: Information, Communication & Society 15/5, 2012, S. 662-679. Busemann, Katrin, und Christoph Gscheidle: »Web 2.0: Habitualisierung der Social Communitys«, in: Media Perspektiven/7-8, 2012, S. 380-390. Chew, Cynthia, und GuntherEysenbach: »Pandemics in the Age of Twitter: Content Analysis of Tweets During the 2009 H1n1 Outbreak«, in: PLoS ONE 5/11, e14118, 2010. Christians, Clifford G., und Shing-Ling Sarina Chen: »Introduction: Technological Environments and the Evolution of Social Research Methods«, in: Mark D. Johns, Shing-Ling Sarina Chen und G. Jon Hall (Hg.), Online Social Research. Methods, Issues, & Ethics, New York: Peter Lang 2004, S. 15-23. Dodge, Martin: »The Role of Maps in Virtual Research Methods«, in: Christine Hine (Hg.), Virtual Methods. Issues in Social Research on the Internet, Oxford: Berg 2005, S. 113-127. Engesser, Sven, und Benjamin Krämer: »Die Rückfangmethode. Ein Verfahren zur Ermittlung unzugänglicher Grundgesamtheiten in der Journalismusforschung«, in: Olaf Jandura, Thorsten Quandt und Jens Vogelgesang (Hg.), Methoden der Journalismusforschung, Wiesbaden: VS Verlag 2011, S. 171-187. Erlhofer, Sebastian: »Datenerhebung in der Blogosphäre: Herausforderungen und Lösungswege«, in: Martin Welker und Carsten Wünsch (Hg.), Die Online-Inhaltsanalyse. Forschungsobjekt Internet, Köln: Halem 2010, S. 144-166. Gerring, John: Social Science Methodology: A Criterial Framework, Cambridge: Cambridge University Press 2001. Granger, Clive W.J.: »Developments in the Study of Cointegrated Economic Variables«, in: Oxford Bulletin of Economics and Statistics 48/3, 1986, S. 213-228. Herring, Susan C.: »Web Content Analysis: Expanding the Paradigm«, in: Jeremy Hunsinger, Lisbeth Klastrup und Matthew Allen (Hg.), International Handbook of Internet Research, Dordrecht: Springer 2010, S. 233-249. Hooper, Cheryl Stallworth: »Qualitative in Context«, in: Journal of Advertising Research 51, 2011, S. 163-166. Jankowski, Nicholas W., und Martine van Selm: »Epilogue: Methodological Concerns and Innovations in Internet Research«, in: Christine Hine (Hg.), Virtual Methods. Issues in Social Research on the Internet, Oxford: Berg 2005, S. 199207.
Merja Mahrt/Michael Scharkow: Der Wert von Big Data für die Erforschung digitaler Medien
Johns, Mark D., Shing-Ling Sarina Chen und G. Jon Hall: Online Social Research: Methods, Issues & Ethics, New York: Peter Lang 2004. Jones, Steve (1999a): Doing Internet Research. Critical Issues and Methods for Examining the Net, Thousand Oaks: Sage. Ders. (1999b): »Studying the Net. Intricacies and Issues«, in: Steve Jones (Hg.), Doing Internet Research. Critical Issues and Methods for Examining the Net, Thousand Oaks: Sage, S. 1-27. Kearon, John, und Peter Harrison: »Research Robots. A Dramatic New Way to Conduct Research & Generate Insights«, 2011. www.brainjuicer.com/xtra/ BrainJuicer_DigiViduals_Research_Robots_Paper.pdf. King, Gary, und Will Lowe: »An Automated Information Extraction Tool for International Conflict Data with Performance as Good as Human Coders: A Rare Events Evaluation Design«, in: International Organization 57/03, 2003, S. 617642. Krippendorff, Klaus: Content Analysis. An Introduction to Its Methodology, 2nd ed., Thousand Oaks: Sage 2004. Lally, Elaine: »Response to Annette Markham«, in: Annette N. Markham und Nancy K. Baym (Hg.), Internet Inquiry. Conversations About Method, Los Angeles: Sage 2009, S. 156-164. Lazer, David, Alex Pentland, Lada Adamic, Sinan Aral, Albert-László Barabási, Devon Brewer, Nicholas Christakis, Noshir Contractor, James Fowler, Myron Gutmann, Tony Jebara, Gary King, Michael Macy, Deb Roy und Marshall Van Alstyne: »Computational Social Science«, in: Science 323/5915, 2009, S. 721723. Manovich, Lev: »Trending: The Promises and the Challenges of Big Social Data«, in: Matthew K. Gold (Hg.), Debates in the Digital Humanites, Minneapolis: University of Minnesota Press 2012, S. 460-475. Markham, Annette, und Elizabeth Buchanan: »Ethical Decision-making and Internet Research. Recommendations from the AoIR Ethics Working Committee (Version 2.0)«, 2012. www.aoir.org/reports/ethics2.pdf. Mazur, Elizabeth: »Collecting Data from Social Networking Web Sites and Blogs«, in: Samuel D. Gosling und John A. Johnson (Hg.), Advanced Methods for Conducting Online Behavioral Research, Washington: American Psychological Association 2010, S. 77-90. McMillan, Sally J.: »The Microscope and the Moving Target: The Challenge of Applying Content Analysis to the World Wide Web«, in: Journalism & Mass Communication Quarterly 77/1, 2000, S. 80-98. Mehl, Matthias R., und Alastair J. Gill: »Automatic Text Analysis«, in: Samuel D. Gosling und John A. Johnson (Hg.), Advanced Methods for Conducting Online Behavioral Research, Washington: American Psychological Association 2010, S. 109-127.
235
236
3. Digitale Methoden
Mitra, Ananda, und Elisia Cohen: »Analyzing the Web. Directions and Challenges«, in: Steve Jones (Hg.), Doing Internet Research. Critical Issues and Methods for Examining the Net, Thousand Oaks: Sage 1999, S. 179-202. Murthy, Dhiraj: »Digital Ethnography. An Examination of the Use of New Technologies for Social Research«, in: Sociology 42/5, 2008, S. 837-855. Narayanan, Arvind, und Vitaly Shmatikov: »Robust De-anonymization of Large Sparse Datasets«, Paper presented at the IEEE Symposium on Security and Privacy, 2008. www.cs.utexas.edu/_shmat/shmat_oak08netflix.pdf. Nunnally, Jum Clarence: Psychometric Theory. 2. Aufl., New York: McGraw-Hill 1978. Orgad, Shani: »How Can Researchers Make Sense of the Issues Involved in Collecting and Interpreting Online and Offline Data?«, in: Annette N. Markham und Nancy K. Baym (Hg.), Internet Inquiry. Conversations About Method, Los Angeles: Sage 2009, S. 33-53. Park, Han Woo und Mike Thelwall: »The Network Approach to Web Hyperlink Research and Its Utility for Science Communication«, in: Christine Hine (Hg.), Virtual Methods. Issues in Social Research on the Internet, Oxford: Berg 2005, S. 171-181. Parker, Craig, Dilal Saundage und Chia Yao Lee: »Can Qualitative Content Analysis Be Adapted for Use by Social Informaticians to Study Social Media Discourse? A Position Paper«, Paper presented at the ACIS 2011: Proceedings of the 22nd Australasian Conference on Information Systems: Identifying the Information Systems Discipline, Sydney 2011. http://dro.deakin.edu.au/eserv/ DU:30041098/parker-canqualitative-2011.pdf. Romero, Daniel M., Brendan Meeder und Jon Kleinberg: »Differences in the Mechanics of Information Diffusion Across Topics: Idioms, Political Hashtags, and Complex Contagion on Twitter«, in: Proceedings of the 20th international conference on World Wide Web, WWW ’11, New York: ACM 2011, S. 695-704. www.cs.cornell.edu/home/kleinber/www11-hashtags.pdf. Russell, Matthew A.: Mining the Social Web. Analyzing Data from Facebook, Twitter, Linkedin, and Other Social Media Sites, Beijing: O’Reilly 2011. Russom, Philip: »Big Data Analytics«, 2011. www.cloudtalk.it/wp-content/uploads/ 2012/03/1_17959_TDWIBigDataAnalytics.pdf. Savage, Mike, und Roger Burrows: »The Coming Crisis of Empirical Sociology«, in: Sociology 41/5, 2007, S. 885-899. Scharkow, Michael: »Thematic Content Analysis Using Supervised Machine Learning. An Empirical Evaluation Using German Online News«, in: Quality & Quantity 47/2, 2013, S. 761-773. Scharkow, Michael, und Jens Vogelgesang: »Measuring the Public Agenda Using Search Engine Queries«, in: International Journal of Public Opinion Research 23/1, 2011, S. 104-113. Schrodt, Philip A.: »Automated Production of High-volume, Near-real-time Political Event Data«, Paper presented at the 2010 American Political Science As-
Merja Mahrt/Michael Scharkow: Der Wert von Big Data für die Erforschung digitaler Medien
sociation meeting, Washington 2010. http://polmeth.wustl.edu/media/Paper/ SchrodtEventDataAPSA10.pdf. Thelwall, Mike, Kevan Buckley, Georgios Paltoglou, Di Cai und Arvid Kappas: »Sentiment Strength Detection in Short Informal Text«, in: Journal of the American Society for Information Science and Technology 61/12, 2010, S. 25442558. Utz, Sonja: »Using Automated ›Field Notes‹ to Observe the Behavior of Online Subjects«, in: Samuel D. Gosling und John A. Johnson (Hg.), Advanced Methods for Conducting Online Behavioral Research, Washington: American Psychological Association 2010, S. 91-108. Vogt, W. Paul, Dianne C. Gardner und Lynne M. Haeffele: When to Use What Research Design, New York: Guilford 2012. Welker, Martin, Carsten Wünsch, Saskia Böcking, Annekatrin Bock, Anne Friedemann, Martin Herbers, Holger Isermann, Thomas Knieper, Stefan Meier, Christian Pentzold und Eva Johanna Schweitzer: »Die Online-Inhaltsanalyse: Methodische Herausforderung, aber ohne Alternative«, in: Martin Welker und Carsten Wünsch (Hg.), Die Online-Inhaltsanalyse. Forschungsobjekt Internet, Köln: Halem 2010, S. 9-30. Xifra, Jordi, und, Francesc Grau: »Nanoblogging PR: The Discourse on Public Relations in Twitter«, in: Public Relations Review 36/2, 2010, S. 171-174. Yanovitzky, Itzhak, und Kathryn Greene: »Quantitative Methods and Causal Inference in Media Effects Research«, in: Robin L. Nabi und Mary Beth Oliver (Hg.), The Sage Handbook of Media Processes and Effects, Los Angeles: Sage 2009, S. 35-52. Zheleva, Elena, und Lise Getoor: »To join or not to join: The illusion of privacy in social networks with mixed public and private user profiles«, in: Proceedings of the 18th international conference on World Wide Web, WWW ’09, New York: ACM 2009, S.531-540.http://linqs.cs.umd.edu/basilic/web/Publications/2009/zheleva:www 09/fp660-zheleva.pdf. Zimmer, Michael: »›But the Data Is Already Public‹: On the Ethics of Research in Facebook«, in: Ethics and Information Technology 12/4, 2010, S. 313-325.
237
Twitter und Wahlen Zwischen 140 Zeichen und Milliarden von Tweets Katrin Weller
1. E inleitung Forscher aus verschiedenen wissenschaftlichen Disziplinen beschäftigen sich seit einigen Jahren zunehmend mit Social-Media-Diensten wie Facebook, YouTube und Twitter. Man kann möglicherweise von einem sich neu formierenden Feld der Social-Media-Forschung ausgehen, teilweise spricht man gar von spezifischen Unterbereichen wie Twitter-Forschung und Facebook-Forschung, bezogen auf einen aktuellen Kanon von Untersuchungen zu Eigenschaften und Nutzung der jeweiligen Plattform. Eine solche Bezeichnung täuscht aber eine Geschlossenheit des Forschungsfeldes vor, die es so derzeit noch nicht gibt. Forschung zu Social-Media-Diensten oder basierend auf Social-Media-Daten findet derzeit vielmehr in den einzelnen Fachbereichen und mit ganz unterschiedlichen Fragestellungen statt (Williams et al., 2013). Aufgrund der verschiedenen disziplinspezifischen Hintergründe werden dabei auch unterschiedlichste Methoden angewandt, beispielsweise computergestützte Netzwerkanalysen und Sentiment Analysen auf der einen und qualitative und quantitative Befragungen und Experimente auf der anderen Seite. So vielfältig wie die Methoden und die beteiligten Forschungsrichtungen scheinen auch die Versuche einer Verortung der neuen Disziplinen zu sein. Man spricht zuweilen von Digital Methods (Rogers, 2013), von Web Social Science (Ackland, 2013), Computational Social Science (Lazer et al., 2009) oder auch Web Science (Hendler et al., 2008), mit jeweils leicht unterschiedlichen Akzentuierungen. Zudem beginnt aber aktuell auch eine Meta-Diskussion über Vergleichbarkeit von Ansätzen (Bruns, 2013; Giglietto et al., 2012; Karpf, 2012; Williams et al., 2013a) sowie um übergreifende Fragen bezüglich Forschungsethik in neuen Kontexten von Social Media (boyd/Crawford, 2012; Puschmann und Burgess, 2014; Zimmer und Proferes, 2014; Zimmer/Proferes im Druck). Twitter erfreut sich als Studienobjekt einer besonderen Beliebtheit. Seit der ersten wissenschaftlichen Publikation über Twitter in 2007 nehmen die Veröffent-
240
3. Digitale Methoden
lichungen rasant zu (Zimmer und Proferes im Druck). Obwohl Facebook weitaus höhere Nutzerzahlen aufweist als Twitter (Bitkom, 2013), gibt es in etwa gleich viele Publikationen über beide Dienste (verglichen anhand der in Scopus gelisteten Publikationen, die Twitter bzw. Facebook in Titel, Keywords oder Abstract nennen). Mit mehr als 230 Millionen Nutzern (darunter auch zahlreiche Prominente, Politiker, Journalisten, Unternehmen und Organisationen) und mehr als 500 Millionen veröffentlichten Tweets pro Tag (Zahlen Stand Februar 2014, siehe Twitter 2014) stellt Twitter eine stetig wachsende Datenbasis für tagesaktuelle Kommunikation bereit, die Wissenschaftler in verschiedenen Bereichen zu neuen Fragestellungen inspirieren. Twitter ermöglicht durch die Application Programming Interfaces (APIs, siehe https://dev.twitter.com/), dass Kommunikations- und Nutzungsdaten von Dritten abgerufen werden können. Dies dient aus Twitters Sicht vor allem dazu, App-Entwicklern eine Schnittstelle für den Datenaustausch zu bieten. Dahinter steckt vor allem die Motivation, den eigenen Dienst weiter zu verbreiten und neue Nutzer zu gewinnen. Obwohl sie nicht ursprünglich dafür gedacht sind, machen aber auch Wissenschaftler für ihre Zwecke Gebrauch von diesen Schnittstellen und sammeln Daten für verschiedene Analysezwecke. Möglich ist beispielsweise das Sammeln von Tweets, die ein vorgegebenes Wort bzw. einen Hashtag enthalten oder die von ausgewählten Nutzern veröffentlicht wurden. Ein gewisses technisches Verständnis ist Voraussetzung, um Twitter-Daten zu sammeln, unter Umständen kann man jedoch auch bereits auf kostenpflichtige Drittanbieter zurückgreifen und den eigenen Aufwand reduzieren (Gaffney und Puschmann, 2014). Welchen Weg man auch wählt, der Datenzugang hat bei Twitter immer seine eigenen Grenzen und Einschränkungen. Arbeitet man selbst mit den Twitter-APIs oder darauf basierenden Tools, sind die wichtigsten Einschränkungen: 1. Über Suchwörter und Hashtags kann nur auf relativ aktuelle Tweets zugegriffen werden, die nicht älter als ein paar Tage sind. Das bedeutet auch, dass man bereits im Voraus genau wissen muss, welche Art Daten man abrufen möchte. Bei vorab geplanten Ereignissen wie etwa Wahlen und Sport-Großereignissen ist das vorausschauend machbar. Will man jedoch heute im Nachhinein wissen, wie sich Betroffene während der Flutkatastrophe in Japan im März 2011 über Twitter vernetzt haben, so geht das über die API nicht nachträglich. 2. Das Volumen der abruf baren Tweets wird durch Twitter begrenzt (Morstatter et al., 2013). 3. Und die Nutzungsbedingungen der APIs sowie ihre technischen Möglichkeiten können sich jederzeit ändern (Twitter, 2012), man muss also damit rechnen, dass sich bei langfristigen Datenerhebungen die Abruf bedingungen ändern können. Hierdurch ergeben sich auch Probleme bei der Vergleichbarkeit verschiedener Datensätze. Nutzt man vorgefertigte Programme, die ebenfalls auf die Twitter API zugreifen (beispielsweise YourTwapperKeeper), kommt mitunter ein weiterer Nachteil hinzu: Nicht immer sind die Prozesse, die hier bei der Datensammlung ablaufen, voll transparent. Bei allen Methoden, die auf das Einsammeln von Tweets in (na-
Katrin Weller: Twitter und Wahlen: Zwischen 140 Zeichen und Milliarden von Tweets
hezu) Echtzeit setzen, können zudem Serverausfälle oder andere technische Störungen zu Datenverlust führen. Ein Zugriff auf das Gesamtvolumen aller Tweets von 2006 bis heute (sogenannte historische Twitter-Daten) ist bislang nur über von Twitter lizensierte Drittanbieter (aktuell Gnip und DataSift) oder mit Hilfe spezieller Ausnahmegenehmigungen durch Twitter möglich. Bei Gnip setzt sich dabei der Preis anhand des abgefragten Zeitraums sowie des Datenvolumens zusammen, für Universitäten und andere Forschungseinrichtungen sind dabei mitunter nicht nur die Preise ein Hindernis, sondern auch, dass die erhaltenen Rohdaten nicht weitergegeben werden dürfen und dass Fragen zur Privatsphäre der Nutzer nicht immer klar sind. Eventuell bahnen sich für Wissenschaftler künftig neue Zugangswege an. Jüngst erst veröffentlichte Twitter eine Ausschreibung für eine Art Daten-Stipendium, auf die sich Wissenschaftler mit ihren Projekten bewerben können (Krikorian, 2014). Schon etwas länger gibt es ein Abkommen von Twitter mit der Library of Congress, die alle Tweets dauerhaft archiviert, jedoch bislang ohne diese auch wieder zugänglich zu machen (Libary of Congress, 2013). Nicht nur technische Herausforderungen sind bei der Arbeit mit Twitter-Daten zu berücksichtigen, sondern vor allem auch konzeptionelle. Dabei geht es um die Frage, welche Schlüsse aus Social-Media-Daten generell und aus Twitter-Daten im Speziellen gezogen werden können. Inwiefern eignen sich beispielsweise TwitterDaten als Ergänzung zu Umfragen und anderen klassischen Forschungsmethoden? Zu berücksichtigen ist dabei zunächst, dass Twitter-Nutzer kein repräsentatives Sample der Bevölkerung darstellen. Man kann also generell davon ausgehen, dass Aussagen anhand von Twitter-Daten eben vor allem als Spiegel einer bestimmten Zielgruppe gelten. Aber auch in diesem eingeschränkten Rahmen und wenn man ausschließlich Aussagen über Kommunikation innerhalb von Twitter machen möchte, gilt es weiter zu beachten, dass man anhand der Methode der Datenerhebung wiederum bestimmte Gewichtungen vornimmt. Sammelt man beispielsweise nur Tweets, die ein bestimmtes Hashtag enthalten, so schließt man möglicherweise weniger erfahrene Nutzer, die noch nicht im Umgang mit Hashtags geübt sind, ebenso aus, wie Unter-Gruppierungen, die zum gleichen Thema ein anderes Hashtag nutzen. Einheitliche Standards für die Stichprobenziehungen fehlen hier ebenso wie ein umfassendes Verständnis davon, warum Nutzer bestimmte Verhaltensweisen an den Tag legen. Obwohl etwa kaum erforscht ist, was Twitter-Nutzer motiviert, bestimmten Accounts zu ›folgen‹, werden Follower-Zahlen regelmäßig als Maßeinheit für Popularität herangezogen. Und auch die Bedeutung von Retweets und @-Messages kann je nach Kontext variieren. Die Vielfalt der Forschungsansätze und Nutzungsszenarien erschwert hier teilweise übergreifende Vergleiche und Vereinheitlichungen. Trotz dieser und weiterer Schwierigkeiten werden die auf verschiedenem Wege über die Twitter-APIs gewonnenen Daten bereits für eine Reihe von Forschungsfragen genutzt – so etwa für die Untersuchung von politischen Krisen (Gaffney,
241
242
3. Digitale Methoden
2010) oder Naturkatastrophen (Bruns und Burgess 2012; Vieweg et al., 2010), aber auch für Einblicke in Populärkulturen, etwa beim Kommunikationsverhalten von Fans (Bruns et al., 2014) oder für die Nutzung von Twitter als Begleitmedium für andere Medienformate, etwa als »TV backchannel« (Hermida, 2010). Aber nicht alle, die sich mit Twitter wissenschaftlich beschäftigen, tun dies basierend auf den API-Datenzugängen und nicht alle Forschungsprojekte setzen auf möglichst große Datensätze. Auch im kleinen Maßstab lassen sich Erkenntnisse über Nutzungsverhalten gewinnen, ethnografische und qualitative Herangehensweisen sind ebenfalls möglich (Marwick, 2014). Das Spektrum der wissenschaftlichen Fragestellungen bestimmt hier auch das Spektrum der herangezogenen Daten und Methoden (Weller et al., 2014). Sowohl Williams et al. (2013a und 2013b) als auch Zimmer und Proferes (im Druck) haben erste umfangreiche Analysen wissenschaftlicher Publikationen vorgenommen, um den Stand der Twitter-Forschung zu erfassen. Williams et al. (2013a) identifizierten hierfür über 1100 Veröffentlichungen über Twitter aus verschiedenen Disziplinen, deren Abstracts sie jeweils auswerteten, was zu einem besonders breit angelegten Überblick führte. Zimmer und Proferes (im Druck) gehen hingegen etwas mehr in die Tiefe und betrachten über 380 Publikationen im Detail, um unter anderem die Größe der verwendeten Datensätze und den Umgang mit forschungsethischen Fragen zu untersuchen. Williams et al. (2013b) warfen schließlich einen noch engeren Blick auf die Twitter-Forschung, indem sie gezielt nur Studien aus dem Bereich der Medizin und eng verwandter Disziplinen vergleichend auswerteten. Weller (im Druck) untersucht vielzitierte Publikationen im Bereich Sozialwissenschaften. Über Twitter-Forschung in anderen Disziplinen ist hingegen noch sehr wenig vergleichendes bekannt. Dieser Beitrag orientiert sich methodisch an den genannten Meta-Studien, setzt den Rahmen aber wiederum etwas enger. Im Fokus stehen ganz konkret Studien, die mit Twitter-Daten im Kontext von Wahlen arbeiten. Innerhalb der Twitter-basierten Forschung bilden Wahlen einen der Haupt-Anwendungsfälle. Ziel dieses Beitrags ist es, in diesem populären, aber relativ gut abgrenzbaren Anwendungsbereich den aktuellen Forschungsstand detailliert abzubilden; und zwar nicht bezogen auf die erzielten Forschungsergebnisse, sondern bezüglich der angewandten Forschungsmethoden. Im Fokus steht dabei ein Blick auf das aktuelle Forschungsumfeld sowie auf das Spektrum der untersuchten Wahlereignisse und die zu Grunde liegenden Datensätze.
2. M e thode der D atenerhebung : B ibliome trie Die Bibliometrie ist eine in der Informationswissenschaft verbreitete Methode, die sich mit der Vermessung wissenschaftlicher Kommunikation befasst (Borgman, 1990). Im Wesentlichen werden Verfahren zur Analyse von Publikationen
Katrin Weller: Twitter und Wahlen: Zwischen 140 Zeichen und Milliarden von Tweets
und Zitationen (Garfield, 1983; Smith, 1981; Stock, 1985) vorgenommen, beispielsweise um die Entwicklung eines Forschungsfeldes zu beschreiben oder um den Einfluss verschiedener Autoren nachzuvollziehen. Traditionell werden für bibliometrische Studien die Datenbanken von Thomson Scientific (basierend auf dem von Eugene Garfield entwickelten Institute for Scientific Information, ISI) herangezogen. Die jeweils fachspezifischen Produkte ›Science Citation Index‹, ›Social Science Citation Index‹, ›Arts & Humanities Index‹ und die ›ISI Proceedings‹ sind dabei in dem Produkt ›Web of Science‹ vereint (WoS, http://thomsonreuters.com/thomson-reuters-web-of-science/) abrufbar (Stock und Stock, 2008). Als Alternative und Ergänzung zum Web of Science hat sich mittlerweile Elseviers Datenbank ›Scopus‹ etabliert (www.scopus.com/). Sowohl Web of Science als auch Scopus sind kommerzielle Angebote. Beide variieren in Art und Abdeckungsgrad der enthaltenen Publikationen. WoS umfasst Publikationen aus über 12.000, Scopus aus über 20.000 wissenschaftlichen Zeitschriften (die jeweils bestimmte Qualitätskriterien, u.a. beim Begutachtungsverfahren, erfüllen müssen). Auch Konferenz-Proceedings sind in unterschiedlichem Umfang enthalten. Bücher sind hingegen unterrepräsentiert, ebenso wie nicht-englischsprachige Veröffentlichungen. Dabei unterscheiden sich die beiden Anbieter nicht nur bei den jeweils enthaltenen Publikationsnachweisen, sondern entsprechend auch bei der Zitationszählung. Wegen der unterschiedlichen Abdeckung empfiehlt es sich, für bibliometrische Studien beide Datenbanken in Kombination zu verwenden. Mitunter wird noch die kostenfreie Datenbank Google Scholar als geeignete Ergänzung hinzugezogen (Levine-Clark und Gil, 2009; Meho und Yang, 2007). Allerdings muss man dabei wegen fehlender Qualitätssicherung der Datenbasis auf Ballast und formale Fehler (z.B. Identifikation von Autoren) in Kauf nehmen. Für die vorliegende Studie wurden daher gezielt nur WoS und Scopus verwendet. Beide Datenbanken wurden am 10. Januar 2014 abgerufen. Da es gelegentlich zu Verzögerungen bei der Erfassung von neuen Publikationen kommen kann, ist es möglich, dass die Publikationszahlen für 2013 noch weiter steigen. Ebenso ist klar, dass zum Zeitpunkt der Datenerhebung nur wenig bis keine Zitationszahlen speziell für die in 2013 veröffentlichten Publikationen vorliegen können. Gesucht wurde nach Publikationen, die sich mit Twitter im Kontext von Wahlen befassen. Dabei wurde zunächst breiter gesucht und die Trefferliste anschließend manuell verfeinert, so dass abschließend nur solche Publikationen berücksichtigt wurden, in denen aus Twitter gewonnene Datensätze zu konkreten Wahlereignissen gesammelt und ausgewertet wurden. Dazu zählen sowohl Wahlen auf nationaler Ebene wie auch auf anderen Ebenen (z.B. Landtagswahl, EU-Parlament). Nicht alle Publikationen beziehen sich ausschließlich auf Twitter-Daten, es können auch andere Daten in Kombination genutzt worden sein. Die Suchanfrage bei Web of Science lautete: Topic=(twitter OR microblog* OR tweet*) AND Topic=(election* OR elector* OR president* or parliament*); bei Scopus analog: (TITLE-ABS-KEY(twitter OR microblog* OR tweet*) AND TI-
243
244
3. Digitale Methoden
TLE-ABS-KEY(election* OR elector* OR president* OR parliament*)). Auf diese Weise wurden alle Treffer ermittelt, die sowohl Worte mit Bezug zu Twitter (twitter, microblog* oder tweet*) sowie einen Bezug zu Wahlen (election*, elector*, president* oder parliament*) in Beitragstitel, Schlagworten oder Abstract enthalten. Wegen der Trunkierung einzelner Suchworte (d.h. dort, wo ein * gesetzt ist, können weitere Buchstaben folgen), war mit einem gewissen Ballast bei den Suchergebnissen zu rechnen. Die genannten Suchanfragen ergaben zunächst bei WoS 69 Treffer und bei Scopus 206 Treffer. Basierend auf den Abstracts der Beiträge wurden nun manuell irrelevante Treffer entfernt. Als irrelevant galten Publikationen, die zwar den Namen ›Twitter‹ enthalten, aber nicht mit Twitter-Daten arbeiten, genauso wie solche, in denen zwar das Wort ›election‹ vorkommt, es aber nicht um eine wahlbezogene Fallstudie ging (beispielsweise solche, die zwar politische Themen, aber keine Wahl betreffen, oft durch das Auftreten von ›post-election‹ im Abstract gefunden). So wurden Publikationen ausgeschlossen, die Twitter Beispiele für Kommunikationskanäle im Wahlkampf nennen, aber sich nicht näher darauf beziehen, oder die Wahlen als mögliche Szenarien für Twitter-Forschung nennen, dann aber mit anderen Daten arbeiten. Auch Publikationen, in denen Umfragen zum Thema Twitter-Nutzung im Kontext von Wahlen ausgewertet, aber nicht zusätzlich mit aus Twitter gewonnenen Daten gearbeitet wurde, wurden entfernt. Ebenfalls gelöscht wurden Treffer, die sich nicht auf einzelne Beiträge beziehen (z.B. Beschreibungen von Proceedings) sowie Treffer mit weniger als zwei Seiten Länge (Nachrichtenbeiträge) und solche, bei denen als Artikel-Typ ›short survey‹ angegeben war (Review-Beiträge). Übrig blieben nach dieser Daten-Bereinigung 37 Publikationen aus Web of Science und 102 aus Scopus. 34 Publikationen kamen in beiden Datenbanken vor, so dass nach einer Zusammenführung der Ergebnisse und nach der Dublettenentfernung 105 Publikationen übrig blieben. Dieser Datensatz von 105 Publikationen bildet die Grundlage für die Bestandsaufnahme in Abschnitt 3. In einem nächsten Schritt wurden zusätzlich die insgesamt 49 Publikationen aus 2013 (und damit 47 Prozent aller Publikationen) inhaltlich ausgewertet. Dabei wurden verschiedene Dimensionen wie etwa die Größe der verwendeten Datensätze, die Datenquelle, Kriterien für die Datensammlung und weitere intellektuell erfasst und codiert. Die Ergebnisse werden in Abschnitt 4 zusammengefasst.
3. W ahlbezogene Twit ter -S tudien : eine B estandsaufnahme Die erste wahlbezogene Twitter-Studie finden wir im Jahr 2009. Die Zahl der Studien steigt zunächst nur schwach, springt jedoch von 2009 auf 2010 sprunghaft von 4 auf 23 an (Tabelle 1). Den nächsten großen Anstieg erfahren wir von 2012 auf 2013. Insgesamt entstand fast die Hälfte aller bisherigen Twitter-WahlStudien im vergangenen Jahr 2013. Es sei noch einmal darauf hingewiesen, dass
Katrin Weller: Twitter und Wahlen: Zwischen 140 Zeichen und Milliarden von Tweets
mit Hilfe von Scopus und Web of Science natürlich nicht alle verfügbaren Publikationen zum Themenbereich erfasst sind, sondern vor allem solche, die in hochgewerteten Journals erschienen sind – die tatsächlichen Zahlen liegen also insgesamt höher. Weiter kann es vorkommen, dass aufgrund Disziplin-spezifischer Besonderheiten im Publikationsverhalten einzelne Disziplinen bevorzugt werden, wenn ihre Publikationsorgane in WoS und Scopus stärker vertreten sind. Bei den vorliegenden Publikationen handelt es sich jeweils etwa zur Hälfte um Zeitschriftenbeiträge und Konferenzbeiträge. Jahr
Anzahl Publikationen
2009
1
2010
4
2011
23
2012
28
2013
49
Gesamt
105
Tabelle 1: Verteilung der Publikationen nach Publikationsjahren
Als Nächstes wurden die Publikationen nach Ländern sortiert. Dabei galt jeweils das Land, in dem sich die Institution des Erstautors einer Publikation befindet (Tabelle 2). Auffällig ist hierbei eine starke Dominanz US-amerikanischer Forschungsinstitute. Ebenfalls auffällig ist , dass sich die Publikationsaktivität über eine breite Menge an Forschungsinstitutionen verteilt. Insgesamt stammen die Beiträge von 86 Institutionen aus 26 Ländern, wobei elf Institutionen für mehr als eine Publikation den Erstautor stellen (da die Co-Autoren hier nicht ausgewertet wurden, ist davon auszugehen, dass insgesamt noch weitere Länder und Institutionen beteiligt sind). Auch innerhalb der USA sind die Publikationen über viele Institute verteilt. Das zeigt, dass es sich bei dem Thema nicht um ein Nischen-Interesse handelt, sondern dass es bereits von einer breiten Forschungscommunity aufgenommen wird. Berücksichtigen wir, dass die vorliegenden Publikationen alle aus den letzten fünf Jahren stammen und dass bis zur Publikation einige Zeit vergehen kann, so ist davon auszugehen, dass viele der Forschungsprojekte über weite Teile parallel und unabhängig voneinander entstanden sind. Einen tiefergehenden methodischen Austausch kann man daher beim aktuellen Stand kaum erwarten. Vielmehr liegt nahe, dass sich ebenfalls parallel unterschiedliche Untersuchungsansätze und Fragestellungen entwickelt haben. Auch die Zitationszahlen lassen dies vermuten: Ein Großteil der Publikationen ist bislang wenig oder gar nicht zitiert worden (in Abbildung 1 wurden Publikationen aus 2013 bereits ausgelassen, da diese bislang kaum hätten zitiert werden können). Ein Austausch auf methodischer Ebene wird erst mit zunehmender Rezeptionszeit der parallel erscheinenden Literatur möglich sein.
245
246
3. Digitale Methoden Institution (des Erstautors) Land (der Anzahl Institution des der PubliErstautors) kationen USA 32 Rutgers University University of California, Los Angeles Wellesley College American University, Washington Indiana University, Bloomington Stanford University Tulane University University of Wisconsin, Madison Harvard University, Cambridge City University, New York Drexel University Mercyhurst University Appalachian State University University of Southern Mississippi, Hattiesburg University of Arizona West Virginia University Raytheon BBN Technologies Boston University University of Missouri University of Georgia University of California, Berkeley University of North Carolina at Greensboro University of Minnesota, Minneapolis University of Texas in Austin University of Michigan New Mexico Institute of Mining and Technology San Diego State University Germany 9 Technische Universität München University of Münster University of Bamberg University of Applied Sciences, Rosenheim Spain 6 Universidad Politécnica de Madrid Universidad de Sevilla University of Oviedo Universidad de CastillaLa Mancha Barcelona Media Yahoo Research, Barcelona Australia 6 University of Technology, Sydney University of Sydney Queensland University of Technology University of Canberra
Anzahl der Publikationen 1 1 4 1 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
3 3 2 1 1 1 1 1 1 1 1 1 3 1
Katrin Weller: Twitter und Wahlen: Zwischen 140 Zeichen und Milliarden von Tweets Netherlands
6
Norway
4
France
4
South Korea
4
England
3
Scotland
3
Brazil
3
Singapore
3
Sweden
3
Canada
3
Mexico
2
Italy
2
Switzerland
2
China
2
Qatar
1
University of Twente, Enschede Radboud University, Nijmegen University of Groningen University of Agder University of Oslo University of Bergen Montpellier Laboratory of Informatics, Robotics and Microelectronics (LIRMM) INRIA ESIGETEL Kyung Hee University SK Planet YeungNam University Yonsei University, Seoul University of London, Egham University of Sheffield University of Kent Robert Gordon University, Aberdeen Universidade Federal De Minas Gerais Universidade Federal do Rio Grande do Sul Universidade Federal do Paraná Singapore Management University Nanyang Technological University, Singapore National University of Singapore Uppsala University Stockholm University Mount Allison University Ryerson University, Toronto National Research Council Canada Universidad Autónoma del Estado de Mexico Universidad Autónoma Metropolitana Cuajimalpa Università di Urbino Carlo Bo University of Bologna Universtiy of Zürich Universität St. Gallen Chinese University of Hong Kong Hong Kong University of Science and Technology Qatar Computing Research Institute
1 4 1 1 2 1 1 2 1 1 1 1 1 1 1 1 3 1 1 1 1 1 1 2 1 1 1 1 1 1 1 1 1 1 1 1 1
247
248
3. Digitale Methoden Czech Republic Chile
1
Masarykovej Univerzity, Brne
1
1
University of Chile
1
Taiwan
1
Latvia
1
Commerce Development Research Institute University of Latvia, Riga
1 1
Romania
1
India
1
n.a.
1
Politehnica University of Bucharest Mudra Institute of Communications (MICA) n.a.
1 1 1
Tabelle 2: Verteilung der Publikationen nach Ländern und Institutionen
Abbildung 1: Verteilung der Publikationen vor 2013 nach Zitationen
Einzelne Publikationen werden jedoch bereits jetzt schon stark rezipiert. Die mit Abstand meisten Zitationen, nämlich 99 bei Scopus, entfallen auf eine Publikation von Tumasjan, Sprenger, Sandner und Welpe aus dem Jahr 2010, die ein Verfahren zur Wahlvorhersage mit Twitter-Daten vorstellt, das kontrovers diskutiert wurde (Tumasjan et al., 2010).
4. V ergleich der Twit ter -S tudien Mit Wahlvorhersagen basierend auf Twitter-Daten befassen sich insgesamt sieben der 49 detailliert ausgewerteten Studien aus dem Jahr 2013. Gayo-Avello (2013)
Katrin Weller: Twitter und Wahlen: Zwischen 140 Zeichen und Milliarden von Tweets
legte bereits eine Meta-Studie zum Thema Wahlvorhersagen auf Twitter vor. Hier zeigt sich, dass angewandte Methoden vielfältig sind, es jedoch kein sicheres Verfahren gibt, dass verlässliche Vorhersagen ermöglicht. In dieser Arbeit wurden nun auch andere Zusammenhänge von Twitter und Wahlereignissen berücksichtigt. Alle in 2013 erschienenen Publikationen unseres Datensatzes wurden von der Autorin aufmerksam gelesen und bezüglich verschiedener Kriterien codiert. Im Vordergrund stand dabei die Frage, inwiefern die Studien mit vergleichbaren Datensätzen – insbesondere in Bezug auf die Datenerhebung und den Umfang der Daten – arbeiten. Zunächst wollen wir jedoch betrachten, mit welchen Wahlen sich die Studien insgesamt befassen.
Untersuchungsgegenstand: Um welche Wahlen geht es? In den 49 Studien werden Wahlen aus 20 verschiedenen Ländern sowie eine Europawahl untersucht. Darunter befinden sich sowohl Wahlen auf Länderebene als auch in untergeordneten Regionen (z.B. US-Staaten, deutsche Bundesländer). Insgesamt handelt es sich um 37 Wahlereignisse. In den meisten Fällen wird in einer Studie genau eine Wahl betrachtet, in fünf Fällen werden Daten zu je zwei Wahlen, in drei Fällen zu je drei Wahlen und in zwei Fällen zu vier verschiedenen Wahlen erhoben. In einem Fall wurden Daten zu einer Wahl erhoben und mit von den Autoren bereits früher beschriebenen Daten der Vorgängerwahl verglichen. In ganzen 22 Publikationen geht es um Wahlen in den USA, davon in 17 um die Präsidentschaftswahl 2012. Damit liegen die USA weit vor allen anderen Nationen was die Abdeckung anbelangt, ganz ähnlich wie bei den Institutionen der Autoren (in gut zwei Drittel der Fälle ist das Land der betrachteten Wahl identisch mit dem Land der Institution des Erstautors). Auf Platz zwei folgen abgeschlagen Deutschland und Südkorea mit je vier Publikationen, gefolgt vom Vereinigten Königreich Großbritannien und Nordirland mit dreien. Mit jeweils noch zwei Publikationen sind Australien, Frankreich, Dänemark, Norwegen und die Niederlande vertreten. Tabelle 3 zeigt im Überblick, welche Wahlereignisse in den betrachteten Publikationen untersucht wurden. Die meisten in 2013 erschienenen Publikationen befassen sich demnach mit Wahlen aus den Jahren 2010 (11 Wahlereignisse) und 2011 (14 Wahlereignisse), was in erster Linie Rückschlüsse darauf zulässt, wie lange es dauert, entsprechende Ergebnisse in hochwertigen Journals zu publizieren. Eine Publikation befasst sich bereits in 2013 mit drei Wahlen aus dem Jahr 2013.
249
250
3. Digitale Methoden Year of election 2008
40th Canadian General Election
Canada
No. of papers (2013) 1
2009
Europe
1
07.06.2009
2009
European Parliament election, 2009 German federal election, 2009
Germany
2
27.09.2009
2010
2010 UK general election
4
06.05.2010
2010
1
02.06.2010
2010
South Korean local elections, 2010 Dutch general election, 2010
United Kingdom South Korea Netherlands
2
09.06.2010
2010
Australian federal election, 2010
Australia
1
21.08.2010
2010
Swedish general election, 2010
Sweden
1
19.09.2010
2010
4
02.11.2010
2010
Midterm elections/United USA States House of Representatives elections, 2010 Gubernational elections: Georgia USA
1
02.11.2010
2010
Gubernational elections: Ohio
USA
1
02.11.2010
2010
Gubernational elections: Rhode Island Gubernational elections: Vermont 2010 superintendent elections
USA
1
02.11.2010
USA
1
02.11.2010
South Korea
1
17.12.2010
Germany
1
27.03.2011
Germany
1
27.03.2011
Scotland
1
05.05.2011
Singapore
1
07.05.2011
2010 2010 2011 2011 2011 2011 2011
Name of election
Baden-Württemberg state election, 2011 Rhineland-Palatinate state election, 2011 Scottish parliament election 2011 Singapore’s 16th parliamentary General Election Norwegian local elections, 2011
Country/ region
Date of election 14.10.2008
Norway
2
12.09.2011
2011 Danish parliamentary election Berlin state election, 2011
Denmark
2
15.09.2011
Germany
2
18.09.2011
USA
1
04.10.2011
USA
1
22.10.2011
2011
Gubernational elections: West Virginia Gubernational elections: Louisiana Swiss federal election, 2011
Switzerland
1
23.10.2011
2011
2011 Seoul mayoral elections
South Korea
1
26.10.2011
2011 2011 2011 2011
2011
Gubernational eletions: Kentucky USA
1
08.11.2011
2011
Gubernational elections: Mississippi
1
08.11.2011
USA
Katrin Weller: Twitter und Wahlen: Zwischen 140 Zeichen und Milliarden von Tweets 2011
Spanish national election 2011
Spain
1
20.11.2011
2012
Queensland State election
Australia
1
24.03.2012
2012
1
11.04.2012
2012
South Korean legislative election, South Korea 2012 French presidential election, 2012 France
2
22.04.2012
2012
Mexican general election, 2012
1
01.07.2012
2012
United States presidential USA election, 2012/United States House of Representatives elections, 2012 South Korean presidential South Korea election, 2012 Ecuadorian general election, 2013 Ecuador
17
06.11.2012
2
19.12.2012
1
17.02.2013
Venezuelan presidential election, Venezuela 2013 Paraguayan general election, 2013 Paraguay
1
14.04.2013
1
21.04.2013
2012 2013 2013 2013
Mexico
Tabelle 3: Übersicht der untersuchten Wahlereignisse, sortiert nach Wahldatum
Datenzugang Betrachten wir nun, wie die Daten für die Wahlstudien zustande kommen und stellen wir uns dabei zunächst die Frage, welche Quellen für den Datenzugang genannt wurden (Tabelle 4). Nicht alle Autoren beschreiben exakt, auf welche Weise sie ihre Daten erhalten haben. Es gibt in elf Fällen keine Angaben, die genaue Schlüsse auf die Datenquelle zulassen. Auch in den anderen Fällen sind die Informationen unterschiedlich detailliert. Oft wird ganz allgemein angegeben, dass die Twitter API verwendet wurde, ohne dies näher auszuführen. Andere beschreiben hier deutlich genauer, welche Art Programm sie selbst geschrieben haben, um auf welche spezielle API zuzugreifen. In drei Fällen wurde mit Daten von Gnip bzw. Datasift gearbeitet. Einmal gaben die Autoren an, mit dem Twitter Gardenhouse gearbeitet zu haben, bei dem das Datenlimit höher liegt als bei normalen API-Abfragen. Nähere Angaben fehlen dazu. Nicht ganz unüblich ist auch noch das manuelle Abfragen der Twitter-Website, wobei mitunter Tweets mit Copy-and-Paste-Verfahren in ein Textverarbeitungsprogramm kopiert oder Screenshots von Nutzerprofilen gesammelt werden.
251
252
3. Digitale Methoden Datenquelle
Anzahl
Keine Angabe
11
Manuelle Datensammlung auf der Twitter-Website (Copy-Paste/Screenshot) Twitter API (one näheren Angaben)
6
Twitter Search API
3
Twitter Streaming API
1
Twitter Rest API
1
8
Twitter API user timeline
1
Selbstgeschriebenes Programm mit Zugriff auf Twitter APIs
4
Twitter Gardenhose
1
Offizielle Reseller (Gnip, DataSift)
3
YourTwapperKeeper
3
Andere Drittanbieter (z.B. Topsy)
6
Von Kooperationspartner erhalten
1
Tabelle 4: Übersicht über die Zugriffswege auf Twitter-Daten
Auffällig ist, dass fast alle Autoren ihre Daten selbst erhoben haben; nur in einem Fall wurde angegeben, dass die Daten von einem Kooperationspartner zusammengestellt wurden. Ein Austausch von Datensätzen findet hier kaum statt (und ist wegen der Twitter-Nutzungsbedingungen auch nur schwer möglich). Umso wichtiger wären vergleichbare Rahmenbedingungen bei den einzelnen Datenerhebungen, aber auch das ist bisher nicht gegeben, wie wir im Folgenden sehen werden.
Beobachtungszeitraum Für die Datensammlung werden unterschiedlichste Zeiträume angesetzt. Das Spektrum reicht von einzelnen Stunden während der TV-Übertragung einer Wahldebatte bis hin zu zehn Monaten (Tabelle 5). Nicht immer wird der Zeitraum mit exakten Datumsangaben beschrieben, manchmal fehlen Informationen zum Zeitraum komplett. In der Regel werden Zeitspannen vor dem eigentlichen Wahltermin gewählt, oft bis einschließlich des Tages, an dem die Wahl stattfindet. In 17 der Fälle wurde die Datensammlung aber auch etwas über die Wahl hinaus fortgeführt, einmal wurden gar nur Daten nach der Wahl betrachtet.
Katrin Weller: Twitter und Wahlen: Zwischen 140 Zeichen und Milliarden von Tweets Zeitraum
Anzahl Publikationen (2013)
0-10 Stunden
1
1-2 Tage
6
3-7 Tage
3
8-14 Tage
5
2-4 Wochen
7
1-2 Monate
13
2-6 Monate
5
7-12 Monate
3
mehr als 12 Monate
0
keine/ungenaue Angabe
6
Tabelle 5: Zeitraum der Datensammlung
Art und Größe der Datensätze Die Größe eines Twitter-basierten Datensatzes wird in der Regel mit der Anzahl der enthaltenen Tweets angegeben, ggf. ergänzt um die Angabe, von wie vielen verschiedenen Nutzer-Accounts diese Tweets stammen. Schon allein auf Grund der unterschiedlichen Erhebungszeiträume liegt nahe, dass die Größe der Datensätze sehr verschieden ausfallen kann. Noch entscheidender ist jedoch, dass verschiedenste Kriterien zur Datensammlung dienen können. In den betrachteten Fällen sind das in der Regel entweder (a) ein oder mehrere Hashtags (beispielsweise ein Kürzel, dass sich auf die Wahl bezieht, wie z.B. #election2012); (b) ein oder mehrere Keywords, die im Tweet-Text vorkommen sollen (z.B. die Namen der beteiligten Parteien oder Kandidaten); und (c) alle Tweets die von oder an bestimmte Nutzer-Accounts gesendet wurden (z.B. die Twitter-Accounts der Kandidaten oder Parteien). In sieben Fällen setzen die Autoren bei der Datensammlung ausschließlich auf Hashtags. In zehn Fällen werden Tweets gesammelt, die bestimmte Keywords enthalten, wobei es sich fast immer um mehr oder weniger umfangreiche Listen von Kandidaten- oder Partei-Namen in verschiedenen Varianten handelt. 19 Studien fokussieren sich auf Nutzer-bezogene Daten und sammeln Tweets von ausgewählten Nutzern, manchmal auch zusätzlich an diese Nutzer gesendete @-Messages. In den übrigen 13 Fällen werden verschiedene Kriterien zur Datensammlung kombiniert. In einem besonderen Fall wurden dabei auch gezielt Tweets mit bestimmten URLs als Datengrundlage gesucht, einmal wurden explizit auch Tweets mit Geo-Codierung verwendet. Werden nur Tweets von bestimmten Accounts gesammelt, so fallen die TweetSammlungen geringer aus. Drei der untersuchten Studien haben überhaupt keine Tweets gesammelt, sondern stützen ihre Studien vielmehr auf Nutzerprofile und Netzwerke. Die Größenordnungen der übrigen Studien fasst Tabelle 6 zusammen. Der größte hier zu beobachtende Datensatz umfasst 13 Milliarden Tweets,
253
254
3. Digitale Methoden
aus denen für die Analyse drei Sets von jeweils rund 400.000.000 Tweets extrahiert wurden. Die größte angegebene Anzahl an einzelnen Nutzer-Accounts innerhalb eines Datensatzes liegt bei 195.945 Nutzern. Andere Studien arbeiten aber sehr wohl mit einer detaillierten Fokussierung auf vier ausgewählte Nutzer. Anzahl der Tweets
Anzahl der Publikationen
0-500
3
501-1.000
4
1.001-5.000
1
5.001-10.000
1
10.001-50.000
7
50.001-100.000
4
100.001-500.000
5
500.001-1.000.000.
3
1.000.001-5.000.000
3
mehr als 5.000.000
3
mehr als 100.000.000
1
mehr als 1.000.000.000
1
keine/ungenaue Angabe
13
Tabelle 6: Größe der Datensätze gemessen an der Anzahl der enthaltenen Tweets
Methodisch unterscheiden sich die Studien weiter darin, ob sie Tweet-Inhalte analysieren (automatisch mit Sprachverarbeitungsprogrammen oder intellektuell codiert), Nutzer-Profile und Nutzer-Netzwerke vermessen, Tweet-Typen unterscheiden oder URLs in Tweets untersuchen. Neben Wahlvorhersagen können auch Verfahren zur automatischen Erkennung von Stimmungen in Tweets (Sentiment Analyse) als wiederkehrende Thematik identifiziert werden. Knapp mehr als die Hälfte der betrachteten Studien (26 von 49) setzen die Twitter-Datensätze mit anderen Daten in Beziehung. Dabei kann es sich sowohl um Wahlprognosen und Wahlergebnisse oder Umfragedaten handeln, als auch um Daten aus anderen Social-Media-Diensten wie Facebook oder Blogs. Forschungsethische Fragestellungen werden in den Texten so gut wie gar nicht angesprochen. Die wenigsten nennen jedoch Nutzernamen, die sich nicht auf Accounts von Politikern, Parteien oder Medienvertretern beziehen, oder zitieren Tweets im Wortlaut. Hier lohnen sich aber vertiefende Betrachtungen in der Zukunft.
Katrin Weller: Twitter und Wahlen: Zwischen 140 Zeichen und Milliarden von Tweets
5. F a zit Studien zum Thema Twitter und Wahlen haben in 2013 gegenüber den Vorjahren deutlich zugenommen. Wir haben in diesem Beitrag einen Blick auf die Forschungslandschaft, die sich mit diesem Thema auseinandersetzt, geworfen und festgestellt, dass die Community zur Zeit noch verteilt ist und wenig Gelegenheit zu methodischem Austausch bzw. Angleichungen hatte. Ein genauer Blick in die 49 Publikationen aus dem Jahr 2013 zeigt die Bandbreite an Wahlen, die bereits mit Hilfe von Twitter-Daten untersucht wurden, sowie die verschiedenen Herangehensweisen bei der Sammlung von Tweets für solche Studien. Big Data Ansätze mit mehreren Millionen bis hin zu Milliarden Tweets spielen dabei genauso eine Rolle wie stark fokussierte Detailstudien mit wenigen ausgewählten Daten. Die Herausforderung für die nächsten Jahre wird sein, beide Ansätze und das breite Spektrum dazwischen zueinander in Beziehung zu setzen und geeignete Wege für den Vergleich zwischen unterschiedlichen Datentypen und Forschungsansätzen zu schaffen.
6. L iter atur Ackland, Robert: Web Social Science: Concepts, data and tools for social scientists in the digital age, Los Angeles: SAGE 2013. Bitkom: »Soziale Netzwerke – dritte, erweiterte Studie«, 2013. www.bitkom.org/ de/publikationen/38338_77778.aspx. boyd, danah, und Kate Crawford: »Critical questions for Big Data: Provocations for a cultural, technological, and scholarly phenomenon«, in: Information, Communication, & Society 5 (15), 2012, S. 662-679. Borgman, Christine L. (Hg.): Scholarly Communication and Bibliometrics, Newbury Park, CA: Sage Publications 1990. Bruns, Axel: »Faster than the speed of print: Reconciling ›big data‹ social media analysis and academic scholarship«, in: First Monday 10 (18), 2013. http://first monday.org/ojs/index.php/fm/article/view/4879. Bruns, Axel, und Jean Burgess: »Local and Global Responses to Disaster: #eqnz and the Christchurch Earthquake«, in: Proceedings of the Australian and New Zealand Disaster Management Conference, Brisbane, 2012. http://anzdmc.com. au/proceedings.pdf. Bruns, Axel, und Stefan Stieglitz: »Quantitative approaches to comparing communication patterns on Twitter«, in: Journal of Technology in Human Services 30 (3-4), 2012, S. 160-185. Bruns, Axel, Katrin Weller und Stephen Harrington: »Twitter and sports: Football fandom in emerging and established markets«, in: Katrin Weller, Axel Bruns, Jean Burgess, Merja Mahrt, und Cornelius Puschmann (Hg.), Twitter and Society, New York et al.: Peter Lang 2014, S. 263-280.
255
256
3. Digitale Methoden
Gaffney, Devin: »#iranElection: Quantifying Online Activism«, in: Proceedings of the Web Science Conference (WebSci10). Extending the Frontiers of Society OnLine, Raleigh, NC, 2010. http://journal.webscience.org/295/. Gaffney, Devin, und Cornelius Puschmann: »Data Collection on Twitter«, in: Katrin Weller, Axel Bruns, Jean Burgess, Merja Mahrt und Cornelius Puschmann (Hg.), Twitter and Society, New York et al.: Peter Lang 2014, S. 55-68. Garfield, Eugene: Citation indexing, its theory and application in science, technology, and humanities, Philadelphia: ISI Press 1983, c1979. Gayo-Avello, Daniel: »A meta-analysis of state-of-the-art electoral prediction from Twitter data«, in: Social Science Computer Review 31 (6), 2013, S. 649-679. Giglietto, Fabio, Luca Rossi und Daniele Bennato: »The open laboratory: Limits and possibilities of using Facebook, Twitter, and YouTube as a research data source«, in: Journal of Technology in Human Services 30 (3-4), 2012, S. 145-159. Hendler, James, Nigel Shadbolt, Wendy Hall, Tim Berners-Lee und Daniel Weitzner: »Web science: An interdisciplinary approach to understanding the web«, in: Communications of the ACM 7 (51), 2008, S. 60-69. Hermida, Alfred: »From TV to Twitter: How ambient news became ambient journalism«, in: Media/Culture Journal 2 (13), 2010. http://ssrn.com/abstract=1732603. Karpf, David: »Social science research methods in internet time«, in: Information, Communication & Society 5 (15), 2012, S. 639-661. Krikorian, Raffi: »Introducing Twitter Data Grants«, Blogbeitrag vom 05.02.2014. Abgerufen am 15. Februar 2014 unter https://blog.twitter.com/2014/introdu cing-twitter-data-grants. Lazer, David, Alex (Sandy) Pentland, Lada Adamic, Sinan Aral, Albert Laszlo Barabasi, Devon Brewer, Nicholas Christakis, Noshir Contractor, James Fowler, Myron Gutmann, Tony Jebara, Gary King, Michael Macy, Deb Roy und Marshall Van Alstyne: »Life in the network: The coming age of computational social science«, in: Science 323 (5915), 2009, S. 721-723. Levine-Clark, Michael, und Esther Gil: »A comparative analysis of social sciences citation tools«, in: Online Information Review 33 (5), 2009, S. 986-996. Leydesdorff, Loet: The Challenge of Scientometrics. The Development, Measurement, and Self-Organization of Scientific Communications, 2nd ed., Parkland: Universal Publishers 2001. Library of Congress: Update on the Twitter Archive at the Library of Congress. Blogbeitrag vom 04.01.2013. Abgerufen am 15. Februar 2014 unter http://blogs.loc.gov/ loc/2013/01/update-on-the-twitter-archive-at-the-library-of-congress/. Marwick, Alice E.: »Ethnographic and Qualitative Research on Twitter«, in: Katrin Weller, Axel Bruns, Jean Burgess, Merja Mahrt und Cornelius Puschmann (Hg.), Twitter and Society, New York et al.: Peter Lang 2014, S. 109-122. Meho, Lokman, und Kiduk Yang: »A new era in citation and bibliometric analyses: Web of Science, Scopus, and Google Scholar«, in: Journal of the American Society for Information Science and Technology 58 (13), 2007, S. 2105-2125.
Katrin Weller: Twitter und Wahlen: Zwischen 140 Zeichen und Milliarden von Tweets
Morstatter, Fred, Jürgen Pfeffer, Huan Liu und Kathleen Carley: »Is the sample good enough? Comparing data from Twitter’s streaming API with Twitter’s firehose«, in: The 7th International Conference on Weblogs and Social Media (ICWSM-13), Boston, MA, 2013. www.public.asu.edu/~fmorstat/paperpdfs/icwsm2013.pdf. Puschmann, Cornelius, und Jean Burgess: »The politics of Twitter data«, in: Katrin Weller, Axel Bruns, Jean Burgess, Merja Mahrt und Cornelius Puschmann (Hg.), Twitter and Society, New York et al.: Peter Lang 2014, S. 43-54. Rogers, Richard: Digital Methods, Cambridge, Massachusetts, London: The MIT Press 2013. Smith, L.G.: »Citation analysis«, in: Library Trends 30, 1981, S. 83-106. Stock, Wolfgang G.: »Die Bedeutung der Zitatenanalyse für die Wissenschaftsforschung«, in: Zeitschrift für allgemeine Wissenschaftstheorie 16, 1985, S. 304-314. Stock, Wolfgang G., und Mechtild Stock: Wissensrepräsentation. Informationen auswerten und bereitstellen, München: Oldenbourg 2008. Tumasjan, Andranik, Timm O. Sprenger, Philipp G. Sandner und Isabell M. Welpe: »Election forecasts with Twitter: How 140 characters reflect the political landscape«, in: Social Science Computer Review 29 (4), 2011, S. 402-418. Twitter: API Terms of Service: Archive. 2012. https://dev.twitter.com/terms/api terms/archive. Twitter: Who’s on Twitter? Abgerufen am 16. Februar 2014 unter https://business. twitter.com/whos-twitter. Vieweg, S., A.L. Hughes, Kate Starbird und L. Palen: »Microblogging during two natural hazards events«, in: CHI 2010 – We are HCI: Conference Proceedings and Extended Abstracts of the 28th Annual CHI Conference on Human Factors in Computing Systems, Atlanta, GA, USA, New York: ACM 2010, S. 1079-1088. Weller, Katrin, Axel Bruns, Jean Burgess, Merja Mahrt und Cornelius Puschmann: Twitter and Society, New York et al.: Peter Lang 2014. Weller, Katrin: »What do we get from Twitter – and what not? A close look at Twitter research in the social sciences«, erscheint in: Knowledge Organization. Williams, Shirley A., Melissa M. Terras und Claire Warwick: »What do people study when they study Twitter? Classifying Twitter related academic papers«, in: Journal of Documentation 69(3), 2013a, S. 384-410. Williams, Shirley A., Melissa M. Terras und Claire Warwick: »How Twitter Is Studied in the Medical Professions: A Classification of Twitter Papers Indexed in PubMed«, in: Med 2.0 2013, 2013b. www.medicine20.com/2013/2/e2/. doi: 10.2196/med20.2269. Zimmer, Michael, und Nicholas Proferes: »Privacy on Twitter, Twitter on privacy«, in: Weller, Katrin, Axel Bruns, Jean Burgess, Merja Mahrt und Cornelius Puschmann (Hg.), Twitter and Society, New York et al.: Peter Lang 2014, S. 169-182. Zimmer, Michael, und Nicholas Proferes: »A topology of Twitter research: Disciplines, methods, and ethics«, in: Aslib Journal of Information Management 3 (66), 2014.
257
From Mind to Document and Back Again Zur Reflexivität von Social-Media-Daten Johannes Paßmann1
»When a measure becomes a target, it ceases to be a good measure.« (C harles G oodhart)
Kann man mit Kennzahlen die Qualität von Mitarbeitern eines Unternehmens messen oder nur deren Anpassungsfähigkeit an Kennzahlen? Findet man in einer Google-Suche die am besten zu den Suchworten passenden Websites oder jene Websites, die die beste Search Engine Optimization betrieben haben? Haben jene Accounts die meisten Follower auf Twitter, für deren Tweets sich die meisten Nutzer interessieren oder jene mit der besten Anwerbungs-Strategie? Die Antwort auf all diese Fragen ist jeweils abhängig davon, welche Fälle, Situationen und Hinsichten man zugrunde legt. Dies ist der Fall, weil Daten, die soziale Sachverhalte darstellen sollen, diese manchmal eher darstellen und manchmal eher transformieren, wobei es stets schwer fällt zu sagen, wann eher dargestellt und wann eher transformiert wird. Hinzu kommt, dass solche Daten Sachverhalte auf verschiedene Weisen transformieren, sodass sich die transformierenden Momente nicht einfach ›herausrechnen‹ lassen. Epistemologisch formuliert heißt das: Diese Daten erzeugen Reflexivität, d.h. es gibt hier einen zirkulären Effekt zwischen Daten und verdateten Sachverhalten. Es handelt sich dabei um ein allgemeines Prinzip, das nicht nur die Branche des Bankers und Ökonomen Charles Goodhart prägt, sondern auch Wissenschaft, Politik und nicht zuletzt Daten von Social-Media-Plattformen. In welcher Menge diese Daten vorliegen, ist für die Wirksamkeit dieses Prinzips vollkommen egal. Sie müssen dabei noch nicht einmal als Zielvorgaben ausgeben werden, wie es in oben zitiertem Goodhart’s Law erwähnt wird. Es reicht, dass sie Akteuren zugerechnet werden und diese ein Bewusstsein davon haben können. 1 | Ich danke für die hilfreiche Kritik beim Verfassen des Aufsatzes sehr herzlich Ehler Voss, Jörg Döring, Cornelius Schubert, Carolin Gerlitz, Matthias Meiler und Erhard Schüttpelz.
260
3. Digitale Methoden
Ich möchte mit diesem Aufsatz zur Debatte stellen, inwiefern Re fle xi v i tät ›Big-Data-Analysen‹ von Social-Media-Platt for men gleichsam unbrauchbar macht, weil eine solche Analyse implizieren würde, dass man die verschiedenen reflexiven Einflüsse auf die Daten retrospektiv unterscheiden kann. Ich werde die Position vertreten, dass die gesteigerte Verfügbarkeit immer größerer Datenmengen epistemologische Fragen aufwirft, die diese Daten nicht nutzlos, sondern hilfsbedürftig machen. Qualitative, situierte Medienforschung kann diese Hilfe leisten und liefert daher nicht nur geeignete Quellen für Datenkritik, sondern bringt so erst die epistemischen Mehrwerte von ›Big Data‹ zutage. Die Risiken dieses Phänomens liegen dabei allerdings gar nicht so sehr darin, dass wissenschaftliche Arbeiten Erkenntnisse versäumen, wenn sie sich zu sehr auf eine reflexiv itätssensible Datenform stützen. Viel gefährlicher erscheint die Möglichkeit, dass staatliche oder ökonomische Akteure sie als Grundlage wichtiger Entscheidungen nutzen und auf Basis schlechter Daten Krankenversicher ungen verweigern, Bankkonten sperren oder Bürgerrechte verletzen.
1. D aten 2 — eine verführerische M e tapher »Wie lässt sich nun auf der Basis von Daten, die (automatisch) durch Software erhoben werden, Nutzungsforschung neu denken?« lautet Richard Rogers’ zentrale Frage in seiner Amsterdamer Antrittsvorlesung »Das Ende des Virtuellen. Digitale Methoden« (Rogers, 2011, S. 63). Seine Antwort: Indem man »dem Medium folgt« und »anhand der Nutzung des Internets kulturelle Veränderungen und gesellschaftliche Sachverhalte« diagnostiziert, statt die Nutzung selbst zu erforschen: »Das Internet wird dabei zum Ort der Erforschung von viel mehr als bloß der Onlinekultur.« (Ebd., S. 64) Dabei bezieht er sich – größtenteils abgrenzend – auf zwei Arbeiten von Lev Manovich sowie auf den Aufsatz »Computational Social Science« von David Lazer et al. (2009) in Science. Im Unterschied zu Rogers’ Ansatz basiert der Aufsatz von Lazer et al. auf der szientistischen Annahme, solche Daten erlaubten eine Emanzipation von den ihrer Ansicht nach offenbar zu unwissenschaftlichen qualitativen Methoden: »To date, research on human interactions has relied mainly on one-time, self-reported data on relationships.« (Ebd., S. 722) Dank der Digitalisierung sei es nun allerdings möglich, »[…] to capture a complete record of indiv idual behavior […]« (ebd.), denn »[…] social network Web sites offer a unique opportu-
2 | Ich befasse mich in diesem Aufsatz nur mit Nutzungsdaten, deren Produktion ein Bewusstsein von Nutzern über die Tatsache ihrer Produktion ermöglicht. D.h. z.B. Daten, die etwa durch Trojaner erzeugt oder gesammelt werden, sind von den hier dargestellten Ausführungen nur insoweit betroffen, als ein Nutzer annehmen kann, dass sein Rechner von einem Trojaner befallen ist.
Johannes Paßmann: From Mind to Document and Back Again
nity to understand the impact of a person’s position in the network on everything from their tastes to their moods to their health […]« (ebd.). Neben den vielen offensichtlichen Differenzen, die es zwischen Digital Methods und Computational Social Science gibt, teilen Rogers und Lazer et al. also die für ihre Methoden fundamentale Annahme, dass man von den Daten aus, die Social-Media-Plattformen erzeugen, neue Einsichten in menschliches Verhalten bzw. soziale Sachverhalte jenseits dieser Plattformen bzw. ihrer Software erlangen kann. Es soll zwar nicht in Abrede gestellt werden, dass es sich bei solchen Daten um fruchtbare Quellen für das Studium sozialer oder gesellschaftlicher Sachverhalte handeln kann. Beiden Ansichten – der von Lazer et al. mehr als der von Rogers – fehlen aber Überlegungen zu der Frage, inwieweit die Erzeugung solcher Daten mit einer Reflexivität einhergeht, die solche Verwendungen begrenzt. Im Unterschied zu eher unkritischen Positionen wie der von Lazer et al. findet man zwar auch bei Rogers datenkritische Überlegungen, wenn er von »Medienspezifität« (Rogers, 2011, S. 65) spricht. Dabei gehe es darum, die »ontologische Unterscheidbarkeit« verschiedener Medien »ernst zu nehmen« (ebd.), d.h. »den spezifischen Umgang des Mediums mit diesen Objekten zu untersuchen und somit die Methode von dem Medium zu lernen« (ebd., S. 66). Die Losung lautet daher, »›dem Medium (zu) folgen‹ (statt es zu fixieren)« (ebd., S. 65). Nach einer Reflexion über die Prozesse, die der Nutzer-seitigen3 Produktion von Daten zugrunde liegen (die eben nicht mit Medien in eins fallen, sondern sich erst in einem kontingenten Zusammenspiel mit Medientechnik ergeben) und welche reflexiven Schleifen die Tatsache und Sichtbarkeit dieser Produktion erzeugen, sucht man aber zumindest in diesem Manifest der Digital Methods vergebens. Der Begriff der Daten scheint so – in verschiedenen Maßen – seine wörtliche Bedeutung als Gegebenheiten wieder einzulösen: Bei Lazer et al. (und insbesondere den entsprechenden Populärdiskursen) erscheint diese Haltung relativ deutlich und fundamental, daher ist dies letztlich die Position, die dieser Aufsatz kritisiert. Darüber hinaus kann man aber die Frage stellen, ob »›dem Medium (zu) folgen‹ (statt es zu fixieren)« nicht bedeutet, dass man dadurch die Nutzerpraktiken fixiert und somit einen positivistischen Datenbegriff nur in viele kleine Versionen seiner selbst zerteilt, statt ihn in Gänze zu kritisieren: Es gibt dann zwar viele verschiedene Medien mit ihren jeweiligen Spezifika, die aber für sich genommen jeweils eine fixe Relation zur Nutzung haben, die man zwar kritisieren kann, die aber eben nicht reflexiv ist, weil es sich stets nur um einen unidirektionalen und nicht schleifenförmigen »Umgang des Mediums mit […] Objekten« handelt und eben nicht gleichzeitig auch um einen Umgang ›der Objekte‹ mit ›dem Medium‹, bzw. um ein Sich-Einstellen auf, Zurate-Ziehen von oder Als-Gegeben-Nehmen
3 | Wenn hier von Nutzern die Rede ist, sind damit Nutzerinnen auch mit gemeint. Dasselbe gilt für alle anderen geschlechtsspezifischen Formulierungen, sofern es nicht explizit anders ausgezeichnet ist: Bei der weiblichen Form ist die männliche mitgemeint et vice versa.
261
262
3. Digitale Methoden
von den phänomenal wahrnehmbaren Sichtbarkeiten ›des Mediums‹, die wiederum Grundlage der Praktiken ›der Objekte‹ mit ›dem Medium‹ werden. Man hat es hier insgesamt mit einem Ungleichgewicht zu tun, das nicht erst mit dem Internet und erst recht nicht erst mit Social-Media-Plattformen aufkam. So zeigt der Medienwissenschaftler Marcus Burkhardt, dass es gleichsam seit Anbeginn mehr oder weniger wissenschaftlicher Diskussionen um Datenbanken eine Tendenz gab, sie lediglich als ein »Reservoir vorhandener Informationen« (Burkhardt, 2012, S. 62) aufzufassen, statt die Genese dieser ›Informationen‹ zu problematisieren, d.h. den Weg »From mind to Document«, wie es in einem Papier des Office of Naval Research aus dem Jahr 1959 heißt, aus dem Burkhardt zitiert. Der erste Schritt des »Kommunikationsprozesses«, den man dort »Data Banking« nennt, lautet: »Gedanken werden in Dokumente übersetzt« (Burkhardt, 2012, S. 60). Burkhardt unterscheidet so zwischen einem Informationsbegriff aus dem Datenbankdiskurs (der eine Affinität zur Metapher der Bibliothek hat) und aus der Nachrichtentechnik (der eine Affinität zur Metapher des Telegraphen hat): Während Information in der Nachr ichtentechnik daran bemessen werde, welche Selektionen der Äußerung einer Nachricht inhärent sind, widme sich der Daten bankdiskurs der Frage, wie man aus einer bereits vorhandenen Menge an gegebenen Informationen die richtige selektiere (vgl. ebd., S. 62). In ähnlicher Weise differenziert Marianne van den Boomen (2014) zwischen drei Gruppen von Metaphern, die nicht nur Technik-Diskurse prägen, sondern sich insbesondere in Software materialisieren (vgl. van den Boomen, 2014, S. 188). An die kittlersche Trias angelehnt – »Es speichert, es überträgt, es rechnet […]« (Kittler, 1986, S. 353) – unterscheidet van den Boomen zwischen »Metaphors of processing«, »Metaphors of transmission« und »Metaphors of storage«, während sie letztere in Container- und Inskriptions-Metaphern unterteilt. Ähnlich wie Burkhardt konstatiert sie: »In other words, the container metaphor reifies and icontologizes the stuff that is supposedly stored in the container […]. Apparently, the old behaviorist communication model of the hypodermic needle is still around in the slipstream of the container metaphor.« (van den Boomen, 2014, S. 97) Container-Metaphern würden allerdings eher für Populärdiskurse oder Geschäftszwecke verwendet. Daneben gebe es Metaphern, die sich für solche Zwecke nicht eigneten, weil ihnen eine immanente Ambivalenz innewohne und die daher nicht so verführerisch für Überlegungen seien, denen es auf Effizienz ankommt: Metaphern der Inskription adressierten stets gleichzeitig Stabilität/Instabilität, Persistenz/Volatilität sowie die Vorstellung des tief prägenden Eingravierens/des oberflächlichen Beschreibens. Versuche man nun mit Inskriptions-Metaphern digitale Phänomene zu analysieren, explodierten die Ambivalenzen geradezu. Aus dem simplen Befüllen eines Containers werde »the plane, the marks, the arrangements, and the chain of translations in between those instances« (ebd., S. 100). Begreift man Datenbanken also nicht als Container oder mit Burkhardts Worten als Reservoirs, sondern als Inskriptionen bzw. als »inscription devices« (Latour und Woolgar, 1979, S. 51), fixiert man den Übergang »from mind to do-
Johannes Paßmann: From Mind to Document and Back Again
cument« nicht stillschweigend, sondern problematisiert ihn als wichtigstes Explanandum: Solche Daten werden dann nicht mehr automatisch durch Software erhoben, wie Rogers schreibt, sondern stellen jedes Mal einen instabilen Prozess dar, der ganz unterschiedliche Ausprägungen haben kann. Man mag hier einwenden, dass gerade dieses Problem für ›Big Data‹ keines sei, weil hier das sogenannte Gesetz der großen Zahl herrsche, das die Kontingenzen der Einzelfälle egalisiere. Dieser Einwand ist nicht unwichtig; man darf dabei aber nicht vergessen, dass nicht nur die Menge der Fälle (bzw. ›die Menge der Daten‹) hochskaliert wird, sondern dass es gleichzeitig auch ›Big Inscriptions‹ gibt, d.h. der Prozess der Inskription selbst und dessen Sichtbarkeit, Prozessierbarkeit und Reflexivität werden ebenfalls hochskaliert: Wenn etwa jeder Twitterer einen Retweet-Counter sieht, ist die darauf sichtbare Zahl eine andere, als wenn niemand oder nur wenige ihn sähen, weil nicht wenige ihre Retweet- aber auch ihre Schreibepraktiken durch die Tatsache, dass sie gemessen werden, ändern. Doch ›speichern‹ wir diese Frage im Hinterkopf, denn ich werde an späterer Stelle darauf zurück kommen.
2. F rom mind to document : R efle xivität möglicher K onsequenzen Der Weg von den Gedanken zum Dokument und zurück wurde bereits von Harold Garfinkel in seinem Aufsatz »›Good‹ organizational reasons for ›bad‹ clinical records« (1967a) kritisiert, wo er beschreibt, wie Krankenhausmitarbeiter prinzipiell ›schlechte‹ Krankenakten führen, weil sie beim Aufschreiben die Möglichkeit mitdenken, dass alles, was sie aufschreiben, in einem Gerichtsverfahren gegen sie verwendet werden könnte: Über mehrere Jahre hinweg hatte Garfinkel zusammen mit Egon Bittner untersucht, nach welchen Kriterien Patienten in die Psychiatrie des Klinikums der University of California in Los Angeles für eine Behandlung ausgewählt wurden. Dafür werteten sie Anfang der 1960er Jahre Krankenakten aus; also Daten, die – ähnlich wie bei Plattformdaten – per Selbstbericht über ein Formular ausgefüllt wurden. Wichtiger als ihre Ergebnisse über Krankenhauspopulationen erscheint im Nachhinein ihr Befund, »[…] dass die Inhalte von Krankengeschichten aus Respekt vor der Möglichkeit gesammelt werden, dass die Therapeut-Patient-Beziehung vielleicht einmal konstruiert werden muss als eine Beziehung, die den Erwartungen sanktionierbarer Leistungen durch Klinikmitarbeiter und Patienten entsprochen hat. Darin liegen die ›guten Gründe‹, ›schlechte‹ Klinikakten herzustellen« (Garfinkel, 2000, S. 111). Je ›schlechter‹, d.h. je ungenauer die Dokumente sind, umso leichter werden sich Ärzte in Zukunft für das rechtfertigen können, was in den Akten steht – wenn es etwa zu einem Gerichtsprozess kommt.4 4 | Die Idee, dass Garfinkels Dokumente einen Nutzen für die Analyse von Social-MediaPraktiken hat, kommt von Tristan Thielmann: »In gleicher Weise könnte man auch einen
263
264
3. Digitale Methoden
Es bedarf nicht viel Phantasie, um sich vorstellen zu können, dass solche prospektiven Reflexionen über spätere, zum Zeitpunkt der Datenerzeugung jedoch denkbare Verwendungskontexte nicht nur bei der Erstellung von Krankenakten eine Rolle spielen, sondern auch bei der Entscheidung, welche Suchanfragen man bei Google eingibt (und welche bei DuckDuckGo), was man auf Facebook postet oder liket oder wessen Tweet man retweetet. Welche Gruppen die möglichen Verwendungskontexte in welcher Weise tatsächlich prospektiv reflektieren, kann dabei sehr divers sein; die vermeidungstaktische Vagheit ist dabei nur eine Möglichkeit von vielen denkbaren konsequenzmotivierten Praktiken: Möglicherweise erhoffen sich manche Nutzer positive Konsequenzen wie finanziellen Reichtum oder Ruhm, möglicherweise verfassen andere deshalb so scharf formulierte Tweets, die vorgeben, sich über das Verhalten eines Politikers zu echauffieren, weil sie hoffen, damit in den Nachrichten zitiert zu werden. Entscheidend ist hier nicht, ob Nutzer nun besonders sparsame oder besonders freigiebige Praktiken verfolgen (bzw. wann sie sparsam und wann sie freigiebig sind). Entscheidend ist, dass sich die Möglichkeit kontingenter Verwendungskontexte in verschiedenen Maßen, Hinsichten und Weisen in die Datenerzeugungspraktiken einschreibt. Gleichzeitig schreiben sich diese Möglichkeiten in die Interfaces selbst ein, etwa indem sie sichtbar machen, wie ›weit‹ es manches Video oder mancher Tweet ›geschafft‹ hat oder indem andere mögliche Konsequenzen unsichtbar gemacht werden, z.B. indem Websitebetreiber den Eindruck erwecken, der Nutzer sei anonym. Dies bedeutet nicht nur, dass es sehr viele verschiedene, situationsbezogene Wege »from Mind to Document« gibt, die mit den vorgestellten oder erfahrenen möglichen Konsequenzen zu tun haben. Es bedeutet auch, dass die Analyse solcher Daten ausschließen können muss, dass ›schlechte‹ Daten im Sinne Garfinkels (d.h. hier nicht immer vage, sondern oft auch besonders explizite Daten) ihre Ergebnisse in Frage stellen. Eine Analyse, die dies nicht für sich behaupten kann, läuft ständig Gefahr, den reflexiven Inskriptionsprozessen auf den Leim zu gehen – etwa indem man glaubt, alle Teile eines Shitstorms repräsentierten notwendigerweise ›Empörung‹, ›Meinungen‹, ›Gefühle‹ oder andere in der Datenbank nur sehr schwierig sichtbare Wertzuschreibungen oder indem man glaubt, Krankenakten seien psychiatrisch akkurate Beschreibungen. Diese Möglichkeit ist ganz und gar nicht ausgeschlossen: Es gibt Krankenakten, die psychiatrisch akkurat beschreiben und es gibt Tweets, von denen man sagen kann, dass Nutzer darin ihre Meinung äußern, genauso wie es Online-Petitionen gibt, deren Inhalte den Unterzeichnern extrem ernst sind. Eine Datenanalyse – egal wie groß Facebook-Account als Dokument auffassen, das sowohl den direkten Austausch zwischen Freunden als auch den indirekten mit dem Plattformb etreiber in einem ›Beziehungskonto‹ ordnet. In beiden Fällen dienen accounts dazu, eine Beziehung zu normalisieren, und nicht dazu, eine dezidierte und eindeutige Beschreibung von etwas zu liefern.« (Thielm ann, 2012, S. 97) Ob es sich dabei aber tatsächlich um Normalisierung handelt (und vor allem: was dies sein soll), ist eine Frage, die man erst noch zu klären hätte.
Johannes Paßmann: From Mind to Document and Back Again
die Datenbank sein mag – muss nur eben angeben können, auf Basis welchen inner- oder außerdatenbanklichen Wissens sie Zuschreibungen vornimmt.5 Der hier beschriebene Prozess verweist also auf eine Reflexion der Tatsache, dass die Nutzer von Dokumenten (i.e. Erzeuger von Daten) zum Zeitpunkt des Ausfüllens nicht wissen können, welche Konsequenzen diese Daten eines Tages haben können – dies natürlich im Falle von Social-Media-Plattformen in ganz anderer Weise als bei der institutionellen Kommunikation in dem von Garfinkel untersuchten Krankenhaus. So können diese möglichen Konsequenzen Gegenstand pessimistischer oder optimistischer Projektion werden. Es ist unmöglich, zum Zeitpunkt der Inskription Kontrolle über zukünftige Kontexte zu erlangen. Diese Kontrolle betrifft als positiv wahrgenommene Konsequenzen, wie auch als negativ wahrgenommene und beide lassen sich nicht voneinander trennen: Die Möglichkeit, einen Toptweet zu schreiben, oder gleich so viele davon, dass man mehrere tausend Follower bekommt, impliziert zunächst einmal, eine ganze Menge an Daten zu erzeugen, deren Zukunft alles andere als kontrollierbar ist.6 Hier liegt in gewisser Hinsicht eine Ausprägung von Reflexivität vor, wie es Beck, Giddens und Lash in Reflexive Modernization (1994) konzeptualisieren. Besonders dicht hat Bruno Latour (2003) diesen Begriff zusammengefasst – dies offenbar so treffend, dass Beck, Bonß und Lau (2003, S. 3) Latours Verdichtung ihrerseits wieder für die Definition von Reflexiv ität verwendet haben. Reflexivität bedeute dort »[…] that the unintended consequences of actions reverberate throughout the whole of society in such a way that they have become intractable. Thus, ›reflexive‹ does not signal an increase in mastery and consciousness, but only a heightened awareness that mastery is impossible and that control over actions is now seen as a complete modernist fiction. In second modernity, we become conscious that consciousness does not mean full control.« (Latour, 2003, S. 36)
Man müsste hier ergänzen, dass dasselbe (oder zumindest etwas ähnliches) auch für intendierte Konsequenzen zutrifft: Ebenso, wie etwa mögliche Rechtfertigun5 | Hierbei darf man nicht vergessen, dass es nur ein verhältnismäßig kleines Problem darstellt, wenn eine medienwissenschaftliche Forschungsarbeit dadurch zu inkorrekten Ergebnissen gelangt. Ungleich problematis cher erscheint, wenn auf diesem Wege Versicherungen, Banken oder staatliche Institutionen auf Basis von ›Big-Data-Analysen‹ vorschnelle Entscheidungen treffen, die weitreichende Konsequenzen für die betroffen en Unternehmen, Individuen oder Gruppen haben. 6 | Dies sagt an dieser Stelle freilich noch nichts über tatsächliche Nutzungspraktiken aus. Ebendies ist ja das Hauptproblem an der Reflexivität: Sie ist keine Mediumspezifität, die eben immer dann wirksam ist, wenn ›das Medium‹ an einer Situation partizipiert. Sie lässt sich daher nicht wie eine Lichtbrechung oder ein Filter herausrechnen, weil ihre Wirksamkeit situat ionsa bhängig ist.
265
266
3. Digitale Methoden
gen nicht vorherzusehen sind, ist es auch nicht möglich, im Vorhinein zu sagen, welches 4chan-Meme, welches YouTube-Video, welches instagram-Bild oder welcher Tweet ›virale Verbreitung‹ finden wird. Wenn Werbeagenturen also ›virales Marketing‹ anbieten, handelt es sich dabei genauso um eine modernistische Fiktion. Diesen Reflexivitätsbegriff von Beck, Giddens und Lash beschreibt der Soziologe Cornelius Schubert als »reflexivity of consequences« (Schubert, 2014, S. 9), die er von zwei weiteren Reflexivitätsbegriffen unterscheidet: der »fundamental reflexivity«, womit er die Möglichkeit bezeichnet, Handlung von Verhalten und Instinkt dadurch zu unterscheiden, dass Selektionen im Lichte ihrer möglichen Alterität betrachtet werden (vgl. ebd., S. 8) und der »reflexivity of social order«, die konzeptualisiert, dass wenn soziale Ordnung sichtbar wird, Akteure sich an den Maßstäben dieser Ordnung ausrichten (vgl. ebd.). Diese letztere Form von Reflexivität scheint geradezu ein Kernmoment sozialer Medien im Besonderen und quantitativer Verdatung von Sozialem im Allgemeinen zu sein: Wenn eingangs gefragt wurde, ob Google-Suchergebnisse die am besten zu den Suchworten passenden Websites anzeigen oder jene Websites, die sich am besten an Google-Algorithmen angepasst haben, handelt es sich bei dieser Anpassung (um die sich eine ganze Industrie entwickelt hat: SEO – Search Engine Optimization), um genau so eine Ordnungsreflexivität.7 Es stellt sich die Frage, welchen Status diese bisher nur theoretisch gebliebenen Überlegungen für Nutzungspraktiken haben können. Im Alltag von Twitter etwa ist die Reflexivität möglicher Konsequenzen nicht nur in seiner Positivausprägung als die Möglichkeit, theoretisch jederzeit einen »Toptweet« schreiben zu können, ein gängiges Thema. Auch deren Negativversion in Form von Überwachung wird dort regelmäßig adressiert, wie etwa der Tweet in Abb. 1 demonstriert: Die Möglichkeit der Verwendung von Daten, die nicht nur mit dem Tweet selbst, sondern auch durch das »Scrobbeln« erzeugt werden, bringt der Autor mit dem Überwachungsdiskurs zusammen, indem er auf die Inkongruenz zwischen der behaupteten positiv bewerteten Rezeption und tatsächlicher Rezeption verweist. Scrobbeln heißt nämlich: Man übermittelt an die Musik-Plattform last.fm die Namen der Musiktitel, die man über andere Dienste, Plattformen oder Geräte wie iPod, Sonos oder Spotify gehört hat, sowie deren Abspiel-Häufigkeit, sodass last. fm sie statistisch auswerten kann. Ich werde an späterer Stelle auf die ironische Brechung des Tweets eingehen. Bis dahin bleibt zunächst einmal zentral: Die bei 7 | Eine von Googles schwierigsten Aufgaben besteht darin, diese Unterscheidung zwischen passenden und ›unlauter‹ angepassten Daten immer wieder herzustellen: So unterscheiden sie etwa zwischen »Black-Hat-SEO« also Suchmaschinenmanipulation, die Google durch schlechtere Platzierung bestraft, wie sie beispielsweise durch künstlich aufgebaute Blognetzwerke betrieben wird, und »White-Hat-SEO« also der von Google als legitim erachteten Optimierung von Websites (vgl. bspw. Weinand, 2013, S. 289ff.).
Johannes Paßmann: From Mind to Document and Back Again
der Datenerzeugung und -übertragung aktualisierte Reflexivität möglicher Konsequenzen prägt die Daten, die er auf Twitter und auf last.fm erzeugt bzw. frei gibt. Dazu passt, was @gebbigibson mir in einem Gespräch zu seiner Nutzung der Scrobble-Funktion mitteilte: »Kindermusik von [nennt den Namen seiner Tochter, JP] scrobble ich zB nicht :)//Oder wenn ich mal Frei.Wild oder Bushido höre, nur um mal zu gucken, worüber da geredet wird :).«8 Eine ihm politisch sehr fern stehende Band wie Frei.Wild taucht also im Datensatz nicht auf, weil er die Möglichkeit, mit dieser Band – in welchem imaginierten Szenario auch immer; ob in einem ›Überwachungsstaat‹ oder vor Twitter-Followern – identifiziert zu werden, ausschließen will.
Abbildung 1: Tweet von @gebbigibson. Screenshot von Twitters Web-Interface (https://twitter.com/GebbiGibson/status/414680633148178432)
3. F rom document to mind : R efle xivität möglicher O rdnung Auf Nachfrage, wieso er seine Daten überhaupt an last.fm übermittele, antwortete @gebbigibson: »[…] ich habe da sozusagen Statistiken über meinen Musikkonsum und werde von denen über//ähnliche Künster [sic!], neue Alben und Konzerttermine informiert.« Er verfolgt damit also das Ziel, erstens für seine Praktiken passende Informationen und zweitens alternative Sichtweisen auf oder Ordnungsvorschläge für seinen Musikkonsum zu erhalten. Er ergänzt, es gebe 8 | Die folgenden Zitate sind aus einem Interview per Direct Message (DM) vom 1. Februar 2014. Der Übergang von einer DM zu einer anderen wird mit//markiert. Ich kenne @gebbigibson seit ca. drei Jahren durch meine Feldforschung für meine Doktorarbeit.
267
268
3. Digitale Methoden
auch Momente, in denen er bemerke, wie die öffentlichen Statistiken über seinen Musikkonsum sein tatsächliches Hörverhalten prägen: Es gibt bei last.fm die von ihm aktivierte Funktion, dass regelmäßig und automatisiert die »Top 3 Artists« eines Nutzers getweetet werden, d.h. seine Twitter-Follower können lesen, welche drei Künstler er in dieser Zeit am häufigsten gehört hat. Dazu sagt er: »Da denke ich manchmal dran und halbbewusst denke ich: ›Du musst mal [was] cooles wegen deines Top3-Tweets hören‹, aber das hat sich gelegt.//Letzte Woche war Neil Diamond(!) auf Platz 1. Das war mir schon beim Hören peinlich, aber ich stehe jetzt halt dazu.//Ich weiß auch genau, dass es Neil Diamond war, kann also nicht cool behaupten, dass es mir [egal] wäre.«
Diese Form der Reflexivität, die sich auf die Sichtbarkeit von Daten über Handlungen und deren Feedback-Effekte auf die Handlungen bezieht, ist nicht immer eindeutig von der Reflexivität möglicher Konsequenzen zu trennen. Die Differenz zwischen beiden verhält sich aber äquivalent zu der, die Schubert zwischen »reflexivity of consequences« und »reflexivity of social order« einführt. Bei letzterer geht es laut Schubert vor allem um die Frage der Reproduktion sozialer Ordnung: »strategically placed actors seek reflexively to regulate the overall conditions of system reproduction.« (Giddens, 1984, S. 27, zit.n. Schubert, 2014) Im Falle der Reflexivität möglicher Ordnung sind zwei Aspekte unterschiedlich. Erstens einmal handelt es sich nicht notwendigerweise um soziale Ordnung, sondern auch um ›rein individuumsbezogene‹ Ordnung. Man wird argumentieren können, dass es solche a-sozialen Formen von Ordnung nicht gibt und dann kann man anführen, dass @gebbigibson oben sagt, dass es ihm zwar ›vor ihm selbst‹ peinlich war, Neil Diamond zu hören, dass dieses Gefühl der Peinlichkeit aber vor allem vor dem Hintergrund der Tatsache entstand, dass z.B. seine Twitter-Follower von seiner Diamond-Rezeption erfahren würden. Das ist zwar richtig, würde aber den Blick von einer ganzen Menge an Phänomenen weglenken, die mit diesem Begriff erfasst werden sollen, aber denen das Moment sozialer Ordnung nur sehr indirekt inhär iert. Eine Reflexivität möglicher Ordnung beginnt nämlich schon dort, wenn jemand während einer Diät den Gang zur Waage scheut, weil er befürchtet, er könne von seinen ›eigenen Leistungen‹ enttäuscht sein oder sich ständig wiegt, weil er sich des Erfolges gewiss ist usw. Kurzum: Es geht um all jene Phänomene, bei denen die Möglichkeit der Transkription eines Sachverhalts zu wahrnehmbaren Daten (und damit: möglichen individuellen oder sozialen Ordnungen) erstens die Form und Menge der Daten und zweitens den Sachverhalt prägt. Zweitens geht es in vielen Fällen nicht um empirisch vollzogene (sondern nur mögliche) Ordnungen. In den ersten beiden Fällen, die zu Beginn dieses Aufsatzes in den einleitenden Fragen angesprochen wurden, kann man von empirisch vollzogener Ordnung sprechen: Die Google-Rankings weisen z.B. insofern eine besondere empirische Realität auf, als die Veränderung dieser Ordnung Gegen-
Johannes Paßmann: From Mind to Document and Back Again
stand etlicher voll bezahlter Arbeitsplätze in der SEO-Branche ist. Bei den TwitterFollowern wird dies bereits schwieriger zu entscheiden und bei den gescrobbelten oder auf last.fm gehörten Musiktiteln erscheint dies beinahe unmöglich: In welcher sozialen oder persönlichen Ordnung ein hoher Playcount von Neil-DiamondSongs überhaupt ordnungsbildende Realität beanspruchen kann und dann eher einen Abstieg oder eher einen Aufstieg bedeutet, ist alles andere als eindeutig. Im Unterschied zur Reflexivität möglicher Konsequenzen handelt es sich bei dieser Reflexiv itätsform aber um eine, die sich direkt auf sicht- bzw. wahrnehmbare Effekte stützt. Während die Reflexivität möglicher Konsequenzen sich prospektiv an eine unbekannte Zukunft richtet (bzw. an eine unbekannte zukünftige Retrospektive, wie die Frage »warum haben Sie im Januar 2014 41 Mal Frei.Wild gehört? Sind Sie etwa rechtsradikal?« oder »warum haben Sie den Patienten damals nicht in die Psychiatrie aufgenommen? Sind Sie etwa ein schlechter Psychiater?«), richtet sich die Reflexivität möglicher Ordnung retrospektiv an Daten visu ali sierungen oder andere wahrnehmbare Formen von (oft quantitativen) Daten, die zu anderen Daten in Bezug gesetzt werden können aber eben nicht zwangsläufig in einer tatsächlichen sozialen Ordnung münden müssen, sondern im Status der Möglichkeit verbleiben können. Diese Ordnungen können dann wiederum als erfahrene Konsequenzen wahrgenommen werden und so wieder zukünftige Reflexivität möglicher Konsequenzen prägen. Anlässe einer Reflexivität möglicher Ordnung finden sich in Abb. 1 zuhauf: Nicht nur hat der Account @gebbigibson ca. 16.000 Follower. Gleich unter dem Tweet steht auch, dass dieser fünf Mal retweetet und 57 Mal favorisiert (»gefavt«) wurde. Daneben finden sich Avatare der Accounts, die diesen Tweet gefavt haben. Zusätzlich ist ganz unten in Abb. 1 ein Tweet von der Satellitenplattform favstar.fm zu sehen, in dem @gebbigibson dazu gratuliert wird, dass er einen Tweet geschrieben hat, der mehr als 50 mal gefavt wurde. Um diese Satellitenplattform (also eine Plattform, die selbst keine Daten produziert, aber über eine API Daten anderer Plattformen in neue Sichtbarkeiten überführt) hat sich eine in Deutschland sehr große und reichweitenstarke Gruppe entwickelt, deren Kern ich an anderer Stelle Favstar-Sphäre genannt habe (vgl. Paßmann, 2013a; vgl. Paßmann, Boeschoten und Schäfer, 2014; vgl. Paßmann und Gerlitz, 2014). Diese Gruppe und in Abstufungen ihre große Peripherie nutzt den Fav-Button nicht um Tweets zu bookmarken, d.h. abzuspeichern, um auf sie zu einem späteren Zeitpunkt noch einmal zurückzukommen, sondern als routinisierte Gabe, um so akkumulierte Reputation über Favstar und andere Plattformen zu vergleichen und gleichsam einen Sport daraus zu machen, oft gefavte und retweetete Tweets zu schreiben und zu unterstützen (vgl. ebd.; vgl. Jörissen, 2011). In einem quantitativen Vergleich der 450 reichweitenstärksten deutschspra chigen Nutzer (vgl. Paßmann, 2013a; vgl. Paßmann, Boeschoten und Schäfer, 2014) lässt sich dieser Unterschied in den Nutzungspraktiken auf makroskopischer Skala zeigen: In der Favstar-Sphäre wird der Fav-Button bis zu mehrere hundert Mal täglich genutzt (in Einzelfällen sogar bis zu tausende Male) während
269
270
3. Digitale Methoden
andere reichweitenstarke Twitterer ihn nur sehr selten nutzen (vgl. ebd.). Dabei handelt es sich nicht um ein paar wenige Spezialfälle, sondern um zwei unter schiedliche Praktiken, die quer durch das gesamte deutschsprachige (und auch das englisch-, japanisch- und spanischsprachige) Twitter verlaufen und sich nicht nur auf Favs sondern auch auf Nutzungspraktiken anderer Plattformaktivitäten wie Retweets, Hashtags oder Mentions beziehen. Denselben Daten liegen also in großem Stile unterschiedliche Nutzungspraktiken zugrunde, die zwar in der Datenbank aber nicht in der empirischen Wirklichkeit zu vereinheitlichen sind. Diese Unterschiede in der Inskription (und eben nicht automatischen Erfassung) von denselben Daten werden daher nicht notwendig durch ›Big Data‹ egalisiert: Den Daten, die in ›großer Zahl‹ vorliegen, liegen Praktiken zugrunde, deren Heterogenität es ebenso in ›großer Zahl‹ gibt. Dies ist beispielsweise dann möglich, wenn es Satellitenplattformen gibt, die sich jeweils mit den unterschiedlichen Nutzungspraktiken befassen und die Unterschiede zwischen verschiedenen Inskriptionsformen auf diese Weise mit hochskalieren (vgl. Paßmann und Gerlitz, 2014). Damit schaffen sie Bedingungen der Möglichkeit dieser unterschiedlichen Praktiken, indem sie jeweils unter schiedliche Sichtbarkeiten von Daten erzeugen und damit unterschiedliche Formen von Reflexivität möglicher Ordnungen: Für die Frage, wie und ob welche Tweets geschrieben werden, spielt die Möglichkeit, einen 50-, 100- oder 250-FavTweet zu schreiben, eine ganz entscheidende Rolle. Diese Datensichtbarkeit ist in der Favstar-Sphäre so wichtig, dass viele ihrer Mitglieder für die Favstar-BonusFeatures bzw. Pro-Mitgliedschaft, die eine bessere Sichtbarkeit der Daten eigener und fremder Tweets ermöglichen, halbjährlich knapp 30 $ zahlen. Betrachtet man nun ›nur die reinen Daten‹ und wertet die in Abb. 1 dargestellten Zahlen für Retweets und Favs als Ergebnis homogener Zuschreibungen, wird man leicht den Eindruck gewinnen können, dass es eine bestimmte Gruppe von ›Meinungsführern‹ oder ähnlich exponierten Akteuren gibt, deren ›Positionen‹ starke Unterstützung finden. Dies ist nicht notwendigerweise falsch, birgt aber das Risiko, dass man fundamental verschiedene Praktiken gleichsetzt, weil sie in quantifizierter Form gleich erscheinen. Vor solchen Risiken kann man sich schützen, indem man weitere Quellen jenseits der Datenbank zurate zieht. An anderer Stelle (Paßmann, 2013b) habe ich diese Quellen unterteilt in knowledge beyond the data (dazu zählt etwa Wissen aus Feldforschung), knowledge above the data (dazu zählt etwa Wissen über Normalverteilungen) und instrumental knowledge (dazu zählt etwa tacit knowledge über Layout-Algorithmen) (vgl. ebd.; vgl. Paßmann, 2013a). In dieser Kombination treten epistemische Mehrwerte zutage, die diese Daten allein nicht gehabt hätten. Insbesondere durch das knowledge beyond the data werden Datenbanken mit Social-Media-Plattform-Daten so oft gerade dann signi fikant, wenn man nicht (nur), wie Rogers (s.o.) vorschlägt, ›dem Medium‹ folgt, sondern immer auch das Medium entfolgt, um sich stattdessen anderen Akteuren
Johannes Paßmann: From Mind to Document and Back Again
zuzuwenden. Ein Ergebnis der hier dargestellten Überlegungen sollte daher nicht sein, den rogersschen Imperativ abzulösen, sondern ihm einen zweiten hinzuzu fügen, weil die Fährte des Mediums von bestimmten Aspekten, wie insbesondere der Reflexivität, systematisch ablenkt: Einer solchen Fährte des Mediums zu folgen hieße beispielsweise, die Daten, die Twitter über seine Tweets zugänglich macht, als Maßstäbe für die Verbreitung oder Transformation eines Themas zu nehmen: Dabei handelt es sich um den »spezifischen Umgang des Mediums mit diesen Objekten« (Rogers, 2011, S. 66). Genau diese Daten sind aber vor allem auch Ergebnis des Umgangs der Nutzer mit dem Medium: Sie sind nicht nur Maßstäbe, sondern in Goodharts Worten targets. Man weiß daher nie, wann es sich eher um einen Umgang des Mediums mit den Objekten handelt oder eher um einen Umgang der Objekte mit dem Medium. Durch das zusätzliche ›Entfolgen des Mediums‹ steht man dann nicht notwendiger weise auf festerem aber anderem Boden, weil man z.B. nicht den blinden Fleck der Gleichsetzung unterschiedlicher Inskriptionsformen hat, wie Burkhardt (2013) und van den Boomen (2014) es für Datenbankdiskurse einhellig konstatieren, sondern gerade dies zu ihrem wichtigsten Explanans machen. Empirisch darf man zwar davon ausgehen, dass solche alternativen Wissensquellen jenseits der Spur des Mediums immer genutzt werden (dies beginnt spätestens bei der Frage, woher man welche Daten bezieht). Die Frage ist aber, wie viel Aufwand man in die Qualität welcher und in die Ausgeglichenheit aller Wissensquellen investiert, sodass man die verschiedenen Quellen-Aussagen und Quellen-Formen gegeneinander abwägen und miteinander ergänzen kann. Es stellt sich hier die Frage, ob das Problem der Reflexivität von Social-MediaPlattform-Daten dadurch gelöst wäre. Denn man könnte argumentieren: Reflexivität bedeutet, dass der Medienbegriff sich auflöst, weil ›Medium‹ und ›Objekt‹ so eng miteinander verknüpft sind, dass eine Trennung beider nicht dadurch aufrecht zu erhalten ist, dass sich mit den beiden Imperativen gewissermaßen zwei einbeinige Patienten gegenseitig stützen, um hier eine etwas hinkende Metapher zu nutzen.
4. F rom mind (to document) to mind: Ä sthetische R eflexivität Auf einen ebenso wichtigen Aspekt wie die bisher besprochenen Reflexivitätsformen habe ich oben nur ganz kurz verwiesen und versprochen, dass er an späterer Stelle dieses Aufsatzes thematisiert werde: Der Tweet von @gebbigibson hat eine ganz bestimmte ästhetische Form, die alles andere als zufällig ist. Damit schließt er an Konventionen anderer Twitteraccounts bzw. seines eigenen Stils an und damit an eine Ästhetik, die der Existenz eines möglichen Publikums seines Tweets vorausgeht. In der Menge der täglich versendeten Tweets ist der von ihm verfasste Text daher nicht bloß als ›Abbild‹ oder auch nur Bericht von etwas, das er sagen möchte, sondern er orientiert sich an der ästhetischen Form anderer Tweets. Auf
271
272
3. Digitale Methoden
ganz allgemeiner Ebene hat man es also mit etwas zu tun, was Niklas Luhmanns als Anschlussfähigkeit von Kommunikation bezeichnet hat. D.h. sie »muß sich deshalb der Antezipation und der Antezipation von Antezipationen bedienen« (Luhmann, 1987, S. 198). Adressiert man diese Reflexivitätsform auf einer komplexeren Ebene als Luhmann, ist sie eng mit den beiden genannten Reflexiv itätsformen verwandt. Relativ offensichtlich erscheint die Verwandtschaft zur Reflexivität möglicher Ordnung: Wenn gelungener ästhetischer Anschluss (demonstriert durch Favs, Retweets etc.) als Erfolg gerahmt wird – z.B. indem einem von Favstar gratuliert wird, dass man einen 50-Fav-Tweet geschrieben hat – rückt die Orientierung an solcher Zustimmung stärker in den Vordergrund, als dies der relativ neutrale luhmannsche Begriff der Anschlussfähigkeit nahelegt. Es geht hier also nicht nur um »das Zustandekommen von (wie immer schlecht codierter) Kommunikation« (Luhmann, 1987, S. 197), sondern um ästhetischen Anschluss und darüber hinaus um eine normative Bewertung dessen. Die Reflexivität möglicher Ordnung prägt daher die Form ästhetischen Anschlusses, und auf diese Weise wird der ästhetische Anschluss selbst im Vorhinein als mögliche Konsequenz zum Gegenstand von Reflexivität im Sinne eines zirkulären Effekts zwischen anschlussfähig antiziperter (und meist auch erfahrener) Ästhetik und verwendeter Ästhetik. Dass @gebbigibson etwa 16.000 Follower hat, hängt damit zusammen, dass er diese Antizipation be sonders gut beherrscht. Bevor ich diesen Sachverhalt anhand des BeispielTweets demonstriere, wende ich mich zunächst einer weiteren Verbindung zwischen der Ästhetischen Reflexivität und der Reflexivität möglicher Konsequenzen zu. Dafür müssen wir noch einmal zu Garfinkels Krankenakten zur ückkehren. Diese, so Garfinkel, müssen zwischen zwei entgegengesetzten Ansprüchen verhandeln: Einerseits der Pflicht, den medizinischen Sachverhalt zu erfassen, andererseits diese Erfassung so vage zu halten, dass man unter noch nicht bekannten zukünftigen Umständen darlegen können wird, sich im von einem selbst beschriebenen Sachverhalt vertragskonform verhalten zu haben. Garfinkel stellt daher fest, Krankenakten hätten stets eine aktuarielle Dimension als informierende Beschreibung eines Sachverhalts und eine kontraktuelle als Vorwegnah me möglicher zukünftiger Rechtfertigungen (vgl. Garfinkel, 2000, S. 118). Oben wurde bereits erwähnt, dass es bei Social-Web-Phänomenen und bei Twitter insbesondere nicht bloß darum geht, zu vermeiden, für etwas, das man geäußert hat, zur Rechenschaft gezogen zu werden, sondern dass hier (1) positive Konsequenzen wie große Aufmerksamkeit anderer eine wichtige Rolle spielen und dass (2) diese ›positiven‹ und ›negativen‹ Konsequenzen im Widerstreit zueinander stehen (man könnte auch sagen: miteinander kontrahiert werden – man gibt Daten und bekommt möglicherweise Aufmerksamkeit, Informationen, Unterhaltung, Ruhm, Geld, Macht oder Ähnliches). Nun ist diese Form der Negativkonsequenzen als Verlust der informationellen Selbstbestimmung nur eine unter mehreren. Eine andere ist der Entzug von Aufmerksamkeit, der dann eintreten kann, wenn gegen eine andere Art von Kon-
Johannes Paßmann: From Mind to Document and Back Again
trakt verstoßen wird: Erfolgreiche Twitterer haben etwas, das ich implizite Agenda nenne, an der sie ihre Inhalte und Formen gleichsam kontraktuell orientieren, d.h. es gibt eine Art stillschweigenden Kontrakt zwischen einem solchen Account und seinen Followern, bzw. da er letztlich nur auf Erwartungen basiert: zwischen einem Account und jedem seiner Follower. So sagte mir beispielsweise der Betreiber des Accounts @sechsdreinuller (gut 17.000 Follower und extrem reichweitenstark) auf die Frage, ob er sich auch vorstellen könne, seinen Account für politische Zwecke zu nutzen: »Ich hab einmal was von der DKMS [Deutsche Knochenmarkspenderdatei; JP] retweetet, weil mir das extrem wichtig war. Aber ich meine, du weißt, dass sowas richtig Follower kostet […]. Ich denke, unsere Follower folgen uns für die Punchlines, nicht für unsere Privatmeinungen.«9 Dies ist nur eines von vielen Beispielen, die mir während meiner Feldfor schung begegnet sind, an denen deutlich wurde, dass ›erfolgreiche‹ Twitterer deshalb so ›erfolgreich‹ sind, weil sie die Erwartungen ihrer Follower sehr genau antizipieren und so gleichsam eine Liste von Kriterien darüber haben, was mit ihrem Account ›geht‹ und was ›nicht geht‹. Im Falle von @sechsdreinuller heißt das: Er kann z.B. dann politische Sachverhalte adressieren, wenn er es schafft, diesen Sachverhalt in eine Punchline zu überführen. Dies heißt nicht, dass ihm diese Sachverhalte selbst dann ›egal‹ wären. Es heißt nur, dass er an eine bestimmte, für seinen Account spezifische Ästhetik anschließen muss und er deshalb so erfolgreich ist, weil ihm das (ob als tacit knowledge oder als explizites Wissen) bewusst ist. Dieser Kontrakt ist allerdings keiner im engeren Sinne. Er besteht nicht explizit und eine Verletzung des Kontrakts zieht nicht eine Form von materiellen Sanktionen oder Rechenschaft nach sich, so wie dies für die Psychiater aus Garfinkels Krankenakten-Aufsatz der Fall ist. Es handelt sich hierbei vielmehr um eine Kontroll- und damit auch Kontraktform, die nur so lange gilt, wie man an diesem ›Spiel‹ teilnimmt und weiterhin dessen ›positive Bestärkung‹ in Form von Aufmerksamkeit erhalten will – ganz so, wie es Andrew Barry als typisch für das Paradigma der Interaktivität beschrieben hat: »Whereas discipline is direct and authorative, interactivity is intended to turn the user (visitor, school child, citizen or consumer) into a more creative, participative or active subject without the imposition of a direct form of control or the judgement of an expert authority. Discipline implies normalisation; the injunction is ›You must!‹ Interactivity, by contrast, is associated with the expectation of activity; the injunction is ›You may!‹.« (Barry, 2001, S. 149)
Was ist zu der Form zu sagen, in der @gebbigibson offenbar so erfolgreich darin ist, Anschlüsse auf Twitter herzustellen? Hier noch einmal der reine Text: 9 | Eintrag in meinem Feldtagebuch vom 27. Juli 2012. An demselben Tag habe ich mit @ sechsdreinuller in Frankfurt ein Interview geführt.
273
274
3. Digitale Methoden »Manchmal scrobbel ich etwas auf lastfm, obwohl ich eigentlich gar nicht so genau zugehört habe. Ha, eat this, Überwachungsstaat!«
Tweets, die scheinbar eigenartiges, mitunter deviantes Verhalten beschreiben, leiten oft mit »manchmal« ein. Indem »manchmal« und kein anderes Temporalad verb, wie z.B. »neulich« verwendet wird, erhebt man die Devianz von einem Einzelfall auf ein grundsätzliches Verhalten: »Manchmal« beschreibt im Gegensatz zu »neulich«, »heute« oder »gerade eben« einen regelmäßigen Vorgang. Daraus entsteht eine Spannung, in der eine grundsätzlich ambivalente Persönlichkeitsbe schreibung zutage tritt, die bei anderen Temporaladverbien nicht gegeben wäre, wie die Substitutionsprobe zeigt: »Gerade habe ich etwas auf lastfm gescrobbelt, obwohl ich gar nicht so genau zugehört habe. Ha, eat this, Überwachungsstaat!«. Die Komik anderer so verfasster Tweets funktioniert ähnlich: • »Manchmal sitze ich im Büro und denke: ›Krass, ich sitze in einem Büro. Wie so ein richtiger Erwachsener.‹« (110 Retweets, 352 Favs)10 • »›Setzen Sie sich manchmal gemeinnützig ein?‹ ›Klar! Gerade eben habe ich im Supermarkt lautstark die Öffnung einer zweiten Kasse gefordert.‹« (14 Retweets, 145 Favs)11 »›ICH WILL NICHT BRATAPFEL-MANGO-LITSCHI, ICH WILL EINFACH NUR BIRNE!‹ Manchmal geht es mit mir vor dem Joghurt-Regal durch.« (9 Retweets, 155 Favs)12 • »In seinem Profil schließlich steht als sein Motto: ›Manchmal denke ich, das ist gar kein Hip-Hop, was wir hier machen.‹«13
»Heute saß ich im Büro und dachte: ›Krass, ich sitze in einem Büro. Wie so ein richtiger Erwachsener‹« hat in seiner Singularität nicht das Anschlusspotenzial der Identifikation zwischen Sachverhaltsbeschreibung und Autor, die das »Manchmal« erzeugt. Man würde als Leser möglicherweise denken, dass er sich von diesem Ausnahmefall »heute« distanziert. Dieses deviante Verhalten steht dabei in einer Spannung zu ›normalem‹ oder ›wünschenswertem‹ Verhalten: Man sollte eigentlich erwachsen sein, bemerkt aber manchmal, dass man noch sehr kindlich ist (Beispiel 1 und Beispiel 3) oder man sollte sich altruistischer verhalten, bemerkt aber oft, dass man sich egoistisch und konsumorientiert verhält (Beispiel 2). Dies teilen die Tweets mit anderen Twitternutzern, die sie durch ihre Retweets und Favs zu einer gemeinschaftlich geteilten machen: »Sind wir nicht alle manchmal so?« Oder: »Haben wir nicht alle ein Problem mit dem Erwachsenwerden?« Diese geteilte Devianz mit einer großen Menge tendenziell eher einem selbst unbekannte Personen macht einen besonderen Reiz des Twitterns aus und reichweitenstarke Twitterer 10 | https://twitter.com/GebbiGibson/status/319744789203517440. 11 | https://twitter.com/GebbiGibson/status/404280185094021120. 12 | https://twitter.com/GebbiGibson/status/409350590058483712. 13 | https://twitter.com/GebbiGibson.
Johannes Paßmann: From Mind to Document and Back Again
wissen (ob still oder explizit), dass sie mit dieser Figur expliziten Anschluss erzeugen können, weil sich auf diese Weise Komik und damit ein retweet- und favorisierungswürdiger Tweet erzeugen lässt. Teilweise birgt dies das Potenzial einer Normalisierung von Devianz. Sie kann deshalb auf Twitter zu einer dominaten Figur werden, weil man mit ihr Reputation akkumulieren kann (die sich in den Daten auf Favstar oder unter den Tweets abbildet). Auf diesem Wege erscheinen die Themen, über die hier so reichweitenstark geschrieben wird, vielmehr als ein Ergebnis der Statistiken, die über sie erzeugt werden (sowie anderer Demonstrationen von gelungenem Anschluss), als andersherum. Was können wir also zur Ambivalenz von Normalität und Devianz in dem Tweet sagen, der Hauptgegenstand dieses Aufsatzes ist? Der Matrixsatz hat zunächst genau diese Form: »Manchmal scrobbel ich etwas auf lastfm, obwohl ich nicht genau zugehört habe«. Heißt das, man sollte eigentlich immer brav twittern was man tut, scrobbeln was man hört und liken was man mag? Dies ist offensichtlich kein einigermaßen verbreiteter Common Sense – im Gegensatz zu Altruismus und Erwachsensein, wenn man Vater zweier Kinder ist. So kippt diese Formulierung schon in ihrem Hauptsatz in Ironie über. Dies ist insbesondere der Fall, weil »obwohl ich nicht genau zugehört habe« die Modalisierung »obwohl ich eigentlich gar nicht so genau zugehört habe« erfährt. Er formuliert es also nicht schnöde als Abweichung von der ohnehin absurden Vorstellung einer indexikalischen, gleichsam automatischen Erfassung von Verhalten durch Plattformaktivitäten. Er formuliert es als ein Geständnis im Sinne von »wenn ich ganz ehrlich bin, habe ich eigentlich doch nicht ganz so genau zugehört«. Die absurde Vorstellung des brav Formulare ausfüllenden Bürgers übersteigert er durch das »genau Zuhören«, das geradezu der Pflicht eines Schülers im Mathematikunterricht entspricht und nicht der alltäglichen Musikrezeption. An diesen Satz schließt er ein pseudo-triumphales »Ha« an, das im Zusammenhang mit dem darauffolgenden Colloquial-Imperativ »eat this« die bislang relativ feinsinnige Ironie14 einem deutlich größeren und flüchtiger lesenden Publikum zugänglich macht. Neben dieser ironischen Gesamtrahmung geschieht 14 | Man kann hier die Frage stellen, ob die Ironie hier eher als Legitimation für irrationales Verhalten dient (man weiß, dass man eigentlich sparsam mit seinen Daten umgehen sollte und das kollektive Geständnis macht dieses ›Handeln wider besseren Wissens‹ geradezu salonfähig) oder ob dies erst die Form ist, in der ein kollektives Bewusstsein über die Irrationalität dieses Verhaltens deutlich wird. Diese Frage ist ebenso wie die nach der Normalisierung des Devianten nicht entscheidbar und muss in ihrer Ambivalenz hingen om men werden. Es kommt nämlich darauf an, wie man die entsprechenden Tweets auffasst; beides ist möglich und darin liegt wohl ihre besondere Popularität. Ähnlich könnte man für das Verfassen dieser Tweets annehmen, dass ein besonderer Reiz in der gleichzeitigen Möglichkeit des Missverstanden-Werdens wie der des tiefen Verständnisses für seine inneren Ambivalenzen liegt.
275
276
3. Digitale Methoden
aber noch etwas anderes: Er tut so, als glaube er die ›Schwachstelle des Systems‹ gefunden zu haben: Das »eat this« prätendiert, er glaube, dass der Staat dies eben nicht fressen und verdauen könne. Damit persifliert er auch sein eigenes Verhalten, das diese absurde Pflicht seiner Ansicht nach eigentlich immer noch viel zu oft wahrnimmt. Die Persiflage ist also eine doppelte: Sie betrifft ihn selbst, dessen Datenpraktiken ›braver‹ sind als sie sein sollten, aber eben auch ›den Überwachungsstaat‹, dessen Daten schlechter sind als er denkt – was freilich nicht unbedingt impliziert, dass er damit ›nichts anfangen‹ kann, sondern ganz im Gegenteil, dass sie zur Grundlage fatal falscher Entscheidungen werden können. Diese Möglichkeit bedenkt @gebbigibson offenbar: Deshalb hat er seine Frei. Wild-Rezeption nicht gescrobbelt. Er weiß eben, dass man in der Datenbank nicht unterscheiden kann zwischen Frei.Wild-Hörern mit Affinität zum Rechtsextremismus und solchen die angehört haben »nur um mal zu gucken, worüber da geredet wird :)«, wie er es oben selbst formuliert hat. Als Selbstironie erscheint all dies aber auch, weil @gebbigibson durch viele seiner vorher igen Tweets zu verstehen gegeben hat, dass er beruflich als ITExperte arbeitet (z.B. »Wenn eine Supportanfrage mit mehr als 3 Fragezeichen abgeschlossen wird, sitzt das Problem IMMER vor dem Bildschirm«15). Dadurch reiht sich der Tweet doch in die drei oben zitierten Manchmal-Beispiele mit ihren Ambivalenzen ein, die man per Tweet mit anderen teilt (und dann per Fav und Retweet signalisiert bekommt »wir sind alle in dieser Ambivalenz«). Diese Einreihung in die Ambivalenz gegenüber dem eigenen Verhalten geschieht auf zwei Ebenen: (1) Man glaubt, man könne ›dem Überwachungsstaat‹ ein Schnippchen schlagen, aber letztlich ist man machtlos. (2) Man müsste eigentlich sparsamer mit seinen Daten umgehen, weil man sich möglicher Negativkonsequenzen bewusst ist, schafft dies aber immer noch viel zu selten. Damit wirft er (3) eine Frage auf, die über die Reichweite dieses Aufsatzes hinaus geht: Bei den Tweet-, Scrobble- und Like-Daten, die eine Reflexivität ermöglichen, handelt es sich möglicherweise tatsächlich um geradezu absurd ›schlechte‹ Daten, weil sie vor allem Spiegelungen ihrer eigenen Existenz sind. Was aber ist mit jenen Daten, die sich dieser Reflexivität entziehen? Können ›der Überwachungsstaat‹ und die Institution, die dieser Begriff konnotiert, diese Daten vielleicht ganz vorzüglich fressen und verdauen? Die Explikation dessen, was Reflexivität ästhetischen Anschlusses bedeutet, hat aber auch noch etwas anderes zutage befördert: Tweets sind oft deshalb so erfolgreich, weil sie gerade nicht einen Sachverhalt abbilden; weder im Sinne von Twitters altem Motto »What are you doing« noch in dem des Mottos, das dieses 2009 abgelöst hat »What’s Happening?«. Die Komik entstand gerade deshalb, weil hier Ambivalenzen abgebildet wurden. Der laut Favstar am meisten gefavte und retweetete deutschsprachige Tweet »aller Zeiten« kommt von @der_hand-
15 | https://twitter.com/GebbiGibson/status/116099367517175811.
Johannes Paßmann: From Mind to Document and Back Again
werk und lautet dementsprechend: »Ich kann total gut Mitmenschen umgehen.«16 (1250 Retweets, 2801 Favs). Prägnanter ist die Ambivalenz zwischen Philanthropie und Misant hropie (im Berufsleben) wohl nicht ausdrückbar. Der Nutzer @gebbigibson thematisiert die Frage nach den Datenpraktiken und ihren Möglichkeiten für Überwachung in der ästhetischen Form, die seiner impliziten Agenda bzw. seinem antizipierten Kontrakt17 entspricht und dies prägt die Daten, die man solchen Praktiken entnehmen kann. Dadurch wird das Phänomen der Ästhetischen Reflexivität im dargestellten Fall von Twitter besser sichtbar (und gleichzeitig auch stärker wirksam), als man dies in vielen anderen Fällen von Social-Media-Plattform-Nutzung konstatieren kann. Ob diesem Nutzer und allen, die diesen Tweet gefavt und retweetet haben, das dabei angesprochene Problem ›ernst‹ ist oder ob es sich ›nur um einen Witz‹ handelt, kann nicht entschieden werden. Mit @gebbigibson selbst habe ich das Thema der Selbstverdatung jedenfalls schon mehrmals besprochen und hatte dabei stets den Eindruck, dass er in diesen Fragen einerseits extrem kompetent ist und sich viele Gedanken über seine Daten macht, er aber auf der anderen Seite auch ein Early Adopter ist, der viele verschiedene Apps und stets neueste Geräte mit 16 | https://twitter.com/der_handwerk/status/53177020699521024. 17 | Da auf Twitter die technischen Unterschiede zwischen den verschiedenen ›Sendern‹ weitgehend wegfallen, könnte man argumentieren, dass sich der alte Unterschied zwischen ›Massenmedien‹ und ›Publikum‹ in solchen Kontrakten fortschreibt, bzw. dass durch die anderen technischen Bedingungen gerade erst sichtbar wird, dass es diesen Kontrakt immer schon gegeben hat, dessen Legitimität aber nur schwierig debattierbar war, weil die technische Infrastruktur diese eigentlich normative Differenz zwischen Massenmedien und Publikum weitgehend verdeckte, indem sie ihr eine technische Differenz überstülpte. Diesen Kontrakten kommt freilich keine explizite Wirklichkeit zu, sondern sie bestehen als sehr unterschiedliche Erwartungen und Erwartungs-Erwartungen. Die erfolgreichen FavstarTwitterer-Accounts nähmen dann in bestimmten Zusammenhängen eine Art massenmedialen Charakters an. Dieser ist allerdings alles andere als klar und oft Gegenstand teils erbittert geführter Aushandlungen. So gibt es etwa in regelmäßigen Abständen Diskussionen über eine »Twitter-Elite«, also eine Gruppe von Accounts mit vielen Followern, die jenen, die nicht zu dieser »Elite« gehören, nicht zurückfolgen. Mit dem Begriff der »Twitter-Elite« werden also eben diese Kontrakte in Frage gestellt – was freilich nur eine Bestätigung ihrer Existenz ist. Dass diese Differenz derart klar debattierbar ist, hat freilich auch damit zu tun, dass es sich Massenmedien nicht nur um technische Infrastrukturen handelt, sondern um Institutionen, d.h. neben technischen und normativen Differenzen zwischen ›Massenmedium‹ und Publikum kommen einige weitere hinzu wie rhetorische, politische, solche in der Ausbildung, des Ethos, der Routinisierung und viele mehr. Entscheidend ist hier die Beobachtung, dass es bei ›One-To-Many-Kommunikation‹ stets einen spezifischen, normativen Kontrakt zwischen Sprecher und Publikumsmitglied gibt, der auch für Nutzer von Social-Media-Plattformen und die von ihnen produzierten Daten gilt – in jeweils verschiedenen Maßen.
277
278
3. Digitale Methoden
ihren technischen Spezifitäten nutzt, deren datenbezogene Konsequenzen alles andere als klar sind. Als ich ihn fragte, ob ich unseren Direct-Message-Dialog für diesen Aufsatz verwenden dürfe, sagte er »Ähm ja. Ich wollte schon immer mal als bedenkenlos naives Lischen Otto Normaluser zitiert werden :)«. Dies fügt sich in obige Interpretation ein: Auch für ihn selbst ist dies ambivalent und das Thema ist ihm ›ernst‹, aber im Verhältnis zu den Vorzügen, die ihm diese Praktiken verschaffen, ›eigentlich auch nicht so ernst‹. Er weiß, dass seine Datenpraktiken eigentlich nach wie vor zu freigiebig sind, er ›reflektierter‹ damit umgehen sollte und sich daher damit abfindet, dass er damit möglicherweise ein gewisses Maß an Konsequenzen in Kauf nimmt – aber ein gewisses Maß eben auch nicht. In genau dieser Ambivalenz beschrieb er sich schließlich auch dort, wo es um die Reflexivität möglicher Ordnung geht (s.o.): Es gebe zwar den Fall, dass die mögliche Ordnung seine Nutzung präge (»halbbewusst denke ich: ›Du musst mal [was] cooles wegen deines Top3-Tweets hören‹«), aber genau dieser Effekt könne eben auch abgeschwächt werden (»aber das hat sich gelegt«), wenngleich er nie ganz verschwindet (»Ich weiß auch genau, dass es Neil Diamond war, kann also nicht cool behaupten, dass es mir [egal] wäre.«). Ebenso ist auch die implizite Agenda keine determinierende Struktur, denn @sechsdreinuller bemerkt ja, dass er den Tweet von der DKMS am Ende eben doch retweetet hat, obwohl es Follower kostet.
5. R efle xivität der K ennz ahlen des G eschäf tsmodells Kommen wir zurück zu der Frage, wie es sich mit den Daten verhält, die sich den diversen Formen von Reflexivität weitgehend entziehen. Denn die Firma Twitter verfügt selbstverständlich nicht nur über die Daten der Favs, Retweets und sonstigen Plattformaktivitäten, die Nutzer per aktivem Klick erzeugen und was eindeutig sichtbar, und über Programmierschnittstellen für jeden zugänglich sind. Twitter hat auch View-Statistiken, d.h. sie können herausfinden, welcher Tweet wie oft auf Endgeräten von Nutzern erschienen ist. Diese waren bislang allerdings nur Werbekunden zugänglich und somit kann man davon ausgehen, dass es sich nicht um ›schlechte Daten‹ handelt, weil sie keine Reflexivität erzeugen können, da die Nutzer von ihrer Existenz wahrscheinlich kein Bewusstsein haben können. Seit Ende März des Jahres 2014 experimentiert Twitter allerdings bei einigen Beta-Usern auch mit View-Statistiken. Solche Beta-Tests macht Twitter (und andere Vertreter der Branche) vor Updates regelmäßig: Eine kleine Gruppe von Nutzern erhält eine Aktualisierung des Interfaces, während bei allen anderen die Softwareoberfläche aussieht, wie immer. Twitter wartet dann die Reaktionen dieser Nutzer ab, um zu entscheiden, ob dieses Update in großem Maßstab für alle Nutzer vorgenommen werden soll. Seit dem 21. März 2014 berichteten einzelne Nutzer, in ihrem Interface würden neben der Anzahl von Favs und Retweets nun
Johannes Paßmann: From Mind to Document and Back Again
auch View-Zahlen angezeigt (siehe Abb. 2) und einige Fachmedien berichteten dar über ebenfalls.18 Ohne Frage würde ein solches Update Twitter und die mit dieser Plattform erzeugten Daten maßgeblich verändern, weil dies eine veränderte Reflexivität in allen in diesem Aufsatz genannten Bereichen nach sich zöge. Die Anzahl der Views wird damit zum »target« und verändert in verschiedenen Maßen die Nutzungspraktiken auf allen möglich Ebenen. Es stellt sich die Frage, wieso Twitter mit diesen Datensichtbarkeiten experimentiert und offenbar ernsthaft in Erwägung zieht, sie von der sicheren Unsichtbarkeit in die Reflexivität zu überführen, wenn dies doch die Daten ›verschlechtert‹. Man könnte einerseits vermuten, dass sie hoffen, dass die Reflexivität dieser Daten zu einer Erhöhung der View-Zahlen führt, weil die gegenseitigen Views gleichsam als Gabe oder ähnliches zwischen den Nutzern verwendet werden. Da View-Zahlen für ein Unternehmen wie Twitter, das seine Umsätze erster Linie aus Werbeeinnahmen rekrutiert, die einzig ›harte Währung‹ sind, könnten sie so aus der Reflexivität dieser ›harten Daten‹ in signifikanter Weise ihren Umsatz erhöhen. Da man sich nicht sicher sein kann, ob diese Reflexivität die Views letztlich erhöht oder senkt, experimentiert man zunächst mit einer Gruppe von Beta-Usern.
Abbildung 2: Tweet von @JasonnD1014 vom 21. März 2014. Screenshot von Twitters Web-Interface (https://twitter.com/JasonnD10 14/status/447018296580120576)
18 | Siehe bspw. www.theverge.com/2014/3/21/5534710/twitter-experimenting-withshowing-how-many-people-saw-your-tweets.
279
280
3. Digitale Methoden
Auf der anderen Seite ist Twitter nicht nur seinen Werbekunden verpflichtet, sondern auch seinen Nutzern, weil sie sonst nichts hätten, was sie an die Werbekunden verkaufen könnten. Insofern könnte ihr Kalkül sein, sich zwar die Daten ›verschlechtern‹ zu lassen, aber im Gegenzug dafür neue oder aktivere Nutzer in Form eines Trade-Offs zwischen Nutzern und Werbekunden zu erkaufen. Denn man könnte argumentieren, dass es sich bei der Erzeugung von Reflexivität (insbesondere Ordnungsreflexivität) um eines der wichtigsten Motive der Twitternutzung handelt. Wenn es bei solchen Plattformen in der Tat im Kern um die Erzeugung von Reflexivität geht, können die Plattformbetreiber freilich gar nicht anders, als Daten zu erzeugen, die mehr über die Tatsache ihrer Erzeugung aussagen, als über das, was sie angeblich messen. Dies allerdings ist für die Plattformbetreiber nicht notwendigerweise ein Konflikt zwischen Datenqualität und Nutzerinteressen: Denn welchen Unterschied macht es für sie, ob die Nutzer ihre Twitter-App geöffnet haben, weil sie wissen wollen, was die anderen schreiben oder ob sie dies z.B. ›nur‹ getan haben, um den anderen den Eindruck zu geben, sie wollten wissen, was sie schreiben, um so ihre Beliebtheit bzw. ihre Followerzahl zu erhöhen? So lange dabei die Werbung auf ihrem Endgerät sichtbar ist, tut dieser Unterschied nichts zur Sache. Denn eine Social-Media-Plattform möchte ja kein ›Abbild der Gesellschaft‹ schaffen und auch für das Leben und die Gedankeninhalte der Nutzer interessiert sie sich nur in sehr begrenztem Maße. Sie möchte noch nicht einmal in erster Linie Werbebotschaften verbreiten. Worauf es ankommt, ist eine Messung, auf die sie sich mit werbetreibenden Unternehmen geeinigt hat: die Views. Gemessenes und Messgegenstand fallen also in eins: Wenn die ›Währung‹ »Views« lautet, verhält es sich dabei wie mit dem Geld, das nicht stinkt und sich so dadurch auszeichnet, dass es seinen spezifischen Kontext verlassen kann, statt ihm referenziell verhaftet zu bleiben. Für die meisten anderen Fragen, die an solche Daten herangetragen werden, ist dies allerdings sehr wohl ein Problem. Twitter erzeugt seine Daten nicht und richtet daran auch nicht sein Design aus, um Forschern, Versicherungen, Banken oder Geheimdiensten zuzuarbeiten. Wenn ihr Geschäftsmodell ist, Views zu verkaufen, ist dies dasjenige was hier die »Medienspezifität« (Rogers, 2011, S. 65) ausmacht. Alle anderen Verwendungskontexte dieser Daten laufen stets Gefahr, dieser Spezifität auf den Leim zu gehen. Ebenso wie die Twitter-Nutzer sich den möglichen Zahlen, die durch ihr Verhalten erzeugt werden anpassen, ebenso wie sich Websitebetreiber den algorithmischen Direktiven Googles anpassen oder wie sich Mitarbeiter eines beliebigen Unternehmens an die Kennzahlen anpassen, nach denen sie evaluiert werden, passen Social-Media-Plattformen ihre Aktivitäten, ihr Design und damit auch ihre Daten an die Maßstäbe an, nach denen sie von ihren Kunden entlohnt werden. Gewissermaßen als Baseline oder auch als Plattform unter den drei genannten Reflexivitätsformen steht also eine Reflexivität der Plattform selbst, die eben nur stets jene Datenformen erzeugt, die die Menge der verkauften Views steigert
Johannes Paßmann: From Mind to Document and Back Again
oder eben irgend eine andere Kennzahl, die für die Messung der Unternehmensziele entscheidend ist.
6. F a zit Am Beispiel Twitters wurden drei interdependente Formen von Reflexivität unterschieden, die Social-Media-Plattform-Daten erzeugen. Dieses Dreieck fußt dabei auf einer vierten Reflexivitätsform, die nicht die Nutzer selbst, sondern die Plattform betrifft und so prägt, welche Daten in welchen Formen überhaupt erzeugt und sichtbar gemacht werden. Bei diesen Reflexivitätsformen handelt es sich nicht um Filter oder Brechungen, die Daten auf kalkulierbare Weise verändern, weil deren Wirksamkeit von ganz heterogenen Umständen geprägt wird. Würde man etwa statt eines Favstar-Twitterati einen beliebigen Facebooknutzer annehmen, würde die Reflexivität möglicher Ordnung möglicherweise eine komplett andere Form annehmen. Vielleicht zählt dann nicht so sehr, wie viele Likes ein Post erhält, sondern ob dieser Post unbeantwortet bleibt oder nicht. Die Reflexivität möglicher Konsequenzen wird sich auch wiederum auf andere Weise auf die Daten auswirken, wenn dieser Nutzer im Gegensatz zu @gebbigibson und @sechsdreinuller einen Klarnamen statt eines Pseudonyms nutzt und ihm seine Aktivitäten viel leichter in anderen Kontexten zugerechnet werden können. Dasselbe gilt für die Ästhetische Reflexivität: Handelt es sich bei seinen Facebook-Kontakten nur um Accounts privater Freunde und was sind seine Erwartungen über deren Humor oder deren Interessen? Welche Privatssphären-Einstellungen hat er vorgenommen, d.h. welche Publika adressiert er? Dieses Dreieck kann deshalb auf alle Formen von Social-Media-Daten angewandt werden, von deren Produktion Nutzer ein Bewusstsein haben können, da ihnen ein Inskriptionsprozess vorausgeht. (1) Diese Dokumente müssen in ihrer Eigenschaft als Speicher Inskriptionsergebnisse wahrnehmbar machen und zwar für mehrere Teilnehmer, d.h. ihnen inhäriert eine mögliche Ordnung, und diese Möglichkeit stellt sich reflexiv aus, insofern das Ausfüllen des Dokuments ein wahrnehmbarer Vorgang ist. Die Hochskalierung dieses Phänomens, Dokumente als Grundlage möglicher Ordnungen zu verwenden, ist ein Hauptprinzip von Social-Media-Plattformen (und darüber hinaus bspw. auch von Suchmaschinen). Es ist also eine Eigenschaft, die für Dokumente grundsätzlich nicht notwendigerweise zentral ist, aber von Social-Media-Plattformen an eine zentrale Stelle gerückt wird. Ohne Zweifel gibt es Nutzungspraktiken und Medientechniken, die dieses Moment in den Hintergrund zu rücken vermögen (wie bspw. @gebbigibson es für seine Neil-Diamond-Rezeption konstatiert) und deren Daten dann auch nur hintergründig von dieser Reflexivität betroffen sind und für eine entsprechende Datenanalyse von geringer Relevanz sind. Man könnte es so als ein
281
282
3. Digitale Methoden
Kernmoment des Social Web bezeichnen, alternative mögliche Ordnungen zu prozessieren – ob sie nun ›virtuell‹, ›real‹ oder ein wenig von beidem sind. (2) Diese Dokumente müssen dadurch gleichzeitig eine Dauerhaftigkeit über einzelne Situationen hinweg haben, d.h. ihnen inhäriert auch die Möglichkeit, in unvorhergesehenen Kontexten verwendet zu werden, und diese Möglichkeit stellen sie reflexiv aus, weil es sich beim Übertragen um einen Kern ihrer Funktionalität handelt. Ohne Zweifel gibt es Dokumente, die kontrafaktisch von sich behaupten, die Nutzer von möglichen Konsequenzen zu befreien. Der dabei betriebene Aufwand (und die dabei immer wieder erfahrene Unmöglichkeit absoluter Sicherheit) unterstreicht die Fundamentalität dieses Prinzips: Allen Dokumenten wohnen unvorhersehbare Konsequenzen inne, und das prägt die Daten, die mit ihnen erzeugt werden. Dies bedeutet nicht, dass die Daten dadurch notwendigerweise vage werden. Twitter oder auch 4chan und YouTube sind Beispiele für das Gegenteil: Dort besteht oft gerade der Reiz darin, Dokumente zu erzeugen, die absolut unerwartbare Konsequenzen zeitigen, wie bspw. dass der eigene Tweet in den Tagesthemen zitiert wird. Man könnte es so als ein Kernmoment des Social Web bezeichnen, aus der Reflexivität möglicher Konsequenzen einen spielähnlichen Vorgang zu machen, bei dem die Spielhaftigkeit dieser Konsequenzen stets in Frage steht. (3) Diese Dokumente müssen 1. eine Bezugnahme anderer Akteure und 2. eine Differenz von anderen Akteursgruppen ermöglichen. Als Notwendigkeit gibt es diesen Anspruch und dessen Reflexivität auf ganz allgemeiner Ebene, wie es Luhmann als Anschlussfähigkeit von Kommunikation thematisiert, aber auch in differenzierteren, spezielleren Formen, wie der Ästhetik von InsiderWitzen eines Freundeskreises oder den Distinktionsformen bestimmter Berufsgruppen. Insbesondere in Hinsicht auf die Ästhetik muss dieser Anschluss nicht immer ›gelingen‹. Aber die Reflexivität der Möglichkeit ›gelungenen‹ oder ›nicht gelungenen‹ ästhetischen Anschlusses ist der Kommunikation über Social-Media-Plattformen inhärent. Man könnte es so als ein Kernmoment des Social Web bezeichnen, gelungene ästhetische Anschlüsse explizit zu machen. Diese Reflexivitätsformen fußen dabei auf einer Bedingung ihrer Möglichkeit, die selbst wiederum Gegenstand von Reflexivität ist: Social-Media-Plattformen sind Gegenstand von Geschäftsmodellen und diese werden nach spezifischen Kennzahlen gemessen, die wiederum eine Reflexivität erzeugen. Welche Daten mit welchen Mitteln überhaupt erzeugt und sichtbar gemacht werden, richtet sich an diesen Kennzahlen aus (und nicht an dem, was sie angeblich messen): Wenn z.B. eine neue Sichtbarkeit bestimmter Daten zur Steigerung der Kennzahl beiträgt, wird dies implementiert und dies wird auf diese Weise wiederum die Nutzerpraktiken und deren Reflexivität prägen.
Johannes Paßmann: From Mind to Document and Back Again
Abbildung 3: Reflexivitätsformen, die Daten von Social-MediaPlattformen inhärent und die zueinander interdependent sind.
Das bedeutet, »Es speichert, es überträgt, es rechnet« (Kittler, 1986, S. 353) nicht nur, ›es‹ macht auch sichtbar, dass es speichert, überträgt (und rechnet) und ästhetischen Anschluss erzeugt. Dies verändert die damit erzeugen Daten in ganz verschiedenem Maß – ein Sachverhalt, den jede ›Big-Data‹-Analyse von SocialMedia-Plattform-Daten zunächst einmal selbst zurechenbar machen muss, wenn sie der Tatsache gerecht werden will, dass man es mit sozialen Sachverhalten zu tun hat, die man nicht einfach ›vermessen‹ kann, weil deren ›Vermessung‹ verschiedene Formen von Reflexivität erzeugt.
L iter atur Barry, Andrew: Political Machines: Governing a Technological Society, London 2001. Beck, Ulrich, Anthony Giddens und Scott Lash: Reflexive Modernization: Politics, Tradition and Aesthetics in the Modern Social Order, Stanford, CA, 1994. Beck, Ulrich, Wolfgang Bonß und Christoph Lau: »The Theory of Reflexive Modernization. Problematic, Hypotheses and Research Programme«, in: Theory, Culture & Society, 20 (2), 2003, S. 1-33. Boomen, van den, Marianne: Transcoding the Digital. How Metaphors Matter in New Media, Amsterdam 2014. Burkhardt, Marcus: »Informationspotenziale. Vom Kommunizieren mit digitalen Datenbanken«, in: Stefan Böhme, Rolf F. Nohr und Serjoscha Wiemer (Hg.), Sortieren, Sammeln, Suchen, Spielen. Die Datenbank als mediale Praxis, Münster, 2012, S. 55-74.
283
284
3. Digitale Methoden
Garfinkel, Harold: »›Good‹ organizational reasons for ›bad‹ clinical records«, in: Ders., Studies in Ethnomethodology, Cambridge, MA, 1967a, S. 186-207. Ders.: »What is ethnomethodology«, in: Ders., Studies in Ethnomethodology, Cambridge, MA, 1967b, S. 1-34. Ders.: »›Gute‹ organisatorische Gründe für ›schlechte‹ Krankenakten«, in: System Familie, 13, 2000, S. 111-122. Jörissen, Benjamin: »Transritualität im Social Web. Performative Gemeinschaften auf Twitter.com«, in: Johannes Billstein et al. (Hg.), Rituale der Kunst – Moyländer Diskurse zu Kunst und Wissenschaft, Oberhausen 2011, S. 75-86. Kittler, Friedrich: Grammophon, Film, Typewriter, Berlin 1986. Langenohl, Andreas: »Zweimal Reflexivität in der gegenwärtigen Sozialwissenschaft: Anmerkungen zu einer nicht geführten Debatte«, in: Forum Qualitative Sozialforschung 10 (2), Art. 9, 2009. Latour, Bruno, und Steve Woolgar: Laboratory Life. The Construction of Scientific Facts, Princeton, NJ, 1979. Latour, Bruno: »Is Re-modernization Occurring – And If So, How to Prove It? A Commentary on Ulrich Beck«, in: Theory, Culture & Society, 20 (2), 2003, S. 35-48. Lazer, David, et al.: »Computational Social Science«, in: Science, 323 (5915), 2009, S. 721-723. Luhmann, Niklas: Soziale Systeme. Grundriß einer allgemeinen Theorie, Frankfurt a.M. 1987 [1984]. Ders.: »Forschungsmedien erforschen. Zur Praxis mit der Daten-Mapping-Software Gephi«, in: Raphaela Knipp, Johannes Paßmann und Nadine Taha (Hg.), Vom Feld zum Labor und zurück, Ausgabe von Navigationen, Zeitschrift für Medien- und Kulturwissenschaften, 13 (2), 2013a, S. 113-130. Paßmann, Johannes: »Let Data Speak – but not for itself! A footnote to the question ›which knowledge is necessary to produce knowledge with ›big data‹?«, 2013b. www.rathenau.nl/en/actueel/alle-categorieen/2013/09/let-data-speakbut-not-for-itself.html (20. Februar 2014). Ders., Thomas Boeschoten und Mirko Tobias Schäfer: »The Gift of the Gab. Retweet Cartels and Gift Economies on Twitter«, in: Katrin Weller et al. (Hg.), Twitter and Society, New York 2014, S. 331-344. Ders., und Carolin Gerlitz: »›Good‹ platform-political reasons for ›bad‹ platform-data. Zur sozio-technischen Geschichte der Plattformaktivitäten Fav, Retweet und Like«, in: Marcus Burkhardt und Sebastian Gießmann (Hg.), Was ist Datenkritik? Ausgabe von Mediale Kontrolle unter Beobachtung. Kulturwissenschaftliche Perspektiven auf die strittige Gestaltung unserer Kommunikation, 2014 im Erscheinen. Rogers, Richard: »Das Ende des Virtuellen. Digitale Methoden«, in: Zeitschrift für Medienwissenschaft, 5 (2), 2011, S. 61-77 (Orig. The End of the Virtual: Digital Methods, Amsterdam 2009).
Johannes Paßmann: From Mind to Document and Back Again
Schubert, Cornelius: »Social Innovations. Highly reflexive and multi-referential phenomena of today’s innovation society? A report on analytical concepts and a social science initiative«, University of Technology, Technology Studies Working Papers, TUTS-WP-2-2014, Berlin 2014. Thielmann, Tristan: »Taking into Account. Harold Garfinkels Beitrag für eine Theorie sozialer Medien«, in: Zeitschrift für Medienwissenschaft, 6 (1), 2012, S. 85-102. Weinand, Kim: Top-Rankings bei Google und Co, Bonn 2013.
285
4. Dataveillance: Algorithmen, Graphen und Protokolle
Protokoll, Kontrolle und Netzwerke Alexander Galloway/Eugene Thacker
Seit gut zehn Jahren hat sich der Diskurs über Netzwerke mit geradezu epidemischer Intensität verbreitet.1 Da geht es um Peer-to-Peer-Filesharing-Netzwerke, drahtlose Gemeinschaftsnetzwerke, terroristische Netzwerke, Infektionsnetzwerke von Agenten der Biokriegführung, politische Schwarmbildung und Massendemonstrationen, Wirtschafts- und Finanznetzwerke, Onlinerollenspiele für eine riesige Spielergemeinde, Personal Area Networks, Grid-Computing, »Generation txt« und so weiter und so fort. Oft neigt der Diskurs um Netzwerke dazu, sich moralisch wie architektonisch gegen das zu richten, was seine Teilnehmer für rückschrittliche Strukturen wie Hierarchie und Vertikalität halten, samt ihren begleitenden Techniken, die Dinge unter Kontrolle zu halten: Bürokratie, Kommandostruktur und so weiter. »Wir sind diese Baumstrukturen leid«, schrieben Deleuze und Guattari. Aber sogar über die Gebiete von Technik und Philosophie hinaus hat das Konzept des Netzwerks breite Bereiche des heutigen Lebens infiziert. Selbst das USMilitär, eine Bastion der vertikalen Pyramidenstruktur, hat seine interne Struktur um Netzwerkarchitekturen herum neu definiert, wie die RAND-Forscher John Arquilla und David Ronfeldt festgestellt haben. Ihren Begriff des »Netzkriegs« definieren sie mit topologischen Kriterien: »Hierarchien haben es schwer, Netzwerke zu bekämpfen […]. Netzwerke lassen sich nur mit Netzwerken bekämpfen […]. Wer das Netzwerk zuerst und am besten beherrscht, wird sich entscheidende Vorteile verschaffen.« (Arquilla und Ronfeldt, 2001, S. 15) Kurz gesagt ist die gegenwärtige globale Krise eine asymmetrische Krise zwischen zentralisierten, hierarchischen Mächten und dezentralisierten, horizontalen Netzwerken.2 Heute 1 | Thacker, Eugene, und Alexander R. Galloway: Protocol, Control, and Networks, Grey Room, 17 (Fall, 2004), S. 6-29. © 2004 by Grey Room, Inc. and the Massachusetts Institute of Technology. 2 | Bei dieser Debatte sind mehrere Seiten zu berücksichtigen. Die technophilen Sichtweisen, wie sie etwa von Howard Rheingold oder Kevin Kelly vertreten werden, sind Ausdrucksformen eines technischen Determinismus wie einer Anschauung von Technik als Werkzeug,
290
4. Dataveillance: Algorithmen, Graphen und Protokolle
will uns die gängige Meinung einreden, alles ließe sich unter die warme Sicherheitsdecke der Vernetztheit subsumieren. Aber man hat uns noch gar nicht so richtig gesagt, was das bedeutet oder wie man eine Kritik an Netzwerken zu formulieren vermag. Dieses »Netzwerkfieber« (Wigley, 2001, S. 80-122) neigt zum Delirieren, stellen wir doch in der aktuellen Literatur eine allgemeine Bereitwilligkeit fest, die Politik zu ignorieren, indem man sie in der so genannten Blackbox der Technik verbirgt. Wir brauchen somit eine Analyse von Netzwerken nicht auf der allgemeinen Ebene der politischen Theorie, sondern auf der mikrotechnischen Ebene nichthumaner Maschinenpraktiken. Dazu schlagen wir ein Prinzip der politischen Kontrolle vor, das beim Nachdenken über technische Netzwerke am hilfreichsten ist, und das ist das Protokoll, ein Begriff aus der Informatik, der sich aber auch auf die Biowissenschaften übertragen lässt. Eine Aktion in einem Netzwerk lässt sich bewusst von menschlichen Akteuren durchführen oder zufällig von nichtmenschlichen Akteuren (beispielsweise einem Computervirus oder einer sich entwickelnden Infektionskrankheit) beeinflussen. Oft kann ein Missbrauch oder das Ausnutzen eines Protokolls, egal, ob es gewollt oder ungewollt ist, die politischen Risse in einem Netzwerk offenlegen. Wir behaupten, dass solche Augenblicke zwar oft politisch zweideutig sind, wenn sie aus dem Zusammenhang herausgerissen werden, dass sie aber auch als Beispiele für eine kritischere, politisch engagiertere »Gegenprotokoll-Praxis« dienen können. Wie wir sehen werden, lässt eine protokollogische Kontrolle einen gewissen Widerspruch entstehen, indem sie gleichzeitig Behörden und Agenturen auf eine komplexe Weise verteilt und rigide Formen von Management und Kontrolle konzentriert.
D ie P olitik der algorithmischen K ultur Die Frage, der wir hier nachgehen wollen, lautet: Welches Prinzip der politischen Organisation oder Kontrolle knüpft ein Netzwerk? Autoren wie Michael Hardt und Antonio Negri haben dazu beigetragen, diese Frage in der soziopolitischen Sphäre zu beantworten. Sie bezeichnen das globale Prinzip der politischen Ordas die Erhöhung des bürgerlichen Humanismus in einem allgemeine Sinn ermöglicht. Die juristisch/politische Perspektive, wie sie in den Arbeiten von Lawrence Lessig, Yochai Benkler und anderen sichtbar wird, nimmt einen ähnlichen Standpunkt ein, demzufolge Netzwerke eine gerechtere und freiere soziale Wirklichkeit über legale Sicherheitsmaßnahmen herbeiführen werden. Die Betrachtungsweise der Netzwerkwissenschaft, wie sie in populären Büchern von Mark Buchanan und Albert-László Barabási zum Ausdruck kommt, stellt Netzwerke als eine Art apolitisches Naturgesetz dar, die universell in heterogenen Systemen operieren – im Terrorismus, bei AIDS oder im Internet. Und ferner wird diese Dichotomie (zwischen Netzwerken im politischen und im technischen Sinn) sichtbar in einer Fülle anderer Medien wie Nachrichtenreportagen, Verteidigungs- und Militärforschung und der IT-Industrie.
Alexander Galloway/Eugene Thacker: Protokoll, Kontrolle und Netzwerke
ganisation als ein Prinzip des »Empire«. Wie ein Netzwerk lässt sich das Empire nicht auf eine einzelne Staatsmacht reduzieren und es richtet sich auch nicht nach einer Architektur der pyramidenförmigen Hierarchie. Das Empire ist fließend, flexibel, dynamisch und weitreichend. In diesem Sinn ist der Begriff des Empire überaus hilfreich, wenn wir über die politische Organisation in Netzwerken nachdenken wollen. Aber während wir uns von Hardts und Negris Beitrag zur politischen Philosophie anregen lassen, stellen wir doch besorgt fest, dass bislang noch niemand diese Frage für die technische Sphäre von Bits und Atomen adäquat beantwortet hat. Was also ist ein »Protokoll«? Die Technokultur ist vom Protokoll geradezu beherrscht. Es ist ein totalisierender Kontrollapparat, der sowohl die technische wie die politische Bildung von Computernetzwerken, biologischen Systemen und anderen Medien steuert. Vereinfacht gesagt sind Protokolle all die konventionellen Regeln und Standards, die die Beziehungen innerhalb von Netzwerken regeln. Ziemlich oft treten diese Beziehungen in Form von Kommunikation zwischen zwei oder mehr Computern auf, aber »Beziehungen innerhalb von Netzwerken« können auch rein biologische Prozesse bezeichnen, etwa beim systemischen Phänomen der Genexpression. Somit wollen wir als »Netzwerke« jedes System mit Wechselbeziehungen bezeichnen, seien es nun biologische oder informatische, organische oder anorganische, technische oder natürliche Wechselbeziehungen, die letztlich das Ziel haben, die polare Beschränktheit dieser Paarungen aufzuheben. In Computernetzwerken formulieren Wissenschaftler seit Jahren Hunderte von Protokollen, um E‑Mails, Internetseiten und so weiter zu regeln, sowie viele andere Standards für Technologien, die menschliche Augen nur selten erblicken. Das erste Protokoll für Computernetzwerke wurde 1969 von Steve Crocker geschrieben und trägt die Bezeichnung »Host Software«3. Wenn Netzwerke die Strukturen sind, die Menschen miteinander verbinden, dann sind Protokolle die Regeln, die dafür sorgen, dass die Verbindungen auch wirklich zustande kommen. Internetnutzer verwenden üblicherweise Protokolle wie HTTP, FTP und TCP/IP, selbst wenn sie kaum wissen, wie solche Standards funktionieren. Auch die Forschung auf dem Gebiet der molekularen Biotechnologie nutzt Protokolle, um biologisches Leben als Netzwerkphänomen zu konfigurieren, etwa in Genexpressions-Netzwerken, Stoffwechselnetzwerken oder bei den Schaltwegen der Zellsignalisierung. In solchen Fällen werden Biologie und Informatik zunehmend vernetzt in Hybridsystemen, die mehr als biologisch sind: geschützte Genomdatenbanken, DNA-Chips für die medizinische Diagnostik und Echtzeitortungssysteme für biologische Kampfstoffe. Ein Protokoll hat eine Doppelfunktion: Es ist sowohl ein Apparat, der Netzwerke ermöglicht, wie eine Logik, die 3 | Die größte und wichtigste Publikationsreihe für Internetprotokolle ist »Request for Comments« (RFC). Bislang gibt es ein paar tausend RFC-Dokumente. Sie werden von der Internet Engineering Task Force und verwandten Organisationen recherchiert, veröffentlicht und verwaltet.
291
292
4. Dataveillance: Algorithmen, Graphen und Protokolle
Aufgaben und Abläufe in diesem Apparat regelt. Sein primäres Modell ist zwar das informatische Netzwerk (z.B. das Internet), doch wir werden hier darlegen, wie ein Protokoll auch zur Organisation biologischer Netzwerke (z.B. von Bioprozessen) beiträgt. Ein neueres Informatikhandbuch beschreibt die Implementierung von Protokollen im Internet so: »Das Netzwerk besteht aus intelligenten Endpunkt-Systemen, die selbstbestimmt sind und es ermöglichen, dass jedes Endpunktsystem mit jedem gewählten Host kommunizieren kann. Statt ein Netzwerk zu sein, in dem Kommunikationen von einer zentralen Autorität gesteuert werden (wie dies in vielen privaten Netzwerken der Fall ist), ist das Internet spezifisch als Sammlung autonomer Hosts gedacht, die frei miteinander kommunizieren können […]. Das IP [Internetprotokoll] nutzt ein anarchisches und stark dezentralisiertes Modell, wobei jeder Computer für jeden anderen Computer im globalen Internet ein gleichwertiger Teilnehmer ist.« (Hall, 2000, S. 6, 407; siehe auch Stevens, 1994)
Dass diese Passage sich eher philosophisch als naturwissenschaftlich anhört, ist besonders aufschlussreich. Die heutige Netzwerkwissenschaft beruft sich oft auf Themen wie Anarchie, Rhizomatik, Streuung und antiautoritär, um alle möglichen vernetzten Systeme zu erklären. Aus diesen zuweilen radikalen Vorhersagen und dem größeren technologischen Diskurs von tausenden von Weißbüchern, Memos und Handbüchern, die sie umgeben, können wir einige der grundlegenden Eigenschaften des Organisationsapparats ableiten, den wir hier Protokoll nennen: • Das Protokoll ermöglicht Beziehungen zwischen miteinander vernetzten, aber autonomen Einheiten. • Die Vorzüge des Protokolls sind Robustheit, Kontingenz, Interoperabilität, Flexibilität und Heterogenität. • Ein Ziel des Protokolls ist es, alles unterzubringen, egal, welche Quelle oder welchen Bestimmungsort, welche ursprüngliche Definition oder Identität es hat. • Das Protokoll ist universal, kommt aber stets durch Verhandlung zustande (d.h., dass das Protokoll in der Zukunft anders sein kann und wird). • Das Protokoll ist ein System, das in Netzwerken Organisation und Kontrolle aufrechterhält. Jedes dieser Merkmale reicht allein schon aus, um das Protokoll von vielen früheren Modi der sozialen und technischen Organisation (wie Hierarchie oder Bürokratie) zu unterscheiden. Zusammen ergeben sie ein neues, raffiniertes System von dezentralisierter Kontrolle. Als Technik wird das Protokoll breit eingesetzt und lässt sich damit nicht einfach auf den Bereich der institutionellen, staatlichen oder unternehmerischen Macht reduzieren. Im weitesten Sinn ist das Protokoll
Alexander Galloway/Eugene Thacker: Protokoll, Kontrolle und Netzwerke
eine Technik, die den Fluss reguliert, den Raum des Internets steuert, Beziehungen codiert und Lebensformen miteinander verknüpft. Netzwerke haben immer mehrere Protokolle, die am selben Ort zur selben Zeit operieren. In diesem Sinn sind Netzwerke stets ein wenig schizophren, indem sie etwas an einem Ort tun und an einem anderen das Gegenteil. Der Begriff des Protokolls bezeichnet somit nicht ein allumfassendes Netzwerk der Macht – es gibt nicht das eine Internet, sondern viele Internets, die alle eine spezifische Beziehung zur infrastrukturellen Geschichte der Militär-, Telekommunikations- und Wissenschaftsindustrie aufweisen. Das Protokoll hat also weniger zu tun mit individuell ermächtigten menschlichen Subjekten (dem popkulturellen Mythos des Hackers), die die Motoren der teleologischen Vorstellung vom Protokoll sein könnten, sondern mehr mit den mannigfaltigen Modi der Individuation, die menschliche wie nichtmenschliche Elemente arrangieren und neu mischen. Aber gerade die Einbeziehung des Gegenteils im Gewebe des Protokolls geschieht nicht einfach um eines Pluralismus willen. Die protokollogische Kontrolle fordert uns heraus, das kritische und politische Handeln um ein neueres Bezugssystem zu überdenken, nämlich das von individuierten Multiagentenknoten in einem metastabilen Netzwerk. Das bedeutet, dass es beim Protokoll weniger um Macht (Einschränkung, Disziplin, Normativität) und mehr um Kontrolle (Modulation, Distribution, Flexibilität) geht.
G r aphentheorie in der K ontrollgesellschaf t Die Betonung von »Kontrolle« spielt eine wichtige Rolle in Deleuzes späteren Schriften. In »Postskriptum über die Kontrollgesellschaften«, einem erfrischend kurzen Essay von 1990, definiert Deleuze zwei historisch unterschiedliche Gesellschaftsformen: Zum einen die »Disziplinargesellschaften« der Neuzeit, die aus der Herrschaft des Souveräns in die »großen Einschließungsmilieus« hineinwachsen, die sozialen und körperlichen Gussformen, die Michel Foucault so gut beschrieben hat; und zum andern die »Kontrollgesellschaften«, wie Deleuze sie nennt, die das späte 20. Jahrhundert bevölkern – diese basieren auf Protokollen, Logiken der »Modulation« und den »ultra-schnellen Kontrollformen mit freiheitlichem Aussehen« (Deleuze 1993, S. 255). Während die Disziplinargesellschaften durch physische semiotische Konstrukte wie die Signatur und das Dokument charakterisiert sind, sind für die Kontrollgesellschaften eher immaterielle Konstrukte wie das Passwort und der Computer typisch. Diese Kontrollgesellschaften sind durch Netzwerke der Gentechnik und der Computer charakterisiert, aber auch durch viel konventionellere Netzwerkformen: »Kontrolle ist keine Disziplin. Durch den Bau von Autobahnen beispielsweise schließt man die Menschen nicht ein, sondern vermehrt vielmehr die Kontrollmaßnahmen. Ich will damit nicht sagen, dass dies der ausschließliche Zweck der Autobahn ist, sondern dass die
293
294
4. Dataveillance: Algorithmen, Graphen und Protokolle Menschen endlos und ›frei‹ fahren können, ohne überhaupt eingeschränkt zu sein, während sie dennoch perfekt kontrolliert werden. Dies ist unsere Zukunft.« (Deleuze, 1998, S. 18)
Ob es sich nun um eine politische Roadmap, einen Krankheitsverlauf, einen Informationssuperhighway oder eine schlichte alte Autobahn handelt – was Deleuze hier als Kontrolle definiert, ist entscheidend für das Verständnis, wie Netzwerke jedes Typs funktionieren. Aber hinter den Netzwerken existiert auch eine ganze Wissenschaft, gemeinhin Graphentheorie genannt, die wir hier gern kurz darstellen wollen.4 In der Mathematik ist ein »Graph« eine endliche Menge von Punkten, die durch eine endliche Menge von Linien verbunden sind. Die Punkte werden »Knoten« oder Ecken genannt, die Linien »Kanten«. Der Einfachheit halber verwenden wir für einen Graphen das Kürzel »G«, für die Knoten im Graphen das Kürzel »N« (englisch node für Knoten) und für die Kanten das Kürzel »E« (englisch edge für Kante). Somit lassen sich ein einfacher Graph mit vier Knoten (etwa ein Quadrat) durch die Formel N ={n1, n2, n3, n4} und seine Kanten durch die Formel E = {(n1, n2), (n2, n3), (n3, n4), (n4, n1)} darstellen. In einem Graphen wird die Anzahl der Knoten »Ordnung« genannt (im Beispiel Quadrat |N| = 4), die Anzahl der Kanten »Größe« (|E| = 4). Dies ist eine Standardsituation der Verbindung von Knoten. Bei diesem einfachen Beispiel von Knoten und Kanten lässt sich eine Anzahl von Beziehungen quantitativ analysieren. So besteht beispielsweise der »Grad« eines Knotens in der Anzahl von Kanten, die mit ihm verbunden sind. Mit einem »zentralisierten« oder »dezentralisierten« Graphen hat man es zu tun, wenn einer oder mehrere Knoten im Graphen mit vielen Kanten verbunden ist oder sind (dann hat er eine niedrigere Ordnung und eine höhere Größe). Und von einem »verteilten« Graphen spricht man, wenn alle Knoten im Graphen ungefähr den gleichen Grad haben (und damit ein etwa gleichwertiges Verhältnis von Ordnung und Größe [Ordnung = Größe]). Was können wir nun anhand von Ordnung und Größe eines Graphen aussagen? Eines der Grundtheoreme der Graphentheorie lautet, dass bei jedem Graphen G die Summe der Grade der Knoten gleich der doppelten Anzahl der Kanten von G. ist. D.h., wenn der Grad eines Knotens die Anzahl der mit ihm verbundenen Kanten ist (für einen Knoten n1, der mit zwei Kanten verbunden ist, ist sein Grad = 2), ist die Summe aller Grade des Graphen doppelt so groß wie die Größe des Graphen (die Anzahl der Kanten). Mit anderen Worten: Ein Netzwerk 4 | Einen Einblick in die Graphentheorie vermittelt jedes Lehrbuch der Mathematik. Siehe auch Chartrand: Introductory Graph Theory, New York 1977. Einen historischen Überblick vermittelt Norman Biggs et al.: Graph Theory 1736-1936, Oxford 1976. Prinzipien der Graphentheorie werden häufig bei Kommunikations- und Netzwerkroutingproblemen angewandt, ebenso wie in der Stadtplanung (Straßen- und U-Bahn-Netze), in der Arbeitsgestaltung (Arbeitsabläufe in einer Fabrik), in der Molekularbiologie (Proteomik) und in Internet-Suchmaschinen.
Alexander Galloway/Eugene Thacker: Protokoll, Kontrolle und Netzwerke
besteht nicht einfach aus einer gewissen Anzahl von Elementen, die miteinander verbunden sind, sondern es wird konstituiert oder qualifiziert durch den Vernetzungsgrad der Knoten. Wie vernetzt sind Sie? Welche Art von Verbindung haben Sie? Bei einem Quadrat beträgt die Summe der Grade 8 (die Knoten [die Ecken des Quadrats] sind mit jeweils zwei Kanten [den Linien des Quadrats] verbunden), während die Summe der Kanten gleich 4 ist. In der IT-Industrie ist Vernetzungsgrad oder Konnektivität ein rein quantitatives Maß (Bandbreite, Anzahl von gleichzeitigen Verbindungen, Downloadkapazität). Deleuze und Guattari jedoch bezeichnen Netzwerkformen wie das Rhizom praktisch als Kanten, die Knoten enthalten (statt umgekehrt), oder sogar paradoxerweise als Kanten ohne Knoten. In der Graphentheorie erfahren wir, dass die Konnektivität eines Graphen oder Netzwerks ein Wert ist, der sich von einer bloßen Zählung der Kanten unterscheidet. Ein Graph hat nicht nur Kanten zwischen Knoten, sondern Kanten, die Knoten verbinden. Somit weisen der Graphentheorie zufolge Netzwerke drei Grundmerkmale auf: ihre Organisation in Knoten und Kanten (Punkten und Linien), ihre Konnektivität und ihre Topologie. Die gleichen Prinzipien können ein zentralisiertes, starr organisiertes Netzwerk oder ein dezentralisiertes, hoch flexibles Netzwerk ergeben. Ein lehrreiches Beispiel dafür ist die institutionelle, ökonomische und technische Entwicklung des Internets. Während die Einführung einer Paketvermittlungstechnologie im ARPANET (Advanced Research Projects Agency Network) angeblich den Zielen der militärischen Forschung und Sicherheit diente, entwickelte sich dieses Netzwerk zu einem erheblich kommerziellen Netzwerk. Paul Baran, der Miterfinder der Paketvermittlung, veranschaulicht anhand von einfachen Prinzipien der Graphentheorie, wie man mit der gleichen Menge von Knoten/Punkten und einer anderen Menge von Kanten/Linien drei ganz verschiedene Netzwerktopologien erhält. Der vertrauten Unterscheidung zwischen zentralisierten, dezentralisierten und distribuierten Netzwerken kann man heute überall begegnen, nicht nur in der Computer- und Informationstechnik, sondern auch in sozialen, politischen, ökonomischen und insbesondere in biologischen Netzwerken. Nach der Graphentheorie können wir Netzwerke provisorisch als metastabile Mengen variabler Beziehungen in Multiknoten- und Multikanten-Konfigurationen bezeichnen. Wir haben oben behauptet, dass es Netzwerke in allen Formen und Richtungen gebe, aber zu den üblichen Arten von Netzwerken zählen zentralisierte (mit pyramidenförmigen, hierarchischen Schemata), dezentralisierte (eine Hauptnabe oder ein »backbone« mit davon ausstrahlenden Peripherien) und distribuierte Netzwerke (eine Sammlung von Knoten-zu-Knoten-Beziehungen ohne backbone oder Zentrum). Abstrakt gesagt können Netzwerke sich aus fast allem zusammensetzen: Computern (Internet), Autos (Autobahnen), Menschen (Gemeinschaften), Tieren (Nahrungsketten), Aktien (Kapital), Verlautbarungen (Institutionen), Kulturen (Diasporas) und so weiter. Tatsächlich betonen die Forschung, die sich mit komplexen dynamischen Systemen befasst, und die Netz-
295
296
4. Dataveillance: Algorithmen, Graphen und Protokolle
werkwissenschaft großenteils diese Konvergenz heterogener Phänomene nach universalen mathematischen Prinzipien.5 Demgegenüber möchten wir betonen, dass die Graphentheorie allein nicht ausreicht, um Netzwerke zu verstehen – sie ist nur ein Anfang. Die Graphentheorie vermag zwar viele technologische Netzwerke (und die Werkzeuge zur Analyse von Netzwerken) mathematisch und technisch zu untermauern, doch genauso aufschlussreich ist, was die Annahmen der Graphentheorie nicht berücksichtigen. So impliziert beispielsweise die Unterteilung in Knoten und Kanten, dass Knoten sich auf Objekte, Orte oder den Raum beziehen, während sich die Definition von Kanten auf Handlungen bezieht, die durch Knoten beeinflusst werden. Während die Handlungsfähigkeit den aktiven Knoten zugeschrieben wird, wird das Ausführen von Handlungen den passiven Kanten zugeschrieben (der in den Knoten implizierte Effekt der Kausalität). Graphen oder Netzwerke sind somit Diagramme von Kraftverhältnissen (Kanten), die durch diskrete Agenten (Knoten) bewirkt werden. In diesem Sinn bevorzugen Graphen räumliche Orientierungen, quantitative Abstraktion und eine klare Trennung zwischen Handelndem und Handlung. Das Paradoxe an Graphen oder Netzwerken besteht darin, dass sich ihre geometrische Basis (oder Einseitigkeit) tatsächlich gegen ein Verständnis von Netzwerken als Sets von Beziehungen richtet, die in der Zeit existieren. Mit der Formulierung protokollogische Kontrolle wollen wir noch etwas anderes behaupten. Netzwerke unterscheiden sich nicht nur durch ihre gesamten Topologien, sondern sie enthalten stets mehrere koexistente und zuweilen inkompatible Topologien. Eine »technische« Topologie des Internets bezeichnet es vielleicht als distribuiert (beispielsweise im Fall von Peer-to-Peer-Filesharing-Netzwerken, die auf dem Gnutella-Modell basieren). Doch diese technische Topologie ist nicht von ihrer Motivation, Nutzung und Regulierung zu trennen, und das macht sie auch zu einer sozialen Topologie (Filesharing-Communities), einer ökonomischen Topologie (Vertrieb von Waren) und sogar zu einer juristischen Topologie (digitales Copyright). All diese Netzwerke koexistieren und stehen zuweilen im Konflikt zueinander, wie die Kontroverse um das Filesharing zeigt. Somit schließen die Grundlagen unseres Verständnisses von Netzwerken nicht nur das Element aus, das ein Netzwerk zu einem Netzwerk macht (seine dynamische Qualität), sondern sie setzen auch voraus, dass Netzwerke in Beziehung zu festen topologischen Kon5 | »Damit entsteht ein Netz von Bekanntschaften – ein Graph, ein durch Links verknüpfter Haufen von Knoten. Computer, die durch Telefonleitungen miteinander verbunden sind, Moleküle in unserem Körper, die durch biochemische Reaktionen miteinander verbunden sind, Unternehmen und Verbraucher, die durch den Handel miteinander verbunden sind, Nervenzellen, die durch Axonen miteinander verbunden sind, Inseln, die durch Brücken miteinander verbunden sind – all das sind Beispiele für Graphen. Welche Identität und welche Beschaffenheit die Knoten und Verbindungen auch immer haben mögen – für einen Mathematiker sind sie das Gleiche: ein Graph oder ein Netzwerk.« (Barabási 2002, S. 16)
Alexander Galloway/Eugene Thacker: Protokoll, Kontrolle und Netzwerke
figurationen existieren (die entweder zentralisiert oder dezentralisiert, technisch oder politisch sind). Dies wird klarer, wenn wir einmal zwei paradigmatische Beispiele betrachten: Computernetzwerke und biologische Netzwerke.
D as P rotokoll in C omputerne t z werken Im technischen Sinn bestehen Computernetzwerke aus nichts anderem als schematischen Mustern, die verschiedene Protokolle und die Organisationen von Daten bezeichnen, die diese Protokolle konstituieren. Das Weißbuch »Requirements for Internet Hosts« definiert vier Grundschichten der Protokollabfolge des Internets: 1. die Applikationsschicht (z.B. Telnet, das Web), 2. die Transportschicht (z.B. TCP), 3. die Internetschicht (z.B. IP), 4. die Link- oder Media-Access-Schicht (z.B. Ethernet). Diese Schichten sind verschachtelt: Die Applikationsschicht ist in der Transportschicht verschachtelt, die in der Internetschicht verschachtelt ist und so weiter. Auf jeder Ebene zergliedert und verkapselt das Protokoll mit höherer Priorität das Protokoll mit geringerer Priorität. Zergliedern und Verkapseln basieren auf Mustern: Das Zergliedern (das Berechnen von Prüfsummen, Messgrößen und so weiter) zwingt Daten durch verschiedene Muster, während das Verkapseln ein spezifisches Informationsmuster (einen Header) vor den Anfang eines Datenobjekts setzt. Nach dem Header kommt der Rest des Datagramms. Aber was heißt das in der Praxis? Betrachten wir zum Vergleich ein ganz normales Telefongespräch. Während eines Anrufs spielen mehrere Protokolle eine Rolle. Manche sind technisch, andere sozial. Zum Beispiel kann man sich das Hören eines Wähltons und das Wählen der gewünschten Telefonnummer in einer anderen »Schicht« vorstellen als das Gespräch selbst. Ferner gehören die stereotypen Formeln, die ein Telefongespräch eröffnen und beenden – »Hallo«, »Hi, hier ist …«, »Schön, ich ruf dich später an«, »Okay, tschüss«, »Tschüss!« – nicht der »Schicht« des normalen Gesprächs an, sondern sind bloß notwendig für den Anfang und das Ende des Gesprächs. Das Internet funktioniert genau so. Die Applikationsschicht ist wie die Gesprächsschicht des Telefonats. Sie ist zuständig für den Inhalt der spezifischen Technik, um die es gerade geht, etwa das Abrufen von E‑Mails oder den Zugang zu einer Internetseite. Die Applikationsschicht ist eine semantische Schicht, d.h., sie ist zuständig für die Erhaltung des Dateninhalts innerhalb der Netzwerktransaktion. Die Applikationsschicht interessiert sich nicht für größere Probleme wie das Einrichten von Netzwerkverbindungen oder das Senden von Daten zwischen
297
298
4. Dataveillance: Algorithmen, Graphen und Protokolle
diesen Verbindungen. Sie möchte einfach nur, dass ihr »Gespräch« richtig funktioniert. Die Transportschicht steht in der Hierarchie eine Stufe höher als die Applikationsschicht. Sie interessiert sich nicht für den Informationsinhalt (der eigenen E‑Mail oder Internetseite). Die Transportschicht soll vielmehr dafür sorgen, dass die Daten, die im Netzwerk verkehren, korrekt ihr Ziel erreichen. Sie ist eine soziale Schicht, d.h., sie liegt zwischen dem Inhalt oder der Bedeutung der Daten, die übertragen werden, und dem reinen Akt des Übertragens dieser Daten. Falls Daten im Transit verloren gehen, ist die Transportschicht dafür zuständig, die verlorenen Daten erneut zu senden. Wenn man also in unserem hypothetischen Telefongespräch ein Rauschen in der Leitung vernimmt, könnte man vielleicht die Bemerkung »Hallo … bist du noch da?« einschieben. Diese Bemerkung ist nicht Teil der Gesprächsschicht (es sei denn, Ihr Gespräch dreht sich zufällig darum, »noch da zu sein«); sie ist eine Zwischenbemerkung, die bestätigen soll, dass das Gespräch durch die Telefonleitung korrekt verläuft. Die Eingangs- und Schlussbemerkungen gehören ebenfalls zur Transportschicht. Sie bestätigen, dass der Anruf angekommen ist und dass er bereit ist für die Gesprächsschicht – beziehungsweise dass das Gespräch beendet ist und der Anruf abgeschlossen wird. Die dritte Schicht ist die Internetschicht. Diese Schicht ist noch größer als die Applikations- und die Transportschicht. Sie interessiert sich nur für eins: die tatsächliche Bewegung von Daten von einem Ort zu einem anderen. Sie hat kein Interesse am Inhalt der Daten (dafür ist die Applikationsschicht zuständig) oder daran, ob Teile der Daten im Transit verloren gehen (dafür ist die Transportschicht zuständig). Die vierte Schicht, die Linkschicht, ist die hardwarespezifische Schicht, die letztlich jeden Datentransfer verkapseln muss. Linkschichten sind überaus variabel aufgrund der vielen Unterschiede in der Hardware und in anderen physischen Medien. So kann ein Telefongespräch beispielsweise genauso leicht über normale Telefonkabel wie über faseroptische Kabel verlaufen. Doch in jedem Fall ist die betreffende Technik radikal anders. Und genau für diese technikspezifischen Protokolle interessiert sich die Link- oder Medienzugriffsschicht. Dank der verschiedenen Zuständigkeiten der einzelnen Protokollschichten kann das Internet effektiv arbeiten. Erst die Arbeitsteilung zwischen der Transportschicht und der Internetschicht – wobei die Fehlerkorrektur die einzige Zuständigkeit der Transportschicht und das Routing (der Prozess, durch den Daten »verbunden« oder zu ihrem endgültigen Ziel geschickt werden) die einzige Zuständigkeit der Internetschicht ist – schafft die Existenzbedingungen für das dezentrale Netzwerk. Wenn also ein Router in Chicago unterbrochen wird, während eine Nachricht von New York nach Seattle unterwegs ist, können die verlorenen Daten stattdessen erneut über Louisville (oder Toronto, Kansas City, Lansing oder unzählige
Alexander Galloway/Eugene Thacker: Protokoll, Kontrolle und Netzwerke
andere Knoten) gesendet werden. Dabei spielt es keine Rolle, ob der alternierende Knoten kleiner oder größer, in einem anderen Subnetzwerk oder in einem anderen Land ist oder ein anderes Betriebssystem nutzt. Die Requests for Comments (RFCs), die technischen und organisatorischen Dokumente des RFC-Editors für das Internet, formulieren diese Eigenschaft der Flexibilität mit großer Klarheit: »Ein grundlegendes Ziel des Internetdesigns ist die Tolerierung eines breiten Spielraums von Netzwerkmerkmalen – z.B. Bandbreite, Verzögerung, Paketverlust, Paketneubestellung und maximale Paketgröße. Ein weiteres Ziel ist die Robustheit gegen ein Versagen individueller Netzwerke, Gateways und Hosts, die jede noch verfügbare Bandbreite nutzen. Das letzte Ziel ist schließlich die volle ›Open System Interconnection‹: Ein Internet-Host muss in der Lage sein, robust und effektiv mit jedem anderen Internet-Host zusammenzuarbeiten, und zwar über unterschiedliche Internetpfade.« (Braden, 1989)
Solange die Hosts im Netzwerk der allgemeinen Abfolge von Internetprotokollen entsprechen – wie einer Lingua franca für Computer –, werden sich die zusammenarbeitenden Transport- und Internetschichten um alles kümmern. Das höchste Ziel der Internetprotokolle ist Totalität. Die Vorzüge des Internetprotokolls sind Robustheit, Kontingenz, Interoperabilität, Flexibilität, Heterogenität und Pantheismus. Es akzeptiert alles, egal von welcher Quelle, welchem Sender oder für welches Ziel.
D as P rotokoll in biologischen N e t z werken Im Beispiel der Computernetzwerke ist ein »Protokoll« sowohl ein technischer Begriff als auch, wie wir dargelegt haben, eine Möglichkeit, die für Informationsnetzwerke generell spezifische Kontrolle zu beschreiben. Was aber ist das »Protokoll« biologischer Netzwerke? Während die Molekularbiologie, die Gentechnik und Gebiete der Biotechnik den technischen Begriff Protokoll nicht verwenden, setzen sie dennoch Protokolle auf mehreren Ebenen ein. Wir erinnern uns daran, dass der hier entwickelte Begriff des Protokolls eine informatische Weltanschauung mit einer Beschreibung standardisierter Netzwerkbeziehungen kombiniert. Die Biotechnik ist zwar eine unglaublich breit gefächerte Industrie, doch sie basiert auch auf einer gemeinsamen Wissensmenge aus Zellbiologie, Biochemie und Molekulargenetik. Kein anderes Konzept ist für die Biotechnik vielleicht von so zentraler Bedeutung wie die Vorstellung von der genetischen »Information«. Wissenschaftshistoriker haben darauf hingewiesen, dass die informatische Betrachtungsweise des genetischen und molekularen Körpers ihre Wurzeln im interdisziplinären Austausch zwischen Kybernetik und Biologie in der Zeit nach dem Zweiten Weltkrieg hat (Kay, 2000; Keller, 1995). Gerade im Konzept des Humangenomprojekts, der genetischen Pharmazeutika, der genetischen Patente
299
300
4. Dataveillance: Algorithmen, Graphen und Protokolle
und des Bioterrorismus ist die Vorstellung eines genetischen »Codes« von zentraler Bedeutung für ein Verständnis von »Leben« auf der molekularen Ebene. Zunächst einmal wollen wir behaupten, dass die Protokolle biologischer Netzwerke die Modi der biologischen Regulierung und Kontrolle im Genom und in der Zelle sind. Von diesen Protokollen gibt es drei Arten: Genexpression (sie regelt, wie ein Netzwerk von Genen an- und abgeschaltet wird, um Proteine zu produzieren), Zellstoffwechsel (er regelt, wie die Komponenten aus Enzymen und Organellen Nahrungsmoleküle in Energie umwandeln) und Membransignalübertragung (die molekulare Kryptografie, die Moleküle in eine Zellmembran herein- und aus ihr hinausbringt). Bei allen drei Arten geht man davon aus, dass molekulare Interaktionen (DNA-Komplementarität, Enzymkatalyse, Molekülbindung) Netzwerkbeziehungen herstellen, etwa die Transkription von DNA in RNA, die Umwandlung von Zuckermolekülen in verwertbare Energie oder die Infektion durch einen viralen oder bakteriellen Erreger. In jeder Protokollart sehen wir, wie Netzwerke von biologischen Komponenten miteinander interagieren, angetrieben von einem »genetischen Code« und vermittelt durch »biochemische Information«. Zweifellos ist die Instrumentalität biologischer Prozesse für die Biotechnik immer schon kennzeichnend gewesen. Regelmäßig kann man biologische Netzwerke in Aktion erleben, etwa in jüngeren Beispielen wie den bioterroristischen Anschlägen mit Anthrax, dem epidemischen schweren akuten Atemwegssyndrom (SARS) und der weltweiten Gesetzgebung zum geistigen Urheberrecht. Doch erst wenn wir die Biotechnik in ihrem nichtmedizinischen, doch immer noch instrumentellen Kontext wahrnehmen, werden die Protokolle biologischer Netzwerke am ehesten evident. Ein Beispiel dafür ist das relativ junge Gebiet der DNA-Computertechnik, der »Biocomputer« (Dove, 1998; Regalado, 2000).6 Während in der Entwicklung von DNA-Computern erst noch ihre »Killerapp« gefunden werden muss, gibt es bereits Anwendungen auf vielen Gebieten – von der Datensicherung und -verschlüsselung bis zum Netzwerkrouting, von Navigationsgeräten bis zum handlichen Aufspüren von Biokampfstoffen. DNA-Computer sind exemplarisch für den allgemeineren Wandel in den Genwissenschaften hin zu einem Netzwerkparadigma. Die DNA-Computertechnik wurde Mitte der 1990er Jahre von Leonard Adleman als Machbarkeitsnachweisexperiment in der Informatik entwickelt (Adleman, 1994; Adleman, 1997). Nach diesem Konzept ließen sich die der DNA immanenten kombinatorischen Möglichkeiten (nicht ein Satz, sondern zwei parallele Sätze binärer Basenpaare: A-T, C-G) dazu nutzen, spezifische Rechenprobleme zu lösen. Ein berühmtes Beispiel ist das Problem des Handlungsreisenden, fachlich »Gerichtetes Hamiltonkreisproblem« genannt: Nehmen wir an, Sie seien ein 6 | Untergebiete von Biocomputern sind Proteincomputer (sie nutzen Enzymreaktionen), Membrancomputer (sie nutzen Membranrezeptoren) und sogar Quantencomputer (sie nutzen Quantenfluktuationen).
Alexander Galloway/Eugene Thacker: Protokoll, Kontrolle und Netzwerke
Handlungsreisender und müssten durch fünf Städte reisen. Sie dürfen jede Stadt nur einmal aufsuchen und nicht auf demselben Weg zurückkehren. Welches ist die effizienteste Möglichkeit, alle fünf Städte zu besuchen? Mathematisch spricht man von »nichtlinearen polynomischen«, kurz »NP-vollständigen Problemen«. Dabei geht es um ein großes Suchgebiet, das exponentiell größer wird, wenn die Zahl der Variablen (fünf Städte, jeweils mit fünf möglichen Routen) zunimmt. Für normale Computer mit Siliziumchips kann das Berechnen aller Möglichkeiten bei solchen Problemen Schwerstarbeit bedeuten. Doch mit Hilfe des bekannten Prinzips der »Basenpaar-Komplementarität« des DNA-Moleküls (in dem sich A stets an T, C stets an G bindet) ließe sich ein Computer mit parallel arbeitenden Prozessoren entwickeln, der allerdings nicht mit mikroelektrischen Schaltkreisen arbeitet, sondern mit der enzymatischen Verschmelzung einzelner DNA-Stränge. Man kann nun für jede Stadt ein Segment von jeder einsträngigen DNA »markieren« (mit Hilfe von Genmarkern oder fluoreszierender Farbe), genügend Kopien herstellen, um alle Möglichkeiten abzudecken (mit Hilfe eines Thermocyclers zur Durchführung der Polymerase-Kettenreaktion, einer Art DNA-Kopiergerät), und sie dann mixen. Die DNA wird alle Städte in vielen linearen Sequenzen mixen und abgleichen, und dann ist es durchaus möglich, dass eine dieser Sequenzen die effizienteste Lösung für das Problem des Handlungsreisenden darstellt. Als protokollogischer Kontrollmodus verschlüsselt die Arbeit mit dem Biocomputer das Netzwerk in den biomolekularen Körper. Die Knoten des Netzwerks sind DNA-Fragmente (verschlüsselt als spezifische Knoten A, B, C, D usw.), die Kanten sind die Prozesse der Basenpaarbindung zwischen komplementären DNAFragmenten (verschlüsselt als Überlappungen A-B, B-C, C-D usw.). Das sich aus dem Experiment ergebende Netzwerk ist eigentlich eine Menge von Netzwerken; der DNA-Computer generiert eine große Zahl von Netzwerken, und jedes Netzwerk stellt einen möglichen Hamiltonkreis dar. Das Netzwerk ist somit eine Serie von DNA-Strängen – es ist kombinatorisch und rekombinatorisch. Mit diesem Verschlüsseln ist eine korrelative Zone des Recodierens und Decodierens verbunden, da sich das Netzwerk von einem materiellen Substrat (Pixel, Papier und Tinte) zu einem qualitativ anderen Substrat (DNA, GPCRs, Krebszyklus) bewegt. Die Aussicht auf eine Zellcomputertechnik ist in dieser Hinsicht am interessantesten, denn sie nutzt eine bereits durch eine diagrammatische Logik funktionierende Disziplin (Biochemie und das Studium des Zellstoffwechsels) und verschlüsselt ein Netzwerk in ein Netzwerk (Hamiltonkreise auf den Krebszyklus). Das Arbeiten mit Biocomputern, insbesondere mit DNA-Computern, demonstriert die protokollogische Kontrolle auf der Mikroebene von Biomolekülen, Molekülbindungen und Renaturierungs- und Denaturierungsprozessen. Die Arbeit mit DNA-Computern zeigt, dass der Problemlösungsprozess nicht von irgendeinem problemlösenden »Agenten« abhängt, sondern dass sich die Lösung mathematisch und biochemisch aus einem Kontext von dezentraler Regulierung ergibt – nicht aus einer brutalen Zahlenverarbeitung, sondern aus einer offenen, flexiblen Anordnung aller Möglichkeiten. Auf diese Weise ist sie protokollogisch. Das ex-
301
302
4. Dataveillance: Algorithmen, Graphen und Protokolle
ponentielle Suchfeld für NP-vollständige Probleme liefert DNA mit einem Kontext, in dem die Basenpaarkomplementarität auf eine hoch dezentralisierte Weise abläuft. D.h., der DNA-Computer ermöglicht einen unmittelbaren Satz von Beziehungen zwischen seinen Knoten aus Basenpaaren, die sich binden oder nicht binden. So gesehen führt der DNA-Computer seine Berechnungen ohne direkte, zentralisierte Kontrolle aus. Er benötigt nichts weiter als einen Kontext und eine Aufgabenstellung, die ein Suchfeld (etwa einen Hamiltonkreis) definiert. Wir erinnern uns, dass eines der primären Ziele des ARPANET darin bestand, ein Netzwerk zu entwickeln, das robust genug wäre, den Ausfall von einem oder mehreren seiner Knoten zu überleben. Adlemans Hamiltonkreisproblem ließe sich genauso einfach als Kontingenzproblem begreifen: Wenn es einen geführten Weg durch eine gegebene Menge von Knoten gibt, wie sehen dann die möglichen Alternativrouten aus, wenn einer der Knoten aus der Menge entfernt wird? Doch dieser dezentralisierte Charakter impliziert keineswegs eine Freiheit von Kontrolle. Vielmehr legt der DNA-Computer im Kontext des Protokolls die Bedingungen fest, unter denen sich eine Netzwerkaktivität (die Computerlösung mathematischer Probleme mit großen Suchgebieten) abspielen kann. Das Arbeiten mit dem DNA-Computer ist auf eine spezifische Weise »biologisch«, weil nur gewisse biologische Prozesse isoliert werden, um dieses Problem zu lösen. Diese grundlegenden biologischen Protokolle, die Grundprinzipien der Molekularbiologie (Genexpression, Stoffwechsel, Signalisierung), bilden die Basis für die vertrauteren biologischen Netzwerke von Infektionskrankheiten, Organ- und Gewebespender- und Transplantationsnetzwerken, biologischen Patentsystemen und den epidemiologischen Taktiken der Biokriegführung und des Bioterrorismus.7
E in verschlüsseltes L eben Wir haben es also mit zwei Netzwerken zu tun: einem Computernetzwerk und einem biologischen Netzwerk, und beide sind hoch dezentralisiert, sowohl robust wie flexibel und dynamisch. Während ersteres auf Siliziumchips basiert und biologische Konzepte (intelligente Agenten, künstliches Leben, genetische Algorithmen) nutzen kann, ist letzteres voll und ganz biologisch und kann sich dennoch 7 | Wir sollten hier auch anmerken, dass sich das Arbeiten mit Biocomputern von der biotechnischen Forschung meist dadurch unterscheidet, dass seine Anwendungen großenteils nichtmedizinischer Natur sind. Bislang haben sich Experimente mit Biocomputern mit Netzwerk-Routingproblemen, Sicherheit und Kryptografie befasst sowie mit der Entwicklung von hybriden Molekular-Silizium-Computerprozessoren für die IT-Industrie. D.h., statt die Technik zu nutzen, um in der Biologie weiterzukommen, nutzen Biocomputer die Biologie, um die Technik weiterzuentwickeln. Dabei richten sie die Biologie mehr nach den Prinzipien einer Technik aus, allerdings einer Technik, die durch und durch biologisch ist.
Alexander Galloway/Eugene Thacker: Protokoll, Kontrolle und Netzwerke
computergerecht umcodieren (Biologie als Computerarbeit, im Gegensatz zu Evolution). Zwei »Computer«, zwei Netzwerke – also zwei Protokolle? Ja und nein. Das Verständnis von DNA-Computern lehrt uns, dass protokollogische Kontrolle biologisch ebenso wie computerbasiert sein kann. Was ist dann beim DNA-Computer das Protokoll? Einerseits ist das Ziel dieses Experiments mathematisch und computerbetont, doch andererseits ist das Medium, durch das dies realisiert wird, biologisch und biochemisch. Während also Computerprotokolle das innere Funktionieren der informatischen Komponente von DNA-Computern steuern können, steuern Protokolle auch die Schnittstellen zwischen nass und trocken, zwischen dem Informatischen und dem Biologischen. Zwei Ordnungen geschehen also gleichzeitig. Im Beispiel von TCP/IP ist die protokollogische Kontrolle fast ausschließlich mathematisch und computerbetont, wobei die »Wetware« außerhalb der Maschine bleibt. Das Protokoll ermöglicht die Integration und Standardisierung dieser beiden Arten von Netzwerken: Ein »Inter-Netzwerk« verknüpft verschiedene materielle Ordnungen (Silizium-Kohlenstoff), ein »Intra-Netzwerk« verknüpft verschiedene Variable innerhalb der protokollogischen Funktionsweise (Knoten als DNA, Kanten als Basenpaarbindung). Das Protokoll von Biocomputern verrichtet somit die doppelte Arbeit. Es ist ganz wörtlich biotechnisch, indem es die für Computer spezifischen Logiken und Komponenten mit den für die Molekularbiologie spezifischen Logiken und Komponenten integriert. Wir wollen noch einmal betonen: Das Protokoll ist eine materialisierte Emanation von dezentraler Kontrolle. Es ist keine Machtausübung »von oben«, trotz der unverhohlenen hierarchischen Organisation des Domain Name System oder der vagen Prinzipien hinsichtlich genetischer Patente im Patent and Trademark Office der USA. Das Protokoll ist auch keine anarchische Befreiung von Daten »von unten«, trotz der dezentralen Organisation des TCP/IP oder der kombinatorischen Möglichkeiten der Genexpression. Der Zusammenhang zwischen Protokoll und Macht ist ein wenig umgekehrt: je größer die dezentralisierte Beschaffenheit des Netzwerks, desto größer die Anzahl der Kontrollen, die es dem Netzwerk ermöglichen, als Netzwerk zu funktionieren. Das Protokoll beantwortet die komplizierte Frage, wie die Kontrolle dezentralisierte Netzwerke durchdringt. Mit anderen Worten: Das Protokoll erklärt uns, dass heterogene, asymmetrische Machtverhältnisse der absolute Kerngehalt des Internet-Netzwerks oder des Genom-Netzwerks sind und nicht ihre Fesseln. Im Computer- wie im biologischen Netzwerk hat das Protokoll die primäre Funktion, die Informationsflüsse zu steuern. In gewisser Hinsicht überrascht das nicht, haben doch beide Gebiete ihre gemeinsamen Wurzlen im Zweiten Weltkrieg und in der Technikforschung der Nachkriegszeit.8 Die Genealogien von Ky8 | Vgl. z.B. die Anschauungen der Kybernetik, der Informationstheorie und der Systemtheorie. So erklärte Norbert Wiener zur Kybernetik, ihm sei »klar, dass die ultraschnelle Rechenmaschine […] beinahe ein ideales Modell der sich aus dem Nervensystem ergebenden Probleme darstellen müsste« (Wiener, 1968, S. 35). Das sagt Claude Shannon über
303
304
4. Dataveillance: Algorithmen, Graphen und Protokolle
bernetik, Informationstheorie und Systemtheorie machen jedoch deutlich, dass »Information« und eine darauf basierende Weltanschauung eine ambivalente Beziehung zur materiellen Welt aufweisen. Einerseits wird Information für abstrakt, quantitativ und auf ein Kalkül von Management und Regulierung reduzierbar gehalten – dies ist die körperlose, immaterielle Vorstellung von »Information«, von der oben die Rede war. Andererseits zeigen Kybernetik, Informationstheorie und Systemtheorie, dass Information immanent materiell ist, konfiguriert in Militärtechnik, Kommunikationsmedien und sogar in biologische Systeme. Diesen doppelten Aspekt von Information finden wir sowohl in der kybernetischen Rückkopplungsschleife wie im Kommunikationskanal oder im organischen Ganzen jedes Systems. Information ist hier immateriell und sich materialisierend, abstrakt und konkret, ein Akt und ein Ding. Kurz gesagt stellen Deleuzes Kontrollgesellschaften ein Medium dar, durch das sich das Protokoll ausdrücken kann. In so einem Fall ist es die »Information« – in allen umstrittenen Bedeutungen dieses Begriffs –, die die Fähigkeit des Protokolls konstituiert, materielle Netzwerke jeder Art zu materialisieren. Das Protokoll impliziert stets irgendeine Möglichkeit, durch Information zu handeln. In gewisser Hinsicht ist Information das Konzept, das es einer breiten Vielfalt von Netzwerken – Computer-, biologischen, ökonomischen, politischen Netzwerken – ermöglicht, Netzwerke zu sein. Information ist das entscheidende Gut in der organisatorischen Logik der protokollogischen Kontrolle. Information ist die Substanz des Protokolls. Erst durch Information spielt das Protokoll eine Rolle.
Informationstheorie: »Information darf nicht mit Bedeutung verwechselt werden. Ja, zwei Nachrichten, von denen die eine schwer mit Bedeutung aufgeladen und die andere reiner Unsinn ist, lassen sich vom heutigen Standpunkt aus im Hinblick auf Information als exakt gleichwertig betrachten.« (Shannon und Weaver, 1963, S. 8) Und hier schließlich Ludwig von Bertalanffys Aussagen zur biologisch inspirierten Systemtheorie: »Der Organismus ist kein statisches System, das gegenüber der Außenwelt abgeschlossen ist und stets identische Komponenten enthält; er ist ein offenes System in einem quasi-stabilen Zustand, der konstant gehalten wird in seinen Massenverhältnissen in einem stetigen Wandel der Materialien und Energien seiner Komponenten, in die Material kontinuierlich von der äußeren Umwelt eindringt und wieder in diese austritt.« (von Bertalanffy, 1976, S. 121) Im Hinblick auf die Kontrolle steht Bertalanffys Werk im Gegensatz zu Wiener und Shannon. Zwar kennt auch Bertalanffy eine bestimmte Definition von »Information«, doch sie spielt eine viel geringere Rolle in der gesamten Regulierung des Systems als andere Faktoren. Information ist von zentraler Bedeutung für jedes System, aber sie ist nichts ohne eine umfassende Logik für eine Definition von Information und für ihre Nutzung als Ressource für das Systemmanagement. Mit anderen Worten: Die Logiken für den Umgang mit Information sind genauso wichtig wie die Idee der Information an sich.
Alexander Galloway/Eugene Thacker: Protokoll, Kontrolle und Netzwerke
A uf dem W eg zu einer politischen O ntologie von N e t z werken Während Graphentheorie und Netzwerkwissenschaft uns eine Menge nützlicher Prinzipien zur Analyse von Netzwerken liefern, neigen sie auch dazu, einige der Kernmerkmale von Netzwerken zu verschleiern: ihre dynamische Zeithaftigkeit (Bergsons »virtuelle« Netzwerke), die Gleichwertigkeit von Kanten und Knoten (Deleuzes und Guattaris Kanten ohne Knoten) und die Möglichkeit, dass es für jedes Netzwerk mehr als nur eine Topologie gibt (Negris »kollektive Singularitäten«). Idealerweise würde unsere politische Ontologie von Netzwerken eine Reihe von Begriffen zur Beschreibung, Analyse und Kritik von Netzwerkphänomenen liefern. Sie würde auf einem technischen Wissen über ein gegebenes Netzwerk basieren, ja es sogar erfordern, aber ohne davon determiniert zu sein. Sie würde die fundamentalen Kontrollverhältnisse in einem Netzwerk als immanent und von integraler Bedeutung für das Funktionieren eines Netzwerks ansehen. Vor allem würde eine solche politische Ontologie das ambivalente Wesen von Netzwerken in der Kontrollgesellschaft berücksichtigen – sie produzieren neue Herrschaftsformen und schaffen zugleich neue Öffnungen. Ein erstes Prinzip ist somit das Konzept der Individuation. Für Deleuze hat ein Modus der Individuation mit individuellen Menschen wenig zu tun, sondern mehr mit dem Prozess, durch den Aggregate im Lauf der Zeit aufrechterhalten werden. »Die numerische Sprache der Kontrolle besteht aus Chiffren, die den Zugang zur Information kennzeichnen bzw. die Abweisung. Die Individuen sind ›dividuell‹ geworden und die Massen Stichproben, Daten, Märkte oder ›Banken‹.« (Deleuze, 1993) Auch Gilbert Simondon schreibt über die Beziehungen zwischen Individuation und sozialen Formen und behauptet, wir müssten »das Individuum aus der Perspektive des Prozesses der Individuation und nicht den Prozess der Individuation anhand des Individuums verstehen« (Simondon, 1992, S. 300.) Daher individuiert ein Netzwerk auch in sich selbst auf eine konstruktionistische Weise, denn das Ganze ist zwar größer als die Summe seiner Teile, gleichwohl sind es die Teile (oder die lokalisierte Aktion von Teilclustern), die die Möglichkeit der Individuation »eines« Netzwerks konstituieren. Allerdings kann die Art und Weise, wie sich eine primäre Individuation vollzieht, ganz anders sein als die Art und Weise, wie sich eine sekundäre Individuation vollzieht – die Individuation des Netzwerks als Ganzem ist nicht die Individuation der Netzwerkkomponenten. Außerdem hängt Individuation mit Identifikation zusammen – dem Identifizieren des Netzwerks, der Agenten des Netzwerks. Kurzum: Die politische Unterscheidung zwischen dem Individuum und der Gruppe wird umgewandelt in eine protokollogische Regulierung zwischen dem Netzwerk als einer Einheit und dem Netzwerk als einer Heterogenität (was Computerprogrammierer ein »struct« nennen, eine Anordnung ungleicher Datentypen). Im Sinne der protokollogischen Kontrolle läuft die Frage der Individuation darauf hinaus, wie diskrete Knoten
305
306
4. Dataveillance: Algorithmen, Graphen und Protokolle
(Agenten) und ihre Kanten (Aktionen) als Knoten und Kanten identifiziert und behandelt werden. Was gilt als ein Knoten oder als eine Kante in einem gegebenen Netzwerk? Ändert sich das, je nachdem, wie genau die Analyse ist? Was widersteht Individuationen oder »Dividuationen«? Was fördert Individuationen oder diversifiziert sie? Daraus ergibt sich ein zweites Prinzip: Netzwerke sind eine Vielheit. Sie sind robust und flexibel. Während Netzwerke ganz einfach individuiert werden können und sich identifizieren lassen, sind Netzwerke auch stets »mehr als eins«. Netzwerke sind Vielheiten, und zwar nicht weil sie aus zahlreichen Teilen konstruiert sind, sondern weil sie organisiert sind. Das bedeutet nicht nur, dass Netzwerke wachsen können (indem mehr Knoten oder Kanten hinzukommen), sondern vor allem dass sie rekonfigurierbar sind – vielleicht ist es genau das, was es heißt, ein Netzwerk zu sein: zur Transformation, Rekonfiguration fähig zu sein. Dazu Deleuze und Guattari: »Das Mannigfaltige muss gemacht werden, aber nicht dadurch, dass man immer wieder eine höhere Dimension hinzufügt, sondern vielmehr schlicht und einfach in allen Dimensionen, über die man verfügt, immer n-1.« (Deleuze und Guattari, 1992, S. 16) In der Dynamik dezentralisierter und speziell distribuierter Netzwerke entsteht die Netzwerktopologie durch Abzug zentralisierender Knoten und/oder Kanten – Distribution kontra Agglomeration. Ein technisches Synonym für Vielheit ist daher das Kontingenz-Handling, die Art und Weise, wie ein Netzwerk plötzliche, ungeplante oder lokalisierte Veränderungen in sich bewältigen kann (genau das ist in die Idee des Internets eingebaut). Dazu Negri: »Die Menge ist ein aktiver sozialer Agent, eine Vielheit, die handelt. Im Unterschied zum Volk ist die Menge keine Einheit, aber im Gegensatz zu den Massen und zum Plebs können wir sie als etwas Organisiertes verstehen. Tatsächlich ist sie ein Agent der Selbstorganisation.« (Negri, 2002) Ein Netzwerk ist in gewissem Sinne etwas, das eine Spannung mit sich aushält – ein Gruppieren von Unterschieden, das vereinheitlicht ist. Interessant ist weniger die Beschaffenheit der Teile an sich, sondern relevant sind die Bedingungen, unter denen diese Teile interagieren können. Was also sind die Bedingungen, unter denen »ein« Netzwerk durch eine Vielheit von Agenten konstituiert werden kann? Protokolle dienen dazu, diese Möglichkeitsbedingung zu liefern, und die protokollogische Kontrolle liefert die Mittel, diese Bedingung zu ermöglichen. Eine dritte Bedingung, die Bewegung, dient dazu, die immanente Dynamik eines Netzwerks hervorzuheben. Wir haben zwar erklärt, dass Netzwerke sowohl eins als auch viele sind, doch diese Aussage stellt nur eine statische Momentaufnahme eines Netzwerks dar. Die meisten Netzwerke, die wir wahrnehmen – ökonomische Netzwerke, epidemiologische Netzwerke, Computernetzwerke – sind dynamisch. Wenn es vielleicht beim Studium von Netzwerken eine Binsenweisheit gibt, dann die, dass Netzwerke erst dann Netzwerke sind, wenn sie »lebendig« sind, wenn sie in Gang gesetzt, verkörpert oder in Betrieb sind. Dies gilt ebenso sehr für Netzwerke in ihrer Potenzialität (Schläferzellen, Netzwerkausfallzeit, abgeschaltete Handys) wie für Netzwerke in ihrer Realität. Im alltäglichen
Alexander Galloway/Eugene Thacker: Protokoll, Kontrolle und Netzwerke
Verständnis liegt dies auf der Hand – um Bewegungen von Austausch, Verteilung, Akkumulation, Auflösung, Schwärmen, Clustern geht es ja in einer Reihe von Milieus, von konzentrierten Städten bis zu transnationalen Ökonomien, von kulturübergreifenden Ansteckungen bis zu mobilen und drahtlosen Technologien. Doch unser überwältigendes Bedürfnis, Netzwerkknoten zu lokalisieren, zu positionieren und buchstäblich präzise anzuzeigen, verdeckt oft die Dynamik der Kanten. Um es mit Henri Bergson zu sagen: Wir neigen oft dazu, die Dynamik von Netzwerken als Statik, Zeit (oder Dauer) als Raum zu begreifen. Bergson schreibt: »Es gibt Veränderungen, aber es gibt unterhalb der Veränderungen keine Dinge, die sich verändern: die Veränderung hat keinen Träger nötig. Es gibt Bewegungen, aber es gibt keinen unveränderlichen trägen Gegenstand, der sich bewegt: die Bewegung schließt also nicht etwas ein, was sich bewegt.« (Bergson, 1993, S. 167)9 Schließlich hat die ausgesprochen informatische Betrachtung von Netzwerken heute eine Reihe von Anliegen mit sich gebracht, die sich von anderen, nichtIT-basierten Netzwerken wie denen in Transport und Verkehr oder analogen Kommunikationssysstemen unterscheiden. Der beliebte Diskurs über den Cyberspace als globaler Grenze oder ein digitaler Gemeinplatz, wonach der Zugang eine Ware sei, vermittelt die Botschaft, dass die politische Ökonomie von Netzwerken durch Konnektivität betrieben werde. Die RAND-Forscher John Arquilla und David Ronfeldt haben darauf hingewiesen, dass ein älteres Modell des politischen Widerspruchs darauf ausgerichtet gewesen sei, »das System zu zerschlagen«, während viele heutige netzwerkbasierte politische Bewegungen sich mehr dafür interessierten, »vernetzt zu werden« – und vernetzt zu bleiben (Arquilla und Ronfeldt, 2001). Gewiss gibt es außer den von uns erwähnten noch viele andere Möglichkeiten, Netzwerke zu begreifen. Wir wollen ja nicht einfach die gegenwärtige wissenschaftszentrische Anschauung durch eine mehr politische und mehr philosophische Anschauung ersetzen. Vielmehr möchten wir klarmachen, dass ein Verständnis der Kontrollmechanismen in Netzwerken so polydimensional sein muss, wie es Netzwerke selbst sind. Eine Möglichkeit, die Kluft zwischen der technischen und der politischen Betrachtung von Netzwerken zu überbrücken, besteht somit darin, bei Netzwerken zu bedenken, dass sie ständig ihre eigenen Modi der Individuation, der Vielheit, der Bewegungen und der Levels von Konnektivität ausdrücken – vom niedrigsten bis zum höchsten Level des Netzwerks. Aus diesem Grund betrachten wir Netzwerke als politische Ontologien, die von ihrer praktischen Umsetzung nicht zu trennen sind, und dementsprechend haben wir versucht, diesen Aufsatz auf einer Analyse der konkreten materiellen Pra9 | Genauso gut kann man behaupten, dass Netzwerke keine Knoten haben. Brian Massumi untermauert dies, wenn er feststellt: »In Bewegung befindet sich ein Körper in einer unmittelbaren, sich entfaltenden Beziehung zu seinem eigenen, nichtpräsenten Potenzial, sich zu verändern […]. Ein Ding ist, wenn es nicht tut.« (Massumi, 2002, S. 4, 6)
307
308
4. Dataveillance: Algorithmen, Graphen und Protokolle
xis von Netzwerken zu begründen, die sowohl in der Biowissenschaft wie in der Informatik existiert.
G egenprotokoll Wenn wir dies nun im Zusammenhang mit einem Konflikt zwischen Netzwerken betrachten, können wir eine weitere Frage stellen: Wie wandeln Netzwerke das Konzept des politischen Widerstands um? Wie wir festgestellt haben, impliziert der dezentralisierte Charakter von Netzwerken keineswegs die Abwesenheit von Kontrolle oder von politischer Dynamik. Das protokollogische Wesen von Netzwerken hat genauso viel mit der Aufrechterhaltung des Status quo wie mit der Störung des Netzwerks zu tun. Betrachten wir zunächst noch einmal den Widerstand innerhalb des Kontexts der Netzwerktechnik. Wenn Netzwerke nicht bloß technische Systeme, sondern auch dynamische, erfahrbare »lebendige Netzwerke« in Echtzeit sind, dann wäre es sinnvoll, Widerstand ebenfalls als lebendig zu betrachten – als Lebenswiderstand. Dies nennen Hardt und Negri »Dagegen-Sein« (Hardt und Negri, 2002, S. 222) – das riesige Potenzial des menschlichen Lebens, sich gegen Kräfte der Ausbeutung zu stellen. Es gibt (mindestens) zwei Bedeutungen des Wortes Lebenswiderstand: 1. Leben ist das, was der Macht widersteht, und 2. soweit es von der Macht vereinnahmt wird, müssen lebendige Systeme dem »Leben an sich« widerstehen. Deleuze hat dies so ausgedrückt: »Das Leben wird zum Widerstand gegen die Macht, wenn die Macht das Leben zu ihrem Objekt macht.« (Deleuze, 1987, S. 129) Andererseits ist das Leben eine Art Gegenmacht, ein Rückfluss von Kräften, die sich gegen die Quelle der Ausbeutung richten, selektiv Widerstand gegen Formen der Homogenisierung, Kanalisierung und Subjektwerdung leisten. (Aber dies ist eigentlich überhaupt kein Widerstand, sondern vielmehr eine Intensivierung, eine Flexibilisierung des Lebens.) »Wenn Macht zur Bio-Macht wird, so wird der Widerstand zur Macht des Lebens, zur lebendigen Macht, die sich nicht in Arten einsperren lässt, in Milieus oder in die Bahnen dieses oder jenes Diagramms.« (Ebd.)10 Andererseits ist das Leben auch das, gegen das Widerstand geleistet wird (Widerstand gegen das Leben), gegen das Widerstand vorangetrieben wird. Heute wird »das Leben an sich« durch konkurrierende biologische und computertechnische Definitionen eingeengt. Nach der biologischen Definition soll die Ikone der DNA alles erklären, von Alzheimer bis ADHS. Nach der computertechnischen Definition fördern Informationsüberwachung und das extensive Anlegen von Datenbanken über das Soziale eine Vorstellung von sozialer Aktivität, die sich 10 | Die zitierten Formulierungen beziehen sich auf Foucaults Werk Sexualität und Wahrheit.
Alexander Galloway/Eugene Thacker: Protokoll, Kontrolle und Netzwerke
durch Aufzeichnungen von Transaktionen, Registrierungen und Kommunikation verfolgen lässt. Widerstand gegen Leben ist somit eine Herausforderung, vor die jede Situation gestellt ist, in der eine normative Definition von »Leben an sich« mit einem instrumentellen Gebrauch dieser Definition übereinstimmt. Könnte diese Besinnung auf den Lebenswiderstand ein »Gegenprotokoll« ermöglichen? Wenn dies der Fall ist, wie könnten dann gegenprotokollogische Praktiken davon abhalten, in die vertrauten Aporien von Opposition und Rekuperation zu verfallen? Dazu abschließend ein paar Vorschläge. Erstens: Oppositionspraktiken werden sich nicht auf eine statische Karte von Eins-zu-eins-Beziehungen konzentrieren müssen, sondern auf ein dynamisches Diagramm von Viele-zu-vielen-Beziehungen. D.h., dass die Gegenprotokolle gegenwärtiger Netzwerke geschmeidig und kraftvoll sind, während existierende Protokolle flexibel und robust sind.11 Eine gegenprotokollogische Praxis wird Stillstand nicht scheuen. Sie wird oft neustarten. Zweitens geht es um Taktik. In Wirklichkeit ist die gegenprotokollogische Praxis nicht »gegen« irgendetwas. Daher sollte das Konzept des Widerstands in der Politik durch das Konzept der Hypertrophie ersetzt werden. Ziel ist nicht die Zerstörung der Technik in irgendeinem neoludditischen Wahn, sondern die Technik bis in einen hypertrophen Zustand hineinzutreiben, weiter, als sie gehen sollte. Wir müssen uns verstärken, nicht abschalten. Drittens: Weil Netzwerke (technisch gesehen) darauf basieren, mögliche Kommunikationen zwischen Knoten herzustellen, werden sich Oppositionspraktiken weniger auf die Merkmale der Knoten und mehr auf die Qualität von Kanten-ohne-Knoten konzentrieren müssen. In diesem Sinn wird die Unterscheidung zwischen Knoten und Kanten hinfällig werden. In Kommunikationsmedien spielen Übermittlungen eine entscheidende Rolle. Knoten setzen sich dann vielleicht aus Clustern von Kanten zusammen, während Kanten verlängerte Knoten sind. Indem sie verschiedene Protokolle als Operationsstandards nutzen, tendieren Netzwerke dazu, große Massen verschiedener Elemente unter einem einzigen Schirm zu kombinieren. Gegenprotokollogische Praktiken können aus der in Netzwerken vorhandenen Homogenität Kapital schlagen, um mit geringer Mühe weit und breit Nachhall zu finden. Die protokollogische Kontrolle wirkt durch 11 | Wir sind es leid, flexibel zu sein. Geschmeidig zu sein bedeutet etwas anderes, etwas Vitales und Positives. Vielleicht wäre übergeschmeidig ein noch besserer Begriff, entsprechend Deleuzes Sprachgebrauch im Anhang zu seinem Buch über Foucault – dort ist die Rede von »so etwas wie einer Überfaltung [surpli], die sich zu erkennen gibt in den Ketten des genetischen Codes, in den Potentialitäten des Siliziums in den Maschinen der dritten Art […]. Die Kräfte des Menschen treten zu neuen Kräften des Außen in Beziehung, mit denen des Siliziums, das so Vergeltung an der Kohle übt, mit denen der genetischen Bauelemente, die Vergeltung üben am Organismus, mit denen der Agrammatikalitäten, die am Signifikanten Vergeltung üben. In all diesen Fällen müsste man die Operationen des Überfaltens untersuchen, deren bekanntester Fall die ›Doppelhelix‹ ist.« (Deleuze, 1987, S. 188)
309
310
4. Dataveillance: Algorithmen, Graphen und Protokolle
inhärente Spannungen, und so lassen sich gegenprotokollogische Praktiken als bestimmte Arten von Implementierungen und Verstärkungen von protokollogischer Kontrolle verstehen. Protokollogische Kontrolle fördert die Schöpfung und Regulierung des Lebens an sich. Mit anderen Worten: Das Set von Verfahren zur Überwachung, Regulierung und Modulierung von Netzwerken als lebendigen Netzwerken ist auf der grundlegendsten Ebene auf die Produktion von Leben in seinen biologischen, sozialen und politischen Kapazitäten ausgerichtet. Das Ziel ist also nicht einfach das Protokoll – Ziel des Widerstands ist vielmehr die Art und Weise, wie das Protokoll das Leben an sich zurechtbiegt und formt.
L iter atur Adleman, Leonard: »Molecular Computation of Solutions to Combinatorial Problems«, in: Science 266 (11. September 1994), S. 1021-1024. Ders.: »On Constructing a Molecular Computer«, in: First DIMACS Workshop on DNA Based Computers, Bd. 27, Princeton 1997, S. 1-21. Arquilla, John und David Ronfeldt: Networks and Netwars: The Future of Terror, Crime, and Militancy, Santa Monica 2001. Dies.: »The Advent of Netwar«, in: dies. (Hg.): Networks and Netwars: The Future of Terror, Crime, and Militancy, Santa Monica 2001. Barabási, Albert-László: Linked: The New Science of Networks, Cambridge, MA, 2002. Bertalanffy, Ludwig von: General Systems Theory: Foundations, Development, Application, New York 1976. Braden, Robert: »Requirements for Internet Hosts«, RFC 1123, Oktober 1989. Deleuze, Gilles: Foucault, Frankfurt a.M. 1987. Ders.: »Having an Idea in Cinema«, in: Eleanor Kaufman und Kevin Jon Heller (Hg.): Deleuze und Guattari: New Mappings in Politics, Philosophy and Culture, Minneapolis 1998. Ders.: Unterhandlungen 1972-1990, Frankfurt a.M. 1993. Deleuze, Gilles und Félix Guattari: Kapitalismus und Schizophrenie. Tausend Plateaus, Berlin 1992. Dove, Alan: »From Bits to Bases: Computing with DNA«, in: Nature Biotechnology 16, September 1998, S. 830-832. Hall, Eric: Internet Core Protocols: The Definitive Guide, Sebastopol, CA, 2000. Hardt, Michael und Antonio Negri: Empire, Cambridge 2000 (deutsch: Empire. Die neue Weltordnung, Frankfurt, New York 2002). Kay, Lily: Who Wrote the Book of Life? A History of the Genetic Code, Stanford 2000. Keller, Evelyn Fox: Refiguring Life: Metaphors of Twentieth-Century Biology, New York 1995 (deutsch: Das Leben neu denken. Metaphern der Biologie im 20. Jahrhundert, München 1998).
Alexander Galloway/Eugene Thacker: Protokoll, Kontrolle und Netzwerke
Massumi, Brian: Parables for the Virtual, Durham 2002. Negri, Antonio: »Approximations«, in: Interactivist Info Exchange. 2002. http:// slah.autonomedia.org. Regalado, Antonio: »DNA Computing«, in: MIT Technology Review, Mai/Juni 2000. www.technologyreview.com/articles/regalado0500.asp. Shannon, Claude und Warren Weaver: The Mathematical Theory of Communication, Chicago 1963 (deutsch: Mathematische Grundlagen der Informationstheorie, 1976). Simondon, Gilbert: »The Genesis of the Individual«, in: Jonathan Crary und Sanford Kwinter (Hg.): Incorporations, New York 1992, S. 300. Stevens, W. Richard: TCP/IP Illustrated, Volume 1: The Protocols, New York 1994. Wiener, Norbert: Cybernetics, or Control and Communication in the Animal and the Machine, Cambridge, MA, 1965 (deutsch: Kybernetik. Regelung und Nachrichtenübertragung in Lebewesen und Maschine, Reinbek 1968). Wigley, Mark: »Netzwerkfieber«, in: Grey Room 4, 2001.
311
Der italienische Operaismo und die Informationsmaschine Matteo Pasquinelli Jede Gesellschaftsart entspricht einem bestimmten Maschinentyp – mit einfachen mechanischen Maschinen, die den Souveränitätsgesellschaften entsprechen, thermodynamischen Maschinen, die den Disziplinargesellschaften entsprechen, und kybernetischen Maschinen und Computern, die den Kontrollgesellschaften entsprechen. Aber die Maschinen selbst erklären nichts, man muss den kollektiven Apparat, von dem die Maschinen nur ein Teil sind, analysieren (D eleuze, 1990b, S. 169).
E inleitung »Die industrielle Produktionsmodalität taucht zu dem Zeitpunkt auf, da sich die Quelle der Information und die Quelle der Energie trennen, just als der Mensch hauptsächlich zur Informationsquelle wird und von der Natur gefordert wird, die Energie bereitzustellen. Da sie ein Relais ist, unterscheidet sich die Maschine vom Werkzeug: Sie hat zwei unterschiedliche Eingangspunkte, einen für die Energie und einen für die Information.« (Simondon, 2006, S. 17)
Diese Passage aus einem posthum veröffentlichten Text von Simondon soll als allgemeine Einsicht dienen, um die Maschinen der Industriellen Revolution aus einem anderen Blickwinkel zu betrachten. Die Bifurkation zwischen Energie und Information, die hier im Kern der industriellen Maschine vorweggenommen wird, soll nicht dazu verwendet werden, um eine Kontinuum zwischen den unterschiedlichen technologischen Epochen des Industrialismus und des Informationalismus zu unterstreichen, sondern im Gegenteil, wie es Deleuze und Guattari vermerken würden, um eine historische Bifurkation der technologischen Erbfolge oder des Phylum Machinicum auszumachen (Deleuze und Guattari, 1980, S. 406).
314
4. Dataveillance: Algorithmen, Graphen und Protokolle
Der erste Teil dieses Essays untersucht die Hypothese, dass die Geschichte der Information bereits in der industriellen Fabrik wurzelt und von Marx durch seine Lesart von Babbages geistiger Arbeitsteilung in seinen Notizen über die produktive Rolle des »generellen Intellekts« in den Grundrissen vermerkt wurde. Was allerdings in Marx’ Analyse der Maschine grundsätzlich fehlte, war eine Definition der Information in modernen Begriffen. Im Versuch, die Lücke zwischen Kybernetik und Marxismus zu schließen, entdeckt dieser Essay eine Pionierarbeit von Romano Alquati (1962, 1963) wieder, die zwar in den Quaderni Rossi (dem ersten Journal des italienischen Operaismo) veröffentlicht wurde, aber nie ihren Weg in die englische Sprache fand. Während einer »militanten Untersuchung« an der Olivetti Computerfabrik in Ivrea beschrieb und kartografierte Alquati die Bedingungen der Arbeit angesichts der neuen kybernetischen Apparate. Um eine konzeptuelle Brücke zwischen der Definition von Information und der Idee der lebendigen Arbeit zu schlagen, führte Alquati den Begriff der wertschöpfenden Information in den marxistischen Wortschatz ein. Dieser Begriff der wertschöpfenden Information wird nützlich sein, um Begriffe wie Massenintellektualität, immaterielle Arbeit und kognitiver Kapitalismus zu verstehen und zu überprüfen, Begriffe, welche die Denker des Operaismo zu Beginn der 1990er zu entwickeln begannen, um sich auf den politischen Übergang zum Postfordismus ausrichten zu können. In Ausdehnung des theoretischen Feldes des Operaismo wird im zweiten und letzten Teil des Essays die Idee der wertschöpfenden Information verwendet, um eine weitere Bifurkation des Phylum Machinicum in der gegenwärtigen Informationsgesellschaft vorwegzunehmen. Das Konzept des Maschinellen von Deleuze und Guattari (1972, 1980) wird zur Vermittlung zwischen Marx’ industrieller Maschine und der algorithmischen Form der digitalen Maschine verwendet. Anstatt ähnlich den frühen Digital Studies exzessiv auf Begriffe wie »Code« und »Sprache« zu fokussieren, wird der Algorithmus als der tatsächliche maschinelle Charakter der Informationsmaschine beleuchtet. Dieses Essay schlägt vor – falls die industrielle Maschine als eine Bifurkation der Domänen von Energie und Information beschrieben werden kann –, dass die Informationsmaschine selbst als eine weitere Bifurkation zwischen Information und Metadaten betrachtet werden kann. In Übereinstimmung mit der Philosophie des Operaismo und im Besonderen mit Alquatis ersten Einsichten wird die Hypothese der Gesellschaft der Metadaten als die gegenwärtige Evolution der Kontrollgesellschaft umrissen, wie sie bereits von Deleuze (1990a) in Hinblick auf die in Datenbanken verkörperte Macht abgebildet wurde.
M ar x , B abbage und die A rbeitsteilung geistiger A rbeit Tatsächlich geisterten die Informationsmedien schon in den ersten Instrumenten zur Textilerzeugung der Industriellen Revolution. In der Tat handelte es sich
Matteo Pasquinelli: Der italienische Operaismo und die Informationsmaschine
beim Jacquard Webstuhl um einen mathematischen Apparat, der durch eine Lochkarte gesteuert wurde, die jenen ähnelte, die im frühen 20. Jahrhundert als Datenspeicher standardisiert werden würden. Diese Erfindung beeinflusste Charles Babbage, der plante, ähnliche Karten für seine Analytische Maschine aus dem Jahre 1837 zu verwenden. In ihren Notizen zum Projekt unterstrich Ada Lovelace selbst (1961 [1853]), dass »die Analytische Maschine algebraische Muster webt, wie der Jacquard Webstuhl Blumen und Blätter«. Parallel zur Entwicklung anderer industrieller Technologien wie den thermodynamischen Maschinen kann die Entwicklung des Informationsmediums deshalb als eine autonome, maschinelle Abstammungsfolge verstanden werden. Natürlich war die Zeit im 18. Jahrhundert noch nicht reif, eine eigene Informationsrevolution auszulösen und die intellektuellen und kognitiven Komponenten der Arbeit zu unterscheiden und einzuschätzen. In Marx’ Kapital gibt es nur wenige Darstellungen der rund um die Maschinen operierenden »intellektuellen Organe« und erst in den posthum erschienenen Grundrissen tritt die kognitive Komponente der Produktion auf eine visionäre Art hervor. Es ist trotz allem interessant festzustellen, dass bei Marx die Beschreibung der industriellen Maschinerie und der damit verbundenen Arbeitsteilung durch Babbage, dem Pionier der Rechenmaschinen, inspiriert wurde. Bei Marx sind die Maschinen niemals autonome Agenten, sondern befinden sich im Kraftfeld der Beziehungen zwischen den Klassen und werden durch dieses geformt, da sie die »stärkste Waffe in der Streikunterdrückung sind« (Marx, 1867, S. 562). An und für sich ist die Maschine jedoch kein schädliches Instrument: »Es brauchte Zeit und Erfahrung, bevor die Arbeiter zwischen den Maschinen und ihrem Einsatz durch das Kapital zu unterscheiden lernten und ihre Angriffe nicht mehr auf die materiellen Instrumente der Produktion, sondern die Art der Gesellschaft, welche jene verwendet, lenkten.« (Marx, 1867, S. 554) Maschinen sind von Marx konzeptuell als ein Instrument zur Besetzung des Platzes einer vorhergegangenen Arbeitsteilung definiert. Nachvollziehbar folgt deshalb im ersten Band des Kapitals auf das Kapitel über die Arbeitsteilung jenes über die Maschinen. Die Idee, dass eine Maschine den Platz besetzt, der zunächst durch einen Prozess der Arbeitsteilung geschaffen wurde, geht auf Babbage zurück. Marx hat Babbage bereits in Die Armut der Philosophie diesbezüglich zitiert: »Wenn durch die Arbeitsteilung jede einzelne Operation zu einem einfachen Instrument vereinfacht worden ist, dann bildet die Verbindung all dieser einzelnen Instrumente, bewegt durch einen einzelnen Motor – eine Maschine.« (Babbage, 1832, zitiert von Marx, 1847)
Babbage war ein Visionär seiner Zeit. In seinem Buch Über die Ökonomie der Maschinen und Manufakturen schlug er »eine Teilung der geistigen Arbeit« als Grundlage der rechnenden Maschine vor: »Die Arbeitsteilung kann mit gleichem Erfolg sowohl auf geistige Arbeit als auch auf mechanische Arbeit angewandt werden und sichert in beiden Fällen die Ökonomie der Zeit.« (1832) In marxscher
315
316
4. Dataveillance: Algorithmen, Graphen und Protokolle
Manier kann Babbages Idee der Teilung der geistigen Arbeit auch auf zeitgenössische Informationsmaschinen angewandt werden. Wie die industriellen Maschinen nicht nur die Pferdestärken der Arbeiter ersetzten, sondern ein ganzes Set von Verhältnissen, das sich unter dem Regime der Manufakturen gebildet hatte, so kann auf dieselbe Art auch gesagt werden, dass die Informationsmaschinen ein ganzes Set kognitiver Relationen ersetzt haben, das bereits in den Industriefabriken am Werk gewesen ist. Andrew Ure, von Marx als »Pindar der automatisierten Fabrik« bezeichnet, beschrieb den industriellen Apparat als ein »weitverzweigtes Automaton, das zusammengesetzt aus verschiedenen mechanischen und intellektuellen Organen, in einem ununterbrochenen Konzert für die Produktion eines gemeinsamen Objektes arbeiten, alle einer sich selbst regulierenden bewegenden Kraft unterworfen« (Ure, 1835, zitiert nach Marx, 1867, S. 544). Die sogenannte Arbeitsteilung war, zuallererst, eine Teilung der mechanischen von den intellektuellen Organen. Marx schreibt: »Die Trennung der intellektuellen Potenzen des Produktionsprozesses von der manuellen Arbeit und die Transformation dieser Potenzen in Mächte, die durch das Kapital über die Arbeit ausgeübt werden, wird, wie wir bereits gezeigt haben, durch eine großangelegte Industrie, die auf den Fundamenten der Maschinen errichtet wird, vollendet. Die speziellen Fähigkeiten eines jeden nun all seiner Bedeutung beraubten Maschinenarbeiters verlieren sich als eine infinitesimale Quantität im Angesicht der Wissenschaft, der gigantischen Kräfte der Natur und der Masse der sozialen Arbeit, die durch das Maschinensystem verkörpert wird, welches zusammen mit diesen drei Kräften, die Macht des ›Herrn‹ begründet.« (Marx, 1867, S. 549)
Diese Passage aus dem Kapital klingt ähnlich wie das sogenannte »Fragment über die Maschinen« in den Grundrissen (Marx, 1939, S. 690-712; Notizbuch VI geschrieben im Februar 1858), in dem die einfachen »intellektuellen Organe« ein weitläufiges »soziales Hirn« werden und der »generelle Intellekt« in das fixierte Kapital der Maschinen aufgenommen wird (Marx, 1939, S. 694). Die Entwicklung der Rolle des Wissens vom Kapital zu den Grundrissen wird sichtbar im Übergang von den atomisierten intellektuellen Organen des Gesamtarbeiters zu einer Entwicklungsstufe, in der das »allgemeine soziale Wissen zu einer direkten Produktionskraft wird« (Marx, 1939, S. 694). In den Grundrissen scheint sich Marx auf eine autonome, kollektive Dimension des Wissens zu beziehen, bevor es in Maschinen implementiert wird – dieses Verständnis von Marx wird bekannterweise vom Operaismo in den 90er Jahren als eine Voraussage des Postfordismus und der Wissensökonomie aufgenommen und unterstrichen. Auch wenn Marx das Kapitel über die Maschinen im Kapital mit der einigermaßen ungenauen Aussage »die Maschine ist ein Mittel, um Mehrwert zu erzeugen« eröffnet (Marx, 1867, S. 492), so verfeinert er diese Aussage später, indem er erklärt, dass die Maschine nur ein Mittel zur Steigerung des Mehrwerts (Marx,
Matteo Pasquinelli: Der italienische Operaismo und die Informationsmaschine
1867, S. 572) ist. In marxschen Begriffen kann die Maschine keinen Mehrwert erzeugen, da sie nicht »ausgebeutet« werden kann: nur die Arbeiter werden ausgebeutet und sind die wirklichen Quellen des Mehrwerts. In den weiteren Teilen werde ich versuchen, die Tradition des Operaismo und die Idee der Informationsmaschine anhand von zwei auch von Marx inspirierten Einsichten zu lesen: 1) Informationsmaschinen besetzen, ersetzen und dehnen die Beziehungen der Teilung der geistigen Arbeit aus, die bereits im Industriezeitalter gegenwärtig waren; 2) So wenig wie die industriellen Maschinen sind die Informationsmaschinen Werkzeug für die Produktion von Mehrwert, sie können lediglich der Akkumulation und Steigerung des Mehrwerts dienen. Immer noch scheint der marxsche Wortschatz unzureichend, um das Zeitalter der Informationsmaschinen zu durchdringen und zu ordnen – erst in der Arbeit von Romano Alquati, einem der ersten Autoren des italienischen Operaismo, finden wir eine konzeptuelle Brücke, die fähig ist, Marx und die kybernetische Zeit zu verbinden.
A lquatis B egriff der wertschöpfenden I nformation Im Gegensatz zur allgemeinen Auffassung, dass die Begriffe immaterielle Arbeit und kognitiver Kapitalismus rezente theoretische Schöpfungen des Operaismo seien, muss festgehalten werden, dass Alquati bereits 1961 eine Untersuchung der Arbeitsumstände in den Computerfabriken der Olivetti in Ivrea durchführte. In der industriellen Landschaft Norditaliens war Olivetti ein Vorreiterunternehmen, das bekannt dafür war, Schreibmaschinen und bereits in den 1950er Jahren elektrische Rechenmaschinen und Großrechner herzustellen (der Elea 9003 z.B., der erste Computer auf Transistorbasis, wurde 1959 hier gebaut). Die Debatte über die Maschinen im »Neokapitalismus« war in den ersten Ausgaben der Roten Hefte (dem grundlegenden Journal des Operaismo) auch dank des Beitrags von Panzieri (1961) zentral, der ebenfalls die Analyse der »sozialen Fabrik« von Tronti (1962) beeinflusste. Aber es war vor allem in seinem umfangreichen Essay »Organische Zusammensetzung des Kapitals an der Olivettifabrik« (1962, 1963), in dem Alquati zweifellos den ersten Versuch einer Analyse der Kybernetik seitens des autonomistischen Marxismus unternahm. Fasziniert von der kognitiven Dimension der Arbeit in diesem neuen Umfeld interviewte Alquati Arbeiter in der Computerfabrik von Olivetti. Er entdeckte in diesem Zusammenhang die Kategorie der »Information« als einen neuen Vermittler zwischen den traditionellen marxschen Kategorien des variablen Kapitals und des fixen Kapitals, in diesem Fall zwischen den Kategorien der lebendigen Arbeit und der Maschinerie. Alquati schlug, um die marxsche Idee des Werts und die kybernetische Definition der Information miteinander zu verbinden, den Begriff der wertschöpfenden Information als konzeptuelle Brücke vor. Alquatis Essay weist keine bibliografischen Referenzen auf und es ist unmöglich, sein Verständnis der Definition von »Information« zu rekonstruieren – sicherlich war ihm be-
317
318
4. Dataveillance: Algorithmen, Graphen und Protokolle
kannt, dass in der frühen Informationstheorie »Information« als eine quantitative Maßeinheit und Symbolsequenz (vgl. Shannon, 1948) definiert worden war. Alquati nutzt z.B. das typisch englische Wort »Bit«, das zu jenem Zeitpunkt noch weitgehend ungebräuchlich war. Alquati war offensichtlich auf der Suche nach einer marxistischen Definition von Information, die über die mathematische Darstellbarkeit und physikalische Messbarkeit hinausgeht und die ökonomische und die kognitive Dimension des Begriffs zusammenfassen kann. In den folgenden Passagen muss deshalb des Terminus »Information« in einem Näheverhältnis zu dieser erweiterten Bedeutung im Sinne Alquatis verstanden werden. In seiner Untersuchung an der Olivettifabrik begegnete Alquati zuerst dem kybernetischen Apparat als Erweiterung der internen Bürokratie der Fabrik, welche den Produktionsprozess mit den Mitteln der Kontrollinformation überwacht (informazioni di controllo). Um die Kontrollinformationen durch die Mediation der kybernetischen Schaltungen der Maschinerie aufzuzeichnen, steigt die Bürokratie in die Körper der Arbeiter. An dieser Stelle führt Alquati das Konzept der wertschöpfenden Information (informazione valorizzante) ein, um den aufwärts fließenden und die kybernetischen Schaltungen der Fabrik fütternden Informationsstrom zu beschreiben. Eine solche wertschöpfende Information wird kontinuierlich durch die Arbeiter produziert, von der Maschine absorbiert und verdichtet sich eventuell in einem Produkt. »Information ist essentiell zu Arbeitskraft, sie ist, was der Arbeiter – durch die Mittel des konstanten Kapitals – an die Produktionsmittel auf der Basis von Bewertungen, Messungen und sorgfältiger Ausarbeitung weitergibt, um am Werkstück jene Operationen auszuführen, welche seine Form solcherart verändern, dass es seinen erforderlichen Nutzwert erhält.« (Alquati, 1963, S. 121, Übersetzung des Autors, M.P.)
Zu Beginn der Industriellen Revolution begann der Kapitalismus die Menschen ob ihrer mechanischen Energie auszubeuten, aber bald wurde klar, dass so wie Alquati festhält, der wichtigste Wert durch die Reihe der kreativen Akte, der Messungen und Entscheidungen, die die Arbeiter ununterbrochen durchführen und treffen müssen, geschaffen wird. Alquati nennt Information genau jene innovativen Mikroentscheidungen, welche Arbeiter während des Produktionsprozesses treffen müssen, um dem Produkt Form zu geben, aber auch, um den maschinellen Apparat selbst zu formen. Wenn auf diesem Weg Information in die marxistische Definition der Produktion aufgenommen wird, verändert sie sodann auch die traditionellen Definitionen der lebendigen Arbeit und des Mehrwerts. »Die produktive Arbeit ist definiert durch die Qualität der Information, die vom Arbeiter ausgearbeitet und den Produktionsmitteln durch die Mediation des konstanten Kapitals in einer Art übergeben wird, die tendenziell indirekt, aber komplett sozialisiert ist.« (Alquati, 1963, S. 121, Übersetzung des Autors, M.P.)
Matteo Pasquinelli: Der italienische Operaismo und die Informationsmaschine
Im Jahr 1963 veröffentlicht, aber eigentlich 1961 geschrieben, kann Alquatis Passage avant la lettre als erstes Postulat des Paradigmas des kognitiven Kapitalismus, das der Operaismo erst Jahrzehnte später entwickeln wird, verstanden werden. Bei Alquati sind die Arbeiter nicht mehr nur an den Maschinen schwitzende thermodynamische Tiere, sondern schon Hirnarbeiter, die ausgeklügelte Information produzieren. Vom Gesichtspunkt der technischen Zusammensetzung des Kapitals aus ist es die wertschöpfende Information, welche durch den Arbeiter in die kybernetische Maschine eingespeist wird und in eine Art maschinelles Wissen verwandelt wird. Nach Alquati ist es namentlich die numerische Dimension der Kybernetik, die fähig ist, das Wissen des Arbeiters in digitale Bits zu encodieren und in weiterer Folge diese digitalen Bits in Zahlen zur ökonomischen Planung zu verwandeln. »Die Kybernetik setzt die Funktionen des generellen Arbeiters, die in individuellen Mikroentscheidungen pulverisiert sind, wieder organisch und global zusammen: das ›Bit‹ koppelt den atomisierten Arbeiter an die Zahlen des Plans.« (Alquati, 1963, S. 134, Übersetzung des Autors, M.P.)
In anderen Worten verwandelt die als Interface zwischen den Domänen der Arbeit und des Kapitals operierende Kybernetik die Information in Mehrwert. Auf einfache Weise kann die marxsche Unterscheidung in der organischen Zusammensetzung des Kapitals hier imaginiert und angewandt werden: lebendige Information wird als etwas vom Arbeiter Produziertes verstanden, das sich in der Maschinerie und dem gesamten bürokratischen Apparat der Fabrik kristallisierte und in tote Information verwandelt. Die Vermittlung der Kybernetik entlang des ganzen organischen Zyklus der Information und der Wissensakkumulation ist manifest. Die interne Bürokratie der Fabrik stellt eine spezifische Arbeitsteilung dar, die lediglich durch die Kybernetik gespiegelt, implementiert und ausgedehnt wird. Ein Kontinuum, das Management, Bürokratie, Kybernetik, Maschinerie und Arbeitsteilung eint, stellt Alquatis wichtige Einsicht dar: die Kybernetik enthüllt den maschinellen Charakter der Bürokratie und umgekehrt die bürokratische Rolle der Maschinen, als dass sie wie Rückkopplungsapparate arbeiten, welche die Arbeiter kontrollieren und ihr Knowhow erfassen. Mit Alquati besichtigen wir die Eingeweide einer abstrakten Maschine, die keine stählerne Vergegenständlichung des Kapitals mehr ist. Zum ersten Mal macht der kybernetische Apparat die Transformation und Sedimentation von Information in fixes Kapital greif- und sichtbar. Indem er die Marxsche Lektion über die Maschinerie auf die frühe Computerära anwendet, wiederholt Alquati selbst, dass egal welche »neue« Maschine oder technologische Innovation entwickelt wird, sie immer ein Ausdruck der Machtbeziehung zwischen Klassen sein wird (Alquati, 1962, S. 89). Demzufolge scheint Alquati nahezulegen, dass Informationsmaschinen selbst Kristallisationen des sozialen Konflikts sind.
319
320
4. Dataveillance: Algorithmen, Graphen und Protokolle
Die Ergebnisse von Alquatis Forschung können auf folgende Art und Weise zusammengefasst werden: 1) Arbeit ist die Quelle von Information für den industriellen Apparat – tatsächlich ist Information der wertvollste Teil der Arbeit; 2) die Informationsmaschine ist von Flüssen wertschöpfender Information durchzogen und betrieben, die von den Arbeitern produziert werden und schrittweise das Design der Maschine, das Management der Arbeitsteilung und endlich den Endwert des Produkts verbessern; 3) es ist die numerische Dimension der digitalen Information, die es möglich macht, Wissen in Information zu verwandeln, Information in Zahlen und Zahlen in Wert; 4) der kybernetische Apparat der Fabrik wächst und verbessert sich dank dem Beitrag der sozialisierten Intelligenz der Arbeiter.
D eleuze und G uat taris M ehrwert der M aschine Neben Marx muss ein Verständnis des Begriffs der Informationsmaschine innerhalb des Operaismo mit dem Erbe von Deleuze und Guattari (1972, 1980) verglichen werden. Ihre berühmte Idee des Maschinellen hat viele Genealogien, die hier nicht dargestellt werden können, aber politisch waren sie eine Antwort auf den sozialistischen Produktivismus in denselben Jahren da die Massenmedien den Konsumerismus erfanden und die erste Welle der Kybernetik von den westlichen Gesellschaften aufgesogen wurde. Ähnlich dem Operaismo unternahm die Maschinenphilosophie den Versuch, die nur am Rande durch den Marxismus berührte technische Zusammensetzung der Arbeit von den Grenzen der Fabrik auf die ganze Metropole auszudehnen. Diese Idee war auch inspiriert durch den von Simondon (1958) als Antwort auf den rigiden Determinismus der Kybernetik eingeführten Begriff der Mechanologie. Seit Anbeginn war das Maschinelle dazu bestimmt, kritisch auf die neue Domäne der Information zu reagieren und diese in sich aufzunehmen. In einer Fußnote im Anti-Ödipus scheinen sich Deleuze und Guattari auf das Kapitel über die Maschinerie in Marx’ Grundrisse zu beziehen (Deleuze und Guattari, 1972, S. 232, Fußnote 76). Sicherlich durch die Lektüre inspiriert, versuchen sie auf derselben Seite das Konzept des »durch das konstante Kapital erzeugten maschinellen Mehrwerts« einzuführen, »[…] anerkennend, dass auch Maschinen arbeiten und Wert schaffen, dass sie immer gearbeitet haben, und dass sie immer mehr im Verhältnis zu den Menschen arbeiten, der deshalb aufhört ein konstituierendes Teil des Produktionsprozesses zu sein, um nur mehr eine Supplement zu diesem Prozess zu werden«. Wie soll eine solche Definition des maschinellen Mehrwerts aufgefasst werden? Deleuze und Guattari beziehen sich klar auf den Prozess der Umwandlung des generellen Intellekts in konstantes Kapital, worunter die Umwandlung des Mehrwerts des Codes (Wissen) in einem Mehrwert des Flusses (Marx’ Mehrwert) zu verstehen ist:
Matteo Pasquinelli: Der italienische Operaismo und die Informationsmaschine »Jede technische Maschine setzt Flüsse einer bestimmten Art voraus: Codeflüsse, dich sich sowohl innerhalb als auch außerhalb der Maschine befinden und die Elemente einer Technologie und sogar einer Wissenschaft bilden. Es sind jene Codeflüsse, die in den präkapitalistischen Gesellschaft derart eingekapselt, kodiert oder überkodiert sind, dass sie niemals Unabhängigkeit finden können (der Astronom, der Schmied). Aber das Decodieren der Flüsse im Kapitalismus hat diese Codeflüsse genauso wie die anderen befreit, deterritorialisiert und dekodiert – bis zu einem Grad, an dem die automatisierten Maschinen sie zunehmend in ihrem Körper und in ihren Strukturen als ein Kraftfeld internalisiert haben, während sie abhängig von einer Wissenschaft und einer Technologie, abhängig von einer so genannten intellektuellen Arbeit unterschieden von der händischen Arbeit der Arbeiter, blieben (die Evolution des technischen Objektes).« (Deleuze und Guattari, 1972, S. 233)
Diese Passage zeigt, dass sich Deleuze und Guattari bereits 1972 einer neuen Form der Wertakkumulation bewusst waren, die durch Wissen und einer aktiven kognitiven Komponente, die Teil der durch jedes Subjekt geleisteten Mehrarbeit ist, angetrieben wird. »Kurz gesagt verkörpern die durch den Kapitalismus in Wissenschaft und Technik ›befreiten‹ Codeflüsse selbst einen maschinellen Mehrwert, der nicht direkt von Technik und Wissenschaft selbst abhängt, sondern vom Kapital – ein Mehrwert, der zum menschlichen Mehrwert hinzugefügt wird und der die relative Abnahme desselben kompensiert, und beide zusammen konstituieren den gesamten Mehrwert des Flux, der das System charakterisiert. Wissen, Information und spezialisierte Bildung sind so sehr Teil des Kapitals (›Wissenskapital‹) wie die elementarste Arbeit des Arbeiters.« (Deleuze und Guattari, 1972, S. 234)
Bemerkenswerterweise ist die Idee der »abstrakten Maschine«, die Deleuze und Guattari (1980) später ins Zentrum ihrer Anthologie Tausend Plateaus rücken werden, vom selben Terminus inspiriert, der in der Kybernetik verwendet wird, wo eine abstrakte Maschine das Projekt eines Algorithmus darstellt, die subsequent in einer virtuellen Maschine – beispielsweise eine Computersoftware – oder einer materiellen Maschine – beispielsweise einer Computerhardware oder einem beliebigen mechanischen Apparat – implementiert werden kann (Macura, 2011). Tatsächlich scheinen die Tausend Plateaus eine Tendenz zur Abstraktion hin zu unterstreichen, die klar auch in der maschinellen Assemblage hervortritt. Die maschinelle Assemblage ist immanent und sehr produktiv, aber dieser Begriff macht offensichtlich, dass es zu einem Wechsel zugunsten einer relationaleren Ontologie kommt. Jüngst wurde durch diese Ambivalenz der Begriff der Maschine in seiner Rezeption auf das Paradigma der Assemblage reduziert, wodurch die tatsächlichen Dimensionen der Produktion bei Deleuze und Guattari und ihr marxistischer Hintergrund entwertet wurden. Ein vorzügliches Beispiel dieser »Theorie der Assemblage«, welche das marxistische Mehr aus ihrer Philosophie verbannt, stellt DeLanda (2006, 2010) dar. Im Rahmen zeitgenössischer Studien zum Poststrukturalismus, wenn der Begriff des Maschinellen auf seine Etymo-
321
322
4. Dataveillance: Algorithmen, Graphen und Protokolle
logie in Latein machina und Griechisch mechané zurückgeführt wird, wird es immer aufgelöst als Medium, Werkzeug, Artefakt, Apparat, Struktur (Raunig, 2010). Doch ist bemerkenswert zu sehen, wie die Idee von Mehrwert und Zuwachs tatsächlich bereits in den etymologischen Wurzeln auftaucht. Präzisere Wörterbücher unterstreichen auf spezifische Weise die antike Wurzel mach-, die Wachstum, Zuwachs, Zugewinn an einer Kraft bedeutet (Klein, 1971). Die selbe Wurzel mach- taucht z.B. sowohl im Lateinischen magia (»magic«) als auch in magnus (»groß«) auf. Auf ähnliche Art verweist das althochdeutsche Wort Macht auf die Bedeutung Kraft, Fähigkeit, Vermöglichkeit und Reichtum auf eine Art, wie es das lateinische Wort potentia tut. Mit anderen Worten ließen Deleuze und Guattari lediglich die antike Wurzel des Wortes »Maschine« wieder erklingen, als sie sich auf den maschinellen Mehrwert bezogen. Geprägt durch diese Etymologie und immer noch mit Marx übereinstimmend kann die (Informations-) Maschine als ein Apparat zur Akkumulierung und Verstärkung eines gegebenen Flusses definiert werden, währenddessen Instrument, Werkzeug und Medium eher angebracht wären, um lediglich eine Übersetzung oder Erweiterung des gegebenen Flusses (Energie, Arbeit, Information etc.) zu beschreiben. Das Konzept der Maschine wäre dann eher mit dem Mehrwert verbunden als nur mit Assemblage.
D ie linguistische und kognitive W ende im italienischen O peraismo Die Jahre des Aufschwungs der Netzwerkgesellschaft waren anfänglich vom Operaismo eher als eine linguistische Wende der Arbeit aufgefasst worden, denn als eine technologische Wende. Der Operaismo hat immer das Primat des Gegensatzes der Arbeit ins Zentrum seiner politischen Ontologie gestellt. Tatsächlich ist »das Problem nicht«, wie Lazzarato (1997, S. 19) herausgestellt hat, »zu definieren was Arbeit ist, sondern was lebendige Arbeit ist«. Das bedeutet, dass die modernen Technologien nicht aus der Perspektive ihrer eigenen intrinsischen Natur, sondern vom Standpunkt der sie nährenden lebendigen Arbeit aus untersucht worden sind. In diesem Sinn war der Übergang zum Postfordismus durch den Operaismo zuallererst als eine Transformation der Arbeit zugunsten vermehrt linguistischer und kognitiver Fähigkeiten verstanden worden. Diese linguistische Wende tritt aus den Werken von Lazzarato, Marazzi, Negri und Virno hervor, die in Journalen wie Luogo Commune (Rom) und Futur Antérieur (Paris) in den 1990er Jahren im Versuch publiziert worden sind, die neuen Subjektivitäten, die nach dem politischen Winter der 1980er Jahre aus dem Postfordismus heraustraten, zu radikalisieren. In diesen Jahren griff der Operaismo auf das berühmte »Fragment der Maschinen« aus den Grundrissen (Marx, 1939, S. 670-712) zurück, das von Renato Solmi bereits 1964 in der vierten Ausgabe der Quaderni Rossi übersetzt worden ist. Virno (1990) erinnert uns darin, wie dieses »Fragment« dazu genutzt wurde, um in den 1960er
Matteo Pasquinelli: Der italienische Operaismo und die Informationsmaschine
Jahren die angenommene Neutralität der Wissenschaft in Frage zu stellen, um in den 1970er Jahren eine Kritik am Staatssozialismus und der Ideologie der Arbeit zu formulieren, um aber erst in den 1980er Jahren letztendlich die tatsächlichen produktiven Formen des Postfordismus zu erkennen. Der erste Artikel über die »Hegemonie der immateriellen Arbeit« ist von Lazzarato und Negri (1991). Marazzis Il posto dei calzini (1994), Lazzaratos Lavoro immateriale (1997) und Virnos Grammatica della moltitudine (2002) stellen die beste Synthese der Debatte des Operaismo über die linguistische Wende im Postfordismus dar. Virno im Besonderen war einer der ersten Denker, der entschlossen versucht hat, die marxsche Idee des generellen Intellekts aus den Schaltungen der industriellen Maschinen und der wissenschaftlichen Labore zu reißen, um sie in den neuen Formen der gesamtgesellschaftlichen Produktion zu finden. »Massenintellektualität ist die Charakteristik der Allgemeinheit postfordistischer lebendiger Arbeit, nicht nur jene eines besonders qualifizierten dritten Sektors: es ist der Abstellplatz von kognitiven Kompetenzen, die nicht in Maschinen objektiviert werden können. Massenintellektualität ist die hervorstechendste Form, in der sich der generelle Intellekt heutzutage manifestiert.« (Virno, 1990, S. 9)
Virno zufolge ist es der Fehler des traditionellen Marxismus anzunehmen, dass der generelle Intellekt sich nur im fixierten Kapital befände und nicht in der gesamten linguistischen Aktivität der Metropole: »ein gutes Beispiel für die Massenintellektualität ist der Sprecher, nicht der Wissenschaftler«, merkt bemerkenswerterweise Virno (1990) an. Im Allgemeinen scheiterten die Autoren des Operaismo daran, die spezifische Ontologie der neuen Informationstechnologien ins Auge zu fassen. Für Lazzarato z.B. scheinen die neuen Maschinen des Postfordismus immer noch die Videomaschinen des Fernsehzeitalters zu sein. In der Videofilosofia (1996) definiert Lazzarato die neuen Videotechnologien als »Maschinen, die Zeit kristallisieren« (Lazzarato, 1996, S. 49), aber die spezifische Form der Informationsmaschinen wird nicht weiter untersucht. Nur in Marazzi (1994) gibt es einen Versuch, der Rolle der Turingmaschine innerhalb der postfordistischen Produktion einen Rahmen zu geben, aber erneut geschieht das als linguistische Maschine. »Formal logische Sprache war grundlegend für die ›linguistische Maschine‹, die der englische Mathematiker Alan Turing 1936 theoretisierte und die den Ursprung der heutigen Informationstechnologien darstellt. Es handelt sich dabei um eine ›linguistische‹ Maschine, deren wichtigstes Element die Organisation der Grammatik, deren Symbole auf einem magnetischen ›Fließband‹ von einer Position vor- und zurücklaufen, ist. Die linguistische Organisation des Produktionsprozesses charakterisiert nicht nur die ›Turingmaschine‹ und die Informationstechnologien. Selbst Verwaltungsmodelle sind durch die von Alan Turing zum Ausdruck gebrachten Prinzipien inspiriert: ihr Ziel ist es, das Unternehmen als eine ›Datenbank‹ zu organisieren, die dazu fähig ist, ihre Handlungen durch einen sanften, flüs-
323
324
4. Dataveillance: Algorithmen, Graphen und Protokolle sigen, ›intergefaceten‹, linguistischen Kommunikationsprozess selbst zu determinieren.« (Marazzi, 1994, S. 27 [2011, S. 35])
In dieser Passage beschreibt Marazzi das Modell der Turingmaschine als eine der Basisformen des Postfordismus, doch wird diese Ahnung nicht weiter verfolgt und bleibt auf die allgemeine Dimension der Sprache gerichtet. In jüngster Zeit kommt Marazzi (2005) in einem dem digitalen Kapitalismus gewidmeten Essay auf die Ontologie der Maschine zurück. Er notiert, dass in großen Unternehmen (besonders der Softwareindustrie) das fixe Kapital in Form einer »kognitiven Maschine« vorliegt. Marazzi beschreibt dann eine sich herausbildende anthropogenische Produktionsform, die darauf basiert, was Boyer (2002) die Produktion des Menschen aus den Mitteln des Menschen genannt hat, was das zur Maschine oder zu fixem Kapital Werden »des Lebenden« bedeutet. Diese neue Produktionsform ist – prosaischer ausgedrückt – der Dienstleistungs- oder tertiäre Sektor: Soft Industries wie Bildung. Neue Technologien und die Kulturindustrien. Der Ontologie Deleuze und Guattaris folgend synthetisieren Negri und Hardt in Empire diesen Wechsel (2000, S. 367) als eine allgemeine »maschinelle Metamorphose« der Multitude. Präziser versucht Vercellone (2005, 2006, 2007) alle Analysen der immateriellen Arbeit und der Massenintellektualität unter dem Paradigma des kognitiven Kapitalismus zu systematisieren. Für Vercellone bedeutet die Idee des generellen Intellekts materialistisch eine neue Arbeitsteilung. Die Geschichte des Kapitalismus wird von Vercellone entlang drei Stufen des Antagonismus und der Ausbeutung gelesen: formelle Unterordnung (Manufakturkapitalismus), reelle Unterordnung (industrieller Kapitalismus) und genereller Intellekt (kognitiver Kapitalismus). »Marx nutzt die Begriffe formelle Unterordnung, reale Unterordnung und genereller Intellekt, um in ihrer logisch historischen Abfolge zutiefst unterschiedliche Mechanismen der Unterordnung des Arbeitsprozesses durch das Kapital (und die Arten der Konflikte und Krisen, die sie generieren) zu qualifizieren.« (Vercellone, 2007, S. 19)
Die Rolle der Maschinen und der technologischen Evolution erscheint bei Vercellone sekundär, aber nur, weil er sich mehr auf die allgemeinere technische Zusammensetzung und die allgemeinere »Abstrakte Maschine« der Arbeitsteilung konzentriert. So wie die Maschinerie bei Marx besetzt auch das Wissen maschinenhaft den Raum einer vorhergegangenen Arbeitsteilung. Die Konfliktdynamik im Verhältnis des Wissens zur Macht besetzt eine zentrale Position in der Erklärung der Tendenz des Zuwachses der organischen und technischen Zusammensetzung des Kapitals. Diese Tendenz, schreibt Marx, ist ein Resultat des Weges, auf dem das Maschinensystem in seiner Gesamtheit auftritt:
Matteo Pasquinelli: Der italienische Operaismo und die Informationsmaschine »Dieser Weg ist, eher, Analyse – durch die Arbeitsteilung, welche schrittweise die Bewegungen der Arbeiter in immer mechanischere verwandelt, damit an einem gewissen Punkt ein Mechanismus an ihre Stelle treten kann.« (Vercellone, 2007, S. 18)
In der Hypothese über den kognitiven Kapitalismus scheint die technische Zusammensetzung der Arbeit Bewegungen der Deterritorialisierung und Reterritorialisierung zu folgen: industrielle Maschinen reterritorialisieren die Arbeitsteilung der Manufaktur innerhalb der Fabrik, während die Maschinen des kognitiven Kapitalismus die Arbeitsteilung über die gesamte Gesellschaft deterritorialisieren. Die von Vercellone beschriebene logische Kette zwischen Antagonismus, Arbeitsteilung, Maschinerie und generellem Intellekt beschreibt eine generelle abstrakte Maschine, die dazu fähig ist, in ihrer organischen Zusammensetzung nicht nur die neuen kognitiven Eigenschaften der kapitalistischen Organisation aufzunehmen, sondern auch die alten Eigenschaften. Im Allgemeinen ist in allen Darstellungen der neuen technischen Zusammensetzung, die der Operaismo skizziert, eine maschinelle Dimension der lebendigen Arbeit außerhalb der industriellen Maschinerie und Verwaltung zu finden. Eine derartige kollektive Dimension von Wissen wurde in den Grundrissen (Marx, 1939, S. 690-712) »genereller Intellekt«, »generelle wissenschaftliche Arbeit«, »generelles soziales Wissen« usw. genannt. Diese kollektive und maschinelle Dimension von Wissen ist auf zwei Wegen produktiv: als in industrieller Maschinerie verkörpert (Marx, 1939) aber auch als Massenintellektualität (Virno, 1990), die die neue Arbeitsteilung im kognitiven Kapitalismus (Vercellone, 2005) verwaltet und neue »Lebensformen« und neue Dienstleistungen innerhalb der sogenannten anthropogenischen Industrien (Marazzi, 2005) produziert. Die individuelle Dimension der immateriellen Arbeit (Lazzarato, 1996) kann in sich selbst als kognitive Arbeit, die neue materielle, immaterielle und soziale Maschinen (Marazzi, 2005) schafft, und, traditioneller, als informationelle Arbeit vor einer Maschine und wertschöpfende Information (Alquati, 1963) produzierend, unterschieden werden. Falls es dem Operaismo allerdings passierte, dass er, um seine Analyse des Postfordismus auszudehnen, das maschinelle Paradigma von Deleuze und Guattari annahm, blieb die eigentliche Ontologie der Informationsmaschine weitgehend nicht untersucht.
D er A lgorithmus als die maschinelle D imension des digitalen C odes Die linguistische Wende des Postfordismus faszinierte die politische Ökonomen und marxistische Philosophen so sehr wie die frühen Wissenschaftler der Digital Culture. In Ermangelung anderer Methodologien haben die Geistes- und Kulturwissenschaften das Feld der New Media Theory seit ihrem Ursprung geformt und haben dabei einen Ansatz importiert, der den digitalen Code zumeist als
325
326
4. Dataveillance: Algorithmen, Graphen und Protokolle
einen Text wiedergibt (manchmal sogar als ein »Gedicht«) und dabei Computersprachen als den natürlichen Sprachen äquivalent behandelt (Kittler, 1999a; Manovich, 2001). Diese Verwirrung in der volkstümlichen und wissenschaftlichen Wahrnehmung wurde auch durch das historische Debüt der Turingmaschine hervorgerufen, die im Zweiten Weltkrieg in England dazu erfunden wurde, die Geheimcodes der deutschen Wehrmacht zu dechiffrieren. Kittler zitiert in seinem Eintrag zu »Code« für das Lexikon Software Studies (2008) Turing selbst, wenn er feststellt, dass Computer vielleicht mit dem primären Ziel menschliche Sprache zu entschlüsseln, geschaffen worden sind. Galloway (2004) hat allerdings unterstrichen, dass digitaler »Code zwar eine Sprache ist, aber eine sehr spezielle Sprache … die einzige Sprache, die ausführbar ist«. Und Kittler (1999b) selbst merkte an, dass »es kein Wort in einer gewöhnlichen Sprache gibt, das tut, was es sagt. Keine Beschreibung einer Maschine setzt eine Maschine in Bewegung«. Tatsächlich ist die Ausführbarkeit des digitalen Codes nicht mit der Performativität der menschlichen Sprache zu verwechseln, warnt Cramer (2008), da Code »eine Maschine ist, um Bedeutung in Handlung zu übersetzen«, wie Galloway (2004) schließt. Trotzdem fehlt immer noch eine Definition des digitalen Codes, welche mit einer maschinellen Ontologie übereinstimmt. Der Ausdruck »digitaler Code« bezieht sich im Allgemeinen auf drei unterschiedliche Dinge: die Binärziffern, die einen analogen Input in null- und einwertige Impulse übersetzen; die Sprache, in der Softwareprogramme geschrieben werden (beispielsweise C#, Perl etc.) und das Skript eines Softwareprogramms, das die logische Form eines Algorithmus übersetzt. In diesem Essay schlage ich vor, das Augenmerk lediglich auf das dritte Element zu richten: den Algorithmus als die innere maschinelle Logik der codebetriebenen Maschinen. Die zentrale Rolle des Algorithmus wird einhellig von vielen Wissenschaftlern in der Medientheorie (Goffey, 2008; Mackenzie, 2006) und natürlich der Kybernetik, in der der Algorithmus die essentielle Komponente der Abstrakten Maschine darstellt, anerkannt. Ein aufmerksamerer Blick auf die Topologie des Algorithmus würde dazu beitragen, die maschinelle Dimension des Digitalen gegenüber den sprachorientierten Interpretationen der frühen Medientheorie hervorzuheben. Unbestreitbar steht der Begriff des Algorithmus im Zentrum eines wachsenden Interesses ob seiner kulturellen, politischen und ökonomischen Folgen. In der Medientheorie wurde diese Hegemonie des Algorithmus über verschiedene Felder hinweg beschrieben: in den Technologien des Alltags (Bunz, 2012), auf Kriegsschauplätzen (Amoore, 2009), Biometrie (Cheney-Lippold, 2011), Finanzwirtschaft (Lenglet, 2011), Gaming (Galloway, 2006), Architektur (Parisi, 2013) und Kunst (Holmes, 2010). Mit anderen Worten werden Algorithmen zunehmend in ihrer extensiven Art (und nicht nur in der durch die Kybernetik gegebenen intensiven Definition) verstanden und werden ihrem Charakter nach als »soziale Assemblagen«, wie sie Deleuze und Guattari (1980) in der Beschreibung jeglicher Art von Maschinerie verwendeten, wahrgenommen.
Matteo Pasquinelli: Der italienische Operaismo und die Informationsmaschine
Tatsächlich sind Algorithmen von einem marxistischen Blickwinkel aus betrachtet niemals autonome, für sich selbst stehende Objekte und werden wie Marx’ Maschinen ständig durch den Druck und den Wechsel der externen Kräfte neu geformt und erfunden. Grundsätzlich müssen an dieser Stelle zwei Arten des Algorithmus unterschieden werden: Algorithmen, die Information in andere Informationsformate übersetzen (wie die Mehrheit der Softwareprogramme und auch der Texteditor, auf dem ich dieses Essay schreibe) und Algorithmen, die Information akkumulieren und aus ihnen Metadaten, also Information über Information, extrahieren (wie Googles PageRank Algorithmus, Finanzalgorithmen und wissenschaftliche Software, die Publikationsindexe erstellt). Metadaten zeugen von einem Wechsel zu einer unterschiedlichen und höheren Dimension in der Beziehung zu Information – sie enthüllen die kollektive und »politische« Eigenart, die aller Information innewohnt. Ähnlich Alquatis Lesart von Information sollten Metadaten hier sowohl in einer quantitativen als auch in einer qualitativen Art – gleichzeitig politisch und technisch – verstanden werden. Die Akkumulation von Daten und Extraktion von Metadaten, die täglich durch die globalen digitalen Infrastrukturen durchgeführt wird, ist umfangreich: man nehme Suchmaschinen wie Google, soziale Netzwerke wie Facebook und Twitter, Online-Stores wie Amazon und jede andere globale Dienstleistung als Beispiel. Die neuartige Extraktion von Metadaten auf globalem Maßstab hat erst kürzlich begonnen, eine neue Perspektive auf die Beherrschung der Produktionsmittel zu enthüllen – dieser Wechsel wurde bekanntermaßen auch durch die Verwendung des Begriffs »Big Data« oder der Rede von einer »industriellen Revolution der Daten« in der jüngsten Businessliteratur bestätigt (Economist, 2010; Pasquinelli, 2010).
E inige H ypothesen zur G esellschaf t der M e tadaten Es mag helfen, Deleuze und Guattaris Begriff des Maschinellen auf die Algorithmen des digitalen Kodes zurück zu beziehen, um sie als Maschinen im marxschen Sinn zu erkennen, und zwar als Maschinen zur Kontrolle, Akkumulation und »Steigerung des Mehrwerts«. In diesem Sinn arbeitet der Begriff des Maschinellen bei Deleuze und Guattari als ein konzeptueller Vermittler zwischen dem Marxismus und den Digital Studies, aber in diesem Fall in Richtung einer Repolitisierung des Begriffs der Informationsmaschine und nicht in Richtung einer Neutralisierung des Konzepts des maschinellen Mehrwerts. Wenn bereits Simondon die industrielle Maschine als ein infomechanisches Relais zwischen den Flüssen der Energie und der Information betrachtete, sollte eine weitere Bifurkation des Phylum Machinicum vorgeschlagen werden, um die Informationsmaschine als ein metainformationelles Relais zu erkennen, dessen Algorithmen sowohl den Fluss der Information als auch den der Metadaten handhaben. Metadaten können logisch als der »Maßstab« der Information begriffen werden, der Berechnung ihrer sozialen Dimension und deren Umwandlung in
327
328
4. Dataveillance: Algorithmen, Graphen und Protokolle
Wert. Wie Alquati gezeigt hat, muss der kybernetische Apparat ständig durch die von Arbeitern produzierten Flüsse von wertschöpfender Information gefüttert und unterhalten werden, aber es ist auf spezifische Weise die Akkumulation von wertschöpfender Information, und deshalb die Akkumulation von Information über Information (oder Metadaten), die die Organisation der Produktionslinie, das Design des Maschinenparks und den Endwert des Produktes verbessert. Dank Alquatis Einsicht und der Vermittlung von Deleuze und Guattari innerhalb des Paradigmas des kognitiven Kapitalismus können Informationsmaschinen im Allgemeinen als Maschinen zur Akkumulation von wertschöpfender Information, Extraktion von Metadaten, Berechnung des Mehrwerts des Netzwerks und Implementierung maschineller Intelligenz definiert werden. Abschließend – als ein Set von vorläufigen Hypothesen innerhalb der entstehenden »Big Data« Gesellschaft – kann von den Metadaten gesagt werden, dass sie dazu genutzt werden: 1) um den Wert von sozialen Beziehungen zu messen; 2) das Design von Maschinen und maschineller Intelligenz zu verbessern; und 3) Massenverhalten zu überwachen und vorherzusagen. 1. Metadaten als Maßstab des Werts sozialer Beziehungen. Die Akkumulation von Information durch die Mediatisierung der digitalen Maschinen spiegelt und misst jene Produktion sozialer Beziehungen, die Marx selbst als die wirkliche Natur des Werts betrachtet hat (»Kapital ist keine Sache, sondern eine soziale Beziehung zwischen Personen, die durch Dinge vermittelt wird«; Marx, 1867, S. 932). Digitale Technologien wie die sozialen Netzwerke liefern heute eine punktgenaue Kartografie dieser produktiven Beziehungen (man betrachte z.B., wie Facebook und Twitter kollektive Kommunikation in eine Ökonomie der Aufmerksamkeit verwandeln). So sehr die Thermomaschinen dazu genutzt wurden, Wert im Ausdruck Quantität von Energie pro Zeit zu messen, scheinen Infomaschinen Wert im Ausdruck Anzahl von Links pro Knotenpunkt zu messen. Das ist beispielsweise im Fall des Google PageRank Algorithmus und in vielen Ranking- und Ratingtechnologien offensichtlich, die heutzutage benutzt werden (siehe Pasquinelli, 2009). Die Extraktion von Metadaten beschreibt hier einen Flussmehrwert (Deleuze und Guattari, 1972, S. 233) oder eine Art von Netzwerkmehrwert. 2. Metadaten als Implementierung von maschineller Intelligenz. Die Extraktion von Metadaten liefert auch wertvolle Information, um maschinelle Intelligenz auf allen Ebenen zu optimieren: von den Softwareprogrammen zum industriellen Management, von Werbekampagnen zur Logistik. In diesem Sinn ist die digitale Sphäre immer noch Alquatis Computerfabrik sehr ähnlich: die Informationsflüsse werden genutzt, um die allgemeine interne Organisation zu verbessern und um effizientere Algorithmen zu kreieren. Auch werden innerhalb der Infrastruktur des Internets die Flüsse der wertschöpfenden Information in fixes Kapital verwandelt; das bedeutet, dass Wissen in die Maschinerie übertragen und in ihr verkörpert wird. Man betrachte erneut Googles PageRank Algorithmus und seine Entwicklung durch den Datenverkehr und das kollektive Verhalten des globalen
Matteo Pasquinelli: Der italienische Operaismo und die Informationsmaschine
Publikums. Metadaten beschreiben hier einen Codemehrwert (Deleuze und Guattari, 1972, S. 233). 3. Metadaten als eine neue Form biopolitischer Kontrolle (Dataveillance). Eher als zur Erhebung individueller Neigungen können Metadaten zur Kontrolle von Menschenmengen und der Vorhersage von Massenverhalten genutzt werden, wie es heutzutage bei jeder Regierung, welche die Nutzung sozialer Medien verfolgt, bei Spin Doktoren, welche politischen Wahlen kartografieren, bei Stadträten, welche die Verkehrsflüsse messen und bei Unternehmen, die Zulieferketten folgen, passiert. Online-Echtzeitstatistiken spezifischer Suchbegriffe können ebenso die Verbreitung von Krankheiten über ein Land aufzeichnen als auch soziale Unruhen (man siehe z.B. die Dienstleistungen von Google Flu und Google Trends und stelle sich denselben Algorithmus auf politische und soziale Angelegenheiten angewandt vor). Wenn Deleuze (1990a) bereits vor den spezifischen Technologien einer Gesellschaft der Kontrolle, die durch die Macht der in Datenbanken verkörperten kollektiven Information gestützt wird, gewarnt hat, so kann das heutige Regime der Datenüberwachung als eine Gesellschaft der Metadaten beschrieben werden, da es nicht mehr notwendig ist, individuelles Verhalten ins Auge zu fassen, sondern es genügt, kollektiven Trends zu folgen (siehe den PRISM Skandal 2013). Eine Analyse der neuen politischen Dimension der Metadaten oder »Big Data« ist noch erforderlich. Zum Abschluss kann gesagt sein, dass die Algorithmen, welche die neue Gesellschaft der Metadaten regieren, durch eine der wichtigsten Einsichten des Operaismo angemessen ins rechte Licht gerückt worden sind – durch die Anwendung des theoretischen und politischen Blickwinkels der wertschöpfenden Information (der lebendigen Arbeit) anstelle der Perspektive eines nackten technologischen Determinismus. Woran Deleuze uns in einem von Negri geführten Interview, das zu Beginn des Essays steht, erinnert: »Maschinen erklären nichts, man muss den kollektiven Apparat analysieren, von dem die Maschinen nur ein Teil sind.« Aus dem Englischen übersetzt von Jakob Gurschler.
L iter atur Alquati, Romano: »Composizione organica del capitale e forza-lavoro alla Olivetti«, Teil 1, in: Quaderni Rossi 2, 1962. Ders.: »Composizione organica del capitale e forza-lavoro alla Olivetti«, Teil 2, in: Quaderni Rossi 3, 1963. Amoore, Louise: »Algorithmic war: Everyday geographies of the war on terror«, in: Antipode 41 (1), 2009. Babbage, Charles: On the Economy of Machinery and Manufactures, London: Charles Knight 1832.
329
330
4. Dataveillance: Algorithmen, Graphen und Protokolle
Ders.: »On the mathematical powers of the calculating engine«, in: Brian Randell (Hg.), The Origins of Digital Computers, Berlin: Springer 1973 [1837]. Boyer, Robert: La croissance, début de siècle, Paris: Albin Michel 2002. Bunz, Mercedes: Die stille Revolution: Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen, Berlin: Suhrkamp 2012. Cheney-Lippold, John: »A new algorithmic identity: Soft biopolitics and the modulation of control«, in: Theory, Culture & Society 28 (6), 2011, S. 164-181. Cramer, Florian: »Language«, in: Matthew Fuller (Hg.), Software Studies: A Lexicon, Cambridge, MA: MIT Press 2008. DeLanda, Manuel: A New Philosophy of Society: Assemblage Theory and Social Complexity, London: Continuum 2006. Ders.: Deleuze: History and Science, New York: Atropos 2010. Deleuze, Gilles (1990a): »Post-scriptum sur les societes de controle«, in: L’autre journal 1 (Mai) (übersetzt als: »Postscript on societies of control«, October, Vol. 59, Winter 1992). Ders. (1990b): »Le devenir revolutionnaire et les creations politiques«, Interview mit Antonio Negri, in: Futur Antérieur 1 (erschienen als: »Controle et devenir«, in: Gilles Deleuze, Pourparlers 1972-1990, Paris: Minuit 1990. Übersetzt als: »Control and becoming«, in: Negotiations 1972-1990, New York: Columbia University Press 1995). Ders., und Félix Guattari: L’Anti-Oedipe. Capitalisme et schizophrénie, Vol. 1, Paris: Minuit 1972 (übersetzt als: Anti-Oedipus: Capitalism and Schizophrenia, Vol. 1, Minneapolis: University of Minnesota Press 1983). Ders., und Félix Guattari: Mille Plateaux. Capitalisme et schizophrénie, Vol. 2, Paris: Minuit 1980 (übersetzt als: A Thousand Plateaus: Capitalism and Schizophrenia, Vol. 2, Minneapolis: University of Minnesota Press 1987). Economist: »Data, data everywhere: A special report on managing information«, 25. Februar 2010. www.economist.com/node/15557443. Galloway, Alexander R.: Protocol: How Control Exists after Decentralization, Cambridge, MA: MIT Press 2004. Ders.: Gaming: Essays on Algorithmic Culture, Minneapolis: University of Minnesota Press 2006. Goffey, Andrew: »Algorithm«, in: Matthew Fuller (Hg.), Software Studies: A Lexicon, Cambridge, MA: MIT Press 2008. Dies.: Commonwealth, Cambridge, MA: Belknap Press 2009. Holmes, Brian: »Is it written in the stars? Global finance, precarious destinies«, in: Ephemera 10 (3-4), 2010. Klein, Ernest: A Comprehensive Etymological Dictionary of the English Language, Amsterdam: Elsevier 1971. Kittler, Friedrich: Gramophone, Film, Typewriter, Stanford: Stanford University Press 1999a.
Matteo Pasquinelli: Der italienische Operaismo und die Informationsmaschine
Ders.: »On the implementation of knowledge«, in: Nettime (Hg.), Readme! ASCII Culture and the Revenge of Knowledge, New York: Automedia 1999b. Kittler, Friedrich: »Code«, in: Matthew Fuller (Hg.), Software Studies: A Lexicon, Cambridge, MA: MIT Press 2008. Lazzarato, Maurizio: Videofilosofia: La percezione del tempo nel postfordismo, Rom: Manifesto libri 1996. Ders.: Lavoro immateriale: Forme di vita e produzione di soggetti-vita, Verona: Ombre Corte 1997. Ders., und Antonio Negri: »Travail immaterial and subjectivite«, in: Futur Antérieur 6, 1991. Lenglet, Marc: »Conflicting codes and codings: How algorithmic trading is reshaping financial regulation«, in: Theory, Culture & Society 28 (6), 2011, S. 4466. Lovelace, Ada: »Notes by the translator. Luigi Menabrea, ›Sketch of the analytical engine invented by Charles Babbage‹«, in: Philip Morrison und Emily Morrison (Hg.), Charles Babbage and His Calculating Engines, New York: Dover 1961 [1853]. Mackenzie, Adrian: »Cutting Code: Software and Sociality«, Oxford: Peter Lang 2006. Macura, Wiktor K.: »Abstract machine. Math World«, 2011. http://mathworld.wolfram. com/AbstractMachine.html (Juli 2012). Manovich, Lew: The Language of New Media, Cambridge, MA: MIT Press 2001. Marazzi, Christian: Il posto dei calzini. La svolta linguistica dell’economia e i suoi effetti sulla politica, Turin: Bollati Boringhieri 1994 (übersetzt als: Capital and Affects: The Politics of the Language Economy, New York: Semiotexte 2011). Ders.: »Capitalismo digitale e modello antropogenetico del lavoro. L’ammortamento del corpo macchina«, in: Jean-Louise Laville, Christian Marazzi, Michele La Rosa und Federic Chicchi (Hg.), Reinventare il lavoro, Rom: Sapere 2005 (übersetzt als: The Violence of Financial Capitalism, New York: Semiotexte 2010). Marx, Karl: Misère de la philosophie, Paris und Brüssel 1847 (übersetzt als: »The Poverty of Philosophy«, in: Karl Marx und Friedrich Engels, Collected Works, Vol. 6. London: Lawrence and Wishart, 1976). Ders.: Kapital. Kritik der politischen Ökonomie, Bd. 1, Hamburg: Verlag von Otto Meissner 1867 (übersetzt als: Capital: A Critique of Political Economy, Vol. 1, London: Penguin 1981). Ders.: Grundrisse der Kritik der politischen Ökonomie, Moskau: Verlag für fremdsprachige Literatur 1939 (übersetzt als: Grundrisse: Foundations of the Critique of Political Economy, London: Penguin 1993). Panzieri, Ranieri: »Sull’uso capitalistico della macchine nel neocapitalismo«, in: Quaderni Rossi 1, 1961. Parisi, Luciana: Contagious Architecture: Computation, Aesthetics and Space, Cambridge, MA: MIT Press 2013.
331
332
4. Dataveillance: Algorithmen, Graphen und Protokolle
Pasquinelli, Matteo: »Google’s PageRank: A diagram of cognitive capitalism and the rentier of the common intellect«, in: Konrad Becker und Felix Stalder (Hg.), Deep Search: The Politics of Search Beyond Google, Innsbruck: StudienVerlag 2009. Ders.: »Die Regierung des digitalen Mehrwerts: Von der NetzGesellschaft zur Gesellschaft der Metadaten«, in: Kulturaustausch 3, Berlin: Institut für Auslandsbeziehungen 2010. Raunig, Gerald: A Thousand Machines: A Concise Philosophy of the Machine as Social Movement, New York: Semiotexte 2010. Shannon, Claude: »A mathematical theory of communication«, in: Bell System Technical Journal 27 (3), 1948. Simondon, Gilbert: Du mode d’existence des objets techniques, Paris: Meot 1958 (übersetzt als: On the Mode of Existence of Technical Objects, University of Western Ontario 1980). Ders.: »Mentalité technique«, in: Jean-Hugues Barthélémy und Vincent Bontems (Hg.), Gilbert Simondon, Revue philosophique n. 3., Paris: PUF 2006 (übersetzt als: Technical mentality, Parrhesia 7, 2009). Tronti, Mario: »La fabbrica e la societa«, in: Quaderni Rossi 2, 1962. Ure, Andrew: The Philosophy of Manufactures, London: Charles Knight 1835. Vercellone, Carlo: »The hypothesis of cognitive capitalism«, Paper präsentiert an der Historical Materialism Annual Conference, London 2005. http://hal-paris1. archives-ouvertes.fr/halshs-00273641/. Ders. (Hg.): Capitalismo cognitivo. Conoscenza e finanza nell’epoca postfordista, Rom: Manifestolibri 2006. Ders.: »From formal subsumption to general intellect: Elements for a Marxist reading of the thesis of cognitive capitalism«, in: Historical Materialism 15 (1), 2007. Virno, Paolo: »Citazioni di fronte al pericolo«, in: Luogo Comune 1 (November), 1990 (Französisch als: »Quelques notes a propos du general intellect«, in: Futur Antérieur, 10, 1992; Englisch: »Notes on the general intellect«, in: Saree Makdisi, Cesare Casarino und Rebecca Karl (Hg.), Marxism beyond Marxism, New York: Routledge 1996). Ders.: »Grammatica della Moltitudine«, Rom: Derive Approdi 2002 (übersetzt als: A Grammar of the Multitude, New York: Semiotexte 2004).
Infodemiologie — von ›Supply‹ zu ›Demand‹ Google Flu Trends und transaktionale Big Data in der epidemiologischen Surveillance Annika Richterich
E inleitung Als der Mediziner John Snow 1854 die Folgen von Cholera-Erkrankungen im Londoner Stadtteil Soho kartierte, legten räumliche Konzentrationen auf seiner Karte die Ursache für die Ausbreitung der derzeitigen Epidemie1 nahe: Snow schloss aus der gesteigerten Häufigkeit von Todesfällen, die er im Bereich öffentlicher Wasserpumpen verortete, dass verseuchtes Wasser mit der Cholera-Erkrankung zusammenhängen müsse (siehe Abb. 1, vgl. Snow, 1855, S. 45ff.). Noch heute gilt seine Untersuchung als Geburtsstunde der Epidemiologie.2 Anhand seiner räumlichen Auswertung der Epidemie konnte er eine mögliche Ursache festmachen und konkrete Maßnahmen zu ihrer Bekämpfung einleiten.
1 | Der Begriff Epidemie bezieht sich auf die gesteigerte Häufigkeit von Infektionskrankheiten innerhalb einer bestimmten Population und geographischen Region. Von einer Epidemie wird dann gesprochen, wenn in einem bestimmten Zeitraum die Anzahl neuer Krankheitsfälle, von einer üblichen, geographisch spezifischen Verbreitung der Krankheit abweichend, zunimmt. Die Anzahl von Neuerkrankungen wird mit der Maßzahl der Inzidenz gekennzeichnet. Von einer Pandemie ist die Rede, wenn es sich um die Länder- und Kontinenten-übergreifende Zunahme einer Inzidenz handelt. Die Epidemiologie als wissenschaftliche Disziplin untersucht somit das Auftreten und die Verbreitung von Krankheiten (u.a. durch Viren ausgelöste Infektionskrankheiten wie Influenza); sie dokumentiert und analysiert Gesundheitszustände einer Population. Zu den epidemiologischen Methoden zählt unter anderem die statistischen Erfassung und Auswertung von Krankheitsfällen in quantitativen Studien. 2 | Vgl. dazu Newsom, 2006; Paneth, 2004 und Cameron und Jones, 1983; eine kritische Perspektivierung schildert McLeod, 2000.
334
4. Dataveillance: Algorithmen, Graphen und Protokolle
Abbildung 1: John Snow, Cholera Map, 1854
In heutigen Ansätzen epidemiologischer Surveillance – der zeitlichen und geografischen Dokumentation von Gesundheitszuständen in einer Population – geht es nicht allein darum, die Ursache für die Ausbreitung einer Krankheit ausfindig zu machen. Die Datensammlungen von Organisationen wie der US Gesundheitsbehörde Centers for Disease Control and Prevention (CDC) oder des Global Outbreak Alert and Response Network (GOARN) der Weltgesundheitsorganisation stellen systematische Auswertungen zu Verbreitungsmustern und Häufigkeiten von Erkrankungen in verschiedenen Populationen dar. Sie sind (trans-)nationale, miteinander zu globalen Frühwarnsystemen verknüpfte Surveillance-Programme, die das Auftreten von lebensbedrohlichen Krankheiten quantitativ sowie geografisch dokumentieren. Dies dient sowohl dem Ziel prognostische Aussagen über EpidemieWahrscheinlichkeiten zu ermöglichen als auch Handlungsempfehlungen, wie etwa zur Notwendigkeit von Impfstoffen und Medikamenten, geben zu können. Gemeinsam haben das Vorgehen von John Snow und der genannten unabhängigen, staatlich (bzw. durch Beiträge der Mitgliedsstaaten) finanzierten Programme, dass ihre Datengewinnung auf der Erfassung konkreter Krankheitsfälle und Todesursachenstatistiken beruht. Bei der Erfassung von Influenza-Erkrankungen wird vor allem zwischen syndromischer Surveillance, der Diagnose von Symptomen am Patienten, und virologischer Surveillance, anhand von Probeanalysen im Labor, unterschieden. Ausgehend von einer fallspezifischen Diagnose bzw. Analyse werden diese Daten anschließend in Surveillance-Programmen wie dem US amerikanischen Influenza-like Illness Surveillance Program (ILI Net) oder dem
Annika Richterich: Google Flu Trends und transaktionale Big Data
European Influenza Surveillance Scheme zentral zusammengeführt und ausgewertet.3 Derartigen Vorgehensweisen wurden erst in den 1990er Jahren Alternativen zur Seite gestellt, die Daten nicht nur computergestützt archivieren, zusammenführen und auswerten, sondern diese direkt aus der Nutzung von Computer- und Internettechnologien ableiten. Dieses Paper widmet sich daher den Veränderungen – dem methodischen Bruch gewissermaßen – der sich aus der Verbreitung und Popularisierung von Computer- und Internettechnologien ergeben hat. Anhand von Ansätzen aus der epidemiologischen Überwachung von Influenza, der bei Menschen durch das Influenzavirus A/B ausgelösten Infektionskrankheit, sollen neue Methoden der Einschätzung und Prognose von EpidemieIntensitäten diskutiert werden. Dabei beziehe ich mich vor allem auf Studien, deren jeweilige Datenbasis sich aus Suchmaschineneingaben zusammensetzt. Diese Big Data werden im Folgenden als »transaktionale Daten« bezeichnet: Sie werden nicht von Nutzern explizit angegeben, sondern resultieren aus der automatisierten Aufzeichnung und Archivierung digitaler Handlungen. In diesen Bereich transaktionaler Daten fallen etwa »web searches, sensor data, or cell phone records« (Bobley, 2011). Die von Nutzern weltweit vorgenommenen und von Suchmaschinenanbietern gespeicherten Eingaben bilden Big Data Archive, anhand derer Analysen vorgenommen und (u.a.) für die Epidemiologie relevante Suchmuster extrahiert werden. Mit solchen Ansätzen eines ›epidemiologischen DataMinings‹ geht die grundlegende Annahme bzw. Feststellung von Korrelationen zwischen Influenza-betreffenden Suchbegriffeingaben sowie der Intensität von Grippeerkrankungen in einer bestimmten Region und Population einher. Von den Anbietern derartiger Services bzw. in Studien zu neuen Formen epidemiologischer Surveillance wird eine höhere Effizienz sowie Effektivität beansprucht. Im Vergleich zu traditionellen Methoden epidemiologischer Surveillance – die etwa auf ärztliche Diagnosen der Krankheit, virologische Diagnostik sowie Todesfallstatistiken angewiesen sind – produzieren die zumeist automatisiert erfolgenden Datenauswertungen und darauf basierende Berechnungen geringere laufende Kosten. Zudem wird eine zeitnahe Erkennung von bevorstehenden Epidemien ermöglicht. Während etwa Einrichtungen wie die US Centers for Disease Control and Prevention Grippeintensitäten mit einer ein- bis zweiwöchigen Verzögerung evaluieren können, unterliegt etwa eine von Ginsberg et al. beschriebene, auf Google Suchmaschineneingaben basierende Methode, einem »reporting lag of one day« (Ginsberg et al., 2009, S. 1012). Solche Studien der Infodemiology oder Infoveillance (Eysenbach, 2002, 2006, 2009) wurden sowohl von unabhängigen Forschungsgruppen bzw. einzelnen Forscher_innen vorgelegt als auch im Kontext unternehmensinterner Auftragsforschung vorgenommen. Im Jahr 2008 veröffentlichten Polgreen et al. Studienergebnisse, die Korrelationen zwischen Influenza-bezogenen Suchbegriffen, ein3 | Vgl. www.health.ny.gov/diseases/communicable/influenza/surveillance/ilinet_program und www.euroflu.org/index.php.
335
336
4. Dataveillance: Algorithmen, Graphen und Protokolle
gegeben in die Yahoo-Suchmaschine, sowie zeitnah auftretenden Verbreitungen der Krankheit in den USA zeigten. An dem Vorhaben war unter anderem Yahoo! Research New York beteiligt. Bereits 2006 demonstrierte Eysenbach anhand von Google Adsense Klickquoten, dass auch durch die Google-Suchmaschine gewonnene Daten als Indikatoren einer Influenza-Verbreitung in Kanada dienen konnten. Dem Forscher standen dazu jedoch keine Daten zur Verfügung, die Google allein für diesen Forschungszweck zur Verfügung gestellt hätte. Stattdessen erhielt er diese über eine Beteiligung an Googles Suchmaschinen-basiertem, kostenpflichtigem Werbeprogramm. Die Notwendigkeit, auf diesen »trick« (Eysenbach, 2006, S. 245) auszuweichen, machte der Autor bereits zu diesem Zeitpunkt in einem methodologischen Problem fest, das sich zudem als netzpolitisches Machtgefüge beschreiben lässt: »One methodological problem lies in the difficulties to obtain unbiased search data, in particular as a major search engine such as Google is reluctant to share search data […].« (Ebd.) In diesem Zusammenhang mag es zudem eine Rolle gespielt haben, dass Google zwei Jahre später Google Flu Trends launchte und 2009 eine eigene Publikation vorlegte, in der fünf Google Inc. Forscher sowie eine Forscherin der US Centers for Disease Control and Prevention (CDC) Korrelationen zwischen Suchbegriffshäufig keiten und Influenza-Verbreitungen beschrieben. Im Fokus des vorliegenden Papers stehen insbesondere der von Google Inc. in Kooperation mit den CDC entwickelte Internetservice Google Flu Trends. Auf der Website dieses Online-Services ist derzeit unter dem Punkt »How does this work?« zu lesen: »We have found a close relationship between how many people search for flu-related topics and how many people actually have flu symptoms. Of course, not every person who searches for ›flu‹ is actually sick, but a pattern emerges when all the flu-related search queries are added together. We compared our query counts with traditional flu surveillance systems and found that many search queries tend to be popular exactly when flu season is happening. By counting how often we see these search queries, we can estimate how much flu is circulating in different countries and regions around the world.« 4
In Liniendiagrammen sowie geografischen Karten (Google Maps) visualisiert das Unternehmen seit 2008 die Berechnung von Influenzawahrscheinlichkeiten und Intensitäten für verschiedene Regionen anhand der Auswertung spezifischer Suchbegriffsvolumina (vgl. Abb. 2).5 Welche semantischen Begriffe konkret rele4 | Siehe www.google.org/flutrends/about/how.html. 5 | Im Mai 2011 veröffentlichte das Unternehmen zudem Google Dengue Trends (www. google.org/denguetrends/). Der Internetservice dokumentiert die Wahrscheinlichkeit einer Dengue-Epidemie für Bolivien, Brasilien, Indien, Indonesien und Singapur. Entwicklungsprozess und Funktionsweisen werden in Chan et al. (2011) ausgeführt. Das vorliegende Paper wird sich jedoch vornehmlich auf Google Flu Trends beziehen, um die Analyse thematisch einzugrenzen.
Annika Richterich: Google Flu Trends und transaktionale Big Data
vant sind und welche Algorithmen die Berechnungen anleiten, wird nicht gänzlich offengelegt.6 Welche Gründe es aus Unternehmenssicht für diese intransparente Vorgehensweise des epidemiologischen Data-Minings gibt, und inwieweit dies aus medienwissenschaftlicher Perspektive kritisch zu sehen ist, wird in vorliegendem Paper diskutiert.
Abbildung 2: Google Flu Trends Germany
F r agestellungen Bereits vor dem Launch von Google Flu Trends und dem dazu veröffentlichten Artikel »Detecting Influenaza epidemics using search engine query data« (Ginsberg et al., 2009) wurden verschiedene, zum Teil bereits erwähnte Studien vorgelegt, die Korrelationen zwischen Suchmaschinendaten und Influenza-Ausbreitungen nahelegten. Die meisten dieser Studien basierten jedoch zunächst nur auf empirischen Validierungen in Modellen. Mit Google Flu Trends wurde darüber hinaus bereits selbstbewusst eine Anwendungs- und öffentliche Nutzungsmöglichkeit vorgelegt, die man seither erprobt und erweitert hat. Daher nimmt die Analyse vor allem diesen Google Service in den Blick. Um das Projekt zu kontextualisieren, werde ich zudem, vor allem im Zusammenhang mit der computer- und internetgestützten Entwicklung von epidemiologischen Methoden, ähnliche Studiendesigns erläutern.
6 | Vgl. dazu auch das Kapitel »Filtered Algorithms: Ready-Made Data Banks and Control of the Users« (Ippolita, 2013, S. 75ff.).
337
338
4. Dataveillance: Algorithmen, Graphen und Protokolle
Ein weiterer Grund für diesen Fokus ist die Marktdominanz von Google Inc. als führender Suchmaschinenanbieter:7 Denn Voraussetzung für das Funktionieren einer Anwendung wie Google Flu Trends ist, dass sie auf ausreichend große Suchvolumina zurückgreifen kann. Dies bedeutet, dass ein solcher Service nur in Regionen mit entsprechend großen Populationen von Suchmaschinennutzern verlässlich funktionieren kann (vgl. Ginsberg et al., 2009, S. 1012). Zudem muss ein entsprechend großer Anteil dieser Nutzer auf dieselbe Suchmaschine zugreifen, die dann die Daten aus den Eingaben zentral dokumentieren und auswerten kann. Der Zugang zu solchen transaktionalen, Suchmaschinen-generierten Big Data ist Google und einigen wenigen anderen Suchmaschinenanbietern vorbehalten.8 Welcher Umfang den Auswertungen von Google Flu Trends zugrunde liegt, kann nicht genau bestimmt werden: Anstelle der Primärdaten werden die Intensitäten – ähnlich zu Google Trends – nur auf einer Skala von 1-100 relational dargestellt. Auch dies zählt zu den datenkritischen Merkmalen, die im Folgenden diskutiert werden. Das vorliegende Paper wird in diesem Zusammenhang zwei Problemhorizonte aufzeigen. Zum einen stellt sich die Frage, inwiefern bereits die institutionelle Verschiebung problematisch ist, die sich in dem Besitz epidemiologischer Daten durch marktwirtschaftliche Unternehmen wie Google Inc. andeutet. In einer kurzen Geschichte epidemiologischer Surveillance und Methoden soll zunächst die Genealogie dieser Subdisziplin miteinbezogen werden. Anhand der institutionellen Veränderungen und Verschiebungen innerhalb der Geschichte epidemiologischer Surveillance lassen sich auch netz- und ›biopolitische‹ Implikationen veranschaulichen. Es stellt sich unter anderem die Frage, was es für eine Gesellschaft bedeutet, wenn repräsentative epidemiologische Daten, die zudem über ein prognostisches Potential verfügen, nicht länger von unabhängigen Or7 | Vgl. www.comscore.com/Insights/Press_Releases/2013/8/comScore_Releases_July _2013_U.S._Search_Engine_Rankings. 8 | Wie boyd und Crawford (Microsoft Research) anmerken, unterliegt das Verständnis von »Big Data« einer u.a. historisch bedingten Fluidität: »Big Data is, in many ways, a poor term. As Manovich (2011) observes, it has been used in the sciences to refer to data sets large enough to require supercomputers, but what once required such machines can now be analyzed on desktop computers with standard software. There is little doubt that the quantities of data now available are often quite large, but that is not the defining characteristic of this new data ecosystem. In fact, some of the data encompassed by Big Data (e.g. all Twitter messages about a particular topic) are not nearly as large as earlier data sets that were not considered Big Data (e.g. census data). Big Data is less about data that is big than it is about a capacity to search, aggregate, and cross-reference large data sets.« (boyd und Crawford, 2012, S. 663) In diesem Sinne geht es auch in vorliegendem Paper und den aus Google Suchmaschineneingaben konstituierten Big Data sowohl um die quantitativ immense Archivierung als auch die computergestützte Verarbeitung, Relativierung von Daten zueinander und deren inhaltliche Auswertung.
Annika Richterich: Google Flu Trends und transaktionale Big Data
ganisationen, sondern marktwirtschaftlichen Akteuren kontrolliert werden. Dies erscheint selbst dann problematisch, wenn man nicht von einer Verdrängung unabhängiger, staatlich finanzierter Surveillance-Systeme ausgeht. Das Problem ist in dieser Hinsicht zunächst nicht Google Flu Trends an sich, sondern was uns der vermeintlich gemeinnützige Service vor Augen führt: die systematische Archivierung gesundheitsbezogener Daten aller Personen, die sich mit gesundheitsrelevanten Anfragen einer Suchmaschine anvertrauen.9 Die epidemiologischen Programme der US Centers for Disease Control and Prevention (CDC) als eine dem Gesundheitsministerium der Vereinigten Staaten unterstellte Behörde oder der Weltgesundheitsorganisation (WHO) als Sonderorganisationen der Vereinten Nationen unterstehen allein dem Ziel einer nationalen bzw. globalen Verbesserung von Gesundheitsstandards. Demgegenüber lassen sich die Interessen eines InternetUnternehmens wie Google Inc., für das die kommerzielle Verwertung von Nutzerdaten zum Kerngeschäftsmodell zählt, keinesfalls als ähnlich ›gemeinnützig‹ bezeichnen. Diese institutionelle Problemstellung wird zudem um ein datenkritisches Problem ergänzt. Neben den Implikationen einer Kontrolle von gesundheitsrelevanten, repräsentativen Bevölkerungsdaten durch kommerziell ausgerichtete Akteure stellt sich zudem die Frage, inwiefern bereits die jeweiligen Prozesse der Datenerhebung sowie die nur sehr beschränkte Veröffentlichung solcher Primärdaten kritisch zu sehen ist. Bereits im Jahr 2006 verwies Eysenbach darauf, dass »Epidemics of Fear« (ebd., S. 244) die Verlässlichkeit solcher Daten und die Stabilität angenommener Korrelationen beeinträchtigen können. Traditionelle Erhebungsmethoden in der epidemiologischen Surveillance beruhen auf der Dokumentation und Zusammenführung von dezentral erhobenen Daten, die sich aus direkten Diagnosen von Krankheitsbildern durch Mediziner ergeben. Google Flu Trends hingegen – die genaue Funktionsweise wird im Folgenden detaillierter erläutert – schätzt und prognostiziert regionale Grippeintensitäten auf Basis einer kontinuierlich validierten Korrelation zwischen traditionell erhobenen Daten und der Eingabe spezifischer, Influenza-relevanter Begriffe in Googles Suchmaschine. Man muss hier auch berücksichtigen, dass bereits die computergestützte Verarbeitung neue Möglichkeiten der Dokumentation, Archivierung und Auswertung epidemiologischer Daten mit sich brachte. Vor allem die Koordination verschiedener Datenquellen, etwa die Erfassungen von Krankheitsbildern durch multiple Akteure in Kliniken oder Arztpraxen, wurde durch die Vernetzung dezentral verteilter Personalcomputer erheblich erleichtert. In diesem Zusammenhang werden jedoch noch immer konkrete, an Krankheitsfällen und Diagnosen ausgerichtete Daten in entsprechende Computernetzwerke eingepflegt. Die Häufigkeiten und geografische Konzentrationen sowie die Spezifik der Diagnose las9 | In The Dark Side of Google (2013) schildert das Ippolita-Kollektiv kritisch allgemeinere Problemstellungen, die sich aus dem Suchmonopol und den umfassenden Nutzerdatenbanken von Google Inc. ergeben.
339
340
4. Dataveillance: Algorithmen, Graphen und Protokolle
sen hier medizinisch fundierte Aussagen dazu zu, welches Ansteckungsrisiko besteht und mit welcher Wahrscheinlichkeit einer weitläufigen Ausbreitung einer Epidemie zu rechnen ist. Im Fall von Google Flu Trends hingegen, wird eine Repräsentativität bestimmter semantischer Suchmaschineneingaben für die Intensität von Influenza in einer Region angenommen. Dabei ist unsicher, worauf diese quantitativen Schwankungen der Suchbegriffeingaben zurückzuführen sind. Denkbar wäre etwa, dass Patienten nach Arztbesuchen bestimmte Begriffe oder Medikamente in Google recherchieren oder dass sie – unabhängig von einem Arztbesuch – Informationen zu bestimmten Symptomen suchen. Die genauen Motivationen bleiben hier sowohl für Google Inc. als auch die Öffentlichkeit unklar. Es ist jedoch davon auszugehen, dass Google aufgrund seiner Kenntnis um die spezifischen Begriffe genauere Vermutungen um den Kontext annehmen kann. So ließe etwa die Eingabe eines Medikamentennamens darauf schließen, dass die Suchmaschineneingabe nach externer Diagnose der Krankheit und Verordnung des Medikaments erfolgt. Die Eingabe von Symptomen hingegen könnte den Versuch einer Eigendiagnose ohne vorherigen Arztbesuch nahelegen. Anhand dieser Spekulationen wird bereits ein Problem deutlich, dass häufig im Bereich von Big Data zu finden ist: Was können uns Daten ohne Kontext sagen, und was bedeutet es, wenn sich der Kontext dieser Daten plötzlich verändert? Zu diesem Punkt komme ich im Verlauf der Analyse noch ausführlicher zurück. Die Frage des Datenkontexts spielt vor allem im Zusammenhang mit Fehlprognosen durch Google Flu Trends eine Rolle.10 In den folgenden Abschnitten werde ich daher zunächst kurz die Entwicklung computer- und internetgestützter Epidemiologie skizzieren. Daran schließen sich allgemeine Erläuterungen zu den Funktionsweisen von Google Flu Trends an, auf deren Hintergrund sich auch später aufgetretene Fehlkalkulationen erklären 10 | Mit diesen im Folgenden zu diskutierenden Kritikpunkten an Google Flu Trends soll nicht impliziert werden, dass traditionelle epidemilogische Surveillancesysteme per se überlegen und unproblematisch sind. Dies ist durchaus nicht der Fall. So ergab sich etwa im Zusammenhang mit dem H1N1-Virus (der sogenannten ›Schweinegrippe‹) im Jahr 2009 in Deutschland sowie anderen Staaten die Problematik, dass auf Basis von Schätzungen der Intensität der Pandemie Impfstoffe gekauft und bereitgehalten wurden, die letztlich den Bedarf an Impfungen überstieg. Ursache war hier einerseits die unterschätzte Wirksamkeit des Impfstoffs, für den statt einer mehrmaligen Impfung unerwartet eine einmalige Impfung bereits ausreichte; andererseits war trotz der hohen Ansteckungsgefahr des Virus die Bereitschaft sich impfen zu lassen unerwartet gering. Dass sich solche Fehleinschätzungen vor allem wirtschaftlich niederschlagen, wird an der Vernichtung von Impfstoff deutlich. In Deutschland wurden im Jahr 2011, 15 Tonnen des Impfstoffs Pandemrix in einem geschätzten Wert von 250 Millionen Euro verbrannt (Schmitt, 2011). Solche Problematiken können jedoch in diesem Paper nur insoweit berücksichtigt werden als sie von Google Flu Trends und ähnlichen Internetservices als Nachteile traditioneller Methoden epidemiologischer Surveillance betont werden.
Annika Richterich: Google Flu Trends und transaktionale Big Data
lassen. Es wird in Frage gestellt, ob man Google Flu Trends per se als Gesundheitskommunikation verstehen sollte. Die Funktionsweisen und Implikationen der hinter Google Flu Trends stehenden Datenbank von (u.a.) gesundheitsbezogenen Big Data legen stattdessen nahe, dass bereits der Launch des Services seinen Zweck vor allem in unternehmerischer Metakommunikation und Öffentlichkeitsarbeit findet. Google Flu Trends ist ohne Frage thematisch eine gesundheitsbezogene Dienstleistung. Seine kommerzielle Einbettung in das Unternehmen Google Inc. macht jedoch deutlich, dass es sich bei der dahinter liegenden Datenbank nicht um ein primär Gesundheits-orientiertes Archiv handeln kann. Stattdessen können diese Daten – und diese Kritik wird bereits anhand von Eysenbachs »Trick« deutlich, der sich Googles Anzeigen-basiertes Geschäftsmodell zu Nutze machte – situativ flexibel und je nach Bedarf des Unternehmens bzw. seiner Business-to-Business Kunden eingesetzt werden. Dass Google Flu Trends diese Archive als Gesundheitskommunikation vermarktet, ist nicht damit zu verwechseln, dass es sich hier auch um ein ›gemeinnütziges‹ Big Data Programm handele. Stattdessen ist bereits die Thematik von Google Flu Trends bezeichnend dafür, dass hier öffentlichkeitswirksam die Einsatzmöglichkeiten thematisch variabler Big Data Archive als philanthrope Investitionen inszeniert werden.
D aten und M e thoden in der epidemiologischen S urveill ance Methoden ›traditioneller‹ epidemiologischer Surveillance sind auf verlässliche Datenquellen angewiesen, die Aussagen über mögliche Abweichungen in Gesundheitszuständen einer Population und somit über die Wahrscheinlichkeit einer Epidemie zulassen. Bis in die 1950er Jahre bezog man den Begriff ›Surveillance‹ in medizinischen Kontexten vor allem auf die Beobachtung einzelner, erkrankter Personen, z.B. im Zusammenhang mit erforderlichen Quarantänemaßnahmen (vgl. Reintjes und Krämer, 2003, S. 57). Erst seit Mitte des 20. Jahrhunderts wird der Begriff auch auf einzelne Krankheiten in einer Population, statt auf Individuen selbst angewendet (vgl. ebd.). Im Jahr 1986 definierten die US Centers for Disease Control and Prevention: »Epidemiologische Surveillance ist die laufende systematische Erhebung, Analyse und Interpretation von Gesundheitsdaten, die für die Planung, Durchführung und Evaluation der Public-Health-Praxis von grundlegender Bedeutung sind, und ist eng mit der ist eng mit der zeitnahen Verbreitung dieser Daten an jene, die informiert sein müssen, verbunden.« (CDC, 1986, zitiert nach Reintjes und Krämer 2003, S. 58)
Ähnliche Definitionen lassen sich auch in aktuelleren Veröffentlichungen zur epidemiologischen Surveillance finden: »Ein Instrument, das zu einer der wichtigsten Grundlagen für die Bekämpfung von Infektionskrankheiten geworden ist, steht uns heute in ausgereifter Form zur Verfügung: die Surveillance. Diese wird
341
342
4. Dataveillance: Algorithmen, Graphen und Protokolle
definiert als die systematische Erhebung von Daten in einer definierten Bevölkerungsgruppe und deren Analyse und Interpretation mit dem Ziel, Public-HealthMaßnahmen entsprechend zu planen, zu implementieren und zu evaluieren.« (Eckmanns, 2006, S. 1187) Diese Wendung von einer Individual- zu einer Populations-Surveillance ist nicht zuletzt das Resultat neuer technischer Möglichkeiten: Sie setzt voraus, dass die Ausbreitung von Krankheiten selbst für quantitativ große Gruppen sowie ausgedehnte geografische Regionen erfasst werden kann und zwischen räumlich entfernten Akteuren kommunizierbar ist. Dafür sind Datenformen und -quellen erforderlich, die das Auftreten betreffender Erkrankungen verlässlich diagnostizieren und systematisch, historisch langfristig sowie möglichst zeitnah dokumentieren. Als Indikatoren für die Wahrscheinlichkeit einer Epidemie dienen dabei (Un-)Regelmäßigkeiten in dem aktuellen Auftreten einer Krankheit, gemessen an bisher erfassten Häufigkeitsmustern in einer Population und geografischen Region. Abweichungen, die auf eine bevorstehende Epidemie hindeuten können, werden etwa anhand der Anzahl gemeldeter Krankheitsfälle sowie der erfassten Todesfälle infolge einer Erkrankung erfasst. Krämer und Reintjes identifizieren in ihrem Kapitel »Infektionsepidemiologie« (2003) folgende Datenquellen traditioneller epidemiologischer Surveillance: • • • • •
Gesetzliche Meldung von Infektionskrankheiten meldepflichtige Nachweise von Krankheitserregern Berichte aus Sentinelpraxen Krankenhausdaten Todesursachenstatistik (Krämer und Reintjes, 2003, S. 62)11
Ursprung und Qualität der Daten variieren dabei in verschiedenen Ländern und Regionen, abhängig von medizinischen Standards, Diagnosemöglichkeiten und der Verfügbarkeit technischer Infrastrukturen. Vor allem bei der aktiven Surveillance, innerhalb derer medizinische Akteure und Institutionen kontaktiert und zur Kommunikation aufgefordert werden, findet die Übermittlung von Daten zum Teil telefonisch statt: »Die aktive Form der epidemiologischen Surveillance beinhaltet, dass die Daten von der Institution, die die Surveillance durchführt, selbst gesammelt werden. Hierbei werden regelmäßig Telefonate mit oder Besuche bei den Datenlieferanten (Kliniken, Ärzte, Labors) durchgeführt […].« (Ebd.) Spätestens seit den 1980er Jahren spielen Computertechnologien und deren Vernetzung eine immer größere Rolle. 1994 schilderten etwa Declich und Carter im WHO Bulletin nicht nur die Verbreitung computergestützter Archivierung und Analyse, sondern vor allem die technische Vernetzung relevanter Akteure und Institutionen als zentralen Aspekt innerhalb der Verbesserung epidemiologischer Surveillance: 11 | Vgl. dazu auch Declich und Carter (1994, S. 290ff.).
Annika Richterich: Google Flu Trends und transaktionale Big Data »The introduction of computer networks is opening a completely new way of performing traditional surveillance activities. The main advantage of networking is improved data timeliness that allows better monitoring of diseases and rapid identification of epidemics and changing epidemiological patterns.The quick return of information to the data collectors, together with access to on-line information, can stimulate participation. There are two well-described experiences with computer networks: one in the USA, the Epidemiologic Surveillance Project which links weekly reporting of notifiable infectious diseases from State Health Departments to the CDC via computer; and one in France, the French Communicable Disease Network, initiated in November 1984, which includes the National Department of Health and local health offices with part of the transmission from the local to the national level occurring through the network.« (Declich und Carter, 1994, S. 299)
In einem »Overview of a surveillance system in the future« (2000) schildern auch Teutsch und Churchill das ideale Surveillance-System der Zukunft vor allem in Hinblick auf die Möglichkeiten computergestützter Vernetzung zwischen Akteuren epidemiologischer Surveillance sowie der Kommunikation mit Privatpersonen: »Ideally the epidemiologist of the future will have a computer and communications system capable of providing management information on all these phases and also capable of being connected to individual households and medical facilities to obtain additional information.« (Teutsch und Churchill, 2000, S. 230) Das zuvor erwähnte French Communicable Disease Network, mit seinem Réseau Sentinelles (Wächter-Netzwerk) aus über 1200 beteiligten Hausärzten in Frankreich, war ein entscheidender Vorreiter in der Erprobung computergestützter Technologien. Es zählt zu den ersten systematischen Bemühungen, ein computergestütztes System zur Früherkennung von Epidemien aufzubauen. Mittlerweile erscheint es fast als Selbstverständlichkeit, dass die erhobenen Daten bzw. ihre Auswertung in wöchentlichen/jährlichen Berichten über das Internet zur Verfügung stehen.12 Die Intensitäten (»minimal – very high activity«) für 14 Krankheiten, darunter auch 11 Infektionskrankheiten wie z.B. Influenza, werden hier dargestellt. Ähnliche, öffentlich über das Internet zugängliche Erfassungen bieten die »Disease Outbreak News« der Weltgesundheitsorganisation (WHO),13 die »Epidemiological Updates«14 des European Centre for Disease Prevention and Control und – allein für Influenza-Fälle in Deutschland sowie ausschließlich in der Wintersaison – die Arbeitsgemeinschaft Influenza des Robert Koch Instituts. Mit dem Project Global Alert and Response (GAR) erarbeitet die WHO zudem derzeit ein transnational ausgerichtetes Surveillance und Frühwarnsystem. Die »Vision« des Unternehmens sei ein »[…] integrated global alert and response system for epidemics and other public health emergencies based on strong national public 12 | Siehe http://websenti.b3e.jussieu.fr/sentiweb/index.php?rub=61. 13 | Siehe www.who.int/csr/don/en/index.html. 14 | Siehe http://ecdc.europa.eu/en/press/epidemiological_updates/Pages/epidemiological_updates.aspx.
343
344
4. Dataveillance: Algorithmen, Graphen und Protokolle
health systems and capacity and an effective international system for coordinated response«.15 Zwar hat diese mittlerweile weit verbreitete, computergestützte Vernetzung epidemiologischer Daten auch den möglichen Umfang, die Praktikabilität und Effizienz von Auswertungen gesteigert, dennoch haben sich die Daten in entscheidenden Punkten kaum geändert: Noch immer geht es darum, systematisch Fälle von Erkrankungen festzustellen, Standards für Diagnosen und deren Kommunikation zu entwickeln, und die Todesfolgen einer solchen Erkrankung zu beziffern. Auch diese Vermittlung epidemiologischer Daten über Computernetzwerke setzt damit ›klassisch‹ an der realweltlich bezogenen Quantifizierung von Erkrankungen an. Die numerischen Erfassungen in Daten repräsentieren in einer direkten Relation das Ausmaß spezifischer Krankheiten. Traditionelle Systeme epidemiologischer Früherkennung und Überwachung, wie die US Centers for Disease Control and Prevention (CDC) und das European Influenza Surveillance Scheme, basieren auf einer Datensammlung, die in der Dokumentation und zentralen Auswertung von virologischen und klinischen Befunden besteht. Somit handelt es sich hier um epidemiologische Methoden, die computergestützt umgesetzt werden, die jedoch die gesundheitsrelevanten Daten nicht ›digital nativ‹ hervorgebracht haben. Ein solches Vorgehen liegt demgegenüber den bereits angesprochenen, aktuelleren Studien und Dienstleistungen wie Google Flu Trends zugrunde. Diese Ansätze stellen eine Erweiterung der epidemiologischen Surveillance dar und formieren neue Formen von gesundheitsbezogenen Big Data, deren Verlässlichkeit noch nicht gänzlich abzusehen ist. Vor allem in der Entwicklungsphase sind solche Systeme zudem auf die Auswertungen traditioneller epidemiologischer Surveillance, wie ich sie zuvor beschrieben habe, angewiesen. Somit bilden die Schilderungen dieses Abschnitts auch die Grundlage für das methodische Verständnis neuer Suchmaschinen-generierter Big Data in der Epidemiologie. Im folgenden Kapitel sollen daher solche Studien näher erläutert werden, die eine mögliche Entwicklungsrichtung epidemiologischer Surveillance aufzeigen. Eine solche ›Wende‹ in der epidemiologischen Surveillance geht vor allem mit einer Veränderung der Relation zwischen Daten und dafür gewählten Indikatoren sowie einer institutionellen Verschiebung von staatlich-wissenschaftlichen zu kommerziell-wissenschaftlichen Institutionen der Datenverarbeitung einher.
15 | Siehe www.who.int/csr/en/.
Annika Richterich: Google Flu Trends und transaktionale Big Data
I nfodemiologie und I nfoveill ance : von ›S upply‹ zu ›D emand ‹ Zu den beschriebenen Methoden computergestützter epidemiologischer Datenverarbeitung und Gesundheitskommunikation sind Anfang der 1990er Jahre zunächst Vorgehensweisen hinzugekommen, die sich vor allem auf öffentlich zugängliche Internetinhalte beziehen. Eysenbach hat diese Schnittstelle von Epidemiologie und digitalen Internet-/Kommunikationstechnologien bereits 2002 als Infodemiologie und Infoveillance bezeichnet. Analog zu den Entwicklungen des Felds an sich hat sich auch das Verständnis von Infodemiologie und Infoveillance unter dem Einfluss neuer Technologien und Entwicklungen verändert.16 Frühe Publikationen in diesem Forschungsfeld, die etwa Mitte der 1990er Jahre erschienen, widmen sich vor allem der Bereitstellung, Distribution und Qualität von Gesundheitsinformationen im Internet. In 2002 bezeichnete Eysenbach als Infodemiologie »[…] the study of the determinants and distribution of health information and misinformation« (ebd., S. 763). Dabei verwies er unter anderem auf Studien, die die Qualität medizinischer Informationen zu Themen wie Diabetes (Davison, 1996) oder Fiebererkrankungen (Impicciatore et al., 1997) untersuchten. Vier Jahre später ergänzte er diese Definition in Hinblick auf seine eigene Suchbegriff-gestützte Studie anhand von Google Adsense: »[T]he development of ›infodemiology‹ metrics based on automated tracking and analysis of the distribution and determinants of health information (both supply and need) in a population and/or information space is possible and can provide important clues and evidence for public health policy and practice. In a broader sense, an ›infodemiology‹ science is needed to develop a methodology and real-time measures (indices) to understand patterns and trends for general health information, […] and to understand the predictive value of what people are looking for (demand) for syndromic surveillance and early detection of emerging diseases.« (Eysenbach, 2006, S. 247)
Damit lässt sich eine an technischen Entwicklungen orientierte Ausweitung des Forschungsfelds feststellen. Während man sich zu Beginn vor allem auf die Analyse von Gesundheitsinformationen konzentrierte – d.h. auf die Seite der Informationsbereitstellung (supply), die Informationsbedürfnisse zunächst meist nur antizipieren konnte – gibt es mittlerweile vielfältige Möglichkeiten, direkt auf Gesundheitsanfragen (demand) zuzugreifen. Es ist insofern eine methodische Ent16 | Diverse Begriffsneuschöpfungen dokumentieren in diesem Zusammenhang auch die Bemühungen das Feld diskursiv zu definieren. Breton et al. (2013) sprechen etwa vom Epimining und beziehen sich damit auf einen Schlagwortbasierten, automatisierten Analyseprozess von Online-Quellen »[…] which allows the extraction of information from web news (based on pattern research) and a fine classification of these news into various classes« (ebd., S. 1).
345
346
4. Dataveillance: Algorithmen, Graphen und Protokolle
wicklung festzustellen, die sich von den Daten des ›supply‹ entfernt und stärker Daten des ›demand‹ einbezieht. Bereits 1997 entstand in einer Kooperation der WHO und dem Health Canada’s Centre for Emergency Preparedness and Response (CEPR) der Prototyp für das Global Public Health Intelligence Network (GPHIN). Im Jahr 2004 veröffentlichten Maduweku und Blench eine darauf auf bauende Studie und beschrieben darin das GPHIN: »This unique multilingual system gathers and disseminates relevant information on disease outbreaks and other public health events by monitoring global media sources such as news wires and web sites.« (Ebd., S. 1-7) Schon der Prototyp des GPHIN sollte erproben, ob aus Internetquellen Informationen zu bevorstehenden Epidemien/Pandemien abzulesen waren. Das System bezog sich zunächst auf englisch- und französischsprachige Quellen weltweit. Darunter waren Webseiten, Nachrichtenkanäle sowie lokale und nationale Zeitungen. Später wurde die Erfassung auf acht Sprachen ausgeweitet. Maduweku und Blench konstatierten, GPHIN sei ein »secure Internet-based early warning system« (ebd.) für epidemiologische Surveillance. Ihr Ansatz bezieht sich dabei auf die Seite der Informationsbereitstellung (supply). Die analysierte Berichterstattung als Datenquelle stellt eine Form der verallgemeinernden Diagnose dar. Diese Daten werden nicht durch Handlungen im Medium geschaffen, sondern gehen auf externe Beobachtungen zurück. Solche ›supply‹-orientierten Ansätze der Datenauswertung sind auch in aktuelleren Studiendesigns zu finden. So veröffentlichten etwa Breton et al. (2012) eine Studie, die unter dem bereits erwähnten Begriff des »Epiminings« demonstrierte, dass anhand semantischer Analysen von Korpora aus Quellen wie der Agence France-Presse (AFP) Prognosen über Epidemie-Intensitäten abgeleitet werden können. Auch die Auswertung von Kommunikation in Social Media wird derzeit auf Potential für die epidemiologische Surveillance getestet: Chunara, Andrews und Brownstein (2012) nutzten Daten der Mikroblogging-Plattform Twitter, um den Ausbruch von Cholera in Haiti zeitnah absehen und das Ausmaß der Epidemie einschätzen zu können. Die Studie bezog sich zudem auf Daten des Projekts HealthMap, das auf einer automatisierten Auswertung der Inhalte von Blogs, Newssites, RSS Feeds sowie offiziellen Surveillance-Daten basiert.17 Diese Form der Analyse, die auf einer Zugänglichkeit der notwendigen Korpora auf baut, wird mittlerweile zudem von Methoden ergänzt, die direkt auf transaktionale Nutzerdaten, d.h. der Dokumentation und Speicherung von Nutzerhandlungen in digitalen Medien, zugreifen. Den daraus gewonnenen Big Data lassen sich gewissermaßen hypothetisch Motivationen ihrer Entstehung ›unterstellen‹. So kann etwa die Suchmaschineneingabe von Begriffen wie »Grippe« sowie damit verbundenen Symptomen »Fieber, Kopfschmerzen, Gliederschmerzen« oder etwa »Influenza + Symptome« auf eine Erkrankung der betroffenen Personen bzw. von Personen in ihrem Umfeld hindeuten. Ausgehend von solchen hypothe17 | Siehe http://healthmap.org/en/.
Annika Richterich: Google Flu Trends und transaktionale Big Data
tischen Annahmen lassen sich dann die spezifischen Korrelationen mit diagnostisch verifizierten Daten epidemiologischer Surveillance untersuchen. Exemplarisch sind hier die Studien von Eysenbach (2006), Polgreen et al. (2008) und Ginsberg et al. (2009) zu nennen. Eysenbach entwickelte die bereits angesprochene »Google ad sentinel method«. Im Paper zu seiner Studie stellte er fest, es gebe »[…] an excellent correlation between the number of clicks on a keyword-triggered link in Google with epidemiological data from the flu season 2004/2005 in Canada« (Eysenbach, 2006, S. 244). Sein Studiendesign beinhaltet die formale Erstellung einer Google Adsense Werbekampagne. Bei Suchmaschineneingaben der Begriffe »Flu« oder »Flu Syptoms« durch Nutzer in Kanada erschien als »sponsored link« in den Suchergebnissen die von ihm erstellte ›Anzeige‹: »Do you have the flu?«, die die Nutzer auf eine generische Webseite mit Gesundheitsinformationen weiterleitete. Anhand der Daten, die ihm Google Inc. als Werbedienstleister zur Verfügung stellte, konnte er die quantitativen Eingaben und ihre geografische Lokalisierung mit dem staatlichen FluWatch Reports (Public Health Agency Canada) abgleichen. Ergebnis war die Feststellung einer positiven Korrelation zwischen steigenden Suchmaschineneingaben und erhöhten Influenza-Aktivitäten. Polgreen et al. legten 2008 ein ähnliches Studiendesign vor, das sich jedoch auf Daten bezog, die Yahoo Inc. offiziell zu Forschungszwecken zur Verfügung gestellt hatte. Ihr Vorgehen griff auf Search Query Logs, d.h. gespeicherten Eingaben Influenza-thematischer Begriffe von März 2004 bis Mai 2008, zu. Anhand der Internet Protokoll Adressen, die mit einer Sucheingabe assoziiert waren, konnte man den geografischen Standort näher bestimmen. Eingaben innerhalb der USA wurden täglich quantifiziert und in eine Datenbank eingepflegt. Die Häufigkeiten und geografischen Standorte dieser Daten wurden in einem weiteren Schritt zu den Ergebnissen traditioneller epidemiologischer Surveillance, wie ich sie im vorherigen Kapitel geschildert habe, in Beziehung gesetzt.18 Auch in dieser Studie ließ sich eine Korrelation zwischen den Häufigkeiten bestimmter Suchbegriffe und den Influenza-Daten traditioneller Surveillance-Programme feststellen. Neben erheblichen Kostenvorteilen solcher, einmal entwickelter Berechnungsmodelle zur Erstellung gesundheitsbezogener Big Data, spielt vor allem die zeitnahe Ermittlung von Trends und Prognosen zur Influenza-Ausbreitung eine entscheidende Rolle: »With use of the frequency of searches, our models predicted an increase in cultures positive for influenza 1-3 weeks in advance when they occured.« (Polgreen et al., 2008, S. 1443) 18 | Dabei griff man auf zwei Datenquellen zu: »Each week during the influenza season, clinical laboratories throughout the United States that are members of the World Health Organization Collaborating Laboratories or the National Respiratory and Enteric Virus Surveillance System report the total number of respiratory specimens tested and the number that were positive for influenza. The second type of data summarize weekly mortality attributable to pneumonia and influenza. These data are collected from the 122 Cities Mortality Reporting System.« (Polgreen et al., 2008, S. 1444)
347
348
4. Dataveillance: Algorithmen, Graphen und Protokolle
Ein ganz ähnliches methodisches Vorgehen liegt der Entwicklung von Google Flu Trends zugrunde. In ihrer auf Google-Suchmaschinendaten basierenden Untersuchung kamen Ginsberg et al. zu dem Schluss: »Because the relative frequency of certain queries is highly correlated with the percentage of physicians visits in which a patient presents influenza-like symptoms, we can accurately estimate the current level of weekly influenza activity in each region of the United States, with a reporting lag of about one day.« (Ginsberg et al., 2009, S. 1012) Im folgenden Kapitel komme ich nochmals separat auf das Studiendesign und die Funktionsweisen von Google Flu Trends zurück. Eine weitere Alternative zu diesem Vorgehen, die sich Möglichkeiten von Crowdsourcing und User Generated Content zunutze macht, stellen Systeme wie Flu Near You19 oder das Grippeweb des Robert Koch Instituts dar. Beide basieren auf Netzwerken von Freiwilligen, die eigene oder in ihrem Umfeld befindliche Grippeerkrankungen/-symptome melden. Diese Formen bilden ein methodisches Vorgehen, das auf Selbstdiagnosen und Beobachtungen des sozialen Umfelds basiert. Aufgrund des begrenzten Umfangs dieses Papers können methodische Eigenheiten und Probleme derartiger Programme nicht näher beschrieben werden. Sie erscheinen jedoch, insbesondere angesichts neuer Dimensionen gesundheitsbezogenen Datenbesitzes durch marktwirtschaftliche Unternehmen, als potentiell geeignete Alternativen, um die epidemiologische Surveillance freiwillig statt automatisch zu unterstützen. Die Studien von Eysenbach (2006), Polgreen et al. (2008) und Ginsberg et al. (2009) bauen methodisch gleichermaßen darauf auf, dass sich gerade die von den Nutzern als vermeintliches ›Nebenprodukt‹ hinterlassenen Spuren ihrer Nutzung als wertvolle Daten erweisen. Wie bereits angedeutet definierte Eysenbach im Jahr 2002 die Infodemiologie noch als Analysemethode produktionsseitig hergestellter Daten: »Information epidemiology, or infodemiology, identifies areas where there is a knowledge translation gap between best evidence (what some experts know) and practice (what most people do or believe), as well as markers for ›high-quality‹.« (Eysenbach, 2002, S. 763) Nach eigener Angabe beschäftigte er sich nur wenige Jahre später bereits mit den Auswertungsmöglichkeiten von Suchmaschineneingaben für epidemiologische Surveillance: »I started to explore in 2004 whether analysis of trends in Internet searches can be useful to predict outbreaks such as influenza epidemics and prospectively gathered data on Internet search trends for this purpose.« (Eysenbach, 2006, S. 244) In dieser frühen Veröffentlichung kam er zunächst zu dem vorsichtigen Schluss: »Tracking web searches on the Internet has the potential to predict population-based events relevant for public health purposes, such as real outbreaks, but may also be confounded by ›Epidemics of Fear‹.« (Ebd.) Dieser Hinweis macht zu einem frühen Zeitpunkt darauf aufmerksam, dass die Motive der Nutzer für eine Eingabe bestimmter Suchbegriffe vielfältig sind 19 | Siehe https://flunearyou.org/.
Annika Richterich: Google Flu Trends und transaktionale Big Data
und von anderen Ereignissen als der eigenen Erkrankung oder der Erkrankung von Personen im direkten Umfeld beeinflusst sein können. Dies mache die Methode für Abweichungen im Nutzerverhalten anfällig, die sich als Veränderungen in Parametern auswirken. Somit können in der Anwendung von bestehenden Algorithmen auf unterschiedlich motiviertes Datenmaterial Fehlprognosen resultieren. Diese methodische Unsicherheit geht vor allem darauf zurück, dass sich die Daten aus einem Nutzerverhalten ergeben, das über einen gewissen Zeitraum hinweg mit realweltlichen Entwicklungen korrelierte und bei konstanten Bedingungen über prognostisches Potential verfügt. Es sind hier gewissermaßen die digitalen Spuren (fluider) Nutzermotivationen für ein bestimmtes Verhalten, die sich als Datenmaterial ausdrücken und in der epidemiologischen Surveillance ausgewertet werden.
G oogle F lu Trends Entwicklung und Launch Vor allem anhand der Entwicklungsphase von Google Flu Trends wird deutlich, inwiefern neue Formen epidemiologischer Surveillance, zunächst von traditionellen Erhebungsformen in diesem Feld abhängen. In ihrer 2009 veröffentlichten Studie »Detecting influenza epidemics using search engine query data« schildern Ginsberg et al. ihr Vorgehen, traditionelle epidemiologische Daten zu Influenza-Erkrankungen mit Google-Suchmaschineneingaben in Beziehung zu setzen. Zu diesem Zweck bezogen sie sich vor allem auf zwei Datenquellen: Sie nutzten sowohl verfügbare Daten der Centers for Disease Control and Prevention für neun SurveillanceRegionen in den USA als auch bundesstaatliche (und somit geografisch begrenzte) Daten für Utah. Unter www.cdc.gov/flu/weekly/dokumentieren die CDC den durchschnittlichen Anteil ambulanter Patienten, die von Teilnehmern des US Sentinel Provider Surveillance Networks mit Influenza bzw. »influenza like illness« (ILI) diagnostiziert wurden. Diese Daten werden wöchentlich innerhalb der jährlichen Influenza-Saison aktualisiert. Indem die Häufigkeiten verschiedener Suchanfragen-Eingaben zu diesen Daten traditioneller Influenza-Surveillance in Beziehung gesetzt wurden, konnte eine Korrelation zwischen der Suchanfragenentwicklung und Influenza-Aktivitäten in den USA festgestellt und validiert werden. Ausgehend von dieser Relation zwischen Suchmaschineneingaben und Influenza/IL-Erkrankungen können zeitnahe Prognosen erstellt werden, da sich die beschriebene Korrelation auch prognostisch, d.h. mit einer geringen zeitlichen Verzögerung zwischen der Eingabe eines Suchbegriffs und der quantitativen Entwicklung von Erkrankungen, kalkulieren lässt. Die von Ginsberg et al. beschriebene Methode zur Surveillance von Influenza-Intensitäten entwickelte dazu eine Suchanfragen-Datenbank, die bisherige Eingaben mit aktuellen Anfragen abgleicht und deren Häufigkeit auswertet: »For the purpose of our database, a search query is a complete, exact sequence of terms issued by a Google search user
349
350
4. Dataveillance: Algorithmen, Graphen und Protokolle
[…] Our database of queries contains 50 million of the most common search queries […].« (Ginsberg et al., 2009, S. 1014) Ursprünglich wurde diese semantische Grundlage sowie ihre Korrelation zu Influenza-Daten der CDC aus »hundreds of billions of individual searches from 5 years [2003-2008] of Google web search logs« (ebd., S. 1012) gewonnen. Das zugrunde liegende Berechnungsmodell wird seither – mit einigen Anpassungen – für den Internetservice Google Flu Trends genutzt (ebd., S. 1014). Gelauncht im November 2008, ist Google Flu Trends mittlerweile für 29 Staaten verfügbar, darunter etwa Deutschland, Japan, Norwegen, Peru und Uruguay. Auf der Webseite, die mittlerweile auch Links zu nationalen Surveillance-Programmen wie dem European Influenza Surveillance Network oder den CDC enthält, können Nutzer die Entwicklung von Influenza-Aktivitäten sowohl geografisch als auch chronologisch/historisch (maximal seit 2007/2008) nachvollziehen. Für Deutschland wird die Influenza-Intensität auf Ebene der Bundesstaaten gemessen (Abb. 2). Für die USA ist sie überdies (experimentell/im beta-Stadium) für einzelne Städte verfügbar (Abb. 3). Der Service wird im Abstand von wenigen Tagen aktualisiert. Für die USA wurden die Werte etwa im September 2013 für den 1., 8., 15., 22. und 29. Tag des Monats ermittelt. So kann man z.B. am 10. Oktober 2013 die Influenza-Intensitäten, in einer bestimmten geografischen Region, für den 6. Oktober ablesen. Steigende Influenza-Intensitäten indizieren darüber hinaus eine mögliche bevorstehende Ausweitung einer Epidemie bzw. Pandemie (sofern sich ein länderübergreifender Anstieg von Erkrankungen feststellen lässt).
Abbildung 3: Google Flu Trends US Cities
Obwohl Google Flu Trends als Service bereits seit 2008 öffentlich verfügbar ist, weisen Ginsberg et al. in ihrer Publikation bereits auf einen Unsicherheitsfaktor
Annika Richterich: Google Flu Trends und transaktionale Big Data
hin: Im Fall einer Epidemie/Pandemie sei nicht klar, ob das Suchmaschinenverhalten der Öffentlichkeit konstant bleibe und damit eine Aussagefähigkeit von Google Flu Trends gesichert sei. Denkbar sei auch, dass »[…] panic and concern among healthy individuals may cause a surge in the ILI-related query fraction and exaggerated estimates of the ongoing ILI percentage« (ebd.). Daher sei das System anfällig für unerwartete Anstiege in ILI-bezogenen Suchmaschinenanfragen, die zu Fehlkalkulationen hinsichtlich bevorstehender Influenza-Aktivitäten führen würden. Somit sei es auch keinesfalls als Ersatz, sondern als Vorschlag zur Ergänzung traditioneller Surveillance-Systeme zu sehen.
›F l aws in F lu ‹: W enn S uchmaschineneingaben plöt zlich e t was anderes bedeuten Als einen möglichen Störfaktor ihrer Berechnung von Influenza-Intensitäten und Suchmaschineneingaben, der nicht direkt mit Erkrankungen in Verbindung stehen müsse, gaben Ginsberge et al. beispielhaft an: »An unusual event, such as a drug recall for a popular cold or flu remedy, could call such a false alert.« (Ginsberg et al., 2009, S. 1014) Tatsächlich traten in Folge von Unregelmäßigkeiten in den Google-Suchmaschineneingaben im Jahr 2009 – als Epiphänomen des H1N1 Virus – sowie Anfang 2013 auch Diskrepanzen zu den tatsächlichen Influenza-Intensitäten (gemessen von tradtionellen Surveillance-Programmen) auf. Die Verlässlichkeit von Google Flu Trends ist folglich nicht unproblematisch, vor allem da die Faktoren, die Nutzer zu bestimmten Sucheingaben veranlassen, nur schwer kontrollierbar und in der Datenanalyse kaum kalkulierbar sind. Zwar hat der Onlineservice zunächst eindrucksvolle Übereinstimmungen zwischen Prognosen und tatsächlichen Epidemie-Intensitäten gezeigt, die den Anschein erweckten, dass es traditionellen Frühwarnnetzwerken überlegen war. Doch wie Butler in seinem Artikel »When Google got flu wrong« (Februar 2013) herausstellte, waren jüngst sowie im Jahr 2009 erhebliche, systematische Schwächen in den Algorithmen festzustellen, die den Google Prognosen zugrunde lagen: »[T]he latest US flu season seems to have confounded its algorithms. Its estimate for the Christmas national peak of flu is almost double the CDC’s (see ›Fever peaks‹), and some of its state data show even larger discrepancies. It is not the first time that a flu season has tripped Google up. In 2009, Flu Trends had to tweak its algorithms after its models badly underestimated ILI in the United States at the start of the H1N1 (swine flu) pandemic — a glitch attributed to changes in people’s search behaviour as a result of the exceptional nature of the pandemic.« (Butler, 2013, http://www.nature.com/news/when-google-got-fluwrong-1.12413, am 14. Juli 2014) 20 20 | Auch in einer von Google Forschern in Kooperation mit den CDC durchgeführten Studie erhob man die Auswirkungen von Influenza-Intensitäten, die nicht innerhalb saisonal
351
352
4. Dataveillance: Algorithmen, Graphen und Protokolle
Daran zeigt sich einerseits, dass Google Flu Trends vor allem in von bisherigen Standards abweichenden Fällen nicht konstant verlässlich ist. Stattdessen erfordert es kontinuierliche Evaluierung und Anpassung. Da es auf historischen Mustern auf baut, wird jede Abweichung von bisherigen Korrelationen zum Störfaktor. Vor allem aber basiert es weder auf einer direkten Diagnose grippaler Infekte, noch muss die Suchanfrage notwendigerweise von eigenen oder im Umfeld festgestellten Symptomen motiviert sein. Es bleibt letztlich zu Teilen unklar, was die Nutzer bzw. ihre Sucheingabe (außer einer Erkrankung) motivieren könnte. Auch der mediale Diskurs, d.h. Zeitungen, Fernsehen, Onlinequellen und die Berichterstattungen zu Epidemien selbst in geografisch entfernten Regionen, kann das Suchverhalten beeinflussen. So schreibt auch Butler, dass die Abweichungen zwischen Google Flu Trends’ Prognosen und den tatsächlichen Grippeintensitäten unter anderem mit starken regionalen Differenzen und der verstärkten Berichterstattung zusammenhing: »[S]everal researchers suggest that the problems may be due to widespread media coverage of this year’s severe US flu season, including the declaration of a public health emergency by New York State last month. The press reports may have triggered many flu-related searches by people who were not ill.« (Ebd., S. 156) Fehlprognosen werden folglich dann wahrscheinlich, wenn externe, neue Faktoren zu Beweggründen für relevant erachtete Sucheingaben führen, die von den bisher in den Algorithmen implizierten Motivationen abweichen. Insofern muss ein Projekt wie Google Flu Trends die Deutung bestimmter Suchbegriffe kontinuierlich an historische Muster anpassen. Um diese Anpassungen vorzunehmen, ist es wiederum auf die Daten traditioneller Surveillance-Systeme angewiesen. Da diese erst mit einer gewissen Verzögerung verlässliche Daten produzieren, müssen die in schnelleren zeitlichen Abständen produzierten Google Flu Trends Daten nachträglich mit diesen abgeglichen und in ihrer Funktionalität validiert werden. Brownstein, der auch an dem kollaborativen Influenza-Projekt Flu Near You beteiligt ist, kommentierte Googles Misskalkulation in Butlers Artikel: »You need to be constantly adapting these models, they don’t work in a vacuum […] You need to recalibrate them every year.« (Ebd.) Derzeit ist das Zusammenspiel von traditionellen Methoden epidemiologischer Surveillance und auf Suchmaschinendaten basierenden Systemen daher als wechselseitige Ergänzung zu sehen: Während Google Flu Trends zeitnah Aussagen über Grippeintensitäten trifft und somit bevorstehende Epidemien indizieren kann, werden die traditionellen epidemiologischen Surveillance-Daten benötigt, um angenommene Korrelationen zu überprüfen und zugrunde liegende Algorithmen ggf. anpassen zu können. Insofern ist Google Flu Trends auch als langvorhergesehener Muster einkalkuliert waren: »The 2009 influenza virus A (H1N1) pandemic [pH1N1] provided the first opportunity to evaluate GFT during a non-seasonal influenza outbreak. In September 2009, an updated United States GFT model was developed using data from the beginning of H1N1.« (Cook et al., 2011)
Annika Richterich: Google Flu Trends und transaktionale Big Data
fristiges Programm der Datenevaluierung zu sehen, das die Relationen zwischen Suchmaschineneingaben und dafür ausschlaggebenden Motivationen kontinuierlich überprüft und anpasst. Der Abgleich mit traditionellen Daten epidemiologischer Surveillance stellt gewissermaßen ein Substitut für einen Kontext dar, auf den die Google Trends Daten indirekt verweisen. Die fehlerhaften Einschätzungen von Google Flu Trends sind somit ein Resultat der Problematik, dass nicht direkt erschlossen werden kann, in welchem konkreten Kontext die Suchmaschinendaten entstanden sind und welche Beweggründe hinter den Eingaben stehen könnten. Sie sind Auswirkungen einer Veränderung auf Seiten der Nutzer, die dafür sorgt, dass Suchmaschineneingaben plötzlich etwas anderes ›bedeuten‹.
G oogles B ig D ata -P roduk tportfolio Google Flu Trends steht in der unternehmerischen Tradition von Google Inc., die transaktionalen Daten seiner Suchmaschine in der Erstellung neuer Services einzusetzen. Zu nennen sind hier etwa Google Trends, Google Insights for Search, Google Correlate oder Google Analytics. Bereits im Jahr 2001 veröffentlichte Google Inc. den sogenannten Zeitgeist Service, in dem zum Jahresende hin Suchanfragentrends und -muster dargestellt wurden. 2004 stellte man diesem jährlichen Monitoring Google Trends zur Seite, das zunächst nur für die USA und zudem in vergleichsweise rudimentärer Form (mit einem relationalen »search volume index«) verfügbar war. Google Insights for Search war im Vergleich dazu informatorisch reichhaltiger, wenngleich auch nicht quantitativ genauer. Hier fand man etwa geografische Visualisierungen, wie sie heute auch von Google Trends erstellt werden. Ähnlich der aktuellen Version von Google Trends (Abb. 4) bildet die y-Achse einen relationalen Vergleich ab, der den Höchstwert mit 100 ansetzt und davon ausgehend die anderen Werte bemisst. Google Trends wurde Ende September 2012 mit Google Insights for Search verbunden: Während Google die Trends Daten zunächst nur jährlich, dann wöchentlich und immer regelmäßiger aktualisierte, werden die den Diagrammen zugrunde liegenden Daten mittlerweile nahezu in Echtzeit aktualisiert. Seit September 2007 aktualisiert Google Inc. die Daten des Trends-Services für die USA täglich; seit Juni 2013 wird dies auch für Deutschland angeboten. Darin liegt auch der in der Studie betonte Vorteil von Google Flu Trends: Die Daten können aktuell, automatisiert ausgewertet werden und lassen zeitnahe Aussagen zu bevorstehenden Epidemie-Entwicklungen zu. Ein weiteres Bindeglied in dieser öffentlichen Nutzbarmachung transaktionaler Daten ist Google Correlate. Hier können Nutzer Korrelationen zwischen Suchbegriffen und ihrer Zeit-/Saison-spezifischen Eingabe bzw. geografischen Abhängigkeiten (Staaten in den USA) erproben.21 21 | Siehe www.google.com/trends/correlate. Vergleiche dazu auch das Whitepaper von Mohebbi et al., 2011.
353
354
4. Dataveillance: Algorithmen, Graphen und Protokolle
Abbildung 4: Google Trends
In diesem Sinne ist Google Flu Trends auch als Element eines Produktportfolios zu sehen, das zwar inhaltlich auf Gesundheitskommunikation fokussiert ist und dennoch Bestandteil einer kommerziellen Unternehmensstrategie bleibt. Services wie Google Flu Trends führen uns einerseits vor Augen, über welche Datenmengen, Arten semantischer Daten und Auswertungsmöglichkeiten Google Inc. verfügt. Zugleich sind sie jedoch darauf ausgerichtet, öffentlichkeitswirksam die Gemeinnützigkeit von Googles Datenbanken und Data Mining zu kommunizieren. Nicht zuletzt wird damit vermittelt: die von Nutzern weltweit generierten Daten aus Google Suchmaschineneingaben bleiben nicht nur kommerziellen Kunden und dem Unternehmen selbst vorbehalten. Stattdessen lassen sich Services wie Google Flu Trends auch als Inszenierung einer freigiebigen Geste auffassen, mit der Google Inc. die von den Nutzern generierten Daten symbolisch an diese ›zurückgibt‹ und sie davon profitieren lässt. Nicht zuletzt betont auch Ginsberg et al. Paper die Relevanz neuer Formen epidemiologischer Surveillance, wie sie Google Flu Trends ermöglicht: »Seasonal influenza epidemics are a major public health concern, causing tens of millions of respiratory illnesses and 250,000 to 500,000 deaths worldwide each year. […] Early
Annika Richterich: Google Flu Trends und transaktionale Big Data detection of disease activity, when followed by a rapid response, can reduce the impact of both pandemic and seasonal influenza. One way to improve early detection is to monitor health-seeking behaviour in the form of queries to online search engines, which are submitted by millions of users around the world each day.« (Ginsberg et al., 2009, S. 1012)
So hilfreich Systeme wie Google Flu Trends daher auch sein mögen: Sie dienen zugleich der Legitimation von Googles groß angelegten Archivierungs- und Auswertungsprogrammen transaktionaler Daten, die auf der quantitativen Zusammenführung semantischer Suchmaschineneingaben basieren. Gemeinnützigkeit und das Gemeinwohl – und damit der Zweck der Datensammlung und Auswertung – werden hier als Appell einer intuitiv einleuchtenden Rechtfertigung, geradezu Notwendigkeit, der Nutzung von Potentialen Suchmaschinen-generierter Big Data inszeniert. Dass man einen solchen Einsatz von Nutzerdaten anzweifeln sollte, lässt sich vor allem in der situativen Flexibilität von Auswertungen seitens Google Inc. begründen. Es handelt sich hier nicht um ein Archiv, das nur zu dem einen Zweck epidemiologischer Surveillance einsetzbar wäre, sondern um eine Marketingdatenbank, die nicht zuletzt für kommerzielle Anbieter, etwa der Pharmaindustrie, von Interesse ist.
Abbildung 5: Husten Eingabe
In diesem Zusammenhang ist symptomatisch, dass sich auch Eysenbach für seine unabhängige Studie zu Korrelationen zwischen Google Suchmaschineneingaben und Influenza-Intensitäten als kommerzieller Anbieter und Werbepartner ›tarnen‹ musste. Die von ihm als »Trick« beschriebene Erhebungsmethode basierte darauf, eine Google Adsense Werbekampagne zu simulieren, innerhalb derer dem Nutzer nach der Eingabe bestimmter Influenza-affiner Begriffe eine Webseite als Werbeanzeige vorgeschlagen wurde. Als kommerzieller Werbepart-
355
356
4. Dataveillance: Algorithmen, Graphen und Protokolle
ner konnte Eysenbach darauf hin die Klickquoten, die aus Influenza-thematischen Suchmaschineneingaben resultierten, quantifizieren und zu traditionellen Surveillance-Daten in Beziehung setzen. Dies war jedoch allein möglich, da er eine Werbepartnerschaft simulierte. So ist es zudem nicht verwunderlich, dass zurzeit etwa bei der Eingabe der Suchbegriffe »Husten, Heiserkeit, Hausmittel« an oberster Stelle der Suchergebnisse u.a. die Anzeige von husten.de erscheint, die Nutzer zur Webseite des Produkts »ACC Akut« der Hexal AG weiterleitet (Abb. 5). Es erscheint hier zentral, sich vor Augen zu führen, dass die so verschieden erscheinenden Services von Google Inc. letztlich das Resultat eines einheitlichen, kommerziellen Datenprogramms sind. Google Flu Trends zeigt und repräsentiert nicht eine individuelle Big Data Strategie: Der Service ist ein Nebenprodukt, das sich aus der Erprobung und Entwicklung von kommerziell lohnenswerten Nutzerdatensammlungen und Auswertungen ergibt, und öffentlichkeitswirksam als philanthropes Engagement von Google Inc. inszeniert wird. Die Daten und Funktionsweisen der Algorithmen, die im Fall von Google Trends der Gesundheitskommunikation und epidemiologischen Surveillance dienen, liegen gleichermaßen kommerziellen Einsatzfeldern zugrunde. Man sieht sich somit der Entwicklung gegenüber, dass marktwirtschaftliche Unternehmen über Daten sowie methodische Kapazitäten ihrer effektiven Auswertung verfügen, auf die in dieser Form selbst staatliche Institutionen oder wissenschaftliche Akteure bislang keinen Zugriff hatten. Dass diese neuen Auswertungsmöglichkeiten nun am Beispiel epidemiologischer Surveillance demonstriert werden, erscheint vor allem als taktische Maßnahme. Dabei wird zugunsten eines propagierten Gemeinwohls, dem Services wie Google Trends zugutekommen, zu ignorieren versucht, dass sich Nutzerdaten als ›Zahlungsmittel‹ von Internetdienstleistungen etabliert haben – ohne dass die Implikationen einer solchen Verwertung transparent sind.
R esümee : Tr ansak tionale B ig D ata und digitale P rivatsphäre Vor allem die Zugänglichkeit transaktionaler Daten – die zunächst als vermeintliches ›Nebenprodukt‹ der Nutzung entstehen und in ihrer Aggregation, Archivierung und Auswertung mittlerweile zum Kern erfolgreicher Internetgeschäftsmodelle zählen – erweist sich sowohl als methodisches als auch netzpolitisches Problem. Über eine weitläufige Erfassung von transaktionalen Daten als »the traces of people online behavior« (Manovich, 2011, S. 12) hinausgehend, verweist auch Manovich darauf, dass diese Form der Big Data häufig nur unternehmensintern verfügbar ist und selektiv (teil-)öffentlich auf bereitet wird: »Only social media companies have access to really large social data – especially transactional data. An anthropologist working for Facebook or a sociologist working for Google
Annika Richterich: Google Flu Trends und transaktionale Big Data
will have access to data that the rest of the scholarly community will not.« (Ebd., S. 5) Daraus entsteht ein datenpolitisches Machtgefüge, das von Ungleichheiten zwischen Akteuren und Institutionen gekennzeichnet ist, die diskrepante unternehmerische sowie wissenschaftliche Interessen vertreten. In Fällen wie Google Flu Trends – als auch Google Trends allgemein – sind die Primärdaten den Unternehmen vorbehalten. Sie kommen allenfalls im Businessto-Business Bereich zum Einsatz oder sind einzelnen, für die jeweiligen Firmen tätigen bzw. kooperierenden Wissenschaftler_innen vorbehalten. In strategisch limitierter Form kann mitunter ein Teil bzw. eine Auswahl dieser Daten über Programmierschnittstellen abgerufen werden (vgl. dazu Manovich, 2011, S. 5ff.). Gewissermaßen als Kompromiss produzieren jedoch Unternehmen wie Google Inc. öffentlich verfügbare Stellvertreter und Indikatoren der zugrunde liegenden Daten, die etwa Häufigkeiten und Relationen indizieren, jedoch keine numerische Genauigkeit offenlegen. Insofern ist Google Flu Trends auf der Ebene der eigentlichen ›Big Data‹ intransparent: als Service macht es allein Deutungen öffentlich, deren Verhältnis zu den ursprünglichen Daten nicht nachzuvollziehen ist. Boyd beschrieb 2010 eine auch in diesem Zusammenhang zutreffende Herausforderung von Big Data: Zwar sei es weniger problematisch denn je, Daten zu generieren, doch angesichts der neuen Fülle an Daten, verliere man zum Teil den Blick für Datenqualitäten. »Social scientists have long complained about the challenges of getting access to data. Historically speaking, collecting data has been hard, time consuming, and resource intensive. Much of the enthusiasm surrounding Big Data stems from the opportunity of having easy access to massive amounts of data with the click of a finger. Or, in Vint Cerf’s [seit 2005 Vize-Präsident und erklärter »Chief Internet Evangelist« von Google Inc., Ergänzung A.R.] words, ›We never, ever in the history of mankind have had access to so much information so quickly and so easily.‹ Unfortunately, what gets lost in this excitement is a critical analysis of what this data is and what it means.« (boyd, 2010)
Dazu zählt auch die bereits angedeutete Problematik, dass nicht alle bzw. gerade solche Inhalte, die durch Graphen, Karten und Diagramme visualisiert werden, auch Auskunft über zugrunde liegende Daten geben. Stattdessen haben Unternehmen wie Google ein Monopol über Großteile nutzergenerierter Internetdaten inne, die die Grundlage ihrer Geschäftsmodelle bilden und Unternehmensstrategien inhaltlich instruieren. Somit gilt es auch zu diskutieren, wann man es innerhalb der Big Data Forschung tatsächlich mit Daten zu tun hat, und wann Öffentlichkeit und Wissenschaft allein deren (vermeintlich repräsentative) Stellvertreter gegenüberstehen. Daraus ergeben sich wiederum die Fragen, aus welchen Gründen ein Unternehmen wie Google Inc. einerseits einen Service wie Google Flu Trends veröffentlicht und warum sie dabei nur ausgewählte Aspekte der Datenerhebung und ihrer analytischen Konstruktion offenlegen. Ein Motiv für die Beauftragung und den Launch von Google Flu Trends ist letztlich auch
357
358
4. Dataveillance: Algorithmen, Graphen und Protokolle
die thematisch intuitive Legitimation der Nützlichkeit bzw. Gemeinnützigkeit der unternehmensinternen Datenarchivierung und Auswertung. Teilantworten auf letzteren Punkt sind einerseits in der Funktionsweise von Google Flu Trends selbst zu finden bzw. darin begründet, dass der Service auf das natürliche Nutzerverhalten einer Mehrheit angewiesen ist. Detaillierte Informationen, etwa zu konkreten Suchbegriffen, machen die Plattform potentiell anfällig für gezielte Manipulationen oder Fluktuationen im Suchverhalten, die sich auf das Wissen um die Relevanz bestimmter Begriffe zurückführen lassen. Suchmaschineneingaben haben sich dennoch weithin den Ruf erworben, über den analytischen Vorteil zu verfügen, dass es sich hier um ›natürlichere‹ Daten handele, die z.B. nicht von etwaigen Peinlichkeiten ein Thema (selbst anonym) in Foren zur Diskussion zu stellen, beeinflusst sind. Auch auf Suchmaschinen-generierte Big Data in der epidemiologischen Surveillance trifft eine damit einhergehende Versuchung zu, die ein Editorial der nature in Hinblick auf Datenschutz in Studien zu elektronischem Datenaustausch formulierte: »For a certain sort of social scientist, the traffic patterns of millions of e-mails look like manna from heaven.« (Nature editorial board, 2007, S. 637) Im Bereich epidemiologischer Surveillance lässt sich die Tragweite einer solchen Einstellung anhand folgender Aussage veranschaulichen: »›Social media is here to stay and we have to take advantage of it‹, says Taha Kass-Hout, Deputy Director for Information Science at the Centers for Disease Control and Prevention (CDC) in Atlanta, Georgia.« (Rowland, 2012) Daran sind aus medienwissenschaftlicher sowie Methodenethischer Perspektive vor allem zwei Grundannahmen zu kritisieren: Einerseits ist unsicher und aus medienhistorischer Sicht unwahrscheinlich, dass heutige Formen von Social Media sich als stabiles Phänomen erweisen werden. Zu erwarten sind vielmehr Veränderungen sowohl seitens der Technologie als auch ihrer Nutzer, die sich wiederum auf in diesen Zusammenhängen gewonnene Daten auswirken. Das Feld einer solchen Forschung ist somit überaus fragil. Andererseits muss auch aus ethischer sowie netzpolitischer Sicht bedacht werden, welche Implikationen es hat, wenn sich die Produkte marktwirtschaftlich arbeitender Unternehmen mit Programmen, die (trans-)nationale Gesundheitskom munikations- und Präventionssysteme betreffen, nahtlos überschneiden. Boyd fasst diese Problematik knapp und treffend zusammen: »Just because it is accessible doesn’t mean using it is ethical.« (boyd, 2010) Nicht zuletzt vermischen sich in Google Flu Trends die Felder der Gesundheitskommunikation, in der das Ziel einer Verbesserung von Gesundheitsstandards implizit ist, mit den Interessen eines Internet-Unternehmens für das die kommerzielle Verwertung von Nutzerdaten zum Kerngeschäftsmodell zählt. In diesem Zusammenhang ist auch an die bereits erwähnte Darstellung von Werbeanzeigen/werbender Webseiten für Produkte führender Pharmaunternehmen, nach der Eingabe von Krankheitssymptomen in Googles Suchmaschine, zu denken. Angesichts solcher Verbindungen stellt sich die Frage, was es für eine Gesellschaft bedeutet, wenn Gesundheitsdaten nicht länger von unabhängigen, staatlich finanzierten Institutionen verwal-
Annika Richterich: Google Flu Trends und transaktionale Big Data
tet werden, sondern wenn dieses Wissen einem bzw. wenigen marktwirtschaftlichen Unternehmen vorbehalten ist. Damit einher geht die Problematik, dass die Funktionsfähigkeit und Effizienz von Programmen wie Google Flu Trends immer nur so lange gewährleistet sind, wie die zugrunde liegende Suchmaschine über ausreichend große Nutzerzahlen verfügt und zudem verlässliche Korrelationen zwischen spezifischen Suchbegriffen und tatsächlichen Influenza-Aktivitäten sicherstellen kann. Dass hier Fluktuationen in den Motiven bestehen, die sich in relevanten Nutzungsmustern ausdrücken, haben die zuvor beschriebenen Fehleinschätzungen von Google Flu Trends gezeigt. In den von Eysenbach antizipierten »Epidemics of Fear« können etwa Medienberichterstattungen sowie andere Einflussfaktoren zu einem Nutzerverhalten führen, dass plötzlich nicht mehr von den Beweggründen dominiert ist, die es ursprünglich für einen Einsatz in Google Flu Trends und entsprechend kalibrierten Algorithmen qualifizierten. Viel grundlegender ist außerdem erforderlich, dass die zugrunde liegenden Datenbanken quantitativ ausreichend mit neuen Daten beliefert werden. Damit Google Flu Trends funktionieren kann, muss Googles Suchmaschine mindestens den gewohnten Zulauf finden, und darf zudem von den Nutzern nicht thematisch selektiv oder zurückhaltend genutzt werden. Kooperationen zwischen staatlich-wissenschaftlichen Akteuren und Google Inc., die eine Nutzung der Google Flu Trends Big Data unterstützen, machen somit auch die Verlässlichkeit epidemiologischer Surveillance-Programme vom kommerziellen Erfolg der Google-Suchmaschine abhängig. Neben dieser fragwürdigen Allianz kommerzieller Ziele und zur Verbesserung von Gesundheitsstandards implementierten Programme, ist zudem eine Dynamik der verwendeten Datenquellen anzunehmen. Ob eine Unverfälschtheit von Suchmaschinen-generierten Big Data tatsächlich angenommen werden kann und inwiefern sie stets eine unkalkulierbare Variable bleibt, die im Bereich des fehlenden Kontexts liegt, bleibt offen. Zentral ist hier die Frage, welche Faktoren das Nutzer(such)verhalten beeinflussen können. Öffentliche Diskurse um Datenschutz, Privatsphäre der Nutzer und die Skandale um Surveillanceprogramme der US-amerikanischen National Security Agency (NSA) sowie des britischen Government Communications Headquarters (GCHQ) im Jahr 2013 legen nahe, dass wir uns derzeit in einer Umbruchphase befinden: Nutzer_innen wird immer deutlicher bewusst, dass selbst eine namentlich anonym eingegebene Suchanfrage letztlich in sehr persönlichen Datensets resultiert. Die Illusion eines ›Recht an der eigene Suchanfrage‹ ist längst nicht mehr haltbar und mag auch dazu führen, dass bestimmte persönliche Informationen so wenig in Google oder anderen Suchmaschinen eingeben werden, wie man sie im Kontext eines Forums oder gar auf persönlichen Social Media Accounts diskutieren wird. Bis ein solcher Sensibilisierungsprozess Wirkung zeigt, wird – aufgrund der Masse an Suchmaschineneingaben in Google – viel Zeit vergehen. Dass in Folge des Prism- und Tempora-Skandals jedoch alternative Suchmaschinen massiv an Zulauf gewannen und die Öffentlichkeit zudem von den Unternehmen Stel-
359
360
4. Dataveillance: Algorithmen, Graphen und Protokolle
lungnahmen zu Privatsphäre und Schutz von Nutzerinformationen einforderte, deutet zumindest eine gewisse Sensibilisierung an.22 Hinzu kommt: Bereits die Annahme, dass Social Media gekommen sind, um zu bleiben, ist bereits äußerst fragwürdig. Nicht zuletzt muss man hier zur Diskussion stellen, ob das Internet bzw. digitale Vernetzung allein als zentralisiert Suchmaschinen-basiertes Netz vorstellbar ist. Diese derzeit dominante Form der Strukturierung von Zugängen zu Internetinhalten ist Voraussetzung für das Funktionieren von Programmen wie Google Flu Trends. Angesichts immer drängenderer Diskurse um die Privatsphäre der Nutzer sind nicht zuletzt auch Services und neue Geschäftsmodelle denkbar, die es Nutzer_innen ermöglichen, die Beschaffung von Informationen nicht mit eigenen Daten zu bezahlen. Auch auf der Homepage von Google Flu Trends entgegnet Google Inc. potentiell kritischen Nutzern mit der beschwichtigenden Zusicherung einer Sicherstellung von Anonymität. »At Google, we are keenly aware of the trust our users place in us, and of our responsibility to protect their privacy. Google Flu Trends can never be used to identify individual users because we rely on anonymized, aggregated counts of how often certain search queries occur each week. We rely on millions of search queries issued to Google over time, and the patterns we observe in the data are only meaningful across large populations of Google search users. You can learn more about how this data is used and how Google protects users’ privacy at our Privacy Center.« 23
Auch hier gilt es aus medienwissenschaftlicher Perspektive, und insbesondere in Hinblick auf digitale Medientechnologien, zu diskutieren, was wir als ›Identität‹ der Nutzer erfassen. Wer sich mit seiner IP-Adresse in jeweilige Social Media oder Email-Accounts einloggt, ist durchaus auch namentlich identifizierbar. Die weite Verbreitung von Google Mail Accounts, die bei geöffnetem Postfach ohnehin die Abläufe im jeweiligen Browser accountspezifisch dokumentieren, macht dies häufig überflüssig. Auch Formen des Retargetings/Remarketings, die eine Werbeansprache von Nutzern basierend auf vorherigen Webseitenbesuchen ermöglichen, machen individualisierte Einsatzmöglichkeiten transaktionaler Daten deutlich.24 Es erscheint somit grundlegend fraglich, ob man Persönlichkeitsrechte in Zeiten von Big Data allein auf einzelne Individuen beziehen sollte, oder ob dies auch für die Datensammlung bestimmter Populationen gilt. Indem in Search Engine Logs und daraus generierten Datenbanken überaus spezifische Informationen und Klassifikationen von Nutzerverhalten ausgewertet werden, sind Nutzer über diese Informationen persönlicher ansprechbar als es jede namentliche Nennung leisten 22 | Vgl. Tremmel, 2012; Chan, 2013; Stallmann und Heid, 2013 und Gropp, 2013. 23 | Siehe www.google.org/flutrends/about/how.html. 24 | Siehe www.google.com/ads/innovations/remarketing.html.
Annika Richterich: Google Flu Trends und transaktionale Big Data
könnte. Angesichts aktueller, automatisierter Methoden von Big Data Erhebungen und Analysen erscheint es zu kurz gegriffen, Anonymität und Privatsphäre etwa über die namentliche Adressierung und Nennung eines Nutzers zu definieren. Persönlichkeit und Privatheit, im digitalen Sinne, scheinen sich vielmehr genau über jene Faktoren zu definieren, die Google Inc. in Programme wie Google Flu Trends, personalisierter Werbung und Retargeting einsetzt. Es ist letztlich nicht nötig, Nutzer individuell zu identifizieren, da sie anhand von Verhaltensdatenbanken eingeordnet, wiedererkannt und individualisiert angesprochen werden können. Insofern müssen Privatheit und Privatsphäre im Themenfeld von Big Data letztlich als Kategorien gänzlich neu verhandelt werden.
L iter atur Bobley, Brett: »Announcing the 2011 Digging into Data Challenge«, 2011. www.neh. gov/divisions/odh/grant-news/announcing-the-2011-digging-data-challenge (13. Oktober 2013). boyd, danah: »Privacy and Publicity in the Context of Big Data«, in: keynote www 2010, Raleigh, North Carolina 2010. www.danah.org/papers/talks/2010/WWW 2010.html (13. Oktober 2013). boyd, danah, und Kate Crawford: »Critical Questions for Big Data: Provocations for a Cultural, Technological, and Scholarly Phenomenon«, in: Information, Communication, & Society, Vol. 15 (5), 2012, S. 662-679. Breton, Didier, et al.: »Mining web data for epidemiological surveillance«, in: Takashi Washio und Jun Luo (Hg.): Proceedings of the 2012 Pacific-Asia conference on Emerging Trends in Knowledge Discovery and Data Mining, Berlin und Heidelberg: Springer-Verlag 2012, S. 11-21. Butler, Declan: »When Google got flu wrong. US outbreak foxes a leading webbased method for tracking seasonal flu«, in: Nature. International weekly journal of science, Vol. 494, 2013, S. 155-156. Cameron, Donald, und Ian G. Jones: »John Snow, the Broad Street Pump and Modern Epidemiology«, in: International Journal of Epidemiology, Vol. 12 (4), 1983, S. 393-396. Chan, Emily H., et al.: »Using Web Search Query Data to Monitor Dengue Epidemics: A New Model for Neglected Tropical Disease Surveillance«, in: Plos One, 2011. www.plosntds.org/article/info %3Adoi%2F10.1371%2Fjournal.pntd. 0001206 (14. Oktober 2013). Chan, Xenia: »The anti-Google: DuckDuckGo search engine gets traffic boost after Snowden leaks«, in: South China Morning Post: Technology, 2013. www. scmp.com/lifestyle/technology/article/1264971/anti-google-duckduckgosearch-engine-gets-traffic-boost-after (24. Juni 2013). Chunara, Rumi, Jason R. Andrews und John S. Brownstein: »Social and News Media Enable Estimation of Epidemiological Patterns Early in the 2010 Hai-
361
362
4. Dataveillance: Algorithmen, Graphen und Protokolle
tian Cholera Outbreak«, in: About American Journal of Tropical Medicine and Hygiene, Vol. 86 (1), 2012, S. 39-45. Cook, Samantha, et al.: »Assessing Google Flu Trends Performance in the United States during the 2009 Influenza Virus A (H1N1) Pandemic«, in: Plos One, 2011. www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0023610 (14. Oktober 2013). Davison, Karen: »The quality of dietary information on the World Wide Web«, in: Journal of Dietetic Practice and Research, Vol. 57, 1996, S. 137-141. Declich, S., und Anne O. Carter: »Public health surveillance: historical origins, methodsand evaluation«, in: Bulletin of the World Health Organization, Vol. 72, 1994, S. 285-304. Eckmanns, Tim: »Die dritte epidemiologische Transition«, in: Bundesgesundheitsblatt. Gesundheitsforschung – Gesundheitsschutz, Vol. 49, 2006, S. 1187-1188. Eysenbach, Gunther: »Infodemiology: The Epidemiology of (Mis)information«, in: American Journal of Medicine, Vol. 113, 2002, S. 763-765. Ders.: »Infodemiology: Tracking Flu-Related Searches on the Web for Syndromic Surveillance«, in: AMIA Annual Symposium, Proceedings, 2006, S. 244-248. Ders.: »Infodemiology and Infoveillance: Framework for an Emerging Set of Public Health Informatics Methods to Analyze Search, Communication and Publication Behavior on the Internet«, in: Journal of Medical Internet Research, Vol. 11 (1), 2009. www.jmir.org/2009/1/e11/(14. Oktober 2013). Ginsberg, Jeremy, et al.: »Detecting influenza epidemics using search engine query data«, in: Nature. International weekly journal of science, Vol. 457, 2009, S. 1012-1014. Gropp, Martin: »Alternative Internetunternehmen: Profiteure der Enthüllung«, in: Frankfurter Allgemeine Zeitung, 13. Juli 2013. www.faz.net/aktuell/wirtschaft/ unternehmen/alternative-internetunternehmen-profiteure-der-enthuellun gen-12280219.html (13. Oktober 2013). Ippolita: The Dark Side of Google, Theory on Demand, Vol. 13, Institute of Network Culture 2013, http://issuu.com/instituteofnetworkcultures/docs/tod_13_ippolita _binnenwerk-def-sp?e=3130431/5095074 (14. Oktober 2013). Manovich, Lev: »Trending: The Promises and the Challenges of Big Social Data«, 2011. www.manovich.net/DOCS/Manovich_trending_paper.pdf (14. Oktober 2013). McLeod, Kari S.: »Our sense of Snow: the myth of John Snow in medical geography«, in: Social Science & Medicine, Vol. 50(7-8), 2000, S. 923-935. Mohebbi, Matt, et al.: »Google Correlate Whitepaper«, 2011. www.google.com/ trends/correlate/whitepaper.pdf (14. Oktober 2013). Nature editorial board: »A matter of trust: Social scientists studying electronic interactions must«, in: Nature. International weekly journal of science, Vol 449, Nr. 7163, 2007, S. 637-638. www.nature.com/nature/journal/v449/n7163/pdf/ 449637b.pdf (14. Oktober 2013).
Annika Richterich: Google Flu Trends und transaktionale Big Data
Newsom, S.W.B.: »Pioneers in infection control: John Snow, Henry Whitehead, the Broad Street pump, and the beginnings of geographical epidemiology«, in: Journal of Hospital Infection, Vol. 64(3), 2006, S. 210-216. Paneth, Nigel: »Assessing the contributions of John Snow to epidemiology: 150 years after removal of the broad street pump handle«, in: Epidemiology, Vol. 15 (5), 2004, S. 514-516. Polgreen, Philip M., et al.: »Using Internet Searches for Influenza Surveillance«, in: Clinical Infectious Diseases, Vol. 47 (11), 2008, S. 1443-1448. Reintjes, Ralf, und Alexander Krämer: »Epidemiologische Surveillance«, in: Dies., Infektionsepidemiologie. Methoden, moderne Surveillance, mathematische Modelle, Global Public Health, 2003, S. 57-72. Rowland, Katherine: »Epidemiologists put social media in the spotlight. Conference debates how to use online data to deliver faster health care«, in: Nature. International weekly journal of science, 2012. www.nature.com/news/epidemiol ogists-put-social-media-in-the-spotlight-1.10012 (13. Oktober 2013). Schmitt, Peter-Philipp: »Impfstoff gegen H1N1 wird entsorgt. Vom Heilmittel zum Restmüll«, in: Frankfurter Allgemeine Zeitung, 17. August 2011. www.faz.net/ aktuell/gesellschaft/gesundheit/impfstoff-gegen-h1n1-wird-entsorgt-vom-heil mittel-zum-restmuell-11107020.html (14. Oktober 2013). Snow, John: On the Mode of Communication of Cholera, London 1855. Stallmann, Stephanie E., und Tatjana Heid: »NSA-Skandal beeinflusst Surfverhalten. Mega-Run auf Alternativen zu Google in Deutschland«, in: Focus Online, 5. August 2013. www.focus.de/digital/internet/nsa-skandal-schadet-googlemega-run-auf-alternative-suchmaschinen-in-deutschland_aid_1063315.html (13. Oktober 2013). Teutsch, Steven, und Elliott Churchill (Hg.): »Principles and Practice of Public Health Surveillance«, Oxford University Press 2000. Tremmel, Moritz: »Alternative Suchmaschinen legen zu«, 2012. https://netzpolitik. org/2012/alternative-suchmaschinen-legen-zu (13. Oktober 2013).
363
You cannot not Transact — Big Data und Transaktionalität Christoph Engemann
»Man kann nicht nicht kommunizieren« (Watzlawick et al., 1969, S. 70) lautet das berühmte Diktum Paul Watzlawicks der Unmöglichkeit der Verweigerung von Kommunikation. Selbst wenn keine Nachricht auf den Kanal geschickt wird, findet eine Übertragung statt; mindestens die der Verweigerung der Kommunikation. Ersetzt man Kommunikation in diesem Satz mit Transaktion, werden zwei Dinge augenscheinlich: Erstens gibt es im Deutschen kein Verb von Transaktion, während die englische Sprache »to transact« kennt. Zweitens gilt für Transaktionen eine solche Unmöglichkeit der Verweigerung nicht. Im Gegenteil sind Transaktionen Übertragungsprozesse, die wechselseitige Übereinkünfte voraussetzen und nur stattfinden, wenn diese getroffen wurden. Transaktionen gehen einher mit Übereinkünften bezüglich dessen, was übertragen werden soll, wie und zu welchem Zeitpunkt die Übertragung stattzufinden hat und häufig auch was im Gegenzug zur Übertragung kommt. Als solche sind Transaktionsprozesse niemals immediat,1 sondern implementieren notwendig Aufschübe des Übertrags, registrieren die Differenzen zwischen den Transaktionsbeteiligten und kennen Vorkehrungen für Störungen des Übertragungsprozesses. Sie implizieren eine individualisierende Adressierbarkeit 2 der an den Transaktionen beteiligten Entitäten (Engemann, 2011, 2012),3 die deren zeitliche und häufig auch räumliche Verortbarkeit beinhaltet. Transaktionen rekurrieren somit auf ganze Medienensembles der Zeitmessung, der Adressierung
1 | Kommunikationsprozessen wird dagegen häufig die Zuschreibung von Immediation, von Unmittelbarkeit, zuteil, die bis in die Kerne von Kommunikations- und Medientheorien eingelassen ist (vgl. Sprenger, 2012, S. 464f.). 2 | (Engemann, 2011), siehe auch: (Engemann, 2012) Zur systemtheoretischen Debatte um Adressierbarkeit siehe den Überblick bei (Opitz 2012, S. 149f). 3 | Zur systemtheoretischen Debatte um Adressierbarkeit siehe den Überblick bei Opitz, 2012, S. 149f.
366
4. Dataveillance: Algorithmen, Graphen und Protokolle
und der Verortung, deren gemeinsame Nutzung Gegenstand der Anbahnung wie auch Implementationsbedingung von Transaktionen ist. Transaktionsprozesse müssen entsprechend als medienintensiv bezeichnet werden, sie sind zudem anders als Kommunikationsprozesse zwingend an Speichermedien gebunden. Mittels dieser werden Übereinkünfte ebenso festgehalten wie die individuellen Adressen und die örtlichen und die zeitlichen Daten der Transaktionsbeteiligten, um diese »zeitfest stabilisierbar« (Luhmann, 1993, S. 456) zur Prüfung sowohl ex-ante als auch ex-post verfügbar zu halten. Solche Prüfprozesse betreffen die Gültigkeit der Übereinkünfte der Transaktionsprozesse durch die Transaktionsbeteiligten – die, wenn die Prüfung ex-ante erfolgt, die Durchführung der Transaktion verweigern können. In einem solchen Fall findet zwar Kommunikation statt – Mitteilungen bezüglich der Nichtausführung der betreffenden Transaktion werden ausgetauscht –, aber es findet eben keine Transaktion statt. Transaktionen rechnen also mit Verweigerung und attribuieren diese Möglichkeit den Transaktionsbeteiligten. Big Data, so soll im Folgenden gezeigt werden, irritiert die skizzierten Modalitäten von Kommunikation und Transaktion und führt eine Verunschärfung des voluntaristischen Aspekts von Transaktionen herbei. Zunächst jedoch muss dazu weiter geklärt werden, was unter Transaktionen als eine offenkundig für gegenwärtige Gesellschaften wesentliche und bislang medienwissenschaftlich ungenügend untersuchte Kulturtechnik verstanden werden kann. Eine solche Klärung ist als Beitrag zu einer größer angelegten Genealogie der Transaktion konzipiert, die hier jedoch spezifisch und beschränkt auf den Big Data-Kontext ist und daher notwendig vereinfachend und unvollständig bleibt. Hier tritt Transaktionalität sowohl als Chance als auch als Problem in mindestens zweifacher Gestalt auf: zum einen auf der Ebene der Datenbanktechnologien, die ein Kernelement von Big Data sind, zum anderen in der Frage nach der ökonomischen Dimension von Big Data. Erster Aspekt soll im Folgenden ausführlicher dargestellt werden, der letztere Aspekt wird in seinen Implikationen umrissen.
B anken und D atenbanken — Z ur G ene alogie von Tr ansak tionalität Big Data ist ein Epiphänomen der Eskalation von Datenbanktechnologien auf bisher nicht gekannten Skalengrößen und der gleichzeitigen Bereitstellung von alltagsgängigen Schnittstellen, die diese Datenbanken permanent beschicken. »Neu bei Big Data ist […] die Art der Datenquellen. Ein Großteil der Daten kommt aus den sozialen Medien.« (Stein und Löffler, 2014, S. 92) Viktor Mayer-Schönberger und Kenneth Cukier (2013, S. 94f.)4 bezeichnen diesen Prozess als »Datafication«, 4 | Vgl. auch Theo Röhles Darstellung der Datengewinnung im Kontext von Suchmaschinen: Röhle, 2010, S. 87f. und 167f.
Christoph Engemann: You cannot not Transact – Big Data und Transaktionalität
der insbesondere auf den Aufstieg der sozialen Medien und des gleichzeitigen Aufkommens von Smartphones ab ca. 2006 zurückgeht. Big Data wäre unmöglich, würden für die Speicherung der anfallenden Daten nicht entsprechende Datenbanken zur Verfügung stehen. Tatsächlich jedoch hatte sich das zwischen 1970 und 2000 dominant gewordene Datenbankparadigma für Social Media als nicht geeignet erwiesen. Das Paradigma relationaler Datenbanken, die erst das Bankenwesen und später sämtliche Wirtschaftszweige revolutionieren sollten, geht auf den britischen Mathematiker Edward Codd zurück. Im Dienste der IBM in deren Forschungslabor in San José tätig,5 hatte Codd 1970 (Codd, 1970) einen zunächst theoretischen Entwurf eines neuartigen Datenbanksystems vorgeschlagen. Dessen »präzedenzlose Radikalität« (Gugerli, 2009, S. 70) lag in der Abstraktion der Datenrepräsentation von ihren technischen Speicherbedingungen und der gleichzeitigen Stiftung von Abfrageformaten, die nach Codds Anspruch »informationstechnisch inkompetenten« Nutzern (Gugerli, 2009, S. 71; vgl. auch Driscoll, 2012, S. 15) viabel sein sollten. Gemeint waren damit Manager, und diese, so hat es David Gugerli emphatisch gezeigt, fanden in relationalen Datenbanken Suchmaschinen vor, die es ihnen erlaubten ihre industriellen Administrationen auf ökonomische Optimierungsoptionen zu durchleuchten. Es war aber nicht zuletzt eine Suchmaschine, die Big Data einläutete, indem sie konsequent Codds eifersüchtig gehegte und verteidigte6 Errungenschaften aufgab und datenbanktechnisch gesehen hinter ihn zurück ging. Relationale Datenbanken haben ihre Domäne in »politischen und staatlichen Bürokratien« (Gugerli, 2009, S. 92) und hier gilt: »preserving the accuracy of information in a commercial database is extremely important for the organization that is maintaining that database. Such an organization is likely to rely heavily upon that accuracy.« (Codd, 1990, S. 243)
Solche Korrektheit der Daten wird im Datenbankendiskurs mit den Begriffen Integrität und Konsistenz belegt. Bereits in Codds 1970 vorgelegtem Papier zum relationalem Modell wird gezeigt, dass relationalen Datenbanken Mechanismen der Konsistenzwahrung implizit sind (Codd, 1970, S. 377 und 386f., siehe auch Codd, 1990, S. 205). Es sollte etwas mehr als zehn Jahre dauern, bis die konkreten Verfahren der Konsistenzwahrung und -verwaltung in relationalen Datenbanken hinreichend verstanden und tatsächlich implementiert wurden. Es ist dieser Zu5 | Es ist dasselbe Labor, an dem 20 Jahre früher die Festplatte und damit eine medientechnische Voraussetzung von Datenbanken entwickelt worden war (Kirschenbaum, 2008, S. 81). Siehe weiterhin bzgl. der Bedeutung der Festplatte für die Dynamisierung von Datenabfragen Burkhardt, 2012, S. 66 und Krajewski, 2010, S. 517. Außerdem: Stonebraker et al., 2007, S. 1151. 6 | Man lese nur die Einführung in Codds 1990 erschienen Überblickswerk zu relationalen Datenbanken: Codd, 1990, S. V.
367
368
4. Dataveillance: Algorithmen, Graphen und Protokolle
sammenhang, indem Transaktionen ihren Auftritt haben und ihre bis heute prominente Rolle im Diskurs der Datenbanken bekommen sollten. 1976 veröffentlicht eine in Codds Labor in San José tätige Gruppe ein Paper, indem es schlicht heißt »transactions […] are units of consistency« (Eswaran et al., 1976, S. 624). Von diesem Papier ausgehend entspinnt sich eine Diskussion, die 1983 in einer Definition mündet, die zwei deutsche Informatikprofessoren und vormalige Praktikanten Codds bündig mit einem das relationale Paradigma prägenden Akronym belegen: ACID. Gänzlich unpsychedelisch geht es hier nicht um Kontrollverluste, sondern um ihr Gegenteil: die Wahrung von Konsistenz in Datenbanksystemen. Transaktionen, so die Autoren Theo Härder und Andreas Reuter, sind dann Einheiten der Konsistenz, wenn sie in einem Datenbanksystem die Einhaltung vier grundlegender Eigenschaften garantieren: Atomicity, Consistency, Isolation und Durability (Haerder und Reuter, 1983, S. 289). Diese Merkmale können — Härder und Reuter folgend — am Beispiel des Geldtransfers erläutert werden. Atomizität bedeutet, dass sobald ein Buchungsvorgang gestartet wird, das Resultat entweder eine Auszahlung oder deren Verweigerung ist. Halbgebuchte Auszahlungen oder Auszahlungen, die nicht in der Datenbank registriert sind, darf es nicht geben. Konsistenz bedeutet im gewählten Beispiel, dass es während und nach der Transaktion keine doppelten Buchungen, keine Überziehungen oder schlicht nicht abgespeicherte Summen gibt. Isolation bedeutet, dass ein von einem Zugriff beanspruchter Betrag nicht von einer anderen, gleichzeitig ablaufenden Transaktion beansprucht werden kann. Durabilität schließlich bedeutet, dass wenn der Betrag einmal gebucht ist, dieses Ergebnis in der Datenbank dauerhaft bestehen bleibt. Kontostände, die das Ergebnis einer Transaktion sind, müssen beständig bleiben: »results survive any subsequent malfunctions.« (Haerder und Reuter, 1983, S. 290) Mit anderen Worten darf Geld nicht verschwinden und Datenbanktransaktionen implementieren ein monetäres Erhaltungsgesetz.7 Weder Eingabefehler, konkurrierende Kontozugriffe, ausbleibende Netzwerkverbindungen, Plattencrashs und Systemabstürze noch Rundungs- oder Timingfehler dürfen zu Geldverlusten führen. Ebensowenig das Ausnutzen momentan inkonsistenter Systemzustände, beispielsweise, wenn ein Betrag auf dem Senderkonto bereits abgebucht, auf dem Empfängerkonto aber noch nicht geschrieben ist. Transaktionen sind entsprechend eine definierte Sequenz von Operationen, welche »are executed indivisibly: Either all actions are properly reflected in the database or nothing has happened« (Haerder und Reuter, 1983, S. 289). Datenbanken, so schreibt Theo Härder knapp zwanzig Jahre nach der Veröffentlichung von »Principles of Transaction-Oriented Database Recovery« im ersten Satz seines Lehrbuchs zur Datenbanktechnik, seien »Mini-Welten« (Härder und Rahm, 2001, S. 3). Mini-Welten, die offensichtlich von Imaginationen von Katastrophen heimgesucht sind, wie auch ein anderer ehemaliger Mitarbeiter Codds und Veteran der Datenbanktechnik, Bruce Lindsay, in einem Interview bestätigt: 7 | Ich danke Martin Warnke für diese Metapher.
Christoph Engemann: You cannot not Transact – Big Data und Transaktionalität »[…] from an alpha particle discharging a capacitor in your memory to a fire, flood, or insurrection wiping out the entire site. From program logic blunders to the disk coming back with data from the wrong sector, things go wrong.« (Bourne, 2004, S. 23)
Vor solchen eschatologischen Horizonten versprechen Transaktionen ihr »nothing has happened«; dass nach der Katastrophe vor der Katastrophe ist, dass eine Datenbank noch jedes Ende ihrer kleinen Welt in einem konsistenten Zustand übersteht. Ihr entlastendes Werk vollziehen Transaktionen, indem sie spezifische zeitliche Spreizungen und Sequenzialisierungen der Schreib- und Lesevorgänge auf den Datenbanken vollziehen. Die Erläuterung der Protokolle dieser Aufschübe würde hier zu weit gehen und muss an anderer Stelle erfolgen. Härder und Reuter jedenfalls können 1983 zuversichtlich verkünden: »We consider the question of whether the transaction is supported by a particular system to be the ACID test of the system’s quality.« (Haerder und Reuter, 1983, S. 290) Es hat sich gezeigt, dass zwischen ökonomischen Transaktionen und dem domänenspezifischem formalisierten Transaktionsbegriff in der Datenbanktechnik mehr als eine Affinität besteht. Die Entwicklung von Banken als ökonomische Transaktionsinstitutionen und von Datenbanktechniken ist mindestens zwischen Mitte der 1970er Jahre bis zum Ende des letzten Jahrhunderts kodependent. Die genealogische Verschränkung von relationalen Datenbanken und Ökonomie lässt sich nicht zuletzt an der Geschichte ihrer Benchmarks ablesen. In den 1980er Jahren wird ein industrieübergreifendes Konsortium zur Performancemessung von »on line transactions processing« (OLTP), dem Hauptanwendungsgebiet von relationalen Datenbanken, gegründet. Das Transaction Processing Performance Council (o.A., o.J.) (TPC) stellt bis heute die Standardtests für Datenbanken zur Verfügung. Die ersten beiden von der TPC entwickelten und bis zu ihrer Ablösung durch neuere Modelle 1995 ständig revidierten Benchmarks TPC-A und TPC-B gingen auf ein von Jim Gray Anfang der 1970er Jahre in Codds Labor genutztes Modell zurück (Gray, 1978, S. 395). DEBITCREDIT simulierte eine Bank, genauer die Bank of America in Kalifornien. Selbige hatte bei der Einführung computerbasierter Terminals in ihren Filialen das auf einer Mainframe basierende Angebot von IBM zugunsten einer Minicomputerlösung ausgeschlagen (Serlin, 1998). Relationale Datenbanken sollten solche Niederlagen im Bankenmarkt verunmöglichen8 und insbesondere bei der ebenfalls in den 1970er Jahren erfolgenden Einführung (Hayashi et al., 2003, S. 12f.) von Geldautomaten (Automatic Teller Maschines – ATM) zur Ermöglichungsbedingung werden. Bei DEBITCREDIT und später TCP-A/B war die in Frage kommende Transaktion eine Kontoeinzahlung durch einen Kunden. Gemessen wurde die Anzahl der Transaktionen pro Sekunde (tps) unter der Einschränkung, dass 95% der Transaktionen innerhalb von einer Sekunde oder schneller abgewickelt werden. Auf dieser Grundlage 8 | Allerdings waren es dann andere Firmen wie Tandem, Ingres und später Oracle, die statt IBM marktbeherrschend wurden.
369
370
4. Dataveillance: Algorithmen, Graphen und Protokolle
kalkulierte Gray die auf fünf Jahre amortisierten Kosten einer Datenbank. Ein System, das 100 tps, also 100 Kontoeinzahlungen pro Sekunde, erlaubte, kostete in den 1970er Jahren auf fünf Jahre gerechnet ca. $10 Millionen, 1985 bereits nur noch $60.000 (Serlin, 1998). In einem launigen, zum 1. April 2005 veröffentlichten Artikel rechnet Jim Gray dann vor: »a year 2003 PC could do ALL the 1970 U.S. banking transactions and store all the 1970 US bank accounts.« (Gray, 2005, S. 3, Hervorhebung im Original) Am 1. April 2025 wäre dann zu zeigen, »that a $1 wrist watch can run the world economy as of 1990« und Gray schließt mit »we hope we are around to write it«. Eine Hoffnung, die sich nicht einlösen sollte – Gray verschwand im Oktober 2007 mit seinem Segelboot spurlos im Pazifik und wurde 2012 nach fünfjähriger Vermisstenzeit offiziell für Tod erklärt. Datenbanknutzer, so ist hier zur Präzisierung noch einmal festzustellen, werden bereits unter Bedingungen von vernetzten Bankfilialen und erst recht nach der Einrichtung von Geldautomaten und der Ausgabe von Debit- und Kreditkarten alle diejenigen Menschen, die »aus Wänden Scheine entnehmen« (Derrida, 1999, S. 27). Dieser Stand ist in den USA bereits Ende der 1970er Jahre erreicht, Europa und Japan folgen innerhalb weniger Jahre nach. Vor diesem Hintergrund wird erstens deutlich, dass Codds Aussage, Datenbanken seien die ersten großen Online-Multiuser-Systeme überhaupt gewesen, ernstzunehmen ist, zweitens, dass die Priorisierung der Konsistenzsicherung bei relationalen Datenbanken aus ihrer Ko-Evolution mit dem Bankenwesen rührt, und drittens, dass Reicherts Feststellung, dass das Finanzwesen eine »merkantile Alternative zur kriegsorientierten Mediengeschichtsschreibung des Internets« (Reichert, 2009, S. 89) erfordere, ihrer weiteren Einlösung harrt. Nicht zuletzt, da sich hier die Geschichte jenes Medienensembles, jener »Distributionsmaschine« (Derrida, 1999, S. 27) ereignet, an der Hand und Geld ineinander übergehen, und unter digitalen Bedingungen das »Subjekt als Träger des Monetären« (Derrida, 1999, S. 25) und somit als Transaktionsinstanz (re-)implementiert wird. Darüber hinaus drängt sich die Frage auf, inwieweit der Postfordismus und der sogenannte Neoliberalismus als Transaktionalisierungsschübe verstanden werden können und mit den skizzierten medienhistorischen Entwicklungen der Speichertechniken koinzidieren. Ist doch diesbezüglich anzumerken, dass die bisherige medienwissenschaftliche Auseinandersetzung mit dem Kapitalismus weitgehend auf die Geschichte der Übertragungsmedien – Telegraf, Ticker und Terminal – abstellt, gleichzeitig die Rolle und Evolution von Speichermedien jedoch wenig genau untersucht hat (Heidenreich und Heidenreich, 2008; Reichert, 2009; Vogl, 2011).
Christoph Engemann: You cannot not Transact – Big Data und Transaktionalität
V on ACID zu BASE : Tr ansak tionsverzicht und Tr ansak tionsge winn bei sozialen M edien Mit der Ausformulierung und Implementierung des Transaktionsparadigmas ist in der Entwicklung relationaler Datenbanken und ihres Einsatzes zunächst in Banken und später in der Warenhaltung und Unternehmensorganisation Mitte der 1980er Jahre ein Stand erreicht, der die folgenden Jahre prägen sollte (Campbell-Kelly, 2003, S. 191ff., vgl. auch Gugerli, 2009, S. 84f.). Aus dem in San Diego unter Codds Leitung entwickelten System R gehen alle wesentlichen kommerziell erfolgreichen relationalen Datenbanksysteme hervor (Stonebraker et al., 2007). Die Anbieter relationaler Datenbanken, allen voran Oracle, steigen zu marktbeherrschenden Firmen auf (Campbell-Kelly, 2003, S. 185f.), ökonomisches Transaktionsprozessing kann sich in seinen zwingenden Konsistenzforderungen auf deren Wahrung durch ACID-konforme Transaktionen als »units of consistency« in Datenbanken verlassen. 1990 betont Codd zufrieden auf der ersten Seite seines großen Buchs zu relationalen Datenbanken: »I placed a great deal of emphasis then [1970 C.E.] on the preservation of integrity in a commercial database, and I do so now.« Zehn Jahre und ein World Wide Web später haben sich dann die Prioritäten verschoben. Der Informatiker und spätere »Vice President of Infrastructure« bei Google Eric Brewer formuliert im Jahr 2000 auf einer Tagung eine These, die später als CAP-Theorem gängig wurde: Ein Web-Service kann immer nur zwei der folgenden drei an ihn erwarteten Ansprüche erfüllen: »Consistency«, »Availability« und »Partition Tolerance« (Brewer, 2012; Gilbert und Lynch, 2001, 2012). Der hier von Brewer angeführte Konsistenzbegriff muss von der strengen und formalen Fassung des ACID-Paradigmas unterschieden werden. »Consistency« im Kontext des CAP-Theorems: »informally, simply means that each server returns the right response to each request, i.e., a response that is correct according to the desired service specification.« (Gilbert und Lynch, 2012) »Availability« bedeutet, dass »each request eventually receive a response« (Gilbert und Lynch, 2012). »Partition Tolerance« schließlich ist eine Technik der Ausfallvorbeugung, indem die dem Webservice zugrunde liegenden Datenbanken auf verschiedene, häufig geografisch verteilte Server abgelegt werden. Fällt ein Server aus oder ist nicht erreichbar, so kann eine Kopie der Datenbank auf einem anderen Server die Anfrage bearbeiten. Brewers CAP-Theorem bedeutet in der Praxis, dass Webservices wie etwa Google, Facebook oder andere auf die Konsistenz der auf Anfrage zugestellten Daten zugunsten von Erreichbarkeit und Ausfallsicherheit ihrer Systeme verzichten. Die Erfahrungen beim Websitemarketing hatten gezeigt, dass »time to glass« (Grigorik, 2013), also die Latenz zwischen Nutzereingabe und Erscheinen eines Ergebnisses auf dem Display, kritisch ist. Schon wenige hundert Millisekunden verlangsamte Erreichbarkeit führt zu sinkenden Nutzerzahlen und zeitigt unmittelbare ökonomische Folgen (Google Research, 2009; Grigorik, 2013). Zugleich ist es für Services wie Facebook, aber auch bei Suchanfragen nicht zwingend, dass immer alle Nutzer konsistent dieselben Daten angezeigt bekommen:
371
372
4. Dataveillance: Algorithmen, Graphen und Protokolle »Users viewing content on the web do not necessarily require strong consistency (i.e., two different users in different locations may view two slightly different versions of a web page). If the content viewed by a user is slightly out-of-date, there is usually little harm. On the other hand, users loading a web page have little patience: a fast response is critical. (The problem of fast response time is even more problematic on mobile wireless devices).« (Gilbert und Lynch, 2012, S. 7)
Der entscheidende Schluss, den Google, Facebook, Twitter und andere aus dem CAP-Theorem gezogen hatten, war, die in der Geschichte der Datenbanken mühsam erarbeitete Technik von Konsistenzwahrung durch Transaktionen und das ACID-Paradigma für ihre Datenbanken aufzugeben. Die Architekten von Googles Datacenter schreiben dazu: »Compared to traditional database systems, BigTable and Dynamo sacrifice some features, such as richness of schema representation and strong consistency, in favor of higher performance and availability at massive scales.« (Barroso et al., 2013, S. 41)
Big Table und Dynamo sind Datenbanksysteme von Google und Amazon, respektive den ersten großen Big Data-Firmen. Anders als Banken oder Unternehmensorganisationssoftware mit vielleicht vier- oder fünfstelligen Transaktionsvorgängen, die gleichzeitig auf Datenbanken laufen müssen, sehen sich diese Firmen eigenen Angaben nach »trillions and trillions of requests« (Vogels, 2009, S. 40) gegenüber. Sollen bei solch massiven Skalengrößen Anfragen mit der geforderten Responsivität behandelt werden, so stellen die durch ACID-konforme Transaktionen bereitgestellten Konstistenzgarantien ein Problem dar. Deren oben angesprochenen zeitlichen Spreizungen und Sequenzialisierungen bringen für jede Anfrage eine Vervielfachung der Schreib- und Leseoperationen in der Datenbank und damit Antwortverzögerungen mit sich. Jede Transaktion bringt bereits bei einem einzelnen System Aufschübe von dutzenden von Millisekunden mit sich, die sich bei den für Social Media typischen Zugriffszahlen schnell zu intolerablen Werten aufaddieren. Gänzlich unvorhersehbar werden solche computationellen Kosten transaktionaler Konsistenzgarantien, wenn die Datenbanken auf tausende Server in verschiedenen geografisch verteilten Datacentern partitioniert werden. Eben das ist aber ein Spezifikum des Cloud-Computing und für Social Media, aber auch für Amazon, Ebay und Google das typische Szenario. Bei Firmen wie Google, Facebook oder Amazon laufen die Datenbanken nicht selten auf tausenden über den Globus verteilten Systemen. Die Nutzer erwarten unabhängig von ihrem geografischen Aufenthaltsort schnellen Zugang zu ihren Daten, der nur durch relative geografische Nähe der Datacenter bei gleichzeitigem Vorliegen von Kopien der jeweiligen Datenbanken gewährleistet ist. Entsprechend werden Brewers CAP-Theorem folgend beim Cloud-Computing Kopien der Datenbestände auf verschiedene Datacenter verteilt und akzeptiert, dass nicht in jedem Datacenter der jeweilige Stand der Datenbanken zu jedem Zeitpunkt identisch ist. An die
Christoph Engemann: You cannot not Transact – Big Data und Transaktionalität
Stelle des Härder und Reuterschen ACID-Forderungen tritt diejenige nach BASE: »Basically Available«, »Soft State« und »Eventual Consistency« (Brewer, 2012; Fox et al., 1997). »Basically Available« ist selbsterklärend und bezieht sich auf den Anspruch, dass ein Webservice im Prinzip auf jede Anfrage eine Antwort erzeugt. Hinter »Soft State« und »Eventual Consistency« jedoch verbirgt sich das fröhliche Opfern des ACID-Tests: »BASE is diametrically opposed to ACID. Where ACID is pessimistic and forces consistency at the end of every operation, BASE is optimistic and accepts that the database consistency will be in a state of flux.« (Pritchett, 2008, S. 51)
Eine solche Datenbank hat nicht wie eine relationale Datenbank in jedem Moment einen definierten, harten Zustand, sondern ist tatsächlich im Fluss. Über Zeit konvergieren diese Flüsse auf einen gemeinsamen Zustand hin, dann ist die Datenbank wieder Konsistenz: »Writes to one data center will eventually appear at other data centers, and if all data centers have received the same set of writes, they will have the same values for all data.« (Lloyd et al., 2014)
Der Fluss von »trillions of trillions« von Zugriffen, die PCs, Tablets, Smartphones, Google Glas etc. erzeugen, ist ein veritabler und kontinuierlicher Datenstrom, der in den Datacentern der Social Media-Unternehmen in Datenbanken zur Speicherung kommen soll und muss. »Firehose« – Feuerwehrschlauch – lautet der informelle Begriff für den dichten, geradezu gewaltsamen Strom an Daten, der sich aus den Endgeräten in den Datenbanken aggregiert. Von diesem Datenstrom nicht überschwemmt zu werden, ist das wesentliche Problem der für Big Data notwendigen Datenbanksysteme. Im Gegenteil soll der Strom möglichst vollständig aufgefangen werden. Hier gilt »more trumps better« (Mayer-Schönberger und Cukier, 2013, S. 33) und die Daten sollen für die weitere Nutzung und Analyse sowohl festgehalten als auch in definierter Weise nahezu unmittelbar an die auf Updates wartenden Nutzer wieder ausgegeben werden. Die Datenbanken sind gleichsam Reservoirs, in die die Daten strömen und sowohl zur Ruhe kommen als auch an definierten Punkten und in gefilterter Weise mit hoher Geschwindigkeit wieder austreten. Twitter etwa verzeichnet täglich eine halbe Milliarde Tweets, mithin im Schnitt etwa 4500 Nachrichten pro Sekunde, die sowohl gespeichert als auch echtzeitnah an die jeweiligen Leser verteilt werden müssen. Zur Bewältigung solcher Datenströme sind seit etwa 2004 in ihrer stürmischen Entwicklungsphase von Amazon, Google, Twitter, Facebook und Tumblr (und später auch durch Startups) eine Reihe von Datenbanksystemen zur Implementierung des BASE-Paradigmas gebaut worden. Zu den bereits erwähnten Google Big Table und Amazons Dynamo gesellen sich Datenbanken mit illustren Namen wie MongoDB, CouchDB, Project Voldemort von LinkedIn und Facebooks Cassandra
373
374
4. Dataveillance: Algorithmen, Graphen und Protokolle
(Warden, 2011, S. 5-10). In Abgrenzung zu relationalen Datenbanken und deren ebenfalls auf Codds zurückgehende Abfragesprache SQL ist für diese Projekte die Bezeichnung NoSQL gebräuchlich geworden (Driscoll, 2012, S. 22f.; Warden, 2011, siehe auch Mayer-Schönberger und Cukier, 2013, S. 45). Gemeinsam ist diesen technisch teilweise sehr unterschiedlichen Datenbanksystemen der Verzicht auf Konsistenzgarantien mittels ACID-basiertem Transaktionshandling. Zugleich erlauben sie die schnelle Speicherung der einströmenden Daten und das ebenso schnelle Auslesen derselben bei Abfragen. Da die Stärke der Datenströme großen zeitlichen Schwankungen unterliegt und so die Systemleistung durch das dynamische Hinzufügen oder Wegnehmen von Servern skalierbar gemacht werden muss, ist ein System gefordert, das trotz solcher Veränderungen zuverlässig weiter läuft und »available« bleibt. Zugleich bringt diese Funktionalität entscheidende ökonomische Vorteile mit sich, denn die Datenbanksysteme können auf Clustern aus billigen Standard-PCs aufgebaut werden (Barroso et al., 2013, S. 33; Bitkom, 2014, S. 35). Nur so lassen sich die Kosten pro Terrabyte Speicherplatz in Big Data-Szenarien in sinnvollen Maßen halten, die bei tausenden von Systemen minütlich vorkommenden Hardwareausfälle werden von der Software automatisch gehandhabt.
Tr ansak tionsop timismus — S eeing like a marke t Ein auf BASE rekurrierender Webservice ist eine optimistische Angelegenheit, optimistisch nicht nur darin, dass »eventually« Konsistenz auf der Datenbank herrscht, sondern auch optimistisch darin, dass irgendetwas der hereinströmenden Daten eine ökonomische Transaktion abwerfen wird: »Whether you are building an application for end users or application developers […], your hope is most likely that your application will find broad adoption and with broad adoption will come transactional growth.«
So fasste der bei Ebay tätige Datenbankarchitekt Dan Prichett 2008 (Pritchett, 2008) in seinem Überblicksartikel zum BASE-Paradigma die Interessenlage zusammen. »Transactional growth« bedeutet ökonomisches Wachstum, das den Nutzerzahlen folgen soll. Facebook war 2008 gerade einmal zwei Jahre allgemein zugänglich und im Begriff, die 100-Millionen-Nutzer-Schwelle hinter sich zu lassen, der Begriff Big Data noch nicht öffentlich geläufig. Zugleich war der weltweite Ausbau von Datacentern vor allem durch Google und Amazon und die Verschiebung hin zum Cloud-Computing im vollen Gange. Der benötigte Kapitalaufwand für den Bau einer solchen »Basically Available«, »Soft State« und »Eventual Consistency«-Basis liegt bei ca. $500 Millionen. Facebook betreibt weltweit etwa fünf Datacenter, hat hier mithin eine Kapitalauslage von etwa 2,5 Milliarden Dollar tätigen müssen, um den eigenen Service global »basically avai-
Christoph Engemann: You cannot not Transact – Big Data und Transaktionalität
lable« zu halten und aktualisiert zudem seine Infrastruktur fortlaufend. Ebenso Amazon und Google, denen eine erheblich höhere Anzahl solcher Rechenzentren zugeschrieben werden. Alle drei Firmen sind profitabel und entsprechend scheint es ihnen zu gelingen, aus den von ihren Nutzern generierten Daten ökonomisch verwertbare Erkenntnisse zu gewinnen. Insbesondere bei Facebook hatten daran lange öffentliche Zweifel bestanden, seit 2010 jedoch verzeichnet die Firma Milliardengewinne. Die Infrastrukturen, in denen die Daten auf den neuen Datenbanksystemen relaxter Konsistenz einlaufen und die Big Data ermöglichen, sind also kostenintensiv und können inzwischen nur noch von wenigen kapitalstarken Firmen betrieben werden. Zugleich erlauben diese Softwaresysteme und Datenbanken gegenüber den gigantischen Nutzerzahlen und Zugriffsprozessen extreme Personalrationalisierungsgewinne. Beim Kauf von WhatsApp durch Facebook wurde wiederholt darauf hingewiesen, dass 49 Ingenieure ausreichten, beinahe eine halbe Milliarde Nutzer zu verwalten. Tumblr verzeichnete im Jahr 2012 40.000 Zugriffe mit einer Million Schreibprozesse pro Sekunde auf ihren Datenbanken und benötigte gerade 20 Ingenieure zur Administration und Entwicklung der Systeme (Mathney, 2012). Den steigenden Nutzerzahlen mit immer kleiner und leichter werdenden Handhelds wie Tablets und Smartphones stehen also einige wenige immer größer werdende Rechenzentren gegenüber. Die Datenströme werden in diesen »Landhelds« (Myslewski, 2014) im Besitz einiger weniger Firmen konzentriert: »Persistent, highly-capitalized institutions staffed by relatively small numbers of specialists.« (Driscoll, 2012, S. 26) Der von Pritchett erhoffte »transactional growth« entsteht aber anders als bei den Anwendungsszenarien relationaler Datenbanken weniger durch direkte Transaktionen zwischen den Nutzern und der jeweiligen Institution, sondern indirekt. Denn die anfallenden Daten und die Nutzerinteraktionen zeitigen selten unmittelbar Transaktionen, sondern werden für spätere Analysen gespeichert – Analysen, die auf verschiedenen Ebenen ökonomisch motiviert sind und Transaktionschancen generieren sollen: Sie dienen erstens der Optimierung der Interaktionen mit den Nutzern, um Steigerungen von deren Verweildauern, Clickraten und deren Zuträgen, sei es in Form von Kommentaren, Fotos oder Verlinkungen zu erreichen, die dann für Werbezwecke, Produktentwicklung, Marktforschung oder Bonitätsprüfung genutzt werden. Zweitens werden die Daten außerdem zur Optimierung von internen Prozessen wie Latenzen, Verfügbarkeit und benötigten Prozessor- und Netzwerkressourcen ausgewertet, um so die Kosten berechnen und senken zu können. Drittens dienen sie aber auch zur Analyse der ökonomischen Verwertbarkeiten von Ereignissen, deren ökonomische Signifikanzschwellen weder den Nutzern noch den Auswertern bekannt sind. Big Data-Narrationen sind reich von Erzählungen der Entdeckung unerwarteter, ökonomisch verwertbarer Korrelationen in den anfallenden Daten (Bitkom, 2014, S. 19f. und passim; Junge, 2013; Mayer-Schönberger und Cukier, 2013, S. 98f. und passim; Schirrmacher, 2013, S. 275f.). Anders als Banken haben Big Data-Firmen und insbesondere soziale Medien Zeit, denn das Geld wird aus
375
376
4. Dataveillance: Algorithmen, Graphen und Protokolle
den Daten kaum unmittelbar, sondern erst im Nachlauf gewonnen. Die Analysewerkzeuge wie Googles MapReduce und dessen Open Source-Implementierung Hadoop sind nicht auf Echtzeit ausgelegt, sondern werten große Mengen von Daten in teilweise tagelangen Auswertungsläufen aus. In den Datenbanken von Facebook lagen 2013 etwa 300 Petabyte. Ein Petabyte zu sortieren und zu durchsuchen benötigt auch in den modernen Infrastrukturen der Social Media-Firmen noch zweistellige Minutenzeiten. War die Welt der relationalen Datenbanken von Katastrophenszenarien des Integritätsverlusts der Daten geprägt, so ist Big Data mit den nicht relationalen NoSQL-Datenbanken von der Vorstellung heimgesucht, dass Daten der Welt flüchtig bleiben könnten und ihrer Aufzeichnung entgehen. Denn, so die Hoffnung, jedes noch so unscheinbare Phänomen könnte eventuell einen Beitrag zu einer ökonomischen Transaktion zeitigen und entsprechend die Sorge ein Datum zu verpassen. Big Data geht so einher mit einem paradoxen Schauspiel um Transaktionskonzepte. Zum einen wurden Transaktionen in der historischen Episode des Entstehens von Big Data aus den zwischen 2001 und 2011 entwickelten NoSQL-Datenbanken exorziert,9 zugleich in eben diesem Schritt eine Infrastruktur geschaffen, die eine ökonomische Transaktionalisierung von N=all zum Versprechen hat (Mayer-Schönberger und Cukier, 2013, S. 47). Kein Datum, das in einer NoSQL-Datenbank angespült wurde, das nicht vielleicht den Bruchteil eines Cents einer ökonomische Transaktion abwerfen könnte. Um die von Härder angeführten Mini-Welten, die relationale Datenbanken organisieren und repräsentieren sollen, geht es bei Big Data nicht mehr. Wie IBMs Big Data-Initiative »Smart Planet«,10 Googles Motto »Organize the Worlds Information«11 mit Papers zur eigenen Infrastruktur unter dem Titel »Web Search for a Planet: The Google Cluster Architecture« (Barroso et al., 2003) anzeigen, geht es um die Welt.12 Eine Welt, die über die temporäre Verabschiedung des Transaktionskonzepts in Datenbanken in einem Maße transaktional geworden ist, dass diesbezügliche Fantasien transaktionskostenorientierter Ökonomen zugleich wohl einlöst als auch übertrifft. Für den selbsternannten Big Data-Guru des Massachusetts Institute of Technology Alex Pentland beispielsweise steht fest, dass Big Data die grundsätzlich transaktionale Natur des Sozialen zu zeigen vermag: »[…] social phenomena are really made up of millions of small transactions between individuals […]. We’re entering a new era of social physics, where it’s the details of all the particles – the you and me – that actually determine the outcome.« (Pentland, 2012) 9 | Inzwischen werden relationale und SQL-Prinzipien auch bei hochgradig distribuierten Datenbanksystemen wieder eingeführt. Vgl. Aslett, 2011; Stonebraker, 2011. 10 | www.ibm.com/smarterplanet/us/en/overview/ideas/index.html?re=sph. 11 | www.google.com/about/company/. 12 | Zu den historischen Vorläufern solcher Imaginationen der Restlosigkeit vgl. Krajewski, 2006. Vgl. für die 70er Jahre des 20. Jh. Turner, 2006; Vagt, 2013.
Christoph Engemann: You cannot not Transact – Big Data und Transaktionalität
Mindestens von Social Media-Anbietern werden in Formulierungen »all the particles« anklingende Totalitätsfantasien ernst genommen: kein Ereignis, keine Handlung, keine Kommunikation – oder Nichtkommunikation – die nicht potentiell transaktionsrelevant wären. Die – wenn nicht unmittelbar, so doch mittelbar – eingehen könnte in einen Analyselauf, der eine überraschende, ökonomisch signifikante Korrelation zeitigt. Transaktionen treten so unter Big Data-Bedingungen aus ihrem voluntaristischen Residuum heraus und teilen mit der Kommunikation das Schicksal der Unverweigerbarkeit. Big Data ist eine Transaktionsmaschine, die aus jedem Datum, aus jeder Kommunikation verspricht, eine Transaktion zu machen. Entsprechend kann man nicht mehr nicht transaktionieren, ist allerdings selten der transaktionalen Dimension des eigenen Handelns gewahr. Der voluntaristische Akt der Transaktion ist in den Akt der Akzeptanz der Nutzungsbedingungen vorverlegt. Sind diese einmal weggeclickt, geht das eigene Tun und Lassen zuverlässig in Transaktionen ein, die an anderen Orten durch andere Akteure und in unabwägbaren Ausmaß vollzogen werden. Man muss eine solche Ausweitung der Transaktionszone wohl in die zeitgenössische Gouvernementalität der Verstreuung von »Mikro-Märkten über das soziale Feld« (Vogl, 2011, S. 136) zählen, zugleich aber erstens feststellen, dass der Verstreuung enorme Konzentrationsprozesse koinzidieren (boyd und Crawford, 2011; Manovich, 2011; Warnke, 2012), und zweitens ihr kulturtechnischer Modus Operandi Transaktion in seinen medialen Bedingungen und Wandelungen genauer zu untersuchen ist. Manovich kann bereits 2011 in diesem Kontext bündig festhalten: »Only social media companies have access to really large (surface-wise) and deep (detailed) social data (especially transactional data).« (Manovich, 2011) Für die weitere Auseinandersetzung mit der Frage, was Big Data ist, ist es mithin geboten, genauer nachzuzeichnen, welche Relationen als Transaktionen zusammengezogen werden, und insbesondere genealogisch zu untersuchen, wie Datenbanktransaktionen und ökonomische Transaktionen zusammenhängen. Insbesondere wird es notwendig sein, die Wiederankunft des datenbanktechnischen Transaktionskonzepts und ACID-Paradigmas in den auf die NoSQL folgende Welle von NewSQL-Datenbanken ab etwa 2011 in ihren Motivationen und Effekten zu situieren. Für Googles Suchmaschine als derzeit ökonomisch erfolgreichste Transaktionsapparatur lässt sich festhalten, dass ihr hier eine besondere Stellung zukommt. Suchanfragen sind Ausweise des Begehrens, Wunschanzeigens, denen Google das Versprechen unmittelbarer Antwort gegenüberstellt, antwortet doch Googles Big Data auch auf kleinste Wünsche mit einem Clickangebot. Googles maximal bewegliches Archiv überschreibt so jedes Begehren in eine ökonomische Transaktionsgelegenheit. Suchmaschinen – und im zunehmenden Maße auch Facebook – machen die Welt in ihren Transaktionschancen lesbar. Sie implementieren, wie man gleichsam in Anlehnung an James C. Scotts in »Seeing like a State« (Scott, 1998) vorgelegter Analyse staatlicher Lesbarkeitsregime sagen könnte, ein seeing like a market. Denn in diesen Systemen wird jede Artikulation, jedes Signal – und sei es noch so trivial – an
377
378
4. Dataveillance: Algorithmen, Graphen und Protokolle
die Schwelle eines ökonomischen Übertrags gestellt. So gesellen sich zu den Suchergebnissen und auf die Profilseiten immer Werbeanzeigen, die sich auf die Suchanfrage beziehen und deren Transaktionsgängigkeit sowohl algorithmisch als auch via Auktion der Anzeigeposition approximiert wurde. Unobstrusive nennt Google in seiner Selbstdarstellung die Werbeeinblendungen auf der Suchergebnisseite. Diese Einblendungen sind die Umschrift eines individuellen Begehrens in eine ökonomische Transaktionschance und sie sind zugleich bereits Ausweis zweier gelungener Transaktionen: Erstens derjenigen, dass Google es vermocht hat, den betreffenden Wunsch mit einer treffsicheren Antwort aus seiner Datenbank zu versehen. Zweitens der erfolgreichen Versteigerung eines der Suchanfrage zugehörigen »AdWords« an einen Werbekunden. Die Preise dieser AdWords berechnen sich nicht zuletzt aus den Clicks auf die bereitgestellten Links und Anzeigen. Bei allem Investment in nicht relationale Datenbanken geht Google bei den Clicks keine Risiken ein: »Clicks on ads are basically small financial transactions, which need many of the guarantees expected from a transactional database management system.« (Barroso et al., 2013, S. 23) Insofern bleibt die Beobachtung des Informatik-Historikers Campbell-Kelly, Nordkalifornien »remains the center of activity in relational technology« (Campbell-Kelly, 2003, S. 185), im doppelten Wortsinne für die Gegenwart gültig: Google Facebook, Twitter usf. treiben die Entwicklung von Datenbanken voran und stiften neue Formen, in der Menschen und Dinge in Relation gesetzt werden, indem sie alle möglichen Relationen als ökonomische Transaktionschancen les- und umsetzbar zu machen versprechen.
L iter atur Aslett, Matt: »How will the database incumbents respond to NoSQL and NewSQL?«, The 451 Group (451 Tech Dealmaker), 2011. https://451research. com/report-short?entityId=66963 (10. Juni 2014). Barroso, Luiz André, Jeffery Dean und Urs Hölzle: »Web Search for a Planet: The Google Cluster Architecture«, in: IEEE Computer Society, 2003, S. 22-28. Dies.: The Datacenter as a Computer. An Introduction to the Design of WarehouseScale Machines, 2. Aufl., Madison: Morgan & Claypool 2013. Bitkom: »Big-Data-Technologien – Wissen für Entscheider Leitfaden«, Berlin: BITKOM Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V., 2014. Bourne, Steve: »Designing for Failure may be the Key to Success. A Conversation with Bruce Lindsay«, in: Association for Computing Machinery Queue, 2004. http://queue.acm.org/detail.cfm?id=1036486, (14. Juli 2014). boyd, danah, und Kate Crawford: »Six Provocations for Big Data«, 2011. http:// papers.ssrn.com/sol3/papers.cfm?abstract_id=1926431 (10. Juni 2014).
Christoph Engemann: You cannot not Transact – Big Data und Transaktionalität
Brewer, Eric: »CAP Twelve Years Later: How the ›Rules‹ Have Changed«, 2012. www.infoq.com/articles/cap-twelve-years-later-how-the-rules-have-changed (22. April 2014). Burkhardt, Marcus: »Informationspotentiale. Vom Kommunizieren mit Digitalen Datenbanken«, in: Stefan Böhme, Rolf F. Nohr und Serjoscha Wiemer (Hg.), Sortieren, Sammeln, Suchen, Spielen. Die Datenbank als mediale Praxis, Münster: LIT Verlag 2012, S. 55-74. Campbell-Kelly, Martin: From Airline Reservations to Sonic the Hedgehog. A History of the Software Industry, Cambridge, MA: MIT Press 2003. Codd, Edward F.: »A Relational Model of Data for Large Shared Data Banks«, in: Communications of the ACM, (13), 1970, S. 377-387. Ders.: The relational model for database management, 2. Aufl., Reading, MA: Addison-Wesley 1990. Derrida, Jacques: Über das »Preislose« oder The price is right in der Transaktion, Berlin: b_books 1999. Driscoll, Kevin: »From Punched Cards to ›Big Data‹: A Social History of Database Populism«, in: communication +1, 1, 2012, http://kevindriscoll.info (14. Juli 2014). Engemann, Christoph: »Im Namen des Staates: Der elektronische Personalausweis und die Medien der Regierungskunst«, in: Zeitschrift für Medien- und Kulturforschung, (2), 2011, S. 211-228. 2013, S. 205-227 Ders.: »Write Me Down, Make Me Real. Zur Gouvernemedialität der digitalen Identität«, in: Jan-Hendrik Passoth und Josef Wehner (Hg.), Quoten, Kurven und Profile – Zur Vermessung der Gesellschaft, Wiesbaden: VS Verlag für Sozialwissenschaften 2012. Eswaran, Kapali P., Jim N. Gray, Raymond A. Lorie et al.: »The notions of consistency and predicate locks in a database system«, in: Communications of the ACM, 19, 1976, S. 624-633. Fox, Armando, Steven D. Gribble, Yatin Chawathe et al.: »Cluster-Based Scalable Network Services«, in: Proceedings of the Sixteenth ACM Symposium on Operating Systems Principles, 1997, S. 78-91 Gilbert, Seth, und Nancy A. Lynch: »Brewer’s Conjecture and the Feasibility of Consistent, Available, Partition-Tolerant Web Services«, in: ACM SIGACT News, 2001, S. 51-59 Dies.: »Perspectives on the CAP Theorem«, in: Computer, 2012. Google Research: Speed matters, Mountain View 2009. Gray, Jim: »Notes on Data Base Operating Systems«, in: Richard Bayer und Günther Seegmüller (Hg.), Operating Systems. An Advanced Course, Berlin, Heidelberg und New York: Springer Verlag 1978, S. 394-481. Ders.: Thousands of DebitCredit Transactions-Per-Second: Easy and Inexpensive, Redmond, WA: Microsoft Research 2005.
379
380
4. Dataveillance: Algorithmen, Graphen und Protokolle
Grigorik, Iljya: »Breaking the 1000ms ›Time to Glass‹ mobile barrier«, 2013. http://alistapart.com/blog/post/breaking-the-1000ms-time-to-glass-mobilebarrier (10. Juni 2014). Gugerli, David: Suchmaschinen die Welt als Datenbank, Frankfurt a.M.: Suhrkamp 2009. Haerder, Theo, und Andreas Reuter: »Principles of Transaction-Oriented Database Recovery«, in: Computing Survey, 15 (4), 1983, S. 287-317. Härder, Theo, und Erhard Rahm: Datenbanksysteme. Konzepte und Techniken der Implementierung, 2. Aufl., Berlin, Heidelberg und New York: Springer Verlag 2001. Hayashi, Fumiko, Richard Sullivan und Stuart E. Weiner: A Guide to the ATM and Debit Card Industry, Kansas City, MI: Payments System Research Department Federal Reserve Bank of Kansas City 2003. Heidenreich, Ralph, und Stefan Heidenreich: Mehr Geld, Berlin: Merve Verlag 2008. Junge, Barbara: »Wer hat meine Daten«, in: Big Data. Das neue Versprechen der Allwissenheit, Berlin: Suhrkamp Verlag 2013, S. 23-34. Kirschenbaum, Matthew G.: Mechanisms: New Media and the Forensic Imagination, Cambridge, MA: MIT Press 2008. Krajewski, Markus: Restlosigkeit. Weltprojekte um 1900, Frankfurt a.M.: Fischer Taschenbuch Verlag 2006. Ders.: Der Diener. Mediengeschichte einer Figur zwischen König und Klient, Frankfurt a.M.: Fischer Verlag 2010. Lloyd, Wyatt, Michael J. Freedman, Michael Kaminsky et al.: »Don’t Settle for Eventual Consistency. Stronger properties for low-latency geo-replicated storage«, in: Association for Computing Machinery Queue, 2014. Luhmann, Niklas: Das Recht der Gesellschaft, Frankfurt a.M.: Suhrkamp Verlag 1993. Manovich, Lev: »The Promises and the Challenges of Big Social Data«, in: Software Studies Initative, 2011. Mathney, Blake (2012): »Tumblr Architecture – 15 Billion Page Views a Month and Harder to Scale than Twitter – High Scalability«. http://highscalability.com/ blog/2012/2/13/tumblr-architecture-15-billion-page-views-a-month-and-harder. html (17. April 2014). Mayer-Schönberger, Viktor, und Kenneth Cukier: Big Data – A Revolution that will change how we live, work and think, London: John Murray Publishers 2013. Myslewski, Rik: »Google Research: Three things that MUST BE DONE to save the data center of the future Think data-center design is tough now? Just you wait«, 2014. www.theregister.co.uk/2014/02/11/google_research_three_things_ that_must_be_done_to_save_the_data_center_of_the_future/?page=1 (17. April 2014). o.A.: »Transaction Processing Performance Council«, o.J. www.tpc.org/ (17. April 2014).
Christoph Engemann: You cannot not Transact – Big Data und Transaktionalität
Opitz, Sven: An der Grenze des Rechts. Inklusion/Exklusion im Zeichen der Sicherheit, Weilerswist: Velbrück Wissenschaft 2012. Pentland, Alexander: »Reinventing Society in the wake of big data«, Interviewt von John Brockmann, 2012. http://edge.org/conversation/reinventing-societyin-the-wake-of-big-data (10. Juni 2014). Pritchett, David: »BASE: An ACID Alternative«, in: Association for Computing Machinery Queue, 6 (3), 2008, S. 48-55. Reichert, Ramón: Das Wissen der Börse. Medien und Praktiken des Finanzmarktes, Bielefeld: transcript Verlag 2009. Röhle, Theo: Der Google-Komplex. Über Macht im Zeitalter des Internets, Bielefeld: transcript Verlag 2010. Schirrmacher, Frank: »Der verwettete Mensch«, in: Big Data. Das neue Versprechen der Allwissenheit, Berlin: Suhrkamp Verlag 2013, S. 273-280. Scott, James C.: Seeing Like a State. How Certain Schemes to Improve the Human Condition Have Failed, New Haven: Yale University Press 1998. Serlin, Omri: »The History of DebitCredit and the TPC«, in: The Benchmark Handbook, for Databases and Transaction Processing, 2. Aufl., San Francisco, CA: Morgan Kaufmann 1998. Sprenger, Florian: Medien des Immediaten. Elektrizität – Telegraphie – McLuhan, Berlin: Kulturverlag Kadmos 2012. Stein, Benno, und Petra Löffler: »Korrelationen sind überall da, wo sie gesucht werden«, in: Zeitschrift für Medienwissenschaft, (10), 2014, S. 91-109. Stonebraker, Michael, Samuel Madden, Daniel J. Abadi et al.: »The End of an Architectural Era (It’s Time for a Complete Rewrite)«, in: Wien 2007, S. 11501160. Proceedings of the 33rd international conference on very large data bases, http://nms.csail.mit.edu/~stavros/pubs/hstore.pdf (14. Juli 2014). Stonebraker, Michael: »New SQL: An Alternative to NoSQL and Old SQL for New OLTP Apps«, 2011. http://cacm.acm.org/blogs/blog-cacm/109710-new-sql-analternative-to-nosql-and-old-sql-for-new-oltp-apps/fulltext (29. April 2014). Turner, Fred: From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism, University of Chicago Press 2006. Vagt, Christina: »Fiktion und Simulation. Buckminister Fullers World Game«, in: Archiv für Mediengeschichte, 2013, S. 117-134. Vogels, Werner: »Eventually Consistent«, in: Communications of the ACM, 52 (1), 2009, S. 40-44. Vogl, Joseph: Das Gespenst des Kapitals, Zürich: Diaphanes 2011. Warden, Pete: Big Data Glossary, Beijing, Cambridge, Farnham, Köln, Sebastopol und Tokyo: O’Reilly Media 2011. Warnke, Martin: »Die Datenbanken als Zitadellen des Web 2.0«, in: Stefan Böhme, Rolf F. Nohr und Serjoscha Wiemer (Hg.), Sortieren, Sammeln, Suchen, Spielen. Die Datenbank als mediale Praxis, Münster: LIT Verlag 2012, S. 122-135. Watzlawick, Paul, Janet H. Beavin und Don D. Jackson: Menschliche Kommunikation. Formen, Störungen, Paradoxien, Bern 1969.
381
5. Digitale Technologien und soziale Ordnungsvorstellungen
»All Watched Over by Machines of Loving Grace« Öffentliche Erinnerungen, demokratische Informationen und restriktive Technologien am Beispiel der »Community Memory« Stefan Höltgen
Die – sowohl ökonomisch als auch technisch – bedeutendsten Generatoren von Massendaten sind die so genannten sozialen Netzwerke, die vom Nutzer an seinem eigenen Computer eingegebene Daten über Internetprotokolle zu Unternehmensservern übertragen, wo sie gespeichert und verarbeitet werden. Die Qualität und Quantität solcher Daten produziert in kürzester Zeit Emergenzeffekte, bei denen auf Basis der Datenlage Aussagen über einzelne Nutzer, Nutzergruppen, die zur Übertragung verwendeten Apparate und vieles mehr gewonnen werden können. Die im Prozess des Data Mining generierten Informationen werden dann – oft automatisiert – für Werbe-, Entwicklungs- und Forschungszwecke ausgewertet. Darüber hinaus ist es aber auch möglich, diese Datensätze für Zwecke der quantitativen Sozialforschung zu operationalisieren. Jüngst ließ sich von einem »Facebook-Soziologen« auf Spiegel Online dazu lesen: »Man lernt oft Dinge, die den Blick auf die Welt verändern. Ein Beispiel ist eine Studie, die wir vor dem Valentinstag 2012 durchgeführt haben. Wir haben aktuelle Songlisten und Veränderungen im Beziehungsstatus der Nutzer analysiert und fanden so heraus, welche Musik die Menschen nach einer Trennung hören. Ich hätte auf traurige Songs von The Cure oder so getippt. Aber die meisten haben den Soundtrack der Vampirserie ›Twilight‹ gehört. Aus diesem Anlass haben wir auch die romantische Dynamik auf Facebook untersucht. Von den 260 Millionen Nutzern, die seit 2008 mit anderen Facebook-Mitgliedern liiert waren, sind 65 Prozent noch mit ihrem ersten Partner zusammen – die anderen 85 Millionen Nutzer bilden ein dichtes Netz aus Partnern, Ex-Partnern und Ex-Ex-Partnern. Da ergeben sich manchmal sehr interessante Verbindungen, die ›Links of Love‹.« (N. N. 2013 http://www.spiegel.de/netzwelt/web/was-ein-forscher-mit-facebooks-datenschatz-anstellt-a-934893.html, 14. Juli 2014)
386
5. Digitale Technologien und soziale Ordnungsvorstellungen
An dieser kurzen Sentenz zeigt sich nicht nur, welche Datens(ch)ätze große Sammlungen von nutzergenerierten Datenbanken beherbergen, sondern auch, dass derart formatierte Informationen jederzeit einem fremden (menschlichen wie maschinellen) Kalkül unterworfen sind. Diese »Schätze« sind nämlich nur deshalb zu heben, weil sie in ein technisches Dispositiv eingebettet sind, das, wie überall so auch hier, einen maßgeblichen Einfluss auf die Möglichkeiten und Grenzen des Wissens nimmt. Die Verfassung dieses Dispositivs führt den Gegensatz von Erinnerung (Memory) und Speicher (Memory) vor Augen und zeigt, dass sich hinter dem Begriff eines »sozialen Netzwerks« nicht etwa ein immaterielles, kollektives Gedächtnis, sondern »bloß« ein »kalter« Datenspeicher verbirgt. Alles Soziale daran wäre dann interpretierte Zuschreibung von Außen. In meinem Beitrag möchte ich auf das »Community Memory«-Projekt, das Anfang der 1970er Jahre in der California Bay Area (rund um San Francisco) entstand und damit das früheste bekannte Beispiel einer »community built database« (vgl. Pardede, 2011) darstellt, eingehen und zeigen, welche Implikationen von Beginn an mit dieser Technologie verbunden sind und welche Möglichkeiten und Operationen sich hinter den Hard- und Softwareinterfaces verborgen haben. Mit anderen Worten: Den Phantasmen der Technologie die Funktionen des Dispositivs gegenüber stellen und damit dessen Apriori darlegen. Dies muss allerdings nur mit einem doppelten Blick erfolgen: einerseits (diskursanalytisch) auf die Protagonisten und ihre Aussagen; andererseits (technikzentriert, medienarchäologisch) unter und hinter jene Oberflächen der Software, der Schnittstellen und das Nutzungsverhalten. Das Ergebnis wäre trotz der Historizität des Untersuchungsobjektes auf die Gegenwart übertragbar, denn dieses Apriori findet sich in der Basistechnologie aller modernen Massendatenverarbeitung: Der Computerhardware (seiner Architektur und Peripherie) und -software (der Programmierung und Datenstruktur). Damit begründet sich die Auswahl des frühen »sozialen Netzwerks«, denn an der vergleichsweise »einfachen« damaligen Technologie zeigen sich dieselben Möglichkeiten, Grenzen und Probleme wie sie in heutigen, ungleich komplexer aufgebauten Netzwerken bestehen. Schrittweise1 soll zunächst das historische Ereignis des »Community Memory«-Projektes samt seiner Protagonisten und Chronisten in Erinnerung gebracht werden. Dann wird seine Hardware-Basis in Augenschein genommen – insbesondere deren Speichertechnologien. Angeschlossen wird die Frage, auf welcher Software-Basis solch eine Datenbankanwendung realisiert werden konnte. Nachdem dann die mögliche Modellierung dieser Daten in den Datenbanken unter den technischen und historischen Bedingungen vorgestellt wurde, erfolgt eine medienepistemologische Bewertung dieser Aspekte. Die medientechnische Be1 | Die meisten meiner Ausführungen stützen sich auf historische Aufzeichnungen der Protagonisten und technische Dokumentationen der Apparate. Wo es mir möglich war, habe ich zu den Teilnehmern des Projektes (Lee Felsenstein, Mark Szpakowski) Kontakt aufgenommen. Einiges stellt dennoch Ergebnis eigener Extrapolationen der historischen Möglichkeiten dar.
Stefan Höltgen: »All Watched Over by Machines of Loving Grace«
dingung der Möglichkeit von »Community Memory« kann so im Vergleich zu den Möglichkeiten modernster »community built databases« (wie etwa bei Facebook) nicht nur zeigen, dass Massendatenauswertung eine beständige Forderung an die konzeptionelle und reale Weiterentwicklung von Hardware und Software gestellt hat und stellt,2 sondern auch, dass sich daran auch schrittweise eine »Politik des Informationszeitalters« entwickelt und ablesen ließe.
1. »I nformation F le a M arke t« — D as P rojek t Die Anfänge des »Community Memory«-Projektes liegen in den Hacker-Szenen der US-amerikanischen Universitäten und den daraus sukzessive entstehenden, öffentlichen und gemeinnützigen Computer-Projekten. Solche Projekte entstanden Anfang der 1970er Jahre in San Francisco aus der Anti-Kriegsbewegung. (Vgl. Levy, 1984, S. 150ff.) Dort gründeten einige ehemalige Studenten ein öffentliches Rechenzentrum namens »Resource One Inc.« Lee Felsenstein, einer der zentralen Initiatoren von »Community Memory« und Mitarbeiter bei »Resource One«, erinnert sich: »Resource One inc. was a nonprofit corporation that had evolved out of a dormant branch of the San Francisco Switchboard (the other branch had formed the Haight-Ashbury Switchboard and was quite viable). Impelled by the 1970 crisis around the invasion of Cambodia and the resulting shutdown of many universities, four computer science students from Berkeley had dropped out and moved to San Francisico to work on setting up computer access for members of ›the counterculture‹, of which they felt a part.« (Felsenstein, o.J.)
»Resource One« basierte sein erstes Rechenzentrum »Project One« 1972 auf einem von der Transamerica Leasing ausgemusterten und gesponserten Großrechner (der zuvor unter anderem von Douglas Engelbart für seine berüchtigte »Augmenting Human Intellect«-Demo genutzt wurde – vgl. Crosby, 1995), welcher in San Francisco aufgebaut wurde. Das »Community Memory«-Projekt nutzte eben diese Hardware und war damit (teilweise) ebenfalls in San Francisco angesiedelt. Neben Felsenstein, der für die Zusammenstellung und Konstruktion der benötigten Hardware zuständig war, gehörten der Systemprogrammierer Efrem Lipkin (Software) und Mark Szpakowski (Interfaces und Administration) zu den »Community Memory«Gründern. Damit realisierte sich für Felsenstein eine Idee, die er bereits seit den späten 1960er Jahren verfolgte: »to spread the Hacker Ethic by bringing computers to the people.« (Levy. 1984, S. 151)3 2 | Die Probleme, die die NSA mit den gesammelten Datenmengen hat, haben einmal mehr die Forschung am Quantencomputer befeuert. (Vgl. Schischka, 2013; Lischka, 2014) 3 | Felsenstein gehörte aus dieser Motivation heraus auch zu den Gründungsmitgliedern des Homebrew Computerclub (1975), erfand mit dem »SOL-20« (1977) den ersten
387
388
5. Digitale Technologien und soziale Ordnungsvorstellungen
In der ersten Phase (1972-75) des »Community Memory«-Projektes war es das Ziel der Gründer, die Öffentlichkeit mit der Benutzung von Computern vertraut zu machen und deren Nützlichkeit für alltägliche Aufgaben zu demonstrieren. Dazu ersannen die drei ein »public electronic bulletin board system«, bei dem es möglich war, unmoderiert und anonym Informationen auszutauschen. In dem studentischen Schallplattenladen Leopold Stokowski Memorial Service Pavilion auf dem Campus der University of Berkeley wurde am 8. August 1973 dazu im Eingangsbereich (direkt neben dem Schwarzen Brett) ein Kasten aufgestellt (Abb. 1), in welchem das Ein- und Ausgabe-Terminal integriert war. Es war über eine Telefonleitung mit dem Computer bei »Project One« in San Francisco verbunden.
Abbildung 1: Das Terminal von Leopold’s Records
Das System wurde von den Kunden des Plattenladens eifrig genutzt und »verdrängte« binnen kurzer Zeit das Papier-basierte Schwarze Brett. Zunächst fand dort ein erwartbarer Austausch über An- und Verkauf von gebrauchten Schallplatten, Suche von Musikern für Band-Projekte statt: »Musicians loved it – they ended up generating a monthly printout of fusion rock bassists seeking raga lead guitars.« (Crosby, 1995) Doch recht schnell sprach sich herum, dass man bei Leopold’s Records einen Computer benutzen konnte und die Inhalte der Datenbank änderten sich. Es kamen allgemeinere Suchanzeigen (vor Beginn der Studiensemester vor allem für Zimmer und Wohnungen) hinzu, Kritiken zu Schallplatten und Konzerten und Diskussionen über unterschiedlichste Themen, die sich über die Anhänge (Kommentare) zu den Ausgangsmitteilungen erstreckten. Als sich das System bei den Nutzern etabliert und unter den Studenten herumgesprochen hatte, wurden bis 1974 zwei weitere Terminals installiert. (Vgl. »Homecomputer« (Mikrocomputer und Terminal in einem Gehäuse«) und dem »Osborne 1« (1981) den ersten portablen Microcomputer.
Stefan Höltgen: »All Watched Over by Machines of Loving Grace«
Crosby, 1995) »Community Memory« hatte in seiner ersten Phase »universal enthusiasm« hervorgerufen, wie Felsenstein schreibt: »›Would you like to use our electronic bulletin board?‹ we would ask those who approached, ›We’re using a computer‹. At the last word newcomers‹ faces would open up and many would say ›Oh, boy! Can I use it?!‹ Now I say that ›we opened the door to cyberspace and found that it was hospitable territory‹. The data base showed tremendous variation and imagination – all the musician’s traffic moved from the paper bulletin board to our ›Community Memory‹ system[.]« (Felsenstein, o.J.) »And if, in August 1973, computers were generally regarded as inhuman, unyielding, warmongering, and nonorganic, the imposition of a terminal connected to one of those Orwellian monsters in a normally good-vibes zone like the foyer outside Leopold’s Records on Durant Avenue was not necessarily a threat to anyone’s well-being.« (Levy, 1984, S. 147)
Der wachsende Zuspruch zu einer Technologie, die bis dahin mit Angst und Misstrauen belegt war, lässt sich nur zu einem Teil aus der neu gewonnenen Nutzungsmöglichkeit, die sich den Besuchern von Leopold’s Records ergeben hat, erklären. Wenn Felsenstein auf die Auskunft »Wir haben einen Computer!« ein »Darf ich den benutzen?« als Reaktion bekommt, dann zeigt sich darin auch eine Distanziertheit, die offenbar nicht ohne Weiteres (zumindest ohne Erlaubnis) überwunden werden kann. Zur Überwindung könnte hier, wie erwähnt, die räumliche Distanz des Terminals zum kilometerweit entfernten »Hulking Giant«4, aber auch das Verbergen der Schnittstelle beigetragen haben: »The teletype was noisy, so it was encased in a cardboard box« (Szpakowski, 2006), erinnert sich Szpakowski. Felsenstein hatte diese Box mit einer Membran versehen: »It had two ports in the front covered with overlapping vinyl flaps, like a cat door, so you could stick your hands in and use the keyboard.« 1974 zog das Terminal um und wechselte die Schnittstellen-Hardware: Zum Einsatz kam eines der frühesten Bildschirm-Terminals. (Vgl. Crosby, 1995)5
2. »C onvivial C yberne tic D e vices « — D ie H ardware 1971 setzte die Erfindung des Mikroprozessors eine Revolution in der Computertechnologie und damit auf dem Computermarkt ein, die erst um 1975 auch den Privatsektor erreichte. Vom professionellen, geschweige denn gewerbsmäßigen 4 | »The computer was a Hulking Giant, an $800,000 machine that was already obsolete. It filled a room and required 23 tons of air conditioning.« — Eine wahrlich ehrfurchtgebietende Installation, wie Levy (1984, S. 161) den SDS 940 bei »Project One« beschreibt. 5 | Dass es sich dabei allerdings, wie Felsenstein hier anmerkt, um das Modell 1500 von Hazeltine handelte, ist jedoch unwahrscheinlich, weil dieses erst 1977 auf den Markt kam.
389
390
5. Digitale Technologien und soziale Ordnungsvorstellungen
Einsatz von Mikrocomputern (also Computern auf Basis der Mikroprozessortechnologie) konnte bis Ende dieses Jahrzehnts noch keine Rede sein. Die Großrechner und Minicomputer der 1960er Jahre wurden nicht nur weiterhin verwendet, sondern auch noch weiterentwickelt (einzelne »Supermini«-Systeme sogar bis Ende der 1980er Jahre). Durch die stetige Vergünstigung von Silizium-basierten integrierten Schaltkreisen6 gab es eine große Anzahl von Computerherstellern und -modellen. Neben den relativ günstigen Minicomputern nutzten Universitäten und Wirtschaftsunternehmen Großrechenanlagen, deren Anschaffung aufgrund der sich beschleunigenden Entwicklung aber kaum lohnte. Daher war das von IBM bereits in der Frühzeit der Computergeschichte etablierte Modell des Mietens oder Leasens (vgl. Ceruzzi, 2003, S. 63, 73 u. 99) von Computern auch um 1970 noch eine oft genutzte Option. Der Großrechner, den »Resource One« als Dauerleihgabe bekam, war ein solches, ausgemustertes Leasing-Modell des 1961 gegründeten Herstellers Scientific Data Systems (SDS). Das Modell SDS 940 (nach der Übernahme von SDS durch Xerox im Jahre 1969 als XDS 940 weitergeführt) war wie alle anderen Rechner der Firma kaum verbreitet. Lediglich 1 Prozent aller Computer auf dem US-amerikanischen Markt kamen von SDS. Demzufolge gab es nur wenige Exemplare des SDS 940: »[T]hose computers weren’t all that common, there were only 58 ever produced including conversions of 930’s and 9300’s.« (Crosby, 1995) Dies bedeutete vor allem, dass einerseits kaum Software für den Rechner existierte, die nicht im Rahmen der wenigen, konkreten Installationen entstanden war; zum anderen mussten Aufbau und Administration oftmals ausschließlich mithilfe der Manuals und Erfahrungen mit anderen Systemen geleistet werden – ein zentralisiertes Schulungssystem wie bei IBM üblich existierte nicht. Felsenstein erinnert sich an die Schwierigkeiten bei der Installation des Systems im Gebäude von »Resource One«: »So it had to be delivered in a couple of trucks; it was a row of about a dozen 19-inch relay rack cabinets, each one about two feet wide – 19 inches is the internal dimension – and so 24 feet of cabinetry. This machine also required 23 tons of air conditioning. We had to run our own power lines from the main power busses downstairs to keep the thing happy, you didn’t just plug it into the wall.« (Crosby, 1995)
Der SDS 940 kam im Jahre 1969 auf den Markt und war speziell für Time-Sharing-Systeme konzipiert, bei denen mehrere Nutzer über Terminals zeitgleich auf einen (zumeist nahe gelegenen) zentralen Computer zugriffen und von diesem flexibel Rechenzeit zugewiesen bekamen.7 Auf diese Weise entstand beim Arbeiten der Eindruck, man nutze den Computer allein und musste auch nicht mehr 6 | Die Firma SDS war die erste, die solche Bausteine in ihren Computern einsetzte. 7 | Das Time-Sharing wurde vor allem in der frühen Hacker-Szene heftig kritisiert. Denn mit der größeren Flexibilität in der Benutzung von Rechentechnik gingen stärkere Restriktionen auf der Ebene des Betriebssystems einher. Betriebssysteme, könnte man sagen, entstanden
Stefan Höltgen: »All Watched Over by Machines of Loving Grace«
– wie zurzeit der Batchprocessing-Systeme – darauf warten, dass ein Operator einem Rechenzeit zuteilte. Der SDS 940 stellte eine Erweiterung des Vorgängermodells SDS-930 dar, welche im Rahmen des »Project Genie« ab 1964 an der University of Berkely unter Führung von J.C.R. Licklider vorgenommen wurde. Aufgabe des »Project Genie« war die Entwicklung einer Hardware, die spezifische Voraussetzungen für Time-Sharing-Betriebssysteme bot. Hierzu wurden der SDS-930-Architektur vor allem ein Memory Management und ein Controller, mit dessen Hilfe der externe Massenspeicher als virtuelles RAM genutzt werden konnte, hinzugefügt.
Abbildung 2: Der SDS 940
Das SDS-940-System (Abb. 2)8 hatte speziell für diese Anforderungen zwei verschiedene Operationsmodi (Monitor- und Usermode – ersteres mit einem privilegierten Instruction Set), ein hardware-basiertes Memory-Map-System, das automatisch Speicherbereiche verwalten, schützen und – je nach Operationsmodus – zuweisen/sperren konnte sowie eine »hang up«-Prävention, die (ähnlich zu heute benutzten präemptiven Multitasking-Systemen) den Absturz des Computers verhinderte, sollte eine Applikation »hängen bleiben«. Ausgeliefert wurde das 24-Bit-System in der Minimalkonfiguration mit zwei 16.384 Datenwörter (insgesamt also ca. 100 KB) fassenden Ferritkern-Speicher (RAM), zwei FestplattenLaufwerken (Rapid Access Discs) mit jeweils 4,2 Millionen Zeichen Kapazität. Zur Installation im »Project One«-Rechenzentrum gehörte allerdings ein alternativer Massenspeicher von Control Data. Felsenstein gibt dessen Kapazität mit 58 sogar erst als »Zwischenschichten« zwischen Hardware und Nutzeroberfläche, um verschiedene Möglichkeiten und Unmöglichkeiten einzurichten. (Vgl. Levy, 1984, S. 109ff.) 8 | Zu den hier nicht beschriebenen technischen Spezifikationen des Computers siehe Scientific Data Systems. 1967.
391
392
5. Digitale Technologien und soziale Ordnungsvorstellungen
MB und seine Größe mit »the size of two refrigerators« (Felsenstein, o.J.) an. Als konservativer Massenspeicher diente ein »TM-4«-Magnetband-System der Firma Ampex. Sowohl Festplatten als auch Bandlaufwerke konnten vom SDS-940 »im Hintergrund« – also unabhängig von anderen Computeroperationen – genutzt werden. Neben dem Terminal (ein »Teletype Model 35«), das direkt am Computer zur Administration angeschlossen war, kam bei Leopold’s Records das damals allgegenwärtige »Teleype Model 33 ASR« (ASR = Automatic Send and Receive) – ein von der Teletype Corporation circa 1963 eingeführter Fernschreiber – zum Einsatz. Er stellte eine Leihgabe von Tymshare dar (Crosby, 1995), einem Third-Party-Hardwarehersteller und Timesharing-Service, der sein Geschäft im wesentlichen um die SDS-940-Plattform bildete. Zur Datenkommunikation zwischen Computer und Terminal verfügte der SDS 940 über ein mehrkanaliges, serielles Interface, über das bis zu vier Leitungen asynchron zu externen Terminals genutzt werden konnten. Bei Time-Sharing-Systemen müssen die Terminals keineswegs in unmittelbarer Nähe zum Zentralrechner installiert und mit diesem verkabelt sein. Die Nutzung von Verbindungen über Telefonleitungen wurde mit Hilfe von Modems (Modulator-Demodulator) zur Umwandlung von seriellen Datenströmen in akustische, telefonisch übertragbare Signale und deren Rückwandlung in Daten erreicht. Die Initiatoren von »Project One« schafften zunächst ein Modem von Omnitech mit einem variablen Datendurchsatz von bis zu 300 Baud (Bit pro Sekunde) an. Diese Geschwindigkeit erreichte es jedoch nur selten. Sicherer Datentransfer war nur mit bis zu 100 Baud möglich – einer Geschwindigkeit, die im krassen Gegensatz zu den Möglichkeiten des Computers und seines Massenspeichers stand. 1973 konstruierte Lee Felsenstein daher einen Akustikkoppler, der insbesondere den Anforderungen an die Datenbankanwendung gerecht werden sollte: Das »Pennywhistle-Modem«. (Abb. 3) Dabei entschloss er sich zu zwei wesentlichen Änderungen: Wenn die Qualität der Datenleitung bekannt (und gut) war, musste die Baudrate des Modems nicht mehr variabel sein. Zudem hatte er durch seine Arbeit bei Ampex Möglichkeiten kennengelernt, die zeitraubende Übertragung eines Steuersignals zur Synchronisierung der vernetzten Geräte zu sparen, indem das Datensignal selbst als Referenzton zur Synchronisierung eingesetzt wurde. Dadurch, dass er keine direkte Leitung vom Computer ins Telefonnetz verwendete, sondern eine akustische Schnittstelle zum Telefonhörer integrierte, schuf er die Möglichkeit für Computernutzer, mit normalen Telefonen Datenfernübertragung zu bewerkstelligen. Dies und einige andere Designentscheidungen senkten den Entwicklungspreis des Modems dramatisch auf unter 100 US-Dollar. (Vgl. Felsenstein, 1976)9
9 | Dort findet sich auch die genaue technische Beschreibung des Modems.
Stefan Höltgen: »All Watched Over by Machines of Loving Grace«
Abbildung 3: Pennywhistle-Modem
Wie man am Gehäuse des Modems erkennt, wird es am Telefon angeschlossen, indem man den Hörer in die zwei Kunststoff-Mulden drückt. Damit war der Anschluss der »neuen« Technologie (Computer) an die alte (Telefon) intuitiv möglich. Nun musste noch eine »Leitung« vom Computer zum Terminal geschaffen werden. Die teilweise kostenlosen Ortsgespräche in der San Francisco Bay Area ermöglichten sogar eine »Standleitung«: »this line was an Oakland exchange that was within the local (free) calling range of San Francisco, so we made only one very long call per day.« (Felsenstein, o.J.) Damit war die Hardware-Infrastruktur für das erste »soziale Online-Netzwerk« geschaffen. Fehlte nur noch die Software.
3. »The S tucture of the A gor a« — D ie S of t ware Wie wichtig die Verfügbarkeit und Nutzbarkeit von Software für eine Verbreitung von Computertechnologie ist, wusste man seit die ersten höheren Programmiersprachen entwickelt wurden. Im Hintergrund jeder dieser Sprachdesigns stand neben der Implementierung eines spezifischen Kalküls und Programmierparadigmas immer auch die mögliche Erlernbarkeit. Ende der 1960er Jahre hatte sich eine Vielzahl höherer Programmiersprachen ihre je spezifische Nische erobert; dem Paradigma der leichten Erlernbarkeit – insbesondere durch Nicht-Informatiker – folgen allerdings nur wenige von ihnen. BASIC (Beginner’s All-Purpose Symbolic Instruction Code), das im Mai 1964 am Dartmouth-College veröffentlicht wurde,10 nahm eine Schlüsselrolle bei der Popularisierung der Computer10 | Auch BASIC war eine Entwicklung, die ohne Timesharing-Systeme nicht möglich gewesen wäre und somit ebenfalls ein »Zeichen der Zeit« in Hinblick auf die Computerentwicklung. (Vgl. Höltgen, 2013)
393
394
5. Digitale Technologien und soziale Ordnungsvorstellungen
technologie ein. Felsenstein hatte die Sprache selbst 1970 bei Ampex gelernt. (Vgl. Felsenstein, o.J.) Zum SDS-940-System, für das standardmäßig ein FORTRANII-Compiler, eine Mathematik-orientierte Sprache namens Conversational Algebraic Language (CAL), ein Time-Sharing-Assembler (TAP) sowie unterschiedliche Debugger, Editoren und Programmbibliotheken verfügbar waren, erschien 1968 ein BASIC von SDS und 1971 ein »Super-BASIC« von Tymshare. Mit letzteren beiden setzte sich auch Felsenstein auseinander, um Time-Sharing-Applikationen zu entwickeln, bewertet dies im Rückblick allerdings ironisch als »gelinde gesagt ambitioniert« (vgl. Crosby, 1995). Zur Programmierung der Ressourcenintensiven Anwendung für das »Community Memory«-System (insbesondere der zeitkritischen Modem- und Festplatten-Zugriffe) war BASIC nicht geeignet. Eine Datenbankanwendung, wie sie »Community Memory« – zumal im TimeSharing-Betrieb – erfordert, ist ein voraussetzungsreiches Software-Projekt. Zurzeit der Installation waren Datenbank-Systeme noch kaum verbreitet,11 professionelle Software war allenfalls für IBM-Computer verfügbar.12 Die Bedingung für die Möglichkeit einer solchen Anwendung war zum einen eine Hardwareumgebung, die die Übertragung und Verarbeitung von Daten, sowie schnelles Speichern und Relokalisieren einzelner Datensätze erlaubte; zum anderen wurde eine Software gebraucht, die es ermöglichte, große Datenmengen außerhalb des Programmcodes separat zu bearbeiten. Hierzu wurde eine Backend-Schnittstelle für den Administrator, ein Datenbank-Management-System (DBMS), eine FrontendSchnittstelle für den Nutzer und nicht zuletzt eine Programmiersprache, die diese Hard- und Software-Konzepte adäquat zu realisieren im Stande war, benötigt. Diese Programmiersprache musste schließlich auch die »Philosophie der Datenbank« reflektieren, weil sie es war, die entschied, auf welche Weise die Daten verarbeitet werden konnten. BASIC konnte diesen Anforderungen nicht gerecht werden. Die einzige »verfügbare« Datenbank-Philosophie zurzeit des »Community Memories« war das so genannte hierarchische Datenbankmodell. Eine Hierarchie wird oft in Form eines Baumstruktur-Modells gezeichnet: Ausgehend von einem Wurzelpunkt verzweigen sich an Knotenpunkten verschiedene Stränge (Zweige), die jeweils wieder eigene Knotenpunkte haben können, an denen sie sich verzweigen. Die Hierarchie, die dabei entsteht, ist das so genannte Eltern-Kind-Modell: Jeder 11 | Wenige Jahre zuvor hatte es ein ähnliches Hacker-Projekt an der Stanford University gegeben: Studierende programmierten einen »IBM 650«, um mit seiner Hilfe eine Partnerbörse zu betreiben. Das System basierte allerdings auf Lochkarten-Daten – an ein DatenbankManagement-System war nicht zu denken. (Vgl. Höltgen, 2012, S. 274-276.) – Das war schon »[t]he old style of matchmaking. Community Memory encouraged the new« (Levy, 1984, S. 148.) 12 | Das »Information Management System« (IMS) von IBM entstand zwischen 1966 und 1968 und war das erste vollständige »Datenbank-Management-System«, das mit einer eigenen Programmiersprache (»Data Langauge One« – DL/1) und einem Datenbank-Monitorsystem (IMS/DB) und einem Transaktionsmonitor (IMS/TM), der die Mittler-Software zwischen Datenbank und Anwenderprogramm bildete, ausgestattet war.
Stefan Höltgen: »All Watched Over by Machines of Loving Grace«
Eltern-Knoten kann Kind-Verzweigungen haben, die zueinander gleichberechtigt sind und jeweils selbst wieder Eltern-Knoten mit Kind-Verzweigungen herausbilden können. Jedes Kind kann aber nur einen Eltern-Knoten haben und steht mit den Geschwistern nur über diesen Knoten in Verbindung. Diese Relationsbeschreibung ist deshalb wichtig, weil auf diese Weise beschrieben ist, wie die Daten einer hierarchischen Datenbank zueinander in Beziehung stehen können. Zu den Vorteilen des hierarchischen Datenbankmodells gehört die leichte Zuordnung von Daten zu bestimmten Kategorien und Unterkategorien sowie der relativ leicht zu realisierende Zugriffsschutz ab einem bestimmten Knotenpunkt (etwa, das ab diesem Knoten nur ein bestimmter Nutzer auf alle Kind-Verzweigungen Zugriff bekommt). Ein bedeutender Nachteil ist die Einschränkung der Datenbeziehungen zueinander und damit auch die Unmöglichkeit, mehrere Bäume (Datenbanken) miteinander zu verknüpfen. Dies führte z.B. dazu, dass Redundanzen (gleiche Inhalte) nicht durch Querverweise kompensiert werden konnten, was die Datenbank sehr speicherintensiv werden ließ. Die Starrheit des Modells schränkt die Programmierer in den Möglichkeiten ihrer Datenbank-Applikationen stark ein, weshalb schon wenige Jahre nach der Einführung des hierarchischen Datenbankmodells Alternativen dazu erarbeitet wurden.13 Diese Alternativen standen Felsenstein und seinen Mitarbeitern bei »Resource One« allerdings noch nicht zur Verfügung. 1972, nachdem die Hardware im Gebäude installiert war, wurde ein eigenes Datenbank-Management-System von Bart Berger und John M. Cooney programmiert, das man »Resource One Generalized Information Retrieval System« (ROGRIS) taufte. Es stellte eine Adaption des speziell für den SDS 940 verfügbaren »Meta Information Retrieval System« (MIRS) dar, welches in der neuen Programmiersprache QSPL14 geschrieben war. Mit Hilfe von ROGRIS war es möglich, die Datenbank Schlüsselwort-basiert anzulegen. Die Schnittstelle für »Community Memory« wurde von Efrem Lipkin programmiert, nachdem Felsenstein und er Anfang 1972 einen »Crashkurs« durch den MIT-Hacker Richard Greenblatt erhalten hatten: »Efrem Lipkin […] designed the Resource One Generalized Information Retrieval System – ROGIRS, 13 | Zu erwähnen sind diesbezüglich vor allem die Relationale Datenbank und die Objektorientierte Datenbank, welche abermals zu bestimmten anderen Softwareparadigmen (etwa der objektorientierten Programmierung) in Beziehung zu stehen scheinen. (Vgl. Vossen, 1995) 14 | »This language is intended to be a suitable vehicle for programs which would otherwise be written in machine language for reasons of efficiency or flexibility. It is part of a system which also includes a compiler capable of producing reasonably efficient object code and a runtime which implements the input-output and string-handling features of the language as well as a fairly elaborate storage allocator. The system automatically takes care of paging arrays and blocks from the drum if they have been so declared.« (Deutsch und Lampson, 1968, S. 1) In einer E‑Mail an mich erklärt Mark Szpakowski: »QSPL was indeed the language used on the SDS-940. I believe there’s a QSPL -> BCPL -> B -> C lineage.«
395
396
5. Digitale Technologien und soziale Ordnungsvorstellungen
which allowed the user to define index words under which and item would be stored. […] [H]is estimate was that three topics would be represented – housing, jobs and cars – but the system was much more flexible than that.« (Felsenstein, o.J.) Die (noch vergleichsweise geringe) Flexibilität zeigte sich in der möglichen Vielzahl von Schlüsselbegriffen und deren Verknüpfbarkeit durch logische Operatoren,15 die selbst nur durch die Speicherkapazität und Verarbeitungsgeschwindigkeit des System begrenzt waren. Die Datenbank wuchs demzufolge durch intensiven Gebrauch und die Generierung immer neuer Schlüsselwörter stetig an: »the rate of success growing with thte size of the data base. […] The rate of use of the system was fairly high and constant in relation to the environment of the terminals. About fifty searches and ten additions occured eacht day at each location.« (Colstad und Lipkin, 1975, S. 7) Offenbar hatten Hardware, Software und Datenbanksystem zu einem adäquaten Information Retrieval System zusammengefunden.
4. »The system is inescapably political« — E pistemologie der D atenmacht Im hierarchischen Datenbankmodell spiegelt sich ein Epistem, das vor dem Hintergrund eines technischen Dispositivs (nämlich der schnellen Zugriffsmöglichkeit durch Festplatten auf hierarchisch gespeicherte Datei-Inhalte) entsteht; dieses Epistem schreibt sich, wie sich zeigen wird, zugleich auch in die Verwendungsweisen, Möglichkeiten und Unmöglichkeiten der Datenbank ein. Zunächst verdoppelt sich die Eltern-Kind-Struktur konsequenterweise auch in der Nutzung des Systems: Jeder Nutzer vor dem Terminal ist »gleich« – gleichranging und gleichberechtigt: »The system democratizes information, coming and going. Whatever one’s power status in society – titan of industry, child of welfare recipient – one can put information into the system and take it out on an equal basis, provided its terminals are freekly denocratic and (relatively) free to use.« (Rossmann, 1975, S. 7) Das Terminal ist hier zugleich Garant für die Gleichberechtigung der User und der Torwächter zur nächsthöheren Instanz, also technischer Knotenpunkt, an dem die Informationen gesammelt und an das System übergeben werden. Dadurch etabliert sich mit dem Anwachsen »demokratischer Computerverwen15 | »The software was modified to simply the command structure for public use and to improve the security of the data and of other system users. To use Community Memory, the user would type the command ADD, followed by the text of the item, and then by any keywords under which he desired the item to be indexed. To search for an item, the user would type the command FIND followed by a logical structure of keywords connected with AND’s, OR’s and NOT’s.« (Colstad und Lipkin, 1975, S. 7) In einer E‑Mail an mich erinnert sich Szpakowski: »Community Memory, [.] essentially offered users two major operations: ADD information (and attach keywords to it) [and] FIND information (by keyword or boolean combination of keywords).«
Stefan Höltgen: »All Watched Over by Machines of Loving Grace«
dung« zugleich eine »Politik der Datenverarbeitung« im Genitivus Subjektivus. Felsenstein selbst vergleicht die »Informationsphilosophie« von »Community Memory« mit der griechischen Agora: »What happened was that an agora appeared, with an unknowable number of different needs, desires, suggestions, proposals, offers, statements, poems and declarations cropping up. We, who had expected only a few categories of classified-ad items, were amazed at the discovery. It became clear that the crucial element was the fact that people could walk up to the terminals and use them hands-on, with no one else interposing their judgment. The computer system was not interposing itself between the individuals who used it, either. It was serving a ›secondary‹ information function, like the telephone directory, except that you could make your own rules as to how you were listed. When you completed your transaction on the computer, you knew who you really wan ted to talk with. The following transactions were carried out through other nonbroadcast media, mostly the phone.« (Felsenstein, 1993)
Lipkin und Colstad betonen hingegen, dass sich durch »Community Memory« das Paradox von Annäherung an und zugleich Entfernung vom Computer ereignet hat, bei dem sich Zerrbilder der Technik bei den Nutzern eher manifestiert als gelöst haben. Das Changieren des Computers zwischen allmächtigem/r »Elektronengehirn«/»Denkmaschine« und schnödem elektronischem schwarzen Brett – also seine Überhöhung und gleichzeitige Marginalisierung, habe sich durch das Projekt manifestiert. (Vgl. Colstad und Lipkin, 1975, S. 6f.) Neben der bereits erwähnten räumlichen »Distanzierung« des Nutzers von der eigentlichen »ugly machine« (Levy, 1984, S. 147) können die hier noch deutlich wahrnehmbaren, engen Grenzen des Systems selbst zu diesem Paradox geführt haben. Sowohl die Hardware als auch die Software setzen solche Grenzen und unterliegen ihnen selbst immer schon. Auf der untersten Ebene manifestieren sich diese bereits in der Frage der Speicherung von Daten: Der Ringkern-Speicher (RAM) des SDS 940, der von Außen dem »Bild eines Informationsnetzwerks« entsprechen könnte, stellt in Wirklichkeit lediglich eine serielle Anordnung von Speicherelementen mit fest definierten Adressen dar, die nur aus der Notwendigkeit separate Lese- und Schreibleitungen zu verwenden zweidimensional angeordnet sind. (Abb. 4 und 5) Die scheinbar transversal verlaufenden Verknüpfungen zwischen den Ringen stellen lediglich optisch »Querverbindungen« her. Der Computer, der als Turingmaschine notwendigerweise immer seriell und getaktet arbeitet, schreibt durch sie auch seine Informationen seriell in und liest sie ebenso aus seinem Speicher. Die Speicherorganisation selbst stellt also eine eindimensionale Struktur dar, bei der jede Information eine unikale Adresse besitzt.16 16 | Programmierern maschinennaher Sprachen wie Assembler, Forth oder C sind solche Datentabellen wohlbekannt als die einzige Möglichkeit adressierbar Werte im RAMSpeicher abzulegen.
397
398
5. Digitale Technologien und soziale Ordnungsvorstellungen
Eine Hierarchie ist auf dieser Ebene nicht auszumachen – aber auch nicht notwendig, denn allein das System greift auf die Kerne zu. Eine Agora, geschweige denn ein rhizomatisches Geflecht, das größeren Strukturen (wie »Erinnerungen« – Memories) oft unterstellt wird, ist auf dieser Ebene ebenso wenig auszumachen. Aber vielleicht emergiert es ja erst aus der Verknüpfung der Bits, wenn diese in größere Strukturen (Datensätze) eingehen?
Abbildung 4: Ringkernspeicher
Abbildung 5: RAM-Block des SDS 940
Stefan Höltgen: »All Watched Over by Machines of Loving Grace«
Ein oft genanntes Beispiel für hierarchische Datenstrukturen ist das Filesystem eines Computers, das aus einem Wurzelverzeichnis (z.B. »C:/«) besteht, welches Unterverzeichnisse (z.B. »C:/A/«, »C:/B/«, »C:/C/«, …) haben kann. Diese können wiederum Unterverzeichnisse beherbergen (z.B. »C:/A/1/«, »C:/A/2«, »C:/B/1/«, »C:/B/2/») usw. Bei solchen Dateisystemen spricht man bereits metaphorisch von einer »Verzweigung« der Verzeichnisse. Die Organisation von Daten im hierarchischen Datenbankmodell weist also strukturelle Ähnlichkeiten zum Umgang mit Dateien in Massenspeichern auf – und bildete sogar das hierarchische Dateisystem selbst das Modell für diesen Umgang mit Daten.17 Ebenso hat sich das Rechtesystem von Daten an diesem Modell orientiert; mit dem hierarchischen Filesystem ist es nämlich möglich, einzelnen Nutzern Lese-, Schreib- oder Ausführungsrechte für Verzeichnisse und deren Inhalt (Unterverzeichnisse, Dateien, Programme) einzuräumen. Die meisten Rechte besitzt demzufolge derjenige Nutzer, der die meisten Rechte für das oberste (»root«) Verzeichnis besitzt – und das ist der Operator.
Abbildung 6: Datenhierarchie des Filesystems beim SDS 940
17 | In einer E‑Mail an mich erklärt Mark Szpakowski, dass das Dateisystem der Datenbank in direkter Beziehung zur Datenstruktur derselben stand: »SNOBOL was another language on that machine: I used it to write a program which generated directories from the database, based around topics (such as music, because there were many musicians who used the Berkeley Leopold’s Records CM terminal location).«
399
400
5. Digitale Technologien und soziale Ordnungsvorstellungen »Figure 15 shows the flow necessary to retrieve a disc file. When a user logs on the system, the account number is used to calculate the disc address of the User Account Directory (UAD). The UAD contains a list of the user names associated with this account. Associated with each user name is the status of the user and his user number. The user number is assigned to a user by the operator. It can be used to calculate the disc address of the file directory associated with this user name.« (Scientific Data Systems, 1967, S. 26)
Das hierarchische File- und Rechtesystem »herrscht« auch beim SDS 940 (und strukturiert Herrschaft über die Dateizugriffe). Das Dateiverwaltungssystem als Bestandteil der untersten Softwareschicht (namens Betriebssystem) mag sich vielleicht von engen Grenzen physikalischer Notwendigkeiten der Hardware emanzipieren, es untersteht jedoch den neuen Anforderungen an »security of data and of other system users« (Colstad und Lipkin, 1975, S. 7), die zuunterst erwirkt werden durch das »basic SDS 940 operating system«: »The Time-Sharing Monitor prevents users from destroying or gaining unauthorized access to programs or data of other users.« (Scientific Data Systems, 1967, S. 2) Das Betriebssystem stellt dem Anwendungsprogrammierer hier die Möglichkeit zur Verfügung, die Daten eines Nutzers zu schützen; diese »innere Sicherheit« lässt sich aber (wie oft) allein durch strenge Restriktionen und Überwachung realisieren. Es erlaubt ihm mithilfe seiner »Monitor mode«18-Berechtigungen den Inhalt aller Beiträge zu lesen. (Vgl. Scientific Data Systems, 1967, S. 1)19 Beim SDS 940, der zum Betrieb eine »full-time systems person« benötigte, war dieser »machine’s caretaker« (Levy, 1984, S. 157) Lee Felsenstein selbst.
5. » unanticipated uses « — S ubversion und S chluss »Community Memory« hat zu einer Zeit hochgradiger äußerer politischer Liberalisierung der Nutzer ein Informationssystem mit hochgradiger innerer Restriktion etabliert – nicht allein aus schlichten technischen Notwendigkeiten. Suggeriert wurde durch die Entwickler allerdings das Gegenteil: Angefangen bei der Anthropomorphisierung durch den »Memory«-Begriff (Rossmann schreibt, das Projekt hätte besser »Community Data Connection« [Rossmann, 1975, S. 7] geheißen) bis hin zur neu geschaffenen Illusion, Kommunikation unter logisch verknüpf bare Schlüsselbegriffe (der kybernetische Traum formaler Sprachen wie Logik, Mathematik und eben Programmiersprachen) vollständig subsumieren zu können. Die Politisierung, die Rossmann 1975 darin sieht, ist daher ambivalent 18 | Vergleichbar den später von Intel u.a. eingeführten »protected modes«. (Vgl. Kittler, 1993) 19 | Anlass solch einer Prüfung: »Initially, we’ll charge for adding and finding items in which money changes hands […].« (Szpakowski, 1995b, http://wikipcpedia.com/wiki/ large-pebble-in-the-pond-%E2%80%93-the-pc-movement/serving-the-community/)
Stefan Höltgen: »All Watched Over by Machines of Loving Grace«
zu verstehen: »Its politics are concerned with people’s power – their power with respect to the information useful to them, their power with repsect to the technology of information (hardware and software both).« (Rossmann, 1975, S. 7) Letztlich hat sich die Nutzung und damit die Kommunikation ihren Beschränkungen angepasst und aus diesen sogar neue Nutzungsformen entwickelt: 1973 »emerged the first net.personality« (Szpakowski, 2006) namens »Doctor Benway« im System, die kryptische Botschaften hinterließ,20 sich in Diskussionen einmischte und eine frühe Form der Netzkunst ins Leben rief. Darüber hinaus wurde auch anderer »kreativer Missbrauch« mit dem »Community Memory«-System getrieben: »Interesting and unanticipated uses developed: poems, graphics, dialogues among strangers and items most analogous to letters to the editor, but much feer in content and form; instant publication by a very small press‹ had become available to all who claimed literary.« (Colstad und Lipkin, 1975, S. 7) Damit hatte das »Community Memory«-Projekt aber auch zugleich seinen Zenit erreicht, wie Felsenstein konstatiert: »Community Memory did not dissolve after the 1973 experiment. That system was turned off in January 1975 and the people involved decided to set up their own nonprofit corporation, The Community Memory Project, in 1977 in Berkeley. Under Lipkin’s technical leadership we made a number of good calls (Unix, relational databases, X.25 as future leading technologies) and worked out a solution to the problem of system centralization through packet networking.« (Felsenstein, 1993)
»Community Memory« war der Ausgangspunkt für die Nutzung des Computers als Medium in »sozialen Netzwerken«, ja, der Ausgangspunkt für den Einzug dieser Technologie in die Öffentlichkeit und danach in die Privatsphären überhaupt. Durch die Umwidmung wissenschaftlicher Technologien und die Erfindung günstiger Hard- und Softwarelösungen21 wurde diese Entwicklung maßgeblich beschleunigt. Ab der zweiten Hälfte der 1970er Jahre tauchen zahlreiche »Bulletin Board Systeme«, die über Akustikkoppler (wie das »Pennywhistle-Modem«) erreichbar sind, auf. Mittels »Phreaking« wird es Hackern sogar möglich, kostenlos Zugriff auf solche Informationsdatenbanken zu nehmen. Erst als das Daten20 | Szpakowski (1995a) zitiert eine, Levy (1984, S. 148f.) eine andere Beispiel-Mitteilung Doctor Benways. »This cat Benway took things further thane even the computer radicals at Community Memory had suspected they would go, and the computer radicals were delighted.« (Levy, 1984, S. 149) 21 | Felsensteins Akustikkoppler beispielsweise setzte sich über die Verwendung bei »Community One« hindurch; ab 1976 war das »Pennywhistle-Modem« auch für andere Computernutzer erhältlich. In der 1976er März-Ausgabe von »Popular Electronics« erschien die Selbstbau-Anleitung dazu und lieferte damit den Mikrocomputer-Hobbyisten der ersten Stunde ein weiteres erschwingliches Peripheriegerät, die ein Jahr zuvor dort bereits die Anleitung für einen Computer-Bausatz finden konnten.
401
402
5. Digitale Technologien und soziale Ordnungsvorstellungen
netz Mitte der 1990er Jahre sukzessive vom Telefonnetz abgekoppelt wird, endet auch die Ära der kleinen Netze und werden soziale Netzwerke zu Anwendungen, die auf Internet-Protokollen ablaufen. An deren paradoxer Politik hat sich jedoch seit 1972 nichts geändert. Die Mühe der Hacker bestand schon zuvor darin, Privilegien zu unterminieren und Informationen zu befreien – und daran hat sich bis heute nichts geändert.
A bbildungen Abb. 1: Community Memory terminal at Leopold’s Records, Berkeley, California – Quelle: Computer History Museum, www.computerhistory.org/revolution/ the-web/20/377/2046 (10. Januar 2014). Abb. 2: SDS 940 – Quelle: SDS 940 Time-Sharing Computer System Scientific Data Systems 1965, S. iv, http://archive.computerhistory.org/resources/access/ text/2010/06/102687219-05-08-acc.pdf (10. Januar 2014). Abb. 3: Pennywhistle Modem – Quelle: Popular Electronics, March 1976, S. 43, www.classiccmp.org/cini/pdf/pe/1976/PE1976-Mar-pg43.pdf (10. Januar 2014). Abb. 4: Detailansicht Ringkernspeicher – Quelle: CC BY-SA 3.0 Konstantin Lanzet, http://commons.wikimedia.org/wiki/File:KL_CoreMemory_Macro.jpg (10. Januar 2014). Abb. 5: Fred Wright repairs a core memory unit on the Resource One SDS 940 – Quelle: Computer History Museum, www.computerhistory.org/collections/ catalog/102702630 (10. Januar 2014). Abb. 6: Flow requiered to Access a Disc File – Quelle: SDS 940 Time-Sharing System Technical Manual. SDS 90 11 16A Santa Monica: November 1967, S. 28. http://bitsavers.org/pdf/sds/9xx/940/901116A_940_TimesharingTechMan_ Nov67.pdf (10. Januar 2014).
L iter atur Ceruzzi, Paul E.: Eine kleine Geschichte der EVD, Bonn: mitp-Verlag 2003. Colstad, Ken, und Efrem Lipkin: »Community Memory. A Public Information Network«, in: ACM SIGCAS Computers and Society (Newsletter), Volume 6, Issue 4, Winter 1975, S. 6-7. Crosby, Kip: »CONVIVIAL CYBERNETIC DEVICES: From Vacuum Tube FlipFlops to the Singing Altair. An Interview with Lee Felsenstein«, in: The ANALYTICAL ENGINE. Newsletter of the Computer History Association of California, Volume 3, Number 1, November 1995. http://opencollector.org/history/home brew/engv3n1.html (10. Januar 2014).
Stefan Höltgen: »All Watched Over by Machines of Loving Grace«
Deutsch, L.P., und B.W. Lampson: QSPL REFERENCE MANUAL, University of California, Berkeley 1968. https://archive.org/details/bitsavers_sds9xx940ue sR28QSPLMar1968_1536169 (10. Januar 2014). Felsenstein, Lee: »The Commons of Information«, in: Dr. Dobbs’ Journal, May 1993, S. 18-24. www.opencollector.org/history/homebrew/commons.html (10. Januar 2014). Ders.: Resource One/Community Memory – 1972 – 1973, (o.J.). www.leefelsen stein.com/?page_id=44 (10. Januar 2014). Ders.: »Build ›Pennywhistle‹ the Hobyist’s Modem«, in: Popular Electronics, March 1976, S. 43-50. www.classiccmp.org/cini/pdf/pe/1976/PE1976-Mar-pg43.pdf (10. Januar 2014). Höltgen, Stefan: »Data, Dating, Datamining. Der Computer als Medium zwischen Mann und Frau – innerhalb und außerhalb von Fiktionen«, in: Gerhard Chr. Bukow et al. (Hg.), Raum, Zeit, Medienbildung. Untersuchungen zur medialen Veränderung unseres Verhältnisses zu Raum und Zeit, Wiesbaden: VS 2102, S. 265-294. Ders.: »Programmieren in BASIC. Zehn Anmerkungen zu einer verfemten Programmiersprache«, in: Retro-Magazin Nr. 29 (Winter 2013), S. 16-23. Kittler, Friedrich: »Protected Mode«, in: Ders.: Draculas Vermächtnis. Technische Schriften, Leipzig: Reclam 1993, S. 208-224. Levy, Steven: Hackers. Heroes of the Computer Revolution, New York: Anchor Press 1984. Lischka, Konrad: »NSA-Affäre: Warum Amerikas Späher Quantencomputer wollen«, in: Spiegel Online, 03.01.2014. www.spiegel.de/netzwelt/web/warum-diensa-quantencomputer-will-a-941683.html (10. Januar 2014). Pardede, Eric (Hg.): Community built Databases. Research and Development, New York et al.: Springer 2011. Rossmann, Michael: »Implications of Community Memory«, in: ACM SIGCAS Computers and Society (Newsletter), Volume 6, Issue 4, Winter 1975, S. 7-10. Schischka, Benjamin: »NSA-Speicher läuft über vor gesammelten Kontaktdaten«, in: PC Welt Online, 15.10.2013. www.pcwelt.de/news/NSA-Speicher_laeuft_ueber_ vor_gesammelten_Kontaktdaten-Yahoo__Google__Facebook-8250695.html (10. Januar 2014). Scientific Data Systems: SDS 940 Time-Sharing System Technical Manual. SDS 90 11 16A, Santa Monica: November 1967. http://bitsavers.org/pdf/sds/9xx/940/ 901116A_940_TimesharingTechMan_Nov67.pdf (10. Januar 2014). Szpakowski, Mark: Benway (from the Community Memory message base, ca. 1973), 1995a. www.well.com/~szpak/cm/benway.html (10. Januar 2014). Ders.: Loving Grace Cybernetics ca. 1972: From Community Memory!!! 1995b. In: Ders.: Community Memory. 1972-1974, Berkeley and San Francisco, California 2006. www.well.com/~szpak/cm/ (10. Januar 2014). Vossen, Gottfried: Datenbank-Theorie, Bonn et al.: Thomson Publishing 1995.
403
(Very) Nervous Systems. Big Mobile Data Regine Buschauer
Im Januar 2012 publizierte die IEEE-Zeitschrift Computer die Vision einer Zukunft mobiler digitaler Medien als die eines globalen Steuerungs- und Kontrollsystems. Als ubiquitäre Produzenten eines permanenten Datenstroms, so die Ausgangsüberlegung der Vision unter dem Titel »Society’s Nervous System«, würden Techniken des »mobile« und »pervasive sensing« – Mobiltelefone, Smartphones, GPS-Empfänger und Sensoren aller Art – zu solchen eines »reality mining«: Daten, Öl und Währung der digitalen Welt ermöglichten nunmehr eine dynamische »God’s-eye view of ourselves« im globalen Maßstab und die Entwicklung eines integrierten selbstregulierenden Feedback-Systems. An die Stelle heutiger, veralteter Infrastrukturen würde so ein »nervous system for humanity« treten. Mobile und pervasive Medientechniken würden zu Augen und Ohren eines »gigantic, intelligent, reactive organism« und eines »control frameworks« zukünftiger politischer und sozialer Effektivität, Sicherheit, Stabilität und Nachhaltigkeit (Pentland, 2012; vgl. Pentland, 2010; Eagle und Pentland, 2006). Wie der Autor Alex Pentland erwähnt, greift eine solche Vorstellung über den Bereich der Analyse etwa webbasierter Daten weit hinaus. »Society’s Nervous System« präsentiert sich als Zukunftsbild eines vielmehr konvergenten Medien wandels, in dem die Emergenz von Big Data mit der Verbreitung mobiler und ›pervasiver‹ Medientechnik zusammenfällt. Damit verschiebt die Vision die Optik einer Big Data-Diskussion, die in erster Linie um Techniken der Datenanalyse geführt wird, oder, dem prominenten Bild folgend, um ein Data-Mining in immer größeren, heterogenen »Datenbergen«: Rückt mit solchem Bild des Bergbaus bildlich ein »Mining« der Software in den Fokus, die sich durch die – selbst eigentümlich gegeben erscheinenden – »Datenberge« gräbt, um »Gold« zutage zu fördern,1 verweist Pentlands Vision auf die Bedingungen einer wachsenden Datenproduktion. Sie operiert in einer Medienkonstellation, in der, wie Léon Bottou (2013) formuliert hat, »big data exists because data collection is automated«, wobei 1 | Zu Goldmine und Goldrausch als (keineswegs neuen) Metaphern des Data-Mining vgl. Hedberg (1995).
406
5. Digitale Technologien und soziale Ordnungsvorstellungen
sie exemplarisch vorführt, wie diese gewohnte Grenzen einer digitalen Medienwelt überschreitet. So konstituiert sich das vorgestellte »nervous system« nicht im Digitalen einer Netz- oder Online-Kommunikation, sondern als ein »pervasive sensing«, das Unterscheidungen von On- und Offline fehlschlagen lässt, bzw., der Vision zufolge, als ein »control framework« gesellschaftlichen Verhaltens überhaupt. Im Fokus auf mobile Medientechniken präsentiert sich somit Big Data im Kontext einer entgrenzten Produktion von (in Pentlands Formulierung) »behavior-sensing data«. Zugleich ist damit ein wahrgenommener Wandel mobiler Medien zu einem »pervasive sensing« bezeichnet, der, wie die Vision zeigt, heute weitreichende holistische Bilder von einem neuen digitalen globalen (Nerven-) System hervorruft. Hiervon und von der Figur der »nervous systems« ausgehend, zielen die folgenden Überlegungen darauf ab, die Entstehung von ›Big Mobile Data‹ im Blick auf die Differenz mobiler und ›pervasiver‹ Medien zur Debatte zu stellen. Mein Interesse gilt der Genealogie eines Wandels, in dem sich mobile Techniken mit Formen automatisierter Datenerfassung überlagern – als mobile Produktion von »behavior-sensing data«, die, wie Pentland anmerkt, heute die Bedeutung und Vorstellung von persönlichen Daten verändert.2 In der Vision Pentlands wie weiteren vergleichbaren jüngerer Zeit wird diese Differenz zur Grundlage neuer Vorstellungen digitaler Medien als eines zukünftigen umfassenden Systems. Pentlands weitgespannte Analogie des Nervensystems (verbunden mit, wie er formuliert, »lofty goals« eines solchen Systems) kennzeichnet insofern eine gegenwärtige Systemvorstellung digitaler, ›pervasiver‹, ›ubiquitärer‹ und ›smarter‹ Medien technik, die seine Vision, im Rückgriff auf eine topische Körpermetaphorik, in eine technische wie soziale Ordnungsvorstellung übersetzt. Gegenstand dieser Vision ist jedoch keine neue Technik. Wie Pentland bemerkt, basiert seine Vorstellung mehrheitlich auf »sensing« und »control elements […] already in place«: Maßgebliche Grundlage sind die global verbreiteten Handys, nunmehr begriffen als pervasive Sensoren. »Society’s Nervous System« umschreibt so weniger eine Ankunft Neuer Medien – oder einer neuen Sensortechnik oder Technik der Datenanalyse – als eine neue Konstellation bestehender mobiler Medientechniken, die zu Elementen des »behavior sensing« und der »control« geworden sind. Wie lässt sich eine so umschriebene Konstellation heutiger »nervous systems« des »sensing« in ihren genealogischen Konturen begreifen? Die folgenden Überlegungen zielen unter dieser Fragestellung auf eine medien- und technikgeschichtliche Reflexion der heute als pervasiv angeschriebenen Medien und einer mobil entgrenzten Datenproduktion. Ansatz ist damit eine Lesart der vorgestellten Vision gleichsam gegen den Strich, die sie nicht auf ein Zukünftiges hin 2 | Pentland verweist hierzu und zum Thema der Privacy auf sein am World Economic Forum (WEF) eingeb rachtes Konzept eines »New Deal on Data« (vgl. Pentland, 2009). Zur (laufenden) WEF-Initiative zu einem neuen »personal data ecosystem« siehe www.weforum. org/issues/rethinking-personal-data (14. November 2013).
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
befragt, sondern daraufhin, worauf sie sich zurückführen lässt und was sie, als Gegenwartsaussage, ermöglicht. Hierbei gehe ich von einer Medien- und Kommunikationsgeschichte der technischen Systeme aus ebenso wie der Vorstellungen und (Leit-)Bilder, die diese als »Systeme« figurieren: Das je Neue medien- und kommunikationstechnischen Wandels – gerade dies verdeutlicht die Vision Pentlands – reduziert sich nicht auf eine ›neue Technik‹, sondern ist als eine technische und gesellschaftliche Formation begreif bar, an der die Vorstellungen und Bilder des Technischen immer schon partizipieren. »Nervous systems« adressiere ich entsprechend im Folgenden als eine unscharfe wie zentrale Figur an Schnittstellen einer heterogenen, diskursiven, technischen und sozialen Genealogie des heutigen ›pervasiven‹ Medienwandels. Der Beitrag verfolgt diese Fragestellung in vier Schritten: Nachgezeichnet wird in einem ersten Abschnitt die Geschichte des technischen »Nervensystems« als eines historisch grundlegenden Topos der Kommunikationstechnik. Mit dem Bild des Nervensystems ist ein seit dem 19. Jahrhundert zentrales metaphorisches Feld aufgerufen; in der Diffusion der Analogie zwischen Technik-, Körper- und Sozialsystem konturiert sich eine Systemvorstellung im Spannungsverhältnis von ›Kopf‹ und ›Körper‹, welche die Verkehrs- und Nachrichtentechniken prägt und sich heute, bezogen auf Formen eines mobilen ›sensing‹, in neuer Weise aktualisiert. Die Frage nach der Genealogie dieser Formen verfolge ich im zweiten Abschnitt in der Geschichte der Mobilkommunikation, ausgehend vom zellulären System des Mobilfunks und einer Lokalisierung, die in der Konvergenz mobiler digitaler Medien seit den 1990er Jahren in den Vordergrund tritt. Technisch sind insofern zelluläre mobile Medien immer schon auch solche eines automatisierten Location Sensing. Dies gilt, wie der dritte Abschnitt nachzeichnet, ebenso für die Ausbildung automobiler »Vehicular Communications Systems«, des »Automatic Vehicle Monitoring« und des »intelligenten Verkehrs«. Es sind diese Formen der Verknüpfung von Nachrichten- und Fahrzeugverkehr, die sich, mehr noch als das zelluläre Handy, als genealogisches Feld heutiger »nervous systems« und einer vorgestellten »smarten« Welt der Daten- und Verkehrsströme präsentieren. Diesen Vorstellungen gegenüber verfolgt der vierte Abschnitt Spuren eines anderen Begriffs des Sensing: Ausgehend vom medienästhetischen Beispiel der Arbeit »Very Nervous System« (1986-1990) des Medienkünstlers David Rokeby frage ich nach Konzeptionen ›pervasiver‹ Medien, die über die Ordnungsvorstellung einer imaginären »God’s eye view of ourselves« hinausweisen.
N erven (und A dern) Nerven in der Flüssigkeit des Gehirns standen Modell für den 1809 vom Physiologen Thomas Soemmerring gebauten elektrolytischen Telegrafen, ein Versuchsapparat der elektrischen Kommunikation. Mit diesem Apparat nach einem Prinzip paralleler, in Wasser endender Drähte verwandelte sich zu Beginn der
407
408
5. Digitale Technologien und soziale Ordnungsvorstellungen
Telekommunikation, wie Friedrich Kittler (1996, 292) herausgestellt hat, buchstäblich »Neurophysiologie in Medientechnologie« – als Übersetzung eines physiologischen Nervenmodells in eine medientechnische Anlage. Dabei steht Soemmerrings Apparat im Rahmen langer Versuche, das »Fluidum« des Stroms kommunikationstechnisch zu nutzen, realisiert in der Folge seit den 1830er Jahren in Form der elektromagnetischen Telegrafie. Elektrische Kommunikation bot insbesondere den Vorteil einer in gänzlich neuer Weise beschleunigten Nachrichtenübermittlung. In der Terminologie des 19. Jahrhunderts ist diese als »instantan« oder »augenblicklich« begriffen, was sie, als ein tertium comparationis, mit dem Sensorischen der Nerven verbindet. So erscheint das elektrische Medium in der Literatur des Jahrhunderts wiederkehrend als Nervenverbindung oder – wie im 20. Jahrhundert erneut durch Marshall McLuhan (1995) popularisiert wird – als »Nervensystem«: Samuel Morse etwa sah 1838 in naher Zukunft »die ganze Oberfläche dieses Landes kanalisiert für diese Nerven«, deren »Geschwindigkeit des Gedankens« das ganze Land zur »Nachbarschaft« werden ließe (Morse, 1914, S. 84).3 Für den Nationalökonomen Karl Knies waren 1857 Telegrafen Mittler »ganz gleichzeitigen Nachrichtenverkehr[s]« und darin mit »Nerven in unserem Körper« vergleichbar (Knies, 1996, S. 243); und die seit Mitte des Jahrhunderts verlegten Seekabel werden in der Literatur zu »Nervenstränge[n] des Erdballs« (Fürst, 1923, S. 84). Die Analogie ist keine einseitige, indem bereits bei Soemmerring ebenso die Übertragung der Nerven die Form einer elektrischen annimmt. Dass sich um 1850 in der Physiologie das Modell elektrischer Nervenleitung verfestigt hat, ist entsprechend als Parallelentwicklung von Technik und Körpermodell begreifbar, die sich ineinander spiegeln. Aus der Sicht des Physiologen Emil Du BoisReymond (1848) ist hiermit der »Traum der Physiker und Physiologen von der Einerleiheit des Nervenwesens und der Elektricität, wenn auch in etwas abgeänderter Gestalt, zu lebensvoller Wirklichkeit« geworden (zit.n. Sarasin und Tanner, 1998, S. 26; vgl. Hoffmann, 2003). In der Technikphilosophie Ernst Kapps wird wiederum eine Physiologie, die »das Telegraphensystem […] als Beweismittel für das elektrische Verhalten der Nerven angenommen« hat, zum »Triumph« der Vorstellung von Technik als Organprojektion. So gilt für Kapp: »Die Nerven sind Kabeleinr ichtungen des thierischen Körpers, die Telegraphenkabel sind Nerven der Menschheit« (Kapp, 1877, S. 141ff.).4 Im Fin de Siècle kann schließlich die nunmehr verfestigte Verbindung von Draht und Nerv im Bild auch der ›nervösen‹ Gesellschaft erscheinen, so z.B. in der Darstellung des Zürcher »Familien-Wochenblatts« 1889, dass »jeder Drahtnerv, den man über die Mutter Erde zieht, aufgewogen wird durch so und so viel Nerven, die den menschlichen Körper durchziehen« (zit.n. Messerli, 1993, S. 202f.).
3 | Übersetzungen nicht-deutschsprachiger Zitate Regine Burschauer. 4 | Kapp beruft sich an dieser Stelle auf den Pathologen Rudolf Virchow.
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
Andererseits ist der Topos nicht alleine auf elektrische Kommunikation bezogen. Ebenso als Nerven präsentieren sich im technischen Diskurs seit den 1830er Jahren die dampfgetriebenen Eisenbahnen: Eisenbahnen sind, in den Worten des Ingenieurs Jean-Baptiste Billaudel (1837), das kommende »Nervensystem« und der »lebendige Strom« einer »durch den Verstand [intelligence] elektrisierten Zeit« (zit.n. Caron, 1997, S. 98), oder, nach dem Liberalen und Bahninitiator Friedrich List (1841, S. 4), ein »Nervensystem des Gemeingeistes wie der gesetzlichen Ordnung«. In der Saintsimonistischen Vision Michel Chevaliers (1832, S. 131-135) ist es die »communication« der Eisenbahnen, Schifffahrtswege und -kanäle, die eine internationale »instantaneité« schafft und das »système« einer materiell-geistigen »association universelle« konstituiert. Im Vordergrund solcherart ingenieur technischer wie visionärer Bilder des »Systems« stehen Kanäle, Bahnen und Linien, die über Einzelprojekte hinaus in großräumigen Dimensionen gedacht und, nach dem sich zu dieser Zeit verbreitenden Begriff, als »Netz« entworfen sind. Dabei verknüpft sich die Metaphorik mit der geografischen Vorstellung und kartografischen Visualisierung von Verkehrs- und Kommunikationsverbindungen, die sich, von frühen Initiativen bis zum Netz des »Weltverkehrs« (Roscher, 1911), auf Planungs- und Übersichtskarten finden. Nebst »Nerven« erscheinen diese ebenso körpermetaphorisch als »Adern«: In Friedrich Engels’ »Anfang des Endes in Österreich« (1848) etwa ist die Eisenbahn »die neue Pulsader« (statt der Donau), die »von Triest bis Hamburg, Ostende und Le Havre […]« reicht und so Metternichs Reich verdampfen lässt (S. 508); und in der Zeitung der Eisenbahn verwaltungen (1866) wird die zukünftige »Eisenbahn- und Telegraphenlinie rings um die nördliche Halbkugel« beschrieben »mit vielen namentlich nach Süden laufenden Adern jener Haupt-Pulsader, welche die zwei großen Verkehrsnetze Mittel-Europas und der Nordamerikanischen Union bildet […]« (zit.n. Löper, 1984, S. 412). Im imaginären Blick von oben erscheint die Welt des späten 19. Jahrhunderts von Nerven und Adern der Kabel und (Eisen-)Bahnen durchzogen, in denen Kommunikations- bzw. Verkehrsströme zirkulieren. Dabei ist der »touch of the telegraph key«, in der Darstellung des Scientific American 1881, Agent globaler »sympathy« im »gemeinsamen, universalen, simultanen Herzschlag«, oder auch, in den Worten Hermann Lessings (1879), der »elektrischen Schläge« (zit.n. Löper, 1984, S. 373). Dieses globale Bild differenziert sich jedoch dort, wo Verhältnisse ins Spiel kommen und das Was des Körpers und Systems in Frage steht. Technisch stellt sich etwa gemässß dem Bahn- und Verkehrsexperten Max Maria von Weber die Eisenbahn als Organismus dar und die Telegrafie – in ihrer Funktion als Kommunikations- und Kontrollsystem der Eisenbahnen – als dessen Nervensystem (vgl. Künzi, 2000, S. 70). Politisch wiederum erscheint im Vergleich von Louis Adolphe Thiers (1868) die Erde wie ein menschlicher Körper »von Nervenfäden durchzogen […] – zumal unsere Erde eine Art belebten Wesens zu werden verspricht«, mit dem Unterschied aber, dass sie mehr als »einen Kopf« habe, nämlich »so viele […], als es civilisirte Völker auf ihr gibt« (zit.n. Löper, 1984, S. 372).
409
410
5. Digitale Technologien und soziale Ordnungsvorstellungen
Die Nerven, die nicht im Herz, sondern im »Kopf« zusammenlaufen, werfen die Frage nach dem Zentralorgan des Nervensystems auf in Verhältnissen von Mensch und Technik, Kopf und Körper bzw. Köpfen und Körpern. Aus der Sicht von Knies (1857) liegt in dieser Frage die signifikante Differenz der Telegrafie und ihrer »Gleichzeitigkeit der Action«, die »einen von einem Willen in kritischer Lage geleiteten Staatskörper wirklich zu einem Staatskörper« werden lassen könne; denn sie zeige hierbei eine »Leistungsfähigkeit«, die dem »telegraphischen Netz der Nerven« abgehe: Sind, so Knies, im Körper »Bewegungsnerven, welche Willensäußerungen und Befehle aus dem Centralorgan nach der Peripherie überbringen«, von »Gefühlsnerven« zu unterscheiden, »welche die Empfindungen […] nach dem Centralorgan (Kopf, Rückenmark) hin kund geben«, so gebe es diese Unterscheidung im telegrafischen Netz nicht; vielmehr tue »jeder Strang […] seinen Dienst, und man kann jede Station sofort zum Centralorgan […] machen. Im Vergleich mit unserem Körper müssten wir sagen, das Centralorgan in dem Netze draußen ist ambulant« (Knies, 1996, S. 243f.). So unterscheiden sich, nach Knies, Netz und System. Anders dagegen präsentiert sich dem Telegrafie-Superintendenten George Bartlett Prescott (1860, S. 242) zufolge das elektrische Medium am Beispiel des Bostoner »fire telegraph«, nämlich genau dem Nervensystem entsprechend: Während übliche Telegrafen die Funktion der empfindenden Gefühlsnerven ausübten, nähmen sie im System des Feuertelegrafen erstmals die von Bewegungsnerven ein, bzw. die Funktion, »Machteffekte auf Distanz zu produzieren«; diese verbinde sich im Gehirn der Zentralstation mit der empfindenden Funktion, womit sich, durch »die Intelligenz und den Willen des Operators«, ein »excito-motorisches System« ergebe, wie beim Individuum. Telegrafie und Nervensystem stellten, so hat Elizabeth Green Musselman (2002, S. 83) gefolgert, vor dieselben »managerial problems«. Kern der Analogie ist das Problem der Kontrolle und des Wo und Wie des »Centralorgans«, wobei sie zwischen Technik, Individuum und sozialem »Staatskörper« diffundiert. Der Topos vom technischen Nervensystem perpetuiert sich so über differente Gegenstandsbereiche hinweg. In der Physiologie ist es Ende des 19. Jahrhunderts eine Darstellung etwa von Wilhelm His (1893), in der das Bild eines Telegrafennetzes aus Nervenfasern (Leitungen) und Nervenzellen (Stationen) aufgegriffen und dahingehend differenziert wird, dass – in Hisʼ Sicht – »dem Nervensystem jeder Charakter des Geschlossenseins, wie er einem arbeitenden Telegraphensystem nothwendig zukommt«, fehle; passender sei das Bild einer Verwaltung mit »zahlreiche[n] Behörden in bestimmter Gliederung« (zit.n. Breidbach, 1993, S. 119f.). Andererseits begegnet einem das Bild des technischen Nervensystems, so im späten 19. Jahrhundert bei Ernst Haeckel (1878) und Alfred Espinas (1879), in der Insektenforschung als Ansatz, die soziale Organisation von Bienen und Ameisen zu beschreiben: Vorgestellt als ein Kollektiv qua Fühlersprache ›telegrafierender‹ Insekten wird die Sozietät von Ameisen- und Bienennest zum kommunikativen Nervenkörper, zu einer Formation durch telegrafisches Zeichengeben (nach dem Bild der Ameisen bei Haeckel), oder zu einem »moralischen Organismus« (in der
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
Schilderung des Bienenstocks durch Espinas), dem ein »wirkliches Bewusstsein« zukommt (vgl. Johach, 2009, S. 213-216; Espinas, 1879, S. 353).5 Fluchtpunkt ist auch hier eine Frage nach dem Zentralorgan des ›Nervenkörpers‹: Der kollektive »Organismus«, in dem offenkundig kein Insekt aus einer ›God’s eye view‹ (bzw. aus der Sicht des Forschers) »das ganze Nest sieht«, provoziert die Suche nach dessen Kopf, Operator oder, im Begriff von Latour et al. (2012, S. 601), »Dispatcher«. Verfolgt man die Analogie von Neurophysiologie und Medientechnik weiter, so interagiert im früheren 20. Jahrhundert die physiologische Modellierung des Nervensystems mit Techniken nunmehr vor allem der Telefonvermittlung und der Rechenmaschine: Das Modell eines wie ein Steckkartensystem additiv operierenden Gehirns beeinflusst eine Technikentwicklung, die seit Mitte des Jahrhunderts ihrerseits das Nervensystem als ein Informationssystem erscheinen lässt (vgl. Breidbach, 2010, S. 197; Gießmann, 2009, S. 135-143). So treten zu den Nerven als Kabel- oder Telefonleitungen in Modellen der 1960er und 1970er Jahre die »Und-« und »Oder-Schaltungen« der Synapsen hinzu und die Vorstellung von Nerven als »In- und Output« des Zentralnervensystems. Im Zug der Kybernetik werden Nerven in Begriffen der Datenverarbeitung, Schaltung und Kontrolle vorgestellt bzw. als ein mathematisch beschreibbares »adaptives« und »dynamisches« System, das sich vom anschaulichen Bild des Kommunikationsund Verkehrsnetzes gelöst hat (Ashby, 1960; vgl. Megla, 1961, S. 180-200; Stent, 1973, S. 31-34). Zugleich ist die Analogie von Kommunikationsnetz und Nervensystem eine topische Figur, die als solche Evidenz auch dort produziert, wo von Leitungen keine Rede sein kann. So können im 19. Jahrhundert eben auch Ameisen zu ›telegrafierenden‹ Tieren werden. Die in jedem Wortsinne ›leitungslose‹ Kommunikation der Ameisen führt wiederum in der Insektenforschung um 1900 – zur Frühzeit der drahtlosen Telegrafie – zur Hypothese ihrer Telepathie (vgl. Werber, 2013, S. 143). Die Insekten werden somit zum Spiegel des »Funks« bzw. »Radiotelephons«, deren drahtlose Übertragung zu Beginn als telepathische Verbindung vorgestellt wird und, zwanzig Jahre später wiederum, in neue Kanäle des »Massenmediums« Rundfunk mündet (vgl. Schanze, 2004). So entstehen innerhalb der drahtlosen Medien fiktionale Kanäle, Netze und Bahnen: Gemäß der Zeitschrift Radio Broadcast etwa hat das Neue des Rundfunks die ganze Nation zu einer »huge audience« geeint (Austin, 1922, S. 19), während es global »Uncle Sam’s […] world wide radio net« (Wilhelm, 1922, S. 27) hat entstehen lassen – ge5 | Haeckels »Die Welträthsel« (1899, S. 67) beschreibt dementsprechend das Nervensystem als telegraphischen Zusammenhang, hier zwischen Nerven (Leitungsdrähten), Gehirn (Central-Station) und Muskeln und Sensillen (Lokal-Stationen). Dabei sind »die Ganglienzellen oder ›Seelenzellen‹« im nervösen »Central-Organ […] die vollkommensten«, indem sie »nicht nur den Verkehr« zwischen Muskeln und Sinnen vermitteln, »sondern auch die [
] Bildung von Vorstellungen und Gedanken, an der Spitze von Allem das Bewußtsein.«
411
412
5. Digitale Technologien und soziale Ordnungsvorstellungen
meint sind die »routes« drahtloser Interkontinentalübertragung der Navy, welche die Zeitschrift als Linien auf der Weltkarte abbildet. Entsprechend kann ebenso Radio im Bild der menschlichen Nervenverbindung erscheinen; so gleicht in Fritz Kahns Das Leben des Menschen (1929) »die Empfindungsbahn einer Radioleitung« (vgl. Wieser, 2010). Der Topos schafft Anschlussfähigkeit unter Bedingungen nunmehr imaginärer (oder magischer) Kanäle. In der Kontinuität bildlicher Figuren kommunikativer Verbindung treten Differenzen in den Hintergrund, was ebenso für ihre erneute Popularisierung in den 1960er Jahren durch McLuhan gilt und dessen generalisierte Rede vom globalen Netz als erweitertes »Zentralnervensystem« (1995, S. 15) bzw. davon, dass dieses dem »elektrischen Schaltkreis« gleichzusetzen sei (McLuhan und Fiore, 2012, S. 40). Über dieses Topische hinaus ist daher danach zu fragen, inwiefern sich im Wandel drahtloser mobiler und ›pervasiver‹ Medien eine differente heutige Medienkonstellation der »nervous systems« konturiert. Ausgangspunkt dieser Frage ist im Folgenden das Zelluläre einer mobilen Kommunikationstechnik, die Kommunikation und Körper in neuer Weise zueinander ins Verhältnis setzt.
Z ellul är , lok ativ Das zelluläre Handy, so hat Wolfgang Hagen (2009, S. 364) angemerkt, ist ein neuartiges Kommunikationsgerät, das »auch dann kommuniziert«, wenn man »nicht kommuniziert«. Anders als Formen des drahtlosen »Radiotelephons« oder Funktechniken wie z.B. CB-Funk funktionieren Handys als Teil eines Systems von Zellen, in dem sie sich verorten. Erstmals theoretisch 1947 bei Bell Labs unter dem Titel »Mobile Telephony – Wide Area Coverage« (Ring, 1947) beschrieben, war das zelluläre Prinzip eine Antwort auf das grundsätzliche Problem, das sich drahtloser und mobiler Kommunikation angesichts begrenzt verfügbarer Frequenzen stellte: »The air«, so stellte es 1922 Austin dar, »like any highway, can just stand so much traffic and no more«. Ein Senden von allen führte daher zur Konfusion, so als gäbe es nur eine Straße »and everyone insisted in buying an automobile«. Fazit Austins und seiner Zeit war daher: »[The radiotelephone] has not put the wire telephone out of business, and never will; it has not come down to the vest-pocket or vanity-case type, as yet, and probably never will […].« (S. 18f.)6 Das topologische Konzept des Zellulären begegnete dem ein Vierteljahrhundert später mit dem Ansatz einer »wide area coverage« durch Aufteilung in kleine Funkzellen, was erlaubt, Frequenzen in nicht-benachbarten Zellen wiederzuverwenden. Grundlage der zellulären Mobilfunksysteme, die seit Ende der 1970er Jahre die älteren, in ihrer Kapazität eng begrenzten Mobil- bzw. Autotelefon6 | Vgl. hierzu sowie zum Radiotelephon und zum CB-Funk in Differenz zum zellulären System Buschauer (2013); zur erwähnten »Konfusion« vgl. Peters (1999, S. 206-225).
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
systeme ablösten, ist so eine unter frequenzökonomischem Aspekt entworfene Struktur (idealerweise) hexagonaler Zellen, zwischen denen die mobilen (fahroder tragbaren) Stationen durch ›Handover‹ weitergeleitet werden. Das »cell phone« impliziert mithin einen »Perpetual Contact« (Katz und Aakhus, 2002) oder »Constant Touch« (Agar, 2003) auch und zuallererst im Sinne eines technischen Systems der Lokalisierung mobiler Endgeräte innerhalb einer Zellenstruktur. In diesem Neuen ist das Handy kein Radiotelephon – weder »Radio-« noch »-telephon«; in Bezug auf seine Konnektivität ist es eher einem vernetzten PC vergleichbar, der, unabhängig von Kommunikation oder Interaktion der Person, permanent Datenpakete sendet und erhält.7 Zugleich sind zelluläre Mobilfunksysteme räumlich keine »Netze« nach dem Modell drahtgebundener Telegrafen-, Telefon- oder Computernetze, sondern gekennzeichnet durch flächendeckende »coverage«, bzw.: »total area coverage«, gemäß dem Namen des ersten zellulären Handgeräts DynaTAC (»Dynamic Adaptive Total Area Coverage«), 1973 vorgestellt von Motorola. Ist das »Netz« grundsätzlich ein Gebilde aus Verknüpfungen und Lakunen – einem »fadenumgrenzte[n] Nichts« zwischen den Maschen (Ropohl, 1988, S. 154; vgl. Gießmann, 2012) –, so ist das Prinzip zellulärer Systeme eines der lückenlosen Abdeckung. An die Stelle der »Nerven« und »Adern«, in denen Verkehrs- und Kommunikationsströme zirkulieren, und der Opposition von Netz und Strom, Bahnen und Verkehr, tritt mit diesem Prinzip ein Zellenmuster, das als eine neue koordinative Struktur zwischen der Mobilität des Geräts und der Nachrichtenübertragung vermittelt. Diese koordinative Ordnung ist Teil eines Wandels mobiler Medien, die nach einem Vorschlag von Jeremy Packer und Kathleen Oswald (2010) genealogisch nicht in erster Linie als Mobiltelefone zu begreifen sind, sondern, in breitem Sinne, als »Screening Technologies«. »Screening« ist dabei weder auf eine einseitige Übersicht, Überwachung oder Kontrolle zu beziehen noch auf eine einzelne Technik oder ein System zu reduzieren. So verweisen die AutorInnen, mit Lev Manovich, auf historische »Screening«-Techniken wie Radar und auf die Funktionen von »Screens« als »reference tool« wie als »reference point« (ebd., S. 314). Zugleich sind Formen eines Screening, wie die Forschung zur Handy-Nutzung herausgestellt hat, kennzeichnend auch für die Praxis mobiler Kommunikation der User selbst: Mobile Medien stehen in Formen der (wechselseitigen) Lokalisierung, Koordination und »Mikrokoordination« (Ling und Yttri, 2002) immer schon für eine sichernde Kontrolle und für eine soziale zeiträumliche Koordination. Medienhistorisch wurde so das Handy unter anderem mit der Taschenuhr verglichen (vgl. Agar, 2003). John Durham Peters (2013, S. 41) hat, bezogen auf 7 | Auf diese Interaktivität hat nachdrücklich Wendy Chun (2012) am Beispiel des (durch Packet Sniffer visualisierbaren) Netz-Verkehrs hingewiesen. Ausgehend vom Netz als eine technische Konfiguration, so Chun, ist es verblüffend, dass ›das Netz‹ als ein Ort persönlicher Entfaltung erscheinen konnte, an dem »nobody knows that you’re a dog«, oder, seit dem Web 2.0, als ein sozialer Ort semi-privater »authentischer« Kommunikation.
413
414
5. Digitale Technologien und soziale Ordnungsvorstellungen
solche koordinativen Funktionen, auf die Relevanz »logistischer Medien« bzw. medialer Systeme hingewiesen, die, wie die Uhr, ohne selbst notwendig einen »Inhalt« zu haben, Menschen und Dinge raumzeitlich anordnen: »They are prior to and form the grid in which messages are sent.« Augenfällig wird diese koordinative Ordnung zellulärer Systeme in ihrem wabenförmigen Modell. Ein besonders prägnantes Beispiel ist ein 1991 erschienenes Zeitungsinserat, das die Wabenstruktur als stilisiertes Bild verwendet – kombiniert mit der Darstellung von Ameisen und in den Zellen plaziertem Text (s. Abb. 1). Das Werbeinserat aus der Schweizer Handels Zeitung begleitet in der Ausgabe einen doppelseitigen Artikel zum Thema des Mobilfunks, der sich, unter dem Titel »Kleiner Mann am Ohr«, dem »Vormarsch« der »Handys« widmet.8 Im Gegensatz zum Artikel bezieht sich das Inserat jedoch nicht auf Handys, sondern wirbt für eine Software zur Produktionsplanung und -steuerung (PPS), womit zelluläre Kommunikation hier im Rahmen einer digitalen Logistik erscheint. Dass die inserierende Firma zu kontaktieren sei, »damit auf Worte Daten folgen«, wie der Slogan lautet, bezeichnet entsprechend ein Mediales weniger verbaler Kommunikation als digitaler Koordination, Steuerung und Kontrolle. So mögen die Ameisen in der Wabe einerseits an die Insektenforschung Ernst Haeckels erinnern, setzen jedoch andererseits gerade die Differenz zu dessen Vorstellung ins Bild: Wenn Ameisen hier kommunizieren, so nicht durch ›telegrafisches Zeichengeben‹. Vielmehr gilt für sie: »Alles ist Kommunikation«, bzw. als mobile Stationen kommunizieren sie notwendig laufend mit dem System. Im »Perpetual Contact« des zellulären Location Sensing können sie gleichsam ›nicht nicht kommunizieren‹. Diese Konstellation ist verknüpft mit einem zellulären System, das mit der Benennung des DynaTAC als »dynamisch« und »adaptiv« gekennzeichnet ist. Es ist, in den Begriffen Ross Ashbys (1960), eine Art technisches Nervensystem. Zellulärer Mobilfunk erscheint damit in Begriffen einer informationstheoretisch definierten Kommunikation, in der Sensing und Kommunikation immer schon in eins fallen. So sind etwa in der Darstellung des Elektroingenieurs Gerhard Megla (1961, S. 6) menschliche ebenso wie technische Systeme (und bewusste wie unbewusste Signalsendung) gleichermaßen nachrichtentechnisch begriffen: Hat einerseits der Mensch »nachrichtentechnische Organe«, so sind andererseits die »modernen Nachrichtensysteme […] wie der Mensch in der Lage, Wahrnehmungen […] aufzunehmen […], zu konzentrieren, zu speichern, zu verarbeiten und darüber hinaus ohne menschliche Hilfe logische automatisch überwachte Handlungen auszulösen«.
8 | Vgl. Rehsche (1991). Thema sind hier die (analogen) Handys des zellulären »C«Systems, in der Schweiz als »Natel C« 1987 lanciert. Technisch basierte dieses auf dem avancierten skandinavischen NMT (900)-System, was zum vergleichsweise frühen »Vormarsch« der Handys führte (vgl. zu Deutschland Weber, 2008). Insgesamt gibt es zu dieser Zeit landesweit jedoch erst rund 140.000 Natel C-Geräte, davon ein Viertel Handys.
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
Abbildung 1: Werbeinserat UNIX-PPS-Software (Polysoft Productique). Quelle: Schweizer Handels Zeitung Nr. 25, 20. Juni 1991, S. 67.
Zelluläre Mobilfunkysteme wurden seit den 1960er Jahren entwickelt und seit 1979, erstmals in Tokio, lanciert; zur selben Zeit begann die Entwicklung des digitalen Systems GSM. Die komplexe Lokalisierung der mobilen Stationen war eine Herausforderung in der frühen wie auch späteren Systementwicklung, wie sich der technischen Literatur ablesen lässt, wobei sie sich als Forschungsthema mit dem benachbarten Feld der »Automatic Vehicle Location« (AVL) bzw. des »Automatic Vehicle Monitoring« (AVM) überschneidet (vgl. Cooper et al., 1975; Riter und McCoy, 1977; Audestad, 1988). Ebenso ist Lokalisierung Forschungsthema im digitalen Mobilfunk: Arbeiten wie diejenige von Amotz Bar-Noy und Ilan Kessler (1993) widmen sich in den frühen 1990er Jahren optimierten Verfahren eines »Tracking [of] Mobile Users«. So können Nathan Eagle und Alex Pentland (2006, S. 257) in ihrer Studie zu Handys als tragbarer Sensor und Techniken eines Location Sensing und »reality mining« zu Recht auf einen »significant amount of research« verweisen »which
415
416
5. Digitale Technologien und soziale Ordnungsvorstellungen
correlates cell tower ID with a user’s location«, darunter die genannte Arbeit von Bar-Noy und Kessler, und an diese anschließen. Die Perspektive dieser Arbeit wie allgemein mobiltechnischer Forschungsarbeiten aus den frühen 1990er Jahren ist jedoch eine andere, indem »Tracking« darin nicht ein Ziel, sondern wesentlich ein technisches Problem bezeichnet: Dass ein zelluläres Telefonsystem, in dem die Endgeräte mobil sind, diese erst suchen muss, erhöht prinzipiell die Komplexität des Mobiltelefonsystems gegenüber dem Festnetz. In Forschungen dieser Zeit zu einem optimierten Location Tracking wird daher unter dem Gesichtspunkt der Effizienz auf technische Lösungen abgezielt, um den erheblichen (Kosten- und Frequenz-)Aufwand der permanenten Lokalisierungskommunikation im zellulären System zu minimieren. Lokalisierung wird somit in diesen Arbeiten als Problem einer technischen System-»Infrastruktur« begriffen – im Bild der Herkunftsbedeutung dieses Begriffs: »Infrastructure« (Frz.) stammt aus dem Eisenbahnwesen des späten 19. Jahrhunderts und bezeichnete ursprünglich das (unterirdische) Fundament der Schienenwege. Analog zu diesem Bild wird allgemein Infrastruktur als »by definition invisible, part of the background for other kinds of work« betrachtet, wie Susan Leigh Star (1999, S. 380) formuliert hat; sie ist eine technische Grundlage, die selbst nicht im Vordergrund steht. Tatsächlich sieht man, wie Wolfgang Hagen (2009) angemerkt hat, Handys die zelluläre Differenz zu einem schnurlosen Telefon ja nicht an, und gemäß dem Leitbild eines mobilen Telefons sollte diese Differenz auch möglichst keine Rolle spielen. Demgegenüber markiert das Bild von Handys als tragbarer Sensor, Techniken eines Location Sensing oder »reality mining« einen erstaunlichen Wandel – weniger der Technik eines immer schon lokalisierenden zellulären Systems als ihrer medialen Funktion. Spuren dieses Wandels finden sich in der Mobilfunkforschung in der Mitte der 1990er Jahre, so z.B. in der technischen Arbeit von Sami Tabbane (1995, S. 880), die ein optimiertes Location Tracking durch im System erfasste und analysierbare Nutzerprofile zum Gegenstand hat: Hauptziel auch dieser Arbeit ist ein minimierter Systemaufwand, während zugleich der »Trend« des Mobilfunks zu »adaptiven und dynamischen Systemleistungen« erwähnt ist, die eine vermehrte Datenerfassung und -verarbeitung erforderten. So rücken hier »Customized Services« in den Fokus (ebd.), die nebst »Location Based Services« (Giordano et al., 1995) und »Personal Communication Services« (Mohan und Jain, 1994) neue Leitbilder dieser Zeit bezeichnen. Eine zentrale Rolle in der weiteren Forschung spielt der seit 1994 vom US-amerikanischen FCC geplante erweiterte Notruf E911: Mit der Planung von E911, die eine Lokalisierung von mobilen Notrufen über die Zellen-ID hinaus vorsieht, wird Lokalisierung zu einem eigenständigen Ziel der Systementwicklung (vgl. Silventoinen und Rantalainen, 1996). In der Computerentwicklung wiederum ist es die zeitlich parallele Vision des Ubiquitous Computing, die eine Zukunft mobiler und konnektiver »tabs«, »pads« und »badges« entwirft. Nach Mark Weiser (1991) sind diese erste Formen einer ›unsichtbaren‹, omnipräsenten, digitalen Technik, die zugleich adaptiv und
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
kontextsensitiv ist. »Location« ist daher eine Kernfähigkeit ubiquitärer Computer, wofür bei Weiser u.a. das von Olivetti Labs entwickelte »Active Badge«-System als Beispiel dient, ein Personen-Lokalisierungssystem im Gebäude auf Basis von Infrarot-Sensoren. Ebenso stellt Weiser eine »computing Umgebung« vor, die den Anzug kennt, den man letzte Woche angesehen hat, »because it knows both of your locations, and it can retroactively find the designer’s name« (ebd., S. 103). Der Mitte der 1990er Jahre geprägte Begriff der »pervasiven« Systeme beschreibt in ähnlicher Weise eine Welt digitaler Technik, die Menschen bzw. Dinge vernetzt: Ein frühes Szenario »pervasiver« Informationssysteme stellt einen Katastrophenfall vor, in dem drahtlose multimediale Handgeräte Helfer vor Ort mit der Zentrale koordinieren, während im allgemeineren Sinne das Leitbild auf den Einzug digitaler Technik in die Dinge des Alltags abzielt (vgl. Birnbaum, 1994; Birnbaum, 1997). In den frühen 1990er Jahren lässt sich so, im Mobilfunk wie auch in Leitbildern des Computing, eine neue Bedeutung von Location Sensing ausmachen, wozu weitere Techniken treten, darunter Infrarot und, seit 1995, das Global Positioning System (NAVSTAR) GPS.9 Lokalisierung erscheint nun nicht mehr als eine bloße Infrastruktur mobilen Telefonierens, sondern als eine Kernfunktionalität »adaptiver und dynamischer Systemleistungen«, neuer »Location Based Services« oder eines ubiquitären mobilen Computing. Bildlich ist sie somit, nach dem entsprechenden älteren Begriff im Eisenbahnwesen, weniger »infrastructure« als vielmehr »superstructure«: Als solche wurden zur Frühzeit der Eisenbahnen, so von List (1833, S. 40), die Bahnen bzw. Schienen selbst, also der sichtbare »Oberbau«, bezeichnet. In der Sicht der Nutzer ist diese neu konzipierte mobile Technik jedoch zugleich als Infrastruktur im Hintergrund vorgestellt, »invisible in fact as well as in metaphor« (Weiser, 1991, S. 98) und »more noticeable by its absence than its presence« (Birnbaum, 1997, S. 40). Digitale mobile bzw. ›pervasive‹ Systeme werden, nach Weiser, so selbstverständlich wie die Schrift oder, nach Birnbaum, wie das Telefon oder der Fernseher. In Weisers Vision wird hierbei die Differenz einer Welt ubiquitärer Computer »all capable of sensing people near them« hervorgehoben und als Privacy-Problem benannt: Sie hat, in den Worten Weisers (1991, S. 103), »das Potential, bisherigen Totalitarismus wie schierste Anarchie erscheinen zu lassen«, weshalb eine integrierte Kryptografie nötig ist, um private Daten (vor Vorgesetzten, dem Staat oder Marketing-Interessen) zu schützen. Ähnlich benennt die Vision eines zukünftigen digitalen Mobilfunksystems von Raymond Steele (1985, S. 405) »Big Brother« als »Schreckgespenst« der Lokalisierung; zentral ist daher, nach Steele, die garantierte Privacy, sobald man nicht angerufen werden will, »by merely switching off [the] transceiver«. Weiser wie Steele heben damit eine Differenz mobiler, lokalisierender, digitaler Medientechnik hervor, die
9 | Zu diesen u.a. Techniken eines »Human-Sensing« im Überblick s. Teixeira et al. (2010).
417
418
5. Digitale Technologien und soziale Ordnungsvorstellungen
sie zugleich nach dem Modell traditioneller zwischenmenschlicher Kommunikationsmedien begreifen – wie eine Post oder das Telefon. Es ist dagegen vor allem GPS, das über Kommunikationsmedien hinaus seit 2000 Location Sensing als Funktion in den Vordergrund treten lässt. Der 2003 in der Medienkunst geprägte Begriff »Locative Media« steht für die Wahrnehmung dieses Neuen mobiler digitaler Medien, das hier als Feld neuer räumlicher und kommunikativer Relationen wie auch einer neuen »control infrastructure« zum Thema wird (Russell, 2004). Zugleich schließt die Verbreitung von GPS-Navigation insbesondere im Automobil ihrerseits an einen breiteren Wandel des ›vernetzten‹ Automobils und der Automobilität an, darunter das genannte Feld der »Automatic Vehicle Location« (AVL) bzw. des »Automatic Vehicle Monitoring« (AVM). Mehr noch als das zelluläre mobile (Auto-)Telefon sind diese Systeme einer frühen Verkehrstelematik, wie im Folgenden gezeigt werden soll, beispielhaft für die Entstehung heutiger »nervous systems« mobiler automatisierter Datenproduktion.
(A utomobiler) V erkehr Packer und Oswald (2010, S. 319) haben die These formuliert, dass das Auto heute keine Maschine mehr sei, sondern eher ein »device«. Es ist zum mobilen Ort einer Vielzahl digitaler Steuerungen geworden und zum konnektiven Ort digitaler Navigation, Information und einer medientechnisch transformierten Automobilität. Autos sind so begreifbar als Formen einer mobilen bzw. ›pervasiven› Medientechnik. Sie werden selbst zur »Screening Technology« einer Art »networked control« und »[t]hey will require bandwidth« (ebd., S. 335f.). Die These ist so formuliert zukunftsbezogen, und sie steht in Kontrast zu einer Wahrnehmung des Autos, die sich trotz GPS-Navigation und datenintensiver Kontrolltechnik wenig verändert hat. Vielmehr verlief deren Verbreitung als eine rasche Veralltäglichung bzw. Invisibilisierung der Technik gerade im Sinne des Ubiquitous oder Pervasive Computing. Navigations- wie Steuerungsgeräte im Fahrzeug sind pervasive digitale Techniken ›im Hintergrund‹, entsprechend der Vorstellung Birnbaums (1997, S. 41): »[U]sers will think of them in terms of what they do, not how they do it«; wofür Birnbaum das Auto als zukunftsweisendes Beispiel anführt: »Some interfaces will be invisible; current examples are the computer-augmented steering, braking, and ignition systems in cars.« Andererseits sind kommunikationshistorisch solche Verknüpfungen von Nachrichten- und Fahrzeugverkehrstechnik nicht neu, sondern immer schon konstitutiv. Beispiele hierfür sind die Telegrafen als »Nervensystem« der Eisenbahnen ebenso wie im 20. Jahrhundert der Seefunk Marconis, das Autoradio, der Panzerfunk oder, nach 1945, das Autotelefon. Neben diesem sind es weitere Formen, in denen sich diese Entwicklung fortsetzt, darunter seit den 1960er Jahren das Feld automobiler »Vehicular Communications Systems«. Im Mai 1968 fand unter dem Titel »Command and Control of Vehicular Forces« in Los Angeles
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
die zweite IEEE-Tagung zu diesem Thema statt. Im Fokus der Tagung standen die vier Sektionen »Command and Control Concepts«, »Human Factors«, »Automatic Locator Concepts« und »Trends in Command and Control Hardware«. Der Tagungsbericht des Vertreters der RAND Corp. Carroll R. Lindholm (1969) fasst das Fazit des Symposiums in drei Punkten zusammen: »First, there is an interest in the use of computers (I would prefer the word ›processors‹) in small civilian command and control applications. We have all heard of the giant systems constructed by the military. […] [T]oday, a visit to any large metropolitan police or fire department quickly dispels any doubt about the applicability of high-speed data processing […]. [W]e are at the beginning of an era of automated command and control available even to the ›small‹ user. Second, to make that automated system even more useful, automatic vehicle location systems are required. […] Effective command and control depends crucially on valid input data. For mobile forces, location is such a datum. Third, communication systems are overdue for change. The voice channel is useful and will never be replaced, but other more dependable systems must be developed. Most pressing is a digital system permitting a direct interface to the aforementioned processor.« (S. 32).
Nach dem ersten Symposium (1967), das sich dem Interferenzproblem gewidmet hatte, standen nun Systemkonzepte der Fahrzeugkommunikation bzw. -lokalisierung auf der Agenda. Im Herbst 1968 wurde in Washington an der Konferenz PULSE (»Public Urban Locator Service«) unter Beteiligung von Behörden- und Unternehmensvertretern die Planung solcher Systeme des »Automatic Vehicle Monitoring« (AVM) an die Hand genommen (vgl. Roth, 1977). AVM markiert den Beginn eines informationstechnischen automobilen Flotten- und Verkehrsmanagements, zunächst für die Polizei, öffentliche und private Transportdienste. Im Kern steht nach George Turin (1970) die Bezeichnung für das Konzept von »large-scale urban location-monitoring systems, in which the positions of large numbers of objects – mostly vehicles – are simultaneously monitored and displayed on a map overlay«. Je nach technischer Gestaltung können solche Objekte auch »Container« sein – »the word ›vehicle‹ is almost incidental« –, wobei AVM technisch aus vier Funktionen besteht: automatischer Lokalisierung, Kommunikation zwischen den Systemelementen, Datenverarbeitung und (kartografischer) Darstellung (Turin et al., 1972, S. 9; vgl. Riter und McCoy, 1977). Realisiert wurden AVM seit Ende der 1970er Jahre durch erste Systeme für die Polizei wie FLAIR (»Fleet Location and Information Reporting System«) von Boeing, 1977 in St. Louis, und LANDFALL (»Links and Nodes Data Base for Automatic Land Vehicle Location«) von GEC-Marconi, 1978 in London (vgl. Krakiwsky, 1991). Zugleich erweiterte sich das Konzept des »electronic eye on auto fleets« – wie 1970 Business Week titelte – zu einem Konzept allgemeiner Verkehrskontrolltechniken wie Mauterhebung bzw. »Automatic Vehicle Identification« (AVI) und Signalsteuerung (vgl. Roth, 1977; Hauslen, 1977). In der von Steele (1985)
419
420
5. Digitale Technologien und soziale Ordnungsvorstellungen
entworfenen Beschreibung eines zukünftigen digitalen Mobilfunksystems wird die Bedeutung solcher »non-communication services« hervorgehoben sowie – im Gegensatz zur personalen Mobilkommunikation, nach Steele – deren notwendige Bedingung permanenter Lokalisierung. So stellt Steeles Vision ein »Vehicular Management System« (der Navigation und Information) vor sowie eine zukünftige »Adaptive Traffic Control« (ATC): ATC »can continuously adapt the road network to accomodate crisis events«, so durch akustische und optische Instruktion in den Fahrzeugen (ebd., S. 413). Durch eine Fahrzeugausstattung mit Tempomat ließe sich selbst eine automatisierte Geschwindigkeitsregelung denken: »Indeed, we can imagine a situation whereby the ATC continuously monitors and regulates the speed of the traffic, so as to force the accident rate to near zero.« (Ebd.) Zu sehen ist diese Aussage im Rahmen einer sich zu dieser Zeit formierenden Verkehrstelematik unter dem Leitbild eines »intelligent vehicle on the intelligent road« (zit.n. Panik, 2007). Nachhaltig modellbildend war hierbei das Eureka-Forschungsprogramm PROMETHEUS (»Programme for a European Traffic with Highest Efficiency and Unlimited Safety«) unter Leitung der Automobilindustrie in den Jahren 1987-1995. Das Programm war eine Antwort auf die Krisenzeichen ungebremsten Verkehrswachstums durch eine technische Effizienz- und Sicherheitsstrategie. Es kombinierte Grundlagenforschung der Künstlichen Intelligenz, Hard- und Software mit Entwicklungen von Fahrassistenz-, Kommunikations-, Informationsund Sensorsystemen, zusammengeführt in den drei Bereichen »onboard driver assistance«, »inter-vehicle-communication« und »vehicle-roadside communication« (vgl. Williams, 1988). PROMETHEUS führte namentlich fahrzeugtechnisch zu zahlreichen Neuerungen und fand seine Entsprechung und Fortführung in einer Vielzahl weiterer Programme, darunter die EU-Programme »DRIVE« I und II (»Dedicated Road Infrastructure for Vehicle Safety in Europe«, 1988-1994) oder in Deutschland, z.B., INVENT (»Intelligenter Verkehr und nutzergerechte Technik«, 2001-2005). Dieser Forschung korrespondiert eine ebenso umfangreiche der USA und Japans. In den 1990er Jahren sprossen so, nach Helmut Willke (1997), »[r]und um den Globus […] Pilotprojekte des Verkehrssystemmanagements geradezu aus dem Boden« (S. 288; vgl. Canzler, 1999), während nach 2000 die Fachpresse eine digitale »Innovationslawine« der Autotechnik (Grell, 2003) anrollen sah. Ihren Fluchtpunkt fand diese Dynamik der Verkehrstelematik bzw. der »Intelligent Transport Systems« (ITS) – wie der internationale Begriff lautet – in Konzepten des »autonomen Fahrzeugs«, des japanischen »Automated Highway System« oder, in den USA, des »Intelligent Vehicle-Highway System« IVHS. IVHS wurde, entsprechend dem Bild von »smart cars, smart highways«, als Integration von Fahrzeugidentifikation, Sensortechnik, Verkehrsmanagement, Informations- und Sicherheitssystemen konzipiert, die ein Gesamtsystem der intelligenten Autobahn konstituieren (s. Abb. 2). Für automatisierte Autobahnen sprach dabei wesentlich das Argument, dass sie mehr Autos fassen: Angesichts wachsender Verkehrsströme bzw. Staus auf kaum mehr erweiterbaren ›Verkehrsadern‹ präsentierte sich die Aussicht, eine automatisierte Fahrspur könnte so viele Autos
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
befördern wie sonst drei oder vier Spuren zusammen, als valabler Lösungsansatz (vgl. Collier und Weiland, 1994). Offenkundig wurden andererseits Umsetzungsprobleme: Nach Jurgen (1991) wurde die Kooperation von Firmen und Behörden vor ein Dilemma gestellt: die Lokalisierung erfasste die Daten des Fahrverhaltens und warf neue Probleme der Privacy und der Haftungsfragen (im Blick auf Autorversichurungen) auf. In Europa wurden solch umfassende Visionen im Lauf von PROMETHEUS zurückgestellt, da, wie ein Bericht 1995 resümiert, »die ursprünglich anvisierte neue Systemperspektive […] nicht realisiert werden« konnte (zit.n. Willke, 1997, S. 227). Eine holistische Systemperspektive ist indes den Konzepten einer global angewachsenen Verkehrstelematik grundsätzlich inhärent, wie sich Darstellungen jüngerer Zeit ablesen lässt (vgl. z.B. Acatech, 2006, S. 48-51; ITS Handbook, 2006). Exemplarisch verdeutlicht dies die in vier Punkten formulierte »Story« für den 21. ITS-Weltkongress im September 2014 in Detroit unter dem Titel »Reinventing Transportation in our Connected World«:
Abbildung 2: IVHS (»Intelligent Vehicle-Highway System«), USA, Konzeptvisualisierung. Quelle: Jurgen 1991 (S. 27).
421
422
5. Digitale Technologien und soziale Ordnungsvorstellungen »1. Vehicles – cars, commercial vehicles, transit – along with their kin in rail, air, and maritime – work better on their own and together if they employ technologies to protect their occupants, navigate the surface transportation system, and share information. 2. People – drivers, the traveling public, transportation professionals and operators […] – must become knowledgeable and proficient in their use of the entire fabric of the transportation system. […] 3. Mobile Devices that ride on the person […] to complement the in-vehicle technologies and help society leapfrog the […] life-cycle of vehicle fleets also make smart transportation accessible and affordable for many. 4. Roads and Infrastructure […] are not simply concrete and metal, but in a way, are living organisms that collect and transmit the vital data that feeds vehicles and mobile devices and hence their drivers and travelers. Without sufficient investment in infrastructure to manage the data challenge, our connected world will lack the nerve system and blood flow to make it work.« (ITS, 2013)
Der Autoverkehr auf einer neuen Art der Daten-Autobahn ist demnach, verwandt dem Eisenbahn-, Flug- und Schiffsverkehr, ein Gesamtsystem von Verkehrs- und Datenströmen eines lebendigen Organismus und Nervensystems der Infrastruktur. Das Bild von Austin, der 1922 das Kapazitätsproblem der drahtlosen Kommunikation mit dem Autoverkehr verglich, scheint so im Systemdenken des Intelligenten Transportsystems geradezu umkehrbar, indem der Autoverkehr selbst sich präsentiert wie ein zu regelndes Telekommunikationssystem.10 Die Technikfolgenabschätzung hat im Blick auf die Systemkonzepte der ITS unter anderem die Frage nach der Rolle der FahrzeuglenkerInnen aufgeworfen: Technische Systeme im Fahrzeug könnten prinzipiell, wie angemerkt wurde, so konzipiert sein, dass sie im Gefahrenfall eingreifen wie auch, umgekehrt, »den normalen Fahrbetrieb übernehmen« mit der Möglichkeit des Lenkers, im Notfall »von Hand einzugreifen« (TA Swiss, 2003, S. 50). Da und insofern Automobile keine »Container« sind, liegt das damit angesprochene Thema der Mensch-Autobzw. Mensch-Computer-Beziehung auf der Hand. Deren Spannungsfeld lässt sich den Diskussionen z.B. über Navigationsgeräte im Automobil und Fälle von »Fehlanweisungen« oder über das Problem der »Ablenkung« des Fahrers durch digitale Technik ablesen. Mit dem heute realisierten »autonomen Auto« wiederum ist die erwähnte Alternative weitgehend entschieden: Im Notfall muss der Lenker eingreifen, was praktisch zu einer neuen komplexen Situation verteilter 10 | Das allgemeine Prinzip solcher Regelung ist, gemäß der Darstellung von Acatech (2006, S. 48) aus der Systemperspektive des Verkehrsmanagements, als ein dreistufiges zu betrachten mit den Schritten »Erfassung des Verkehrszustandes«, »Verkehrsprognose« und »Verkehrsbeeinflussung«; bzw. in der Darstellung Pentlands (2012, S. 39) eines zukünftigen »Nervous Systems«, mit den hier benannten Schritten »sense the situation, combine observations with dynamic demand and reaction models, and use the resulting predictions to control the system«.
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
Agency im Auto führt.11 Bleibt der Blick jedoch auf Technik im Automobil reduziert, wird übersehen, dass es über das Fahrzeug hinaus ein Ensemble technischer Systeme ist, das die – immer schon komplexen – Relationen von »Auto und Information« bzw. »Ich«, »Auto« und »Technik« (Bense, 1998) heute grundlegend transformiert. Dabei liegt die maßgebliche Differenz einer »intelligenten« oder »smarten« Automobilität in der Konstellation einer automatisierten Datenproduktion und -verarbeitung, die Automobil- und Datenverkehr verknüpft. Mimi Sheller (2007, S. 178) hat aus Sicht der Mobilitätsforschung auf diese Differenz digitaler »car-driver-road systems« hingewiesen: Die signifikantesten Veränderungen, so Sheller, finden nicht auf der Ebene des Fahrers im Automobil statt, »but at the level of the driver-car-software hybrid’s interaction with systems of pervasive and embedded computing, surveillance and code-sorting […]«. Ablesen lässt sich dies gegenwärtigen Herstellerinformationen, so am Beispiel von Mercedes Benz und dessen IntelligentDrive System, mit dem »Fahrzeugen das Denken beigebracht« wurde und das einen »großen Schritt« hin zum »autonomen unfallfreien Fahren« markiert. Dass das System das Auto zum »digitalen Begleiter« macht, das die »Gewohnheiten« des Lenkers kennt und »mit sozialen Netzwerken interagiert«, macht »aus der Vision einer nahtlos vernetzten Mobilität Wirklichkeit«. Zugleich folgt daraus, dass Fahren mit der Produktion von Daten zusammenfällt, z.B. im Aufmerksamkeitsassistenten, der »anhand von über 70 Messgrössen« das Fahrerverhalten auf Ermüdungsanzeichen hin analysiert, um gegebenenfalls eine Pause vorzuschlagen.12 »Heutige Autos«, so hat Friedemann Mattern (2013, S. 16) diese Entwicklung gekennzeichnet, sind »gewissermassen Big-Data-Produzenten«. In einem Versuchsprojekt wurde über das Erfassen solcher Auto-Daten ein »ghost car« in der Cloud generiert, auf den Applikationen zugreifen können, was in einigen Fällen erlaubte Autotüren fernzuöffnen oder Bremsen zu aktivieren (ebd.). Mit dem durch Autoversicherungen in den letzten Jahren lancierten UBI(»Usage Based Insurance«)Modell ist ein Export von Fahrdaten in operativer Form eingeführt, womit sich das oben erwähnte, von Jurgen (1991) einst im Rahmen der IVHS-Vision reflektierte Szenario realisiert hat. UBI setzt die Zustimmung der Versicherten zur Erfassung von Daten ihres Fahrverhaltens voraus, realisiert durch eine Black Box der Versicherung im Auto und/oder mobiles Senden, wofür sie mit einer Prämienvergünstigung rechnen können. Hierzu bieten spezialisierte Unternehmen gemeinsam mit Mobilkommunikationsanbietern Branchenlösungen für Versicherungen an (vgl. Ocken, 2012). Als »Lauschangriff beim Autofahren« wurde UBI u.a. in der Presse kritisiert: »Die Datenberge sind der 11 | S. hierzu z.B. die Kritik von Don Norman (2014). Zu Entwicklungen des autonomen bzw. fahrerlosen Fahrens s. z.B. www.wired.com/autopia/2013/12/volvo-drive-me (14. November 2013). 12 | Zit. nach der Darstellung von Mercedes Benz unter http://techcenter.mercedesbenz.com/de, Details zu IntelligentDrive und Attention Assist.
423
424
5. Digitale Technologien und soziale Ordnungsvorstellungen
Horror jedes Datenschützers und der Traum jedes Versicherungsmathematikers« (Heim, 2013. S. 177-191). Maßgeblich für die Differenz der »Datenberge« ist die Weise ihrer automatisierten Produktion. Martin Dodge und Rob Kitchin (2007, S. 270-271) haben diese Differenz mit dem von Philipp Agre (1994) geprägten Begriff der »capture« gekennzeichnet: »Capture« benennt eine Datenerfassung, die nicht separat über ein zweites System erfolgt, sondern als integraler Bestandteil der Aktivität z.B. des Autofahrens selbst. Solche Erfassung von Aktivität beruht prinzipiell auf einer repräsentationsschematischen formalen Modellierung in einer Sprache akkurater Grammatik. Agre spricht daher von Aktivitätsgrammatiken (»grammars of action«), in deren Einheiten informationstechnische Systeme menschliches Verhalten erfassen und, indem sie dies tun, auf dieses zurückwirken. In Bezug auf »persuasive Systeme«, die explizit auf die Beeinflussung menschlichen Verhaltens, z.B. des Fahrverhaltens, abzielen, ist diese aktive Gestaltung von Verhalten durch digitale Systeme heute als Thema virulent. Sie ist jedoch eine grundsätzliche Eigenschaft des ›behavior sensing‹ – unabhängig etwa von einer Weiterleitung der erfassten Daten – und einer Software, die, so Dodge und Kitchin, Automobilität heute in Formen eines »automatisierten Managements« transformiert. Die historische Entstehung automatisierter Formen automobiler Kommunikation und Kontrolle ist ein Beispiel des Sensing, das auf zwei Ebenen situierbar ist. Auf der Ebene der Konzepte stehen das »electronic eye on auto fleets« und die Steuerung von mobilen Verkehrsströmen als »nerve system and blood flow« für ein logistisches Systembild: Die »connected world« entspricht einer Vorstellung automatisierter, effizienzoptimierter, reibungsloser dynamischer und adaptiver Prozesse, in der sich keine »managerial problems« stellen. Solche Vorstellungen des konnektiven, effizienten, dynamischen Systems finden sich u.a. heute wieder in Stadt-Visionen des automobilen »smart traffic« (vgl. z.B. Prendinger et al., 2013). Insbesondere der digitale Autoverkehr, vom »participatory sensing« bis zur Anwendung des (von Ameisenverhalten abgeleiteten) »Ant Colony Optimization«-Algorithmus, ist ein heute breites Forschungsfeld (vgl. Wang et al., 2012; Nahar und Hashim, 2011), und Sensing als »nervous system« ist, hiervon aus gesehen, begreif bar als ein technik-mythisches Systemmodell übersichtlicher mess-, modellier- und optimierbarer Verkehrsflüsse. Auf der Ebene einer heutigen Medienkonstellation mobiler Kommunikation bzw. Datenerfassung wiederum stehen Automobile als heterogen vernetzte »devices« für eine »screening technology«, die von Vorstellungen der Übersicht oder einer einseitigen Überwachung zu unterscheiden ist: Stellen herkömmliche Modelle des Monitoring eine zentralisierte und statische Kontrolle vor, so steht dem heute zugleich eine Art mobile »networked control« gegenüber, »in which control is exerted by, on, and through each node« (Packer und Oswald, 2010, S. 335). So setzt etwa das »denkende« bzw. automatisierte Fahrzeug eine sensorische Erfassung ebenso seiner Umgebung voraus. Fahrassistenten zur Kollisionsvermeidung oder »Adaptive Cruise Control« bzw. Tempomat sind hierzu u.a. mit Radarsen-
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
soren und Außenkameras verbunden; Automobile beispielsweise von Mercedes Benz verfügen zusätzlich über Nachtsicht- und Wärmebildkameras. Dodge und Kitchin (2007) erwähnen als Beispiel für diese Datenproduktion durch Umgebungserfassung auch die auf die Straße gerichteten Außenkameras öffentlicher Busse in London. Das vernetzte Automobil als Sensor ist in dieser Weise Teil eines Screening ohne eindeutige Subjekt- und Objekt-Positionen. Zugleich verschiebt sich in solchen Konstellationen ein vorgestelltes Verhältnis zwischen Funktion und ›bloßer Infrastruktur‹. Automobile als »ghost cars«, Sensoren oder Big DataProduzenten stehen heute für eine irritierende Hybridität, die im Widerspruch steht zur Ordnungsvorstellung des »AVM«, der »connected world« oder des »Pervasive Computing«.
S ensing »Very Nervous System« benannte der Medienkünstler David Rokeby seine experimentelle Arbeit, die in den Jahren 1986-1990 entstand. Die Arbeit, im Verbund mit der Tracking-Software »softVNS«, ist eines der frühesten Beispiele einer interaktiven digitalen Installation nach dem Prinzip eines bewegungsbasierten Sensing, wobei sie ein akustisches System, Synthesizer, Kameras und Bildverarbeitung integriert. Diese konstituieren eine unsichtbare bewegungsräumlichakustische Interaktions-Schnittstelle zwischen Mensch und Computer, die Rokeby als Installation wie als Performance im öffentlichen Raum gezeigt hat. Das Konzept der Arbeit und seines Feedback-Systems, in dem die menschliche Körperbewegung Geräusch oder Musik erzeugt, war, wie Rokeby äußert, motiviert durch mehrere Gründe, »but perhaps the most pervasive reason was a simple impulse towards contrariness. The computer as a medium is strongly biased. And so my impulse while using the computer was to work solidly against these biases. Because the computer is purely logical, the language of interaction should strive to be intuitive. Because the computer removes you from your body, the body should be strongly engaged. Because the computer’s activity takes place on the tiny playing fields of integrated circuits, the encounter with the computer should take place in human-scaled physical space. Because the computer is objective and disinterested, the experience should be intimate.« (Rokeby, 2010, http://www.davidrokeby. com/vns.html (14. Juli 2014)
Mit diesem Konzept erinnert die Ende der 1980er Jahre entstandene Arbeit in manchen Aspekten an das Leitbild Weisers (1991) eines Ubiquitous Computing. »Very Nervous System« exponiert jedoch eine unsichtbare Schnittstelle, die in diametralem Gegensatz zu einem Unsichtbaren im Sinne des Ubiquitous oder Pervasive Computing und dem damit implizierten Verhältnis von Mensch und Computer steht. Das in Rokebys Arbeit thematisierte Verhältnis ist keines der
425
426
5. Digitale Technologien und soziale Ordnungsvorstellungen
vorgestellten einseitigen Kontrolle, einer instrumentellen Zweck-Mittel-Relation von Funktion und Infrastruktur oder eines ›behavior-sensing‹, sondern das eines indefiniten wechselseitigen Zusammenspiels der Interaktion selbst. Rokeby schildert dieses als einen komplexen Feedback-Loop: »The feedback is not simply ›negative‹ or ›positive‹, inhibitory or reinforcing; the loop is subject to constant transformation as the elements, human and computer, change in response to each other.« (Ebd. http://www.davidrokeby.com/vns.html, 14. Juli 2014). Rokebys Arbeit führt damit am Beispiel eines Spielraums der Interaktion ein Sensing vor, in dem weder auf der Seite des Menschen noch auf der des Computers oder einer ›Intelligenz‹ der Software das Subjekt oder der ›Kopf‹ zu lokalisieren ist. Die menschliche Bewegung ist Instrument der sensitiven Steuerung ebenso wie deren Objekt und wandelt sich mit dem sich wandelnden Feedback des Computers. Es ist eine hybride, chiastische Anordnung, mit der »Very Nervous System« die mediale Präsenz eines Ubiquitous Computing als verkörperte Präsenz zur Darstellung bringt. Im Sensing der Installation präsentiert sich das Pervasive nicht eines ›unsichtbar‹ vorstellbaren Digitalen, sondern einer grundsätzlichen Hybridität. So ist das, was der Computer sensorisch erfasst, kein von ihm selbst oder vor ihm unabhängig gegebenes »behavior«. Stellte man sich ein »reality mining« der erfassten Bewegungsdaten vor, so bezöge sich dieses vielmehr auf die Realität einer immer schon hybriden Interaktion von Mensch und Computer. »[Y]ou are the controller«, wirbt Microsoft für seine bewegungsbasierte Kinect-Spielkonsole, die sich als eine der zahlreichen Formen des heutigen Sensing präsentiert.13 Handys, Automobile und alltägliche Gegenstände und Umgebungen aller Art sind zunehmend zu »smarten« Techniken geworden. »Die Welt hat«, so wirbt IBM, »ein zentrales Nervensystem bekommen«.14 Die Komplexität des mobilen Zusammenspiels von Mensch und Computer, das Rokebys Arbeit thematisiert, ist in einer heutigen Umgebung sensorischer Schnittstellen ›smarter‹ Medientechniken eine alltägliche Praxiserfahrung. »Nervous systems« des »Smarten« sind jedoch mit Konzepten verbunden, die Sensing anders figurieren als Rokebys »Very Nervous System«. »Smart« ist kein Begriff einer Reflexion hybrider und heterogener Schnittstellen, sondern ein eigentümlich schillerndes Begriffskonzept, das, in Bezug schon auf seine Herkunft, unterschiedliche Felder aneinander anschließt: Smart sind heutige Handys ebenso wie – begrifflich seit dem Vietnamkrieg – »smarte« Waffen, die ihr Ziel selbst suchen, die »smart machines« der Büroautomation der 1980er Jahre oder die »smart cards« mobiler Personal Communication Services (vgl. IDA, 2003; Zuboff, 1988; Mohan und Jain, 1994). »Smarte« Medien sind von Dodge/Kitchin (2007, S. 266) entsprechend in einem breiten Sinne als »digital, networked infrastructures controlled by software« umschrieben worden. Zugleich sind sie ausgreifende »infostructures« 13 | www.xbox.com/en-US/Kinect (14. November 2013). 14 | www.ibm.com/smarterplanet/de/de/overview/ideas (14. November 2013).
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
(Sheller, 2007, S. 178), die heute als ›superstructure‹ in den Vordergrund treten. So wird als »smarter planet« die Welt nach IBM »eine Art globales Datenfeld«: »Heute bestimmt eine neue Intelligenz, wie die Welt buchstäblich funktioniert«. HP wiederum sieht im Projekt CeNSE (»Central Nervous System for the Earth«), das eine Welt miniaturisierter Sensoren vorstellt, eine »worldwide awareness« voraus – »soon, the Earth may speak for itself« – und eine »Earth calling: Turn off the lights!«. Denn zwar könne man den Kindern sagen, sie sollten das Licht ausschalten, »but it’s going to be a lot more effective if the lights turn themselves off«.15 In der Forschung zu Ubiquitous Computing haben Paul Dourish und Genevieve Bell (2011) den Unterschied und das Verhältnis zwischen »mythology« und »mess« ubiquitärer bzw. ›pervasiver‹ Informations- und Kommunikationstechnik hervorgehoben. Mythen sind hierbei als die Ebene der Ideen begriffen, welche die digitale Entwicklung antrieben – von Kybernetik und KI über den kalten Krieg, die Community-Ideen der frühen Web-Entwicklung bis zu den Visionen des künstlichen Lebens – und antreiben, einschließlich einer »myth of ubicomp«, der eine »mess« gegenübersteht, als Praxis einer Technik, »[that] is never quite as simple, straightforward, or idealized as it is imagined to be. […] Mess is always nearby« (ebd., S. 4f.). So folgt aus der Praxis des Ubiquitous Computing »that we will always be assembling heterogeneous technologies to achieve individual and collective effects, and they will almost always be messy« (ebd., S. 26). Es gibt kein System, sondern eine Vielzahl von Systemen – und der von Weiser (1991, S. 94) genannten »verschwindenden« Technik steht eine Landschaft von Techniken gegenüber, die eher je ›intelligenter‹ desto weniger im Hintergrund verbleiben –, noch gibt es außerhalb der Ordnungsvorstellung ein Naht- oder Reibungsloses des Systems. Dourish und Bell (ebd., S. 5) weisen auf die zentrale Rolle dieser »messiness« hin: »No single idea holds true about what technologies are and what they do. […] [A]ttempts to reduce this complexity to a single reading are at best unsatisfactory; as Andrew Pickering (2010, S. 33) observes, ›Ontological monotheism is not turning out to be a pretty sight.‹« Bezogen auf Ubiquitous Computing stellen Dourish und Bell der Zukunft der Leitbilder ein »ubiquitous computing of the present« (ebd.) gegenüber, das von dieser Komplexität ausgeht: einer Heterogenität mobiler digitaler Medientechniken ebenso wie einer »sensory technology«, welche die Welt weniger beschreibt 15 | www.hpl.hp.com/news/2009/oct-dec/cense.html (14. November 2013). »For the first time in history, most of humanity is linked and has a voice«, hält, hier ebenfalls Bezug nehmend auf die Stimme, Pentland (2012, S. 40) über das global verbreitete Handy fest. »More importantly, however, mobile phones are location-aware sensor platforms connected to wireless networks that support sensors where we live and work and in our modes of transportation. Conseq uently, our mobile wireless infrastructure can be ›reality mined‹ to understand the patterns of human behavior, monitor our environments, and plan social development.«
427
428
5. Digitale Technologien und soziale Ordnungsvorstellungen
als umgestaltet (ebd., S. 195). So realisiert sich die ›ubiquitäre‹ Technik in gerade jenem soziotechnisch Fragmentierten einer »messiness«, die das Zukunftsmodell auszublenden sucht: »[…] postulating a seamless infrastructure is a strategy whereby the messy present can be ignored […] An indefinitely postponed ubicomp future is one that need never take account of this complexity.« (Ebd., S. 27) Begreift man in dieser Weise die Ebenen von »myth« und »mess« aufeinander bezogen, so steht dem »globalen Datenfeld« eine unübersichtliche soziotechnische Transformation »smarter« Medientechnik gegenüber, auf die in der Mobilitätsforschung unter dem Begriff der »Software-Sorted Society« (Wood und Graham, 2006) hingewiesen worden ist. So bringen digitale Umgebungen der Datenerfassung und Kontrolle eine Automatisierung sozialer Funktionen der Legitimität mit sich, die das Soziale der Verhandlung und des Verhaltens selbst aushebelt – es gibt, gewissermaßen, kein sich-Verhalten gegenüber ›Verhaltensdaten‹. David Wood und Stephen Graham beschreiben diese Transformation als eine neue Sozialität automatisierter Ströme, orchestriert durch Software-Systeme, die damit einhergeht, dass sich Vertrauen zwischen Personen auf die Vermittlung durch »data images« verlagert (ebd., S. 182). Dabei konstituiert die exklusive (und nicht sozial inklusive) Technik eines »software sorting«, als ungeplante Erscheinung des Medienwandels, neue Formen der sozialen Kontrolle und des Ausschlusses; entgegen der Vorstellung fließender ›Ströme‹ führt sie zu neuen, softwarebasierten Barrieren und Hindernissen. Exemplarisch hierfür sind die Entwicklungen einer »smart border« oder »intelligenten Grenze«: Während die so bezeichnete digitale Aufrüstung von Grenzen kaum Sicherheit gewährleistet, wie u.a. Mark B. Salter (2004) herausgestellt hat, hatte sie unintendierte räumliche Folgen, so in Europa die Transformation ganzer Teile etwa des Mittelmeers – heute fortschreitend durch das System »Eurosur« – in befestigte Grenzzonen und eine Umwandlung von geografischen Grenzen in Daten-Räume. Diese Transformation verlief parallel zur Umdeutung geografischer Migration von einem sozialen, ökonomischen oder ethischen Problem zu einem der »security« (ebd., S. 82). Entstanden ist so eine selektiv permeable Grenze, die nur wenigen, z.B. Frequent Flyers, ein nahtloses Passieren erlaubt, während sich auf der anderen Seite der Kreis der als potentielles Risiko Geltenden, die mit Hindernissen oder Einschränkung zu rechnen haben, erweitert hat (vgl. ebd., S. 85; Wood und Graham, 2006, S. 184). Die »intelligente Grenze« lässt sich in den Nexus von pervasiver Medien- und Sicherheitstechnik und in eine derzeitige Sicherheitskultur einordnen, in der sich ein Prinzip der Verdächtigung automatisiert hat. Nicht zuletzt »angesichts unklarer Täter- und Tatprofile«, wie Ulrich Schneckener (2013, S. 40) angemerkt hat, korrespondiert dabei die heutige Versicherheitlichung mit einer entgrenzten Datenerfassung: »Wer […] nicht genau weiß, wonach er eigentlich suchen soll, muss letztlich jedes Detail für potenziell relevant halten. Wer die Stecknadel nicht kennt, hält zwangsläufig den ganzen Heuhaufen für potenzielle Stecknadeln.« Die Kritik Schneckeners an einer Art Ontologie des generalisierten menschlichen
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
Misstrauens gilt zugleich der Umwandlung von Sicherheit in ein Problem technischer Machbarkeit. Unter Voraussetzung einer Verknüpfung von Sicherheitsund Wirtschaftsförderung wird, wie er einwendet, Sicherheits(technik)forschung zirkulär: »Auf diese Weise entwickelt sich eine Eigendynamik […], die die Logik vom ›Problem‹ zum ›Produkt‹ umkehrt. Darüber hinaus entsteht ein sich selbst erhaltender Kreislauf: Jede Technologie generiert neue Sicherheitsrisiken.« (Ebd., S. 43) Der Versuch, technisch »die gesellschaftliche Ordnung zu stabilisieren, produziert […] neue Unschärfen und Kontingenzen, die mit weiteren Stabilisatoren eingehegt werden müssen«, hat wiederum Valentin Rauer (2012, S. 71) in seiner Diskussion gegenwärtiger Drohnen- und Bilderkennungstechniken festgehalten. Dabei folgen Visionen einer »God’s eye view« des digitalen »zentralen Nervensystems« einem Modell, das gerade das sozial nicht-Verhandelbare wie Instabile der ›pervasiven‹ digitalen ›Infostruktur‹ als Garant gesellschaftlicher Sicherung und Stabilisierung vorstellt. Die durch Technik generierten »Sicherheitsrisiken« resultieren in dieser Hinsicht nicht aus fehlerhaften oder ungesicherten Systemen, sondern auch aus dem Transformativen und Kontingenten einer hybriden Technik selbst. »Managerial problems«, Fragen der Kontrolle und des Verhältnisses von Kopf und Körper bzw. von Köpfen und Körpern werden daher durch »behavior-sensing data« einer entgrenzten automatisierten Datenproduktion und -analyse nicht beantwortet, sondern vielmehr in »Society’s (Very) Nervous Systems« an Schnittstellen von Mensch und Computer heute in neuer Weise aufgeworfen. Diese situieren sich, im Gegensatz zum Nirgendwo einer »God’s eye view of ourselves«, in der Praxis medialer und soziotechnischer Hybridisierung. So wäre eine »view of ourselves« in einer Welt ›pervasiver‹ oder ›ubiquitärer‹ digitaler Medien diejenige eines sich unübersichtlich transformierenden Verhältnisses von Mensch und (›ubiquitärem‹) Computer. Aus der Sicht der Technikentwicklung setzen Dourish und Bell (2011) an die Stelle einer ›pervasiven Intelligenz‹ oder einer instrumentellen Funktionalität die Frage nach der »legibility« und »literacy« eines Ubiquitous Computing. Basierend darauf, dass digitale Technik eine Lesbarkeit der gesellschaftlichen räumlichen und alltäglichen Welt herstellt, beziehen sich diese Begriffe – über Aspekte etwa der Lesbarkeit von Software-Code (im Gegensatz zu Black Boxes) hinaus – auf ein Design von Technik, das differente Epistemologien in Rechnung stellt und Daten und Codes von einem Denken des Gegebenen oder Natürlichen trennt. Da sich die »legitimacy« eines Ubiquitous Computing als Praxis realisiert, ist deren Komplexität in der Technikentwicklung nicht auf ein Ordnungsmodell reduzierbar. Das Plädoyer von Dourish und Bell gilt daher dem Blick auf Technik »in all its emergent messiness«, statt diese auszublenden: »Tidiness is static, rigid, fixed and closed; messiness can be dynamic, adaptive, fluid and open.« (Ebd., 202)
429
430
5. Digitale Technologien und soziale Ordnungsvorstellungen
L iter atur Anon.: »The Moral Influence of the Telegraph«, in: Scientific American, 15.10.1881 (Jg. 45, Nr. 16), S. 240. Acatech – Konvent der Technikwissenschaften der Union der Akademien der deutschen Wissenschaften e.V.: Mobilität 2020. Perspektiven für den Verkehr von morgen, Stuttgart: Fraunhofer Verlag 2006. Agar, Jon: Constant Touch. A Global History of the Mobile Phone, Cambridge: Icon Books 2003. Agre, Philip E.: »Surveillance and Capture. Two Models of Privacy«, in: Information Society 10, 1994, 2, S. 101-127. Ashby, W. Ross: Design for a Brain. The Origin of Adaptive Behaviour, 2nd ed. New York und London: John Wiley & Sons 1960. Audestad, Jan A.: »Network Aspects of the GSM System«, in: EUROCON: 8th European Conference on Electrotechnics. Conference Proceedings on Area Communication, 1988, S. 462-465. Austin, C.: »The Romance of the Radio Telephone«, in: Radio Broadcast 1, 1922, 1, S. 9-19. Online verfügbar durch die Media History Digital Library http:// mediahistoryproject.org (14. November 2013). Bar-Noy, Amotz, und Ilan Kessler: »Tracking Mobile Users in Wireless Communications Networks«, in: IEEE Transactions on Information Theory 39, 1993, 6, S. 1877-1886. Bense, Max: »Auto und Information. Das Ich, das Auto und die Technik«, in: Ders., Ausgewählte Schriften, Bd. 4, hg. von Elisabeth Walter, Stuttgart und Weimar: J. B. Metzler 1998, S. 291-293. Birnbaum, Joel: Towards Pervasive Information Systems, Stanford Lecture 9. Dez. 1994, Video 1994. Ders.: »Pervasive Information Systems«, in: Communications of the ACM 40, 1997, 2, S. 40-41. Bottou, Léon: »Large-Scale Learning Revisited. Three Influential Ideas in Machine Learning. Präsentation, Microsoft Research Faculty Summit 2013.« http://research.microsoft.com/en-us/events/fs2013/leon-bottou_datascience. pdf (14. November 2013). Breidbach, Olaf: »Nervenzellen oder Nervennetze? Zur Entstehung des Neuronenkonzeptes«, in: Ernst Florey und ders. (Hg.), Das Gehirn – Organ der Seele? Zur Ideengeschichte der Neurobiologie, Berlin: Akademie Verlag 1993, S. 81-126. Ders.: »Die Evolution des Gehirns und die Geschichte des Geistes«, in: Georg Gasser und Josef Quitterer (Hg.), Die Aktualität des Seelenbegriffs. Interdisziplinäre Zugänge. Paderborn: Ferdinand Schöningh 2010, S. 191-217. Buschauer, Regine: »The ›Ambulant in-between‹: Media Histories of Mobile Communication«, in: Transfers. Interdisciplinary Journal of Mobility Studies 3, 2013, 1, S. 96-118.
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
Canzler, Weert: »Zur Adoption freigegeben: Verkehrstelematik und die Zukunft des Autoverkehrs«, in: Regina Buhr et al. (Hg.), Bewegende Moderne. Fahrzeugverkehr als soziale Praxis, Berlin: Ed. Sigma 1999, S. 73-104. Caron, François: Histoire des Chemins de Fer en France, Bd. 1: 1740-1883, Paris: Fayard 1997. Chevalier, Michel: »Système de la Méditerranée«, in: Ders. (Hg.), Religion Saint-Simonienne. Politique Industrielle et Système de la Méditerranée, Paris: 6, Rue Monsigny 1832, S. 101-150. Chun, Wendy: »Imagined Networks. Vortrag an der Nonhuman Turn Conference, Center for 21st Century Studies, Univ. of Wisconsin-Milwaukee«, 5.5.2012, online-Video. https://www.youtube.com/watch?v=PawVwNj14mA (14. November 2013). Collier, W. Clay/Weiland, Richard L.: Smart cars, smart highways. In: IEEE Spectrum 31, 1994, 4, S. 27-33. Cooper, Martin, et al.: »Radio Telephone System. U.S. Patent 3,906,166, Motorola, Inc.«, Chicago, 16. Sept. 1975. Dodge, Martin, und Rob Kitchin: »The automatic management of drivers and driving spaces«, in: Geoforum 38, 2007, 2, S. 264-275. Dourish, Paul, und Genevieve Bell: Divining a Digital Future. Mess and Mythology in Ubiquitous Computing, Cambridge MA und London: MIT Press 2011. Eagle, Nathan, und Alex (Sandy) Pentland: »Reality Mining: Sensing Complex Social Systems«, in: Personal and Ubiquitous Computing 10, 2006, S. 255-268. Engels, Friedrich: »Der Anfang des Endes in Österreich«, in: Karl Marx und Friedrich Engels: Werke, Bd. 4. Berlin: Dietz 1974, S. 504-510. Espinas, Alred: Die thierischen Gesellschaften. Eine vergleichend-psychologische Untersuchung, 2. Auflage. Braunschweig: Vieweg 1879. Fürst, Artur: Das Weltreich der Technik. Entwicklung und Gegenwart, Bd. 1: Der Verkehr im Draht und im Äther, Berlin: Ullstein 1923. Gießmann, Sebastian: »Stimmen senden. Versuch über das Wissen der Telefonvermittlung«, in: Vladimir Velminski (Hg.), Sendungen. Mediale Konturen zwischen Botschaft und Fernsicht, Bielefeld: transcript 2009, S. 133-153. Ders.: »Netz«, in: Stephan Günzel (Hg.), Lexikon der Raumphilosophie, Darmstadt: WBG 2012, S. 273-274. Giordano, A[rthur], M. Chan und H. Habal: »A Novel Location-Based Service and Architecture«, in: PIMRC’95. Wireless: Merging Onto the Information Superhighway. 6th IEEE International Symposium on Personal, Indoor and Radio Communication, Toronto, 27.-29. Sept. 1995, Proceedings, Bd. 2, 1995, S. 853857. Grell, Detlef: »Rad am Draht«, in: c’t 14, 2003, S. 170-183. Haeckel, Ernst: Die Welträthsel. Gemeinverständliche Studien über monistische Philosophie, Stuttgart: Kröner 1899.
431
432
5. Digitale Technologien und soziale Ordnungsvorstellungen
Hagen, Wolfang: »Zellular – parasozial – ordal. Skizzen zu einer Medienarchäologie des Handys«, in: Jörg Döring und Tristan Thielmann (Hg.), Mediengeographie. Theorie – Analysen – Diskussion, Bielefeld: transcript 2009, S. 359-380. Hauslen, Robert A.: »The Promise of Automatic Vehicle Identification«, in: IEEE Transactions on Vehicular Technology 26, 1977, 1, S. 30-38. Hedberg, Sara Reese: »The Data Gold Rush«, in: Byte 20, 1995, 10, S. 83-88. Heim, Michael: »Lauschangriff beim Autofahren«, in: Schweiz am Sonntag Nr. 258, 22. Sept. 2013, S. 21. Hoffmann, Christoph: »Helmholtz’ Apparatu‹es. Telegraphy as Working Model of Nerve Physiology«, in: Philosophia Scientiae 7, 2003, 1, S. 129-149. IDA – Institute of Defense Analyses: Transformation and Transition: »DARPA’s Role in Fostering an Emerging Revolution in Military Affairs. Vol. 2 – Detailed Assessments«, IDA Paper P-3698, verf. von Richard H. Van Atta et al., Alexandria VA 2003. www.darpa.mil/WorkArea/DownloadAsset.aspx?id=2687 (14. November 2013). ITS Handbook, 2nd ed. World Road Association 2006. http://road-network-operations.piarc.org/index.php?option=com_content&task=view&id=38&Itemid=71 &lang=en (14. November 2013). ITS (2013): Ankündigungsbroschüre und Ausstellerwerbung 21. World Congress on Intelligent Transport Systems, Detroit 2014. online unter www.itsa.wiki spaces.net/file/view/2014ITSWCTechDemoPreApp.pdf (14. November 2013). Johach, Eva: »Schwarm-Logiken. Genealogien sozialer Organisation in Insektengesellschaften«, in: Eva Horn und Lucas Marco Gisi (Hg.), Schwärme – Kollektive ohne Zentrum. Eine Wissensgeschichte zwischen Leben und Information, Bielefeld: transcript 2009, S. 203-224. Jurgen, Ronald K.: »Smart cars and smart highways go global«, in: IEEE Spectrum 28, 1991, 5, S. 26-36. Kapp, Ernst: Grundlinien einer Philosophie der Technik. Zur Entstehungsgeschichte der Cultur aus neuen Gesichtspunkten, Braunschweig: Westermann 1877. Katz, James E., und Mark Aakhus (Hg.), Perpetual Contact: Mobile Communication, Private Talk, Public Performance, Cambridge: University Press 2002. Kittler, Friedrich: »Lakanal und Soemmerring: Von der der optischen zur elektrischen Telegraphie«, in: Brigitte Felderer (Hg.), Wunschmaschine Welterfindung. Eine Geschichte der Technikvisionen seit dem 18. Jahrhundert, Wien und New York: Springer 1996, S. 286-295. Knies, Karl: Der Telegraph als Verkehrsmittel. Über den Nachrichtenverkehr überhaupt, München 1996 [i. Orig. Tübingen 1857]. Krakiwsky, Edward J.: »GPS and Vehicle Location and Navigation«, in: GPS World, 2, 1991, 5, S. 50-53. Künzi, Kilian: »Telegraf – Kommunizieren durch den Draht«, in: Museum für Kommunikation, Bern (Hg.), In 28 Minuten von London nach Kalkutta, Zürich: Chronos 2000, S. 19-117.
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
Latour, Bruno et al.: »›The whole is always smaller than its parts‹ – a digital test of Gabriel Tardes’ Monads«, in: The British Journal of Sociology 63, 2012, 4, S. 590-615. Lindholm, Carroll R.: »Second Symposium on Vehicular Communications Systems. Los Angeles, May 23, 1968«, in: IEEE Transactions on Vehicular Technology 18, 1969, 1, S. 32-33. Ling, Richard, und Birgitte Yttri: »Hyper-coordination via Mobile Phones in Norway«, in: Jeffrey Katz und Mark Aakhus (Hg.), Perpetual Contact: Mobile Communication, Private Talk, Public Performance, Cambridge: University Press 2002, S. 139-169. List, Friedrich: Über ein sächsisches Eisenbahn-System als Grundlage eines allgemeinen deutschen Eisenbahn-Systems und insbesondere über die Anlegung einer Eisenbahn von Leipzig nach Dresden, Leipzig: A.G. Liebeskind 1833. Ders.: Das deutsche Eisenbahnsystem als Mittel der Vervollkommnung der deutschen Industrie, des deutschen Zollvereins und des deutschen Nationalverbandes überhaupt, Stuttgart und Tübingen: J. W. Cotta 1841. Löper, Carl: Stammbuch der neueren Verkehrsmittel. Eisenbahnen, Dampfschiffe, Telegraphen und Luftschiffe, Heidelberg: Decker 1984 [i. Orig. Lahr 1881]. Mattern, Friedemann: »Die technische Basis für M2M und das Internet der Dinge«, Vortrag Fachkonferenz des Münchner Kreises, Mai 2013. www.vs.inf. ethz.ch/publ/papers/mattern-m2m_iot-2013.pdf (14. November 2013). Megla, Gerhard: Vom Wesen der Nachricht, Stuttgart: S. Hirzel Verlag 1961. Messerli, Jakob: Gleichmässig – pünktlich – schnell. Zeiteinteilung und Zeitgebrauch im 19. Jahrhundert in der Schweiz, Diss. Bern 1993. McLuhan, Marshall: Die magischen Kanäle. Understanding Media, Dresden und Basel 1995 [engl. Orig. New York 1964]. Ders., und Quentin Fiore: Das Medium als Massage. Ein Inventar medialer Effekte, Stuttgart: Klett-Cotta 2012 [engl. Orig. New York 1967]. Mohan, Seshadri, und Ravi Jain: »Two User Location Strategies for Personal Communications Services«, in: IEEE Personal Communication Magazine 1, 1994, 1, S. 42-50. Morse, Samuel Finley: Samuel F. B. Morse, His Letters and Journals, Bd. 2. Boston: Houghton Mifflin 1914. Musselman, Elizabeth Green: »The Governor and the Telegraph: Mental Management i.In British Natural Philosophy«, in: Iwan Rhys Morus (Hg.), Bodies/ Machines, Oxford: Berg 2002, S. 67-92. Nahar, Shahrizul Anuar Abu, und Fazida Hanim Hashim: »Modelling and Analysis of an Efficient Traffic Network Using Ant Colony Optimization Algorithm«, in: Third International Conference on Computational Intelligence, Communication Systems and Networks, IEEE 2011, S. 32-36. Norman, Don: »Stupid Smart Stuff«. Online-Beitrag 8.3.2014. www.linkedin. com/today/post/article/20140308200904-12181762-stupid-smart-stuff?pub lished=t (18. März 2014).
433
434
5. Digitale Technologien und soziale Ordnungsvorstellungen
Ocken, Jessica Royer: »Telematics and UBI: The Data Challenges«, in: CIPR Newsletter, Juli 2012, A. 29-30. www.naic.org/cipr_newsletter_archive/vol4_ telematics_and_ubi.htm (14. November 2013). Packer, Jeremy, und Kathleen F. Oswald: »From Windscreen to Widescreen: Screening Technologies and Mobile Communication«, in: The Communication Review 13, 2010, S. 309-339. Panik, Ferdinand: »The Prometheus Vision«, Präsentation ERTICO-IST Europe General Assembly&Partner Session on ITS Success Stories, Brüssel 4. Mai 2007, online verfügbar unter www.channelingreality.com/NAU/Documents/ Prometheus_Vision_Presentation_Ertico.pdf (14. November 2013). Pentland, Alex: »Reality Mining of Mobile Communications. Toward a New Deal on Data«, in: Soumitra Dutta und Irene Mia (Hg.), The Global Information Technology Report 2008-2009. Mobility in a Networked World, World Economic Forum 2009, S. 75-80. Pentland, Alex (Sandy): »To Signal is Human«, in: American Scientist 98, 2010, S. 204-211. Ders.: »Society’s Nervous System. Building Effective Government, Energy, and Public Health Systems«, in: Computer (IEEE) 45, 2012, 1, S. 31-38. Peters, John Durham: Speaking Into the Air: A History of the Idea of Communication, Chicago und London: University of Chicago Press, 1999. Ders.: »Calendar, Clock, Tower«, in: Jeremy Stolow (Hg.), Deus in Machina. Religion, Technology, and the Things in Between, New York: Fordham University Press 2013, S. 25-42. Prendinger, Helmut, et al.: »Tokyo Virtual Living Lab: Designing Smart Cities based on the 3D Internet«, in: IEEE Internet Computing, Special Issue on Smart Cities, Nov/Dec 2013, Preprint, IEEE 2013. Prescott, George Bartlett: History, Theory and Practise of the Electric Telegraph, Boston: Ticknor and Fields 1860. Rauer, Valentin: »Interobjektivität: Sicherheitskultur aus Sicht der Akteur-Netzwerk-Theorie«, in: Christopher Daase, Philipp Offermann und Valentin Rauer (Hg.), Sicherheitskultur. Soziale und politische Praktiken der Gefahrenabwehr, Frankfurt a.M.: Campus 2012, S. 69-91. Rehsche, Michael: »›Kleiner Mann am Ohr›. Handys auf dem Vormarsch. Die Entwicklung auf dem Markt der Natel-C-Telefone«, in: Handels Zeitung Nr. 25, 20. Juni 1991, S. 67-68. Ring, D[ouglas] H.: »Mobile Telephony – Wide Area Coverage – Case 20564«, Technisches Memorandum, Bell Telephone Laboratories, 11. Dezember 1947, online verfügbar unter www.privateline.com/archive/Ringcellreport1947.pdf (14. November 2013). Riter, Stephen, und Jan McCoy: »Automatic Vehicle Location – An Overview«, in: IEEE Transactions on Vehicular Technology 26, 1977, 1, S. 7-11.
Regine Buschauer: (Very) Nervous Systems. Big Mobile Data
Rokeby, David: »Works: Very Nervous System (1986-1990)«, Darstellung auf der Homepage des Künstlers. www.davidrokeby.com/vns.html, 2010 (14. November 2013). Ropohl, Günter: »Allgemeine Technologie der Netzwerke«, in: Technikgeschichte 56, 1988, 3, S. 153-162. Roscher, Max: Die Kabel des Weltverkehrs hauptsächlich in volkswirtschaftlicher Hinsicht, Berlin: Puttkammer und Mühlbrecht 1911. Roth, Seymour H.: »History of Automatic Vehicle Monitoring«, IEEE Transactions on Vehicular Technology 26, 1977, 1, S. 2-6. Russell, Ben: »TCM Online Reader Introduction«, in: TCM Locative Reader (2004.) http://web.archive.org/web/20060613044920/locative.net/tcmreader/index. php?intro;russell (14. November 2013). Salter, Mark B.: »Passports, Mobility, and Security: How smart can the border be?«, in: International Studies Perspectives 5, 2004, 1, S. 71-91. Sarasin, Philipp, und Jakob Tanner: »Physiologie und industrielle Gesellschaft. Bemerkungen zum Konzept und zu den Beiträgen dieses Sammelbandes«, in: Dies. (Hg.), Physiologie und industrielle Gesellschaft. Studien zur Verwissenschaftlichung des Körpers im 19. und 20. Jahrhundert, Frankfurt a.M.: Suhrkamp 1998, S. 12-43. Schanze, Helmut: »Rundfunk, Medium und Masse. Voraussetzungen und Folgen der Medialisierung nach dem 1. Weltkrieg«, in: Ders. und Edgar Lersch (Hg.), Die Idee des Radios. Von den Anfängen in Europa und den USA bis 1933, Konstanz: UVK 2004, S. 11-27. Schneckener, Ulrich: »Bedingt abwehrbereit: Politische und administrative Reaktionsmuster auf das ›Terrorrisiko‹«, in: Christopher Daase, Stefan Engert und Julian Junk (Hg.), Verunsicherte Gesellschaft – überforderter Staat. Zum Wandel der Sicherheitskultur, Frankfurt a.M. und New York: Campus 2013, S. 35-55. Sheller, Mimi: »Bodies, cybercars and the mundane incorporation of automated mobilities«, in: Social&Cultural Geography 8, 2007, 2, S. 175-195. Silventoinen, Marko I., und Timo Rantalainen: »Mobile Station Emergency Location in GSM«, in: IEEE International Conference on Personal Wireless Communications, New Delhi 19.-21. Feb. 1996, Proceedings, S. 232-238. Star, Susan Leigh: »The Ethnography of Infrastructure«, in: American Behavioral Scientist 43, 1999, 3, S. 377-391. Steele, R[aymond]: »Towards a high-capacity digital cellular mobile radio system«, in: IEE Proceedings 132, 1985, 5, S. 405-415. Stent, Gunther S.: »Von der Nukleinsäure bis zur Nervenfaser: Kommunikation zwischen Zellen«, in: Kommunikation, Frankfurt a.M: Umschau Verlag 1973 [dt. Übersetzung des Sonderhefts des »Scientific American«, Sept. 1972], S. 29-42. TA Swiss – Zentrum für Technologiefolgenabschätzung: »Das vernetzte Fahrzeug. Arbeitsdokument TA-DT 33/2003«, verf. v. Franz Mühlethaler et al., Bern 2003. www.ta-swiss.ch/verkehr/verkehrstelematik (24. Oktober 2013).
435
436
5. Digitale Technologien und soziale Ordnungsvorstellungen
Tabbane, Sami: »An Alternative Strategy for Location Tracking«, in: IEEE Journal on Selected Areas in Communication 13 (1995) 5, S. 880-892. Teixeira, Thiago, Gershon Dublon und Andreas Savvides: »A Survey of Human-Sensing: Methods for Detecting Presence, Count, Location, Track, and Identity«, ENALAB Technical Report, September 2010. http://thiagot.com/ papers/teixeira_techrep10_survey_of_human_sensing.pdf (14. November 2013). Turin, George L.: »Simulation of Urban Locator Systems«, in: 21st IEEE Vehicular Technology Conference, Proceedings, 1970, S. 11. Ders., William S. Jewell und Tom L. Johnston: »Simulation of Urban Vehicle-Monitoring Systems«, in: IEEE Transactions on Vehicular Technology 21, 1972, 1, S. 9-16. Wang, Wen Quiang, et al.: »Smart Traffic Cloud: An Infrastructure for Traffic Applications«, in: IEEE 18th International Conference on Parallel and Distributed Systems, 2012, S. 822-827. Weber, Heike: Das Versprechen mobiler Freiheit. Zur Kultur- und Technikgeschichte von Kofferradio, Walkman und Handy, Bielefeld: transcript 2008. Weiser, Mark: »The Computer for the 21st Century«, in: Scientific American 265, 1991, 3, S. 94-104. Werber, Niels: Ameisengesellschaften. Eine Faszinationsgeschichte, Frankfurt a.M.: S. Fischer 2013. Wieser, Martin: »Von reizbaren Maschinen und empfindsamen Geistern: Körperbilder und Seelenmetaphern im Zeitalter von Aufklärung und Industrialisierung«, in: Journal für Psychologie 18, 2010, 3. www.journal-fuer-psychologie. de/index.php/jfp/article/view/36/183 (14. November 2013). Wilhelm, Donald: »Uncle Sam in Radio«, in: Radio Broadcast 1, 1922, 1, 21-27. Online verfügbar durch die Media History Digital Library http://mediahistory project.org (14. November 2013). Williams, M.: »Prometheus. The European research programme for optimising the Road Transport System in Europe«, in: IEE Colloquium on Driver Information, London 1. Dezember 1988, 1/9-9/9. Willke, Helmut: Supervision des Staates, Frankfurt a.M.: Suhrkamp 1997. Wood, David Murakami, und Stephen Graham: »Permeable Boundaries in the Software-sorted Society: Surveillance and Differentiations of Mobility«, in: Mimi Sheller und John Urry (Hg.), Mobile Technologies of the City, Abingdon, Oxon: Routledge 2006, S. 177-191. Zuboff, Shoshana: In the Age of the Smart Machine: The Future of Work and Power, New York: Basic Books 1988.
Facebooks Big Data Die Medien- und Wissenstechniken kollektiver Verdatung Ramón Reichert
Welche Musik werden eine Milliarde Menschen in Zukunft hören, wenn sie frisch verliebt sind, und welche Musik werden sie hören, wenn sie gerade ihre Beziehung beendet haben? Diese Fragestellungen hat das »Facebook Data Team« im Jahr 2012 zum Anlass genommen, um die Daten von über einer Milliarde Nutzer/ innenprofilen (mehr als zehn Prozent der Weltbevölkerung) und sechs Milliarden Songs des Online-Musikdienstes Spotify mittels einer korrelativen Datenanalyse auszuwerten, die den Grad des gleichgerichteten Zusammenhangs zwischen der Variable Beziehungsstatus« und der Variable »Musikgeschmack« ermittelt.1 Das Facebook Data Team erforscht und popularisiert gleichermaßen die Verdatung seiner Nutzer/innen, indem es die Prozesse der Mediennutzung regelmäßig auf einer eigenständigen Facebookseite der Öffentlichkeit zugänglich macht. Als Auswertungsergebnisse der Korrelation von sozialen und ästhetischen Distinktionen veröffentlichte die Forschergruppe am 10. Februar des gleichen Jahres zwei Hitlisten von Songs, die Nutzer/innen hörten, als sie ihren Beziehungsstatus änderten, und nannte sie lapidar »Facebook Love Mix« und »Facebook Breakup Mix«.2 Die Forschergruppe im Backend3 destillierte aus der statistischen Ermittlungsarbeit der »Big Data« (vgl. Wolf et al., 2011, S. 217ff.) nicht nur eine globale Verhaltensdiagnose, sondern transformierte diese auch in eine suggestive Zukunftsaussage. Sie lautete: Wir Forscher im Backend bei Facebook wissen, welche Musik eine Milliarde Facebook-Nutzer/innen am liebsten hören werden, wenn sie
1 | Facebook Data Science. https://www.facebook.com/data (10. Juni 2014). 2 | Unter dem Titel »Facebook Reveals Most Popular Songs for New Loves and Breakups« äußerte sich »Wired« begeistert über die neuen Möglichkeiten des Data Minings: www.wired.com/underwire/2012/02/facebook-love-songs/ (10. Juni 2014). 3 | Das auf dem Server installierte Programm wird bei Client-Server-Anwendungen mit dem Terminus »Backend« umschrieben. Das im Bereich der Client-Anwendung laufende Programm wird als »Frontend« bezeichnet.
438
5. Digitale Technologien und soziale Ordnungsvorstellungen
sich verlieben oder trennen.4 Unter dem Deckmantel des bloßen Sammelns und Weitergebens von Informationen etabliert die Forschergruppe des Facebook Data Teams eine Deutungsmacht gegenüber den Nutzern, indem sie die Nutzer/innen im automatisch generierten Update-Modus »What’s going on?« auffordert, regelmäßig Daten und Informationen zu posten. Es gibt aber auch noch einen weiteren Aspekt, der in diesem Zusammenhang relevant ist, wenn die popularisierenden Wissenstechniken der Datenmodellierung konkreter thematisiert werden sollen. Unter Leitung des Soziologen Cameron Marlow erforschte die aus Informatiker/innen, Statistiker/innen und Soziolog/innen bestehende Gruppe das Beziehungsverhalten der Facebook-Nutzer/innen auf der Grundlage statistischer Korrelationsmodelle. Dabei wurden die jeweiligen Statusmeldungen und Musikabspiellisten (Playlists) als Variablen einer funktionalen Relation angesehen und Aussagen über die Art und Stärke dieses Zusammenhangs in einer simplen Korrelationsanalyse erstellt. Facebooks Big Data Research vermag zwar gigantische Datenmengen erheben, aber die Medienund Wissenstechniken der Überführung der »rohen«5 Daten in aussagekräftige Metadaten rekurriert auf formale Methoden der Datenauswertung, die auf traditionelle Formen der Korrelationsanalyse verweisen, wenn – wie in dem hier erörterten Fallbeispiel des Datenpopulismus – der Status einer abhängigen Variable (Statusmeldung) nur von der Veränderung einer anderen Variable (Playlist) abhängt, d.h. es wird der Zusammenhang zweier Variablen untersucht. Es gibt aber noch einen weiteren Aspekt, der in Betracht gezogen werden muss. Der Datenraum der Hitliste spiegelt nur scheinbar eine soziale Dynamik wider und homogenisiert die erhobenen Daten. Denn das populäre Format der Hitliste zeigt nur die Korrelation von Statusmeldung und musikalischer Präferenz, nicht aber die Regression und die zeitliche Dimension der entsprechenden Daten. Eine zeitliche Dimension und damit eine bestimmte Regressionsentwicklung würde dann sichtbar gemacht werden können, wenn das Facebook Data Team in der Lage wäre, die steigenden und fallenden Werte zwischen den einzelnen Variablen abzubilden. In dieser Hinsicht suggeriert der Datenpopulismus des Facebook Data Teams einen kausalen ›Zusammenhang‹ bloß als Momentaufnahme, der nur rein formal auf einer zahlenmäßigen Pluralität zwischen zwei oder mehreren Variablen beruht, 4 | Die kollektive Figur »Wir« meint in diesem Fall die Forscher im Backend-Bereich und hat futurologische Verschwörungstheorien angeheizt, die das Weltwissen in den Händen weniger Forscher vermuten. 5 | In dem von Lisa Gitelman und Virginia Jackson herausgegebenen Sammelband »›Raw data‹ is an oxymoron« (2013) gehen die Herausgeberinnen von der programmatischen Einschätzung aus, dass »Rohdaten sowohl ein Oxymoron wie eine schlechte Idee sind« und daher »Daten sorgfältig gekocht werden sollten« (2013, S. 3). Diese Sichtweise könnte man zum Anlass nehmen, nicht nur die Praktiken der Datenerhebung als Konstruktionsprozess zu untersuchen, sondern sich auch die Zwischenbereiche der Transformationen von Rohdaten in Metadaten näher anzusehen.
Ramón Reichert: Facebooks Big Data
aber keine gehaltvolle Aussage über die Kausalität dieses Zusammenhangs herstellen kann. In diesem Sinne handelt es sich gar nicht um einen kausalen Zusammenhang der Variablen Statusmeldung und Playlist, sondern vielmehr um eine instrumentelle Beziehung, welche das popularisierende Format der Hitliste, die formal einer hierarchischen Anordnung von Zahlenwerten entspricht, nahe legt. Wenn es aber die instrumentelle Beziehung ist, welche die Beziehungswerte von Statusmeldung und Playlist dominiert, dann kann die Big Data-Statistik der sogenannten Hitliste auch als ein populäres Dispositiv des Normalismus gelesen werden, da nach Jürgen Links Theorie der Medienvermittlung die Statistik normalisierende Aufgaben übernimmt und einen wesentlichen Beitrag zur Herstellung von Orientierungswissen darstellt (vgl. Link, 1999, S. 25). In dieser Hinsicht sind popularisierende Infografiken wie die Hitliste der Facebook-Forschergruppe maßgeblich an der Formierung, Strukturierung und Produktion von Big DataWissen beteiligt. Nach ihrer Veröffentlichung wurde die Hitliste in den Sozialen Medien des Web 2.0 rasch hypertextuell vernetzt und ist zur visuellen Ikone der Machbarkeit von Big Data-Forschung aufgestiegen. Sie leitet damit die populäre Bilderwelt des Orientierungswissens und dient dem kundigen Laien als verhaltensmoderierendes Wahrnehmungsdispositiv. Die Popularität der Hitliste liegt in ihrer vereinfachenden Darstellungsweise. Sie zeigt einen klar erkennbaren Trend an, ermöglicht eine rasche und einfache Orientierung der Großdaten und erfüllt die Funktion eines Wegweisers, der eine bestimmte Rangordnung anzeigt. Die Zukunftsaussagen des Facebook Data Teams sind jedoch nur vordergründig statistisch-mathematisch motiviert und verweisen immer auch auf die eigenen performativen Ausgangspunkte. Trotz fortgeschrittener Mathematisierung, Kalkülisierung und Operationalisierung des Zukünftigen bezieht daher das Zukunftswissen der Facebook-Forschergruppe seine performative Macht immer auch aus Sprechakten und Aussageordnungen, die sich in literarische, narrative und fiktionale Inszenierungsformen ausdifferenzieren können. In diesem Sinne kann die Hitliste weniger als ein empirisch gesättigter Datenraum, sondern eher als ein verhaltensmoderierender Raum der Dateninszenierung verstanden werden. Daher muss die scheinbar konsenserzwingende Plausibilität der Daten nicht in ihrer Rückbezüglichkeit auf Wahrheitsdiskurse und epistemische Diskurse gelesen werden, da sie immer auch von kulturellen und ästhetischen Kommunikationsprozessen und Erwartungshaltungen gestützt wird, die Imaginäres, Fiktives und Empirisches in Beziehung setzen. In ihrer alltagskulturellen Lesart besitzt die Hitliste vor allem eine metaphorische Qualität. Bei der Hitliste handelt es sich um eine popularisierende Datenvisualisierung, die den gesellschaftsdiagnostischen Mehrwert der sozialen Netzwerke unter Beweis stellen soll (vgl. Doorn, 2010, S. 583-602) und daher eine verhaltensmoderierende, eine repräsentative und eine rhetorische Funktion einnimmt – mit dem gemeinsamen Ziel, die behavioristische Datenanalyse in einem unterhaltsamen Licht darzustellen. Da sie hauptsächlich in populäre und popularisierende Kontexte eingebettet ist, referiert sie weder auf nachvollziehbare sta-
439
440
5. Digitale Technologien und soziale Ordnungsvorstellungen
tistische Materialgrundlagen noch auf empirische Informationen, sondern kann – befreit von einem statistischen Veranschaulichungsdruck – als rein fiktionale Grafik der populären doxa angesehen werden. Diese ironisch gebrochene Konstruktion der populären Hitliste kann aber nicht darüber hinwegtäuschen, dass sie Bilder des sozialen Erfolgs und Misserfolgs kommuniziert. So enthält das Koordinatensystem der Hitliste ein großes Repertoire von Metaphern, die sich auf Oben und Unten, auf Erfolg und Scheitern bezieht und auf die Karrieren und Absturzgefahren der Rangelemente (das sind in unserem Fall die Songtitel) verweist. Die tabellarische Rangordnung der Hitliste verortet sich aber noch in einem weiteren Anwendungsbereich, der mit dem Begriff der Gamification umschrieben werden kann. Mit diesem Begriff werden Managementstrategien bezeichnet, die darauf abzielen, die Mechanismen von Computerspielen auf außerspielerische Kontexte zu übertragen, um auf spielerische Weise die Prozeduren der Motivation, des Lernens und der Optimierung in die Bereiche der sozialen Organisation und der kulturellen Bildung zu übertragen. Neben der direkten Vermittlung von Wissen dient die Hitliste auch zur Stimulation von Selbsttechniken und versucht mit der Sichtbarmachung kollektiver Datenpraktiken spezifische Handlungsorientierungen und Verhaltensänderungen zu empfehlen.
D ie V erdatung der ›F acebook H appiness ‹ »The current utility of the Gross National Index is to have a behavioral method with which to track the emotional health of the nation, both in terms of evaluating whether the population as a whole is in a positive or negative state.« A dam K ramer , An unobtrusive behavioral model of Gross National Index (2010)
Soziale Netzmedien agieren heute als Orte der Wissensakkumulation für die Trendund Meinungsforschung und spielen eine entscheidende Rolle bei der Modellierung von Zukunftsaussagen und futurologischer Wissensinszenierung. Die Glücksforschung nutzt heute vermehrt die sozialen Netzwerke zur Auswertung ihrer Massendaten. In dieser Hinsicht wird Facebook in der Nachfolge der richtungsweisen Gallup-Umfragen zum Well-being-Index (2008) zum nationalen Wohlbefinden als neue, nativ-digitale Erhebungsmethode der sozialwissenschaftlichen Forschung betitelt (Kramer, 2010, S. 287). Im Rahmen der von Facebook forcierten Big Data-Prognostik stellt die sogenannte »Happiness Research« eine zentrale Forschungsrichtung dar. Doch die sozioökonomische Beschäftigung mit dem Glück wird überwiegend unter Ausschluss der akademischen Öffentlichkeit durchgeführt. In diesem Zusammenhang warnen einflussreiche Theoretiker wie Lev Manovich (2012) und danah boyd und Kate Crawford (2011) daher vor einem »Digital Divide«, der das Zukunftswissen
Ramón Reichert: Facebooks Big Data
einseitig verteilt und zu Machtasymmetrien zwischen Forschern innerhalb und außerhalb der Netzwerke führen könnte. Manovich kritisiert den limitierten Zugang zu sozialstatistischem Daten, der von vornherein eine monopolartige Regierung und Verwaltung von Zukunft schafft: »[…] only social media companies have access to really large social data – especially transactional data. An anthropologist working for Facebook or a sociologist working for Google will have access to data that the rest of the scholarly community will not.« (Manovich, 2012, S. 467) Dieses ungleiche Verhältnis festigt die Stellung der sozialen Netzwerke als computerbasierte Kontrollmedien, die sich Zukunftswissen entlang einer vertikalen und eindimensionalen Netzkommunikation aneignen: (1) Sie ermöglichen einen kontinuierlichen Fluss von Daten (digitale Fußabdrücke), (2) sie sammeln und ordnen diese Daten und (3) sie etablieren geschlossene Wissens- und Kommunikationsräume für Expert/innen und ihre Expertisen, welche die kollektiven Daten zu Informationen verdichten und interpretieren. Das Zukunftswissen durchläuft folglich unterschiedliche mediale, technologische und infrastrukturelle Schichten, die hierarchisch und pyramidal angeordnet sind: »The current ecosystem around Big Data creates a new kind of digital divide: the Big Data rich and the Big Data poor. Some company researchers have even gone so far as to suggest that academics shouldn’t bother studying social media data sets – Jimmy Lin, a professor on industrial sabbatical at Twitter argued that academics should not engage in research that industry ›can do better‹.« (boyd und Crawford, 2011, S. 4) Diese Aussagen verdeutlichen – neben der faktisch gegebenen technologisch-infrastrukturellen Abschottung des Zukunftswissens –, dass das strategische Entscheidungshandeln im Backend-Bereich und nicht in der Peer-toPeer-Kommunikation angelegt ist. Die Peers können zwar in ihrer eingeschränkten Agency die Ergebnisse verfälschen, Fake-Profile anlegen und Nonsens kommunizieren, besitzen aber keine Möglichkeiten der aktiven Zukunftsgestaltung, die über taktische Aktivitäten hinausgehen. Insofern steht das Zukunftswissen der Sozialen Medien nicht allen Beteiligten gleichermaßen zur Verfügung. Dieses asymmetrische Verhältnis zwischen gewöhnlichen Nutzer/innen und exklusiven Expert/innen wurde in der einschlägigen Literatur als »Participatory Gap« (vgl. Taewoo und Stromer-Galley, 2012, S. 133-149) diskutiert. Obwohl es eine neue Form des Regierens und Verwaltens nahe legt, wird das von den Sozialen Netzwerken ermittelte Zukunftswissen von der öffentlichen Diskussion ausgeschlossen. Warum ist die Erforschung des Glücks für die Gestaltung des Zukunftswissens so relevant geworden? Die Dominanz der Glücksforschung hat zwei historische Gründe (vgl. Frey und Stutzer, 2002, S. 402). Seit der griechischen Antike wird dem Glück eine zentrale Stelle im menschlichen Leben eingeräumt und nach Aristoteles besteht das Ziel allen menschlichen Tuns darin, den Zustand der Glückseligkeit zu erlangen.6 Ein weiterer maßgeblicher Diskursstrang ist der 6 | Dieses unveräußerliche Recht des Menschen auf Glück (the pursuit of happiness) nahmen die Vereinigten Staaten von Amerika in die Eröffnungspassage ihrer Unabhängigkeitserklärung auf.
441
442
5. Digitale Technologien und soziale Ordnungsvorstellungen
seit Jeremy Bentham einflussreich gewordene Utilitarismus der Glücksdiskurse. Mit dem Greatest Happiness Principle entwickelte Bentham (1977) die Vorstellung, dass das größte zu erreichende Gut das Streben nach dem größtmöglichen Glück für die größtmögliche Anzahl von Menschen bedinge. Benthams Theorie des Glücksmanagements geht bekanntlich von der These aus, dass die Technologie des Regierens dort am intensivsten ist, wo sie unsichtbar geworden ist, zerstreut, depersonalisiert: Jeder ist Stellvertreter der Regierung als Verantwortung gegen sich selbst. Der innere Frieden sollte nicht mehr nur äußerlich durch die Macht des Souveräns verteidigt werden, sondern von jedem einzelnen auch gegen sich selbst. Dazu muss der Zufall, dass einer an die Position der Herrschaft nachrückt, durch einen rein technischen Vollzug ersetzt werden, einer Ordnungsarchitektur. Bentham spricht in diesem Zusammenhang von einer ›unsichtbaren Kette‹, die in Zukunft das Gefängnis überflüssig machen könnte. Daher auch das Interesse Benthams für die Schulversuche des Sozialutopisten Robert Owen, für das Projekt, Erziehung effektiver als bisher ohne äußerliche Strafen unter Selbstbeteiligung der Zöglinge durchzusetzen. In Owens Arbeits- und Lebenskolonie ›New Lanark‹ fand er bewiesen, dass in einer Manufaktur oder Fabrik besser gearbeitet wird, wenn jeder sich gut behandelt fühlt und glücklich ist. Der Alltag in der autarken und autonomen Kolonie ist permanent darauf ausgerichtet, dieses Glück anzuerkennen und unter Beweis zu stellen. »Die lebendigen Maschinen können verbessert werden, wenn man sie zur Kraft und Tätigkeit ausbildete; und daß es wirklich echte Wirtschaftlichkeit sei, sie in Ordnung und Sauberkeit zu erhalten; sie mit Freundlichkeit zu behandeln, so dass ihre gedanklichen Bewegungen nicht allzuviele irritierende Reibung erfuhren; mit jedem Mittel versuchen, sie perfekter zu machen.« (Owen, 1825, S. 60, Übersetzung durch den Autor) Bedingungen schaffen, um Arbeit zur Unterhaltung und die Freude rentabel zu machen. Es ist die Technik einer unendlichen Vervielfältigung des Produktionsprozesses, die Bentham fasziniert. Voraussetzung dafür ist zunächst die Vorstellung eines permanent im Kampf mit dem Naturzustand auseinanderfallenden Sozialkörpers. Dieser könne nur durch eine strenge Axiomatik sozialer Gesetzmäßigkeit regulierbar gemacht werden. Bentham in der Imagination von Darstellbarkeit eines Maschinenmodells der perfekten Regierung: »Man muss die verschiedenen Teile der großen Regierungsmaschine erklären, die Art ihres Funktionierens […], man sollte ein Modell konstruieren, in dem ihre wichtigsten Teile wiederum in Einzelteile zerlegt werden können […]. Dieses System könnte in seiner Perfektion als Beispielmodell dienen.« (Bentham, 1962, S. 283, Übersetzung durch den Autor) Die Regierungsmaschine, die Bentham vorstellig macht, wird aber erst durch ein finales Prinzip zu einem selbstbewegenden Automaten, Ideal einer lebendigen und gesunden Staatsmaschine: dieses Prinzip heißt ›SelfGovernment‹. Das Bentham’sche Modellsubjekt soll sich selbst als Urheber der Erziehung regieren, seine richtige Stelle – Vermögen, Leistung, Lust – als persönlichen Fund deklarieren. Die Vermessung und Verdatung der Befindlichkeit des großen Ganzen verortet Bentham im Glück des Einzelnen. Ist der Einzelne
Ramón Reichert: Facebooks Big Data
glücklich und zufrieden, ist die Grundlage für Reproduktion des Ganzen gesichert. Das Glück des Einzelnen muss aber täglich kontrolliert und medialisiert werden; in Prozeduren persönlicher Buchführung, in Ritualen der Individuierung, in Gewissensprüfungen: »Indirekte Methoden […] wirken […] moralisch auf den Menschen, motivieren ihn, den Gesetzen zu gehorchen, nehmen ihm die Neigungen zu Verbrechen, regieren ihn durch seine eigenen Neigungen und sein eigenes Wissen.« (Bentham, 1962, S. 533, Übersetzung durch den Autor) Die zentrale Frage des Bentham’schen Glücksmanagements lautet also: Wie formt man ein kodifizierbares (Deskription), lernfähiges (Pädagogik) und verantwortliches (Moral) Subjekt, das seine Regulation selbst anerkennt und begehrt? An diese sozioökonomische Diskurstradition des Glückmanagements knüpft die »Happiness Research« an (vgl. Bollen, 2011, S. 237-251), die Glück nach rationalem Kalkül als individuellen Nutzen interpretiert und in der Hochrechnung von aggregierten Glücksbekundungen (z.B. vermittels der Statusmeldungen auf Facebook) das soziale Wohlbefinden berechnet. Eine der am weitesten verbreiteten Methode zur Glücksvermessung stellt der seit 2007 eingeführte »Facebook Happiness Index« (vgl. Facebook Data Team 2011) dar, der anhand einer Wortindexanalyse in den Statusmeldungen die Stimmung der Nutzer/innen sozialstatistisch auswertet: »We used anonymous counts of positive and negative word used in people’s Facebook updates to paint a picture of how they are feeling. Measuring how well-off, happy or satisfied with life the citizens of a nation are is a part of the Gross National Happiness movement, and the Gross National Happiness Index is our way of contributing to it.« (Facebook Data Team 2010)
Auf der Datengrundlage der Status-Updates errechnen die Netzwerkforscher/ innen in ihrem »Gross National Happiness Index« (GNH) das sogenannte ›Bruttonationalglück‹ von Gesellschaften. Der Soziologe Adam Kramer arbeitete von 2008 bis 2009 bei Facebook und errechnete gemeinsam mit den Mitarbeiter/innen des Facebook Data Teams, der Sozialpsychologin Moira Burke, dem Informatiker Danny Ferrante und dem Leiter der Data Science Research Cameron Marlow den Happiness Index. Kramer konnte dabei das intern verfügbare Datenvolumen des Netzwerks nutzen. Er evaluierte die Häufigkeit von positiven und negativen Wörtern im selbstdokumentarischen Format der Statusmeldungen und kontextualisierte diese Selbstaufzeichnungen mit der individuellen Lebenszufriedenheit der Nutzer (convergent validity) und mit signifikanten Datenkurven von Tagen, an denen unterschiedliche Ereignisse die Medienöffentlichkeit bewegten ( face validity): »›Gross national happiness‹ is operationalized as a standardized difference between the use of positive and negative words, aggregated across days, and present a graph of this metric.« (Kramer, 2010, S. 287) Die von den Soziolog/ innen analysierten individuellen Praktiken der Selbstsorge werden mithilfe von semantischen Wortnetzen letztlich auf die Oppositionspaare »Glück«/»Unglück«
443
444
5. Digitale Technologien und soziale Ordnungsvorstellungen
und »Zufriedenheit«/»Unzufriedenheit« reduziert. Eine binär strukturierte Stimmungslage wird schließlich als Indikator einer kollektiven Mentalität veranschlagt, die auf bestimmte kollektiv geteilte Erfahrungen rekurriert und spezifische Stimmungen ausprägt (vgl. zu weiterführenden Auswertungen Pennock, 2009 und Pennock/Ura, 2011, S. 61-65). Die soziologische Massenerhebung der Selbstdokumentationen (self reports) in sozialen Netzwerken hat bisher die Stimmungslage von 22 Nationalstaaten ermittelt. Mit der wissenschaftlichen Korrelation von subjektiven Befindlichkeiten und bevölkerungsstatistischem Wissen kann der »Happy Index« nicht nur als Indikator »guten« oder »schlechten« Regierens gewertet werden, sondern als Kriterium einer möglichen Anpassungsleistung des Politischen an die Wahrnehmungsverarbeitung der Sozialen Netzwerke (vgl. zu Aspekten der Semantisierung von Glück in der weiterführenden Sentimentanalyse Nasukawa/Jeonghee, 2003, S. 70-77). In diesem Sinne stellt der »Happy Index« ein erweitertes Instrumentarium wirtschaftlicher Expansion und staatlich-administrativer Entscheidungsvorbereitung dar. Die beiden hier untersuchten Arten der grafischen Wissensvermittlung – Hitliste und Index – repräsentieren globale Bildikonen mit hohem Wiedererkennungswert und adressieren unterschiedliche Rezeptionsmuster. Die Infografiken über sozialstatistisches Verhalten auf Facebook werden weniger in empirische Plausibilisierungsstrategien eingebunden, sondern fungieren als ein beliebig verwendbares Symbolbild, das vom Data Team als didaktisch-belehrendes Medium (z.B. der Blickführung) eingesetzt wird. Warum ist also der Rückgriff auf Hitliste und Index so relevant für die mediale Inszenierung der Big Data? Es ist wichtig zu sehen, dass die Evidenz der Onlinedaten, der Kundendaten und der Daten, die an den Schnittstellen der automatisierten7 Datenverarbeitung entstehen, auf Facebook nie alleine technisch hergestellt werden, da ihre Medien – Zahlen, Formeln und Kurven – in besonderer Weise von gruppenspezifischen Kommunikationskulturen und Sehkonventionen geprägt sind: »Damit das sichtbar gemachte Unsichtbare auch einen Evidenzstatus enthält, muss es sich in Gewohnheiten einschreiben.« (Gugerli und Orland, 2002, S. 11) Die Zahlen, Formeln und Kurven von Hitliste und Index verfügen nicht per se über Eigenschaften wie »Glaubwürdigkeit« und »Überzeugungskraft«, denn diese entspringen einem sekundären Vermittlungsprozess und sind daher immer auch in Kontexte sozialer Einschreibungen und historischer Konjunkturen eingebunden. Wechseln populäre Datenvisualisierung wie die Hitliste und der Index ihren Kontext und werden von einem Laienpublikum rezipiert, verlieren sie ihren innerdisziplinären Zeichencharakter. Aufgrund ihrer vieldeutigen Referentialität und ihrer Anschlussfähigkeit an Bildtraditionen eignen sie sich dafür, nicht gelesen, sondern betrachtet zu werden. Hitliste und Index beziehen sich also auf diametral entgegengesetzte Wahrnehmungspraktiken. Während Datenanalytiker versu7 | In diesem Sinne spricht man in der Forschung von transaktionalen Nutzerdaten, die durch Webtracking, Handy-Monitoring oder Sensorerfassung entstehen (vgl. Bobley, 2011).
Ramón Reichert: Facebooks Big Data
chen, Big Data entlang bestimmter Regeln zu modellieren, um eine »referentielle Genauigkeit« (Eco, 1972, S. 213) sicher zu stellen, betrachtet das Onlinepublikum die Hitliste und den Index als Bilder in ihrer Gesamtheit – hier unterstützt durch zusätzlich verbreitete Videos, welche Hitliste und Index als ästhetisches Objekt aufzuwerten versuchen. Anstelle des Lesens tritt die Betrachtung und mit dieser kulturellen Adressierung des Laienpublikums löst sich die technische Datenanalyse von ihrer »textuellen Vermessung« (Yogatama 2012) sozialer Parameter. Die Kunst der Popularkultur besteht hier darin, aus Bildern, die sie selbst nicht herstellen kann, etwas zu machen, das der »popularen Produktivität« (Fiske, 2000, S. 17), aber nicht der wissenschaftlich-technologischen Produktivität der Big DataAnalyse entspricht. Datenvisualisierungen wie die Hitliste und der Index erhalten durch die Bedeutungsverschiebung im Prozess ihrer Popularisierung einen Bedeutungsüberschuss, womit sich ihr epistemischer Status ändert. An die Stelle der regelkonformen Dateninterpretation tritt eine imaginäre Anschlussfähigkeit im Prozess des Betrachtens: Wenn die Infografiken der Big Data auch anders und vielschichtig gelesen werden können (z.B. als Erfolgsgeschichte, Trend oder Handlungsorientierung), dann firmieren sie als ästhetische Artefakte und vollziehen als Datenvisualisierungen einen bedeutungsvollen Medienwechsel von der Computerschrift zum Computerbild.
V om Tr acking zum Targe ting Die operative Erforschung der Big Data weist zwei unterschiedliche Ausrichtungen auf. Einerseits versucht sie, kollektive Figurationen und Tendenzen kollektiver Dynamiken zu modellieren, andererseits geht es ihr darum, aus großen Datenmengen personenzentrierte und zielgruppenspezifische Merkmalsausprägungen herauszulesen. Im Folgenden möchte ich die historischen Diskursfelder dieser datenbasierten Techniken zur Herstellung subjektzentrierten Wissens herausarbeiten, um das strategische Bezugsverhältnis zwischen Wissen und Macht, oder genauer: zwischen Regierungswissen und der Herausbildung von Subjektivierungsmodellen akzentuieren zu können. In seinen Anfängen wurde das Profiling als Bewertungsmethode im Personalausleseverfahren der Testpsychologie in den USA entwickelt (vgl. Giordano, 2005). Die standardisierten Verfahren der Testpsychologie zur Ermittlung von Leistungsfähigkeit bilden direkte Vorläufer des Profiling (aber auch der Rasterfahndung). Begriffe wie das »Persönlichkeitsprofil« oder das »Profiling« entstammen dem psychologisch-therapeutischen Diskurs und markieren heute Leitdiskurse in den Praxisformen der Selbstthematisierung. Unter den Vorzeichen des Postfordismus hat sich das Profiling als ein Ökonomisierungs- und Standardisierungsinstrument gesellschaftlich verallgemeinert und ist als eine vielschichtige Such- und Analysemethode der Informations- bzw. Wissensgesellschaften in Ver-
445
446
5. Digitale Technologien und soziale Ordnungsvorstellungen
wendung. Das hohe Ansehen der Selbstevaluation verweist auf zwei soziale Prozesse. Einerseits hat sich die Anzahl der Testparameter und -verfahren und der daran beteiligten Testobjekte mit dem Auftritt der Web 2.0-Interfacetechnologien vervielfältigt, andererseits hat sich – in Abgrenzung zur beruflichen Eignungsdiagnostik – die Evaluationspraxis auch in qualitativer Hinsicht verändert und umfasst heute die gesamte Persönlichkeit und kreativen Potenziale des Subjekts. Das Profiling wird von Facebook zur prognostischen Verhaltensanalyse eingesetzt (vgl. Klaasen, 2007, S. 35). Beim Profiling handelt es sich um eine Wissenstechnik, bei der die Mitglieder in statistische Kollektiva eingeteilt werden. Grundlage dieser Datenaggregation sind demografische, sozio-ökonomische und geografische Faktoren. Die Mitglieder werden nach Alter, Geschlecht, Lebensabschnitt, soziale Klasse, Bildungsgrad, Einkommen und Wohnort erfasst. Das Profiling erschließt auch Keywords durch Fanangaben und Gruppenmitgliedschaften. Die Aufzeichnungs- und Speicherpraktiken der Keywords werden für die Durchführung von Matchingverfahren herangezogen. Dabei werden zwischen den Geschmacksprofilen Ähnlichkeiten und Übereinstimmungen hergestellt. Eine Gruppe ergibt sich nach dem Prinzip der Übereinstimmung, z.B. formt sich eine Gruppe, wenn sie bestimmte Freund/innen, Musikvorlieben, Kinofilme und Reisedestinationen miteinander teilt. Die Keywords basieren auf den Informationen, welche die Mitglieder selbst angegeben haben, also auf Interessen, Aktivitäten, Präferenzen. Die Auswertungsverfahren des Nutzungsverhaltens zielen auf die Herstellung von Verhaltensvorhersagen, die als Bezugspunkt für die zielgruppenspezifische und interessensgebundene Werbung dienen. Seit Januar 2011 transformiert Facebook mit Hilfe der sogenannten »gesponserten Meldungen« (sponsored stories) die Facebook-Aktivitäten normaler Nutzer/innen in eine Werbeanzeige. Das Prinzip dieser User/innen-basierten Marketingmethode ist simpel: Wenn User/ innen den »Gefällt mir«-Button auf der Webseite eines Unternehmens klicken oder über »Facebook Places«, den Ortungsservice des Netzwerks, bei einem Partnerunternehmen von Facebook einchecken, kann sich das Unternehmen die Information zunutze machen und sich automatisiert in der rechten Spalte im neuen Echtzeit-Ticker als Anzeige darstellen lassen. Die Anzeige wird automatisch vermittels einer Social Tracking Software geschaltet und besteht aus dem Logo und dem Link des Unternehmens mitsamt Profilfoto, Name und Aktion des/der Facebook-Nutzers/Nutzerin. Facebook-Nutzer/innen werden dadurch zu unbezahlten Werbeträger/innen (vgl. auch Wald/Khoshgoftaar/Sumner, 2012, S. 109-115). Das Web 2.0 mit seinen Social Networks und Communities verspricht daher ein großes prognostisches Potenzial, weil Marketingaktivitäten auf bestimmte Zielgruppen mittels modularer Technologien für User Tracking, Webmining, Profiling, Testing, Optimierung, Ad-Serving und Targeted Advertising abgestimmt werden können. Das Profiling im Web 2.0 verläuft nach dem Prinzip des Closed Circuit. Die Anordnung des Closed Circuit beschreibt ein Aufzeichnungsverfahren, bei dem das Eingabemedium direkt mit dem Abbildungsmedium verbunden
Ramón Reichert: Facebooks Big Data
ist. Bei der Beobachtungsanordnung im Closed Circuit machen die User/innen die Erfahrung der Synchronität ihrer Handlungen. Die sofortige Verfügbarkeit der Datenstrukturen und ihre gleichzeitige Manipulationsmöglichkeit durch das Targeted Advertising ist eine besondere Eigenschaft des Echtzeit-Profilings, das vergangene Nutzungsgewohnheiten von Onlinerezipient/innen analysiert (Click Advertising, Graphenanalyse), um zielgerichtete Werbung (Quality Market) für ein künftiges Konsumverhalten zu modellieren. Vor diesem Hintergrund entwickelte Microsoft ein Profiling-System, das soziometrische Daten wie etwa Alter, Geschlecht, Einkommen und Bildung mit möglichst großer Wahrscheinlichkeit ableiten sollte. Der Wirkungsbereich dieser sozialen Software umfasst zwei Bereiche: Als Medium vermittelt sie Prozesse und bewirkt eine Virtualisierung und Entgrenzung von Kommunikation, als Werkzeug greift sie strukturbildend in Zusammenhänge ein, bleibt aber selbst interpretationsbedürftig: »The information architectures and classification tools that underlie many of the new technologies impacting on front-line practice are designed by a small elite, with decisions on what is represented and what is not.« (Webb, 2006, S. 165) Die Prognosefähigkeit der Sozialen Netzwerke ist davon abhängig, ob es gelingt, die biografisch und demografisch relevanten Daten und Informationen in distinkte und segregierte Bausteine der weiteren Datenverarbeitungen aufzugliedern. Als ein gemischtes Medium muss sich das Profiling zwangsläufig aus heterogenen Repräsentationen zusammensetzen. Es übernimmt das Modell der Prüfung von Persönlichkeitsmerkmalen der älteren Eignungsdiagnostik und macht es zur Sache kollektiver Approbationsleistungen, um seine Wirkungsweisen zu vervielfältigen und zu verstärken. Die Profilbildung enthält Wissenstechniken, die auf binären Unterscheidungen beruhen (z.B. die Geschlechtszugehörigkeit), mit quantitativen Skalierungen operieren (z.B. hierarchische Ranking-Techniken) oder die auf die Erstellung qualitativer Profile abzielen (z.B. das Aufzeigen kreativer Fähigkeiten und Begabungen in »freien« Datenfeldern). Profile reproduzieren einerseits soziale Normen und bringen andererseits auch neue Formen von Individualität hervor. Sie verkörpern den Imperativ zur permanenten Selbstentzifferung auf der Grundlage bestimmter Auswahlmenüs, vorgegebener Datenfelder und eines Vokabulars, das es den Individuen erlauben soll, sich selbst in einer boomenden Bekenntniskultur zu verorten. Das »bedienerfreundliche« Profiling besteht in der Regel aus sogenannten Tools – das sind Checklisten, Fragebögen für Selbstevaluierung, analytische Rahmen, Übungsabschnitte, Bilanzen, Statistiken mit Kommentar, Datenbanken, Listen von Adressen und pädagogische Module zur Ermittlung individueller Fähigkeiten, Neigungen und Lieblingsbeschäftigungen. Kommerzielle Suchmaschinen analysieren mittels Behavioural Targeting die Profile ihrer Nutzer. Diese Suchtechnologie erlaubt es, auf verhaltensorientierte Kriterien wie Produkteinstellung, Markenwahl, Preisverhalten, Lebenszyklus zu reagieren und relevante Werbung zu schalten. Das Behavioural Targeting evaluiert kontinuierliche Nutzungsgewohnheiten, private Interessen und demografi-
447
448
5. Digitale Technologien und soziale Ordnungsvorstellungen
sche Merkmale und erstellt damit ein statistisches Relief pluraler und flexibler Subjektivität (vgl. Castelluccia, 2012, S. 21-33). Das wesentliche Merkmal des digitalen Targeting ist der Sachverhalt, dass das Individuum nur noch als dechiffrierbare und transformierbare Figur seiner Brauchbarkeiten in den Blick kommt. Es erzeugt ein multiples und »dividuelles Selbst« (Deleuze, 1993, S. 260), das zwischen Orten, Situationen, Teilsystemen und Gruppen oszilliert – ein Rekurs auf eine personale Identität oder ein Kernselbst ist unter dividuellen Modulationsbedingungen nicht mehr vorgesehen. Digitales Targeting ist Bestandteil umfassender Such- und Überwachungstechnologien im Netz: Das Data Mining ist eine Anwendung von statistischmathematischen Methoden auf einen spezifischen Datenbestand mit dem Ziel der Mustererkennung und beschränkt sich nicht auf die in der Vergangenheit erhobenen Daten, sondern erfasst und aktualisiert die Daten bei jedem Besuch im Netzwerk erneut in Echtzeit. Die im Internet geläufigen Surveillance-Tools ermöglichen es dem E-Commerce-Business, die jeweiligen Zielgruppen im Internet spezifischer zu identifizieren und gezielter zu adressieren. Das Marketing wächst im Internet zu einer entscheidenden Größe sozialer Regulation und die neuen Kontrollformen bedienen sich des Consumer Profiling. Mit dem digitalen Regime hat sich die computergestützte Rasterfahndung auf die Allgemeinheit ausgeweitet. Professionelle und kommerziell orientierte Consumer Profiler, die sowohl für das Marketing als auch für das E-Recruiting arbeiten, vollziehen eine Transformation des polizeilichen Wissens und sammeln ihr Wissen über die privaten Gewohnheiten der Bürger/innen mit der Akribie geheimdienstlicher Methoden. Bemerkenswert an dieser neuartigen Konstellation ist die emphatische Verankerung der Ökonomisierung des »menschlichen« Faktors in weiten Bereichen des sozialen Lebens: »Die numerische Sprache der Kontrolle besteht aus Chiffren, die den Zugang zur Information kennzeichnen bzw. die Abweisung. Die Individuen sind ›dividuell‹ geworden, und die Massen Stichproben, Daten, Märkte oder ›Banken‹.« (Ebd.) In der Argumentation von Gilles Deleuze wird nochmals deutlich, dass das numerische Prinzip als Metapher für das Funktionieren neuer gesellschaftlicher und ökonomischer Ordnungsstrukturen verwendet wird. Die neue Sprache der prognostischen Kontrolle besteht – nach Deleuze – aus Nummernkombinationen, Passwörtern oder Chiffren und organisiert den Zugang zu oder den Ausschluss von Informationen und Transaktionen. Soziale Organisationen werden wie Unternehmen geführt und werden nach der numerischen Sprache der Kontrolle codiert – vom Bildungscontrolling bis zur Rankingliste. Im Unterschied zur klassisch analogen Rasterfahndung geht es beim digitalen Data Mining nicht mehr um die möglichst vollständige Ausbreitung der Daten, sondern um eine Operationalisierung der Datenmassen, die für prognostische Abfragen und Auswertungen effektiv in Beziehung zueinander gesetzt werden können. Es verändert nicht nur die Wissensgenerierung persönlicher Daten und Informationen, sondern auch die Prozesse sozialer Reglementierung. Insofern erzeugt das computergestützte Behavioural Targeting mehr als eine technische
Ramón Reichert: Facebooks Big Data
Virtualisierung von Wissensformen, denn es transformiert nachhaltig das Konzept des Raums, was zur Folge hat, dass sich das Raster vom topografischen Raum verflüchtigt und an seine Stelle der topologische Datenraum tritt. Dieser topologische Datenraum steht in Opposition zur Anwendungsschicht, die dem Kommunikationsraum der Nutzer/innen entspricht. Das futurische Wissen (bestehend aus der statistischen Erhebungsmethode des Data Mining, der Visualisierungstechnik des Data Mapping und dem systematischen Protokollierungsverfahren des Data Monitoring) ist konstitutiv aus der Anwendungsschicht ausgeschlossen und den Nutzer/innen nicht zugänglich. Damit basiert das Zukunftswissen der sozialen Netzwerke auf einer asymmetrisch verlaufenden Machtbeziehung, welche sich in die technische Infrastruktur und in den Auf bau des medialen Dispositivs verlagert hat.
D igitale S ozialwissenschaf ten im B ack-O ffice Ich habe in den vorangegangenen Kapiteln versucht aufzuzeigen, dass Soziale Netzwerke zu gewichtigen Quellensammlungen für die statistische Massenerhebung aufgestiegen sind und neue Formen sozialwissenschaftlichen Wissens hervorgebracht haben. Ihre gigantischen Datenbanken dienen der systematischen Informationsgewinnung und werden für das Sammeln, Auswerten und Interpretieren von sozialstatistischen Daten und Informationen eingesetzt (vgl. Bollen/ Huina/Zeng, 2011, S. 1-8). In ihrer Funktion als Speicher-, Verarbeitungs- und Verbreitungsmedium von Massendaten haben soziale Netzwerke umfangreiche Datenaggregate hervorgebracht, die zur Prognose von gesellschaftlichen Entwicklungen herangezogen werden. Soziale Netzwerke haben der empirischen Sozialforschung neue Möglichkeiten der Quellenerschließung eröffnet. Das Zukunftswissen der sozialen Netzwerke überlagert zwei Wissensfelder. Die empirische Sozialwissenschaft und die Medieninformatik sind für die Auswertung der medienvermittelten Kommunikation in interaktiven Netzmedien zuständig. Die Sozialforschung sieht in den Kommunikationsmedien der Sozialen Netzwerke eine maßgebliche Kraft für die gesellschaftliche Entwicklung. Ihre Forschungsperspektive auf die informationstechnische Vergesellschaftung in multimedial vernetzten Medien hat ein Koordinatennetz unterschiedlicher Wissensquellen und Wissenstechniken entwickelt, um prognostisches Wissen herzustellen. So wird etwa die Wissensbeschaffung an Suchroboter delegiert, die auf die öffentlichen Informationen zugreifen können. Das Zukunftswissen kann aber auch zur Inszenierung von künftig zu erwartenden Konstellationen der statistischen Datenaggregate verwendet werden, wenn etwa das Facebook Data Team bestimmte Ausschnitte seiner Tätigkeiten auf seiner Webseite popularisiert. In diesem Sinne werden statistische Daten und Informationen in die Außenrepräsentation der sozialen Netzwerke eingebaut und erhalten eine zusätzliche performative Komponente.
449
450
5. Digitale Technologien und soziale Ordnungsvorstellungen
In seiner Modellierung durchläuft das Zukunftswissen unterschiedliche Felder der Herstellung, Aneignung und Vermittlung und kann als Verfahren, Argumentation und Integration eingesetzt werden. Vor diesem Hintergrund kann das Zukunftswissen als ein heterogenes Wissensfeld angesehen werden, das empirisches, formal-mathematisches, semantisches, psychologisches und visuelles Wissens in sich aufnimmt. Dementsprechend hat sich eine futurische Episteme an die Sozialen Medien angelagert und eine Vielzahl von Planungs- und Beratungspraktiken hervorgebracht, die als Multiplikatoren eines rechnerbasierten Machtgefälles und einer zeitbasierten Herrschaftsordnung auftreten. Vor diesem Hintergrund habe ich in meinem Beitrag darauf aufmerksam machen wollen, dass Prognosetechniken immer auch als Machttechniken angesehen werden können, die sich in medialen Anordnungen und infrastrukturellen Strukturen manifestieren. Das gestiegene Interesse der Markt- und Meinungsforschung an den Trendanalysen und Prognosen der Sozialen Netzwerke verdeutlicht, dass soziale, politische und ökonomische Entscheidungsprozesse hochgradig von der Verfügbarkeit prognostischen Wissens abhängig gemacht werden. Insofern berührt die Plan- und Machbarkeit des Zukunftswissens in unterschiedlichen Gesellschafts-, Lebens- und Selbstentwürfen immer auch die Frage: »Wie ist es möglich, nicht regiert zu werden?«
L iter atur Bentham, Jeremy: »A Comment on the Commentaries and A Fragment on Government«, in: James H. Burns und Herbert L.A. Hart (Hg.), The Collected Works of Jeremy Bentham, London: The Athlone Press 1977. Bentham, Jeremy: »Tracts on Poor Laws and Pauper Management«, in: John Bowring (Hg.), Works of Jeremy Bentham, (11 Bde.), Bd. 8, New York 1962. Bobley, Brett: »Announcing the 2011 Digging into Data Challenge«, Online, 2011: www.neh.gov/divisions/odh/grant-news/announcing-the-2011-digging-datachallenge (letzter Zugriff: 20. Mai 2014). Bollen, Johan: »Happiness Is Assortative in Online Social Networks,«, in: Artifical Life, 17 (3), 2011, S. 237-251. Bollen, Johan, Huina Mao und Xiao-Jun Zeng: »Twitter mood predicts the stock market«, in: Journal of Computational Science, 2(1), März 2011, S. 1-8. Castelluccia, Claude: »Behavioural Tracking on the Internet: A Technical Perspective«, in: Serge Gutwirth, Ronald Leenes, Paul De Hert und Yves Poullet (Hg.), European Data Protection. Good Health?, New York und London: Springer Verlag 2012, S. 21-33. Deleuze, Gilles: »Postskriptum über die Kontrollgesellschaften«, in: Ders. (Hg.), Unterhandlungen 1972-1990, Frankfurt a.M.: Suhrkamp 1993, S. 254-262.
Ramón Reichert: Facebooks Big Data
Doorn, van, Niels: »The ties that bind: the networked performance of gender, sexuality and friendship on MySpace«, in: New Media & Society, 12, Heft 4, 2010, S. 583-602. Eco, Umberto: Das offene Kunstwerk, Frankfurt a.M.: Suhrkamp 1977. Facebook Data Team. Continuing our study of happiness (24.10.2010), https://www.face book.com/notes/facebook-data-team/continuing-our-study-of-happiness/ 375901788858 (10. Juni 2014). Facebook Data Team. Gross National Happiness (24.10.2010), http://apps.facebook. com/gnh_index/ (1. Juni 2012). Fiske, John: Lesarten des Populären, Wien: Passagen 2000. Frey, Bruno S., und Alois Stutzer: »What can economists learn from happiness research?«, in: Journal of Economic Literature, 40, 2002, S. 402-435. Gallup: Well-being index, 2008. www.wellbeingindex.com (10. Juni 2014). Gitelman, Lisa, und Virginia Jackson (Hg.): ›Raw data‹ is an oxymoron, Cambridge MA: MIT Press 2013. Giordano, Gerard: How testing came to dominate American schools: The history of educational assessment, New York und Wien: Lang 2005. Gugerli, David, und Barbara Orland: »Einleitung«, in: Dies. (Hg.), Ganz normale Bilder. Historische Beiträge zur visuellen Herstellung von Selbstverständlichkeit (Interferenzen – Studien zur Kulturgeschichte der Technik, Band 2), Zürich: Chronos 2002, S. 9-18. Klaasen, Abbey: »The Right Ads at the Right Time – via Yahoo; Web Giant Looks to Offer Behavioral-Targeting Tools outside its Own Properties«, in: Advertising Age, 3, Februar 2007, 34-39. Kramer, Adam D.I.: »An Unobtrusive Behavioral Model of ›Gross National Happiness‹«, in: Association for Computing Machinery (Hg.), Conference on Human Factors in Computing Systems, 28, 2010, S. 287-290. Link, Jürgen (1999): Versuch über den Normalismus. Wie Normalität produziert wird, Opladen: Leske + Budrich. Manovich, Lev: »Trending: The promises and the challenges of Big Social Data«, in: Matthew K. Gold (Hg.), Debates in the digital humanities, Minneapolis: University of Minnesota Press 2012, S. 460-475. Nasukawa, Tetsuya, & Yi, Jeonghee: »Sentiment analysis: Capturing favorability using natural language processing«, in: Proceedings of the 2nd International Conference on Knowledge Capture, Florida, USA, 2003, S. 70-77. Owen, Robert: A New View of Society, New York: E.P. Dutton & Co. 1825. Pennock, Mike: »Measuring the progress of communities: Applying the Gross National Happiness Framework«, in: Measuring the Progress of Societies 2009, S. 9-10. Pennock, Mike/Ura, Karma D.: »Gross national happiness as a framework for health impact assessment«, in: Environmental Impact Assessment Review 31/1, 2011, S. 61-65.
451
452
5. Digitale Technologien und soziale Ordnungsvorstellungen
Taewoo, Nam, und Jennifer Stromer-Galley: »The Democratic Divide in the 2008 US Presidential Election«, in: Journal of Information Technology & Politics, 9/2, 2012, S. 133-149. Wald, Randall, Taghi M. Khoshgoftaar und Chris Sumner: »Machine Prediction of Personality from Facebook Profiles«, in: 13th IEEE International Conference on Information Reuse and Integration, 2012, S. 109-115. Webb, Stephen: Social Work in a Risk Society. Social and Political Perspectives, Houndmills: Palgrave Macmillan 2006. Wolf, Fredric, Russ Hobby, Sonya Lowry, Andrew Bauman, B. Robert Franza, Biaoyang Lin, Sean Rapson, Elizabeth Stewart und Eugene Kolker: »Education and data-intensive science in the beginning of the 21st century«, in: OMICS: A Journal of Integrative Biology, 15, 2011, H. 4, S. 217-219. Yogatama, Dani: Predicting the Future: Text as Societal Measurement, 2012. www. cs.cmu.edu/~dyogatam/Home_files/statement.pdf (10. Juni 2014).
Sozio-technische Imaginationen Social Media zwischen ›Digital Nation‹ und pluralistischem Kosmopolitismus 1 Martin Doll
Theorie der sozio - technischen I maginationen ›I magined C ommunities ‹ (B enedict A nderson) Eine Betrachtung des Zusammenhangs zwischen technischen Medien und politischen Imaginationen bzw. damit verbundener Ordnungsvorstellungen kommt nicht umhin, das Standardwerk von Benedict Anderson, Imagined Communities, zu konsultieren. Die etwas unglückliche Übersetzung des Titels ins Deutsche mit »Die Erfindung der Nation« mutet auf den ersten Blick wie eine Unterschätzung ihrer Wirkung an. Wenn nämlich wie im deutschen Titel das Imaginierte in Verbindung mit dem Phantasierten, Erfundenen gebracht wird, erscheint es als etwas Defizitäres, als etwas Falsches, etwas Unechtes, das erdichtet wird, das nur scheinbar da ist, obwohl es eigentlich nicht existiert bzw. so nicht der Fall ist – und damit als folgenlos abgetan werden könnte. Anderson benutzt für diese irreale Konnotation, und zwar nur an vier Stellen im ganzen Buch, den Begriff ›imaginary‹ (im Deutschen wiederum als »imaginär« oder »Phantasie-« übersetzt) (Anderson, 1983, S. 64, 117, Fn. 151 auf S. 118 und S. 227).2 Um dieser bagatellisierenden Deutung zu entgehen und seinen Gegenstand als Vorgestelltes, vor allem in seiner Wirkmächtigkeit3, ernst zu nehmen, greift Anderson durchweg auf das Wort
1 | Bei diesem Beitrag handelt es sich um eine überarbeitete und erweiterte Fassung von Doll (2014). 2 | Das Nachwort von 2006 fehlt in der deutschen Übersetzung (vgl. Anderson, 1996). 3 | Anderson ist in diesem Punkt unmissverständlich: »[T]he nation is always conceived as a deep, horizontal comradeship. Ultimately it is this fraternity that makes it possible, over the past two centuries, for so many millions of people, not so much to kill, as willingly to die for such limited imaginings.« (Anderson, 1983, S. 7)
454
5. Digitale Technologien und soziale Ordnungsvorstellungen
›imagined«4 (im Deutschen übersetzt als »vorgestellt«) zurück. Diesen Begriff der ›Vorstellung‹, den Anderson selbst nie definiert, grenzt er im 2006 hinzugefügten Nachwort zur englischen Ausgabe entsprechend scharf von einer phantastischen Erfindung »as in ›unicorn‹« (Anderson, 1983, S. 227) ab. Schon in der Einleitung befreit er in einer kurzen Kritik an Ernest Gellner (1964) den Begriff des »imagined« aus der Dichotomie »echt/falsch«, auch weil sie zwangsläufig zur problematischen – und man könnte hinzufügen: Tönnies’schen – Frage nach wahren Gemeinschaften führen müsste: »Communities are to be distinguished, not by their falsity/genuineness, but by the style in which they are imagined.« (Anderson, 1983, S. 6) Mit diesem Hinweis, sich auf die Art und Weise der Vorstellung zu konzentrieren, liefert Anderson in seinem eher gegenstandsorientierten Buch einen Anhaltspunkt, wie man seine Überlegungen in eine Methodik überführen könnte. Wenn er nämlich – zunächst eher befremdlich anmutend – das »imagined« als »rather something analogous to Madame Bovary and Queequeg« bezeichnet, also mit fiktiven Figuren von Flaubert und Melville verknüpft (Anderson, 1983, S. 227), ist für Anderson der Ort für politische Imaginationen nicht nur das explizit politische Sprechen, sondern der gesamte Bereich gesellschaftlicher Diskurse, insbesondere die Literatur und der Journalismus. Seine Analysen fragen entsprechend nach der Nation nicht als »matter-of-factly ›real‹ as in ›TV set‹«, sondern danach, wie bestimmte Gemeinschaftsvorstellungen sich historisch instituiert haben, und sei es auch vermittels der durch Roman und Zeitung bereitgestellten »technischen Mittel« (technical means) (Anderson, 1983, S. 25, 227). Der Ausdruck »technische Mittel« lässt sich wiederum zum Anlass nehmen, die genuin medienwissenschaftlichen Aspekte in Andersons Vorgehensweise stärker zu konturieren. Der Begriff des Mittels könnte ja auch so verstanden werden, dass Roman und Zeitung als Werkzeuge zur Propagierung eines bereits zuvor minutiös durchkonzipierten Nationalismus betrachtet werden. Dies wäre, um mit James Carey zu sprechen, der »transmission view« auf Medien (vgl. 1989, S. 15-18) – ein Ansatz, der mitunter in der Soziologie und der Massenkommunikationsforschung anzutreffen ist. Anderson hingegen, weit entfernt von einem solchen Inhaltismus, betont die Relevanz von bestimmten vorgängigen (u.a. medieninduzierten) kulturellen (Sub-)Systembildungen als Voraussetzung für einen erst später einsetzenden Nationalismus: »[N]ationalism has to be understood by aligning it, not with self-consciously held political ideologies, but with the large 4 | Das Beispiel, das Anderson anführt, mag diese Unterscheidung anschaulicher machen: Wenn er davon spricht, dass der javanesisch-indonesische Nationalist Suwardi Surjaningrat in einem rhetorischen Schachzug so tue, als sei er Holländer, aber um den Unterschied weiß, dann wird ›imaginary‹ von ihm mit einer expliziten Irrealität in Verbindung gebracht; im Gegensatz dazu könnte man seine Verwendung von ›imagined‹ so interpretieren, dass er etwas zwar als ein Produkt der Vorstellung begreift – beispielsweise eine bestimmte Identifikation mit anderen Gleichgesinnten –, aber im Unterschied zum ersten Fall an diese Zugehörigkeit geglaubt wird (vgl. Anderson, 1983, S. 118).
Martin Doll: Sozio-technische Imaginationen
cultural systems that preceded it, out of which – as well as against which – it came into being.« (Anderson, 1983, S. 12) Damit lässt sich aus Andersons Vorgehensweise bezüglich der Frage nach der Nation eine bestimmte medienkulturwissenschaftliche Perspektive herausarbeiten, und zwar wenn man diejenigen Passagen in den Vordergrund rückt, in denen er in Abkehr von einem ideologiekritischen, von Manipulation ausgehenden Top-down-Verständnis versucht, bestimmte (proto-)nationale Ordnungsvorstellungen bottom-up zu erklären, d.h. als Faktoren ihrer Hervorbringung alle politischen Subjekte oder vielmehr deren Praktiken und Deutungen ernst zu nehmen.5 An denjenigen Stellen, an denen Anderson nach den medial induzierten ›imagined communities‹ fragt, also z.B. danach, wie die massenhafte Erfahrung von Gleichzeitigkeit durch technische Mittel, z.B. durch die Existenz der Massenpresse, evoziert wurde, kann er sogar als Medienmaterialist betrachtet werden. Er legt seinem Konzept nämlich konkrete (Print-)Medienerfahrungen, mit Romanen, mit dem Buchdruck, mit der Zeitungslektüre, zugrunde. Diese Medienpraktiken riefen ihm zufolge zunächst bestimmte Einheits- und Zusammengehörigkeitsvorstellungen (z.B. im Wissen um eine gemeinsame Sprache oder eine gemeinsame Geschichte) hervor, welche dann zu einer Wurzel des späteren offiziellen Nationalismus wurden. Im Grunde handelt es sich bei Andersons Ansatz jedoch um eine idiosynkratische Verschmelzung von – geht man von Foucaults strikten archäologischen Grenzziehungen aus (vgl. Foucault, 1973) – eigentlich widersprüchlichen Ansätzen, genauer gesagt einer Ideen- oder Mentalitätsgeschichte einerseits und einer praxisorientierten, materialistischen Diskursgeschichte andererseits. Denn bei ihm beruht jeder soziale Zusammenhalt ebenso sehr auf Vorstellungen, wie diese wiederum allgemeiner (und subjektloser) Effekt konkreter sozialer Faktoren und medientechnischer Entwicklungen sind. Anderson zitiert in diesem Zusammenhang z.B. Hugh Seton-Watsons konstruktivistische Überlegung, »that a nation exists when a significant number of people in a community consider themselves to form a nation, or behave as if they formed one« (Anderson, 1983, S. 6), um zu ergänzen: »We may translate ›consider themselves‹ as ›imagine themselves.‹« (Anderson, 1983, S. 6) Anderson liefert dabei eine latente weitere Bestimmung des »imagined«, wenn er es an dieser Stelle implizit im Sinne des Begriffs der reproduktiven Einbildungskraft bei Kant als figürliche »Synthesis des Mannigfaltigen« verwendet, die man als Vermögen fassen könnte, eine Einheit/Ganzheit zu imaginieren, eine Pluralität in eins zu bilden, sie als Entität vorzustellen (Kant, 1995, S. 148f. [KrV, B 151f.]). Übertragen auf die Sphäre des Sozialen bestünde diese Kraft mithin darin, sich als Individuum als Teil einer Gesamtheit, als zusammengehörig zu betrachten – eine Betrachtungsweise, die dadurch analytisch notwendig diejenigen sozio-historischen Aspekte privilegiert, die als Vorstufe des späteren offiziellen Nationalismus betrachtet werden können.6 5 | Vgl. dazu insbesondere das Nachwort von Anderson (1983, S. 227). 6 | Für dieses – wenn man so will – harmonistische Modell wurde Anderson auch häufig kritisiert, z.B. weil in seinem Ansatz der ausschließende Charakter, die Differenzsetzung zu
455
456
5. Digitale Technologien und soziale Ordnungsvorstellungen
Vor diesem Hintergrund lässt sich der mediale Aspekt der ›imagined communities‹ bei Anderson in einem Zweischritt genauer herauspräparieren, insofern man erstens die genannte Ganzheit als abstrakte – letztlich non-mediale – Entität versteht, als Gesamtheit, die aufgrund ihrer Ausdehnung nur vorgestellt werden kann: Die Bevölkerung einer »ganzen Nation« ist z.B. streng genommen in ihrer Mannigfaltigkeit visuell nicht zu erfassen bzw. zu repräsentieren. Hingegen ist es durchaus möglich, eine generelle Vorstellung davon zu entwickeln. Zweitens zeigt sich die Verbindung dieser »vorgestellten Gemeinschaften« zu medialen Dispositiven darin, dass die genannten abstrakten Identitätsvorstellungen technisch vermittelt, also durch Kommunikationsmedien oder visuelle Medien überhaupt erst entstehen oder sich mit dem Wandel der Medien (mitsamt dem Wandel ihrer Praktiken) historisch verändern. Zum Beispiel ergibt sich für Anderson aus der historischen Erfahrung der gleichzeitigen (morgendlichen) Zeitungslektüre, die dadurch zwangsläufig eine gewisse Taktung erfährt, dass ihr Gehalt (im Laufe des Tages) automatisch veraltet, die Vorstellung eines simultanen, synchronisierten, koordinierten Handelns aller Mit-Leser: »An American will never meet, or even know the names of more than a handful of his 240.000.000-odd fellow-Americans. He has no idea of what they are up to at anyone time. But he has complete confidence in their steady, anonymous, simultaneous activity.« (Anderson, 1983, S. 26) Durch diese Medienpraxis der getakteten Zeitungslektüre, welche zudem durch die (gedruckte) Schriftsprache die Erfahrung eines eigenen einheitlichen Sprachbereichs ermöglichte, entstanden für Anderson die abstrakten Vorstellungen der ›imagined communities‹, wie Anderson – paradoxerweise – mit visuellen, man könnte also sagen mit metaphorischen Begriffen erläutert: »[T]hey did come to visualize in a general way the existence of thousands and thousands like themselves through print-language.« (Anderson, 1983, S. 77; Hervorh. M.D.) Dieselbe mit Vorstellungen einer Totalität verknüpfte Bildlichkeit wird ebenso an anderer Stelle aufgerufen: »[T]he nation […] is imagined because the members of even the smallest nation will never know most of their fellow-members, meet them, or even hear of them, yet in the minds of each lives the image of their communion.« (Anderson, 1983, S. 6; Hervorh. M.D.) Mit dem Begriff der »communion« wiederum, der sich nicht nur als Gemeinschaft, Verbundenheit, sondern direkter noch als Zeichen seiner religiösen Wurzeln als Kommunion übersetzen lässt, schreibt Anderson dem zeitlich nahezu synchron verlaufenden gemeinsamen Mediengebrauch, ohne den Begriff zu benutzen, einen rituellen Charakter zu (vgl. Marchart, 2004, S. 68). Diesem Ritus kommt außerdem eine gewisse Skalierung zu. Denn er findet laut Anderson nicht nur imaginär statt, sondern wird auch alltagsweltlich bestätigt, indem er dem einzelnen Rezipienten konkret zur Anschauung kommt, etwa wenn ein Zeitungsleser andere Kunden beim Friseur oder seine Hausnachbarn dabei beobachten Anderen, verbunden mit Begriffen wie Feindschaft, Ausschluss, Konflikt völlig fehlten; vgl. zu einer Zusammenfassung dieser Kritiken: Mergel (1996, S. 292-296).
Martin Doll: Sozio-technische Imaginationen
kann, wie sie dieselbe Zeitung rezipieren (Anderson, 1983, S. 35f.). Obwohl es sich dabei um eine Art säkularisiertes Ritual handelt, wird es als eine Transzendenzerfahrung geschildert und in einen religiösen Zusammenhang gerückt: So wird beispielsweise das Zeitunglesen als Zeremonie des zeitlich aufeinander abgestimmten Mediengebrauchs mit Augenzwinkern ins Bildfeld der Eucharistie, der gemeinsamen Einnahme der Hostie gerückt, nämlich beschrieben als »mass ceremony: the almost precisely simultaneous consumption (›imagining‹) of the newspaper-as-fiction« (Anderson, 1983, S. 35).7 Wie beim christlichen Abendmahl erlebten sich die Kommunikanten dabei als Teil einer unüberschaubaren und anonymen Gemeinschaft (»community in anonymity«) (Anderson, 1983, S. 36).8 Diese Anonymität, verbunden mit einer in diesem Maßstab nur im Zeitalter des Buchdrucks medientechnisch aktivierbaren Masse an Menschen, bildet Andersons Argumentation zufolge den Kern proto-nationalistischer Gemeinschaften: »Yet each communicant is well aware that the ceremony he performs is being replicated simultaneously by thousands (or millions) of others of whose existence he is confident, yet of whose identity he has not the slightest notion. Furthermore, this ceremony is incessantly repeated at daily or half-daily intervals throughout the calendar. What more vivid figure for the secular, historically clocked, imagined community can be envisioned?« (Anderson, 1983, S. 35)
Diesem materialistischen Zusammenhang von Medientechniken und Zusammengehörigkeitsvorstellungen hat sich Anderson vor allem im 18. Jahrhundert gewidmet. Hier soll nun die Frage aufgeworfen werden, ob man im Anschluss an seine Studien nicht nur nach historischen Vorläufern der Idee des Nationalstaats forschen kann, sondern auch nach anderen, nicht zwingend nationalen Imaginationen, wie z.B. nach gegenwärtig mit Social Media verbundenen Vorstellungen von Kollektivität. Andersons Diktum: »In fact, all communities larger than primordial villages of face-to-face contact (and perhaps even these) are imagined« (Anderson, 1983, S. 6)9 soll dabei aktualisiert und diskursanalytisch nach dem Wie dieser Vorstellungen hinsichtlich ihrer medientechnischen Grundlagen gefragt werden. 7 | In einem eigenen Kapitel über religiöse Gemeinschaften wird von Anderson herausgearbeitet, wie sehr alle großen Glaubensgemeinschaften über das gemeinsame Medium einer jeweils heiligen Sprache, z.B. im Christentum das Latein, vorgestellt wurden (Anderson, 1983, S. 13f.). 8 | Bereits Hegel hat die Zeitungslektüre in einem Aphorismus als eine das Individuum transzendierende Erfahrung gedeutet: »Das Zeitungslesen des Morgens früh ist eine Art von realistischem Morgensegen. Man orientiert seine Haltung gegen die Welt an Gott oder an dem, was die Welt ist. Jenes gibt dieselbe Sicherheit wie hier, daß man wisse, wie man daran sei.« (Hegel, 1986, S. 547) 9 | Mit dem Hinweis auf dieses »perhaps even these«, der in der deutschen Übersetzung bezeichnenderweise fehlt, entgeht Anderson dem Narrativ eines historischen Verlusts
457
458
5. Digitale Technologien und soziale Ordnungsvorstellungen
Als fast schon wieder historisches Beispiel könnte man den mit dem Internet – bzw. mit der Metapher des Netzes – verbundenen, heftig diskutierten Begriff der ›Multitude‹ (vgl. Hardt und Negri, 2000; 2004; Negri, 2003) aus dem Jahr 2000 mit dem Begriff der ›imagined community‹ fassen. So können die Vernetzungsmöglichkeiten des Internets als Initiatoren eines neuen Zusammengehörigkeitsgefühls angesehen werden, so dass die Technik oder vielmehr ihr ritueller Aspekt im Sinne Andersons eine ›Multitude‹ hervorzubringen scheint, die zugleich global handelt, aber dezentral organisiert ist. Hardt und Negri schreiben z.B. über den »democratic mechanism« (Hardt und Negri, 2000, S. 298) des Internets: »It seems to us, in fact, that today we participate in a more radical and profound commonality than has ever been experienced in the history of capitalism.« (Hardt und Negri, 2000, S. 302) Hier ließe sich das »experienced« problemlos mit »imagined« ersetzen und damit insgesamt die Frage aufwerfen, auf welche konkreten Netzpraktiken Hardt und Negri diese ›commonality‹ zurückführen.10 Im Folgenden soll jedoch eher nach aktuelleren Ausprägungen technikgestützter Kollektivität gefragt werden, wie sie sich derzeit in den Diskussionen um Social Media finden, und der Versuch unternommen werden, dabei einen Unterschied zu den mit Computer und Internet in den 1990er Jahren verbundenen (Ordnungs-)Vorstellungen herauszuarbeiten. Zuvor jedoch soll der rituelle Aspekt geteilter Medienpraktiken, der bereits bei Anderson ansatzweise herausgearbeitet wurde, unter Zuhilfenahme weiterer Theoretiker vertieft werden.
R itualistische M odelle des M ediengebr auchs Die Stärke des aus Andersons Vorgehensweisen herauspräparierten medienwissenschaftlichen Ansatzes besteht darin, sich etwa im Bezug auf die Presse weniger auf konkrete journalistische Redaktionsinhalte, sondern auf die Dispositive der Informationsvergabe zu konzentrieren,11 sei es die (zeremonielle) zeitliche traditionaler auf einer bestimmten Territorialität beruhenden Gemeinschaft, wie es z.B. von Rheingold als Vorstufe seiner ›Virtual Communities‹ entwickelt wird (Rheingold, 1993). 10 | Der Begriff des Mechanismus lässt sich auch zum Anlass nehmen, die unbegründet vorausgesetzte historische Notwendigkeit in der Argumentation der Autoren in Zweifel zu ziehen. Jacques Rancière hat mit dem Verdikt »onto-technological trick« indirekt Hardt/Negri als dogmatisch marxistisch kritisiert, weil sie eine technisch dominierte Geschichtsteleologie verfolgten, die technische Neuerungen per se als Erfüllung historischer Notwendigkeiten ansähen und so – während sie die konkreten Produktionspraktiken vernachlässigten – von der durch das Internet hervorgerufenen Dematerialisierung von Produkten völlig unzulässig auf das Ende ihrer Warenförmigkeit und eine neue »true community« (»wahre Gemeinschaft«), z.B. der »creative commons«, schlössen (vgl. Rancière, 2009, S. 78f.). 11 | Der Begriff des Dispositivs wird hier verwendet, weil Anderson in seiner Fokussierung auf das Wechselverhältnis von technischen Gegebenheiten und sich herausbildenden kon-
Martin Doll: Sozio-technische Imaginationen
Taktung durch Morgen- und Abendausgaben der Tageszeitungen oder die Erfahrung von Gleichartigkeit im Medium der Vernakularsprachen innerhalb eines Sprachgebiets.12 Diese Stärke lässt sich jedoch auch als Schwäche auslegen, insofern sich der Eindruck aufdrängt, als entstünden die ›imagined communities‹ im Zusammenhang mit der Zeitungslektüre völlig unabhängig von irgendwelchem dort sozial geteilten Wissen. Ohne den medienwissenschaftlichen Fokus aufgeben zu müssen, lässt sich, Oliver Marchart folgend, dieses Defizit in Andersons Ritualmodell ausgleichen, indem man sie durch die Überlegungen James Careys zum Identifikationspotential von journalistischen Inhalten ergänzt13 – ein Identifikationspotential, das weniger durch einzelne Informationen oder deren formale Gestaltung begründet wird, sondern durch ein bestimmtes Verhältnis zwischen den konkreten Inhalten und den Rezipienten. Careys Ansatz eröffnet somit die Möglichkeit, ohne inhaltsorientiert werden zu müssen, über die konkreten Medienpraktiken hinaus semantische Gehalte zu berücksichtigen und zudem die Wirkmächtigkeit kreten Medienpraktiken einem Technik- oder Mediendeterminismus entgeht. So vermeidet seine Argumentation auch die entsprechenden Monokausalitäten, wenn er z.B. betont, dass der Buchdruck nur seine epochalen Auswirkungen zeitigen konnte, weil er im Gegensatz zu China, wo ähnliche Techniken schon Jahrhunderte früher existiert hatten, in Europa mit dem sich entwickelnden Kapitalismus zusammentraf, so dass die Zirkulation bzw. Vermarktung von Büchern durch Druckereien und Verlage vorangetrieben wurde (Anderson, 1983, S. 44). 12 | Ein weiterer Schwerpunkt in Andersons Argumentation, nämlich die Erfahrung von Gleichzeitigkeit, die durch die formale Gestaltung des Romans ermöglicht wird, fällt allerdings aus dem medienwissenschaftlichen Raster, insofern dabei die formale Gestaltung, also nicht die Zirkulationsform, sondern inhaltlich-ästhetische Aspekte im Vordergrund stehen (vgl. Anderson, 1983, v.a. S. 25-32). 13 | In seinem ansonsten äußerst instruktiven Buch Techno-Kolonialismus geht Oliver Marchart in seiner Kritik an Anderson sogar so weit, ihm vorzuwerfen, »durch seine Konzentration auf das Waren- resp. Konsumtionsritual […] generell vom Inhalt abzusehen«. Dabei argumentiert Marchart anachronistisch, nämlich so, als gäbe es schon eine Ideologie der Nation, die sich in den Zeitungsinhalten widerspiegele und von Anderson ignoriert werde, obwohl es diesem ja darum zu tun ist, deren Vorgeschichte im 19. Jahrhundert, also vor dem Zeitalter des offiziellen Nationalismus und Imperialismus, zu schreiben. Auch übersieht Marchart den gemeinschaftsstiftenden inhaltlichen Effekt der von Anderson hervorgehobenen Gleichsprachigkeit der Presseerzeugnisse. Nach eigenem Bekunden folgt Marchart dabei Glenn Bowman, der jedoch weniger harsch argumentiert und Anderson im wesentlichen einen Technikdeterminismus unterstellt, ihm aber im Gegensatz zu Marchart zugesteht, zumindest implizit den Medieninhalten ein gewisses Identifikationspotential zuzuschreiben. Obwohl Marchart in seiner etwas pauschalen Verurteilung Andersons also unrecht hat, erscheint die von ihm vorgeschlagene Erweiterung des Ritual-Modells um Überlegungen von James Carey aus den genannten Gründen sinnvoll (vgl. Marchart, 2004, S. 70, zu Carey vgl. S. 55-64; vgl. auch Bowman, 1994, S. 140).
459
460
5. Digitale Technologien und soziale Ordnungsvorstellungen
bestimmter Zuschreibungen und Funktionsmodelle diskursanalytisch genauer zu fassen zu bekommen. In seinem Standardwerk Communication as Culture skizziert Carey einen »ritual view« auf Kommunikation und grenzt ihn von dem bereits erwähnten »transmission view« ab. Während Letzterer sich erst im 16. Jahrhundert im Zeitalter der Entdeckungen herausgebildet habe und mit der Vorstellung von Informationstransport einhergehe, bilde der deutlich ältere »ritual view« eine Art (religiöses) Beziehungsmodell und stelle Kommunikation in Verbindung mit Begriffen wie Teilen (»sharing«), Teilhabe (»participation«), Verein (»association«) und Kameradschaft (»fellowship«) sowie mit einem gemeinsamen Glauben (»the possession of a common faith«). Nicht umsonst habe der Begriff der Kommunikation gemeinsame etymologische Wurzeln mit Begriffen wie Gemeinsamkeit (»commonness«), Verbundenheit/Kommunion (»communion«) und Gemeinschaft (»community«). Während für Carey das Übertragungsmodell für die Ausweitung von Mitteilungen im Raum mit dem Zweck zu kontrollieren steht, rückt das Ritualmodell eher die heilige Zeremonie ins Zentrum, die Personen in Kameradschaft und Gemeinschaftlichkeit (»commonality«) verbindet: »A ritual view of communication is directed […] toward the maintenance of society in time; […] the representation of shared beliefs.« (Carey, 1989, S. 18f.)14 Den medial geteilten Inhalten kommt dabei eine soziale Kohäsionskraft zu, weil dadurch Gemeinsamkeiten sichtbar würden und die Inhalte – wie ein Spiegel – eine Art Aushandlung und Bestätigung eines gesellschaftlichen Selbstverhältnisses, den Abgleich eines Eigenbilds mit einem fremden ermöglichen würden: »This projection of community ideals and their embodiment in material form – dance, plays, architecture, news stories, strings of speech – creates an artificial though nonetheless real symbolic order that operates to provide not information but confirmation, not to alter attitudes or change minds but to represent an underlying order of things, not to perform functions but to manifest an ongoing and fragile social process.« (Carey, 1989, S. 19; Hervorh. M.D.)
Die paradox anmutende Formulierung »künstlich, aber nichtsdestoweniger wirklich« (»artificial though nonetheless real«) – an anderer Stelle spricht Carey von illusorischen gemeinsamen Überzeugungen (»shared if even illusory beliefs«) (Carey, 1989, S. 43) – lässt sich vor dem Hintergrund der weiter oben entfalteten Überlegungen als handlungsleitende Wirkung von Gemeinschaftsvorstellungen übersetzen. Diese Erweiterung hat weitreichende Implikationen für die Betrachtung der politisch-imaginären Dimension von Medientechniken, deren Bedeutung nun multikausal gedacht werden kann: Erstens kann mit Anderson die Her14 | Carey ist dabei deutlich beeinflusst von Harold Innis’ Überlegungen zu den soziopolitischen Implikationen von zeitüberbrückenden mündlichen bzw. raumüberbrückenden schriftlichen Kulturen (vgl. Carey, 1967, S. 5-9; Innis, 1950; Innis, 1991).
Martin Doll: Sozio-technische Imaginationen
ausbildung gemeinschaftsstiftender Rezeptionszeremonien auf die Entwicklung einzelner Medientechniken zurückgeführt werden. Um einem Technikdeterminismus zu entgehen, müssen diese jedoch in Verbindung mit zeitspezifischen Instituierungen gedacht werden, d.h. bestimmten ökonomischen Einrichtungen (z.B. Buchmarkt) und politisch-administrativen bzw. juristischen Organen, die die Distribution der Imaginationen und Rituale jeweils mitbeeinflussen, indem sie sie steuern, stabilisieren, verbieten oder deregulieren. Zweitens lässt sich diese Perspektive, folgt man Carey, um die inhaltliche Komponente der aushandelnden Verständigung über – wenn man so will – bestimmte Weltbilder ergänzen (»a particular view of the world is portrayed and confirmed«). Dabei absolvieren die Mediennutzer eine Art Parforceritt zwischen widerstreitenden Kräften und Positionen, bei der sie selbst, je nach ›story‹, verschiedene Haltungen einnehmen (und aus diesen heraus dem Rezipierten zustimmen oder es ablehnen). Nachrichten wären dann weniger auf ihre Inhalte zu befragen, sondern auf ihre Funktionen, z.B. in uns – auf der Grundlage der von uns eingenommenen sozialen Positionen – eine gewisse Beteiligung hervorzurufen (Carey, 1989, S. 20f.). Wendet man diese Untersuchungsperspektive insbesondere auf Diskursivierungen der sozialen Funktionen von Medien an, ergibt sich ein dritter vielversprechender Forschungsansatz, nämlich, wie man in Anlehnung an Niels Werber formulieren könnte, »Medien für Selbstbeschreibungsformeln der Gesellschaft zu verwenden«, d.h. Diskurse über Medien als Selbstauskünfte gesellschaftlicher Leitkonzepte zu lesen, indem man davon ausgeht, dass zeitspezifische politische Imaginationen jeweils in historische Techniknarrative eingelassen sind (Werber, 2007, S. 187).15 Ähnlich schreibt Carey bereits 1989: »Stories about technology […] play a distinctive role in our understanding of ourselves and our common history.« (Carey, 1989, S. 9) Auch die noch zu untersuchenden (imaginären) Auswirkungen von ›neuen Medien‹ wären in diesem Zusammenhang in einem Dreischritt zu verstehen und analytisch zu unterscheiden. ›Social Media‹ können dann erstens als Techniken verstanden werden, die, insofern sie neu sind, nach einer gewissen Zeit zu bestimmten Institutionalisierungen wie auch zu einer konkreten habitualisierten Nutzung16 führen und dadurch gesellschaftlich wirksam werden, indem sie u.a. spezifische sozio-technische Imaginationen hervorbringen (Anderson); zweitens als Informationsträger, die es ermöglichen, das (weltanschauliche) Wissen einer Epoche auszuhandeln und zu organisieren (Carey); und drittens schließlich als Mediendiskurs in sensu strictu, wenn eine bestimmte Plattform wiederum selbst Dis15 | Wie man den Begriffen unverkennbar ablesen kann, ist Werber deutlich beeinflusst von der Systemtheorie und deren Theorem der »kommunikative[n] Unerreichbarkeit der Gesellschaft«. Die »imaginären Konstruktionen der Einheit des Systems, die es ermöglichen, in der Gesellschaft zwar nicht mit der Gesellschaft, aber über die Gesellschaft zu kommunizieren«, nennt Luhmann »›Selbstbeschreibungen‹ des Gesellschaftssystems« (Luhmann, 2006, S. 866f.). 16 | Vgl. zu diesem Prozess der »Habitualisierung der Dispositive«: Spangenberg (2001, S. 217 und 220).
461
462
5. Digitale Technologien und soziale Ordnungsvorstellungen
kursgegenstand wird und gewisse Zuschreibungen erfährt, die über gesellschaftliche Selbstbilder oder Selbstbeschreibungsformeln Auskunft geben (Werber). In einem weiteren Schritt könnte man diese Selbstbilder wiederum als normativ, also als handlungsleitend begreifen, insofern sie z.B. entweder ein solidarisches oder ein individualistisches Agieren verstärken. Dieser Ansatz ließe sich, Carey folgend, mit Clifford Geertz’ Unterscheidung zwischen interpretativen »models of« und praxisleitenden »models for« in Verbindung bringen (vgl. Geertz, 1973, S. 93 und 123). Während ersteres als Modellbildung verstanden werden kann, bei dem die Welt etwa durch Theorien interpretiert wird (z.B. erklären wir uns, wie Dämme funktionieren), besteht der »model for«-Aspekt darin, dass ein bestimmtes hydraulisches Modell selbst auf die Wirklichkeit einwirkt (z.B. werden Dämme nach bestimmten aktuellen hydraulischen Modellen errichtet). Übertragen auf die hier aufgeworfene Frage, wäre der »model for«-Aspekt der Ansatzpunkt, um die politische (Handlungs-)Dimension von Beschreibungen medialer Ordnungen sichtbar zu machen, beispielsweise indem man zu Tage fördert, inwiefern diese als Fundus für Handlungsbegründungen dienen. Beiden model-Perspektiven wohnt eine gewisse Zeitlichkeit des Imaginierten inne, insofern sich beim »model of«-Aspekt eine Nachträglichkeit einschreibt, weil von etwas Vorgängigem ex post ein Modell erstellt wird, z.B. eine Pluralität als Ganzheit vorgestellt wird, während dem »model for«-Aspekt eine Zukünftigkeit innewohnt, weil das erstellte Modell ex ante für Handlungen und Konstruktionsleistungen steht, z.B. eine konkrete Gesellschaftsvorstellung das Handeln der Individuen beeinflusst, es im Zusammenspiel mit Mikrofaktoren (Aussagesystemen, sozialen Räumen, ökonomischen Verhältnissen etc.) legitimiert oder delegitimiert, verstärkt oder schwächt. Bei der hier vorgeschlagenen Analysemethode handelt es sich also um ein dezidiert zirkuläres Vorgehen, weil kein Pol souverän gesetzt werden kann, sondern die gesellschaftlichen Transformationen medienarchäologisch als Ergebnis eines Wechselspiels zwischen, erstens, den sozialen Auswirkungen einzelner Medieninnovationen bzw. ‑praktiken, zweitens, den einzelnen kommunikativen Aushandlungen und, drittens, den dabei entstehenden wiederum handlungsleitenden (politisch interpretierbaren) Mediendiskursen erklärbar werden.17 In jedem Fall zeigt sich das sogenannte ›Soziale‹ – medienkulturwissenschaftlich reflektiert – als Effekt, d.h. die jeweiligen Beschreibungsmodelle des Sozialen wären als erste Kategorie zu sehen und nicht ein – durch einen wie auch immer gearteten Positivismus garantiertes – Soziales selbst. Das sogenannte Soziale der Medien wäre dann gleichermaßen als Resultat bestimmter Vorstellungen des Sozialen zu verstehen und damit jedoch kein bisschen weniger wirkmächtig oder real. Kommunikationsmodelle geben so einerseits Auskunft über Vorstellungen von Kommunikation; sie bestimmten möglicherweise aber auch zukünftiges Kommunikationsverhalten (sind deskriptiv und instruktiv zugleich), wie Carey betont:
17 | Vgl. dazu auch (ohne den ersteren, materialistischen Aspekt): Marchart (2004, S. 149).
Martin Doll: Sozio-technische Imaginationen
»In one mode communication models tell us what the process is; in their second mode they produce the behavior they have described.« (Carey, 1989, S. 31)18 Im Anschluss an diese theoretische Auseinandersetzung soll nun gefragt werden, welche neuen gesellschaftlichen Selbstbeschreibungen mit Social Media, allen voran Facebook und Twitter, einhergehen und welche künftigen politischen Handlungen dabei möglicherweise implizit generiert werden. Als Einstieg in den genannten Zirkel werden hier die in einschlägigen Mediendiskursen exemplarisch ablesbaren sozialen Ordnungsvorstellungen gewählt. Wie schon bei Anderson lässt sich mit diesem Ansatz vorwiegend die affirmative, inkludierende Seite der Hervorbringung einer bestimmten Gemeinschaftsvorstellung sichtbar machen; diese kann zwar problematisiert werden, aber deren Schattenseite, d.h. die Exklusionen, die Differenzsetzungen zu Anderen wie auch die Momente offener Feindschaft, die dabei miterzeugt werden, bleiben in diesem Zusammenhang unterbelichtet, wenn nicht sogar – wie der ›Dislike‹-Button bei Facebook – unverfügbar.19 An den Beispielen lässt sich jedoch zeigen, dass dieselben Medienkonstellationen zu mindestens zwei – mitunter völlig konträren – Beschreibungen und sozialen Deutungen führen, d.h., man hat es nie mit nur einer einzigen soziotechnischen Imagination zu tun, sondern mit einer Pluralität von nebeneinander bestehenden, zum Teil widersprüchlichen – und manchmal kaum erträglichen – Vorstellungen und Zuschreibungen.
18 | Dies ist – wie Ingo Schulz-Schaeffer luzide herausgearbeitet hat – der blinde Fleck der Actor-Network-Theory, und zwar dann, wenn sie die Akteur-Netzwerke aus nicht-menschlichen und menschlichen Akteuren unabhängig von den ethnotheoretischen Deutungen Letzterer zu denken beabsichtigt und dabei die hier thematisierte Form der Instruktion qua Denkmodell vernachlässigen muss. Für Schulz-Schaeffer müssen jedoch Akteurs- und Handlungszuschreibungen ebenfalls in die Theorie mit eingebaut werden – Spuren dazu fänden sich in Latours politischer Philosophie, genauer gesagt, an den Stellen, an denen er dafür votiere, »in die Deutungen der beobachteten Akteure einzugreifen und sie dazu zu bringen, ihre asymmetrischen Ethnotheorien zu symmetrisieren« (Schulz-Schaeffer, 2008, S. 141-149). 19 | Dabei handelt es sich vielleicht um einen Schwachpunkt, der viele in Konnektivitäten denkenden Modelle betrifft. Auch die Actor-Network-Theory mit ihrem Denken in Kompositionen, Zusammensetzungen und Anschlüssen (vgl. Latour, 2006) muss, wie Oliver Marchart jüngst deutlich gemacht hat, Ausschlüsse meistenteils aus dem Blick verlieren. So werde zwar von Latour vielfach die »Verknüpfung von Kontingenz und Konfliktualität« beschworen, letztendlich aber, weil es überhaupt kein Inkommensurables mehr gebe, also »alles mit allem verknüpfbar« sei, »jedes Problem aus dem Sozialen entfernt« (Marchart, 2013, S. 164).
463
464
5. Digitale Technologien und soziale Ordnungsvorstellungen
S ozio - technische I maginationen des I nterne ts Vom ›centralized‹ zum ›distributed network‹ Betrachtet man die Community-Vorstellungen, die vor allem in den 1990er Jahren, also in der Frühphase des öffentlichen Internets kursierten, waren, mit Hartmut Winkler gesprochen, vor allem »Unifizierungsphantasien« – etwa in der erneuten Konjunktur der Metapher des globalen Dorfes – vorherrschend (vgl. dazu Winkler, 1997, insbes. S. 66-80). Wollte man an dieser Stelle auf die NetzwerkDiagramme von Paul Baran aus den 1960er Jahren zurückgreifen (der sie allerdings als rein technische Modelle verstanden hat), wurde – den Diskursen zufolge – mit Computer und Internet eine Transformation sozialer Strukturen von einem ›centralized‹ und später ›decentralized network‹ hin zu einem ubiquitären ›distributed network‹ erreicht.
Abbildung 1: Paul Baran: »Centralized, Decentralized and Distributed Networks«, aus: On Distributed Communications (Baran, 1964, S. 2).
Das Internet wird dabei, wie Marchart neben Winkler herausgearbeitet hat, als Agent einer »homogenen Kommunikationssphäre« verstanden, in der immer »aktive User-Partizipanten in einem many-to-many-Medium ungehemmt interagieren« können (Marchart, 2004, S. 107 und 220). Als Negativfolie laufe dabei das Klischee des durch das Fernsehen – zumindest in der herkömmlichen Broadcast-Variante ein one-to-many-Medium mit einem »centralized« oder »decentralized network« – formatierten passiven Zuschauers, des Couch-Potato mit.20
20 | Dabei handelt es sich um ein Klischee, das schon in den 1980er Jahren etwa von David Morley im Rahmen der active audience-Ansätze innerhalb der Cultural Studies zurückgewiesen wurde (vgl. Morley, 1980; Marchart, 2004, S. 99-101).
Martin Doll: Sozio-technische Imaginationen
Als terminologisch zu Anderson passendes Beispiel wäre die von Jon Katz 1997 propagierte – trotz aller liberalistischen Befreiungsdiskurse homogene – ›Digital Nation‹ anzuführen, deren Angehörige sich dadurch auszeichneten, dass sie »connected« seien. Deren sämtliche ›citizens‹, ›a new social class‹, befänden sich nämlich auf demselben Stand der Technik bzw. dem zugehörigen Kompetenzniveau bzw. grenzten sich, verbunden mit bestimmten gemeinsamen Charakteristika (»libertarian, materialistic, tolerant, rational«), als »richer, better educated« von denjenigen ab, die von ihrem technischen Know-how her nicht mithalten könnten: »The machinery of the Internet is being wielded to create an environment in which the Digital Nation can become a political entity in its own right.« (Katz, 1997a; vgl. auch 1997b, bes. S. 78; Hervorh. M.D.) Laut André Brodocz zeichnete sich für das ›Internet‹ bereits in den 1990er Jahren ab, »sich zu einem jener leeren Signifikanten der Weltgesellschaft aufzuschwingen, mit denen dieselbe sich selbst identifiziert« (Brodocz, 1998, S. 85). Damit verbunden sei der Wunsch des Einzelnen, sich als Teil eines universellen Sozialkörpers zu imaginieren, »als Teil eines Ganzen, als Partikulares eines Universellen [zu] gelten« (Brodocz, 1998, S. 86).
Abbildung 2: Social-Media-Modell
Mit der Entstehung und Verbreitung von Social-Media-Plattformen hingegen verschieben sich gegenwärtig die Vorstellungen von computervermittelter Sozialität und die dazugehörigen imaginären (globalen) Ordnungen. Genau genommen
465
466
5. Digitale Technologien und soziale Ordnungsvorstellungen
handelt es sich um eine Mischform zwischen alten und neuen imagines: Wollte man, um diese sozialen Effekte sichtbar zu machen, auf die Diagramme von Baran zurückgreifen, müsste man das Modell des »distributed« und des »decentralized network« übereinanderlegen. Dann ergibt sich folgendes Bild (die hellgrauen Bereiche stehen für die möglichen Verbindungen, die schwarzen beispielhaft für die temporär realisierten): Das Ergebnis entspricht in etwa dem von Facebook verwendeten Key-Visual vernetzter Individuen (offensichtlich sind nicht alle Personen mit allen verbunden).
Abbildung 3: Facebook-Keyvisual 21
Einerseits können nämlich sämtliche über die entsprechenden Plattformen vernetzten Teilnehmer_innen miteinander in Verbindung treten; andererseits kommt es aber nur unter bestimmten Teilnehmer_innen zum Kontakt bzw. kann es nur kraft einer gewissen Sortierung, einem begrenzten Assemblieren zum Austausch kommen. Andernfalls würde das System nicht nur aus technischen, sondern auch aus kommunikationspraktischen Gründen schlicht unter der Komplexität zusammenbrechen. Der entscheidende Faktor liegt also in der Komplexitätsreduktion bzw. im ungesteuerten Entstehen von Abgrenzungen, Zuordnungen und (gruppierten) Kontaktaufnahmen. Wie kommen diese nun zustande? Welche politisch-sozialen Vorstellungen sind damit verknüpft? Bzw. welche einschlägigen Zuschreibungen lassen sich in den einzelnen Mediendiskursen ausfindig machen?
F acebook als soziales W erk zeug Betrachtet man die im November 2012 auf Facebook geschaltete Eigenwerbung, wird sehr deutlich eine Hybridvorstellung aus einem – wenn man so will – ›OldSchool‹-Verständnis des Internets als Agent der universellen Unifizierung einerseits und der Herausbildung von Mikrostrukturen andererseits vor Augen geführt. 21 | Facebook-Startseite, www.facebook.com, zuletzt aufgerufen am 8. März 2013.
Martin Doll: Sozio-technische Imaginationen
Abbildung 4 und 5, 6 und 7: Facebook-Eigenwerbung
In dem Film wird Facebook als soziales Werkzeug dargestellt, indem es u.a. durch die Kontextualisierung mit »Dinge[n], die Menschen benutzen, um zusammen zu kommen«, z.B. mit dem Werkzeug Stuhl, als Plattform präsentiert wird, die ein universelles und zugleich allgemein zugängliches »Zusammensetzen« erleichtert: »Jeder kann auf einem Stuhl sitzen. Und ist der Stuhl groß genug, können sie sich zusammensetzen«.22 Mit Anderson könnte man davon sprechen, dass gewissermaßen die rituelle Funktion des Stuhls vorgeführt und mit der Social-Media›Gemeinde‹ von Facebook analogisiert wird.23 Dabei kommt es zur Zuschreibung einer homogenen sozialen Praxis des »Facebook-Users«, die es erlaubt, sämtliche Differenzen zu überbrücken und eine weltweite Gemeinschaft aller Social-MediaNutzer zu bilden. Dies zeigt sich auch auf der Ebene der Protagonisten: So wird mit einem Querschnitt von Personen verschiedener Lebensalter, Lebensformen und geografischer Herkünfte operiert.24 Die Unifizierungsphantasien finden sich an vielen anderen Stellen durch weitere Analogien repräsentiert: So wird der Vergleich mit »einer großen Nation« – wieder visualisiert in einer fiktiven, aber der bekannten Ikonografie politischer Aufstände folgenden Bildwelt – angestrengt, »von Menschen aufgebaut, damit es einen Ort gibt, an dem sie sich zu Hause fühlen« (TC 1:03). Zum einen reagiert Facebook in seiner Selbstbeschreibung bzw. -bewer22 | ›Facebook-Eigenwerbung‹, www.facebook.com, zuletzt aufgerufen am 22. November 2012, TC 0:19 u. 0:34. Im Folgenden werden die Timecodes in Klammern im Haupttext angeführt. 23 | Weitere Analogisierungen werden im Film u.a. mit Türklingeln, Flugzeugen und Brücken vorgenommen. 24 | Marchart würde dieses Feiern einer kulturellen Differenz als »rassistischen Maskenball eines Fests der Kulturen« bezeichnen (Marchart, 2004, S. 220).
467
468
5. Digitale Technologien und soziale Ordnungsvorstellungen
bung damit auf die breit diskutierte Frage, ob Social Media maßgebliche Auslöser der politischen Umwälzungen beispielsweise in Tunesien oder Ägypten gewesen waren (vgl. Doll, 2011). Zum anderen wird durch eine rein visuelle Behauptung Zustimmung zu dieser These suggeriert, um dadurch Facebook – das ja in erster Linie ein Geschäftsmodell ist – zum wirkungsmächtigen politischen Werkzeug aufzuwerten. Anders gesagt: Es wird so getan, als seien die Interessen des US-Konzerns ›Facebook Inc.‹ identisch mit den Revolutionsbestrebungen auf dem Tahrir-Platz im Frühjahr 2011. Nicht von ungefähr wird der Zuschauer im Anschluss daran mit dem Symbolbild des blauen Planeten – verbunden mit der Silhouette eines fiktiven Kontinents (TC 1:08) – an das »Whole Earth Movement« und den weltbürgerlichen Counterculture-Universalismus der 1960er Jahre erinnert (vgl. Turner, 2006).25
Abbildung 8 und 9: Facebook-Eigenwerbung
Abbildung 10: Facebook-Eigenwerbung 25 | Diese Diskurse lassen sich jedoch nicht nur mit Computer und Internet in Verbindung bringen: Lorenz Engell hat beispielsweise dieses Reflexivwerden globaler Gleichzeitigkeit im Bild der vom Weltraum aus gezeigten Erde in den Zusammenhang des Fernsehens gerückt. Er macht daran einen Schemawechsel fest, vom Paradigma der Übertragung hin zu einem der Selektion. Wie er in Anlehnung an Luhmann formuliert, lässt das Fernsehen bei der Übertragung der Mondmissionen, d.h. im Zeigen des Blicks auf die Erde, seinen Möglichkeitsraum, »alles zu jeder Zeit an jedem Ort sichtbar werden« lassen zu können, Form annehmen (Engell, 2003, S. 60-62); vgl. zu mit dem Fernsehen verbundenen Strukturvorstellungen eines »global whole«: Dienst (1995, v.a. Kap. 1, S. 3-35).
Martin Doll: Sozio-technische Imaginationen
Auf der anderen Seite ergänzt das Werbevideo diesen Whole-Earth-Kosmopolitismus mit Images von kleineren Sozialitätsformen in Mikro- bis Makro-Skalierungen, verbunden mit engeren bis loseren Bindungen: Paar, Familie, kleine Diskussionsgruppe, Stadion. Dabei wird in der Montage eine Art filmischer Syllogismus erzeugt und damit implizit die These aufgestellt, dass die Ansprüche, Erwartungen und Verpflichtungen, die die Akteure in den betreffenden Gruppengrößen jeweils geltend machen, in allen Beziehungsformen identisch oder zumindest vergleichbar seien und auf einen weltbürgerlichen Philanthropismus hochgerechnet werden könnten – ein Ansatz, den man z.B. schon in den Überlegungen von Edmund Burke zur Französischen Revolution findet: »To be attached to the subdivision, to love the little platoon we belong to in society, is the first principle (the germ as it were) of public affections. It is the first link in the series by which we proceed towards a love to our country and to mankind.« (Burke, 1790, S. 68f.)26
Abbildung 11 und 12, 13 und 14: Facebook-Eigenwerbung
Wenn man versucht, den Film genauer daraufhin zu befragen, wie diese Gemeinschaftsbildung begründet wird, wird weniger eine interessengemeinschaftliche Verschaltung (über das reflektierte Aushandeln von Inhalten) insinuiert, sondern, ähnlich dem Ansatz Benedict Andersons, eine Art rituelle Praxis simultaner Facebook-Verwendung.27 In diesem Sinne wird im Film Facebook nicht als 26 | Dieses Denken in Mikro-/Meso-/Makro-Skalierungen wird von Latour vehement in Frage gestellt (vgl. Latour et al. 2012). Mehr dazu am Ende dieses Beitrags. 27 | Marchart fasst Anderson konzise zusammen, wenn er schreibt, dass dessen rituelles Modell davon ausgehe, dass »das alltagsweltliche Rezeptionsritual selbst als das einigende Band verstanden [wird], das über Kommunikation die Community zur Kommunion führt« (Marchart, 2004, S. 74).
469
470
5. Digitale Technologien und soziale Ordnungsvorstellungen
Instrument für einen konkreten inhaltlich-kommunikativen Austausch beworben. Vielmehr wird es zur Plattform für allgemeine Gesten der Kontaktaufnahme stilisiert, streng genommen also für phatische Kommunikation, Bronisław Malinowski zufolge »a type of speech in which ties of union are created by a mere exchange of words« (Malinowski, 1923, S. 315),28 oder in den Worten des FacebookCommercials: »Vielleicht machen wir ja all’ diese Sachen, um uns daran zu erinnern, dass wir eben nicht alleine sind« (TC 1:19). Im Gegensatz zu Anderson erstreckt sich dieses ›Wir‹, dieses Kollektivsubjekt, nicht auf eine proto-nationale Community, sondern auf die Unifizierungsphantasie eines universellen Sozialkörpers der Weltgesellschaft. Darüber hinaus legt der Film nahe, dass sich das ›Wir‹ weniger mittels einer simultanen Rezeption konstituiert, sondern – wie z.B. in dem mit dem Stuhl verbundenen Ritual gezeigt – durch eine gemeinsame Praxis (ein allgemeines Produzieren und Einstellen bei Facebook).
Z wischen H acker -I ndividuum und H acker -K ollek tiv Im Dokumentarfilm We Are Legion (2012) über das in verschiedenen Konstellationen arbeitende Hacker-Kollektiv ›Anonymous‹ finden sich ebenfalls die genannten Verschränkungen der Mikro-/Makro-Vorstellungsräume: Einerseits wird dort die Neuheit der Social Media mit den bekannten technikinduzierten holistischen Idealen aus der Frühzeit des Internets verknüpft; andererseits wird die Vorstellung »glücklicher Heterogenität« (vgl. zu dieser Formulierung Koschorke et al., 2007, S. 385) evoziert. So wird zum einen von den einzelnen Mitgliedern eine homogene Welt-Community beschworen, wie ein Aktivist im Zusammenhang mit den weltweiten Protesten gegen Scientology bekundet: »We owned the world at that point«.29 Zum anderen wird in der Beschreibung von ›4chan‹, einem Bulletin Board, das als eines der Wurzeln des ›Anonymous‹-Netzwerks gilt, das Potenzial aufgerufen, dezentral Gruppen bilden zu können: »You are fuckin‹ alone until you get to 4chan. And then these people think like you. […] Then all of a sudden you are not alone. You are with fuckin‹ 500 hundred others […]. You meet your own people finally.« (TC 44:39-45:00) Dabei wird auch die fast schon klassische Netzwerk- oder eher: Schwarm-Topologie dynamischer, temporärer und dezentraler Kollektivbildung ins Feld geführt: »The ability for Anonymous to be everything and anything is its power.« (TC 5:07) Im selben Zusammenhang bringt hingegen ein anderer Interviewter – fast an Formulierungen von Anderson und Carey erinnernd – die Vorstellung einer ›Anonymous‹-Ganzheit ins Spiel: »If 28 | Als Beispiel führt Malinowski – interessant im Zusammenhang mit Facebook und Twitter – Klatsch und Tratsch zur Erzeugung einer »atmosphere of sociability« und »personal communion« an (Malinowski, 1923, S. 315). 29 | W e are L egion : The S tory of the H acktivists (USA 2012), TC 44:04. Im Folgenden werden die Timecodes in Klammern im Haupttext angeführt.
Martin Doll: Sozio-technische Imaginationen
you are an ›Anon‹, you are at home. We all like spent years in the same place looking at the same pictures, laughing at the same jokes, we pretty much were already friends, even though we’ve never ever met.« (TC 45:00-45:18) An einer anderen Stelle wird neben dem ›Anonymous‹-Netzwerk eine allein durch denselben Technikgebrauch charakterisierte Gruppenidentität der Internet-User zum globalen Mitagenten innerhalb der »arabischen Revolutionen« stilisiert: »Anonymous and the people in the Internet stood up.« (TC 1:06:00-1:06:05, Hervorh. M.D.) Fast wie in den organizistischen Körperschaftsmetaphern des 18. und 19. Jahrhunderts (vgl. Koschorke et al., 2007) wird ›das Internet‹ stellvertretend für seine weltweiten Nutzer (in seiner Funktion als Mittel zur Organisation der Aufstände im arabischen Raum) geradezu anthropomorphisiert: »It’s almost like the Internet has an actual pain. It’s like the Internet is a living thing. It’s like a conscious thing that gets up and says: ›No, you can’t do that!‹« (TC 1:06:18-1:06:26) Es wird dabei nicht nur personifiziert, sondern zu einer homogenen Entität erklärt, die als ein einziger Kollektivkörper agiert.30
E phemere S ozialität (A le x ander P scher a) Auch in dem von Alexander Pschera 2011 publizierten Essay-Bändchen 800 Millionen. Apologie der sozialen Medien oszilliert die Argumentation zwischen einem Lob des Partikularismus und dem holistischen Internet-Community-Denken der 1990er Jahre. Auf der einen Seite verweist Pschera auf den radikal individuellen »Akt des Wählens« beim ›Liken‹ eines Beitrags, um auf der anderen Seite die Individuen, die diese Wahl treffen, mit einem kollektiven »wir, die user« zu identifizieren (Pschera, 2011, S. 23). Einerseits spricht er in diesem Zusammenhang von einer radikalen Selbstbezüglichkeit (»Wenn wir das Ohr ans Netz legen, hören wir uns selbst« [Pschera, 2011, S. 24]), vor deren Hintergrund das Selbstmitteilen auf Facebook nicht im Hinblick auf den Austausch von Inhalten mit dem Kollektiv der Facebook-Freunde geschehe, sondern »auf die Selbstmotivation im Augenblick«, im »Aufweis des nackten Jetzt« (Pschera, 2011, S. 32) und zwar durch »Einzeichnung unserer Augenblicke in den Raum der Pinnwand« (Pschera, 2011, S. 58). Andererseits beschwört er eine ›verbindliche Anrufung‹ einer Totalität der Menschheit: »Das Netz stellt uns als ›soziales‹ eine sprechbare Universalsprache zur Verfügung und bietet dem utopischen Entwurf menschlicher Gemeinschaft […] neue Möglichkeiten der Verständigung und Annäherung.« (Pschera, 2011, S. 24)31 30 | Auf der Ebene der konkreten Praktiken wäre dieser fast schon naiven Selbstbeschreibung entgegenzuhalten, dass die Stärke von ›Anonymous‹ gerade umgekehrt darin besteht, dass ein wechselndes Personal unter derselben Identitätszuschreibung agiert. 31 | An dieser Stelle zeigt sich, dass die von Winkler semiotisch entwickelten Erklärungen für die an Computer und Internet geknüpften Unifizierungsphantasien nach wie vor Aktualität beanspruchen können (vgl. Winkler, 1997).
471
472
5. Digitale Technologien und soziale Ordnungsvorstellungen
Unabhängig von diesem nachweislichen Widerspruch zwischen der Beschreibung einer holistisch anmutenden Kollektivvorstellung und eines eher auf radikalen individuellen Ausdruck oder Selbstbespiegelung zielenden Gebrauchs der sozialen Medien, zeichnet sich bei Pschera aber interessanterweise etwas Neues, ein Drittes ab, das man als Emphase der Prozesshaftigkeit bezeichnen könnte. Im Gegensatz zu den meistenteils räumlichen Sozialitätsvorstellungen (der Distanzüberwindung, des Sich-Zusammensetzens, des Brückenbaus, wie sie etwa in der Facebook-Werbung aufgerufen werden) entwickelt er nämlich das zeitliche Konzept einer – wenn man so will – ephemeren Sozialität. Die Facebook-Einträge gehorchen demnach einer temporären Logik, weil sie fortwährend zu vorübergehenden Cluster-Bildungen führen, die wenige Stunden später schon keine Bedeutung mehr haben32: Die »›Gefällt mir‹-Handlung ist«, schreibt Pschera, »eine spontane Reaktion, die wenig später schon wieder vergessen ist oder rückgängig gemacht werden kann.« (Pschera, 2011, S. 22) Dadurch wird das vor allem in den 1990er Jahren aus pragmatischer Perspektive kritisierte Defizit der Online-Kommunikation, unverbindlich zu sein,33 unter anderen Vorzeichen zu einer Qualität gewendet. Für Pschera kommt in dieser Unverbindlichkeit nämlich »das Ich (Was machst du gerade?) als ein augenblickliches« zum Vorschein (Pschera, 2011, S. 29).34 Obwohl Facebook- und Twitter-Nachrichten sich durchweg durch Literalität bzw. Visualität auszeichnen, sieht Pschera in der genannten »Augenblicklich32 | Vgl. dazu auch den Beitrag »The whole is always smaller than its parts‹ – a digital test of Gabriel Tardes’ monads« von Bruno Latour, in dem er in Anlehnung an Gabriel Tardes ›Monaden‹ dafür argumentiert, dass man sich bei der Analyse solcher »partieller Gesamtheiten« (partial wholes) vom Denken in Strukturen, die sich aus der Interaktion atomistischer Individuen ergäben, verabschieden müsse. Stattdessen müsse die Betrachtung über die »circulation of differently conceived wholes« verlaufen (Latour et al., 2012, S. 592 und passim). 33 | Sibylle Krämer hat seinerzeit aus sprechakttheoretischer Perspektive betont, dass »Kommunikation in elektronischen Netzen – jedenfalls im Prinzip – auf der Außerkraftsetzung der mit Personalität oder Autorschaft verbundenen illokutionären und parakommunikativen Dimension unseres symbolischen Handelns« beruhe. Dadurch sei die Interaktion im Netz »im Horizont der terminologischen Unterscheidung von alltagsweltentlastetem ›Spiel‹ und alltagsweltverstärkendem ›Ernst‹ eher dem Spiel zugehörig« (Krämer, 1997, S. 97f.); bereits kurze Zeit danach finden sich jedoch schon kritische Reaktionen auf diese Diagnose (z.B. bei Sandbothe, 1998, S. 67f.). 34 | Obwohl hier die Beschreibung und nicht die Bewertung der einzelnen Sozialitätsvorstellungen im Vordergrund steht, könnte man selbstverständlich gegen Pschera einwenden, dass das Internet mitsamt Facebook (v.a. seit der Einführung der Timeline) ein gigantisches Speichermedium ist, das neben Alkoholexzessen am College und anderen indignierenden Fotos nichts vergisst. Pscheras Zuschreibungen decken sich aber insofern mit der gewöhnlichen Facebook-Praxis, als die meisten Postings, sobald sie zu weit in die Vergangenheit zurückreichen, in der Regel keine Beachtung mehr finden. Bezeichnenderweise gibt es bei Facebook auch keine Suchfunktion.
Martin Doll: Sozio-technische Imaginationen
keit des Erlebens« einen Regress in die Oralität«. Anstelle von Verbindlichkeiten, wie sie mit einer Dokumentkultur einhergingen, zähle die stete Aktualisierung, verbunden mit – bedenkt man die Geschichte der einzelnen Kommentare – einem stetigen Neuansetzen, Nicht-Mehr-›Liken‹, Löschen bzw. Vergessenmachen (Pschera, 2011, S. 34f., vgl. auch S. 89, 91 und 107). Diese neue, vor allem zeitliche Qualität der Social Media wird von Pschera mit einer historisch gewandelten Kollektivvorstellung verknüpft. Wenn er davon spricht, dass die Masse von Facebook eine »Masse aus Einzelgängern« (Pschera, 2011, S. 78) sei, dann wird damit radikal jede dauerhafte und stabile Sozialität wie auch Solidarität verabschiedet. Das gesellschaftliche Gefüge, das Facebook mit sich bringe, handle somit nicht mehr als Masse, verstanden als unverrückbare Totalität, sondern wie ein »flashmob«, »ist beweglich und setzt sich immer wieder neu zusammen, weil sie keine Summe ist, sondern eine Masse aus Teilen«, sie nehme »den öffentlichen Raum ankündigungslos in Besitz und gibt ihn ebenso schnell wieder frei« (Pschera, 2011, S. 79). Fast schon etwas esoterisch anmutend, aber im Sinne einer (Multitude-)Kollektivität, bei der alle individuellen Aktant_innen sichtbar und identifizierbar bleiben, spricht er bei Facebook von 800 Millionen »Waben, die sich gegenseitig durchleuchten, aber nicht miteinander verwachsen« (Pschera, 2011, S. 86, vgl. a. S. 75). Diese Beschreibung deckt sich nicht nur mit der bereits angeführten SchwarmTopologie (allerdings mit einem deutlichen Akzent auf der Temporalität), sondern auch mit gegenwärtigen Netzwerkmodellen aus der durch die Soziologie informierten Kommunikationswissenschaft, wie beispielsweise in der Definition von Andreas Wittel: »Netzwerk-Sozialität bildet den Gegensatz zu Gemeinschaft […]. [D]ie sozialen Beziehungen […] basieren nicht auf wechselseitiger Erfahrung oder gemeinsam erlebter Geschichte, sondern vorwiegend auf Datenaustausch und dem Bestreben, ›auf den neuesten Stand zu kommen‹. Netzwerk-Sozialität besteht aus flüchtigen und vergänglichen, aber dennoch wiederholten sozialen Beziehungen; aus kurzlebigen, aber intensiven Begegnungen. […] In der Netzwerk-Sozialität ist die soziale Bindung nicht bürokratisch, sondern informationell; sie entsteht auf einer projektbezogenen Basis, durch die Bewegung von Ideen, durch die Einführung von immer nur vorübergehenden Standards und Protokollen.« (Wittel, 2006, S. 163)
Diese Vorstellungen von Sozialität werden von vielen Autoren – manchmal explizit, manchmal weniger explizit – unter dem Begriff von Öffentlichkeit debattiert. Pschera operiert ebenso damit (und damit zwangsläufig auf dem theoretischen Terrain von Jürgen Habermas (1975), wenn er – völlig kongruent zum oben thematisierten Diagramm – dekretiert, dass nicht nur aus jeder Pinnwand »ein autonomer Teilbereich der Öffentlichkeit« werde, sondern dass sich dadurch die Öffentlichkeit auch enthierarchisiere und im Gegensatz zur bürgerlichen Gesellschaft »alle« zur Öffentlichkeit würden (Pschera, 2011, S. 62). Damit verbindet
473
474
5. Digitale Technologien und soziale Ordnungsvorstellungen
Pschera das utopische Ideal eines »spontanen Wirklichkeitsraum[s]«, der »umstandslos«, also weitgehend frei von gesellschaftlichen Zwängen wie Rollenzuschreibungen oder Verhaltensmustern, Kontakt ermögliche, während außerhalb des Netzes jede Spontaneität durch »komplexe Regeln, utilitaristische Funktionalisierung und Rücksichtnahme gehemmt« sei (Pschera, 2011, S. 65).
Z wischen liberalism und libertarianism (J eff J arvis) Ein weiteres aktuelles Beispiel hinsichtlich des den Social Media zugesprochenen Potentials, autarke Teilöffentlichkeiten oder, anders gesagt, Interessengemeinschaften zu ermöglichen, ist Jeff Jarvis’ Plädoyer für Publizität Public Parts. Jarvis arbeitet sich dabei explizit an Habermas ab, um dessen Modell einer einzigen Öffentlichkeit im Verweis auf Beth Novecks Konzept der ›Collaborative Governance‹ (Noveck, 2009) radikal zu verabschieden: »Die traditionelle Vorstellung von einem großen Salon, in dem jeder an den Beratungen teilhat, ist ein Missverständnis.« (Jarvis, 2012, S. 260) Im Unterschied dazu gehe es darum, uns an »unsere eigene Öffentlichkeit anzuschließen, die unseren Leidenschaften und unseren Vorstellungen von dem entspricht, was wichtig ist« (Jarvis, 2012, S. 260). Dabei handelt es sich also um ein gleichermaßen radikal miniaturisiertes wie differenziertes und individualisiertes Modell: »Öffentlichkeit fängt bei zwei Menschen an.« (Jarvis, 2012, S. 179) Durch diese Aufsplitterung ergebe sich auch eine andere politische Agenda, die nicht mehr die gesamte Gesellschaft, etwa die einer Nation zum Gegenstand habe, sondern darum, für Partialinteressen »Verbündete zu finden«, »andere um unsere Agenda zu sammeln«, »Leute zu finden, die im selben Boot sitzen« (Jarvis, 2012, S. 59). Diese interessengemeinschaftliche Parzellierung wurde schon früh als ›Balkanisierung‹ des Internets problematisiert.35 Aus der Perspektive eines großen einheitlichen Öffentlichkeitsbegriffs kann dies bedauert werden: Habermas spricht aktuell zwar nicht von Balkanisierung, aber im selben Sinne davon, dass »die Entstehung von Millionen von weltweit zerstreuten chat rooms und weltweit vernetzten issue publics« dazu führe, dass das Massenpublikum »in eine riesige Anzahl von zersplitterten, durch Spezialinteressen zusammengehaltene Zufallsgruppen« zerfalle (Habermas, 2008, S. 162). Jarvis wendet jedoch – wie zuvor schon Pschera – die Klage in eine Eloge auf die Diversifizierung als Movens von Unabhängigkeit und Eigenständigkeit: »Wir bestehen aus vielen Öffentlichkeiten, und jetzt kann man unsere zahlreichen, unterschiedlichen Stimmen hören. […] Eine einzige Kakophonie. So ist das nun mal mit der Freiheit.« (Jarvis, 2012, S. 107; vgl. auch Lingenberg 2010, S. 54-73) Rein technisch könne diese Polyphonie bei Twitter z.B. 35 | Mit »Balkanisierung« bezeichnen Van Alstyne und Brynjolfsson die Fragmentierung von Kommunikationsforen durch interessenbedingte Grenzziehungen in eine Vielzahl insularer »special interest groups« (Van Alstyne und Brynjolfsson, 2005).
Martin Doll: Sozio-technische Imaginationen
durch Hashtags organisiert und so gezielt eine Vielzahl spezifischer Öffentlichkeiten generiert werden (vgl. Jarvis, 2012, S. 195). Dennoch verfällt Jarvis, wie die anderen zitierten Stimmen auch, an anderer Stelle wieder in die Unifizierungsphantasien der 1990er Jahre, wenn er von einem homogenen ›Wir‹ der Internetnutzer, ausgehend von einem ›Uns‹ (im Kollektivsingular), als politisch mächtigem Akteur der Zukunft spricht: »Wir haben die Wahl. Es liegt an uns, der Öffentlichkeit, wie unsere neue Welt aussehen wird.« (Jarvis, 2012, S. 285) Der ungelöste Widerspruch im – manchmal mehr, manchmal weniger explizit formulierten – Zusammentreffen der Idee der Universalisierung auf der einen Seite mit einem Narrativ der Vielstimmigkeit auf der anderen Seite, lässt sich auf uramerikanische Ideale während der Gründung der Vereinigten Staaten zurückverfolgen.36 Denn genau genommen findet sich schon ab Ende des 18. Jahrhunderts, im Zusammenhang mit der Unabhängigkeit der USA bzw. der späteren Unterzeichnung der Verfassung und den Amtszeiten der ersten Präsidenten, dieselbe Duplizität aus Ganzheitsvorstellung und Partikularismus. So sprach sich 1806 Thomas Jefferson in einer seiner Reden für den massiven und flächendeckenden Ausbau von Straßen und Wasserwegen aus, um sicherzustellen, dass die Vereinigten Staaten ihrem Namen gerecht werden und ihre Einheit gefestigt wird: »New channels of communication will be opened between the states, the lines of separation will disappear, their interest will be identified and their union cemented by new and indestructible ties.« (Jefferson, 1854, S. 68)37 Bereits zuvor findet sich aber auch schon die Gegenposition, ein radikales Plädoyer für einen demokratischen Pluralismus. In den unter Pseudonym zusammen mit Alexander Hamilton und John Jay verfassten Federalist Papers zur Verteidigung der neuen Verfassung rechtfertigte James Madison 1787/88 in New Yorker Zeitungen den Föderalismus gegen anti-föderalistische Kritiker, die das Staatenkonstrukt für zu groß hielten, um es als ein funktionierendes politisches System zu akzeptie36 | Insgesamt fungieren neben der Magna Charta vor allem die Grundfesten der USamerikanischen Demokratie, wie die Unabhängigkeitserklärung, die amerikanische Verfassung wie auch die Bill of Rights, sehr häufig als Repertoire für das Verständnis medialer Konfigurationen des Internets. Wie sehr Beschreibungen des Internets mit US-amerikanischen Gründungsmythen verwoben sind, hat Marchart sehr instruktiv auch an den Analogisierungen des Cyberspace mit dem Frontier-Mythos herausgearbeitet (vgl. Marchart, 2004, v.a. S. 131-148 und S. 152-158); wie bereits zuvor der Wettlauf um die Eroberung des Alls ähnliche Reaktualisierungen dieses Mythos zur Folge hatte, wird von Claus Pias (2008) gezeigt. 37 | Carey sieht darin im Zusammenhang einer allgemeinen Reflektion über die po-litischen Implikationen von Kommunikationstechniken innerhalb der US-amerikanischen Politikgeschichte einen wiederkehrenden Topos, insofern Kommunikations- und Trans-porttechnologien immer wieder zugesprochen wurde, die Idee der lebendigen (oralen) De-mokratie der griechischen Polis auf den ganzen nordamerikanischen Kontinent auszuweiten (Carey, 1989, S. 3f. und 7f.).
475
476
5. Digitale Technologien und soziale Ordnungsvorstellungen
ren u.a. weil sie das potentielle Abdriften in eine neue Tyrannei befürchteten. In seiner berühmten Entgegnung führte Madison schon dieselben Argumente ins Feld, die hier bereits, vor allem von Jarvis, im Zusammenhang mit Social Media angeklungen sind. Denn er betont, dass die durch die extreme Ausdehnung der USA mögliche radikale Vielfalt an Interessen und Gruppen keine Gefahr, sondern eine Chance sei, weil dadurch jede Form von Despotismus von vornherein verhindert werden würde: »Extend the sphere and you take in a greater variety of parties and interests; you make it less probable that a majority of the whole will have a common motive to invade the rights of other citizens; or if such a common motive exists, it will be more difficult for all who feel it to discover their own strength and to act in unison with each other.« (Madison, 2008, S. 54) 38
Kehrt man vor diesem Hintergrund noch einmal zu Jarvis’ Überlegungen zurück, wird deutlich, wie sehr darin diese föderalistisch-republikanische Tradition unter neoliberalen Vorzeichen aktualisiert und fortgeschrieben wird. Wenn er schreibt: »Das Entscheidende sind jetzt die Beziehungen« (Jarvis, 2012, S. 239) und dem hinzufügt, dass es dadurch möglich werde, »auf neue Weise zusammenzukommen und leichter einen Klub, einen Kult, ein Unternehmen, einen Markt, eine Revolution oder Lenkungsmechanismen außerhalb der Regierung zu organisieren« (Jarvis, 2012, S. 85), so ist dies als überdeutlicher Ausdruck einer Amalgamierung politisch-liberaler und wirtschaftsliberaler Gedanken zu lesen. Die rhetorische Strategie, freiheitliche politische und ökonomische Interessen durch die Gleichordnung in der Aufzählung auf dieselbe Stufe, verbunden mit der Zuschreibung gleicher Relevanz, zu stellen, findet sich bei Jarvis an mehreren Stellen. So zitiert er beispielsweise den ehemaligen Manager und jetzigen Hochschullehrer Vivek Wadhwa: »Es gibt buchstäblich Tausende von Möglichkeiten, die Regierung und die Gesellschaft zu verbessern – und dabei noch einen Haufen Geld zu verdienen.« (Jarvis, 2012, S. 257) An anderer Stelle spricht er – Tim O’Reilly zitierend – in einem Atemzug von Daten und Informationen als »Lebenselixier der Wirtschaft und der Nation« (Jarvis, 2012, S. 257). Durch diese Engführungen wird eine strukturelle Analogie zwischen Nation/Gesellschaft und Markt hergestellt, um damit beide als zentrale Modelle eines überindividuellen Austauschs und Aus38 | Vgl. zum historischen Kontext: Goldman (2008, S. xxxiii). Wie Rancière unter dem Begriff der ›Para-Politik‹ herausgearbeitet hat, handelt es sich hier um eine schon bei Aristoteles in der ›bäuerlichen Demokratie‹ präfigurierte »Utopie […] der verräumlichten Politik«, gekennzeichnet durch die »Verteilung der Körper auf ein Gebiet, das sie gegenseitig im Abstand voneinander hält«. Dabei werde die durch bestimmte – ökonomische und topografische – Zwänge bedingte Zerstreuung als Tugend gefeiert, weil sie das Volk daran hindere, »einen Körper anzunehmen«, um schließlich einer Art Elite den zentralen (institutionellen) Raum des Politischen zu überlassen – Rancière verweist dabei allerdings nicht auf Madison, sondern auf Alexis de Tocqueville (Rancière, 2002, S. 86).
Martin Doll: Sozio-technische Imaginationen
handelns als gleichwertig anzusehen. Unter den liberalen Vorzeichen von Jarvis erscheinen dann Staat und Markt gleichermaßen als Schauplätze, an denen durch Wettbewerb Partikulares und Universelles eine produktive Verknüpfung eingehen, die Einzelinteressen demnach automatisch eine übergeordnete vernünftige Gesetzmäßigkeit hervorbringen bzw. dieser gehorchen, mit dem Ergebnis, den »Wohlstand der Nationen« zu befördern. In anderen, weniger versöhnlichen Passagen wird die Perspektive umgekehrt und in wirtschaftsliberaler Tradition der Staat sowohl grundsätzlich als störendes Gegenüber begriffen als auch mit Parolen wie »Rückt sie [die Informationen] raus« attackiert. An manchen Stellen werden die neuen Technologien sogar gegenüber allen Formen von Regierungen zu »Werkzeugen ihrer Zerstörung« hypostasiert (Jarvis, 2012, S. 275). Trotz des Feierns interessengemeinschaftlicher Teilöffentlichkeiten kommt selbst in diesem Zusammenhang wieder strategisch ein seltsames (Technik-)Wir zum Einsatz, wenn er im Geiste der A Cyberspace Independence Declaration von John Perry Barlow – wenn auch vorsichtiger – postuliert: »Wir, die Leute vom Internet.« (Jarvis, 2012, S. 275) Dadurch wird das Netz zum »Gegengewicht zur Macht und Autorität der Regierungen und Konzerne« (Jarvis, 2012, S. 284) und zugleich – wie schon Katz in den 1990er Jahren – ein neues, einheitliches, digitales ›citizenship‹ ausgerufen: »Wir alle sind Bürger irgendeiner Nation und deren Gesetzen unterworfen. Jetzt können wir noch zusätzlich Bürger dieser neuen Gesellschaft sein.« (Jarvis, 2012, S. 284, vgl. auch 278; Hervorh. M.D.) Die genannten Überlegungen lassen sich aufgrund ihrer Widersprüchlichkeit auf zwei völlig konträre Weisen interpretieren: als Tendenz zu einem radikal individualistischen Liberalismus oder aber zu einem pluralistischen Kosmopolitismus.
Z wischen L iber alismus und K osmopolitismus Interpretiert man die Diskurse in Richtung Liberalismus, stehen – wie bereits angedeutet – die individuellen Rechte im Vordergrund, wobei die Aufgaben des Staates darauf beschränkt werden, die Bedingungen für ein freies Agieren seiner Mitglieder bereitzustellen (vgl. dazu Foucault, 2006, v.a. die Sitzung vom 24. Januar 1979, S. 81-111). Die Funktionszuschreibungen der Social Media in diesen liberalen sozio-technischen Imaginationen folgen, um es soziologisch zu formulieren, einem methodologischen Individualismus. In einer solch atomistischen Konzeption entsteht Sozialverhalten, wenn mit sich selbst identische einzelne Subjekte intersubjektiv miteinander in Verbindung treten. Anders gesagt: Sozialität wird als Ergebnis des Zusammenschlusses präexistenter einzelner Individuen verstanden.39 Die positive politische Bewertung dieses Funktionszusammenhangs ergibt 39 | Auch Jean-Luc Nancy und Roberto Esposito haben aus jeweils unterschiedlicher Perspektive diese Idee von Kollektivität, insofern diese als Einheit aus Einheiten gedacht
477
478
5. Digitale Technologien und soziale Ordnungsvorstellungen
sich für die Autoren dann dadurch, dass latent utilitaristische ›rational choice‹Ansätze zugrunde gelegt werden, denen zufolge »politische Wissensbildung […] in nichts anderem als der Aggregation individueller Interessen besteht« (Gertenbach et al., 2010, S. 140; vgl. auch Kunz 2004) und strittige Fragen, Konflikte und ein Streiten um das Gemeinsame zugunsten einer Art statistischen Mehrheitsentscheidung aller beteiligten – (methodologisch) notwendig rational urteilenden – Individuen ausgeblendet werden. Analog zu liberalen Markttheorien (aus der politischen Ökonomie von Adam Smith, Bernard Mandeville und David Ricardo) ergibt sich ein funktionierendes Gemeinwesen im Wechselspiel sich selbst regelnder Konkurrenzbeziehungen zwischen dem individuellen, eigeninteressierten Handeln politischer, ökonomischer oder auch wissenschaftlicher Akteure. Vor diesem Hintergrund kann eine politische Medienpraxis rein instrumentell verstanden werden, nämlich als Vehikel, private Interessen durchzusetzen oder, in den Worten von Jarvis, »andere um unsere Agenda zu sammeln«, »leichter einen Klub, einen Kult, ein Unternehmen, einen Markt, eine Revolution oder Lenkungsmechanismen außerhalb der Regierung zu organisieren«. Als zweite Implikation des liberalen Aggregationsmodells, also einer Vorstellung von Intersubjektivität als Verbindung von insulären Subjekten zu einer diffusen Gesamtheit, ergibt sich, dass nur diejenigen via Social Media artikulierten politischen Ziele verwirklicht werden, »in Bezug auf die die individuellen Einstellungen aller konvergieren«.40 In diesem Zusammenhang bestünde die demokratische Kraft von Facebook und Twitter in der Macht bzw. Tyrannei der Mehrheit; d.h. nur diejenigen in den Plattformen und Diensten artikulierten politischen Positionen und Selbsthilfe-Initiativen setzten sich durch, bei denen sich, statistisch betrachtet, der überwiegende Teil der Tweet-Subscriber, Hashtag-Suchen, Retweets und ›Like‹-Reaktionen akkumulierte. Im Prinzip handelt es sich dabei um das neoliberal (radikal als ent-solidarisiert) weiterentwickelte aufklärerisch-bürgerliche Ideal der Selbstverantwortung (vgl. dazu insbesondere Bröckling, Krasmann und Lemke, 2000, S. 30),41 mit dem Unterschied, dass es hier pluralisiert wird und im wird, worin die Individuen zu einem größeren Individuum verschmelzen, kritisiert: So hat Jan-Luc Nancy alle Sozialitätskonzeptionen, die Gemeinschaftlichkeit als Zugabe verstehen – »erst das Rechtssubjekt, dann die wirklichen Beziehungen«, »erst das ›Subjekt‹, dann die ›Intersubjektivität‹« – aus einer philosophisch-ontologischen Perspektive, aus der das menschliche Dasein unhintergehbar als Mit-Sein erscheint, radikal infrage gestellt (vgl. Nancy, 2004, S. 75f.); für Roberto Esposito geht jede Theorie der Intersubjektivität von einer fragwürdigen atomistischen Einheit aus, die mit einer anderen Einheit Verständigung sucht und etwa in der für Esposito entsprechend nicht unproblematischen Diskursethik von Habermas zum Ideal führe, das »Eigenste zu kommunizieren« (Esposito, 2004, S. 8f.). 40 | Die allgemeinen Überlegungen zu den kritischen Implikationen des »liberalen Aggregationsmodells« sind übernommen von Gertenbach et al. (2010, S. 93, 111f., Zit. S. 140); vgl. zur Kritik des politischen Atomismus: Charles Taylor (1990b, S. 8; 1990a). 41 | Vgl. zur Historie: Reckwitz (2007, S. 107f.).
Martin Doll: Sozio-technische Imaginationen
Sinne der Verfolgung gemeinsamer Eigeninteressen strategische Allianzen im Kleinen bis Größeren, nie aber im gesamtgesellschaftlichen Maßstab eingegangen werden sollen. Die Frage nach einem ›guten Leben‹ wird, wie man in Anlehnung an Überlegungen von Gertenbach et al. (2010, S. 138f.) schreiben könnte, dadurch privatisiert.42 So betrachtet kann der Liberalismus auch mit einem gemäßigten, d.h. neoliberal gefärbten Kommunitarismus eine Verbindung eingehen,43 der, wie Ijoma Mangold betont hat, in Form eines äußerst selektiven »individuellen Partizipationscocktail[s]« von »Überzeugungsindividualist[en]« mit den allgemeinen (auch normativen Ansprüchen) an Politik in größerem Maßstab (sei es der Staat oder sogar die Kommune im Gegensatz zur selbstverwalteten Kita oder dem Lärmschutzprojekt in der Reihenhaussiedlung) nichts zu tun hat (Mangold, 2012).44 Im Gegensatz zu dieser partikularistischen liberalistischen Deutung können Pschera und Jarvis aber auch in einen anderen, immer wieder mit dem Begriff der Unifizierungsphantasie aufgerufenen Zusammenhang gestellt werden, mit dem Unterschied, dass versucht wird, diese um einen neuen, nicht universalistisch, sondern pluralistisch gedachten ›Kosmopolitismus‹ zu ergänzen. Ein nicht unproblematisches Beispiel dafür findet sich in der aktuellen politischen Philosophie, z.B. in Kwame Anthony Appiahs Versuch, partikulare und universelle ›Treuepflichten‹ der Menschen miteinander zu versöhnen.45 Obwohl technisch-materielle Gesichtspunkte in seinem Buch Der Kosmopolit. Philosophie des Weltbürgertums so gut wie keine Rolle spielen, finden sich in der Einleitung 42 | Die Autoren beziehen sich in diesem Zusammenhang auf Alasdair C. MacIntyre (1981). 43 | So hat z.B. Jürgen Vorländer herausgestellt, dass Bill Clinton in seinen Inaugurationsreden diese kommunitaristische Form des »Gemeinschafsgefühl[s]« beschworen und dabei zur Entlastung des Staatshaushalt »an die Initiativ- und Selbstheilungskräfte des Einzelnen und von freiwilligen sozialen Vereinigungen« appelliert habe (Vorländer, 2001, S. 20). 44 | Zu diesem Verständnis von instrumenteller Sozialität findet sich bei Hannah Arendt der interessante begriffsgeschichtliche Hinweis, dass ›societas‹ im Lateinischen genau diese begrenzte politische Bedeutung trug: »es bezeichnete ein Bündnis, in das Menschen miteinander für einen bestimmten Zweck traten, also z.B. um sich die Herrschaft über andere anzueignen oder auch um ein Verbrechen zu begehen«; darüber hinaus finde sich ›Sozietät‹ im Sinne eines Bündnisses für geschäftliche Zwecke schon in der mittelalterlichen Wirtschaft (Arendt, 1998, S. 34 und Fn. 33 auf S. 420). 45 | Im Gegensatz zu einem radikaleren Kosmopolitismus lässt Appiah Unterschiede im Pflicht- und Mitgefühl gegenüber Fremden und »Menschen, die uns am nächsten und liebsten sind« zu, um aber ganz ähnlich wie Anderson daraus kein Narrativ von einer echten und weniger echten Gemeinschaft im kleinen bzw. größeren Maßstab abzuleiten: »Das durch lokale Identität geschaffene Band ist ebenso imaginär wie das Band des gemeinsamen Menschseins. […] Aber das heißt keineswegs, dass sie irreal wären. Sie gehören zu den stärksten Banden, die wir kennen.« (Appiah, 2007, S. 166 und 189)
479
480
5. Digitale Technologien und soziale Ordnungsvorstellungen
einzelne Hinweise darauf, dass Appiah durchaus im Sinne der vorangegangenen theoretischen Überlegungen bestimmte, medial induzierte sozio-technische Imaginationen zum Ausgangspunkt seiner ethischen Überlegungen nimmt: »Erst seit in den letzten Jahrhunderten alle menschlichen Gemeinschaften in ein einziges Handelsnetz und ein Netzwerk globaler Informationen eingebunden sind«, schreibt Appiah in der Traditionslinie Benedict Andersons, »haben wir einen Punkt erreicht, an dem wir alle uns realistisch vorstellen können, mit jedem einzelnen unter unseren sechs Milliarden Mitmenschen in Kontakt zu treten und ihm etwas zu schicken, das uns wertvoll erscheint: ein Radio, ein Antibiotikum, eine gute Idee.« (Appiah, 2007, S. 10, Hervorh. M.D.) Aus dieser erweiterten Adressierbarkeit resultiert für Appiah im selben Maße eine Ausweitung menschlicher Verbindlichkeit und Verantwortung innerhalb des »globalen Stamm[s]« der Menschheit: »Und natürlich bedeutet das weltweite Informationsnetz – Radio, Fernsehen, Telefon, Internet – nicht nur, dass wir mit Menschen überall auf der Erde in Berührung kommen, sondern auch dass wir etwas über ihr Leben erfahren können. Jeder Mensch, den Sie kennen und für den Ihr Tun möglicherweise Auswirkungen hat, ist ein Mensch, gegen den Sie Verpflichtungen haben.« (Appiah, 2007, S. 11)
Ob die Social-Media-Tools, wie etwa von Jarvis zitiert wurde, gegenüber den Regierungen zu »Werkzeugen ihrer Zerstörung« werden, hat sich für Appiah aber weniger im Allgemeinen am reinen Vorhandensein technischer Mittel zu erweisen, sondern im Besonderen an den konkreten, materiellen (Medien-)Praktiken bzw. deren Auswirkungen. So spricht Appiah davon, dass sich im genannten ethischen Zusammenhang »die Möglichkeiten des Guten wie des Schlechten vervielfachen«, so dass dieselben Verkehrsformen z.B. in gleicher Weise zum Austausch und zur Verbreitung von Krankheiten, Luftverschmutzung oder schlechten Ideen nützlich seien (Appiah, 2007, S. 10). Damit verhindert Appiah, dass die Technik selbst moralisiert wird, wie es beispielsweise im Zusammenhang mit medienmaterialistisch-ethischen Diskursen über die automatisch befreiende Wirkung »freier Software« oder der Organisation in »Virtual Communities« in den 1990er Jahren geschehen ist.46 Von einem dezidiert pragmatischen Verständnis moralischen Handelns ausgehend, befreit Appiah in einem weiteren Schritt die Idee des Weltbürgertums von der Problematik des Universalismus, indem er an einen Wertepluralismus appelliert. Für diesen gilt, dass es nicht mehr darum gehe, generelle handlungsleitende Prinzipien oder Motivationen zu entwickeln, sondern schlicht und einfach zu handeln und dabei gemeinsame Ziele zu verfolgen; d.h., für Appiah ist auf über46 | Vgl. zu einer Kritik an der Internetideologie der Freiheit: Geert Lovink (2008, S. xiixv); die technikdeterministische Eloge auf emanzipatorische ›Virtual Communities‹ findet sich z.B. bei Rheingold (1993).
Martin Doll: Sozio-technische Imaginationen
individueller Ebene jeweils eine übereinstimmende Haltung darüber entscheidend, »was zu tun ist«, während das »Warum« in den Hintergrund zu treten hat. Voraussetzung dafür ist, sich im ›Gespräch‹ (conversation) »auf die Erfahrungen und Werte anderer Menschen einzulassen« (Appiah, 2007, S. 113). Eine nicht unwesentliche Rolle spielt für ihn dabei ein emphatischer Begriff der Gewöhnung, verbunden mit einem kulturellen Dialog: »Ein Gespräch muss nicht zu einem Konsens über irgendetwas führen und schon gar nicht über Werte. Es genügt, wenn das Gespräch den Menschen hilft, sich aneinander zu gewöhnen.« (Appiah, 2007, S. 113) Vergegenwärtigt man sich in diesem Zusammenhang noch einmal die Überlegungen von Carey zum »ritual view of communication«, dem zufolge durch medial geteilte Inhalte eine Art Aushandlung und Bestätigung eines gesellschaftlichen Selbstverhältnisses, der Abgleich eines Eigenbilds mit einem fremden, ermöglicht wird, wird dieses Ritual-Modell bei Appiah zugleich in weltbürgerlichem Maßstab und pluralistisch gedacht: »Gespräche über die Grenzen der nationalen, religiösen oder sonstigen Identität hinweg beginnen mit jenem fantasievollen Sich-Einlassen [imaginative engagement], das wir erleben, wenn wir einen Roman lesen oder einen Film ansehen oder ein Kunstwerk betrachten, das von einem anderen Standort aus als unserem eigenen zu uns spricht.« (Appiah, 2007, S. 113, vgl. auch S. 141)47 In der zitierten Stelle findet sich im englischen Original mit dem »imaginative« eine weitere Variation der eingangs skizzierten Typologie des Imaginären – eine Form der Vorstellung, die man, im Deutschen als »fantasievoll« übersetzt, diesmal nicht mit einer Ganzheit, sondern genau umgekehrt mit einer Partikularität in Verbindung bringen kann. Um diese zu verdeutlichen, verwendet Appiah, wie Carey, die Metapher des Spiegels, nicht aber um damit eine Totalitätsvorstellung zu evozieren, sondern um im Bild des zersprungenen Spiegels in Erinnerung zu rufen, dass man über eine »ganze Wahrheit« nicht verfügen könne und daher nicht von der Vorstellung ausgehen dürfe, »der kleine Splitter, über den man verfüge, könne das Ganze widerspiegeln« (Appiah, 2007, S. 29). Seinem weiten Konversationsbegriff folgend wird dabei jede (auch technikvermittelte) Kommunikation zum Anlass, sich – um es mit einer etwas heideggerianisch-flusserschen Formulierung zu fassen – eines pragmatischen Mitseins zu vergewissern: Ausgehend von im einzelnen ›Gespräch‹ gefundenen Gemeinsamkeiten eröffnet sich für Appiah dann die Möglichkeit, »sich an der Entdeckung von Dingen zu erfreuen, die wir nicht gemeinsam haben« (Appiah, 2007, S. 126). Appiah benutzt in diesem Zusammenhang den lateinischen Begriff der contaminatio, um – analog zur Praxis römischer Dramatiker, in ihre Texte griechische Stücke einzuarbeiten – im positiven Sinne für die radikale »Verunreinigung« von Kulturen in der weltbürgerlichen Verständigung zu plädieren (Appiah, 2007, S. 139-141). Im solchermaßen entstehenden konkreten Wissen um 47 | Obwohl an dieser Stelle die Möglichkeiten des Internets eigens nicht erwähnt werden, werden sie von Appiah bei seinem Kosmopolitismus immer wieder mitreflektiert und somit zum Motor der ›Gewöhnung‹ (Appiah, 2007, S. 153, 157, 167).
481
482
5. Digitale Technologien und soziale Ordnungsvorstellungen
den anderen sei »der Fremde nicht mehr imaginär, sondern mit seinem menschlichen und sozialen Leben ganz real und präsent« – für Appiah eine Chance, »einander am Ende auch [zu] verstehen« und gemeinsam zu handeln (Appiah, 2007, S. 127). Übertragen auf die weiter oben übereinander gelegten ›decentralized network‹und ›distributed network‹-Modelle bestünde Appiahs Konversations-/HandlungsModell dann in vorübergehenden und immer wieder variablen kommunikativen Verfestigungen von dezentralen Knotenpunkten, nicht aber um andere um die eigene Agenda zu versammeln, sondern um in der Konversation zu temporären – und von den Beteiligten jeweils unterschiedlich motivierten – gemeinsamen Agenden zu gelangen. Am Modell illustriert zeigt sich die unterschiedliche Perspektive daran, ob man in der Analyse die Knoten oder die Linien privilegiert: Im einen Fall gelangt man zu einem methodologischen Individualismus, demzufolge eine präexistente Identität nach Gleichgesinnten sucht (und im »two level standpoint (2-LS)«, wie dies Latour kritisch reflektiert, von der Mikroebene der Interaktionen auf die Ebene der Makrostrukturen hochskaliert wird). Im anderen Fall steht das Dazwischen im Vordergrund, und die Identität des Knotens verändert sich im Prozess der wechselseitigen Verknüpfung, d.h. der permanenten heterogenen Neu-Assoziierung, der immer als temporär gedachten Bildung von Kompositionen, Zusammensetzungen und Anschlüssen.48 Welche konkreten Verknüpfungen mit welchen politischen Implikationen konkret entstehen bzw. welche der exemplarisch aufgeführten sozio-technischen Imaginationen im Einzelnen handlungsleitend wird, kann – zumindest ex post – gegenstandsnah erforscht werden. Hier sei abschließend noch einmal an die vorgeschlagene Zirkularität der Analyse erinnert: Bestimmte sozio-technische Imaginationen können nur aus dem Zusammenspiel von bestimmten Medienpraktiken und ihren Diskursivierungen nachgewiesen werden bzw. bestimmte Medienpraktiken und ihre Diskursivierungen können, insofern sich bestimmte regelmäßige Gesamtheiten aufzeigen lassen, auf bestimmte sozio-technische Imaginationen zurückgeführt werden. Zu welchen Hegemoniebildungen und Hierarchisierungen es beispielsweise kommt oder ob sich weiterhin neue alternative (Handlungs-)Modelle realisieren, hat sich nicht an der schieren Existenz einzelner Kommunikationstechnologien, sondern an den mit ihnen verknüpften konkreten Praktiken und Einschreibungen zu erweisen. Mit Latour können diese von einem nicht in Hierarchien denkenden »one level«-Standpunkt aus genauer betrachtet werden, und zwar indem man analysiert, wie sich aus einzelnen miteinander verknüpften Momenten bzw. Akteuren jeweils bestimmte »partielle Gesamtheiten« ergeben – partielle Gesamtheiten, weil 48 | Eine dritte Perspektive, die problematischste, ergibt sich, wenn man von vornherein analytisch ganze Teilnetze privilegiert und damit jedes Individuum als immer schon einer präexistenten – um mit Rancière (2002, S. 77) zu sprechen: archi-politischen – (Volks‑) Gemeinschaft untergeordnet denkt.
Martin Doll: Sozio-technische Imaginationen
es immer mehrere sind und sie nie eine Totalität bilden. Aus diesem Blickwinkel – und das ist sein besonderer Gewinn – wird die Frage nach klassischen politischen Strukturen bzw. politischer Organisation in übergeordneten Instanzen, die das Handeln ihrer Mitglieder koordinieren müssten, seien dies Parteien oder NGOs, obsolet. Aus dieser ›flachen‹ ANT-Perspektive macht es nämlich keinen Unterschied, ob man die Identität oder das Profil einer Person, eines Orts, einer Institution usf. recherchiert, weil sie in gleichem Maße »envelopes« für ein »set of attributes« (Latour et al., 2012, S. 593) auf gleicher Ebene darstellen. Konkreter formuliert: Es wird informationell zunächst kein Unterschied zwischen einem Individualnamen, wie Edward Snowden, oder einer Institution, wie etwa ›digitalcourage e.V.‹, gemacht. Sie alle müssen – Latour zufolge – als Akteure gelten, die durch ihr Netzwerk definiert sind und vice versa. Eine sich dabei ergebende Gesamtheit ist somit nicht auf einer übergeordneten Ebene, als Struktur, zu denken, sondern als ebenso spezifisch wie die anderen Gesamtheiten bzw. Attribute, mit denen sie verknüpft ist. Dabei entstehende ›Institutionen‹ dürfen in diesem Zusammenhang nicht mehr als Container oder Superstrukturen für Mitgliederinteressen verstanden werden. Es sind vielmehr schlicht und ergreifend Attribute, die in mehreren Gesamtheiten zugleich vorkommen bzw. an deren Individualisierung beteiligt sind (Latour et al., 2012, S. 604): Diese Überlappungen können dann eben unter dem ›envelope‹ ›Snowden‹ oder ›digitalcourage e.V.‹ betrachtet werden. Noch einmal: Die partiellen Gesamtheiten erscheinen in dieser flachen Ontologie nicht als übergeordnet, sondern jeweils lediglich als – immer als vorübergehend zu denkende – Ansammlung oder Assoziation bestimmter ›Items‹ oder Attribute, d.h. als »collected entity« (Latour et al., 2012, S. 612): »Each of them is equally a ›part‹ and a ›whole‹, that is an actor-network« (Latour et al., 2012, S. 608) D.h., jede Gesamtheit kann – auf gleicher Ebene gedacht – wiederum Attribut einer weiteren Gesamtheit werden; zugleich ist das Verhältnis AttributGesamtheit jederzeit reversibel, denn jedes Attribut verändert sich auch dadurch, dass es Attribut einer bestimmten Gesamtheit wird und vice versa.49 Ob sich in diesen informationellen Assoziationen in pluralen Konstellationen punktuell weltbürgerliche Solidaritäten ergeben, etwa bei der Unterstützung humanitärer Hilfe (neben den Tätigkeiten der einzelnen Staaten), oder einzelne politische Interventionen Rückhalt bekommen bzw. durch öffentlichen Druck aufgegeben werden oder im Sinne Appiahs undogmatische, partikulare, strategische Allianzen für ein politisches Handeln zu einer bestimmten Zeit an einem bestimmten Ort hervorgebracht werden, wäre dann an den Ergebnissen der jeweiligen Mediennutzung bzw. der dabei entstehenden partiellen und ephemeren Gesamtheiten zu bemessen. Um also präzise über die politischen Implikationen 49 | Spätestens dadurch wird einsichtig, dass Latours Konzept der Netzwerkbildung nichts mit dem Jarvis’schen neoliberalen Seilschaftenbilden um eine eigene Agenda zu tun hat. Latour selbst hat dieses absurde Interpretation seiner ANT als Anleitung zum ›Networking‹ schon sehr früh deutlich zurückgewiesen (Latour, 1996, S. 372f.).
483
484
5. Digitale Technologien und soziale Ordnungsvorstellungen
sozio-technischer Interaktionen und dabei auch entstehende Machtasymmetrien Auskunft geben zu können, müsste schließlich, wie man in Anlehnung an Laclau formulieren könnte, im Einzelnen praxeologisch nach dem Abstand gefragt werden »zwischen der Pluralität der Arrangements«, die aus einer bestimmten Konstellation heraus möglich waren, zu den aktuellen Arrangements, die letztlich bevorzugt wurden (Laclau, 1999, S. 126f.).
L iter atur Anderson, Benedict: Die Erfindung der Nation. Zur Karriere eines folgenreichen Konzepts, übers. v. Christoph Münz und Benedikt Burkhard, erw. Neuausg. Aufl., Frankfurt a.M. et al.: Campus 1996. Ders.: Imagined Communities. Reflections on the Origins and Spread of Nationalism, London: Verso 1983. Appiah, Anthony: Der Kosmopolit. Philosophie des Weltbürgertums, München: Beck 2007. Arendt, Hannah: Vita activa oder Vom tätigen Leben, 10. Aufl., München: Piper 1998. Baran, Paul: On Distributed Communications: I. Introduction to Distributed Communications Networks, Santa Monica, Calif.: RAND Corporation 1964 (RM3420-PR). Bowman, G.: »A Country of Words. Conceiving the Palestinian Nation from the Position of Exile«, in: Ernesto Laclau (Hg.), The Making of Political Identities, London und New York: Verso 1994, S. 138-170. Bröckling, Ulrich, Susanne Krasmann und Thomas Lemke: »Gouvernementalität, Neoliberalismus und Selbsttechnologien«, in: Dies. (Hg.), Gouvernementalität der Gegenwart. Studien zur Ökonomisierung des Sozialen, Frankfurt a.M.: Suhrkamp 2000, S. 7-40. Brodocz, André: »›Internet‹ – ein leerer Signifikant der Weltgesellschaft. Diskurstheoretische Überlegungen im Anschluß an Laclau«, in: Berliner Debatte INITIAL 9.4 (1998), S. 85-91. Burke, Edmund: Reflections on the Revolution in France, 5. Aufl., London: J. Dodsley 1790. Carey, James W.: Communication as Culture. Essays on Media and Society [1992], überarb. Aufl., London: Unwin Hyman 1989. Ders.: »Harold Adams Innis and Marshall McLuhan«, in: The Antioch Review 27 (1967), S. 5-39. Dienst, Richard: Still Life in Real Time. Theory after Television, 2. Aufl., Durham, NC et al.: Duke Univ. Press 1995. Doll, Martin: »Revolution 2.0? Über den Zusammenhang zwischen den Aufständen im ›arabischen Raum‹ und ihren medialen Bedingungen«, in: kultuRRevolution. Zeitschrift für angewandte Diskurstheorie., H. 60 (2011), S. 64-71.
Martin Doll: Sozio-technische Imaginationen
Ders.: »Theorie und Genealogie des Techno-Imaginären: Social Media zwischen ›Digital Nation‹ und kosmopolitischem Pluralismus«, in: Martin Doll und Oliver Kohns (Hg.), Die imaginäre Dimension der Politik, Paderborn: Fink 2014 (Texte zur politischen Ästhetik 1), S. 49-89. Engell, Lorenz: »Tasten, Wählen, Denken. Genese und Funktion einer philosophischen Apparatur«, in: Stefan Münker, Alexander Roesler und Mike Sandbothe (Hg.), Medienphilosophie. Beiträge zur Klärung eines Begriffs, Frankfurt a.M.: Fischer 2003, S. 53-77. Esposito, Roberto: Communitas. Ursprung und Wege der Gemeinschaft, übers. v. Sabine Schulz und Francesca Raimondi, Berlin: Diaphanes 2004 (Transpositionen 14). Foucault, Michel: Archäologie des Wissens, übers. v. Ulrich Köppen, Frankfurt a.M.: Suhrkamp 1973. Ders.: Die Geburt der Biopolitik. Vorlesung am Collège de France 1978-1979, hg. v. Michel Sennelart, übers. v. Jürgen Schröder, 2 Bde., Frankfurt a.M.: Suhrkamp 2006 (Geschichte der Gouvernementalität 2). Geertz, Clifford: The Interpretation of Cultures. Selected Essays, New York: Basic Books 1973. Gellner, Ernest: Thought and Change, London: Weidenfeld and Nicolson 1964. Gertenbach, Lars et al.: Theorien der Gemeinschaft zur Einführung, Hamburg: Junius 2010. Goldman, Lawrence: »Introduction«, In: Ders., Alexander Hamilton und John Jay, The Federalist Papers, Oxford: Oxford University Press, 2008. ix-xxxvii. Ed. Lawrence Goldman. Habermas, Jürgen: »Hat die Demokratie noch eine epistemische Dimension? Empirische Forschung und normative Theorie«, in: Ach, Europa. Kleine politische Schriften, Frankfurt a.M.: Suhrkamp 2008, S. 138-192. Ders.: Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft, 7. Aufl., Neuwied und Berlin: Luchterhand 1975. Hardt, Michael, und Antonio Negri: Empire, Cambridge, Mass. et al.: Harvard Univ. Press 2000. Ders.: Multitude. War and Democracy in the Age of Empire, New York, NY: The Penguin Press 2004. Hegel, Georg Wilhelm Friedrich: Jenaer Schriften. 1801-1807, Frankfurt a.M.: Suhrkamp 1986 (Werke 2). Innis, Harold A.: The Bias of Communication [1951], Toronto et al.: Univ. of Toronto Press 1991. Innis, Harold Adams: Empire and Communications, Oxford: Clarendon Press 1950. Jarvis, Jeff: Mehr Transparenz wagen! Wie Facebook, Twitter & Co. die Welt erneuern, übers. v. Lutz-W. Wolff, Berlin: Quadriga 2012. Jefferson, Thomas: »Sixth Annual Message«, 2.12.1806, The Writings of Thomas Jefferson, Washington: Taylor & Maury, 1854, S. 62-70. Vol. 8. Ed.h.A. Washington.
485
486
5. Digitale Technologien und soziale Ordnungsvorstellungen
Kant, Immanuel: Kritik der reinen Vernunft 1, hg. v. Wilhelm Weischedel, Frankfurt a.M.: Suhrkamp 1995 (Werkausgabe 3). Katz, Jon: »Birth of a Digital Nation«, In: Wired 5.4 (1997a). www.wired.com/ wired/archive/5.04/netizen_pr.html%3E (5. Dezember 2012). Ders.: »The Digital Citizen«, in: Wired 5.12 (1997b), S. 68-82, 274-275. Koschorke, Albrecht et al.: Der fiktive Staat. Konstruktionen des politischen Körpers in der Geschichte Europas, Frankfurt a.M.: Fischer 2007. Krämer, Sybille: »Vom Mythos ›Künstliche Intelligenz‹ zum Mythos ›Künstliche Kommunikation‹«, in: Stefan Münker und Alexander Roesler (Hg.), Mythos Internet, Frankfurt a.M.: Suhrkamp 1997, S. 83-107. Kunz, Volker: Rational Choice, Frankfurt und New York: Campus 2004. Laclau, Ernesto: »Dekonstruktion, Pragmatismus, Hegemonie«, übers. v. Andreas Leopold Hof bauer, in: Chantal Mouffe (Hg.), Dekonstruktion und Pragmatismus. Demokratie, Wahrheit und Vernunft, Wien: Passagen 1999, S. 111-153. Latour, Bruno: »On Actor-Network Theory: A Few Clarifications«, in: Soziale Welt 47 (1996), S. 369-381. Ders.: »Über technische Vermittlung: Philosophie, Soziologie und Genealogie«, in: Andréa Belliger und David J. Krieger (Hg.), ANThology: ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld: transcript 2006, S. 483-528. Latour, Bruno et al.: »›The whole is always smaller than its parts‹ – a digital test of Gabriel Tardes’ monads«, in: The British Journal of Sociology 63.4 (2012), S. 590-615. Lingenberg, Swantje: Europäische Publikumsöffentlichkeiten. Ein pragmatischer Ansatz, Wiesbaden: VS Verlag für Sozialwissenschaften 2010. Lovink, Geert: Zero Comments. Blogging and Critical Internet Culture, New York: Routledge 2008. Luhmann, Niklas: Die Gesellschaft der Gesellschaft, Nachdr. d. 1. Aufl., Bd. 2, Frankfurt a.M.: Suhrkamp 2006. MacIntyre, Alasdair C.: After Virtue. A Study in Moral Theory, London: Duckworth 1981. Madison, James: »The Federalist, 10«, in: Ders., Alexander Hamilton und John Jay (Hg.): The Federalist Papers, Oxford: Oxford University Press, 2008, S. 48-55. Ed. Lawrence Goldman. Mangold, Ijoma: »Politik als Beruf«, in: Die Zeit (2. Februar 2012). www.zeit. de/2012/06/Max-Weber (24. Februar 2013). Malinowski, Bronisław: »The Problem of Meaning in Primitive Languages«, in: Charles Kay Ogden und Ivor Armstrong Richards (Hg.), The Meaning of Meaning. A Study of the Influence of Language Upon Thought and of the Science of Symbolism, New York: Harcourt, Brace, 1923, S. 296-355. Marchart, Oliver: Das unmögliche Objekt. Eeine postfundamentalistische Theorie der Gesellschaft, Berlin: Suhrkamp 2013. Ders.: Techno-Kolonialismus. Theorie und imaginäre Kartographie von Kultur und Medien, Wien: Löcker 2004.
Martin Doll: Sozio-technische Imaginationen
Mergel, Thomas: »Benedict Andersons Imagined Communities: Zur Karriere eines folgenreichen Konzepts«, in: Benedict Anderson (Hg.), Die Erfindung der Nation. Zur Karriere eines folgenreichen Konzepts, Frankfurt a.M. et al.: Campus, 1996, S. 281-299. Morley, David: The Nationwide Audience. Structure and Decoding, London: British Film Institute 1980. Nancy, Jean-Luc: Singulär plural sein, übers. v. Ulrich Müller-Schöll, Berlin: Diaphanes 2004. Negri, Antonio: »Eine ontologische Definition der Multitude«, in: Thomas Atzert und Jost Müller (Hg.), Kritik der Weltordnung. Globalisierung, Imperialismus, Empire, Berlin: ID 2003, S. 111-125. Noveck, Beth Simone: Wiki Government. How Technology Can Make Government Better, Democracy Stronger, and Citizens More Powerful, Washington, D.C.: Brookings Institution Press 2009. Pias, Claus: »Schöner leben. Weltraumkolonien als Wille und Vorstellung«, in: Annett Zinsmeister (Hg.), Welt[stadt]raum. Mediale Inszenierungen, Bielefeld: transcript 2008, S. 25-51. Pschera, Alexander: 800 Millionen. Apologie der sozialen Medien, Berlin: Matthes & Seitz 2011. Rancière, Jacques: Das Unvernehmen. Politik und Philosophie, übers. v. Richard Steurer, Frankfurt a.M.: Suhrkamp 2002. Ders.: Dissensus. On Politics and Aesthetics, übers. v. Steve Corcoran, London: Continuum 2009. Reckwitz, Andreas: »Die Moderne und das Spiel der Subjekte: Kulturelle Differenzen und Subjektordnungen in der Kultur der Moderne«, in: Thorsten Bonacker und Andreas Reckwitz (Hg.), Kulturen der Moderne. Soziologische Perspektiven der Gegenwart, Frankfurt a.M. et al.: Campus 2007, S. 97-118. Rheingold, Howard: The Virtual Community. Homesteading on the Electronic Frontier, Reading, Mass: Addison-Wesley 1993. Sandbothe, Mike: »Transversale Medienwelten. Philosophische Überlegungen zum Internet«, in: Gianni Vattimo und Wolfgang Welsch (Hg.), Medien – Welten – Wirklichkeiten, München: Fink 1998, S. 59-83. Schulz-Schaeffer, Ingo: »Technik in heterogener Assoziation. Vier Konzeptionen der gesellschaftlichen Wirksamkeit von Technik im Werk Latours«, in: Georg Kneer, Markus Schroer und Erhard Schüttpelz (Hg.), Bruno Latours Kollektive. Kontroversen zur Entgrenzung des Sozialen, Frankfurt a.M.: Suhrkamp 2008, S. 108-152. Spangenberg, Peter M.: »Technikinnovationen und Medienutopien. Hypothesen über Kommunikationsstrukturen und mentale Voraussetzungen von Zukunftserwartungen und Gegenwartsüberschreitungen«, in: medien+erziehung 45 (2001), S. 215-222. Taylor, Charles: »Atomism«, in: Philosophy and the Human Sciences, Cambridge et al.: Cambridge Univ. Press 1990a (Philosophical Papers 2), S. 187-210.
487
488
5. Digitale Technologien und soziale Ordnungsvorstellungen
Ders.: »Introduction«, in: Philosophy and the Human Sciences, Cambridge et al.: Cambridge Univ. Press 1990b (Philosophical Papers 2), S. 1-12. Turner, Fred: From Counterculture to Cyberculture. Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism, Chicago: Univ. of Chicago Press 2006. Van Alstyne, Marshall, und Erik Brynjolfsson: »Modeling and Measuring the Integration of Electronic Communities«, in: Management Science 51.6 (2005), S. 851-868. Vorländer, Hans: »Dritter Weg und Kommunitarismus«, in: Aus Politik und Zeitgeschichte, H. 16-17 (2001), S. 16-23. Werber, Niels: Die Geopolitik der Literatur. Eine Vermessung der medialen Weltraumordnung, München: Hanser 2007. Winkler, Hartmut: Docuverse. Zur Medientheorie der Computer, München: Boer 1997. Wittel, Andreas: »Auf dem Weg zu einer Netzwerk-Sozialität«, in: Andreas Hepp (Hg.), Konnektivität, Netzwerk und Fluss. Konzepte gegenwärtiger Medien-, Kommunikations- und Kulturtheorie, Wiesbaden: VS 2006, S. 163-188.
Autorinnen und Autoren
David M. Berry, Dr. phil., lehrt Medien und Kommunikation am Department of Political and Cultural Studies an der Universität Sussex. Forschungsschwerpunkte: Digital Humanities, Critical Code Studies, Open Source, Copyleft, Kritische Theorie. Publikationen (Auswahl): Copy, Rip, Burn: The Politics of Copyleft and Open Source, 2008; Philosophy of Software: Code and Mediation in the Digital Age, 2011; Understanding Digital Humanities, 2012; Critical Theory and the Digital (Critical Theory and Contemporary Society), 2014. Tom Boellstorff, Dr. phil., promovierte im Jahr 2000 im Fachbereich Anthropologie an der Stanford University und lehrt heute an der University of California, Irvine. Er ist Mitherausgeber der Zeitschrift »American Anthropologist« und Vorsitzender der »Society of Lesbian and Gay Anthropologists«. Forschungsschwerpunkte: Anthropologie der Sexualität, Anthropologie der Virtuellen Welten, Anthropologie der Globalisierung und linguistische Anthropologie. Publikationen (Auswahl): The Gay Archipelago: Sexuality and Nation in Indonesia, 2005; A Coincidence of Desires: Anthropology, Queer Studies, Indonesia, 2007; Coming of Age in Second Life: An Anthropologist Explores the Virtually Human, 2008. Axel Bruns, Dr. phil., Senior Lecturer am Institut für Creative Industries an der Queensland University of Technology, Brisbane, Australien. Forschungsschwerpunkte: Internet Studies, Soziale Medien, User-Generated Content, Journalismus. Publikationen (Auswahl): Hg. Twitter and Society, 2014; Hg. A Companion to New Media Dynamics, 2013; Blogs, Wikipedia, Second Life and Beyond: From Production to Produsage, 2008; Hg. Uses of Blogs, 2006; Gatewatching: Collaborative Online News Production, 2005. Jean Burgess, Dr. phil., Associate Professor für Digital Media und Vorstand des Instituts für Creative Industries an der Queensland University of Technology, Brisbane, Australien. Forschungsschwerpunkte: Partizipationskultur in Sozialen Medien, Digital Storytelling, Digitale Kommunikation in Neuen Medien. Publikationen (Auswahl): Hg. gem. m. Katrin Weller, Axel Bruns, Merja Mahrt, Cor-
490
Big Data
nelius Puschmann, Twitter and Society, 2014; Hg. gem. m. John Hartley und Axel Bruns, A Companion to new Media Dynamics, 2013; Hg. gem. m. Joshua Green, YouTube: Online Video and Participatory Culture, 2009. Regine Buschauer, Dr. phil., Zürich/Basel, arbeitet als unabhängige Forschende zu mobilen Medien und zum historischen und gegenwärtigen Wandel der Informations- und Kommunikationstechnik. Publikationen (Auswahl): Mobile Räume, Bielefeld 2010; Hg. gem. mit Ulla Autenrieth et al., Disconnecting Media, 2011; Hg. gem. mit Katharine S. Willis, Locative Media, 2013. Martin Doll, Dr. phil., Wissenschaftlicher Mitarbeiter im ATTRACT-Projekt ›Ästhetische Figurationen des Politischen‹ an der Université du Luxembourg. Forschungsschwerpunkte: Fälschung und Fake, Politik und Medien, Medialität der Architektur, Medienutopien des 19. Jahrhunderts. Publikationen (Auswahl): Fälschung und Fake. Zur diskurskritischen Dimension des Täuschens, 2012; »Medientechnik des Gemeinsinns. Charles Fouriers Architekturutopie des Phalanstère, in: Zeitschrift für Kulturwissenschaften, Nr. 2 (2013), S. 15-27; Hg. gem. m. Oliver Kohns, Die imaginäre Dimension der Politik, 2014. Christoph Engemann, Dr. phil., Vertretung der Juniordirektion der DFG Kollegforschergruppe »Medienkulturen der Computersimulation« an der Leuphana Universität Lüneburg. Forschungsschwerpunkte: Digitale Identität, eGovernment und eHealth, Genealogie der Transaktion. Veröffentlichungen zur Bundesdruckerei, zur elektronischen Gesundheitskarte und zu den Medien militärischer Anthropologie. Sein Buch »Der Wille ein Selbst zu Schreiben — Zur Gouvernemedialität der digitalen Identität« erscheint im Frühjahr 2015. Federica Frabetti, Dr. phil., Senior Lecturer für Communication, Media and Culture an der Oxford Brookes University. Forschungsschwerpunkte: Neue Technologien, Cultural Studies und Queer Studies. Publikationen (Auswahl): Leggere Halberstam (A Judith Halberstam Reader), 2010; Technology Made Legible. A Cultural Study of Software as Writing in the Theories and Practices of Software Engineering, 2009. Alexander R. Galloway, Dr. phil., Associate Professor für Digitale Medien am Institut für Media, Culture, and Communication an der New York University. Forschungsschwerpunkte: Informationsnetzwerke, Digitale Medien, Software Studies, Netzkunst, Software Art. Publikationen (Auswahl): Protocol: How Control Exists After Decentralization (MIT Press) 2004; Gaming: Essays on Algorithmic Culture 2006; The Interface Effect 2012; Laruelle: Against the Digital 2014.
Autorinnen und Autoren
Carolin Gerlitz, Dr. phil., Assistant Professor für New Media & Digital Culture. Forschungsschwerpunkte: Digitale Kultur und Ökonomie, Wirtschaftssoziologie, Markensoziologie, Software & Platform Studies, Digitale Forschungsmethoden, Topologie, Issue Mapping, Praktiken der Quantifizierung und Evaluierung. Publikationen (Auswahl): The Like Economy – Social Buttons and the Data-intensive Web, New Media & Society 2013; zus. mit Anne Helmond. One Percent of Twitter, M/C Journal 2013; gem. mit Bernhard Rieder. Social Media and Self-Evaluating Assemblages: On Numbers, Orderings and Values, Distinktion 2014; zus. mit Celia Lury. The Politics of Realtime: A Device Perspective on Social Media Platforms and Search Engines, Theory Culture & Society 2014. Stefan Höltgen, Dr. phil., Wissenschaftlicher Mitarbeiter am Lehrstuhl für Medientheorien des Fachgebiets Medienwissenschaft (Humboldt-Universität zu Berlin). Forschungsprojekt: Archäologie des frühen Mikrocomputers und seiner Programmierung; Forschungsgebiete: Computerarchäologie, Medien im Kalten Krieg, Epistemologie der Medien. Publikationen (Auswahl): Als Herausgeber: SHIFT — RESTORE — ESCAPE. Retrocomputing als Computerarchäolgie, CSW 2014; als Mitherausgeber zus. mit Irina Gradinari: Heiße Drähte. Medien im Kalten Krieg, 2014. Informationen: www.computerarchaeologie.de; Kontakt: stefan@ hoeltgen.org. Lev Manovich, Dr. phil., Professor für Kunst und Theorie der Neuen Medien an der University of California in San Diego und Professor für Neue Medien am Graduate Center, CUNY (City University of New York).
Forschungsschwerpunkte: Digitale Medienkultur, Infoästhetik, Digital Humanities und Software Studies. Publikationen (Auswahl): The Language of New Media, 2001; Black Box — White Cube, 2005; Soft Cinema DVD, 2005; Software Takes Command, 2008. Seit 1984 arbeitet Manovich als Programmierer und Designer. Zu seinen künstlerischen Projekten zählen u.a. »Little Movies« [1994], eines der ersten für das Internet konzipierte Projekte aus dem Bereich des digitalen Films, das Internetprojekt »Freud-Lissitzky Navigator« [1999], sowie »Anna and Andy: a Streaming Novel | Emotional Movie Engine«, 1999-2000. Merja Mahrt, Dr. phil., wissenschaftliche Mitarbeiterin am Lehrstuhl Kommunikations- und Medienwissenschaft II an der Heinrich-Heine-Universität Düsseldorf. Forschungsschwerpunkte: Mediennutzung und -wirkung, insbesondere soziale Funktionen und Wirkungen von Online- und Offlinemedien im Vergleich. Publikationen (Auswahl): Values of German Media Users, 2010; Hg. zus. mit Katrin Weller, Axel Bruns, Jean Burgess und Cornelius Puschmann, Twitter and Society, 2014.
491
492
Big Data
Johannes Paßmann, Dr. phil. cand., Wissenschaftlicher Mitarbeiter am Germanistischen Seminar der Universität Siegen. Forschungsschwerpunkte: Datenpraktiken, Social-Media-Plattformen und ihre Medientheorien. Publikationen (Auswahl): zus. mit Carolin Gerlitz: »Good Platform-Political Reasons for Bad Platform-Data. Zur sozio-technischen Geschichte der Plattformaktivitäten Fav, Retweet und Like«. In: Burkhardt, Marcus und Gießmann, Sebastian (Hrsg.): Was ist Datenkritik? 2014, Online-Publikation »Mediale Kontrolle«, http://www. medialekontrolle.de/. »Forschungsmedien erforschen. Zur Praxis mit der DatenMapping-Software Gephi«. In: Knipp, Raphaela, Johannes Paßmann und Nadine Taha (Hrsg.): Vom Feld zum Labor und zurück, 2013, S. 113-130. Matteo Pasquinelli, Dr. phil., Philosoph und Netzaktivist, lebt in London und Berlin. Er kuratierte 2005 die Konferenz »Art and Politice of Netporn« (http://www. networkcultures.org/netporn) und 2007 das Festival »C’Lick Me« http://www.net workcultures.org/clickme, zus. mit Katrien Jacobs und dem Institute of Network Cultures. Publikationen (Auswahl): Media Activism — Strategies and Practices of Independent Communication 2002; Animal Spirits: A Bestiary of the Commons 2008; Manifesto of Urban Cannibalism 2012 (zus. mit Wietske Maas). Ramón Reichert, Dr. phil. habil., 2009-2013 Professor für Neue Medien am Institut für Theater-, Film- und Medienwissenschaft der Universität Wien. Seit 2014 ist er Leiter der postgradualen Masterstudiengänge »Data Studies« und »Cross Media« an der Donau-Uni Krems. Er ist Initiator des 2013 gegründeten internationalen Forschernetzwerks »Social Media Studies«. Er lehrt und forscht mit besonderer Schwerpunktsetzung des Medienwandels und der gesellschaftlichen Veränderungen in den Wissensfeldern »Digitale Medienkultur«, »Digital Humanities« und »Social Media Studies«. Publikationen (Auswahl): Im Kino der Humanwissenschaften: Studien zur Medialisierung wissenschaftlichen Wissens, 2007; Amateure im Netz. Selbstmanagement und Wissenstechnik im Web 2.0, 2008; Das Wissen der Börse. Medien und Praktiken des Finanzmarktes, 2009; Die Macht der Vielen. Über den neuen Kult der digitalen Vernetzung, 2013. Annika Richterich, Dr. phil., Dozentin für »Media & Writing« an der Universität Maastricht (NL). Forschungsschwerpunkte: digitale Medien, insbesondere Social News Media, und qualitative Methoden in der Medienwissenschaft. Publikationen (Auswahl): »›Karma, precious Karma.‹ Karmawhoring on Reddit and the Front Pages’ Econometrisation«, Journal of Peer Production, 2014, Nr. 4, http:// peerproduction.net; Geomediale Fiktionen, 2014; ›Google Trends: Zur Aus- und Verwertung von Suchmaschinen-generierten Big Data‹, Mediale Kontrolle, 2014, Online-Publikation »Mediale Kontrolle«, http://www.medialekontrolle.de.
Autorinnen und Autoren
Bernhard Rieder, Associate Professor für Neue Medien und Digitale Kultur am Mediastudies Department der Universität Amsterdam. Forschungsschwerpunkte: Digitale Methoden, Geschichte und Theorie der algorithmischen Informationsverarbeitung. Publikationen (Auswahl): zus. mit Guillaume Sire, Conflicts of Interest and Incentives to Bias: A Microeconomic Critique of Google’s Tangled Position on the Web, New Media & Society 2014. What is in PageRank? A Historical and Conceptual Investigation of a Recursive Status Index, Computational Culture 2012. Theo Röhle, Dr. phil., wissenschaftlicher Mitarbeiter am Institut für Medienforschung an der Hochschule für Bildende Künste Braunschweig. Forschungsschwerpunkte: Digitale Wissensordnungen (Suchmaschinen, Digital Humanities), Social Media, Serious Games, Mediengeschichte von Kontrolle und Steuerung. Publikationen (Auswahl): Der Google-Komplex. Über Macht im Zeitalter des Internets, 2010; Hg. zus. mit Hannelore Bublitz, Irina Kaldrack und Hartmut Winkler, Unsichtbare Hände. Automatismen in Medien-, Technik- und Diskursgeschichte, 2011, Hg. zus. mit Oliver Leistert, Generation Facebook. Über das Leben im Social Net, 2011. Richard Rogers, Dr. phil., Professor für Neue Medien und Digitale Kultur an der Universität Amsterdam. Er leitet die Govcom.org Foundation (Amsterdam) sowie die Digital Methods Initiative. Forschungsschwerpunkte: Epistemologie digitaler Netzwerke, Digitale Methoden, Analyse und Entwicklung von Infotools. Publikationen (Auswahl): Information Politics on the Web (MIT Press), 2005; »Internet Research. The Question of Method«, in: Journal of Information Technology and Politics 7, 2/3, 2010; Digital Methods (MIT Press), 2013. Daniel Rosenberg, Dr. phil., Professor für Geschichte an der University of Oregon. Forschungsschwerpunkte: Wissens-, Kultur- und Kunstgeschichte des 18. Jahrhunderts; historische Epistemologie, Geschichte der Daten. 2013-14 war er Faculty Fellow am Stanford Humanities Center. Publikationen (Auswahl): Histories of he Future (Hg., gemeinsam mit Susan Harding), 2005; Cartographies of Time (gemeinsam mit Anthony Crafton), 2008. Michael Scharkow, Dr. phil., wissenschaftlicher Mitarbeiter am Institut für Kommunikationswissenschaft der Universität Hohenheim. Forschungsschwerpunkte: sozialwissenschaftliche Methoden (insb. Inhaltsanalyse) und Statistik, Mediennutzungs- und Onlineforschung. Publikationen (Auswahl): Automatische Inhaltsanalyse und maschinelles Lernen, 2012.
493
494
Big Data
Bernard Stiegler, Dr. phil., nach seiner Promotion an der EHESS war er Programmdirektor am »Collège International de Philosophie«. Seit 2006 ist er Leiter der Abteilung »kulturelle Entwicklung« am Centre Georges-Pompidou. Davor war er Professor und Leiter der 1993 gegründeten Forschungsgruppe »Wissen, Organisationen und technische Systeme« (COSTECH) an der Technischen Universität von Compiègne und war bis 2005 Direktor des Instituts für Akustik- und Musikforschung (IRCAM). Seine Forschungsprojekte beschäftigen sich mit dem Einfluss neuer Technologien und Medien auf Politik, Kultur und Gesellschaft. Publikationen (Auswahl): Die Logik der Sorge: Verlust der Aufklärung durch Technik und Medien, 2008; Von der Biopolitik zur Supermacht, 2009; Technik und Zeit, 2010; Hypermaterialität und Psychomacht, 2010; Decadence of Industrial Democracies, 2011. Eugene Thacker, Dr. phil., Associate Professor an der New School in New York. Forschungsschwerpunkte: Informationsnetzwerke, Digitale Medien, Software Studies, Netzkunst, Software Art. Publikationen (Auswahl): Hard Code: Narrating the Network Society, Hg., 2001; Biomedia, 2004; The Global Genome: Biotechnology, Politics, and Culture (MIT Press), 2005; The Exploit: A Theory of Networks, Hg. gem. m. Alexander R. Galloway, 2007; After Life, 2010; Excommunication: Three Inquiries in Media and Mediation, Hg. gem. m. Alexander R. Galloway und McKenzie Wark, 2013. Katrin Weller, Dr. phil., Wissenschaftliche Mitarbeiterin (PostDoc) im Datenarchiv für Sozialwissenschaften bei GESIS Leibniz-Institut für Sozialwissenschaften. Forschungsschwerpunkte: Social Media, Twitter, Informationswissenschaft, Web Science, Science 2.0, Wissenschaftskommunikation und Altmetrics. Publikationen (Auswahl): Knowledge Representation on the Social Semantic Web, 2010; Twitter and Society, zus. mit Axel Bruns, Jean Burgess, Merja Mahrt und Cornelius Puschmann, (Hg.), 2014.
Digitale Gesellschaf t bei transcript David J. Krieger, Andréa Belliger
Interpreting Networks Hermeneutics, Actor-Network Theory & New Media
Juni 2014, 208 Seiten, kart., 29,99 E, ISBN 978-3-8376-2811-1 After postmodern critique has deconstructed, decentered, and displaced order and identity on all levels, we are faced with the Humpty Dumpty question of how to put the pieces back together again. This book brings together the seldom associated discourses of hermeneutics, actor-network theory, and new media in order to formulate a theory of a global network society. Hermeneutics re-opens the question of unity in a fragmented world. Actor-network theory reinterprets the construction of meaning as networking. New media studies show how networking is done. Networks arise, are maintained, and are transformed by communicative actions that are governed by network norms that make up a social operating system. The social operating system offers an alternative to the imperatives of algorithmic logic, functionality, and systemic closure that dominate present day solutions to problems of over-complexity in all areas.
www.transcript-verlag.de
Edition Medienwissenschaf t bei transcript Ramón Reichert
Die Macht der Vielen Über den neuen Kult der digitalen Vernetzung
2013, 216 Seiten, kart., 24,99 E, ISBN 978-3-8376-2127-3 Wir sind viele – der Kult des Individuums wird im Zeitalter der Social Media durch einen neuen Kult digitaler Kollektive, durch die »Macht der Vielen« abgelöst. Der Essay beleuchtet, wie diese Entwicklung die Tektonik der Gegenwartskultur verschiebt. »Dass zwischen der Herrschaftsabsicherung via Kontrolle auf der einen Seite und dem wachsenden Interaktionspotenzial auf der anderen Seite eine faktisch nicht durchschaubare Welt digitaler Technik und darauf beruhender Macht- und Steuerungsstrategien steckt, zeigt Ramón Reichert in seinem herausragenden Buch.« (Portal für Politikwissenschaft, 17.04.2014) »[Das Buch] öffnet den Blick darauf, wie eine Gemeinschaft mobilisiert und instrumentalisiert wird, aber auch wie sie sich beständig verändert und nie ganz bändigen lässt.« (http://medienwoche.ch, 22.11.2013)
www.transcript-verlag.de