Das Zeitalter des Überwachungskapitalismus 9783593439631, 3593439638

Gegen den Big-Other-Kapitalismus ist Big Brother harmlos. Die Menschheit steht am Scheideweg, sagt die Harvard-Ökonomin

513 106 4MB

German Pages 727 [947] Year 2018

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Über das Buch
Vita
EINFÜHRUNG
Kapitel 1 Heimat oder Exil in der digitalen Zukunft
Die ältesten Fragen
Requiem für ein Zuhause
Was ist Überwachungskapitalismus?
Das Beispiellose
Der Puppenspieler, nicht die Puppe
Grundriss, Themen und Quellen dieses Buches
TEIL I: DIE GRUNDLAGEN DES ÜBERWACHUNGSKAPITALISMUS
Kapitel 2 Bühne frei für den Überwachungskapitalismus
Der Apple-Hack
Die beiden Modernen
Das neoliberale Biotop
Die Instabilität der Zweiten Moderne
Eine Dritte Moderne
Der Überwachungskapitalismus füllt das Vakuum
Für eine menschliche Zukunft
Benennen und bremsen
Kapitel 3 Die Entdeckung des Verhaltensüberschusses
Google ist der Pionier des Überwachungskapitalismus
Gleichgewicht der Kräfte
Die Suche nach dem Kapitalismus: Ungeduldiges Geld und der Ausnahmezustand
Die Entdeckung des Verhaltensüberschusses
Größen- beziehungsweise Massenvorteile bei der Überschussversorgung
Erfunden von Menschenhand
Der (geheime) Imperativ der Extraktion
Zusammenfassung: Logik und Operationen des Überwachungskapitalismus
1. Die Logik
2. Die Produktionsmittel
3. Die Produkte
4. Der Marktplatz
Kapitel 4 Der Graben um die Burg
Menschlicher Rohstoff
Die Cry-Freedom-Strategie
Das neoliberale Erbe: schützendes Biotop
Unter dem Schutz des überwachungstechnischen Ausnahmezustands
Bollwerke
Kapitel 5 Die Ausarbeitung des Überwachungskapitalismus: Annexion, Monopolisierung und Wettbewerb
Der Extraktionsimperativ
Monopolisierung der Nachschubwege
Der Enteignungszyklus
Phase 1: Übergriff
Phase 2: Gewöhnung
Phase 3: Anpassung
Phase 4: Neuausrichtung
Die Hunde der Dreistigkeit
Wettbewerb um die Enteignung
Der Sirenengesang der Überwachungserträge
Kapitel 6 Die Annexion: Wissensteilung in der Gesellschaft
Die Google-Deklarationen
Wer weiß?
Das Überwachungskapital und die beiden Texte
Die neue Priesterschaft
Die Privatisierung der Wissensteilung in der Gesellschaft
Die Macht des Beispiellosen: Ein Überblick
TEIL II: DER VORMARSCH DES ÜBERWACHUNGSKAPITALISMUS
Kapitel 7 Das Reality-Business
Der Vorhersageimperativ
Die sanfte Eroberung freiheitsliebender Tiere
Menschenherden
Die Realpolitik des Überwachungskapitalismus
Gewissheit um des Profits willen
Erfüllung des Unvertrags
Die Unvermeidlichkeitsdoktrin
Von Menschen gemacht
Der Boden ist bereitet
Kapitel 8 Rendition: Auslieferung und Verdatung unserer Erfahrung
Der Auslieferung ausgeliefert
Der Tod von Produkten und Dienstleistungen
Die Rendition des Körpers
Kapitel 9 Rendition aus den Tiefen
Personalisierung als Eroberung
Die Rendition des Selbst
Maschinenemotionen
Wenn sie kommen, um Ihre Wahrheit zu holen
Kapitel 10 Lass Sie Tanzen
Aktions- beziehungsweise Handlungsvorteile
Facebook macht die Musik
Auf die Plätze, fertig, Pokémon Go!
Die Verlockungen des Überwachungskapitalismus bei Under Armour
Wie sahen sie aus, die Verhaltensmodifikationsmittel?
Kapitel 11 Das Recht auf das Futur
Mein Wille zum Wollen
Unser Wille zum Wollen
Wie kamen sie damit durch?
1. Beispiellosigkeit
2. Die Deklaration als Invasion
3. Der historische Kontext
4. Die Bollwerke
5. Der Enteignungszyklus
6. Abhängigkeit
7. Eigeninteresse
8. Inklusion
9. Identifikation
10. Autorität
11. Soziale Überredung
12. Alternativlosigkeit
13. Inevitabilismus
14. Menschliche Schwäche als Ideologie
15. Unwissenheit
16. Geschwindigkeit
Die Prophezeiung
TEIL III: INSTRUMENTÄRE MACHT FÜR EINE DRITTE MODERNE
Kapitel 12 Zwei Arten von Macht
Die Rückkehr zum Beispiellosen
Totalitarismus als neue Art von Macht
Ein entgegengesetzter Horizont
Der Andere
Wider die Freiheit
Eine Technologie des menschlichen Verhaltens
Utopia I und II
Kapitel 13 Big Other und der Aufstieg der Instrumentären Macht
Eine neue Art Macht
Ein Marktprojekt der totalen Gewissheit
Der Fluch dieses Jahrhunderts
Das China-Syndrom
Am Scheideweg
Kapitel 14 Eine Utopie der Gewissheit
Gesellschaft als das Andere
Das Streben nach Totalität beinhaltet die Gesellschaft
Angewandte Utopistik
Konfluenz als Beziehung zwischen Maschinen
Konfluenz als Gesellschaft
Kapitel 15 Das instrumentäre Kollektiv
Die Priester instrumentärer Macht
Big Other frisst Gesellschaft: Die Rendition der sozialen Beziehungen
Die Prinzipien einer instrumentären Gesellschaft
1. Verhalten zum höheren Wohl
2. Pläne statt Politik
3. Sozialer Druck statt Harmonie
4. Angewandte Utopistik
5. Der Tod der Individualität
Die Dritte Moderne des Schwarms
Kapitel 16 Vom Leben im Schwarm
Unsere Kanarienvögel in der Kohlengrube
Die Faust aufs Auge
Lebensbeweis
Die nächste menschliche Natur
Der Gesellungstrieb
No Exit!
Kapitel 17 Das Recht auf Freistatt
Big Other läuft der Gesellschaft davon
Gerechtigkeit an der neuen Grenze der Macht
Jedes Einhorn hat seinen Jäger
SCHLUSSBETRACHTUNG
Kapitel 18 Ein Putsch von oben
Freiheit und Wissen
Jenseits der Gegenseitigkeit
Der neue Kollektivismus und seine Herren der radikalen Indifferenz
Was ist Überwachungskapitalismus?
Überwachungskapitalismus und Demokratie
Seid Sand im Getriebe
DANK
ANHANG
ANMERKUNGEN
1. Heimat oder Exil in der digitalen Zukunft
2. Bühne frei für den Überwachungskapitalismus
3. Die Entdeckung des Verhaltensüberschusses
4. Der Graben um die Burg
5. Die Ausarbeitung des Überwachungskapitalismus: Annexion, Monopolisierung und Wettbewerb
6. Die Annexion: Wissensteilung in der Gesellschaft
7. Das Reality-Business
8. Rendition: Auslieferung und Verdatung unserer Erfahrung
9. Rendition aus den Tiefen
10. Lass sie tanzen
11. Das Recht auf das Futur
12. Zwei Arten von Macht
13. Big Other und der Aufstieg der instrumentären Macht
14. Eine Utopie der Gewissheit
15. Das instrumentäre Kollektiv
16. Vom Leben im Schwarm
17. Das Recht auf Freistatt
18. Ein Putsch von oben
REGISTER
Anmerkungen
[Impressum]
Recommend Papers

Das Zeitalter des Überwachungskapitalismus
 9783593439631, 3593439638

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

SHOSHANA ZUBOFF

DAS ZEITALTER DES ÜBERWACHUNGSKAPITALISMUS AUS DEM ENGLISCHEN VON BERNHARD SCHMID

Campus Verlag Frankfurt/New York

Über das Buch Gegen den Big-Other-Kapitalismus ist Big Brother harmlos. Die Menschheit steht am Scheideweg, sagt die Harvard-Ökonomin Shoshana Zuboff. Bekommt die Politik die wachsende Macht der HighTech-Giganten in den Griff? Oder überlassen wir uns der verborgenen Logik des Überwachungskapitalismus? Wie reagieren wir auf die neuen Methoden der Verhaltensauswertung und -manipulation, die unsere Autonomie bedrohen? Akzeptieren wir die neuen Formen sozialer Ungleichheit? Ist Widerstand ohnehin zwecklos? Zuboff bewertet die soziale, politische, ökonomische und technologische Bedeutung der großen Veränderung, die wir erleben. Sie zeichnet ein unmissverständliches Bild der neuen Märkte, auf denen Menschen nur noch Quelle eines kostenlosen Rohstoffs sind - Lieferanten von Verhaltensdaten. Noch haben wir es in der Hand, wie das nächste Kapitel des Kapitalismus aussehen wird. Meistern wir das Digitale oder sind wir seine Sklaven? Es ist unsere Entscheidung! Zuboffs Buch liefert eine neue Erzählung des Kapitalismus. An ihrer Deutung kommen kritische Geister nicht vorbei.

Vita Shoshana Zuboff ist eine amerikanische Ökonomin. Sie studierte Philosophie an der University of Chicago und promovierte in Sozialpsychologie an der Harvard University. Ab 1981 war sie Professorin an der Harvard Business School. Außerdem forscht sie in Harvard am Berkman Center for Internet and Society. Bereits 1988 schrieb sie den Bestund Longseller »In the Age of the Smart Machine«, in dem sie die technologischen Entwicklungen und die daraus resultierenden Kontrollmechanismen vorhersagte. Mit dem Begriff »Dark Google« prägte sie 2014 die Debatte um die digitale Zukunft und Big Data. Das Magazin strategy+business bezeichnet sie als eine der elf originellsten Wirtschaftsdenkerinnen und -denker der Welt. Shoshana Zuboff lebt in Maine (USA).

Erwacht im Frost und finstern Lärm der Stunde, begehren wir nach südlich-alter Zeit, Nacktheit und Wärme und Gelassenheit, Geschmack von Lebenslust in reinem Munde. Und nachts in unsern Hütten träumen wir von Zukunftsfesten: jedem Labyrinth, das die Musik entwirft, folgt die Musik des Herzens unfehlbar mit ihren Schritten. Wir neiden Flüssen, Häusern die Gewißheit, selbst aber, zweifelnd, fehlbar, waren wir nie wie ein großes Tor so nackt und stet und werden nie so klar wie unsre Quellen: nur weil wir müssen, leben wir in Freiheit, ein Bergvolk, das sich in den Bergen bläht. – W. H. Auden, Sonette aus China, XVIII Ich widme dieses Buch der Vergangenheit und der Zukunft. Im Gedenken an meinen geliebten Jim Maxmin Im Gedenken an meinen mutigen Freund Frank Schirrmacher Meinen Kindern Chloe Sophia Maxmin und Jacob Raphael Maxmin zu Ehren – ich schreibe zur Stärkung eurer Zukunft und der moralischen Sache eurer Generation

Überwachungskapitalismus, der 1. Neue Marktform, die menschliche Erfahrung als kostenlosen Rohstoff für ihre versteckten kommerziellen Operationen der Extraktion, Vorhersage und des Verkaufs reklamiert; 2. eine parasitäre ökonomische Logik, bei der die Produktion von Gütern und Dienstleistungen einer neuen globalen Architektur zur Verhaltensmodifikation untergeordnet ist; 3. eine aus der Art geschlagene Form des Kapitalismus, die sich durch eine Konzentration von Reichtum, Wissen und Macht auszeichnet, die in der Menschheitsgeschichte beispiellos ist; 4. Fundament und Rahmen einer Überwachungsökonomie; 5. so bedeutend für die menschliche Natur im 21. Jh. wie der Industriekapitalismus des 19. und 20. Jhs. für die Natur an sich; 6. der Ursprung einer neuen instrumentären Macht, die Anspruch auf die Herrschaft über die Gesellschaft erhebt und die Marktdemokratie vor bestürzende Herausforderungen stellt; 7. zielt auf eine neue kollektive Ordnung auf der Basis totaler Gewissheit ab; 8. eine Enteignung kritischer Menschenrechte, die am besten als Putsch von oben zu verstehen ist – als Sturz der Volkssouveränität.

EINFÜHRUNG

Kapitel 1 Heimat oder Exil in der digitalen Zukunft Ihn sah ich auf der Insel die bittersten Tränen vergießen, In dem Hause der Nymphe Kalypso, die mit Gewalt ihn Hält; und er sehnt sich umsonst nach seiner heimischen Insel – Homer, Odyssee

Die ältesten Fragen »Arbeiten wir dann künftig alle für eine intelligente Maschine, oder haben wir intelligente Menschen um die Maschine herum?« Diese Frage stellte mir 1981 der junge Manager einer Papierfabrik zwischen Backfisch und Nusstorte an meinem ersten Abend am Standort seines riesigen Betriebs, einer kleinen Stadt im Süden der Vereinigten Staaten, die mir die nächsten sechs Jahre über selbst immer mal wieder zum Zuhause werden sollte. An dem verregneten Abend beschäftigten mich seine Worte so sehr, dass ich darüber ganz das anschwellende Trommeln der Regentropfen auf der Markise über unserem Tisch vergaß. Ich erkannte in ihr eine der ältesten Fragen der Politik: Heimat oder Exil? Souverän oder Untertan? Herr oder Knecht? Wir sprechen hier von ewigen Themen wie Wissen, Autorität und Macht, die nie ein für alle Mal zu klären sein werden. Geschichte hat kein Ende; jede Generation muss ihren Willen und ihre Vorstellungen erneut durchsetzen, ihren Fall aufs Neue zur Verhandlung bringen, da jede Epoche neue spezifische Bedrohungen bringt. »Was meinen Sie?« Kam der frustriert insistierende Ton des Fabrikleiters daher, dass er sonst niemanden fragen konnte? »Welche Richtung sollen wir einschlagen? Ich muss das wissen. Wir haben keine Zeit zu verlieren.« Da

mir selbst nach Antworten war, nahm damals das Projekt seinen Anfang, aus dem dann – vor dreißig Jahren – mein erstes Buch werden sollte: In the Age of the Smart Machine: The Future of Work and Power. Und das wiederum wurde das erste Kapitel meiner lebenslangen Suche nach einer Antwort auf die Frage »Kann die digitale Zukunft uns eine Heimat sein?«. Jener linde Abend im Süden liegt Jahre zurück, aber die ältesten Fragen beschäftigen mich heute mehr denn je. Der Vormarsch der Digitalisierung sorgt für eine Neudefinition auch des letzten Aspekts unserer eben noch so vertrauten Welt, ohne uns auch nur eine Chance zu lassen, eine durchdachte Entscheidung darüber zu fällen. Wir loben die vernetzte Welt der vielschichtigen Bereicherung unserer Möglichkeiten und Aussichten wegen über den grünen Klee, aber da sie uns der Geborgenheit einer berechenbaren Zukunft beraubt, beschert sie uns auch eine Vielzahl neuer Ängste, Gefahren und Formen von Gewalt. Stellen wir heute abermals die ältesten Fragen, stehen Milliarden von Menschen aller sozialen Schichten, aller Generationen, steht die Gesellschaft an sich in der Pflicht. Informations- und Kommunikationstechnologien erreichen heute drei der sieben Milliarden Erdbewohner und sind damit weiter verbreitet als selbst die Elektrizität.1 Das komplexe Dilemma um Wissen, Autorität und Macht beschränkt sich nicht mehr nur auf den Arbeitsplatz wie in den 1980er-Jahren; seine Wurzeln durchziehen heute die Erfordernisse des Alltags, vermitteln sie doch fast jeden Aspekt unseres sozialen Miteinanders.2 Noch gestern schien es durchaus vernünftig, unser Augenmerk auf die Herausforderungen des Informationsarbeitsplatzes, eventuell auch auf eine Informationsgesellschaft zu konzentrieren. Heute müssen wir uns die ältesten Fragen im weitesten Sinne stellen – im Sinne der »Zivilisation« an sich, müsste man wohl sagen, oder spezifischer im Sinne einer Informationszivilisation. Wird die sich so herausbildende Zivilisation sich als etwas erweisen, was sich als Heimat bezeichnen lässt? Jede Kreatur richtet sich an einer Heimat aus. Das Zuhause ist der Ausgangspunkt, an dem jede Spezies sich orientiert. Völlig unmöglich, uns ohne diese Ausnordung in einer Terra incognita zu orientieren; ohne sie sind wir verloren. Daran erinnert mich jedes Frühjahr das Seetaucherpärchen, das von seiner weiten Reise in sein Nest unter unserem

Fenster zurückkehrt. Die eindringlichen Schreie, mit denen die beiden Heimkehr, Erneuerung, Verbundenheit und Geborgenheit feiern, lassen uns abends in der Gewissheit einschlafen, dass auch wir dort sind, wo wir hingehören. Die Grüne Meeresschildkröte bahnt sich nach dem Ausschlüpfen ihren Weg ins Meer, wo sie zehn, zwanzig Jahre lang Tausende von Kilometern zurücklegt; nach Erreichen der Geschlechtsreife findet sie zum Ablegen der Eier zurück an den Strand, an dem sie geboren wurde. Es gibt Vögel, die jedes Jahr Tausende von Kilometern zurücklegen und dabei die Hälfte ihres Körpergewichts verlieren, nur um sich am Ort ihrer Geburt zu paaren. Vögel, Bienen, Schmetterlinge … Nester, Bauten, Bäume, Seen, Stöcke, Hügel, Senken, Gestade … so gut wie jede Kreatur verfügt über die eine oder andere Spielart tiefer Verbundenheit mit einem Ort, mit dem sie die Vorstellung eines guten Lebens verbindet, mit einem Zuhause, wie wir sagen würden. Es liegt in der Natur menschlicher Ortsverbundenheit, dass jede Reise, jede Vertreibung die Suche nach einem Zuhause auslöst. Dass dieser nóstos, diese Heimkehr, eines unserer tiefsten Bedürfnisse ist, wird deutlich in dem Preis, den wir dafür zu zahlen bereit sind. Uns allen ist eine schmerzliche Sehnsucht nach der Rückkehr an den Ort gemein, den wir verlassen haben, oder danach, eine neue Heimat zu finden, in der unsere Hoffnungen für die Zukunft nisten und sich entfalten können. Noch heute lesen und erzählen wir von den Prüfungen des Odysseus, auf dass wir nicht vergessen, was Menschen zu opfern, was sie zu ertragen bereit sind, um ihre heimischen Gestade zu erreichen und durch ihr eigenes Tor zu gehen. Da unser Gehirn nun einmal größer ist als das von Vögeln und Meeresschildkröten, wissen wir, dass es nicht immer möglich, ja noch nicht einmal ausnahmslos wünschenswert ist, zu einem bestimmten Flecken Erde zurückzukehren. Heimat muss also nicht immer einem einzigen Zuhause, einem bestimmten Ort entsprechen; wir können uns ihre Beschaffenheit ebenso aussuchen wie ihre Verortung, nicht aber ihre Bedeutung. Heimat ist, wo wir Menschen kennen und wo wir den Menschen bekannt sind, wo wir lieben und wo wir geliebt werden. Heimat ist Souveränität, Stimme, Beziehungen und Freistatt – teils Freiheit, teils Entfaltung, teils Zuflucht, teils Chance. Das Gefühl, dass einem die Heimat entgleitet, zeitigt ein schier unerträgliches Sehnen in uns. Die Portugiesen haben ein spezielles Wort für

diese spezifische Art von Wehmut: saudade; es steht seit Jahrhunderten für Heimweh und das Fernweh unter Emigranten zugleich. Heute haben die Verwerfungen des 21. Jahrhunderts aus diesen heftigen Ängsten und den aus der Entwurzelung geborenen Sehnsüchten eine universelle Befindlichkeit gemacht; keiner von uns kann sich ihr entziehen.3

Requiem für ein Zuhause Im Jahr 2000 arbeitete eine Gruppe von Informatikern und IT-Ingenieuren der Technischen Hochschule in Atlanta, Georgia, an einem Projekt mit dem Namen »Aware Home«.4 Gedacht war dieses als »lebendes Labor« für eine Studie über »ubiquitäres Computing«. Man stellte sich eine »Symbiose von Mensch und Zuhause« vor, bei der zahlreiche unbelebte und belebte Prozesse über ein ausgeklügeltes Netzwerk »kontextsensitiver Sensoren« erfasst werden sollten, die überall im Haus und an von den Hausbewohnern getragenen »anziehbaren« Computern angebracht sein sollten. Das Design sah eine »automatisierte WLAN-Kollaboration« zwischen einer Plattform als Host für die persönlichen, von den »Wearables« der Hausbewohner übertragenen Informationen und einer zweiten Plattform als Host für die von allen anderen Sensoren übertragenen Umgebungsinformationen vor. Es gab drei Arbeitshypothesen: Erstens gingen die Forscher davon aus, dass die neuen Datensysteme ein ganz neues Wissensgebiet hervorbringen würden. Zweitens galt es als selbstverständlich, dass die Rechte an dem neuen Wissen und die Macht, dieses lebensverbessernd einzusetzen, ausschließlich den Hausbewohnern zustanden. Drittens sah das Team das »bewusste Zuhause« bei aller digitalen Hexerei als moderne Inkarnation der traditionellen Vorstellung eines »Heims«: als Zufluchtsort für die, die innerhalb seiner Mauern wohnen. Die Annahmen fanden ihren Ausdruck in der technischen Anlage, die Vertrauen, Einfachheit, Souveränität des Individuums und die Unantastbarkeit des Zuhauses als privater Bereich betonte. Man dachte sich das Informationssystem des Projekts als einfachen »geschlossenen Kreislauf« mit nur zwei Knoten, der allein von den Bewohnern des Hauses zu kontrollieren war. Da das Haus »Aufenthaltsort und Aktivitäten seiner

Bewohner rund um die Uhr … selbst in medizinischer Hinsicht beobachten würde«, bestünde »die klare Notwendigkeit, die Bewohner über Kontrolle und Verteilung dieser Informationen aufzuklären«. Sämtliche Informationen sollten in den Wearables gespeichert werden, »um sicherzugehen, dass der Schutz der Privatsphäre des Einzelnen gewahrt« bliebe. 2018 schätzte man den Wert des weltweiten »Smart-Home«-Markts auf 36 Milliarden Dollar und ging davon aus, dass er bis 2023 151 Milliarden erreichen würde.5 Unter der Oberfläche dieser Zahlen verbirgt sich ein Erdrutsch. Nehmen wir nur eines der Smart-Home-Geräte heraus: den Thermostat der Alphabet-Tochter Nest Labs, mit der Google 2018 fusionierte.6 Der Nest-Thermostat erledigt eine ganze Reihe der Dinge, die man sich für das Aware Home vorgestellt hatte. Er sammelt Daten über seinen Einsatz und seine Umgebung. Er ist »lernfähig« und arbeitet mit Bewegungssensoren und Rechnern, um das Verhalten der Hausbewohner zu erfassen. Nests Apps sind darüber hinaus in der Lage, die Daten anderer Produkte im Netz zu erfassen – Autos, Öfen, Fitness-Tracker, Betten.7 Solche Systeme können zum Beispiel Licht einschalten, wenn sie eine ungewöhnliche Bewegung wahrnehmen, und Video- und Audioaufnahmen veranlassen; sie können sogar Nachrichten an die Hausbesitzer oder andere verschicken. Als Resultat der Fusion von Nest und Google wird man den Thermostat mit Googles AI-Fähigkeiten ausstatten, zu denen etwa der digitale »Assistent« des Unternehmens gehört.8 Wie das Aware Home schaffen der Thermostat und seine Brüder unermessliches neues Wissen und damit neue Macht – nur für wen? WLAN-fähig und vernetzt wie er ist, werden die personalisierten Datenschätze des Thermostats auf Googles Server geladen. Jeder Thermostat wird mit Datenschutzerklärung, Nutzungsbestimmungen und Endnutzer-Lizenzvertrag ausgeliefert. Diese geben Auskunft über die erdrückenden Datenschutz- und Sicherheitsrichtlinien, nach denen man hochsensible persönliche und Informationen über den Haushalt weitergibt: an andere intelligente Geräte, an ungenanntes Personal sowie an unbeteiligte Dritte zur Erstellung prädiktiver Analysen – zu schweigen vom Verkauf der Daten an andere nicht näher genannte Parteien. Nest übernimmt herzlich wenig Verantwortung für die Sicherheit der Informationen, die man sammelt, und überhaupt keine dafür, wie andere Unternehmen in seinem

Ökosystem damit umgehen.9 Eine detaillierte Analyse von Nests Konditionen durch zwei Forscher an der University of London kam zu folgendem Schluss: Ließe man sich auf Nests Ökosystem vernetzter Geräte und Apps – von denen jedes seine eigenen nicht weniger umständlichen und dreisten Bedingungen mit sich bringt – ein, würde der Kauf eines einzigen Thermostats die Prüfung fast tausend sogenannter »Verträge« erfordern.10 Sollte der Kunde Nests Konditionen nicht annehmen, so heißt es in den Nutzungsbedingungen, wären nicht nur Funktionalität und Sicherheit des Thermostats kompromittiert, der Kunde würde sich auch des Supports und damit der Updates begeben, die die zuverlässige Funktion und Sicherheit des Geräts garantieren. Was alle möglichen Folgen haben könnte, von eingefrorenen Rohren über einen nicht ausgelösten Feueralarm bis hin zum gehackten Heimfunknetz.11 Mit anderen Worten: Die Annahmen des Aware-Home-Teams waren 2018 vom Winde verweht. Wo sind sie geblieben? Was war das für ein Wind? Das »bewusste Zuhause« stellte sich, wie so manch anderes visionäre Projekt, eine digitale Zukunft vor, die den Einzelnen dazu befähigt, ein effektiveres Leben zu führen. Von wesentlicher Bedeutung ist dabei, dass im Jahr 2000 diese Vision ganz selbstverständlich von einer kompromisslosen Zusage an die Intimität der persönlichen Erfahrung ausging. Sollte sich eine Person zu einer digitalen Erfassung ihrer Erfahrung entschließen, sie hätte sowohl den alleinigen Zugang zu dem aus solchen Daten gewonnenen Wissen als auch das alleinige Recht, darüber zu entscheiden, was mit diesem Wissen geschieht. Heute ist dieses Recht auf Privatsphäre, Wissen und seine Anwendung Opfer eines kühnen Marktabenteuers geworden, dessen Motor die einseitigen Ansprüche auf anderer Menschen Erfahrungen und das aus ihnen gewonnene Wissen sind. Was bedeutet dieser Wandel für uns, für unsere Kinder und für die Möglichkeit einer Zukunft des Menschen in einer digitalen Welt? Dieses Buch versucht eine Antwort auf diese Fragen zu geben. Es geht um die Verfinsterung des digitalen Traums und dessen rapide Mutation zu einem ganz und gar neuen gefräßigen kommerziell orientierten Projekt, dem ich den Namen Überwachungskapitalismus gegeben habe.

Was ist Überwachungskapitalismus? Überwachungskapitalismus beansprucht einseitig menschliche Erfahrung als Rohstoff zur Umwandlung in Verhaltensdaten. Ein Teil dieser Daten dient der Verbesserung von Produkten und Diensten, den Rest erklärt man zu proprietärem Verhaltensüberschuss, aus dem man mithilfe fortgeschrittener Fabrikationsprozesse, die wir unter der Bezeichnung »Maschinen- oder künstliche Intelligenz« zusammenfassen, Vorhersageprodukte fertigt, die erahnen, was sie jetzt, in Kürze oder irgendwann tun. Und schließlich werden diese Vorhersageprodukte auf einer neuen Art von Marktplatz für Verhaltensvorhersagen gehandelt, den ich als Verhaltensterminkontraktmarkt bezeichne. So erpicht wie zahllose Unternehmen darauf sind, auf unser künftiges Verhalten zu wetten, haben Überwachungskapitalisten es mittels dieser Operationen zu immensem Wohlstand gebracht. Wie wir in den kommenden Kapiteln sehen werden, zwingt die Wettbewerbsdynamik die Überwachungskapitalisten zum Erwerb immer aussagekräftigerer Quellen für Verhaltensüberschuss, wie sie etwa unsere Stimmen, Persönlichkeiten und Emotionen darstellen. Und schließlich sind sie dahintergekommen, dass man die aussagekräftigsten Verhaltensdaten überhaupt durch den aktiven Eingriff in den Stand der Dinge bekommt, mit anderen Worten, indem man Verhalten anstößt, herauskitzelt, tunt und in der Herde in Richtung profitabler Ergebnisse treibt. Motor dieser Entwicklung ist der Wettbewerbsdruck; Ergebnis dieses Wandels ist, dass automatisierte Maschinenprozesse unser Verhalten nicht nur kennen, sondern auch in einer wirtschaftlichen Größenordnung auszuformen vermögen. Angesichts dieser Abwendung vom bloßen Wissen hin zur Machtausübung genügt es nicht mehr, den Fluss der Informationen über uns zu automatisieren. Das neue Ziel besteht darin, uns selbst zu automatisieren. In dieser Evolutionsphase des Überwachungskapitalismus werden die Produktionsmittel zunehmend komplexen und umfassenden »Verhaltensmodifikationsmitteln« untergeordnet. Auf diese Weise gebiert der Überwachungskapitalismus eine neue Spezies von Macht, die ich als Instrumentarismus bezeichne. Instrumentäre Macht kennt und formt menschliches Verhalten im Sinne der Ziele anderer. Anstatt Waffen und Armeen bedient sie sich zur

Durchsetzung ihres Willens eines automatisierten Mediums: der zunehmend allgegenwärtigen rechnergestützten Architektur »intelligenter« vernetzter Geräte, Dinge und Räume. In den folgenden Kapiteln folgen wir dem Wachstum und der Ausbreitung dieser Operationen und der instrumentären Macht, die sie stützt. Es ist schwierig geworden, diesem kühnen Marktprojekt zu entkommen, reichen seine Tentakel doch mittlerweile von der sachten Beeinflussung argloser Pokémon-Go-Spieler, ihr Geld in Restaurants, Bars, Imbissstuben und Geschäfte zu tragen, die für ihre Wetten auf den Verhaltensterminkontraktmärkten bezahlen, bis hin zur skrupellosen Enteignung von Facebook-Profilen zum Zweck der Ausformung individuellen Verhaltens – sei es der Kauf einer Pickelsalbe freitags um Viertel vor sechs, der Klick auf ein Paar Laufschuhe während des Endorphinschubs nach dem Jogging am Sonntagmorgen oder die Parlamentswahl kommende Woche. So wie der Industriekapitalismus sich zur fortwährenden Weiterentwicklung der Produktionsmittel für die Herstellung preiswerter Produkte gezwungen sah, so sind die Überwachungskapitalisten und ihr Klientel heute Sklaven der fortwährenden Weiterentwicklung ihrer Mittel zur Verhaltensmodifikation und der zunehmenden Gewalt instrumentärer Macht. Der Überwachungskapitalismus läuft dem ursprünglichen digitalen Traum zuwider; das ursprüngliche Konzept des »bewussten Zuhauses« ist dank seiner längst obsolet. Er macht Schluss mit der Illusion, der vernetzten Form eigne so etwas wie eine immanente Moral – dass »verbunden« zu sein doch essenziell prosozial und integrativ sein müsse oder von Natur aus zur Demokratisierung von Wissen neige. Digitales Verbundensein ist heute ein Mittel zu anderer Leute geschäftlichen Zielen. Im Grunde seines Wesens ist der Überwachungskapitalismus parasitär und selbstreferenziell. Er haucht der alten Vorstellung vom Kapitalismus als sich von der Arbeit nährendem Vampir neues Leben ein – wenn auch mit einem von Marx nicht vorhergesehenen Dreh: Anstatt von Arbeit nährt der Überwachungskapitalismus sich von jeder Art menschlicher Erfahrung. Erfunden und perfektioniert hat den Überwachungskapitalismus Google, und zwar so ziemlich auf dieselbe Art, wie General Motors den Managementkapitalismus erfunden und zur Vollendung gebracht hat. Google war der Pionier des Überwachungskapitalismus sowohl in der

Theorie als auch in der Praxis; Google hatte das Geld für Forschung und Entwicklung; Google bahnte hinsichtlich Experiment und Implementierung den Weg. Nur dass das Unternehmen diesen Weg heute nicht mehr alleine geht. Der Überwachungskapitalismus breitete sich rasch auf Facebook und Microsoft aus, und es gibt Hinweise darauf, dass auch Amazon diesen Weg eingeschlagen hat. Und für Apple stellt er als Bedrohung von außen wie als Auslöser interner Debatten eine unablässige Herausforderung dar. Als Pionier des Überwachungskapitalismus hat Google eine beispiellose Marktoperation losgetreten, einen Vorstoß in die unkartierten Weiten des Internets, wo es mangels Gesetz oder Wettbewerb so gut wie keine Hindernisse gab – die Analogie mit einer invasiven Spezies in einem Ökosystem ohne natürliche Feinde drängt sich auf. Man zögerte nicht, sich bestehenden Rechts zu bedienen, um sein Anrecht auf diesen rechtsfreien Raum geltend zu machen, und betrieb die systemische Geschlossenheit seiner Geschäfte mit einem halsbrecherischen Tempo, dem weder der Staat noch der Privatmensch zu folgen vermochte. Außerdem profitierte Google von den Wendungen der Geschichte. Da ein nationaler Sicherheitsapparat sich nach 9 / 11 zum Handeln gezwungen sah, zeigte er sich, um der Allwissenheit und ihres Gewissheitsversprechens willen, mehr als geneigt, Googles im Entstehen begriffene Möglichkeiten zu hegen, nachzuahmen, zu schützen, sich diese nötigenfalls sogar anzueignen. Rasch erkannten die Überwachungskapitalisten, dass sie tun und lassen konnten, was sie wollten. Im modischen Gewand von Anwaltschaftlichkeit und Emanzipation machte man sich die Ängste der Zweiten Moderne zunutze, während die eigentliche Arbeit hinter den Kulissen stattfand. Die Tarnkappe, unter der man dabei arbeitete, wob man zu gleichen Teilen aus der Rhetorik eines zu Ungeahntem befähigenden Internets, einer flinken Vorgehensweise, der Gewissheit eines immensen Ertragsstroms und der Schutzlosigkeit des unzivilisierten Territoriums, das da zu erobern war. Sie arbeiteten dabei im Schutz der Unlesbarkeit automatisierter proprietärer Prozesse, der Unwissenheit, die diese Prozesse erzeugen, sowie dem Gefühl der Unabwendbarkeit, das sie befördern. Der Überwachungskapitalismus beschränkt sich längst nicht mehr auf den dramatischen Wettbewerb zwischen den großen Internetfirmen, deren Verhaltensterminkontraktmärkte zunächst nur auf die Online-Werbung gerichtet waren; seine ökonomischen Imperative und Mechanismen sind

zum Standardmodell praktisch aller webbasierten Unternehmen geworden. Und schließlich sorgte der Wettbewerbsdruck dann auch für die Ausdehnung in die Offline-Welt, wo dieselben Grundmechanismen, die Sie online Ihres Browserverhaltens, Ihrer »Likes« und Klicks enteignen, auf Ihr Jogging im Park, auf Ihre Frühstückskonversation und auf Ihre Jagd nach einem Parkplatz gerichtet sind. Und die Verhaltensterminkontraktmärkte, auf denen heute Vorhersageprodukte gehandelt werden, erstrecken sich weit über die zielgerichtete Online-Werbung hinaus auf zahlreiche andere Geschäftsfelder, so etwa Versicherungen, Einzelhandel, Finanzwesen und ein wachsendes Spektrum von Industrie- und Dienstleistungsunternehmen, die fest entschlossen sind, an diesen neuen und profitablen Märkten teilzuhaben. Egal, ob es um »intelligente« Geräte für zuhause geht, um »verhaltensorientierte« Versicherungsprämien oder irgendeine von Tausenden von anderen Transaktionen, wir sehen uns entmündigt und müssen dafür auch noch bezahlen. So gesehen sind die Produkte und Dienstleistungen des Überwachungskapitalismus mitnichten die Objekte eines Wertaustauschs; von einer konstruktiven Reziprozität zwischen Produzent und Konsument kann hier keine Rede mehr sein. Vielmehr sind sie »Köder«, die die Nutzer in seine ausbeuterischen Operationen locken, in denen man ihre persönliche Erfahrungswelt ausschlachtet und als Mittel zu anderer Leute Ziele verpackt und verkauft. Weder sind wir die »Kunden« des Überwachungskapitalismus, noch gilt das Motto »wenn es nichts kostet, bist du das Produkt«. Wir sind die Quellen für den alles entscheidenden Überschuss des Überwachungskapitalismus – die Objekte einer technologisch fortgeschrittenen und zunehmend unentrinnbaren Operation zur Rohstoffgewinnung. Die eigentlichen Kunden des Überwachungskapitalismus sind die Unternehmen, die ihre Wetten auf seinen Märkten für künftiges Verhalten platzieren. Diese Logik macht unser Alltagsleben zur täglichen Erneuerung eines zeitgenössischen faustischen Pakts. »Faustisch« deshalb, weil es uns – trotz des Umstands, dass das, was wir dafür geben müssen, unser Leben auf immer verändern wird – nahezu unmöglich ist, uns diesem Pakt zu entziehen. Bedenken Sie Folgendes: Das Internet ist unabdingbar geworden für soziale Teilhabe; das Internet ist heute vom Kommerz bestimmt; dieser Kommerz ist heute dem Überwachungskapitalismus untergeordnet. Unsere

Abhängigkeit steht demnach im Herzen des kommerziellen Überwachungsprojekts, in dem unser gefühltes Bedürfnis nach einem effektiven Leben mit der Neigung ringt, seinen dreisten Eingriffen zu widerstehen. Dieser Konflikt sorgt für eine seelisch-geistige Abstumpfung, die uns dickfellig macht gegenüber der Realität, getrackt, geparst, ausgewrungen und modifiziert zu werden. Sie sorgt für eine Neigung, uns die Lage in einer Art zynischer Resignation schönzureden, uns mit Ausflüchten – »ich habe ja nichts zu verstecken« – zu verteidigen oder den Kopf sonst wie in den Sand zu stecken. Wir entscheiden uns also aus Überdruss und Hilflosigkeit für die Unwissenheit.12 So zwingt uns der Überwachungskapitalismus, eine von Grund auf illegitime Entscheidung zu treffen, die eines Individuums im 21. Jahrhundert unwürdig ist. Und dass sie zum Normalfall wird, lässt uns, obschon in Ketten gelegt, auch noch jubilieren.13 Der Überwachungskapitalismus operiert mittels dieser beispiellosen Asymmetrien an Wissen und der Macht, die damit einhergeht. Überwachungskapitalisten wissen alles über uns, während ihre Operationen so gestaltet sind, uns gegenüber unkenntlich zu sein. Überwachungskapitalisten entziehen uns unermessliche Mengen neuen Wissens, aber nicht für uns; sie sagen unsere Zukunft nicht zu unserem, sondern zu anderer Leute Vorteil voraus. Solange wir dem Überwachungskapitalismus und seinen Verhaltensterminkontraktmärkten zu florieren gestatten, solange wird der Besitz der neuen Verhaltensmodifikationsmittel den Besitz der Produktionsmittel als Ursprung kapitalistischen Wohlstands und der Macht im 21. Jahrhundert in den Schatten stellen. Wir werden diese Tatsachen und ihre Auswirkungen auf unser individuelles Leben, unsere Gesellschaften und unsere sich herausbildende Informationszivilisation in den folgenden Kapiteln genauer unter die Lupe nehmen. Die Indizien, so wie ich sie verstehe, legen den Schluss nahe, dass es sich beim Überwachungskapitalismus um eine aus dem Ruder gelaufene, von neuartigen ökonomischen Imperativen getriebene Kraft handelt, die nicht nur soziale Normen ignoriert, sondern auch die Naturrechte aufhebt, die wir mit der Souveränität des Einzelnen verbinden und auf denen jede Möglichkeit von Demokratie an sich baut.

So wie die Industriezivilisation auf Kosten der Natur florierte und uns heute die Erde zu kosten droht, wird eine vom Überwachungskapitalismus und seiner instrumentären Macht geprägte Informationszivilisation auf Kosten der menschlichen Natur florieren, womit sie uns unser Menschsein zu kosten droht. Das industrielle Erbe eines Klimadesasters erfüllt uns mit Schrecken, Gewissensbissen und Angst. Vor welchem ungeahnten Erbe von Schädigungen und Gewissensbissen werden sich dann künftige Generationen sehen, wenn der Überwachungskapitalismus die beherrschende Form des Informationskapitalismus unserer Zeit werden sollte? Wenn Sie diese Zeilen lesen, wird die Reichweite dieser neuen Form bereits weiter zugenommen haben, schließlich machen immer mehr Unternehmen, Start-ups, App-Entwickler und Investoren unter dem Banner dieser plausibelsten aller Versionen des Informationskapitalismus mobil. Diese Mobilisierung und der Widerstand, den sie zeitigt, werden eines der wesentlichen Schlachtfelder im Kampf um die Möglichkeit einer menschlichen Zukunft an der neuen Grenze der Macht definieren.

Das Beispiellose Unter den Gründen für die zahlreichen Triumphe des Überwachungskapitalismus ragt einer deutlich hervor: seine Beispiellosigkeit. Das Beispiellose ist seinem Wesen nach nicht zu erkennen. Begegnet uns etwas Beispielloses, interpretieren wir es zwangsläufig durch die Optik vertrauter Kategorien, was es uns unmöglich macht, es tatsächlich zu sehen. Ein klassisches Beispiel ist die Vorstellung vom »pferdelosen Wagen«, auf welche die Leute zurückgriffen, als sie sich zum ersten Mal mit dem beispiellosen Faktum eines »Motorwagens« konfrontiert sahen. Und ein tragisches Beispiel ist die Begegnung indigener Völker mit den Konquistadoren. Wie um alles in der Welt hätten die Taíno der präkolumbianischen Karibikinseln, als sie zum ersten Mal verschwitzte bärtige spanische Soldaten in Brokat und Brustpanzer den Sandstrand heraufstapfen sahen, Bedeutung und Tragweite dieses Augenblicks ahnen sollen? Unfähig, sich die eigene Vernichtung vorzustellen, hielten sie die merkwürdigen Kreaturen für Götter und hießen sie mit der gebotenen

Gastfreundschaft willkommen. So sperrt sich das Beispiellose zwangsläufig unserem Verständnis, denn bestehende Sichtweisen heben das Vertraute hervor, während sie den Blick auf das Neue dadurch trüben, dass sie das Beispiellose lediglich als Auswuchs der Vergangenheit sehen. Durch diese Normalisierung des Abnormen gestaltet sich die Kampfansage an das Beispiellose nur umso schwieriger. Vor einigen Jahren schlug in einer stürmischen Nacht der Blitz bei uns ein, und ich erfuhr die sich jedem Verständnis sperrende Kraft des Beispiellosen am eigenen Leib. Wenige Augenblicke nach dem Einschlag schon quoll dicker schwarzer Rauch aus dem Erdgeschoss die Treppe herauf. Als wir, endlich handlungsfähig, die Feuerwehr riefen, meinte ich, ein, zwei Minuten zu haben, um noch etwas Nützliches zu tun, bevor ich mich der nach draußen geflüchteten Familie anschloss. Zuerst lief ich nach oben und schloss alle Türen, um die Zimmer vor dem Rauch zu schützen. Als Nächstes rannte ich wieder hinab ins Wohnzimmer, wo ich so viele von unseren Fotoalben zusammenraffte, wie ich nur tragen konnte, um sie auf die Veranda in Sicherheit zu bringen. Just in dem Augenblick, in dem der Rauch mich erreichte, bekam der Einsatzleiter der Feuerwehr mich an der Schulter zu fassen und zerrte mich aus dem Haus. Fassungslos standen wir im strömenden Regen, als das Haus auch schon explosionsartig in Flammen aufging. Ich lernte so einiges aus diesem Brand, aber mit das Wichtigste war die Unerkennbarkeit des Beispiellosen. In der ersten Not konnte ich mir den Schaden vorstellen, den der Rauch an unserem Haus anrichten würde, nicht aber dass es völlig verschwand. Ich verstand das Geschehen durch die Linse meiner Erfahrung gesehen, stellte es mir vor als leidige, aber letztlich zu bewältigende Umleitung zurück zum Status quo. Außerstande, das Beispiellose zu erkennen, fiel mir nichts anderes ein, als die Türen von Zimmern zu schließen, die es bald nicht mehr geben sollte, und mich auf einer Veranda in Sicherheit zu wähnen, deren Schicksal bereits besiegelt war. Trotz der Unmittelbarkeit des Erlebnisses war ich blind gegenüber Bedingungen, für die es in meiner Erfahrungswelt keine Präzedenzfälle gab. Zu studieren begann ich die Herausbildung dessen, was ich schließlich als Überwachungskapitalismus bezeichnen sollte, 2006 im Rahmen einer Reihe von Interviews mit Unternehmern und Angestellten aus dem Hightech-Sektor in den Vereinigten Staaten und Großbritannien. Einige

Jahre lang interpretierte ich die ebenso unerwarteten wie besorgniserregenden Praktiken, die ich dabei dokumentierte, lediglich als Umleitungen, die wieder auf die Hauptstraße zurückführen würden, als Schnitzer des Managements, Fehlurteile oder mangelndes Verständnis der Zusammenhänge. Meine Felddaten wurden in jener Nacht ein Raub der Flammen, und als ich 2011 den Faden wiederaufnahm, war mir klar, dass da etwas ganz anderes Gestalt anzunehmen begann. Ich hatte viele der im Unterholz versteckten Details verloren, aber die Profile der Bäume zeichneten sich dafür umso deutlicher ab: der Informationskapitalismus hatte eine entschiedene Wendung hin zu einer neuen Logik der Akkumulation genommen, einer Logik mit spezifischen operativen Mechanismen, ökonomischen Imperativen und eigenen Märkten. Ich sah sofort, dass diese neue Form sich von den herkömmlichen Normen und Praktiken gelöst hatte, durch die die Geschichte des Kapitalismus sich definiert, und dass die Ausgeburt dieser Entwicklung so bestürzend wie beispiellos war. In einer wesentlichen Hinsicht freilich lässt sich die Herausbildung des Beispiellosen in der Wirtschaftsgeschichte nicht mit dem Brand eines Hauses vergleichen. Die Vorzeichen einer Feuerkatastrophe waren beispiellos für meine Erfahrungswelt, aber sie waren an sich nicht einzigartig. Im Gegensatz dazu ist der Überwachungskapitalismus ein völlig neuer Akteur der Geschichte, sowohl originär als auch sui generis. Er ist einzig in seiner Art und mit nichts zu vergleichen: ein eigener Planet mit seinen eigenen Gesetzen von Zeit und Raum, mit 67-Stunden-Tagen, smaragdgrünem Himmel, invertierten Gebirgen und trockenem Wasser. Nichtsdestoweniger ist die Gefahr, Türen von Zimmern zu schließen, die bald nicht mehr existieren, durchaus real. Seine Beispiellosigkeit hat es dem Überwachungskapitalismus ermöglicht, sich dem systematischen Wettbewerb zu entziehen, weil er durch vertraute Optiken einfach nicht hinlänglich zu erkennen ist. Wir verlassen uns bei unserer Kritik an überwachungskapitalistischen Praktiken auf Kategorien wie »Monopole« oder die »Verletzung des Rechts auf Privatsphäre«. Aber selbst wenn man diese nicht außen vor lassen kann, weil überwachungskapitalistische Operationen auch Monopole sind und zweifelsohne eine Bedrohung der Privatsphäre darstellen, versagen diese Kategorien bei der Aufgabe, die

ebenso wesentlichen wie beispiellosen Fakten des neuen Regimes zu identifizieren. Setzt der Überwachungskapitalismus seinen gegenwärtigen Kurs fort und wird zur dominanten Akkumulationslogik unserer Ära, oder werden wir ihn zu gegebener Zeit zum unzeitgemäßen Monstrum, zu einer beängstigenden, aber letztlich zum Scheitern verurteilten Fehlentwicklung in der größeren Geschichte des Kapitalismus erklären? Und falls er zum Scheitern verurteilt sein sollte, was wird für dieses Scheitern verantwortlich sein? Wie müsste ein wirksamer Impfstoff dagegen aussehen? Jeder Impfstoff beginnt mit dem sorgfältigen Studium der Krankheit, die es abzuwehren gilt. Dieses Buch möchte aufzeigen, was am Überwachungskapitalismus merkwürdig, originell, ja unvorstellbar ist. Es ist getragen von der Überzeugung, dass es neben einem frischen Blick und der Analyse auch einer neuen Benennung bedarf, wollen wir das Beispiellose, und das ist die Voraussetzung für eine effektive Kampfansage, tatsächlich verstehen. Die folgenden Kapitel werden sich sowohl die spezifischen Bedingungen vornehmen, die dem Überwachungskapitalismus Wurzeln zu fassen und zu florieren erlaubten, als auch die »Bewegungsgesetze«, die hinter Aktion und Expansion dieser Marktform stehen; ihre Grundmechanismen, ihre ökonomischen Imperative, ihre Beschaffungsökonomie, ihre Machtstrukturen sowie ihre Prinzipien sozialer Ordnung. Lassen Sie uns Türen schließen, aber lassen Sie uns dafür sorgen, dass es die richtigen sind.

Der Puppenspieler, nicht die Puppe Unsere Anstrengungen, dem Beispiellosen zu begegnen, müssen mit der Erkenntnis beginnen, dass wir hinter dem Puppenspieler her sind und nicht hinter der Puppe. Eine erste Hürde vor einem Verständnis ist die Verwechslung des Überwachungskapitalismus mit den Technologien, derer er sich bedient. Der Überwachungskapitalismus ist keine Technologie; er ist vielmehr die Logik, die die Technologie und ihr Handeln beseelt. Der Überwachungskapitalismus ist eine Marktform, die außerhalb des digitalen Milieus unvorstellbar ist, aber sie ist nicht mit »dem Digitalen«

gleichzusetzen. Wie wir an der »Aware-Home«-Episode gesehen haben – und in Kapitel 2 gleich nochmal sehen werden –, kann das Digitale viele Formen annehmen, je nach der sozialen und ökonomischen Logik, die ihm Leben einhaucht. Den Preis, in diesem Falle Knechtung und Hilflosigkeit, weist ihm der Überwachungskapitalismus zu, nicht etwa die Technologie. Dass es sich beim Überwachungskapitalismus um Logik in Aktion handelt und nicht um eine Technologie, ist schon deshalb ein wesentlicher Punkt, weil Überwachungskapitalisten uns ihre Praktiken als unvermeidbare Funktionen der von ihnen eingesetzten Technologien zu verkaufen versuchen. 2009 zum Beispiel, wurde sich die Öffentlichkeit zum ersten Mal bewusst, dass Google unseren Suchverlauf zeitlich unbegrenzt speichert, dass diese Daten mit anderen Worten nicht nur Rohstoffvorkommen sind, sondern auch Nachrichtendiensten und Strafverfolgungsbehörden zugänglich. Nach diesen Praktiken gefragt, sinnierte der damalige CEO des Unternehmens Eric Schmidt: »Tatsache ist, dass Suchmaschinen wie Google diese Informationen für einige Zeit speichern«.14 Suchmaschinen speichern jedoch nicht von sich aus; es ist der Überwachungskapitalismus, der speichern lässt. Schmidts Aussage ist klassische Irreführung. Sie versucht, der Öffentlichkeit kommerzielle Imperative als technische Notwendigkeiten anzudrehen. Sie verschleiert die konkreten Praktiken des Überwachungskapitalismus ebenso wie die spezifischen Entscheidungen hinter Googles spezieller Art von Suche. Vor allem aber stellt sie die Praktiken des Überwachungskapitalismus als unvermeidbar hin, wo sie doch in Wirklichkeit ebenso akribisch kalkulierte wie üppig finanzierte Mittel zu eigennützigem kommerziellen Handeln sind. Wir befassen uns mit dem Problem des »Inevitabilismus« eingehend in Kapitel 7. Belassen wir es fürs Erste dabei, dass bei allem futuristischen Raffinement digitaler Innovation die Message überwachungskapitalistischer Unternehmen sich kaum unterscheidet von dem Motto, unter dem 1933 die Chicagoer Weltausstellung stand: »Science Finds – Industry Applies – Man Conforms«: »Die Wissenschaft [er]findet – Die Industrie wendet an – Der Mensch passt sich an«. Um derlei Behauptungen technologischer Unvermeidbarkeit den Kampf anzusagen, ist zunächst eine Standortbestimmung vonnöten. Wir können

den gegenwärtigen Kurs der Informationsgesellschaft unmöglich einschätzen, ohne uns klar vor Augen zu führen, dass Technologie nie für sich selbst, nie unabhängig von Wirtschaft und Gesellschaft existiert. Das wiederum impliziert, dass es so etwas wie technologische Unvermeidbarkeit schlicht nicht gibt. Eine Technologie ist nie Selbstzweck, sondern immer ökonomisches Mittel: In der Moderne ist die DNA der Technologie in ihrem Wesen am jeweiligen Muster »ökonomischer Orientierung« ausgerichtet, wie Max Weber es nennt. Wirtschaftliche Ziele sind laut Max Weber integraler Bestandteil sowohl bei der Entwicklung als auch im Einsatz von Technologie. »Wirtschaften«, er meint damit ökonomisches Handeln, bestimme die Ziele, wogegen die Technologie nur die »geeigneten Mittel« stelle. »Die ökonomische Orientiertheit der heute sog. technologischen Entwicklung an Gewinnchancen«, so heißt es bei Weber, »ist eine der Grundtatsachen der Geschichte der Technik.«15 In einer modernen kapitalistischen Gesellschaft ist Technologie Ausdruck ökonomischer Zielsetzung, die ihre Umsetzung dirigiert. Das war immer so und wird auch immer so bleiben. Es wäre den Versuch wert, den Begriff »Technik« bzw. »Technologie« aus unserem Wortschatz zu streichen – womöglich würden wir die Ziele des Kapitalismus dadurch im Handumdrehen entblößen. Der Überwachungskapitalismus setzt viele Technologien ein, kann aber nicht mit irgendeiner dieser Technologien gleichgesetzt werden. Seine Operationen mögen sich Plattformen bedienen, sind aber nicht mit diesen gleichzusetzen. Er bedient sich der Maschinenintelligenz, ist aber nicht auf diese zu reduzieren. Er produziert und stützt sich auf Algorithmen, ist aber nicht dasselbe wie ein Algorithmus. Die einzigartigen ökonomischen Imperative des Überwachungskapitalismus sind die Puppenspieler, die hinter dem Vorhang die Drähte der Maschinen ziehen, sie ausrichten, sie handeln lassen. Diese Imperative, um eine weitere Metapher zu bemühen, sind das weiche Gewebe des Körpers, das beim Röntgen zwar nicht zu sehen ist, aber die eigentliche Arbeit der Verbindung zwischen Muskeln und Knochen zu leisten hat. Wir sind nicht die Ersten, die auf die technologische Illusion hereinfallen. Es handelt sich dabei um ein Thema gesellschaftstheoretischen Denkens, das mindestens so alt ist wie das trojanische Pferd. Und dennoch vergisst jede Generation aufs Neue, dass

Technik stets Ausdruck ganz anderer Interessen ist. In der Moderne sind das die Interessen des Kapitals, und in unserer Zeit ist es das Überwachungskapital, welches das digitale Milieu dirigiert und damit unseren Weg in die Zukunft bestimmt. Ziel dieses Buches ist es, die Gesetzmäßigkeiten des Überwachungskapitalismus zu durchschauen; schließlich sind sie es, die heute diese exotischen trojanischen Pferde beseelen, die uns mit uralten Fragen konfrontieren, während sie sich auf unser Leben zubewegen, unsere Gesellschaften, unsere Zivilisation. Es ist nicht das erste Mal, dass wir uns vor einem Abgrund wie diesem sehen. »Wir stolpern jetzt schon geraume Zeit so dahin in unserem Versuch, eine neue Zivilisation auf herkömmliche Weise zu führen, aber es wird langsam Zeit für eine Neugestaltung der Welt.«16 1912 legte Thomas Edison in einem Brief an Henry Ford seine Vision einer neuen Industriezivilisation dar. Edison machte sich Sorgen, die hartnäckige Macht von Raubkapitalismus und Monopolökonomien könnte das Potenzial des Industrialismus zum Fortschritt der Menschheit hintertreiben. Er kritisierte den amerikanischen Kapitalismus als »verschwenderisch« und »grausam«: »Unsere Produktion, unsere Fabrikgesetze, unsere Wohlfahrtseinrichtungen, unsere Beziehungen von Kapital und Arbeit, unser Vertrieb – alles verkehrt, Leerlauf, wohin man sieht.« Sowohl Edison als auch Ford verstanden, dass die moderne Industriezivilisation, in die sie so große Hoffnungen setzten, einer Finsternis entgegentaumelte, die von Elend für die vielen und Wohlstand für die wenigen gekennzeichnet war. Für unseren Diskurs von besonderer Bedeutung ist, dass beide, Edison wie Ford, eines begriffen hatten: Das moralische Leben der Industriezivilisation würde durch die Praktiken des Kapitalismus geformt werden, der zu ihrer Zeit auf dem Weg zur Vorherrschaft war. Beide waren sie überzeugt davon, dass Amerika und letztlich die ganze Welt einen neuen, vernünftigeren Kapitalismus erarbeiten müssten, um eine Zukunft konfliktträchtigen Elends abzuwenden. Edisons Ansicht nach wäre dabei alles neu zu gestalten – neue Technologien, ja, aber diese hätten eine neue Art des Verständnisses für die Bedürfnisse der Menschen und deren Befriedigung zu reflektieren; es bräuchte ein neues Wirtschaftsmodell, das diese neuen Praktiken profitabel machen könnte; aber es bräuchte auch einen neuen Gesellschaftsvertrag, der all das zu tragen vermochte. Ein

neues Jahrhundert war angebrochen, aber die Evolution des Kapitalismus gehorchte, wie der Mahlstrom der Zivilisationen, weder einem Kalender noch einer Uhr. Man schrieb das Jahr 1912, und das 19. Jahrhundert weigerte sich, seinen Anspruch auf das 20. aufzugeben. Dasselbe ließe sich über unsere Zeit sagen. Während ich diese Worte schreibe, befinden wir uns bereits mitten im zweiten Jahrzehnt des 21., sehen uns aber nach wie vor in den Klauen des ökonomischen und sozialen Wettstreits des 20. Jahrhunderts. Dieser Wettstreit bildet die Bühne, auf welcher der Überwachungskapitalismus sein Debüt feierte und sich als Urheber eines neuen Kapitels in der langen Saga der kapitalistischen Evolution zum Star zu entwickeln begann. Es ist dies das dramatische Umfeld, dem wir uns jetzt zuwenden, der Schauplatz, an den wir uns begeben müssen, um unser Thema im richtigen Zusammenhang zu sehen. Der Überwachungskapitalismus ist kein Unfall übereifriger Technologen, sondern ein aus dem Ruder gelaufener Kapitalismus, der gelernt hat, seine historischen Bedingungen raffiniert auszubeuten und seinen Erfolg zu verteidigen.

Grundriss, Themen und Quellen dieses Buches Dieses Buch versteht sich als erster Versuch, eine Terra incognita zu vermessen, als erster Vorstoß, der hoffentlich vielen Forschern den Weg bereiten wird. Das Bemühen um ein Verständnis des Überwachungskapitalismus und seiner Folgen führt den Forscher zwangsläufig über die Grenzen zahlreicher Disziplinen und gelegentlich auch historischer Perioden. Es geht mir hier um die Entwicklung von Begriffen, um die Ausarbeitung eines Bezugssystems, das uns das Muster hinter bislang nur scheinbar disparaten Begriffen, Phänomenen und rhetorischen wie praktischen Fragmenten erkennen hilft. Ich zeichne die Konturen dieser Karte notwendigerweise nach den rasanten Strömungen unserer turbulenten Zeit. Meine Methode, Sinn in den Strom brodelnder Ereignisse rund um uns zu bringen, besteht darin, die tieferen Muster aus dem Wirrwarr technischer Details und Unternehmensrhetorik herauszuarbeiten. Die Wirksamkeit dieses Ansatzes

wird daran zu bemessen sein, in welchem Maße uns diese Karte und ihre Begriffe bei der Ausleuchtung des Beispiellosen behilflich sein und uns zu einem umfassenderen Verständnis der rasanten Ereignisse rund um uns verhelfen können, während der Überwachungskapitalismus seinem langfristigen Ziel der ökonomischen und gesellschaftlichen Vorherrschaft entgegengeht. Das Zeitalter des Überwachungskapitalismus gliedert sich in drei Teile zu je drei oder vier Kapiteln und einem Schlusskapitel als eine Art Epilog, der sich reflektierend an einem Ausblick versucht. Teil I beschäftigt sich mit den Grundlagen des Überwachungskapitalismus: seinen Ursprüngen und seiner frühen Entwicklung. In Kapitel 2 stecke ich zunächst den historischen Rahmen ab, in dem der Überwachungskapitalismus debütierte und erste Erfolge verbuchen konnte. Dies ist deshalb so wichtig, weil wir uns, wie ich fürchte, viel zu lange mit oberflächlichen Erklärungen für seinen rasanten Aufstieg und die allgemeine Akzeptanz seiner Praktiken zufriedengegeben haben. So haben wir etwa Vorstellungen wie unsere »Bequemlichkeit« dafür verantwortlich gemacht oder den Umstand, dass diese Dienstleistungen »kostenlos« sind. Da ich das nicht so sehe, setze ich mich in Kapitel 2 mit den gesellschaftlichen Bedingungen auseinander, die das Digitale in unseren Alltag gerufen haben und die dem Überwachungskapitalismus halfen, Wurzeln zu fassen und aufzublühen. Ich spreche in diesem Zusammenhang von einer »Kollision« des jahrhundertelangen Individualisierungsprozesses, der unsere Erfahrung als selbstbestimmte Individuen ausgeformt hat, mit einem durch ein jahrzehntelanges Regime neoliberaler Marktwirtschaft geschaffenen Biotop, in dem wir immer wieder sowohl unser Selbstwertgefühl als auch unser Bedürfnis nach Selbstbestimmung frustriert sehen. Die schmerzliche Erfahrung dieses Widerspruchs gebar die Bedingungen, die uns überhaupt erst, schwer angeschlagen und auf der Suche nach Beistand, ins Internet fliehen ließen, wo wir uns dann auf das drakonische Quidproquo des Überwachungskapitalismus getrimmt sahen. Anschließend widmet sich Teil I der Erfindung des Überwachungskapitalismus und seiner beginnenden Ausarbeitung bei Google, wo man seine konstituierenden Mechanismen, ökonomischen Imperative und »Bewegungsgesetze« entdeckt und weiterentwickelt hat. Aber bei all seiner technologischen Tüchtigkeit, das eigentliche Verdienst

für Googles Erfolg gebührt den radikal neu gefassten sozialen Beziehungen, die das Unternehmen handstreichartig zu Fakten deklarierte, allen voran seine fundamentale Missachtung jeglicher Grenzen hinsichtlich unserer Intimsphäre und der moralischen Integrität des autonomen Einzelnen. Vielmehr bestanden die Überwachungskapitalisten – um einer einseitigen Überwachung und der eigenmächtigen Ausbeutung menschlicher Erfahrung zum Vorteil Dritter willen – auf ihr Recht, nach Belieben einzufallen in seine Intimsphäre und ihn seines Rechts auf Selbstbestimmung zu berauben. Vorschub leisteten diesen übergriffigen Ansprüchen das Fehlen einer gesetzlichen Regelung, die ihrem Vormarsch Einhalt geboten hätte, die Deckungsgleichheit der Interessen von Überwachungskapitalismus und Überwachungsstaat sowie die Hartnäckigkeit, mit der das Unternehmen seine neu eroberten Gebiete verteidigte. Schließlich erstellte Google ein taktisches Regelwerk, das für die Institutionalisierung seiner überwachungskapitalistischen Operationen als beherrschende Form des Informationskapitalismus sorgte und damit neue Wettbewerber in den Wettlauf um Überwachungserträge zog. Kraft dieser Leistungen erfreuen sich Google und sein expandierendes Universum von Wettbewerbern heute in der Menschheitsgeschichte beispielloser Asymmetrien an Wissen und Macht. Meiner Ansicht nach lässt sich die Bedeutung dieser Entwicklungen am besten als die Privatisierung der Wissensteilung in der Gesellschaft verstehen, die die kritische Achse sozialer Ordnung im Informationskapitalismus des 21. Jahrhunderts ist. Teil II verfolgt die Migration des Überwachungskapitalismus vom Online-Milieu in die reale Welt, die eine Folge des Wettlaufs um die maximale Gewissheit von Vorhersageprodukten ist. Hier beschäftigen wir uns mit diesem neuen Reality-Business, das auf sämtliche Aspekte menschlicher Erfahrung abzielt und Anspruch auf sie als Rohstoff für die Gewinnung von Verhaltensdaten erhebt. Ein Gutteil dieser Arbeit erfolgt unter dem Banner der »Personalisierung«, hinter der sich aggressive Extraktionsoperationen verbergen, die Daten in den intimsten Tiefen unseres Alltags schürfen. Mit Zunahme des Wettbewerbs sehen Überwachungskapitalisten, dass die Extraktion menschlicher Erfahrung allein nicht mehr ausreicht. Der aussagekräftigste Rohstoff ergibt sich aus dem aktiven Eingriff in unsere Erfahrung, mit dem sich unser Verhalten den kommerziellen Interessen der Überwachungskapitalisten entsprechend

ausformen lässt. Da die Produktionsmittel im Überwachungskapitalismus neuen und komplexeren Verhaltensmodifikationsmitteln untergeordnet sind, zielen neue automatisierte Protokolle darauf ab, menschliches Verhalten in einer wirtschaftlich interessanten Größenordnung zu beeinflussen und zu verändern. In Aktion sehen wir diese Protokolle etwa bei Facebooks »Contagion Experiments«, Studien zur Ausbreitung von Emotionen in Netzwerken, und bei dem von Google ausgebrüteten »Reality-Game« Pokémon Go. Einen Beleg für unsere seelisch-geistige Abstumpfung können wir darin sehen, dass Techniken zur Modifikation des Massenverhaltens für die amerikanische Gesellschaft noch vor wenigen Jahrzehnten als Bedrohung unserer individuellen Autonomie und unserer demokratischen Ordnung inakzeptabel waren. Heute stoßen derlei Praktiken kaum auf Widerstand, es gibt noch nicht einmal einen großen Diskurs darüber, und das obwohl sie heute auf der Jagd nach Überwachungserträgen routinemäßig und praktisch überall zum Einsatz kommen. Ich sehe die Operationen des Überwachungskapitalismus als Gefahr für unser natürliches Recht auf das Futur, das dem Einzelnen die Fähigkeit verleiht, sich eine Zukunft vorzustellen, vorzunehmen, zu versprechen und aufzubauen. Ich stelle und beantworte die Frage: Wie kamen die damit durch? Ich beende Teil II dann mit einer Überlegung zu unserer Geschichte: Wenn der Industriekapitalismus einen gefährlichen Bruch mit der Natur konstituierte, welchen Schaden könnte die menschliche Natur, das menschliche Wesen, durch den Überwachungskapitalismus nehmen? Teil III schließlich untersucht den Aufstieg der instrumentären Macht, ihren Ausdruck in einer allgegenwärtigen, wahrnehmungsfähigen und vernetzten rechnergestützten Infrastruktur, die ich als Big Other (das Große Andere) bezeichne, sowie die neuartige, zutiefst antidemokratische Vision der Gesellschaft und der sozialen Beziehungen, die dadurch entsteht. Ich sehe den Instrumentarismus als beispiellose neue Art von Macht, die sich schon deshalb dem Verständnis sperrt, weil wir bei der Betrachtung durch herkömmliche Optiken weder ihre Andersartigkeit noch ihre Gefahren sehen. Der Totalitarismus war die Transformation des Staats zu einem Projekt totaler Vereinnahmung. Der Instrumentarismus und seine Verkörperung in Big Other bedeuten die Verwandlung des Markts in ein Projekt totaler Gewissheit – ein Unterfangen, das außerhalb des digitalen Milieus, aber auch jenseits der Logik des Überwachungskapitalismus

schlicht nicht vorstellbar ist. Bei der benennenden Analyse instrumentärer Macht gehe ich zurück zu den Anfängen der theoretischen Physik und ihrem späteren Niederschlag in B. F. Skinners behavioristischer Konditionierung. Schließlich folgen wir dem Überwachungskapitalismus in einen zweiten Phasenwechsel. Äußerte sich der erste in einer Migration von der virtuellen in die reale Welt, besteht dieser zweite Phasenwechsel in der Verschiebung des Fokus von der realen auf die soziale Welt: Jetzt wird die Gesellschaft selbst zum Gegenstand von Kontrolle und Modifikation. So wie die Industriegesellschaft als gut geölte Maschine gedacht war, hat man sich die instrumentäre Gesellschaft als Humansimulation von Maschinenlernsystemen vorzustellen: ein konfluierendes Schwarmgehirn, in dem jedes Element im Verein mit jedem anderen Element lernt und funktioniert. In diesem Modell maschineller Konfluenz ist die »Freiheit« jeder individuellen Maschine dem Wissen des ganzen Systems untergeordnet. Instrumentäre Macht zielt darauf ab, die Gesellschaft im Sinne einer der maschinellen ähnlichen sozialen Konfluenz zu organisieren, zusammenzutreiben und aufeinander abzustimmen. Gruppendruck und rechnerische Gewissheit ersetzen Politik und Demokratie; die gefühlte Realität wird dadurch ebenso ausgelöscht wie die soziale Funktion der individualisierten Existenz. Die jüngsten Mitglieder unserer Gesellschaften erfahren vieler dieser destruktiven Dynamiken bereits heute in ihrer Bindung zu den sozialen Medien; wir können hierin das erste weltweite Experiment in Sachen Menschenschwarm sehen. Ich beschäftige mich mit den Auswirkungen dieser Entwicklungen auf das natürliche Recht auf Freistatt. Das Bedürfnis des Menschen nach einem unverletzlichen Raum gibt es in zivilisierten Gesellschaften seit der Antike; heute sieht es sich den massiven Angriffen des Überwachungskapitals ausgesetzt, das im Begriff ist, eine »ausweglose« Welt zu schaffen – mit schwerwiegenden Folgen für die Zukunft des Menschen an dieser neuen Grenze der Macht. Im letzten Kapitel komme ich zu dem Schluss, dass der Überwachungskapitalismus auf überraschende Weise abweicht von der Geschichte des Marktkapitalismus, insofern er sowohl die uneingeschränkte Freiheit als auch das totale Wissen fordert. Er nimmt mit anderen Worten Abstand von den Reziprozitäten zwischen Kapitalismus und Mensch bzw. Kapitalismus und Gesellschaft und erzwingt, da die

Überwachungskapitalisten und ihre Datenpriesterschaft über die totale Kontrolle verfügen, eine totalisierende kollektivistische Version des Lebens im Schwarm. Der Überwachungskapitalismus und seine rasant zunehmende instrumentäre Macht gehen weit über die historische Norm kapitalistischer Ambitionen hinaus, beansprucht er doch die totale Herrschaft über die menschlichen, gesellschaftlichen und politischen Sphären, die traditionell nicht in das Territorium der privaten Unternehmung oder des Markts fallen. Infolgedessen lässt sich der Überwachungskapitalismus am besten als Putsch von oben beschreiben; es ist kein Umsturz des Staats, sondern vielmehr ein Umsturz der menschlichen Souveränität, was ihn zu einer herausragenden Kraft in der gefährlichen Abtrift macht, der Tendenz zum schleichenden Verfall, die heute die liberalen Demokratien des Westens bedroht. Nur ein entschiedenes »Wir, das Volk …« vermag diese Entwicklung noch umzukehren. Dazu gilt es, das Beispiellose zu benennen und neue Formen gemeinsamer Aktion zu mobilisieren; es gilt, Sand im Getriebe zu sein, die alles entscheidende Auseinandersetzung zu fördern, die auf das Primat einer florierenden menschlichen Zukunft als Fundament unserer Informationszivilisation besteht. Wenn die digitale Zukunft uns eine Heimat, ein Zuhause werden soll, dann ist es an uns, sie dazu zu machen. Meine Methodik kombiniert, in einem ebenso ungewöhnlichen wie absichtsvollen Ansatz, die Methoden der Sozialwissenschaftlerin mit einem Faible für Theorie, Geschichte, Philosophie und qualitative Forschung mit denen der Essayistin. Als Essayistin greife ich gelegentlich auf eigene Erfahrungen zurück. Das hat seinen guten Grund. Wir bekräftigen nämlich die Tendenz zur geistig-seelischen Abstumpfung nur, wenn wir die hier behandelten Probleme bloß als eine der vielen Abstraktionen, als Begleiterscheinung von technologischen und ökonomischen Kräften sehen, die sich unserem Einfluss entziehen. Wir werden den Ernst des Überwachungskapitalismus und seiner Folgen nur dann in seiner ganzen Tragweite begreifen, wenn wir die Narben nachziehen, für die er auf der Haut unseres Alltags sorgt. Als Sozialwissenschaftlerin verspüre ich eine Affinität zu früheren Theoretikern, die sich der Begegnung mit dem Beispiellosen in ihrer Zeit gestellt haben. Von dieser Warte aus habe ich bei der Lektüre eine ganz neue Wertschätzung für den intellektuellen Mut und die bahnbrechenden Einsichten von Autoren wie Émile Durkheim, Karl Marx und Max Weber

gewonnen, die in ihren klassischen Texten kühne Theorien über Industriekapitalismus und Industriegesellschaft entwarfen, noch während sie sich inmitten von deren rasanten Entwicklung im 19. und frühen 20. Jahrhundert sahen. Darüber hinaus stützt sich meine Arbeit auf Denker und Forscher aus der Mitte des 20. Jahrhunderts wie Hannah Arendt, Theodor W. Adorno, Karl Polanyi, Jean-Paul Sartre und Stanley Milgram. Sie alle versuchten im Angesicht des sich jedem Verständnis entziehenden Phänomens des Totalitarismus das Beispiellose zu benennen und unter erheblichen Mühen die Spur seiner Wirkung auf die Zukunftsaussichten der Menschheit nachzuziehen. Meine Arbeit profitiert überdies von den Erkenntnissen visionärer Wissenschaftler, Technologiekritiker und engagierter investigativer Journalisten, die ihrerseits viel dazu beigetragen haben, Licht auf die Schlüsselpunkte der Landkarte zu werfen, die sich hier abzuzeichnen beginnt. Die letzten sieben Jahre über habe ich die Spitzenunternehmen des Überwachungskapitalismus und deren wachsende Ökosysteme von Kunden, Beratern und Konkurrenten untersucht, die alle vom weiteren Kontext von Technologie und Datenwissenschaft geprägt sind, durch den sich der Zeitgeist des Silicon Valley definiert. Was zu einer weiteren kritischen Unterscheidung führt: Ebenso wenig wie der Überwachungskapitalismus mit Technologie an sich gleichzusetzen ist, lässt sich diese neue Logik der Akkumulation auf ein einzelnes oder eine Gruppe von Unternehmen reduzieren. Man sieht die Top Five der Internetfirmen – Apple, Google, Amazon, Microsoft und Facebook – oft als geschlossene Entität mit ähnlichen Strategien und Interessen; sprechen wir jedoch vom Überwachungskapitalismus, trifft das mitnichten zu. Zunächst gilt es, zwischen Kapitalismus und Überwachungskapitalismus zu unterscheiden. Wie von mir in Kapitel 3 detaillierter ausgeführt, definiert sich die Grenze zwischen beiden zum Teil durch Gewinnungsmethode und Verwendungszweck der gesammelten Daten. Wenn eine Firma – mit Erlaubnis der Betroffenen – Verhaltensdaten einzig mit dem Ziel der Verbesserung eines Produkts oder einer Dienstleistung sammelt, praktiziert sie Kapitalismus, aber keinen Überwachungskapitalismus. Obwohl jedes der fünf größten Technologieunternehmen Kapitalismus praktiziert, sind sie nicht alle Überwachungskapitalisten, jedenfalls bislang noch nicht.

Apple zum Beispiel hat bislang eine Grenze gezogen und versprochen, sich einiger der Praktiken zu enthalten, die ich als charakteristisch für das überwachungskapitalistische Regime sehe. Nicht, dass das Verhalten der Firma in dieser Hinsicht perfekt wäre; die Grenze ist zuweilen unscharf, und es ist durchaus möglich, dass Apple seine Ausrichtung ändert oder ihr zuwiderhandelt. Amazon pochte einst mit Stolz auf seine anwaltschaftliche Identifizierung mit dem Kunden und die positive Dynamik zwischen dem Sammeln von Daten und der Verbesserung des Service. Beide Firmen generieren Einnahmen aus dinglichen wie digitalen Produkten und sehen sich deshalb nicht im selben Maße unter Druck wie reine Datenunternehmen, Einkünften aus der Überwachung ihrer Kundschaft nachzujagen. Wie ich jedoch in Kapitel 7 bemerke, scheint Amazon mit seiner plötzlichen Betonung »personalisierter« Leistungen und neuer Einkünfte durch Werbung im Auftrag Dritter in Richtung Überwachungskapitalismus zu migrieren. Ob ein Unternehmen ganz zum Überwachungskapitalismus übergelaufen ist oder nicht, sagt nichts über andere wichtige Fragen, die seine Operationen aufwerfen – denken wir an Amazons monopolistische und wettbewerbsfeindliche Praktiken, an seine Steuerstrategien und an Apples Beschäftigungspolitik. Desgleichen gibt es keine Garantien für die Zukunft. Die Zeit wird zeigen, ob Apple dem Überwachungskapitalismus anheimfällt, die Stellung hält oder gar den Ehrgeiz entwickelt, einen gänzlich anderen Weg in eine menschliche Zukunft einzuschlagen, die sich an den Idealen individueller Autonomie und den tiefsten Werten einer demokratischen Gesellschaft orientiert. Lassen Sie mich noch auf eine wichtige Implikation dieser Unterscheidungen eingehen. Selbst wenn unsere Gesellschaften die von Tech-Unternehmen – durch Monopolbildung oder die Verletzung der Privatsphäre – angerichteten Schäden zu untersuchen beginnen, ändert das nicht an sich schon etwas an den überwachungskapitalistischen Praktiken eines Unternehmens und seiner Weiterentwicklung derselben. So könnten zum Beispiel Aufrufe, Google oder Facebook auf der Basis des Monopolvorwurfs aufzuteilen, sehr gut zu mehreren, nur eben kleineren überwachungskapitalistischen Unternehmen führen, was nur den Weg für weitere überwachungskapitalistische Konkurrenten freimachen würde. Ähnlich würde eine Auflösung von Googles und Facebooks Duopol im

Bereich der Online-Werbung keineswegs die Reichweite des Überwachungskapitalismus reduzieren, es würde nur den Marktanteil an der Online-Werbung statt auf zwei auf fünf oder fünfzig überwachungskapitalistische Unternehmen verteilen. Entsprechend gilt mein Augenmerk das ganze Buch über besonders jenen beispiellosen Aspekten überwachungskapitalistischer Operationen, denen wir den Kampf ansagen müssen, wenn wir diese Marktform eindämmen oder gar vernichten wollen. Mein Hauptaugenmerk auf diesen Seiten gilt Google, Facebook und Microsoft. Das heißt nicht, dass hier eine umfassende Kritik an diesen Unternehmen versucht werden soll. Vielmehr sehe ich sie als Petrischalen, in denen sich die DNA des Überwachungskapitalismus am besten studieren lässt. Wie weiter oben angedeutet, ist mein Ziel hier die Kartierung einer neuen Logik und ihrer Operationen, nicht die Darstellung eines einzelnen Unternehmens oder dessen Technologien. So bewege ich mich denn grenzüberschreitend zwischen diesen und anderen Unternehmen, um Einsichten zur Präzisierung meiner Karte zu sammeln, so wie frühere Forscher sich ein breites Spektrum von Beispielen vornahmen, um die neue Logik von Managementkapitalismus und Massenproduktion zu verstehen. Außerdem wurde der Überwachungskapitalismus in den Vereinigten Staaten erfunden, genauer gesagt im Silicon Valley, und zwar von Google. Das macht ihn zu einer amerikanischen Erfindung, die, wie einst die Massenproduktion, zur globalen Realität geworden ist. Aus diesem Grund konzentriert sich ein Gutteil meiner Arbeit auf Entwicklungen in den Vereinigten Staaten, auch wenn die Folgen dieser Entwicklungen weltweit zu sehen sind. Bei meinem Studium überwachungskapitalistischer Praktiken am Beispiel Googles, Facebooks, Microsofts und anderer Unternehmen galt mein besonderes Augenmerk Interviews, Patenten, Earnings-Calls, Ansprachen, Tagungen sowie Unternehmensprogrammen und -praktiken. Darüber hinaus habe ich zwischen 2012 und 2015 Interviews mit 52 Datenwissenschaftlern aus 19 Unternehmen mit zusammen 586 Jahren Erfahrungen in Hightech-Unternehmen und -Start-ups, hautsächlich im Silicon Valley, geführt. Anhand dieser Gespräche entwickelte ich meine »Ground Truth« für das Verständnis des Überwachungskapitalismus und seiner materiellen Infrastruktur. Ich sprach zunächst mit einer eher kleinen

Zahl hochangesehener Datenwissenschaftler, leitender Softwareentwickler und Spezialisten für das »Internet der Dinge«. Meine Interviewstichprobe wuchs jedoch, als mich die Wissenschaftler Kollegen vorstellten. Ich führte die zuweilen mehrstündigen Interviews unter dem Siegel von Anonymität und Vertraulichkeit, dennoch spreche ich allen Beteiligten hier offen und öffentlich meine aufrichtige Dankbarkeit aus. Zu guter Letzt möchte ich darauf hinweisen, dass ich das ganze Buch über aus W. H. Audens Lyrikzyklus Sonette aus China zitieren werde, dessen Sonett XVIII Sie bereits auf der ersten Seite kennengelernt haben. Audens Zyklus ist mir persönlich so bedeutsam wie teuer, weil der Dichter darin ein ergreifendes Licht auf die mythische Geschichte der Menschheit wirft, ihr ewiges Ringen mit Gewalt und Herrschaft, sowie auf die transzendente Kraft des menschlichen Geistes und seinen unbeirrbaren Anspruch auf die Zukunft.

TEIL I: DIE GRUNDLAGEN DES ÜBERWACHUNGSKAPITALISMUS

Kapitel 2 Bühne frei für den Überwachungskapitalismus Gefahr und Strafe wuchsen mehr und mehr, den Rückweg aber sperrte eine Front von Engeln dem Poeten und dem Richter. – W. H. Auden, Sonette aus China, II

Am 9. August 2011 boten drei Ereignisse, Tausende von Meilen voneinander entfernt, Momentaufnahmen sowohl des Reichtums an Möglichkeiten als auch der zunehmenden Gefahren unserer jungen Informationszivilisation. Zuerst versprach Apple Inc., der Pionier des Silicon Valley, einen digitalen Traum neuer Lösungen für alte ökonomische und soziale Probleme, als die Marktkapitalisierung des Unternehmens zum ersten Mal die von ExxonMobil überstieg. Dann sorgten die tödlichen Schüsse der Londoner Polizei auf einen schwarzen Verdächtigen erst für Krawalle in der britischen Hauptstadt und schließlich für gewaltsame Proteste im ganzen Land. Auch ein Jahrzehnt explosiven digitalen Wachstums hatte die mörderischen Sparmaßnahmen einer neoliberalen Wirtschaftspolitik und die extreme Ungleichheit, die sie zeitigten, nicht zu lindern vermocht. Zu viele Menschen fühlten sich von der Zukunft ausgeschlossen und sahen in ihrem Zorn keinen anderen Ausweg als nackte Gewalt. Und schließlich machten spanische Bürger ihr Anrecht auf eine humane Zukunft geltend, indem sie Google gegenüber auf das »Recht, vergessen zu werden« pochten. Dieser Meilenstein öffnete der Welt die Augen darüber, wie schnell die über alles geschätzten Träume von einer

gerechteren und demokratischen digitalen Zukunft zum Alptraum werden können. Darüber hinaus warf er die Schatten eines weltweiten politischen Kampfs um die Fusion digitaler Möglichkeiten und kapitalistischer Ambitionen voraus. Wie im Märchen durchleben wir diesen Augusttag nun täglich aufs Neue, verdammt dazu, uns so lange im Kreis zu drehen, bis die Seele unserer Informationszivilisation schließlich ihre endgültige Form erhält, sei es durch demokratisches Handeln, private Macht, Ignoranz oder einfach den Strom der Zeit.

Der Apple-Hack Wie ein Blitz fuhr Apple seinerzeit in die tobende Schlacht zwischen Nachfrage und Angebot in der Musikbranche. Auf der einen Seite waren da junge Leute, in deren Begeisterung für Napster und andere Formen musikalischen Datentauschs eine neue Qualität der Nachfrage zum Ausdruck kam: konsumieren – wie, was, wann und wo ich will. Ihnen gegenüber standen die Bosse der Musikindustrie, die sich dafür entschieden hatten, diese Nachfrage durch die Verbreitung von Angst und Schrecken zu unterdrücken, indem man einige der hartnäckigsten Napster-User aufspürte und vor den Kadi zog. Apple überbrückte diese Kluft mit einer kommerziell und rechtlich brauchbaren Lösung, die das Unternehmen in Zusammenarbeit mit den Inhabern der Pfründe an den sich verändernden Bedürfnissen der Kundschaft ausrichtete. Hatte Napster die Musikbranche gehackt, schien Apple den Kapitalismus an sich gehackt zu haben. Allzu leicht vergisst man, wie spektakulär dieser Hack eigentlich war. In erster Linie waren es nämlich die Verkaufszahlen von iPod, iTunes und iPhone, die Apples Gewinne nach oben trieben. Bloomberg Business Week zufolge waren die Analysten an der Wall Street ob des mysteriösen Apple-»Wunders« völlig »perplex«. Einer von ihnen schwärmte: »Einige der Möglichkeiten können wir noch nicht einmal modellieren … Das hat schon was von einer Religion.«1 Noch heute nehmen sich die Zahlen schwindelerregend aus: Drei Tage nach dem Start der Windowskompatiblen iTunes-Plattform hatten sich bereits eine Million Hörer die kostenlose iTunes-Software gezogen und für eine Million Songs bezahlt,

was Steve Jobs zu dem Statement veranlasste: »Binnen einer knappen Woche haben wir alle Rekorde gebrochen und sind das größte OnlineMusikunternehmen der Welt.«2 Binnen eines Monats verzeichnete man fünf Millionen Downloads, drei Monate später waren es bereits zehn, wieder drei Monate später fünfundzwanzig. Viereinhalb Jahre später, im Januar 2007, war die Zahl auf zwei Milliarden gestiegen und 2013, sechs Jahre darauf also, waren es fünfundzwanzig Milliarden. 2008 überrundete Apple Walmart als weltgrößter Musikeinzelhändler. Der iPod wartete mit ähnlich spektakulären Zahlen auf; sein Verkauf explodierte von einer Million Einheiten nach dem Start des Music-Stores auf 100 Millionen kaum vier Jahre später, als Apple die Funktionen des iPod in seinem nicht weniger revolutionären iPhone unterbrachte, was den nächsten Wachstumsschub lostrat. Eine Studie über Börsenrenditen kam 2017 zu dem Schluss, dass Apple für seine Investoren mehr Profit generiert hatte als jedes andere amerikanische Unternehmen im 20. Jahrhundert.3 Hundert Jahre vor dem iPod öffnete die Massenproduktion das Tor zu einer neuen Ära, als sie ein Paralleluniversum ökonomischer Wertschöpfung enthüllte, das in dem neuen, noch kaum verstandenen Massenverbraucher verborgen war, der Konsumgüter zu einem erschwinglichen Preis haben wollte. Mit einer revolutionären industriellen Logik, die hohe Stückzahlen mit niedrigen Kosten pro Einheit verband, reduzierte Henry Ford den Preis eines Autos um 60 %. Er prägte dafür den Begriff »Massenproduktion« und fasste diese in die berühmte Maxime: »Sie können den Wagen in jeder Farbe haben, solange es schwarz ist.« Alfred Sloan von General Motors führte das Prinzip später folgendermaßen aus: »Wenn wir so weit sind, [den Verbrauchern] ein Produkt zu zeigen, sind wir zwangsläufig fest entschlossen, es auch zu verkaufen, nach allem, was wir investiert haben, um es auf den Markt zu bringen.«4 Wie jenes von Ford und Sloan baute das Geschäftsmodell der Musikindustrie darauf, dem Verbraucher zu sagen, was er kaufen sollte. Die Chefetagen investierten in Produktion und Vertrieb von CDs, also hatte der Verbraucher CDs zu kaufen. Henry Ford war einer der Ersten, die mit der Erschließung dieses neuen Phänomens, des Massenkonsums, auf Gold stießen. Wie später Apple mit dem iPod, sah Ford sich genötigt, die explodierende Nachfrage nach seinem

Model T zu befriedigen. Da Massenproduktion sich auf alles anwenden ließ, wandte man sie denn auch auf alles an. Mit ihrer Verbreitung erst in der gesamten amerikanischen Wirtschaft und schließlich rund um die Welt veränderte sie nicht nur sämtliche Grundsätze der Produktion, sie sorgte auch für die Vorherrschaft eines neuen Massenproduktionskapitalismus als Basis für die Wohlstandsbildung im 20. Jahrhundert. Die Innovationen von iPod und iTunes stellten diese hundertjährige industrielle Logik auf den Kopf, indem sie die Möglichkeiten der neuen digitalen Technologien dazu einsetzten, die Verbrauchererfahrung umzukehren. Mit einer ganz eigenen Logik, die man, so vertraut sie uns mittlerweile ist, bei ihrer Einführung als nicht weniger revolutionär empfand, sorgte Apple für eine ganz neue Beziehung zwischen Hörern und ihrer Musik. Apples Trick setzte einige Schlüsselelemente voraus. Die Digitalisierung ermöglichte die Rettung geschätzter Güter – in diesem Fall Songs – aus den institutionellen Räumen, in denen sie gefangen waren. Man eliminierte die von Sloan angesprochenen kostenintensiven institutionellen Prozeduren zugunsten eines direkten Wegs zu den Hörern. Im Falle der CD etwa umging Apple die Produktion eines physischen Produkts – nebst Verpackung, Lagerhaltung, Marketing, Transport, Vertrieb und physischem Einzelhandel. Die Kombination von iTunes-Plattform und iPod als Abspielgerät ermöglichte es dem Hörer, seine Songsammlung fortwährend nach Belieben umzustellen. Keine zwei iPods waren gleich, und ein und derselbe iPod unterschied sich von Woche zu Woche, da der Hörer sich für eine andere Songfolge entschied. Es war eine schmerzliche Entwicklung für die Musikindustrie und ihre Trabanten vom Marketing hin bis zum Einzelhandel, aber es war nun mal das, was die neuen Hörer wollten. Wie sollen wir diesen Erfolg deuten? Man schreibt Apples »Wunder« in der Regel dem Genie des Unternehmens für Design und Marketing zu. Man nimmt die Ungeduld des Konsumenten – dieses »Was-wann-wo-und-wieimmer-ich-will« – als Beweis für eine Nachfrage nach »Bequemlichkeit« und tut sie zuweilen gar als narzisstisch oder quengelig ab. Meiner Ansicht nach verblassen diese Erklärungen jedoch gegenüber der beispiellosen Größe dessen, was Apple tatsächlich geleistet hat. Zu lange schon geben wir uns mit oberflächlichen Erklärungen für Apples beispiellose Fusion von

Kapitalismus und dem Digitalen zufrieden, anstatt uns die historischen Kräfte vorzunehmen, die hinter dieser neuen Lebensform stehen. So wie Ford sich als einer der Ersten den neuen Massenkonsumenten erschloss, war Apple eine der ersten Firmen, deren Umsatz durchs Dach ging, indem man eine neue Gesellschaft von Einzelnen und deren Bedarf an personalisierten Möglichkeiten des Konsums aufs Korn nahm. Möglich wurde das durch die umfassendere digitale »Reformation«; sie gab der Wirtschaft die nötigen Werkzeuge an die Hand, den Konsum weg von den Massen hin auf den Einzelnen zu fokussieren. Das befreite den Kapitalismus aus alten operativen Zwängen und versprach etwas ganz und gar Neues, dringend Notwendiges, etwas, was außerhalb der vernetzten Räume des Digitalen undenkbar war. Dessen implizites Versprechen einer anwaltschaftlichen Ausrichtung an unseren neuen Bedürfnisse und Werten nahmen wir als Bestätigung unserer Würde und unseres Selbstwertgefühls; es bestätigte uns, dass wir zählten. Außerdem bot es dem Verbraucher ein Schlupfloch aus einer institutionellen, seinen individuellen Bedürfnissen gegenüber gleichgültigen Welt. Daraus wiederum ergab sich die Möglichkeit eines neuen, vernünftigen Kapitalismus, der uns zu geben versprach, was wir wirklich wollen, und zwar exakt so, wie wir es wollen. Da wir uns nach Abhilfe für Ungleichheit und Ausgrenzung sehnten, sorgten dieselben historischen Bedingungen, denen der iPod seinen kommerziellen Höhenflug verdankte, auch dafür, dass das emanzipatorische Versprechen des Internets Einzug in unserem Alltag hielt. Es ist von größter Bedeutung für unser Thema, dass eben diese Bedingungen für den Freiraum sorgten, in dem der Überwachungskapitalismus gedeihen konnte. Wir gehen im Weiteren darauf noch genauer ein. Apples »Wunder« und der Überwachungskapitalismus verdanken ihren Erfolg beide der Kollision zweier gegensätzlicher historischer Kräfte. Die eine, der jahrhundertelange gesellschaftliche Umorientierungsprozess weg von der Masse hin zum Einzelnen, fällt unter die breitere Entwicklung der Moderne. Die andere ist bedingt durch die jahrzehntelange Umsetzung des neoliberalen Paradigmas, seine politische Ökonomie und seine umwälzende Wirkung auf die Gesellschaft; das gilt insbesondere für sein Ziel, den Drang des Einzelnen nach psychologischer Selbstbestimmung und moralischem Handeln umzukehren, zu hemmen, ja zu ersticken. Die folgenden Abschnitte skizzieren kurz die grundlegenden Konturen dieser Kollision

und setzen Bezugspunkte, auf die wir in den kommenden Kapiteln immer wieder zurückkommen werden, wenn wir uns den rasanten Aufstieg des Überwachungskapitalismus zur Vorherrschaft genauer ansehen.

Die beiden Modernen Der Kapitalismus entwickelt sich in Reaktion auf spezifische zeitlich und räumlich bestimmte Bedürfnisse. »Die Massenfertigung«, so drückte Henry Ford das aus, »beginnt mit der Wahrnehmung eines öffentlichen Bedarfs.«5 Zu einer Zeit, in der Detroits Automobilfabriken sich auf die Herstellung von Luxusfahrzeugen konzentrierten, sah Ford als Einziger eine Nation zunehmend moderner Individuen – Landwirte, Angestellte und Ladenbesitzer –, die wenig hatten und viel wollten, aber zu einem erschwinglichen Preis. Diese »Nachfrage« erwuchs aus denselben Bedingungen, die Ford und seinesgleichen die umwälzende Kraft einer neuen Logik standardisierter Massenfertigung zu geringen Stückkosten sehen ließ. Fords epochemachender »Fünf-Dollar-Tag« war emblematisch für eine systemische Logik der Gegenseitigkeit. Dass er seinen Fließbandarbeitern höhere Löhne zahlte, als sich das bis dahin jemand auch nur hätte vorstellen können, war eine Folge der Erkenntnis, dass das Unterfangen der Massenproduktion eine florierende Bevölkerung von Massenkonsumenten voraussetzte. Bei allen Unzulänglichkeiten der neuen Marktform und seinen »Bossen« und den brutalen Fakten, die sie schuf, schätzte sie ihre zunehmend moderne Bevölkerung als Pool von Kunden und Arbeitnehmern. Sie war von ihnen abhängig, eine Abhängigkeit, deren Folge schließlich die Institutionalisierung einer ganzen Reihe von Wechselwirkungen war. Extern war das Drama des Zugangs zu erschwinglichen Gütern und Dienstleistungen an demokratische Regulierungsmechanismen gebunden, die Rechte und Sicherheit von Arbeitern und Verbrauchern geltend machten.6 Intern gab es robuste Beschäftigungssysteme, Aufstiegsmöglichkeiten sowie den stetigen Anstieg von Löhnen und Sozialleistungen.7 Von der Warte der letzten vierzig Jahre aus betrachtet, in denen diese Marktform systematisch demontiert wurde, ließen sich diese

Reziprozitäten mit der Gesellschaftsordnung, so strittig und unvollkommen sie auch sein mochten, sogar als eine ihrer hervorstechendsten Eigenschaften sehen. Implikation all dessen ist, dass neue Marktformen dann am produktivsten sind, wenn sie sich in Ausrichtung an tatsächliche Bedürfnisse und Mentalitäten entwickeln. Der große Soziologe Émile Durkheim erkannte das zu Beginn des 20. Jahrhunderts, eine Einsicht, die uns das ganze Buch über als Lackmustest dienen wird. Angesichts der dramatischen, durch die Industrialisierung bedingten Umwälzungen seiner Zeit – Fabriken, Spezialisierung, Arbeitsteilung –, kam Durkheim zu der Erkenntnis, dass Volkswirtschaftler die Entwicklungen zwar zu beschreiben vermochten, aber die Gründe dahinter nicht sahen. Was seiner Ansicht nach daran lag, dass die »Ursachen« für diese umfassenden Veränderungen in den sich verändernden Bedürfnissen der Menschen zu finden und Ökonomen (woran sich bis heute nichts geändert hat) diesen sozialen Fakten gegenüber blind seien. Man sieht also, inwieweit uns die Arbeitsteilung in einem anderen Licht erscheint als den Ökonomen. Für sie besteht sie wesentlich in einer Steigerung der Produktivität. Für uns ist diese größere Produktivität nur eine notwendige Folge, eine Fernwirkung des Phänomens. Wenn wir uns spezialisieren, dann nicht, um mehr zu produzieren, sondern um unter den neuen Existenzbedingungen leben zu können, die uns entgegentreten.8 Der Soziologe identifizierte unsere ewige Suche nach einem effektiven Leben unter gegebenen »Existenzbedingungen« als die ursächliche Kraft von Arbeitsteilung, Technologien, Arbeitsorganisation, Kapitalismus und letztlich auch der Zivilisation selbst. Sie alle entstehen in ein und demselben Schmelztiegel menschlicher Bedürfnisse, die wiederum aus dem entstehen, was Durkheim den zunehmend »härteren Kampf« um ein effektives Leben genannt hat: »Wenn sich die Arbeit … immer weiter teilt«, so schreibt er, dann rühre das daher, dass »der Überlebenskampf hitziger« sei.9 Die Logik des Kapitalismus reflektiert diese Ausrichtung, so unvollkommen auch immer sie sein mag, an den Bedürfnissen, die dem

Menschen aus dem Versuch erwachsen, unter spezifischen – räumlich und zeitlich bedingten – Umständen ein effektives Leben zu führen. So betrachtet lässt sich sehen, dass sowohl die auf Fords revolutionäres Model T erpichte als auch die heutige Kundschaft für iPods und iPhones Ausdruck der für ihre Ära charakteristischen Existenzbedingungen sind. Wir können sogar sagen, dass jede die Frucht spezifischer Phasen eines Jahrhunderte währenden Prozesses ist, den wir als »Individualisierung« bezeichnen und als kennzeichnend für die Moderne sehen. Fords Massenkonsumenten waren Angehörige einer Epoche, die man gemeinhin als die »Erste Moderne«10 bezeichnet, während die neuen Bedingungen in die »Zweite Moderne« fallen. Sie haben eine neue Art von Individuum hervorgebracht, für das die durch Apple losgetretene Umkehr und die vielen Innovationen in ihrem Gefolge, lebensbestimmend werden sollten. Mit dieser Zweiten Moderne sind nicht nur Google und Facebook in unser Leben gekommen, sie hat auch – in einer unerwarteten Wendung – zur Entstehung des Überwachungskapitalismus beigetragen. Wie von zahlreichen Wissenschaftlern festgestellt, kam die Vorstellung vom Einzelnen als selbstbestimmtem moralischem Subjekt zuerst im Westen auf, wo die Bedingungen für seine Herausbildung früher als anderswo gegeben waren. Halten wir außerdem fest, dass das Konzept der »Individualisierung« nicht zu verwechseln ist mit der neoliberalen Ideologie des »Individualismus«, die jegliche Verantwortung für Erfolg und Scheitern auf ein mythisches, vereinzeltes und isoliertes Individuum abwälzt, das sich, entkoppelt von Beziehungen, Gemeinschaft und der Gesellschaft an sich, zu einem Leben unaufhörlichen Wettbewerbs verurteilt sieht. Ebenso wenig hat der Begriff mit dem psychologischen Prozess der »Individuation« zu tun, der den lebenslangen Prozess der Selbstentwicklung bezeichnet. Individualisierung ist dagegen eine Folge säkularer Modernisierung und ein untilgbares Motiv zeitgenössischen Lebens.11 Bis in die jüngste Vergangenheit der Menschheitsgeschichte war jedes Menschenleben durch Abkunft, Ort, Geschlecht, Stand und Religion vorherbestimmt. Ich bin die Tochter meiner Mutter; ich bin meines Vaters Sohn. Die Auffassung vom Menschen als Individuum entwickelte sich allmählich im Lauf der Jahrhunderte im langen Kampf gegen diese alten

Vorstellungen. Vor etwa 200 Jahren schlugen wir den Weg in die Erste Moderne ein, in der das Leben nicht mehr nach den Leitwerten vormoderner Traditionen von einer Generation auf die andere weitergereicht wurde. Diese Erste Moderne markiert die Zeit, in der sich das Leben einer großen Zahl von Menschen zu »individualisieren« begann.12 Das bedeutete, dass jedes Leben zu einer eigenen Realität mit unbestimmtem Verlauf wurde, etwas, was es zu entdecken, nicht ein Skript, dem es zu folgen galt. Selbst dort, wo die traditionelle Welt bis heute für viele intakt geblieben ist, lässt sie sich nicht mehr als die einzig mögliche Geschichte erfahren. Ich muss oft daran denken, wie mutig doch meine Urgroßeltern waren. Mit welchem Maß an Trauer, Entsetzen und belebender Hoffnung hatten sie wohl 1908 in ihrem kleinen Weiler in der Nähe von Kiew den Entschluss gefasst, mit ihren fünf Kindern – darunter mein damals vier Jahre alter Großvater – vor dem Terror der Kosaken nach Amerika zu fliehen? Wie Millionen andere Pioniere dieser Ersten Moderne mussten auch sie nach ihrer Flucht aus einer feudalen Welt ein von Grund auf neues Leben improvisieren. Max sollte später Sophie heiraten und mit ihr, fernab der Dörfer, die sie hervorgebracht hatten, eine Familie gründen. Der spanische Dichter Antonio Machado fing diese belebende Hoffnung und den Wagemut dieser Individuen der Ersten Moderne in einem berühmten Lied ein: »Wanderer, es gibt keinen Weg, der Weg entsteht im Gehen.« Man begab sich auf eine Suche, auf eine Forschungsreise, schuf sich mit anderen Worten selbst, anstatt lediglich eine vorgeschriebene Rolle zu spielen. Dennoch behielt die neue Industriegesellschaft viele der hierarchischen Motive der alten Feudalwelt in Form von Zugehörigkeitsmustern wie Geschlecht, Klasse, Rasse, Beruf, Religion oder Volkstum bei – auch in den neuen Leviathanen der Massengesellschaft: ihren Konzernen, Arbeitsplätzen, Gewerkschaften, Kirchen, Parteien, Schulsystemen oder Vereinen. Diese neue Weltordnung der Masse mit ihrer durch Konzentration, Zentralisierung, Standardisierung und Verwaltung charakterisierten bürokratischen Logik bot dem Leben des Einzelnen nach wie vor solide Fixpunkte, Richtlinien und ein Ziel. Im Vergleich zu ihren Eltern und allen Generationen davor mussten Sophie und Max größtenteils improvisieren, wenn auch nicht in jeder

Hinsicht: Sophie wusste, sie würde sich um die Familie kümmern; Max wusste, er würde für ihren Unterhalt sorgen. Man passte sich dem an, was die Welt einem bot, und hielt sich an die Regeln. Nach seiner Meinung wurde niemand gefragt; es wurde erwartet, dass man tat, was man tun sollte, und so fand man nach und nach seinen Weg. Man zog eine Familie groß, leistete sich schließlich ein Haus, ein Auto, eine Waschmaschine, einen Kühlschrank. Und Leute wie Henry Ford oder Alfred Sloan hatten eine Methode gefunden, einem diese Anschaffungen zu einem erschwinglichen Preis zu ermöglichen. Wenn man Angst hatte, so reflektierte diese die Notwendigkeit, den Anforderungen seiner Rolle gerecht zu werden. Zu den Erwartungen, die man an den Einzelnen stellte, gehörte auch, dass er zurechtstutzte, was immer an Selbstgefühl über den Rand seiner ihm zugedachten gesellschaftlichen Rolle hinausstehen mochte – selbst unter erheblichen psychischen Kosten. Sozialisation und Anpassung waren die Materialien moderner Psychologie und Soziologie, die die Kernfamilie als »Fabrik« zur »Produktion von Persönlichkeiten« auffasste, gebrauchsfertig und konform mit den sozialen Normen der Massengesellschaft.13 Diese »Fabriken« sorgten durchaus auch für eine Menge neuer Probleme: verheimlichte Homosexualität, »Weiblichkeitswahn«, atheistische Kirchgänger, illegale Abtreibungen. Letztendlich produzierten sie aber Menschen wie Sie und mich. Als ich selbst mich auf meinen Lebensweg machte, gab es kaum Antworten, kaum etwas, dem man hätte nacheifern können, keinen Kompass außer der Werte und Träume in mir. Ich wusste, wo ich herkam; wo ich hinsollte, wusste ich nicht. Nicht dass es nur mir so ergangen wäre; die Straße war voller Menschen auf derselben Reise wie ich. Wir sind Kinder der Ersten Moderne, aber wir brachten eine neue Mentalität, eine »Zweite Moderne«, in dieses Leben ein.14 Was als moderne Migration weg von traditionellen Lebensformen begann, erblühte zu einer neuen Gesellschaft von Menschen, die im Bewusstsein psychologischer Individualität das Licht der Welt erblicken, mitsamt ihrem durchaus zweischneidigen Geburtsrecht von Freiheit und Notwendigkeit. Wir haben, so erfahren wir, nicht nur das Recht, sondern die Pflicht, unseren Lebensweg selbst zu wählen. Nicht länger zufrieden damit, Teil der Masse

zu sein, verspüren wir einen Anspruch auf Selbstbestimmung – eine offenkundige Wahrheit, die bei Sophie und Max noch als Akt unmöglicher Hybris gegolten hätte. Diese Mentalität ist eine ganz außergewöhnliche Leistung des menschlichen Geistes, selbst wenn sie einer Verurteilung zu lebenslanger Ungewissheit, Angst und Stress gleichkommen kann. Diese neue Wende in der Geschichte der Individualisierung nahm ihren Anfang in der zweiten Hälfte des 20. Jahrhunderts. Industrielle Moderne und, in ihrem Kern, die Praktiken des Massenproduktionskapitalismus schufen mehr Wohlstand, als man je für möglich gehalten hatte. Dort, wo eine demokratische Politik, Verteilungsmechanismen, Zugang zu Bildung und Gesundheitsfürsorge sowie starke Einrichtungen der Zivilgesellschaft diesen Wohlstand komplementierten, begann eine neue »Gesellschaft von Individuen« zu entstehen. Hunderte von Millionen bekamen Zugang zu Erfahrungen, die zuvor die Domäne einer winzigen Elite gewesen waren: Universitätsbildung, Reisen, erhöhte Lebenserwartung und verfügbares Einkommen, steigende Lebensstandards, breiterer Zugang zu Konsumgütern, eine Palette von Kommunikations- und Informationsflüssen sowie spezialisierte, intellektuell anspruchsvolle Arbeit. Dieser hierarchische Gesellschaftsvertrag der Ersten Moderne versprach kalkulierbare Früchte, aber gerade sein Erfolg, der uns einem immer komplizierteren und reichhaltigeren Leben entgegentrieb, war das Beil, das unser Ankertau kappte und uns an den Gestaden der Zweiten Moderne auflaufen ließ. Bildung und Wissen führten zur zunehmenden Beherrschung von Sprache und Denken, den Werkzeugen, mit denen wir persönliche Bedeutung schaffen und uns eine Meinung bilden. Kommunikation, Information, Konsum und Reisen beflügelten Selbstbewusstsein und Phantasie des Einzelnen und prägten seine Perspektiven, Werte und Haltungen in einem Maß, das die vordefinierte Rollen- oder Gruppenidentität nicht mehr zu fassen vermochte. Eine robustere Gesundheit und eine längere Lebensspanne gaben diesem Sich-selbst-Leben die nötige Zeit, sich zu vertiefen und auszureifen, was die Legitimität einer persönlichen Identität gegenüber vorgegebenen gesellschaftlichen Normen stärkte. Selbst wenn wir zu traditionellen Rollen zurückkehren, so ist das heute eher eine Frage der persönlichen Entscheidung als einer absoluten Wahrheit, die man uns in die Wiege legt. Der große Kliniker der Identität

Erik Erikson beschrieb das einmal so: »Der Patient unserer Tage leidet vorwiegend unter dem Problem, was er glauben soll und was er sein oder werden soll oder kann, während die Patienten in den Anfängen der Psychoanalyse vorwiegend unter Hemmungen litten, die sie daran hinderten, das zu sein, was sie … zu sein glaubten.«15 Diese neue Mentalität findet sich besonders ausgeprägt in den wohlhabenderen Ländern, aber die Forschung zeigt auch eine bedeutende Zahl von Individuen der Zweiten Moderne in fast allen Regionen der Welt.16 Die Erste Moderne unterdrückte Wachstum und Ausdruck des Selbst zugunsten kollektiver Lösungen; in der Zweiten Moderne ist das Selbst alles, was wir haben. Dieses neue Gefühl psychologischer Souveränität brach lange vor dem Auftauchen des Internets über die Welt herein; Letzteres verstärkte seine Ansprüche nur. Wir stellen uns unser Leben durch Versuch und Irrtum zusammen. Nichts ist gegeben. Alles muss revidiert, neu verhandelt und durch Versuch und Irrtum zu Bedingungen umkonstruiert werden, die mir sinnvoll erscheinen: Familie, Religion, Sex, Geschlecht, Moral, Ehe, Gemeinschaft, Liebe, Natur, soziale Beziehungen, politische Teilhabe, Karriere, Ernährung  … Ja, es waren diese Mentalität und ihre Ansprüche, die das Internet und den im Werden begriffenen Informationsapparat in unseren Alltag riefen. Die Bürde eines Lebens ohne ein vorbestimmtes Schicksal sorgte dafür, dass wir uns den befähigenden informationsreichen Ressourcen des neuen digitalen Milieus zuwandten, bot es uns doch neue Möglichkeiten zur Verstärkung der eigenen Stimme und zur Ausbildung von Beziehungsmustern unserer Wahl. So tief wie das Phänomen greift, lässt sich ohne Übertreibung sagen, dass der Einzelne als Urheber seines Lebens zum Protagonisten unserer Zeit geworden ist, egal ob wir diesen Umstand nun als Emanzipation oder als Last erfahren.17 Die westliche Moderne hatte sich um einen Kanon von Prinzipien und Gesetzen ausgebildet, die dem Einzelnen unverletzliche Rechte verleihen und die Unverletzlichkeit jedes einzelnen Lebens anerkennen.18 Erst in der Zweiten Moderne jedoch begann die gefühlte Erfahrung die formelle Gesetzgebung einzuholen. Diese gefühlte Wahrheit wiederum drückt sich in der neuen Forderung aus, im Alltagsleben auch tatsächlich umzusetzen, was gesetzlich bereits verankert ist. Ulrich Beck fasst diese Bedingung prägnant

zusammen: »Das Individuum wird zum ersten Mal in der Geschichte zur Grundeinheit sozialer Reproduktion.«19 Bei all ihrem befreienden Potenzial stand von vornherein fest, dass die Zweite Moderne ein hartes Pflaster abgeben würde, und unsere heutigen Lebensbedingungen reflektieren dieses Problem. Einige der Herausforderungen der Zweiten Moderne erstehen aus den unvermeidlichen Kosten, die mit Erschaffung und Unterhalt unseres eigenen Lebens verbunden sind. Andererseits ist die Instabilität in der Zweiten Moderne auch Ergebnis institutionalisierter Verschiebungen in der Wirtschafts- und Sozialpolitik sowie einiger Praktiken, die mit dem neoliberalen Paradigma und dessen Aufstieg zur dominanten Wirtschaftsform verbunden sind. Dieses umfassende Paradigma ist darauf ausgerichtet, die säkulare Welle von Ansprüchen der Zweiten Moderne auf Selbstbestimmung einzudämmen, umzuleiten und umzudrehen, und das mitsamt den Biotopen, in denen diese Ansprüche am besten gedeihen. Wir leben inmitten dieser Kollision einer jahrhundertealten Geschichte der Modernisierung und einer jahrzehntealten Geschichte ökonomischer Gewalt, die unser Streben nach einem effektiven Leben durchkreuzt. Es gibt reichlich Literatur, die diesen Wendepunkt in der Wirtschaftsgeschichte überzeugend dokumentiert. Mein Ziel hier ist es, auf die Themen in diesem breiteren Narrativ aufmerksam zu machen, die unabdingbar für ein Verständnis sowohl des Apple-»Wunders« als auch des Werdens und Wachstums des Überwachungskapitalismus sind.20

Das neoliberale Biotop Mitte der 1970er Jahre brachten Stagnation, Inflation und ein drastischer Wachstumsrückgang die Wirtschaftsordnung der Nachkriegszeit in arge Bedrängnis, besonders in Großbritannien und den USA. Es entstand so ein bis dato unbekannter Druck auf die politische Ordnung: Individuen der Zweiten Moderne – allen voran Studenten, junge Arbeiter, Afroamerikaner, Frauen, Latinos und andere an den Rand gedrängte Gruppen – machten unter dem Banner von Gleichberechtigung, Mitsprache und Teilhabe mobil. In den USA war der Vietnamkrieg Brennpunkt sozialer Unruhen, und die

durch Watergate aufgedeckte Korruption löste in der Bevölkerung den Ruf nach Reformen aus. Im Vereinigten Königreich hatte die Inflation die Beziehungen zwischen den Tarifparteien bis über die Grenzen der Belastbarkeit hinaus gespannt. In beiden Ländern zeitigte das Schreckgespenst eines unerbittlichen ökonomischen Niedergangs gepaart mit lautstarken neuen Ansprüchen an den demokratischen Gesellschaftsvertrag Verwirrung, Angst, ja Panik unter gewählten Volksvertretern, die schlicht nicht verstehen konnten, warum das einst so zuverlässige keynesianische Instrumentarium diese Entwicklung nicht umzukehren vermochte. Das war die Chance, auf die neoliberale Ökonomen gewartet hatten, und ihre Ideen strömten denn auch sofort in das »wirtschaftspolitische Vakuum«, das den beiden Regierungen so zu schaffen machte.21 Die Köpfe dieser Bewegung waren der österreichische Ökonom und frischgebackene Nobelpreisträger (1974) Friedrich Hayek und sein amerikanischer Gesinnungsgenosse Milton Friedman, der den Nobelpreis zwei Jahre später bekam. Die ganze Nachkriegszeit über hatten sie, im Schatten von Keynes und praktisch am Rande ihres Berufsstands, an ihrer Theorie einer radikal freien Marktwirtschaft gefeilt, mitsamt einer passenden politischen Ideologie zu deren Umsetzung. Jetzt war ihre Zeit gekommen.22 Das Credo vom freien Markt hatte sich in Europa gegen die Bedrohung kollektivistischer Ideologien von Links und Rechts entwickelt. Es zielte auf die Durchsetzung der Idee eines selbstregulierenden Markts als natürlicher Kraft von solcher Komplexität und Vollkommenheit, dass es die radikale Freiheit von allen Formen staatlicher Aufsicht verlangte. Hayek erklärte die Notwendigkeit einer absoluten individuellen wie kollektiven Unterordnung unter die strenge Disziplin des Markts als unfassliche »erweiterte Ordnung«, die über der dem Staat übertragenen legitimen politischen Autorität stehen sollte. »Die moderne Wirtschaftstheorie«, so argumentierte Hayek, »erklärt, wie solch eine erweiterte Ordnung entstehen kann und selbst einen Informationssammlungsprozeß darstellt, in dem weit verstreute Information abgerufen und genutzt werden kann, die keine zentrale Planungsbehörde, geschweige denn ein einzelner, als Ganzes besitzen oder überblicken könnte.«23 Hayek und seine Brüder im Geiste vertreten einen auf seinen Kern beschränkten Kapitalismus, der von keiner anderen Kraft

gebremst wird und gefeit ist gegen jede Art von externer Autorität. Die Ungleichheit von Wohlstand und Rechten wurde als unabdingbares Merkmal eines erfolgreichen Marktsystems und fortschrittliche Kraft akzeptiert, ja gepriesen.24 Hayeks Ideologie lieferte den intellektuellen Überbau für eine neue Theorie des Unternehmertums, die zu einem wesentlichen Vorläufer des überwachungskapitalistischen Unternehmens wurde: Sie nahm sowohl seine Struktur vorweg als auch seinen moralischen Gehalt und seine Beziehung zur Gesellschaft. Die Ökonomen Michael Jensen und William Meckling brachten die neue Auffassung auf den Punkt. Mit starkem Bezug auf Hayeks Werk gingen die beiden Wissenschaftler die prosozialen Prinzipien der Unternehmung des 20. Jahrhunderts mit der Axt an – eine Axt, die als »Shareholder-Value-Bewegung« bekannt wurde. 1976 veröffentlichten die beiden einen bahnbrechenden Artikel, in dem sie den Manager als eine Art Parasit interpretierten, der sich vom Wirt – dem Eigentum – nährt; er mag vielleicht unvermeidlich sein, steht aber nichtsdestoweniger dem Wohlstand des Aktionärs im Weg. Ihrer kühnen Argumentation zufolge kann die strukturelle Disparität zwischen Eigentümern und Managern »dazu führen, dass der Wert der Firma erheblich geringer ist, als er andernfalls sein könnte«.25 Wenn Manager zugunsten eigener Präferenzen für den suboptimalen Wert einer Firma sorgten, dann sei das für sie nur vernünftig. Die Lösung, so Jensen und Meckling, bestehe darin, das Wertsignal des Markts – den Aktienpreis – zur Grundlage einer neuen Anreizstruktur zu machen, die darauf abzielt, das Verhalten des Managers ein für alle Mal entschieden an den Interessen der Eigentümer auszurichten. Manager, die sich nicht den unsagbaren Signalen von Hayeks »erweiterter Ordnung« beugten, wurden in dieser gnadenlosen neuen Jagd nach nicht realisierten Marktwerten im Handumdrehen Opfer der »Barbaren vor dem Tor«. Die neoliberale Vision und ihre Rückkehr zu Marktmetriken war für Politiker und Entscheidungsträger zutiefst attraktiv, nicht nur weil sie es ihnen erlaubten, sich um die politische Verantwortung harter wirtschaftlicher Entscheidungen zu drücken, sondern auch weil sie eine neue Art von Ordnung versprachen, in der Unordnung angstbesetzt war.26 Als höchste Quelle der Verfügungsgewalt wurde die absolute Autorität der

Marktkräfte für unantastbar erklärt; diese verdrängten demokratischen Wettstreit und beratende Verhandlung durch eine Ideologie vereinzelter Individuen, die zum ewigen Wettbewerb um knappe Ressourcen verurteilt sind. Die Disziplin der Wettbewerbsmärkte versprach, die aufsässigen Individuen ruhigzustellen, ja sie sogar wieder in Untertanen zu verwandeln, die zu sehr mit Überleben beschäftigt sind, um sich groß zu beschweren. Mit dem Verschwinden der alten kollektivistischen Feinde nahmen neue Feindbilder ihren Platz ein: staatliche Regulierung und Aufsicht, Sozialgesetzgebung und Wohlfahrtspolitik, Gewerkschaften, Tarifverhandlungen sowie die Prinzipien demokratischer Politik an sich. Sie alle sollten schließlich durch die eine Wahrheit des Markts ersetzt werden; Wettbewerb wurde die Lösung für das Wachstumsproblem. Erreichen wollte man die neuen Ziele durch angebotsseitige Reformen wie Deregulierung, Privatisierung und Steuersenkungen. Fünfunddreißig Jahre vor Hayeks und Friedmans Machtübernahme schrieb der große Historiker Karl Polanyi eloquent über den Aufstieg der Marktwirtschaft. Polanyis Studien führten ihn zu dem Schluss, dass die Operationen eines sich selbst regulierenden Markts zutiefst destruktiv sind, lässt man ihnen ohne gesetzliche und politische Eingriffe die Zügel schießen. Seiner Ansicht nach unabdingbar war deshalb, was er als »Doppelbewegung« bezeichnete, »ein ganzes Geflecht von Maßnahmen und Verordnungen in mächtigen Institutionen zu dem Zweck zusammengefaßt, den Marktmechanismus in bezug auf Arbeit, Boden und Geld einzuschränken«.27 Die Doppelbewegung, so Polanyi, unterstütze die Marktform, halte sie jedoch an der Leine der Gesellschaft; sie sorge für ein Gleichgewicht und wirke mäßigend und zügelnd auf ihre destruktiven Exzesse. Polanyi zufolge war es in der zweiten Hälfte des 19. Jahrhunderts in jeder europäischen Gesellschaft zu solchen Gegenmaßnahmen gekommen. Jede von ihnen sorgte für gesetzliche, ordnungspolitische und institutionelle Lösungen in umstrittenen Bereichen wie Lohnpolitik, Fabrikinspektionen, Gewerbe, öffentliche Versorgungsunternehmen, Lebensmittelsicherheit, Kinderarbeit und öffentliche Sicherheit. In den USA erreichte man die Doppelbewegung durch Jahrzehnte sozialen Wettstreits, der die industrielle Produktion, wie unvollkommen

auch immer, ins Geschirr gesellschaftlicher Bedürfnisse nahm. Sie manifestierte sich im Zerschlagen der Trusts, in der Zivilgesellschaft und in den Rechtsreformen der »Progressive Era« zu Beginn des 20. Jahrhunderts.28 Ausgearbeitet wurden sie dann später in den legislativen, rechtlichen, sozialen und Steuerinitiativen des »New Deal«29 und der Institutionalisierung der keynesianischen Volkswirtschaftslehre während der Zeit nach dem Zweiten Weltkrieg: arbeitsmarktliche, steuer- und sozialfürsorgliche Maßnahmen, die letztendlich zu größerer wirtschaftlicher und sozialer Gleichheit führten.30 Weiter entwickelt wurde die Doppelbewegung durch die Gesetzgebung der Nachkriegszeit im Zeichen der »Great Society«, insbesondere in den Bereichen Bürgerrechte und Umweltschutz. In den Augen vieler Wissenschaftler sorgten diese Gegenmaßnahmen für den Erfolg der Marktdemokratie in den USA wie auch in Europa, eine Volkswirtschaft, die sich hinsichtlich ihrer Fähigkeiten, für Reziprozitäten bei Angebot und Nachfrage zu sorgen, als weit anpassungsfähiger erwies, als sich das linke Theoretiker oder selbst Polanyi je hätten vorstellen können, und um die Mitte des Jahrhunderts schien die große Kapitalgesellschaft als tief verwurzelte und dauerhafte moderne gesellschaftliche Institution etabliert.31 Unter dem neoliberalen Banner war die Doppelbewegung zwangsläufig zum Abriss verurteilt, mit dem man denn auch auf der Stelle begann. 1976, im selben Jahr also, in dem Jensen und Meckling ihre bahnbrechende Analyse herausbrachten, initiierte der damalige Präsident Jimmy Carter die ersten signifikanten Anstrengungen einer radikalen Ausrichtung der Kapitalgesellschaft an den Marktmetriken der Wall Street. Mit einem kühnen Deregulierungsprogramm nahm man Luftfahrt, Transportwesen und den Finanzsektor aufs Korn. Der einmal ins Wasser geworfene Kieselstein löste schließlich »eine Flutwelle« aus, »die in den letzten beiden Jahrzehnten des 20. Jahrhunderts in ganzen Wirtschaftssegmenten die Kontrollmechanismen wegspülte«.32 Die unter Carter eingeleitete Implementierung sollte die Ära Reagan und Thatcher und danach praktisch jede US-Präsidentschaft definieren, als sich die neuen finanz-, steuer- und sozialpolitischen Maßnahmen, in unterschiedlichen Graden, nach Europa und andere Regionen ausbreiteten.33

So begannen Zerfall und Bedeutungsverlust öffentlich gehandelter USUnternehmen.34 Die öffentliche Kapitalgesellschaft als gesellschaftliche Institution wurde fortan als kostspieliger Irrtum interpretiert, und ihre langjährigen Reziprozitäten mit Kunden und Arbeitnehmern galten als Vergehen an der Effizienz des Markts. Mit finanziellem Zuckerbrot und Peitsche veranlasste man das Management zur Aufspaltung und Verkleinerung ihrer Unternehmen, und die kapitalistische Logik verlagerte sich von der profitablen Produktion von Gütern und Dienstleistungen hin zu zunehmend exotischen Formen finanzieller Spekulation. Die von den neuen Marktoperationen erzwungene Disziplin entledigte den Kapitalismus allen Zierrats, und 1989 erklärte Jensen selbstgewiss die öffentliche Kapitalgesellschaft für verschwunden.35 Zur Jahrtausendwende, als die grundlegenden Mechanismen des Überwachungskapitalismus Form anzunehmen begannen, war die »Maximierung des Shareholder-Value« als »objektive Funktion« des Unternehmens weithin akzeptiert.36 Diese Prinzipien einer ehedem extremen Philosophie wurden in der Geschäfts- und Finanzwelt wie auch rechtlich als Standardpraktiken kanonisiert.37 Bereits im Jahr 2000 beschäftigten Amerikas öffentliche Kapitalgesellschaften weniger als halb so viele Amerikaner wie 1970.38 Die öffentliche Kapitalgesellschaft galt als »für die Produktion unnötig, ungeeignet sowohl für eine stabile Beschäftigung als auch die Versorgung mit Wohlfahrtsleistungen sowie unfähig, langfristig einen verlässlichen Ertrag für Kapitalanlagen unter Beweis zu stellen«.39 Diese Entwicklung hob den »Unternehmer« als Kultfigur in nachgerade mythische Höhen, war er doch die perfekte Vereinigung von Eigentümerschaft und Management. Er ersetzte die reichhaltigen existenziellen Möglichkeiten der Zweiten Moderne mit einem einzigen verklärten Schema von Kühnheit, wettbewerbsorientierter Finesse, Herrschaft und Wohlstand.

Die Instabilität der Zweiten Moderne

Am 9. August 2011, etwa zur selben Zeit, in der man bei Apple jubelte, versuchten in London 16 000 Polizisten verbissen, dem »größten und längsten Zusammenbruch der öffentlichen Ordnung in der Geschichte Londons seit den Gordon Riots von 1780« ein Ende zu machen.40 Begonnen hatten die Unruhen vier Nächte zuvor, als es bei einer friedlichen Totenwache für einen von der Polizei erschossenen jungen Mann zu Gewalttätigkeiten kam. Während der folgenden Tage stieg die Zahl der Randalierer; Plünderungen und Brandstiftungen breiteten sich auf 22 von Londons 32 Bezirken und auf andere britische Großstädte aus.41 Vier Tage lang ging man auf die Straße, Tausende verursachten Sachschäden von über 50 Millionen Dollar, die Polizei nahm 3 000 Personen fest. Obzwar Apples Aufstieg die Ansprüche der Individuen der Zweiten Moderne zu bestätigen schien, zeigten die Straßen Londons das traurige Erbe des dreißigjährigen Experiments, Wirtschaftswachstum durch Ausgrenzung zu erreichen. Eine Woche nach den Krawallen schrieb die Soziologin Saskia Sassen in einem Artikel für das Online-Magazin Daily Beast: »Suchen wir nach den eigentlichen Gründen, so haben sie mit Arbeitslosigkeit zu tun und der bitteren Armut unter Menschen, die sich nichts mehr wünschen, als zur Mittelschicht zu gehören, sich aber der akuten Ungleichheit zwischen ihnen und der reichen Elite des Landes bewusst sind. Wir haben es hier, wenn auch im Kleinen, mit gesellschaftlichen Revolutionen zu tun, Protesten gegen soziale Bedingungen, die unerträglich geworden sind.«42 Wie sahen die Bedingungen aus, die so unerträglich geworden waren? Viele Fachleute sind sich einig, dass für Großbritanniens Tragödie die Transformation der Gesellschaft durch den Neoliberalismus verantwortlich ist, eines Programms, das gerade in Großbritannien und in den USA umfassend umgesetzt wurde – man hat hier alle von Huntington sechsunddreißig Jahre zuvor umrissenen Zielvorgaben buchstabengetreu erfüllt. Und in der Tat arbeitete die London School of Economics auf der Basis von Interviews mit 270 an den Krawallen beteiligten Leuten mit der Ungleichheit ein vorherrschendes Thema heraus: »kein Job, kein Geld«.43 Gebetsmühlenartig zählt praktisch jede Studie dieselben Punkte auf: Mangel an Chancen, mangelnder Zugang zu Bildung, Marginalisierung, Entbehrungen, Unzufriedenheit, Hoffnungslosigkeit.44 Und auch wenn die

Londoner Krawalle sich grundlegend von anderen Protesten zuvor und danach unterschieden, allen voran die Indignados-Bewegung, die nur Monate zuvor, im Mai 2011, mit einer Massendemonstration in Madrid begonnen hatte, sowie Occupy Wall Street in New York, wo man nur wenige Wochen später, am 17. September, den Zucotti Park besetzte, sie alle hatten einen gemeinsamen thematischen Ausgangspunkt: wirtschaftliche Ungleichheit und soziale Ausgrenzung.45 Die USA, das Vereinigte Königreich und Europa gingen das zweite Jahrzehnt des 21. Jahrhunderts unter den Vorzeichen einer ökonomischen und sozialen Ungleichheit an, wie man sie seit dem letzten Quartal des 19. Jahrhundert nicht mehr gesehen hatte – vergleichbar mit der in einigen der ärmsten Länder der Welt.46 Trotz eines Jahrzehnts explosiven digitalen Wachstums, zu dem auch Apples »Wunder« gehört, und der Durchdringung unseres Alltags durch das Internet, wiesen gefährliche soziale Klüfte auf eine Zukunft, in der die Verfestigung sozialer Schichten zunimmt und die Demokratie geschwächt sein wird.47 »Im Zeitalter eines neuen Konsens bei der Stabilisierung der Finanzpolitik«, so schrieb ein amerikanischer Ökonom, »erlebt die Wirtschaft den historisch größten Einkommenstransfer an die Spitze.«48 Ein nüchterner Bericht des Internationalen Währungsfonds dagegen warnte 2016 vor der Instabilität; er kam zu dem Schluss, der weltweite Trend zum Neoliberalismus habe »nicht zu den erwarteten Resultaten geführt«. Vielmehr habe die Ungleichheit »Niveau und Beständigkeit des Wachstums« signifikant vermindert, die Unbeständigkeit vergrößert und zu einer permanenten Anfälligkeit gegenüber ökonomischen Krisen geführt.49 Der freie Markt trieb die Suche nach einem effektiven Leben an die Grenzen des Möglichen. Zwei Jahre nach den Krawallen in North London zeigten britische Forscher auf, dass Armut als Folge eines Mangels an Bildung und der Arbeitslosigkeit 2013 bereits fast ein Drittel der Bevölkerung in ihrer sozialen Teilhabe behindere.50 Eine andere britische Studie kam zu dem Schluss: »Beschäftigte mit niedrigem und mittlerem Einkommen erleben die stärkste Senkung des Lebensstandards seit dem Beginn verlässlicher Aufzeichnungen Mitte des 19. Jahrhunderts.«51 Bereits 2015 hatten staatliche Sparmaßnahmen die Gemeindebudgets um 19 % – oder 18 Milliarden Pfund – gekürzt, eine Kürzung um 8 % bei den

Aufwendungen zum Schutz von Kindern erzwungen und dazu geführt, dass 150 000 Rentnern der Zugang zu wichtigen Dienstleistungen verwehrt blieb.52 Fast die Hälfte der amerikanischen Bevölkerung lebte 2014 in funktioneller Armut, wobei das höchste Einkommen in der unteren Hälfte der Verdienenden bei etwa 34 000 Dollar lag.53 Eine statistische Erhebung des US-Landwirtschaftsministeriums von 2012 zeigte, dass nahezu 49 Millionen Menschen in Haushalten ohne gesicherte Versorgung mit Nahrungsmitteln lebten.54 In seinem Werk Das Kapital im 21. Jahrhundert arbeitete der französische Ökonom Thomas Piketty mit Einkommensdaten aus drei Jahrhunderten und kam dabei zu einem allgemeinen Gesetz der Akkumulation: Die Kapitalrendite tendiert dazu, die Wachstumsrate der Wirtschaft zu überflügeln. Diese Tendenz, die er auf die Formel r > g bringt, ist eine Dynamik, die zu einer wachsenden Einkommensdivergenz führt und mit ihr zu einer Reihe antidemokratischer sozialer Konsequenzen, die seit langem schon als Vorboten einer letztendlichen Krise des Kapitalismus gelten. In diesem Kontext zitiert Piketty die Methoden finanzieller Eliten, mit ihren überdimensionalen Einkünften einen Zyklus politischer Machtergreifungen zu finanzieren, der ihre Interessen davor schützt, politisch herausgefordert zu werden.55 Und in der Tat kam 2015 ein Bericht der New York Times zu dem Ergebnis, dass 158 amerikanische Familien und ihre Unternehmen fast die Hälfte (176 Millionen Dollar) des Geldes gestellt hatten, das Demokraten und Republikaner 2016 für die Unterstützung von Präsidentschaftskandidaten gesammelt hatten, und das in der Hauptsache zur Unterstützung »republikanischer Kandidaten, die mit dem Versprechen auf Deregulierung, Steuersenkungen … das Streichen von Ansprüchen« angetreten waren.56 Historiker, investigative Journalisten, Ökonomen und Politikwissenschaftler haben sich die kniffligen Fakten einer Wendung hin zur Oligarchie vorgenommen und ein Licht auf die systematischen Kampagnen zur Einflussnahme auf Öffentlichkeit und Politik geworfen, die eine extreme Marktpolitik sowohl antreiben als auch erhalten, und das auf Kosten der Demokratie.57 Die Moral von Pikettys umfänglicher Forschungsarbeit könnte lauten: Man sollte den Kapitalismus nicht roh genießen. Er gehört gekocht, und zwar von einer demokratischen Gesellschaft und ihren Institutionen, da

Kapitalismus roh antisozial ist. Eine »Marktwirtschaft, wenn sie sich selbst überlassen bleibt«, so die Mahnung des französischen Ökonomen, setze »machtvolle Divergenzkräfte [frei], die unsere demokratischen Gesellschaften und jene soziale Gerechtigkeit bedrohen, die zu ihren Legitimationsgrundlagen zählt«.58 Viele Wissenschaftler bezeichnen diese neuen Bedingungen mittlerweile als Neofeudalismus, der sich, aus der Verschmelzung von elitärem Reichtum und Macht entstanden, der Kontrolle breiter Bevölkerungsteile und der Mechanismen demokratischen Konsenses entzieht.59 Piketty spricht von einer Rückkehr zum »patrimonialen Kapitalismus« und einem Rückfall in eine vormoderne Gesellschaft, in der die Chancen des Einzelnen eher von ererbtem Wohlstand abhingen als von »meritokratischen Werten«.60 Wir haben heute die Werkzeuge, um diese Kollision in all ihrer destruktiven Komplexität zu begreifen: Was das Ganze so unerträglich macht, ist der Umstand, dass zwar die ökonomische und soziale Ungleichheit zum vorindustriellen »feudalen« Muster zurückgekehrt ist, aber nicht der Mensch. Wir sind nun mal keine des Lesens und Schreibens unkundigen Bauern, Leibeigene oder Sklaven mehr. Ob wir nun der »Mittelschicht« angehören oder »randständig« sind, wir teilen die kollektive Geschichte des individualisierten Menschen mit all seinen komplexen sozialen Erfahrungen und Meinungen. Wir sind Millionen, ja Milliarden von Menschen, deren Geschichte sich befreit hat vom einst unabänderlichen Schicksal, das uns mit in die Wiege gelegt war. Viele von uns wissen, dass sie der Würde ebenso wert sind wie der Chance auf ein effektives Leben. Wir sprechen hier von einem existenziellen Geist, der nicht mehr in die Flasche zurückzubekommen ist. Die Ungleichheiten, wie sie sich in der Abtrift in die Oligarchie manifestieren, wollen diese Emanzipation umkehren und uns wieder in den limitierten Aussichten unserer Kindheit einsperren. Der destruktiven Schallwelle einer Explosion gleich erwächst aus dieser toxischen Kollision des Faktums der Ungleichheit mit den von ihr ausgelösten Gefühlen eben jener Nachhall von Schmerz und Zorn, der unsere Zeit definiert.61 Auch die Interviews mit 270 der an den Londoner Krawallen von 2011 Beteiligten reflektieren die Folgend dieser Kollision. »Sie drückten das auf unterschiedliche Weise aus«, so die Folgerung der Studie, »aber gemein ist

all ihren Aussagen ein tiefsitzendes Bewusstsein für die Ungerechtigkeit. Für die einen war sie ökonomischer Art – der Mangel an Arbeit, Geld oder Chancen. Für andere war sie eher im weiteren Sinne gesellschaftlicher Art, definierte sich nicht nur durch das Fehlen materieller Dinge, sondern durch die Behandlung, die sie ihrer Ansicht nach im Vergleich zu anderen erfuhren  …« Das »Gefühl, unsichtbar zu sein« war »weitverbreitet«. Eine Frau erklärte das folgendermaßen: »Man muss auf die jungen Leute von heute hören. Es muss Gerechtigkeit für sie geben.« Und ein junger Mann überlegte: »Wenn dich alle übersehen, machst du eben irgendwann Randale, damit sie dich sehen.«62 Andere Analysen sprechen davon, die »Verweigerung der Menschenwürde« hätte zu dem wortlosen Zorn der Randale von North London geführt.63 Als auf einem anderen Kontinent, fernab von Londons schwer geprüften Bezirken, die Occupy-Bewegung ausbrach, schien sie wenig gemein zu haben mit den gewalttätigen Ausbrüchen im August. Die 99 %, die Occupy zu vertreten beanspruchte, zeichneten sich keineswegs durch ihre Randständigkeit aus. Ganz im Gegenteil: Occupy bezog seine Legitimation aus dem Anspruch, die qualifizierte Mehrheit zu sein. Nichtsdestoweniger enthüllte Occupy einen ähnlichen Konflikt zwischen dem Fakt der Ungleichheit und den von ihr evozierten Gefühlen, der seinen Ausdruck in einer kreativ individualisierten politischen Kultur fand, die auf »direkte Demokratie« und »horizontale Führung« bestand.64 Einige Beobachter kamen zu dem Schluss, es sei eben dieser Konflikt gewesen, der letztlich zur Lähmung der Bewegung geführt hätte, anders ausgedrückt die mangelnde Bereitschaft ihres »inneren Führungskerns«, ihren hochindividualisierten Ansatz zugunsten von Strategien und Taktiken einer dauerhaften Massenbewegung zu kompromittieren.65 Eines freilich ist sicher: Es gab keine Knechte, keine Leibeigenen im Zucotti Park. Einem scharfsichtigen Beobachter der Bewegung fiel auf: »Der Unterschied liegt darin, dass sich von Anfang an große Teile von ›wir, das Volk‹ als weiser erwiesen als unsere Herrscher. Unsere Weitsicht war größer und letztlich hatten wir das bessere Urteilsvermögen, was die traditionelle Legitimierung unserer elitären Regierung auf den Kopf stellte, dass die, die das Sagen haben, es besser wissen als der Pöbel.«66

Es ist dies der existenzielle Widerspruch unserer Zeit, der unsere Lebensbedingungen definiert: Wir wollen die Kontrolle über unser Leben, sehen aber unsere einschlägigen Bemühungen allenthalben konterkariert. Da schickt uns die Individualisierung auf die Suche nach den Ressourcen für ein effektives Leben, und dann sehen wir uns auf Schritt und Tritt gezwungen, uns mit einer Wirtschaft, mit einer Politik herumzuschlagen, aus deren Sicht wir lediglich Ziffern sind. Man hat uns beigebracht, unserem Leben in seiner Einzigartigkeit einen Wert beizumessen, aber man behandelt uns, als wären wir unsichtbar. Da die Belohnungen des fortgeschrittenen Finanzkapitalismus in immer weitere Ferne rücken, sehen wir die Zukunft mit einer Verstörtheit, die mit zunehmender Häufigkeit in Gewalt umschlägt. Die Erwartung psychologischer Selbstbestimmung ist der Nährboden für die Entfaltung unserer Träume, und so sind unsere Verluste angesichts der langsamen Zunahme von Ungleichheit, Ausgrenzung, allgegenwärtigem Wettbewerb und menschenunwürdiger sozialer Schichtung nicht nur ökonomischer Art. Entsetzt und verbittert sehen wir uns bis ins Mark getroffen, wissen wir doch, dass wir als Individuen der Würde und des Rechts wert sind, unser Leben nach eigenen Vorstellungen zu führen. Während ich diese Zeilen schreibe, befinden wir uns bereits weit im zweiten Jahrzehnt des 21. Jahrhunderts, und doch zerfleischt uns nach wie vor der ökonomische und soziale Wettbewerb des 20. Jahrhunderts, wird unser Leben nach wie vor durch Huntingtons bitteres Erbe eines wirtschaftlichen Wachstums durch Ausgrenzung aus der Mitte des letzten Jahrhunderts bestimmt. Der tiefste Widerspruch unserer Zeit, so schrieb der Soziologe und Philosoph Zygmunt Bauman, sei »die gähnende Kluft zwischen dem Recht auf Selbstbehauptung und der Fähigkeit, die soziale Umgebung zu kontrollieren, die eine solche Selbstbehauptung erst möglich macht. Aus dieser abgründigen Kluft strömen die giftigsten Ausdünstungen, die das Leben des gegenwärtigen Individuums kontaminieren«.67 Jedes neue Kapitel in der jahrhundertealten Geschichte der menschlichen Emanzipation, so beteuert er, müsse hier ansetzen. Kann die Instabilität der Zweiten Moderne einer neuen Synthese weichen: einer Dritten Moderne?

Eine Dritte Moderne Apple startete in dieser »gähnenden Kluft«, und eine Zeitlang sah es ganz so aus, als könnte seine Fusion von Kapitalismus und Digitalem eine neue Richtung weisen. Das Versprechen eines anwaltschaftlich ausgerichteten digitalen Kapitalismus ließ im ersten Jahrzehnt unseres Jahrhunderts rund um die Welt Menschen der Zweiten Moderne aufhorchen. Neue Unternehmen wie Google und Facebook schienen das Versprechen dieser Umkehr in neuen, kritischen Bereichen mit Leben zu erfüllen, indem sie Information und Mensch aus den alten institutionellen Grenzen befreiten; sie ermöglichten uns zu finden, was und wen immer wir finden wollen, wann und wie auch immer wir suchen, wann und wie auch immer wir andere kontaktieren wollen. Apples Umkehr implizierte vertrauenswürdige Beziehungen auf der Basis von Anwaltschaft und Gegenseitigkeit, eingebettet in eine Allianz kommerzieller Unternehmen, denen das Interesse des Kunden am Herzen lag. Sie stellten eine neue digitale Marktform in Aussicht, die die Kollision transzendierte – eine erste Andeutung eines Kapitalismus der Dritten Moderne, durch die selbstbestimmten Bestrebungen von Individuen auf den Plan gerufen und dem digitalen Milieu autochthon. Die Gelegenheit für eine Umsetzung der Devise »mein Leben, meine Art, zu einem Preis, den ich mir leisten kann« war das menschliche Versprechen, das über Nacht seinen Platz im Herzen des kommerziellen digitalen Projekts finden sollte, vom iPhone über One-Click-Bestellung und MOOC-Seminar bis hin zu den OnDemand-Diensten Hunderttausender webbasierter Unternehmen, Geräten und Apps. Sicher, es gab Fehler, Defizite, Schwachstellen. Man verstand die potenzielle Bedeutung von Apples stillschweigender Logik nie so ganz, noch nicht mal im eigenen Haus. Stattdessen sorgte das Unternehmen für einen stetigen Strom von Widersprüchen, die business as usual signalisierten. Man warf Apple eine extraktive Preispolitik vor, die Auslagerung von Arbeitsplätzen, die Ausbeutung seiner Einzelhändler, die Leugnung jeglicher Verantwortung für die Arbeitsbedingungen in seinen Fabriken sowie illegale Wettbewerbsklauseln bei der Anwerbung von Angestellten, institutionelle Steuerumgehung und einen Mangel an

Verantwortung für die Umwelt – um nur einige der Verstöße zu nennen, die den impliziten Gesellschaftsvertrag seiner eigenen einzigartigen Logik zu negieren schienen. Was die echte ökonomische Mutation betrifft, so besteht immer eine Spannung zwischen den neuen Merkmalen der Form und ihrem Mutterschiff. Altes und Neues rekonfiguriert sich zu einem bisher unbekannten Muster. Gelegentlich finden die Elemente einer solchen Mutation das richtige Umfeld, in dem sie zur Fortpflanzung »selektiert« werden. Dazu kommt es, wenn die neue Form die Chance einer gänzlichen Institutionalisierung hat und seine ganz spezifische Zugbahn in die Zukunft zu etablieren vermag. Freilich ist es weit wahrscheinlicher, dass potenzielle Mutationen ihr Schicksal beim Übergang ereilt, dass die Gravitationskraft etablierter Praktiken sie wieder auf den Status quo zurückzieht.68 Handelte es sich bei Apples Umkehr um eine potente neue ökonomische Mutation im Spießrutenlauf von Versuch und Irrtum, die irgendwann den Erfordernissen eines neuen Zeitalters genügen würde, oder schaffte sie einfach den Übergang nicht? In unserer Begeisterung und unserer zunehmenden technologischen Abhängigkeit vergaßen wir allzu schnell, dass eben die Kräfte des Kapitals, vor denen wir in der »realen« Welt geflohen waren, in rasendem Tempo Anspruch auf die digitale Sphäre erhoben. Das machte uns anfällig, sodass wir uns auf dem falschen Fuß erwischt sahen, als das frühe Versprechen des Informationskapitalismus eine dunklere Wendung nahm. Während wir das »Versprechen auf Hilfe« feierten, traten mit zunehmender Regelmäßigkeit beunruhigende Fragen aus dem Dunst der Ära, auf die wir vorhersehbar reagierten – mit Entsetzen und Zorn. Warum scannte Googles 2004 gegründeter E-Mail-Dienst Gmail die private Korrespondenz seiner Nutzer, um Werbung zu platzieren? Als die erste Gmail-Nutzerin die erste, auf den Inhalt einer privaten Mail zielende Werbung sah, reagierte die Öffentlichkeit im Handumdrehen. Viele fanden das abstoßend und waren entsprechend empört; andere waren einfach verwirrt. Google-Biograf Stephen Levy drückte das folgendermaßen aus: »Google schien es fast zu genießen, dass die Wahrung der Privatsphäre der Nutzer den gnädigen Richtlinien und der Vertrauenswürdigkeit des Unternehmens oblag, das die Server betrieb. Und da Google mit den

Anzeigen Gewinne machen wollte, stellte das Unternehmen auch gleich klar, dass es die Situation ausnutzen würde.«69 Als Facebook 2007 Beacon startete, pries man den Dienst als »neue Art der sozialen Informationsverteilung«. Beacon ermöglichte Facebook das Tracking von Nutzern über das gesamte Internet hinweg und meldete deren Online-Einkäufe ohne ihre Einwilligung seinen Werbekunden. Die Welt war schockiert über die Dreistigkeit der Firma, Nutzer erst online zu verfolgen und ihnen dann auch noch das Recht der freien Bestimmung über ihre Daten zu nehmen. Unter dem Druck der Öffentlichkeit machte FacebookGründer Mark Zuckerberg das Programm dicht, erklärte aber 2010, die Privatsphäre stelle keine gesellschaftliche Norm mehr dar, und klopfte sich dann selbst dafür auf die Schulter, die »Datenschutzrichtlinien« seines Unternehmens gelockert zu haben, damit sie dieser eigennützigen Behauptung einer neuen gesellschaftlichen Realität Rechnung trugen.70 Zuckerberg hatte offensichtlich Jonathan Trenns Schilderung seiner Erfahrungen mit Beacon nicht gelesen: Ich hatte bei overstock.com ein Diamant-Verlobungsringset gekauft als Neujahrsüberraschung für meine Freundin … Stellen Sie sich mein Entsetzen vor, als ich erfuhr, dass Overstock die Einzelheiten meines Kaufs (mit einem Link auf den Artikel und seinen Preis) auf meinem öffentlichen Facebook-Newsfeed veröffentlicht hatte, einschließlich einer Nachricht an alle meine Freunde. ALLE MEINE FREUNDE, also auch an meine Freundin und all ihre Freunde etc. … UND DAS ALLES OHNE MEINE EINWILLIGUNG ODER MEIN WISSEN. Ich bin absolut erschüttert, dass man mir meine Überraschung und was als was ganz Besonderes und lebenslange Erinnerung für meine Freundin gedacht war, ruiniert hatte, und ich war am Boden zerstört durch diese total hinterhältige und ärgerliche Verletzung meiner Privatsphäre.71 Zu den herbsten der zahlreichen Enttäuschungen der ins Web gesetzten anwaltschaftlichen Erwartungen gehören die allgegenwärtigen »Nutzungsbestimmungen«.72 Für Juristen fallen diese in die Kategorie von »Knebelverträgen«, weil sie den Nutzern Bedingungen aufzwingen – wer sie nicht akzeptieren will, braucht ja nicht mitzumachen –, und sie bleiben

an einem haften, ob man will oder nicht. Online-»Verträge« wie die Nutzungsbedingungen werden auch gerne als »Click-Wrap-Verträge« bezeichnet, weil die meisten von uns, wie eine ganze Reihe von Studien zeigen, sich in deren repressiven Konditionen »einwickeln« lassen, indem sie einfach auf »Ich stimme zu« klicken, ohne die Vereinbarungen auch nur anzuschauen.73 In vielen Fällen binden Sie sich allein durch Ihre Anwesenheit auf der Website an deren Nutzungsbestimmungen, ohne dass Sie sich dessen bewusst sind. Fachleute weisen darauf hin, dass die exzessive Länge und Komplexität dieser digitalen Dokumente nicht zuletzt dazu dient, den Nutzer von der Lektüre der Bedingungen abzuhalten. Dennoch haben Gerichte die Rechtmäßigkeit dieser Click-Wrap-Verträge größtenteils bestätigt, auch wenn von einer »aussagekräftigen Einwilligung« wohl kaum je die Rede sein kann.74 Selbst John Roberts, Richter am Obersten Gerichtshof der Vereinigten Staaten, gestand, dass er »am Computer das Kleingedruckte« nicht lese.75 Zu allem Übel können die Nutzungsbedingungen jederzeit vom Unternehmen einseitig geändert werden, wozu es keiner ausdrücklichen Kenntnisnahme oder Einwilligung des Nutzers bedarf; außerdem schließen die Bedingungen normalerweise weitere Unternehmen (Partner, Lieferanten, Werbevermittler etc.) mit ein, ohne dass man die Verantwortung für deren Bedingungen übernimmt oder auch nur auf sie verweist. Diese »Verträge« laufen für den Nutzer auf einen aussichtslosen infiniten Regress hinaus, den die Rechtsprofessorin Nancy Kim schlicht »sadistisch« nennt. Die Rechtswissenschaftlerin Margaret Radin spricht die Alice-imWunderland-Qualität solcher »Verträge« an. Heilige Begriffe wie »Vereinbarung« und »Zusage«, so könnte man sagen, die seit dem alten Rom so kritisch waren für die Entwicklung der Institution des Vertrags, sind zu »talismanischen« Signalen verkommen, die »lediglich darauf hinweisen, dass die Firma, die solche Textbausteine einsetzt, den Adressaten gebunden sehen will«.76 Radin bezeichnet das als »privates Enteignungsrecht« und spricht von einer einseitigen Beschlagnahme von Rechten ohne Einwilligung. Sie betrachtet solche »Verträge« im moralischen wie im demokratischen Sinne als »Beeinträchtigung« der Rechtsstaatlichkeit und der Institution des Vertrags – als eine Pervertierung, die die durch demokratische Prozesse garantierten Rechte des Nutzers neu strukturiert,

»indem man diese durch das System ersetzt, das das Unternehmen einem aufzwingen will … Der Betroffene muss ein vom Unternehmen konzipiertes Rechtsuniversum betreten, wenn er mit dem Unternehmen eine Transaktion tätigen will«.77 Das digitale Milieu hat wesentlich zu diesen Beeinträchtigungen beigetragen. Papierdokumente, so schreibt Kim, setzten dem Vertragsgebaren allein schon dadurch natürliche Grenzen, dass ihre Ausfertigung, Verteilung und Archivierung Geld kosteten. Verträge auf Papier erfordern eine physische Unterschrift und begrenzen damit die Wahrscheinlichkeit einer ungebührlichen Bürde für die Kundin, insofern sie gezwungen ist, auch seitenweise Kleingedrucktes zu lesen. Digitale Bedingungen sind dagegen »gewichtslos«. Sie lassen sich ohne zusätzliche Kosten erweitern, reproduzieren, verteilen und archivieren. Hatten Unternehmen erst einmal verstanden, dass Richter dazu neigten, ihre Clickund-Browse-Wrap-Vereinbarungen für rechtsgültig zu erklären, hielt sie nichts mehr davon ab, die Reichweite dieser perversen Verträge zu erweitern, um vom Kunden zusätzliche Vorteile zu extrahieren, die nichts mit der eigentlichen Transaktion zu tun haben.78 Dies deckte sich zeitlich mit der Entdeckung des Verhaltensüberschusses, den wir uns in Kapitel 3 näher ansehen werden. Nutzungsvereinbarungen wurden um ebenso barocke wie normwidrige »Datenschutzrichtlinien« erweitert, die die Grundlage für einen weiteren unendlichen Regress dieser Enteignungsbedingungen bildeten. Selbst der ehemalige Vorsitzende der Bundeshandelskommission Jon Leibowitz erklärte öffentlich: »Wir sind uns alle darüber im Klaren, dass Verbraucher keine Datenschutzrichtlinien lesen.«79 2008 errechneten zwei Professoren der Carnegie Mellon University, dass die angemessene Durchsicht all der Datenschutzrichtlinien, die einem pro Jahr unterkommen, sechsundsiebzig voller Arbeitstage bedürfte und dem Land Opportunitätskosten von 781 Milliarden Dollar verursachen würde.80 Diese Zahlen würden heute noch weit höher ausfallen. Der Verbraucher ist sich jedoch nach wie vor der »räuberischen« Bedingungen nicht bewusst, die es laut Kim Unternehmen erlauben, »Rechte ohne Verhandlungen zu erwerben sowie Praktiken einzuführen und zu verankern, bevor Nutzer und Regulatoren klar wird, was da passiert«.81

Zunächst hatte es ganz so ausgesehen, als hätten die neuen Internetunternehmen einfach die moralischen, gesellschaftlichen und institutionellen Bedingungen ihrer ökonomischen Logik nicht begriffen. Mit jedem neuen Übergriff war es jedoch schwerer, die Möglichkeit von der Hand zu weisen, dass hinter dem Muster dieser Verstöße ein System steckte und nicht etwa ein »Bug«. Apples »Wunder« mochte das Saatkorn einer ökonomischen Reformation enthalten, verstanden hat es niemand so recht, noch nicht einmal Apple selbst. Lange vor dem Tod seines legendären Gründers Steve Jobs warfen Apples wiederholte Übergriffe gegen die Erwartungen seiner Nutzer Fragen darüber auf, wie gut eigentlich der Konzern Tiefenstruktur und historisches Potenzial seiner eigenen Kreationen verstand. Der dramatische Erfolg von Produkten wie iPod und iTunes weckte im Internetnutzer einen gewissen Optimismus hinsichtlich des neuen digitalen Kapitalismus, nur ergriff Apple zu keiner Zeit die Zügel, um sich einer umfassenden und stimmigen Entwicklung der sozialen und institutionellen Prozesse zu widmen, die das Versprechen des iPods explizit zu einer Marktform erhoben hätten – wie Henry Ford und Alfred Sloan das einst getan hatten. Diese Entwicklungen reflektieren die schlichte Wahrheit, dass eine echte ökonomische Reform eben Zeit braucht und die Internetwelt, ihre Investoren und Aktionäre es eilig hatten. Das Credo digitaler Innovation nahm rasch eine Sprache des disruptiven Bruchs und der Tempobesessenheit an; seine Kampagnen führte es unter dem Banner der »schöpferischen Zerstörung«. Man griff diesen schicksalshaften Begriff des Ökonomen Joseph Schumpeter zur Legitimierung dessen auf, was man im Silicon Valley euphemistisch »genehmigungsfreie Innovation« (permissionless innovation) nennt.82 Die Rhetorik der Zerstörung förderte, was ich gerne als die »Jungs-und-ihr-Spielzeug«-Theorie der Geschichte bezeichne: die Auffassung, dass im Kapitalismus der das beste Blatt hat, der den Status quo mit neuen Technologien in die Luft jagt. Schumpeters Analyse war freilich weit nuancierter und komplexer, als die moderne Zerstörungsrhetorik das vermuten ließe. Obwohl Schumpeter den Kapitalismus als »evolutionären« Prozess verstand, brachten es verhältnismäßig wenige seiner ständigen Innovationen tatsächlich zu so etwas wie evolutionärem Rang. Diese seltenen Fälle

bezeichnete er als »Mutationen«. Es handelt sich dabei um bleibende und nachhaltige qualitative Veränderungen in Logik, Verständnis und Praxis der kapitalistischen Akkumulation – im Gegensatz zu zufälligen, zeitlich begrenzten oder opportunistischen Reaktionen auf Umstände. Ausgelöst, da war Schumpeter sich sicher, wird ein solcher evolutionärer Mechanismus von neuen Bedürfnissen der Verbraucher; die Ausrichtung an diesen Bedürfnissen sei die Disziplin, die die nachhaltige Mutation treibe, »mit andern Worten, daß der kapitalistische Prozeß progressiv den Lebensstandard der Massen erhöht, und zwar nicht durch einen bloßen Zufall, sondern kraft seines Mechanismus«.83 Um nachhaltig übernommen zu werden, müssen die Ziele und Praktiken einer solchen Mutation in neue institutionelle Formen übersetzt werden. »Der fundamentale Antrieb, der die kapitalistische Maschine in Bewegung setzt und hält, kommt von den neuen Konsumgütern, den neuen Produktions- oder Transportmethoden, den neuen Märkten, den neuen Formen der industriellen Organisation, welche die kapitalistische Unternehmung schafft.« Man beachte, dass Schumpeter von »schaffen«, nicht von »zerstören« spricht. Als Beispiele für solche Mutationen nennt Schumpeter die »Eröffnung neuer, fremder oder einheimischer Märkte und die organisatorische Entwicklung vom Handwerksbetrieb und der Fabrik zu solchen Konzernen wie dem U. S.-Steel«.84 Für Schumpeter war die schöpferische Zerstörung eine bedauerliche Nebenerscheinung eines langen und komplexen Prozesses nachhaltigen schöpferischen Wandels. »Kapitalismus«, so schreibt er, »schafft und zerstört.« Er war in diesem Punkt eisern: »Die schöpferische Antwort formt den gesamten Verlauf nachfolgender Ereignisse und deren ›langfristiges‹ Resultat … Die schöpferische Antwort verändert soziale wie ökonomische Situationen auf immer … Deshalb ist die schöpferische Antwort wesentliches Element im historischen Prozess: Dagegen hilft auch kein deterministischer Glaube.«85 Und schließlich redet Schumpeter, entgegen aller Rhetorik und Tempohörigkeit im Silicon Valley, der Geduld das Wort: »Da wir uns mit einem Problem befassen, von dem jedes Element beträchtlich Zeit braucht, um seine wahren Eigenschaften und seine endgültigen Wirkungen zu enthüllen, so hat es keinen Sinn, die Leistung dieses Prozesses ex visu eines gegebenen Zeitpunktes zu würdigen; wir

müssen seine Leistung über eine längere Zeitspanne hin beurteilen, wie sie sich während Jahrzehnten oder Jahrhunderten entfaltet.«86 Die Signifikanz einer »Mutation« in Schumpeters System impliziert eine hohe Schwelle, die mit der Zeit durch die ernsthafte Arbeit des Erfindens neuer institutioneller, in die neuen Bedürfnisse neuer Menschen eingebetteter Formen überschritten wird. Zerstörung an sich ist relativ selten schöpferisch, zumal wenn es an einer robusten Doppelbewegung fehlt. Schumpeter illustriert das am Beispiel der United States Steel Corporation, die von einigen der skrupellosesten Kapitalisten ihrer Zeit, unter anderen Andrew Carnegie und J. P. Morgan, gegründet wurde. Unter dem Druck einer immer drängenderen Doppelbewegung gewährte US Steel schließlich faire Arbeitsbedingungen in Form von Gewerkschaften und Tarifverhandlungen sowie betrieblichen Arbeitsmärkten, Aufstiegsmöglichkeiten, berufliche Hierarchien, Arbeitsplatzsicherheit, Aus- und Fortbildung bei gleichzeitiger Umsetzung seiner technischen Fortschritte bei der Massenproduktion. Die Mutation ist kein Märchen; sie ist vielmehr rationaler, durch demokratische Institutionen im Wechselspiel mit seiner Bevölkerung eingebundener Kapitalismus. Mutationen sorgen für grundlegende Veränderungen im Wesen des Kapitalismus, indem sie ihn in Richtung derer lenken, denen er dienen soll. Eine solche Einstellung ist nicht annähernd so sexy oder aufregend wie der »Jungs-und-ihr-Spielzeug«-Ansatz, aber es ist nun mal das, was den Lauf der Wirtschaftsgeschichte bestimmt.

Der Überwachungskapitalismus füllt das Vakuum Rasch füllte eine neue Art von ökonomischer Macht das Vakuum, eine Wirtschaftsform, die noch die flüchtigste Internetsuche, jedes »Like«, jeden Klick als Aktivposten beanspruchte, den es zu »tracken«, »parsen« und »monetarisieren« galt – und das alles binnen eines Jahrzehnts nach dem Debüt des iPod. Fast möchte man an einen Hai denken, der die ganze Zeit knapp unter der Oberfläche des Geschehens seine Kreise zieht, um gelegentlich nach einem saftigen Bissen zu schnappen. Bald begannen die einschlägigen Unternehmen ihre Verstöße zum notwendigen Quidproquo zu

erklären, als Gegenleistung für »kostenlose« Internetdienste. Die Privatsphäre, so sagten sie, sei eben der Preis, der zu zahlen sei für die üppige Ausbeute an Informationen, Connections und anderen digitalen Gütern – wann, wo und wie auch immer uns danach ist. Diese Erklärungen lenkten uns ab von dem tiefgreifenden Wandel, der alsbald die Regeln des Digitalen wie des Kapitalismus an sich umschreiben sollte. Rückblickend ist deutlich zu sehen, dass die vielen widersprüchlichen Herausforderungen an die Erwartungen der Nutzer eigentlich winzige Gucklöcher in eine rasant sich herausbildende institutionelle Form waren, die die Bedürfnisse der Zweiten Moderne und die etablierten Normen des »Wachstums durch Ausgrenzung« vor den Karren eines ganz und gar neuartigen Marktprojekts zu spannen lernte. Der Hai entpuppte sich mit der Zeit als eine sich rasant fortpflanzende systemische und innerlich konsistente neue Variante des Informationskapitalismus, dem nach nichts Geringerem als der Vorherrschaft war. Eine völlig neue Spielart des Kapitalismus bahnte sich rüde einen Weg in die Wirtschaftsgeschichte: der Überwachungskapitalismus. Es handelt sich bei dieser neuen Marktform um eine einzigartige Logik der Akkumulation, in der die Überwachung zu einem fundamentalen Mechanismus bei der Umwandlung von Investition in Profit geworden ist. Ihr rasanter Aufstieg wie auch ihre institutionelle Entwicklung und merkliche Ausdehnung erwiesen sich als Herausforderung für das zaghafte Inversionsversprechen und seiner anwaltschaftlichen Werte. Allgemeiner gesprochen, verriet der Überwachungskapitalismus die Hoffnungen und Erwartungen vieler »Netzbürger«, die dem emanzipatorischen Versprechen des Netzwerkmilieus zugetan waren.87 Der Überwachungskapitalismus requirierte die Wunder des Digitalen, um unser Bedürfnis nach einem effektiven Leben zu befriedigen, und versprach uns, über eine magische Welt grenzenloser Informationsfülle hinaus, die Fährnisse unseres komplexen Daseins erträglich zu machen, sowie tausend Möglichkeiten, unsere Bedürfnisse zu erahnen. Und wir hießen ihn in unserem Zuhause wie in unserem Herzen willkommen und nahmen ihn mit unseren jeweiligen Ritualen der Gastfreundschaft bei uns auf. Wie wir in den kommenden Kapiteln sehen werden, bergen jetzt auch die Ressourcen für das effektive Leben, nach denen wir in der digitalen Welt suchen, dank

des Überwachungskapitalismus eine ganz neue Gefahr. Unter diesem neuen Regime ist der präzise Augenblick, in dem wir unsere Bedürfnisse befriedigt sehen, eins mit eben dem Augenblick, in dem man uns unserer Verhaltensdaten beraubt – und das alles nur für anderer Leute Profit. Die Folge ist ein ebenso perverses wie unauflösbar geschichtetes Amalgam von Bemächtigung und Herabwürdigung. Angesichts des Ausbleibens einer entschiedenen gesellschaftlichen Reaktion, die diese Logik der Akkumulation an die Kandare nimmt, wenn nicht gar für ungesetzlich erklärt, scheint der Überwachungskapitalismus auf dem besten Weg, zur dominanten Spielart des Kapitalismus unserer Zeit zu werden. Wie konnte das passieren? Wir werden auf diese Frage immer wieder zurückkommen, während wir neue Einsichten und Antworten zusammentragen. Deshalb will ich hier fürs Erste nur festhalten, dass eine Bedrohung unserer Freiheiten für uns jahrhundertelang nur in Gestalt der Staatsmacht vorstellbar war. So waren wir denn auch nicht abwehrbereit gegen neue Unternehmen mit phantasievollen Namen und jungen Genies an der Spitze, die uns zu geringen oder gar keinen Kosten mit genau dem zu versorgen schienen, wonach uns so sehnlich verlangt. Die schlimmsten Schädigungen durch das neue Regime, gegenwärtige wie künftige, lassen sich nur schwer begreifen oder in Prinzipien fassen, da sie aufgrund ihres rasanten Tempos nur undeutlich zu erkennen und zudem durch teure und unlesbare Maschinenoperationen, verborgene Geschäftspraktiken, meisterhafte rhetorische Irreführung und methodisch betriebene kulturelle Anverwandlung getarnt sind. Im Rahmen dieser Entwicklung wurden positiv besetzte oder einfach nur banale Begriffe – »offenes Internet«, »Interoperabilität« und »Konnektivität« – klammheimlich vor den Karren eines Marktprozesses gespannt, bei dem der Einzelne unleugbar nur noch als Mittel zu den Marktzwecken anderer in Betracht kommt. Ein beherzter Kader von Rechtswissenschaftlern und technologiekundigen Aktivisten ausgenommen, konnte sich der Überwachungskapitalismus aufgrund des Tempos, mit dem er Wurzeln fasste, unserem Verständnis wie unserem Einverständnis auf raffinierte Weise entziehen. Die neoliberale Ideologie und eine entsprechende Politik sorgten für das Habitat, in dem er gedeihen konnte (siehe Kapitel 3). Diese Ideologie und ihre praktische Umsetzung zwingen die Individuen der Zweiten Moderne unter das Joch des drakonischen Quidproquos im Herzen

der Akkumulationslogik des Überwachungskapitalismus, bei der Information und Konnektivität als Geiseln im Austausch gegen lukrative Verhaltensdaten dienen, die hinter dem immensen Wachstum und den Profiten der neuen Marktform stehen. Jede Anstrengung, den Überwachungskapitalismus aufzuhalten oder zu demontieren, wird sich zwangsläufig mit dieser übergeordneten institutionellen Landschaft auseinanderzusetzen haben, die ihre schützende Hand über seine Operationen hält. Die Geschichte bietet keine Kontrollgruppen, sodass wir nicht sagen können, ob Apple sein Kronjuwel unter anderer Leitung, mit mehr Zeit oder unter modifizierten Umständen nach Art von Henry Ford und Alfred Sloan erkannt, entwickelt und institutionalisiert hätte. Auf der anderen Seite ist diese Gelegenheit nicht für immer verloren – ganz im Gegenteil. Es ist durchaus denkbar, dass wir die Herausbildung einer neuen Synthese erleben, bei der wir eine genuine Inversion mitsamt ihrem Gesellschaftsvertrag als Prinzipien eines neuen, vernünftigen, an einer Gesellschaft aus Individuen ausgerichteten und durch demokratische Institutionen gestützten digitalen Kapitalismus institutionalisiert sehen. Dass Schumpeter den zeitlichen Rahmen für eine solche Institutionalisierung mit Jahrzehnten oder gar Jahrhunderten veranschlagt, wollen wir als kritischen Kommentar im Hinterkopf behalten. Diese Entwicklungen sind umso gefährlicher, als sie nicht auf bekannte Schäden – wie Monopole oder Eingriffe in die Privatsphäre – zu reduzieren sind. So bieten sich auch keine der uns bekannten Methoden zu ihrer Bekämpfung an. Die neuen Schäden, denen wir uns gegenübersehen, bedingen Herausforderungen an die Unverletzlichkeit des Individuums, und zu den größten dieser Herausforderungen zähle ich die natürlichen Rechte hinsichtlich der Souveränität des Individuums, so etwa das Recht auf das Futur und das Recht auf Freistatt. Jedes dieser Rechte ruht in dem Anspruch auf individuelles Handeln und persönliche Autonomie als grundlegende Voraussetzung des freien Willens und dem Konzept demokratischer Ordnung an sich. Gegenwärtig jedoch heben die extremen Asymmetrien hinsichtlich Wissen und Macht, die der Überwachungskapitalismus angehäuft hat, diese Naturrechte auf, insofern unser Leben verdatet, enteignet und neuen Formen sozialer Kontrolle zugeführt wird – und das alles im Dienste der

Interessen anderer und ohne dass wir uns dessen bewusst wären, geschweige dass wir wüssten, wie wir dagegen angehen sollen. Entsprechende politische Gegenmaßnahmen und neue Formen gemeinschaftlichen Handelns zur effektiven Durchsetzung unseres Rechts auf eine menschliche Zukunft sind erst noch zu erfinden. Hier lassen sich Parallelen zu den gesellschaftlichen Bewegungen des ausgehenden 19. und beginnenden 20. Jahrhunderts sehen, die darauf abzielten, den ungezügelten Kapitalismus in die Gesellschaft einzubinden. Und auch wenn diese Erfindungen noch auf sich warten lassen, werden die Mobilisierung und der Widerstand, den die Arbeit daran generiert, eines der wesentlichen Schlachtfelder im Kampf um unsere Zukunft definieren. Die Ereignisse des 9. August 2011 lagen im Spannungsfeld zweier unterschiedlicher Visionen einer Dritten Moderne, deren eine auf dem digitalen Versprechen demokratisierter Information im Kontext individualisierter und ökonomischer Beziehungen fußt, während die andere die brutale Wahrheit von Massenausgrenzung und Eliteherrschaft reflektiert. Die Lektionen jenes Tages waren noch gar nicht abgezählt, als – umweht vom Duft von Vanille und Spanischem Lavendel – bereits ein Bündel neuer, oder bescheidener ausgedrückt, der zarte Schimmer neuer Antworten die globale Aufmerksamkeit beanspruchte.

Für eine menschliche Zukunft In den frühen Morgenstunden des 9. August 2011 sitzt die 18-jährige Maria Elena Montes in Barcelona, an ihrem café con leche nippend, auf dem kühlen Marmorboden der Pastelería La Dulce und beobachtet das beruhigende Treiben der Tauben auf der winzigen Plaza, während sie darauf wartet, dass das rumgetränkte süße Gebäck auf den Blechen sich setzt. Seit hundert Jahren ist die im Stadtteil El Raval gelegene Konditorei im Besitz der Familie, ein kleiner Laden in einem verwinkelten mittelalterlichen Gebäude an einer der wenigen Straßen, die sowohl der Abrissbirne als auch der Invasion der Hipster entgangen ist. Die Familie Montes hat große Mühe darauf verwandt, dass der Zahn der Zeit keine sichtbaren Spuren an ihrem geliebten Geschäft hinterließ. Jeden Morgen

füllen sie die funkelnde Glasauslage mit gezuckerten churros, cremegefüllten buñuelos, flan, mantecados, ensaimadas und vielem mehr; Spezialität des Hauses ist Urgroßmutter Montes’ flaó, ein Käsekuchen, mit Spanischem Lavendel, Fenchel und Minze gewürzt. Die Mandeltörtchen mit Blutorangen werden Señora Montes zufolge noch genauso gebacken, wie man sie einst der Königin Isabella servierte. In den Blechwannen der glänzenden weißen Gefriertruhe gibt es unter anderem Olivenöl-Eis mit Anisgeschmack. Langsam dreht sich der antike Ventilator an der Decke und weht den Duft von Honig und Hefe bis in die letzte Ritze des zeitlosen Raums. Nur eines hatte sich geändert. In jedem anderen August hätte man die Familie Montes in ihrem Sommerhäuschen in Palafrugell an der Costa Brava angetroffen, wo sie seit Generationen Urlaub macht. 2011 blieben die Familie Montes, ihre Kundschaft und ihre Freunde im August zuhause. Die Wirtschaftskrise wütete im Land wie einst die Pest; der Verbrauch war zurückgegangen, die Arbeitslosigkeit war mit 21 % die höchste in der EU; in der Altersgruppe unter vierundzwanzig betrug sie atemberaubende 46 %; Maria Elenas Freundeskreis wie auch der ihres älteren Bruders Juan Pablo gehörten dazu. In Katalonien, der Region, in der Barcelona liegt, waren 18  % der 7,5 Millionen Bewohner unter die Armutsgrenze gerutscht.88 Im Sommer 2011 konnte sich selbst die einfachen Freuden eines Urlaubs kaum jemand leisten, sei es in den Bergen, sei es am Meer. Die Familie sah sich einmal mehr unter dem Druck, das Haus zu verkaufen und La Dulce endgültig aufzugeben. Und sie hätte von dem Kaufpreis durchaus komfortabel leben können, auch wenn das Angebot weit unter dem tatsächlichen Wert der Immobilie lag. Das Geschäft ging schlecht, aber Señor Fito Montes weigerte sich kategorisch, auch nur einen seiner Mitarbeiter auf die Straße zu setzen, die nach all den Jahren bei ihm praktisch zur Familie gehörten. Die Bekanntschaft war nahezu geschlossen der Ansicht, das Ende sei sowieso nicht mehr aufzuhalten, Montes sollte sich diese Gelegenheit für einen würdevollen Abgang nicht entgehen lassen. Die Familie jedoch war fest entschlossen, jedes Opfer zu bringen, um La Dulce eine Zukunft zu geben. Nur drei Monate früher waren Juan Pablo und Maria nach Madrid gepilgert, um sich den Tausenden von Demonstranten auf der Puerta del Sol

anzuschließen, die schließlich als Stimme eines Volkes, das die Nase voll hatte von einer Wirtschaftspolitik der Verachtung, zum Movimiento 15-M, den Indignados, geworden waren. »Ya. No Mas!« Mehr gab es nicht mehr zu sagen. Schluss jetzt, es reicht! Die Massendemonstration von Madrid führte zu einer Welle von Protesten im ganzen Land, die schließlich neue politische Parteien wie etwa Podemos hervorbringen sollte. In vielen Städten hatte man Stadtteilparlamente gegründet, und die Montes hatten erst am Abend zuvor in El Raval eine solche Versammlung besucht. Die dortigen Gespräche noch frisch im Ohr, kam man am frühen Nachmittag des 9. August in der Wohnung über dem Laden zusammen, um zu Mittag zu essen und die Zukunft von La Dulce zu diskutieren. Man war sich über Papa Montes’ Absicht noch nicht im Klaren. »Die Banker mögen das noch nicht kapiert haben«, sinnierte Fito Montes, »aber die Zukunft braucht die Vergangenheit. Sie braucht unseren Marmorboden genauso wie meine Biskuitrollen. Die behandeln uns wie Ziffern in einer Kladde, als würden sie die Zahl der Opfer nach einem Flugzeugabsturz vorlesen. Sie glauben, die Zukunft gehört ihnen. Aber wir haben alle unsere Geschichte. Wir alle haben unser Leben. Es ist an uns, unser Recht auf die Zukunft zu verkünden. Die Zukunft ist auch unser Zuhause.« Maria und Juan Pablo atmeten erleichtert auf, als sie ihren Plan umrissen. Juan Pablo wollte sein Studium vorübergehend unterbrechen, und Maria Elena würde fürs Erste nicht an die Uni gehen. Mit einem Lieferservice und Catering wollten die beiden erst einmal den Umsatz von La Dulce steigern. Alle waren mit einer Lohnkürzung einverstanden, keinem sollte gekündigt werden. Würde man eben den Gürtel enger schnallen – die buñuelos und ihre Kameraden hatte man ja im Haus. Wir wissen, wie wir uns dem Unvermeidlichen stellen, sagten sie. Wir haben Kriege überlebt, wir haben die Faschisten überlebt, wir werden auch jetzt überleben. Für Fito Montes verlangte das Recht seiner Familie, sich die Zukunft als Zuhause vorstellen zu können, einiges, was sich nicht greifen ließ, aber dafür schön war, überraschend, mysteriös, unaussprechlich und immateriell. Ohne all das, da war man sich einig, wäre das Leben mechanisch und seelenlos. Er war fest entschlossen, dafür zu sorgen, dass eine weitere Generation spanischer Kinder den Duft seiner mit Rosenblättern bestreuten Blutorangentörtchen erkannte und so auf die

Geheimnisse mittelalterlichen Lebens in den duftenden Gärten der Alhambra neugierig wurde. Am 9. August 2011 erwärmte sich die schattige kleine Plaza allmählich und die Sonne leerte die Straßen, in der der Reihe nach Westgoten, Mauren, Kastilier und Bourbonen ihren Triumph gefeiert hatten. Diese stillen Straßen zeugten kaum von den historischen Beratungen in Madrid, die am selben Tag die New York Times beschäftigen sollten.89 Aber ich stelle mir die beiden Städte durch unsichtbare Bänder aus den Düften von La Dulce verbunden vor, die in die sonnengebleichten Himmel Barcelonas aufstiegen, um langsam gen Süden und Westen zu ziehen, bis sie sich an der strengen Fassade des Gebäudes verfingen, das die Agencia Española de Protección de Datos beherbergt, in dem ein weiterer Kampf um das Recht auf das Futur im Gange war. Laut besagtem Artikel in der New York Times hatte sich die spanische Datenschutzbehörde dafür entschieden, sich hinter die Ansprüche von neunzig ganz gewöhnlichen Bürgern zu stellen, die – ganz wie die Familie Montes – fest entschlossen waren, ererbte Bedeutung in einer Welt zu bewahren, die ganz erpicht darauf ist, sich mit Lichtgeschwindigkeit zu verändern.90 Unter dem Banner des »Rechts, vergessen zu werden« waren diese Spanier, die Muleta schwenkend, in die Arena getreten, um sich dem grimmigsten aller Untiere, Google, dem Moloch des Überwachungskapitalismus, zu stellen. Als die Datenschutzbehörde die Internetfirma anwies, die Weblinks dieser neunzig Personen zu löschen, versetzte sie damit Google einen ersten ganz entscheidenden Schlag. Diese offizielle Konfrontation stützte sich auf dieselbe entschlossene Hartnäckigkeit, auf dieselbe Geisteshaltung, die auch die Montes und Millionen anderer spanischer Familien dazu veranlasste, sich bei aller selbsterklärten Unvermeidlichkeit eines indifferenten Kapitals die Zukunft zurückzuholen. Im Bestehen auf ein Recht, vergessen zu werden, stellt man die Komplexität menschlicher Existenz mit ihren Milliarden von Grautönen gegen die ökonomischen Imperative des Überwachungskapitalismus, die hinter der gnadenlosen Extraktion und Einbehaltung von Informationen stehen. Indem man darauf bestand, dass die Operationen des Überwachungskapitalismus und seine digitale Architektur eben nicht unvermeidlich sind, nie unvermeidlich waren und es auch nie sein würden,

hat man damals in Spanien Bewegung in das Recht auf das Futur gebracht. Man stellte damit klar, dass selbst Googles Kapitalismus von Menschen gemacht und damit durch demokratische Prozesse, nicht durch kommerzielle Dekrete, aufzulösen und umzuarbeiten sei. Google sollte also nicht das letzte Wort über die Zukunft sprechen, nicht die des Menschen, nicht die des Digitalen. Jeder der neunzig Bürger hatte seine eigene ganz besondere Forderung. Eine Frau wurde von ihrem Exgatten terrorisiert und wollte nicht, dass er online ihre Adresse fand; die informationelle Privatsphäre war also wichtig sowohl für ihren Seelenfrieden als auch für ihre körperliche Unversehrtheit. Einer Frau in mittleren Jahren war eine Verhaftung aus ihrer Studienzeit peinlich; die informationelle Privatsphäre war also wichtig sowohl für ihre Identität als auch ihre Würde. Mario Costejo González war ein Anwalt, der Jahre zuvor sein Haus durch eine Zwangsversteigerung verloren hatte; obwohl die Angelegenheit längst erledigt war, erbrachte eine Google-Suche seines Namens immer noch Links auf den Zwangsversteigerungsvermerk, wodurch, wie er vorbrachte, sein Ruf Schaden nehme. Auch wenn die spanische Datenschutzbehörde den Gedanken verwarf, von Zeitungen und anderen Quellsites die Entfernung legitimer Information zu verlangen – solche Informationen, so argumentierte sie, würden immer irgendwo weiterbestehen –, stellte sie sich hinter die Ansicht, dass Google Verantwortung trage und rechenschaftspflichtig sei. Immerhin habe Google es von sich aus unternommen, die Regeln des Informationslebenszyklus zu ändern, als das Unternehmen sich entschloss, das World Wide Web zu indexieren und persönliche Daten allen zugänglich zu machen, ohne die Erlaubnis der Betroffenen einzuholen. Die Behörde kam zu dem Schluss, dass der Bürger sehr wohl das Recht habe, die Entfernung von Links zu verlangen, und befahl Google, die Indexierung dieser Informationen zu unterlassen sowie die Entfernung existierender Links zu ihren ursprünglichen Quellen. Googles Mission, beginnend mit dem Web, die »Informationen der Welt zu organisieren und für alle zu jeder Zeit zugänglich und nutzbar zu machen«, hat unser aller Leben verändert. Sicher, sie brachte auch enorme Vorteile, aber für den Einzelnen bedeutete sie, dass Informationen, die normalerweise altern und irgendwann in Vergessenheit geraten würden, für immer jung bleiben, in den Vordergrund der digitalen Identität des

Einzelnen gerückt und herausgestellt werden. Die spanische Datenschutzbehörde erkannte, dass nicht alle Informationen der Unsterblichkeit wert sind; einige sollten vergessen werden, das sei schließlich nur menschlich. Es überrascht nicht weiter, dass Google beim Obersten Spanischen Gericht in Madrid gegen die Entscheidung der Datenschutzbehörde Berufung einlegte, wo man einen der neunzig Fälle, den des Anwalts Mario Costeja González, zur Weitergabe an den Europäischen Gerichtshof herausnahm. Dieser bestätigte nach ebenso langen wie dramatischen Beratungen im Mai 2014 das Recht, vergessen zu werden, als fundamentales Prinzip europäischen Rechts.91 Die Entscheidung des Europäischen Gerichtshofs wird oft auf die juristischen und technischen Überlegungen bezüglich Löschung persönlicher Daten bzw. die Entfernung von Links darauf reduziert. Faktisch war sie jedoch ein kritischer Wendepunkt, an dem die Demokratie von den mächtigen Kräften eines neuen Überwachungskapitalismus, der einseitig die Autorität über die digitale Zukunft für sich beansprucht, das Recht auf das Futur zurückzufordern begann. Die Urteilsbegründung des Gerichts reklamierte die Zukunft für das Menschsein, wies Googles Unvermeidlichkeitsbehauptung hinsichtlich seiner Suchmaschinentechnologie zurück und erkannte stattdessen, dass Suchmaschinenresultate als Produkte in Abhängigkeit spezifischer ökonomischer Interessen zustande kommen, die hinter den Abläufen im Bauch der Maschine stehen. »Durch die Tätigkeit einer Suchmaschine können die Grundrechte auf Achtung des Privatlebens und Schutz personenbezogener Daten somit erheblich beeinträchtigt werden«, schrieb das Gericht. »Wegen seiner potenziellen Schwere kann ein solcher Eingriff nicht allein mit dem wirtschaftlichen Interesse des Suchmaschinenbetreibers an der Verarbeitung der Daten gerechtfertigt werden.«92 Die Rechtswissenschaftler Paul M. Schwartz und Karl-Nikolaus Peifer haben das folgendermaßen zusammengefasst: »Das Luxemburger Gericht war der Ansicht, dass der freie Fluss von Informationen zwar wichtig ist, aber letztlich nicht so wichtig wie die Gewährleistung von Würde, Privatsphäre und Datenschutz im europäischen Recht.«93 Das Gericht übertrug den EU-Bürgern das Recht, für ihr Recht einzutreten, und verlangte von Google, dem Wunsch betroffener Personen auf Entfernung

von Links mittels entsprechender Prozesse nachzukommen. Außerdem räumt es dem betroffenen Bürger Rechtsmittel ein. So kann er sich etwa »an die Kontrollstelle oder das zuständige Gericht wenden, damit diese die erforderlichen Überprüfungen vornehmen und den Verantwortlichen entsprechend anweisen, bestimmte Maßnahmen zu ergreifen«.94 In Bekräftigung des Rechts auf Vergessen erklärte der Europäische Gerichtshof, dass die maßgebliche Entscheidungsgewalt über die digitale Zukunft beim Volk, seinen Gesetzen und seinen demokratischen Einrichtungen liegt. Er bestätigte, dass Individuen und demokratische Gesellschaften für ihr Recht auf das Futur eintreten und gewinnen können, selbst angesichts einer überwältigenden privatwirtschaftlichen Macht. Nach Ansicht des Menschenrechtsexperten Federico Fabbrini tat der Gerichtshof der Europäischen Union mit diesem wichtigen Fall einen ganz entschiedenen Schritt hin zu einem Gerichtshof für Menschenrechte, insofern er ins »Minenfeld der Menschenrechte im digitalen Zeitalter trat«.95 Nach der Urteilsverkündigung hieß es, man könne darauf wetten, dass so etwas in Amerika nicht möglich wäre, wo die Internetunternehmen sich üblicherweise zur Rechtfertigung ihrer »genehmigungsfreien Innovationen« hinter dem Ersten Verfassungszusatz verschanzen.96 Einige Kenner der Hightech-Branche bezeichneten die Entscheidung schlicht als »bekloppt«.97 Auch Googles Chefetage hatte nichts als Hohn für sie. Berichten zufolge hat Mitgründer Sergey Brin die Nachricht mit Witzeleien abgetan. Während einer Frage-und-Antwort-Stunde im Rahmen einer renommierten TechKonferenz sagte er, danach gefragt: »Ich wünschte, wir könnten die Entscheidung einfach vergessen.«98 Larry Page, CEO und Mitgründer, rezitierte den Katechismus von Googles Mission-Statement, als er der Financial Times versicherte, es sei nach wie vor Ziel des Unternehmens, »die Informationen der Welt zu organisieren und für alle zu jeder Zeit zugänglich und nutzbar zu machen«. Page verteidigte Googles beispiellose Informationsmacht mit einer ganz außergewöhnlichen Aussage, in der durchklang, dass die Leute eher Google als demokratischen Einrichtungen vertrauen sollten. »Im Allgemeinen ist es besser, Daten bei Unternehmen wie Google präsent zu haben als – ohne ordentliches Verfahren, an die Daten heranzukommen – beim Staat,

schließlich liegt uns an unserem Ruf. Ich bin mir nicht sicher, ob dem Staat daran auch so viel liegt.«99 Eric Schmidt sagte, die Entscheidung habe »nicht die richtige Balance getroffen« bei der »Kollision zwischen dem Recht auf Vergessen mit dem Recht auf Wissen«.100 Die Kommentare der Google-Führung reflektierten sowohl ihre Entschlossenheit, an ihrem privilegierten Anspruch auf die Zukunft festzuhalten, als auch ihren Unwillen über diese Kampfansage an sich. Es gab jedoch reichlich Belege dafür, dass die amerikanische Öffentlichkeit durchaus nicht bereit war, dem Unternehmen einseitig Macht einzuräumen. Ganz im Gegenteil, man hätte seine Wette auf die Unmöglichkeit eines solchen Urteils in Amerika womöglich verloren. Im Jahr nach der Entscheidung des Europäischen Gerichtshofs sprachen sich im Rahmen einer landesweiten Umfrage 88 % der amerikanischen Erwachsenen für ein ähnliches Recht auf Vergessenwerden aus.101 Pew Research stellte im selben Jahr fest, dass 93 % aller Amerikaner der Ansicht sind, es sei durchaus wichtig, die Kontrolle darüber zu haben, »wer an Informationen über einen kommen kann«.102 Eine ganze Reihe weiterer Umfragen bestätigten dies.103 Am 1. Januar 2015 trat in Kalifornien das »Online Eraser«-Gesetz in Kraft, das die Betreiber von Websites, Online-Diensten sowie Online- oder Mobilfunk-Applikationen dazu verpflichtete, einem als Nutzer registrierten Minderjährigen das Löschen von Content oder geposteten Informationen zu ermöglichen oder entsprechenden Bitten betroffener Minderjähriger nachzukommen. Das kalifornische Gesetz schlug eine Bresche in eine kritische Bastion des Überwachungskapitalismus, nicht nur insofern es Googles Rolle als selbsternannter Verfechter des uneingeschränkten Rechts auf Wissen in Frage stellt, sondern auch als Hinweis darauf, dass wir noch am Anfang, nicht am Ende eines langen und turbulenten Dramas stehen. Die spanische Datenschutzbehörde und der Europäische Gerichtshof bewiesen die unerträgliche Leichtigkeit des Unvermeidlichen mit ihrem Hinweis darauf, was für die Zukunft der Menschheit auf dem Spiel steht, allem voran das Primat demokratischer Institutionen bei der Gestaltung einer zuträglichen und gerechten digitalen Zukunft. Wie gesagt setzt man hierzulande darauf, dass der amerikanische Gesetzgeber den Überwachungskapitalisten seine Unterstützung kaum aufkündigen wird,

aber es wäre ja nicht das erste Mal, dass man sein Geld selbst bei todsicheren Tipps verliert. Die kommenden Jahrzehnte werden es zeigen. Ich halte es für durchaus wahrscheinlich, dass sich die Leistung der spanischen Datenschützer und des Europäischen Gerichtshofs im Lauf der Zeit als bewegendes erstes Kapitel in der längeren Geschichte unseres Kampfs um eine menschliche Zukunft erweist. Wie auch immer, ihre Botschaft sei unseren Kindern zur näheren Betrachtung empfohlen: Die technologische Unvermeidlichkeit ist so leicht wie Demokratie gewichtig ist und so flüchtig, wie der Duft eines Rosenblatts und die Süße des Honigs von Dauer sind.

Benennen und bremsen Wer den Überwachungskapitalismus an die Kandare nehmen will, muss mit seiner sorgfältigen Benennung beginnen, das ergibt eine Symbiose, die erst jüngst von der HIV-Forschung illustriert wurde, die ich hier in Analogie zu unserem Thema heranziehen will. Drei Jahrzehnte lang hat die Wissenschaft einen Impfstoff nach der bewährten alten Logik zu finden versucht, das Immunsystem auf die Produktion neutralisierender Antikörper zu trimmen. Nur hat man dabei anhand unvermuteter Verhaltensweisen feststellen müssen, dass der HI-Virus nicht nach den Regeln uns bekannter Infektionskrankheiten spielt.104 Zu einer Wende kam es schließlich bei der Internationalen AIDSKonferenz 2012, auf der man neue Strategien präsentierte, die auf das eingehende Studium der wenigen HIV-Träger baute, deren Blut natürliche Antikörper gegen das Virus produziert. So wandte sich die Forschung Methoden zu, diese Immunantwort zu reproduzieren.105 Ein führender Wissenschaftler drückte das folgendermaßen aus: »Wir kennen jetzt das Gesicht des Feindes und haben damit einige wertvolle Hinweise darauf, wie das Problem anzugehen ist.«106 Für uns ergibt sich daraus, dass jeder wirksame Impfstoff mit einem eingehenden Verständnis der Krankheit beginnt. Denkmodelle, Vokabular und Werkzeuge vergangener Katastrophen behindern den Fortschritt nur. Wir riechen Rauch und laufen los, um Türen zu schließen, deren

Verschwinden bereits besiegelt ist. Es ist, als würfen wir Schneebälle gegen eine Marmorwand, nur um sie an deren polierter Oberfläche dem Boden entgegengleiten zu sehen; alles, was bleibt, ist ein nasser Streifen: ein Bußgeld hier, eine operative Umleitung da, ein neues Verschlüsselungspaket. Für uns ist es jetzt von kritischer Bedeutung, diese neue Form von Kapitalismus seinen eigenen Regeln entsprechend zu identifizieren und in seine eigenen Worte zu fassen. Womit wir uns zwangsläufig wieder im Silicon Valley sehen, wo die Entwicklung so rasant verläuft, dass nur eine Handvoll Leute wissen, was da eben passiert ist. Es ist das Habitat für einen Fortschritt »im Tempo von Träumen«, wie ein Google-Ingenieur das so anschaulich beschrieb.107 Mein Ziel hier ist es, diese Entwicklung in Zeitlupe ablaufen zu lassen, um mehr Raum für eine solche Debatte zu schaffen und an diesen neuen Kreationen die Tendenzen aufzuzeigen, die für immer größere Ungleichheit sorgen, die gesellschaftliche Hierarchien verstärken, die Ausgrenzung verschlimmern, sich Rechte anmaßen und unser persönliches Leben all dessen berauben, was es für Sie und mich so persönlich macht. Wenn die digitale Zukunft uns ein Zuhause sein soll, dann ist es an uns, sie dazu zu machen. Wir müssen wissen. Wir müssen uns entscheiden. Wir müssen entscheiden, wer entscheiden soll. Es ist unser Kampf für eine menschliche Zukunft.

Kapitel 3 Die Entdeckung des Verhaltensüberschusses Er sah auf Sternenstand und Vogelflug; ein Fluß trat über, eine Festung fiel: sein Prophezeien war nicht immer Trug, und traf es zu, so brachte es ihm viel. – W. H. Auden, Sonette aus China, VI

Google ist der Pionier des Überwachungskapitalismus Google ist für den Überwachungskapitalismus, was Ford und General Motors für den auf Massenfertigung gebauten Managementkapitalismus waren. Jede neue ökonomische Logik und ihr kommerzielles Modell werden zu einem spezifischen Zeitpunkt an einem spezifischen Ort entdeckt und später in der Anwendung perfektioniert. In unserer Zeit wurde Google zum Pionier des Überwachungskapitalismus; Google hat ihn entdeckt, entwickelt, damit experimentiert und wurde als führender Exponent zum Vorbild und maßgeblichen Knotenpunkt für seine Verbreitung. Da die Wirkung ihrer Lektionen weit über die einzelnen Unternehmen hinausging, wurden Ford und General Motors zum Gegenstand nimmermüder wissenschaftlicher Forschung und allgemeiner Faszination. Googles Modell hat dieselbe Aufmerksamkeit verdient, weniger hinsichtlich einer kritischen Beschäftigung mit einem spezifischen Unternehmen denn als Ausgangspunkt für eine Festschreibung einer übermächtigen neuen Spielart des Kapitalismus. Angesichts des Triumphs der Massenproduktion

begannen Hunderte von Forschern, Geschäftsleuten, Ingenieuren, Sachbuchautoren und Wissenschaftlern den Umständen von Erfindung und Entstehung sowie den Folgen dieser neuen Form nachzugehen.1 Noch Jahrzehnte später beschäftigte die Wissenschaft sich mit Ford und seinem Unternehmen.2 Auch General Motors war von Anfang an Gegenstand intensiver Beschäftigung. So war das Unternehmen Schauplatz der Feldstudien für das bahnbrechende Werk Das Großunternehmen (Concept of the Corporation), in dem Peter Drucker 1946 die Praxis geschäftlicher Organisation im 20. Jahrhundert festschrieb und damit den Grundstein für seinen Ruhm als Managementkoryphäe legte. Auch die führenden Köpfe der beiden Unternehmen ließen sich begeistert über ihre Entdeckungen und Praktiken aus. Sowohl Henry Ford und sein Geschäftsführer James Couzens als auch Alfred Sloan und dessen Marketingchef Henry »Buck« Weaver systematisierten ihre Leistungen und missionierten dafür. Dabei legten sie besonderen Wert darauf, sie explizit in der dramatischen Entwicklung des amerikanischen Kapitalismus zu verorten.3 Google ist als Unternehmen ein notorischer Geheimniskrämer, und man kann sich dort nur schwerlich Peter Drucker mit seinem Notizblock vorstellen. Googles Chefetage verkündet ihr digitales Evangelium sorgfältig formuliert in Form von Büchern und Blogs,4 während ihre Praktiken selbst weder der Forschung noch Journalisten ohne weiteres zugänglich sind.5 Als 2016 ein Produktmanager eine Klage gegen das Unternehmen anstrebte, wurde ein internes Spionageprogramm ruchbar, das angeblich von Angestellten die Denunziation von Kollegen verlangte, die gegen die Vertraulichkeitsvereinbarung verstoßen – ein umfassendes Verbot, sich Außenstehenden gegenüber in irgendeiner Art und Weise über das Unternehmen zu äußern.6 Wenn es jemanden gibt, der Googles Ziele und Praktiken nach Art eines Buck Weaver oder James Couzens kodifiziert, dann ist das Googles langjähriger Chefökonom Hal Varian, der mit wissenschaftlichen Artikeln über wichtige Themen zum Verständnis beiträgt. Man hat Varian als den »Adam Smith der Googlenomics« bezeichnet und als den »Paten« seines Werbemodells.7 In Varians Arbeiten finden wir, sozusagen »gut sichtbar versteckt«, wichtige Hinweise auf die Logik des Überwachungskapitalismus und seinen Machtanspruch.

In zwei ganz außergewöhnlichen Artikeln in renommierten wissenschaftlichen Publikationen ging Varian dem Thema »rechnergestützte Transaktionen« und deren umwälzende Auswirkungen auf die moderne Wirtschaft nach.8 Auch wenn beide Artikel in ebenso gewinnender wie bodenständiger Prosa gehalten sind, steht Varians beiläufiges Understatement im krassen Gegensatz zu zahlreichen eher bestürzenden Statements aus seinem Mund. »Heute steht im Mittelpunkt praktisch jeder Transaktion ein Computer«, schreibt er, und »wo sie nun mal zur Verfügung stehen, haben diese Computer auch so manch andere Einsatzmöglichkeit.«9 Vier dieser Einsatzmöglichkeiten führt er an: »Datenextraktion und analyse«, »neue Vertragsformen durch besseres Monitoring«, »Personalisierung und individueller Zuschnitt« sowie »fortwährende Experimente«. Varians Diskussion dieser neuen »Einsatzmöglichkeiten« erweist sich als unerwartete Einführung in die merkwürdige Logik des Überwachungskapitalismus, die Wissensteilung, für die er sorgt, und den Charakter der Informationszivilisation, zu der er führt. Wir werden auf Varians Äußerungen von Zeit zu Zeit zurückkommen, wenn wir uns im Lauf unserer Untersuchung der Grundlagen des Überwachungskapitalismus an einer Art »Nachkonstruktion« seiner Behauptungen versuchen, um Weltsicht und Methoden der neuen Marktform über einen Blick durch seine Optik zu begreifen. »Allenthalben«, so schreibt Varian, »spricht man von Datenextraktion und -analyse, wenn von Big Data die Rede ist.« Jedes einzelne Wort in diesem Satz enthüllt ein wichtiges Element unserer Geschichte. »Daten« sind der für die neuartigen Herstellungsprozesse des Überwachungskapitalismus benötigte Rohstoff. »Extraktion« beschreibt sowohl die sozialen Beziehungen als auch die materielle Infrastruktur, mit der das Unternehmen seine Autorität über diese Rohstoffe geltend macht, um bei seinen Rohstoffbeschaffungsoperationen die benötigten Größenbzw. Massenvorteile zu erzielen. »Analyse« bezieht sich auf den Komplex hochspezialisierter Rechensysteme, die ich im Rahmen dieses Werks als »Maschinenintelligenz« bezeichne. Ich ziehe diesen Kollektivbegriff vor, weil er unseren Blick eher auf den Wald lenkt als auf die Bäume, was uns wiederum dabei hilft, nicht die Technologie an sich, sondern ihre

Zielsetzung in den Mittelpunkt unseres Interesses zu stellen. Außerdem folge ich mit der Verwendung des Begriffs Googles eigenem Beispiel. Das Unternehmen selbst sieht sich »im Bereich der Maschinenintelligenz in der vordersten Linie der Innovation« und versteht darunter sowohl Maschinenlernen als auch die »klassische« Algorithmenproduktion sowie die zahlreichen Rechenoperationen, die unter andere Begriffe fallen, wie etwa »Predictive-Analytics« oder »künstliche Intelligenz«. Zu diesen Operationen gehören für Google Fremdsprachenübersetzung, Spracherkennung, visuelle Verarbeitung, Ranking, statistische Modellierung und Vorhersage. »In allen diesen Aufgaben und vielen anderen mehr sammeln wir große Mengen direkter oder indirekter Evidenzen für relevante Beziehungen, zu deren Verständnis und Verallgemeinerung wir Lernalgorithmen heranziehen.«10 Die Operationen der Maschinenintelligenz machen aus den Rohstoffen die hochprofitablen algorithmischen Produkte des Unternehmens, die auf die Vorhersage des Verhaltens seiner Nutzer abzielen. Die Undurchschaubarkeit und Exklusivität dieser Techniken und Operationen sind der Graben, der die Burg umgibt und schützt, was in ihr vor sich geht. Googles Erfindung der zielgerichteten Werbung ebnete den Weg zum finanziellen Erfolg des Unternehmens, legte aber auch den Grundstein für eine viel weitreichendere Entwicklung: die Entdeckung und Weiterentwicklung des Überwachungskapitalismus. Sein Geschäft charakterisiert sich als Werbemodell, und es wurde viel geschrieben über Googles automatisierte Auktionsmethoden und andere Erfindungen auf dem Gebiet der Online-Werbung. Leider fehlt es weiterhin am theoretischen Unterbau. So besteht denn unser Ziel in diesem und den folgenden Kapiteln im Aufzeigen der »Bewegungsgesetze« hinter dem Überwachungswettbewerb, und dazu wollen wir zunächst einen frischen Blick auf den Ursprung werfen, auf den Zeitpunkt, an dem man die Grundmechanismen des Überwachungskapitalismus entdeckt hat. Lassen Sie mich aber vorher noch ein Wort zur Terminologie sagen. Jede Konfrontation mit dem Beispiellosen erfordert eine neue Sprache; entsprechend führe ich hier neue Termini ein, wenn die existierende Sprache das neue Phänomen nicht mehr zu erfassen vermag. Manchmal freilich führe ich ganz bewusst vertraute Sprache neuer Verwendung zu, um

eine gewisse Kontinuität in der Funktion eines Elements oder Prozesses herauszustellen. So verhält es sich zum Beispiel mit dem Begriff der »Bewegungsgesetze«, der selbstverständlich Newtons Bewegungsgesetzen – seinem Trägheits-, Aktions- und Reaktionsprinzip – entlehnt ist. Über die Jahre hinweg haben Historiker mit diesem Begriff die »Gesetze« des Industriekapitalismus beschrieben. So dokumentiert die Wirtschaftshistorikerin Ellen Meiksins Wood die Ursprünge des Kapitalismus im Wechsel der Beziehungen zwischen englischen Grundbesitzern und ihren Pächtern, als die Grundherren Produktivität über Zwang zu stellen begannen. »Die neue historische Dynamik«, schreibt sie, »gestattet es uns, in der englischen Frühmoderne von einem ›Agrarkapitalismus‹ zu sprechen, einer Gesellschaftsform mit spezifischen ›Bewegungsgesetzen‹, die schließlich zum Kapitalismus in seiner reifen industriellen Form führten.«11 Wood beschreibt, wie diese neuen »Bewegungsgesetze« sich schließlich in der industriellen Produktion manifestierten. Der entscheidende Faktor bei der Divergenz des Kapitalismus von allen anderen Formen ›kommerzieller Gesellschaften‹ war die Herausbildung bestimmter sozialer Eigentumsbeziehungen, die zu Marktimperativen und kapitalistischen ›Bewegungsgesetzen‹ führten  … der wettbewerbsfähigen Produktion und Profitmaximierung, dem Zwang zur Reinvestition von Überschüssen und der unerbittlichen Notwendigkeit der Verbesserung der mit dem Kapitalismus verbundenen Arbeitsproduktivität … Diese Bewegungsgesetze erforderten weitreichende gesellschaftliche Transformationen und Umwälzungen, um sie in Gang zu setzen. Sie erforderten eine Transformation des menschlichen Austauschs mit der Natur zur Bereitstellung des Nötigsten zum Leben.12 Meine Argumentation läuft darauf hinaus, dass im Überwachungskapitalismus – auch wenn er die kapitalistischen »Bewegungsgesetze« wie wettbewerbsfähige Produktion, Profitmaximierung, Produktivität und Wachstum beibehält – diese früheren Dynamiken jetzt im Kontext einer neuen Logik der Akkumulation

operieren, die ihre eigenen Bewegungsgesetze mitbringt. In diesen Kapiteln und den folgenden in Teil II untersuchen wir diese grundlegenden Dynamiken: die für den Überwachungskapitalismus typischen, durch Extraktion und Prognose definierten ökonomischen Imperative; seine einzigartige Herangehensweise an Größen- und Diversifikationsvorteile bei der Rohstoffbeschaffung; Auf- und Ausbau von Mitteln zur Verhaltensmodifikation, die seine auf Maschinenintelligenz fußenden »Produktionsmittel« in ein komplexeres Handlungssystem integrieren, und schließlich die Art und Weise, wie die Erfordernisse der Verhaltensmodifikation sämtliche Operationen hin zu totaler Information und totaler Kontrolle dirigieren, was letztendlich die Rahmenbedingungen für eine beispiellose instrumentäre Macht und ihre gesellschaftlichen Implikationen schaffen wird, die wir uns in Teil III genauer ansehen wollen. Fürs Erste besteht mein Ziel in der Umstrukturierung unserer Wertschätzung für das Vertraute durch eine neue Optik: Googles von Optimismus, Krise und Findigkeit geprägte Anfangszeit.

Gleichgewicht der Kräfte Gegründet wurde Google 1998 von zwei Studenten der Stanford University, Larry Page und Sergey Brin, gerade mal zwei Jahre nachdem ein heute vergessener Browser namens Mosaic der Öffentlichkeit die Türen des World Wide Web geöffnet hatte. Von Anfang an verkörperte das Unternehmen das Versprechen des Informationskapitalismus als befreiende und demokratische soziale Kraft, das die Menschen der Zweiten Moderne rund um die Welt aufgeregt aufhorchen ließ. Dank dieser breiten Annahme führte Google den Computer in viele Bereiche menschlichen Verhaltens ein; die Leute suchten online, eine wachsende Zahl von Google-Diensten ermöglichte den Austausch im Web. Als diese neuen Aktivitäten zum ersten Mal informatisiert wurden, sorgten sie für gänzlich neue Datenressourcen. So produziert, um nur ein Beispiel zu nennen, jede Google-Suche eine Kielwelle von Kollateraldaten wie etwa Anzahl und Muster der Suchbegriffe, wie eine Suche formuliert, buchstabiert, interpunktiert ist, Verweildauer, Klickmuster, Ort usw. usf.

Anfangs wurden diese Verhaltensnebenprodukte ohne jede Methode gespeichert und operativ ignoriert. Man schreibt die wegweisende Einsicht in die Bedeutung von Googles Datenschätzen oft Amit Patel zu, einem jungen Doktoranden aus Stanford mit einem speziellen Interesse am »DataMining«. Seine Arbeit mit diesen gespeicherten Daten brachte ihn zu der Überzeugung, dass die unstrukturierten Signale im Kielwasser jeder OnlineAktion detaillierte Geschichten über den Nutzer – über seine Gedanken, Gefühle und Interessen – zu erzählen vermochten. Anhand dieser Daten, so sein Schluss, ließ sich »das menschliche Verhalten in vielen Bereichen messen«, womit Larry Pages Traum verwirklicht wäre: die Internetsuche als umfassende künstliche Intelligenz.13 Googles Ingenieure hatten bald begriffen, dass der stetige Strom kollateraler Verhaltensdaten die Suchmaschine in ein rekursives Lernsystem verwandeln könnte, das die Suchergebnisse ständig verbesserte und innovative Produkte wie Rechtschreibprüfung, Übersetzung und Stimmenerkennung vorantrieb. Der Economist drückte das damals folgendermaßen aus: »Andere Suchmaschinen der 1990er-Jahre hatten dieselbe Chance, gingen ihr aber nicht nach. Um das Jahr 2000 sah Yahoo! das Potenzial, ließ die Idee jedoch wieder fallen. Bei Google dagegen erkannte man den Goldstaub im Schutt der Interaktionen mit seinen Usern und machte sich die Mühe, ihn einzusammeln  … Google nutzt die Informationen, die als Nebenprodukt der Interaktionen mit dem User anfallen, Datenabgase, wenn man so will, die automatisch recycelt wurden, um den Dienst zu verbessern oder um ein ganz neues Produkt zu generieren.«14 Was bis dato als Abfall galt, als »Datenabgase«, die beim Verbrennungsvorgang der Suche in Googles Server geblasen wurden, galt bald darauf als kritisches Element bei der Transformation von Googles Suchmaschine zu einem reflexiven Lern- und Verbesserungsprozess. In dieser Anfangsphase von Googles Entwicklung sorgte die Kopplungsschleife bei der Verbesserung seiner Suchfunktionen für ein Gleichgewicht der Kräfte: Suche bedurfte der Menschen, von denen sie lernen konnte, und die Menschen brauchten die Suche, um von ihr zu lernen. Diese Symbiose ermöglichte es Googles Algorithmen, lernend immer relevantere und umfassendere Suchergebnisse zu produzieren. Mehr Anfragen war gleichbedeutend mit verbessertem Lernen; verbessertes

Lernen sorgte wiederum für höhere Relevanz. Höhere Relevanz führte zu mehr Anfragen und mehr Nutzern.15 Als das junge Unternehmen 1999 seine erste Pressekonferenz gab, um eine Kapitalinvestition über 25 Millionen Dollar von Sequoia Capital und Kleiner Perkins, zwei der renommiertesten Venture-Capital-Unternehmen aus dem Silicon Valley, bekanntzugeben, erledigte Google Search bereits sieben Millionen Suchanfragen pro Tag.16 Einige Jahre später sagte Hal Varian, der 2002 Googles Chefökonom wurde: »Jede Aktion eines Nutzers wird als Signal behandelt, das es zu analysieren und dann dem System wieder zuzuführen gilt.«17 Der nach dem Gründer benannte Page-Rank-Algorithmus hatte Google bereits zu einem wesentlichen Vorteil verholfen, indem er die beliebtesten Ergebnisse für Suchanfragen identifizierte. Im Verlauf der nächsten Jahre dann machte das Erfassen, Speichern, Analysieren und das Lernen aus den Nebenprodukten dieser Suchanfragen Google zum Goldstandard der Websuche. Das Entscheidende für uns beruht in einer kritischen Unterscheidung. Während dieser ersten Phase setzte man Verhaltensdaten ausschließlich zum Nutzen des Nutzers ein; Nutzerdaten lieferten Wert ohne Kostenaufwand, und dieser Wert kam rückinvestiert dem »UserExperience« in Form eines verbesserten Dienstes zugute: Verbesserungen, die man auch dem Nutzer kostenlos bot. Nutzer stellten den Rohstoff in Form von Verhaltensdaten, und man schöpfte diese Daten zur Verbesserung von Tempo, Genauigkeit und Relevanz ab. Darüber hinaus halfen sie bei der Entwicklung von Nebenprodukten wie der Übersetzung. Ich bezeichne das als den Verhaltenswert-Reinvestitionszyklus, bei dem man alle Verhaltensdaten in die Verbesserung des Produkts bzw. der Dienstleistung rückinvestiert (siehe Abb. 1). Der Zyklus arbeitet mit der Logik des iPod; und er funktionierte auch bei Google großartig, wenn auch mit einem entscheidenden Unterschied: Es fehlte hier eine auslösende und nachwirkende Markttransaktion. Im Falle des iPod wurde der Zyklus durch den Kauf eines hochmargigen physischen Produkts ausgelöst. Im Folgenden führten Reziprozitäten zur Verbesserung des Produkts iPod, was wiederum zu höheren Verkaufszahlen führte. Die Kunden waren die Subjekte eines kommerziellen Prozesses, der die Ausrichtung an ihrer Forderung »was ich will, wann ich will, wo ich will«

versprach. Bei Google orientierte sich der Zyklus zwar in ähnlicher Weise am Kunden als Subjekt, aber man hatte kein physisches Produkt mehr zu verkaufen; der Zyklus lief außerhalb des Marktplatzes eher als Interaktion mit »Nutzern« denn als Markttransaktion mit Kunden ab. Das hilft bei der Erklärung, warum bei Google-Nutzern der Begriff des Kunden nicht greift: Es gibt keinen wirtschaftlichen Austausch, keinen Preis, keinen Profit. So wenig wie die Kunden in der Rolle von Arbeitern fungieren. Wenn ein Kapitalist Arbeiter einstellt und ihnen Löhne und Produktionsmittel stellt, gehören die Produkte, die sie herstellen, dem Kapitalisten, der sie gegen Profit verkaufen kann. Nicht so hier. Weder werden Kunden für ihre Arbeit bezahlt, noch bedienen sie die Produktionsmittel, worauf wir im Verlauf des Kapitels noch näher eingehen werden. Und noch etwas: Es heißt immer wieder, der Nutzer sei das »Produkt«. Das ist ebenfalls irreführend und ein Punkt, auf den wir noch öfter zurückkommen werden. Belassen wir es fürs Erste dabei, dass wir als Nutzer keine Produkte, sondern vielmehr die Quellen der Rohstoffversorgung sind. Wie wir sehen werden, schafft der Überwachungskapitalismus es, seine ungewöhnlichen Produkte aus unserem Verhalten zu generieren, ohne dass ihn dieses Verhalten an sich interessiert. Es geht seinen Produkten darum, uns vorherzusagen, ohne sich darum zu kümmern, was wir tun oder was mit uns passiert. Um diese erste Phase von Googles Entwicklung zu rekapitulieren: Was immer die Nutzer von Google Search unbeabsichtigt preisgaben und von Wert für das Unternehmen war, verbrauchten sie in Form von verbesserten Diensten. In diesem Reinvestitionszyklus »verbrauchte« die Bereitstellung großartiger Suchergebnisse all den Wert, den Nutzer durch die Lieferung zusätzlicher Verhaltensdaten schufen. Der Umstand, dass Nutzer Google Search im selben Maße brauchten wie Search seine Nutzer, sorgte für ein Kräftegleichgewicht zwischen Google und seinen Nutzern. Die Menschen waren reiner Selbstzweck, Subjekte eines marktlosen, in sich geschlossenen Zyklus, der perfekt auf Googles erklärte Mission ausgerichtet war, »die Informationen der Welt zu organisieren und für alle zu jeder Zeit zugänglich und nutzbar zu machen«.

Abbildung 1

Die Suche nach dem Kapitalismus: Ungeduldiges Geld und der Ausnahmezustand Bei allem Glanz von Googles neuer Welt durchsuchbarer Webseiten, informatischer Zaubereien und glamouröser Risikokapitalgeber sah das Unternehmen 1999 noch immer keine reelle Möglichkeit, seinen Investoren eine Rendite zu bringen. Der Verhaltenswert-Reinvestitionszyklus lieferte freilich eine ausgesprochen coole Suchfunktion, aber Kapitalismus war das noch nicht. Das Gleichgewicht der Kräfte ließ es finanziell riskant, wenn

nicht gar kontraproduktiv erscheinen, dem Nutzer für seine Suchen eine Gebühr abzuverlangen. Überdies hätte der Verkauf von Suchergebnissen einen gefährlichen Präzedenzfall geschaffen – immerhin hätte man damit Geld für indexierte Informationen verlangt, die Googles Webcrawler sich bereits besorgt hatten, und das ohne dafür zu zahlen. Ohne ein Gerät wie Apples iPod oder Apples digitaler Musik gab es keine Profite, keinen Mehrwert, keine Überbleibsel, aus denen sich Einkünfte generieren ließen. Google hatte die Werbung gleichsam aufs Zwischendeck relegiert – sein AdWords-Team bestand aus sieben Leuten, die fast alle die grundsätzlichen Antipathien der Gründer gegen Werbung teilten. Sergey Brin und Larry Page hatten bei der Vorstellung ihrer Suchmaschine bei der World Wide Web Conference 1998 in einem Grundsatzpapier mit dem Titel »Die Anatomie einer groß angelegten Hypertext-Web-Suchmaschine« den Ton vorgegeben: Wir gehen davon aus, dass werbefinanzierte Suchmaschinen von Natur aus hin zum Anzeigenkunden und weg von den Bedürfnissen der Kundschaft tendieren. Eine solche Tendenz ist schwer auszumachen, könnte aber trotzdem eine erhebliche Wirkung auf den Markt haben … Das Problem der Werbung sorgt unserer Ansicht nach für zu viele gemischte Anreize, was eine wettbewerbsfähige, transparente und wissenschaftlich orientierte Suchmaschine von kritischer Bedeutung erscheinen lässt.18 Googles erste Einkünfte kamen aus exklusiven Lizenzdeals mit Portalen wie Yahoo! oder Japans BIGLOBE.19 Außerdem generierte man bescheidene Einkünfte aus gesponserten Anzeigenlinks, die mit Suchbegriffen gekoppelt waren.20 Es standen noch andere Modelle zur Debatte: Konkurrenten wie Overture, eine Suchmaschine exklusiv im Dienste des Portalgiganten AOL, oder die von Microsoft übernommene Suchmaschine Inktomi kassierten bei den Sites ab, deren Seiten man indexierte. Overture zog darüber hinaus Online-Werbung an, indem sie es den Werbekunden ermöglichte, für ein besseres Ranking zu zahlen – genau das Format, das Brin und Page verabscheuten.21

Analysten räumten Google kaum Chancen ein gegen seine etablierteren Rivalen.22 So fragte man etwa bei der New York Times: »Kann Google ein Geschäftsmodell schaffen, dass auch nur annähernd so gut ist wie seine Technologie?«23 Und ein bekannter Analyst von Forrester Research schrieb, Google hätte gerade mal eine Handvoll Möglichkeiten, mit Search Geld zu verdienen: »ein Portal aufziehen [wie Yahoo] … sich mit einem Portal zusammentun … seine Technologie lizensieren … auf das Kaufangebot eines großen Unternehmens warten«.24 Trotz dieser weithin geäußerten Bedenken hinsichtlich Googles Überlebensfähigkeit erfüllten seine renommierten Finanziers das Unternehmen mit der Zuversicht, weiteres Kapital auftreiben zu können. Das änderte sich allerdings schlagartig im April 2000, als die legendäre Dotcom-Ökonomie in eine tiefe Rezession abzurutschen begann und ausgerechnet ihr Garten Eden, das Silicon Valley, zum Epizentrum eines finanziellen Bebens wurde. Mitte April sah sich die Kultur des schnellen Geldes im Silicon Valley im Sog der implodierenden »Dotcom-Blase«, wie das Phänomen künftig heißen sollte. Man vergisst allzu leicht, wie beängstigend das für die ehrgeizigen jungen Leute und ihre etwas älteren Investoren war. Start-ups mit eben noch glänzender Bewertung mussten plötzlich schließen. In Artikeln mit Titeln wie »Untergangsstimmung bei den Dotcoms« war zu lesen, die Kurse für die eben noch heißgeliebten »High Flyers« der Wall Street würden »angezählt«, man handle bereits einige von ihnen unter ihrem Emissionskurs. »Wo so viele Dotcoms auf dem Weg ins Aus sind, brennen weder Risikoanleger noch Wall Street darauf, ihnen auch nur einen Cent zu geben …«25 Die Nachrichten über völlig verstörte Anleger überschlugen sich. In der Woche um den 10. April erfuhr der Nasdaq mit seinen zahlreichen Internetunternehmen den schlimmsten Absturz seiner Geschichte, und man war sich allenthalben einig, dass das die nicht mehr umzukehrende Wende im Dotcom-Geschäft war.26 Als das geschäftliche Umfeld im Silicon Valley aus den Fugen zu geraten begann, schwanden auch die Aussichten der Investoren, durch einen Verkauf Googles an einen der Großen mit Gewinn aussteigen zu können. Man war also gegen die rasant zunehmende Panik alles andere als immun. Unter den Investoren begannen Zweifel an den Überlebenschancen des Unternehmens laut zu werden; einige drohten damit, ihr Geld abzuziehen.

Man war sich allenthalben einig, dass Page und Brin zu zögerlich vorgingen, und ihre Topanleger John Doerr von Kleiner Perkins und Michael Moritz von Sequoia machten aus ihrer Frustration keinen Hehl.27 »Die Risikokapitalgeber«, so schreibt Steven Levy, »schrien Zeter und Mordio. Die unbekümmerten Zeiten der Technologiebranche waren vorbei und es war ungewiss, ob es Google gelingen würde, nicht zu einem weiteren Opfer im Zuge der Dotcom-Blase zu werden.«28 Zum gefühlten Ausnahmezustand bei Google trug der spezifische Charakter von Silicon Valleys Risikofinanzierung bei, vor allem in den Jahren, in denen die Inflation an Start-ups ein gefährliches Niveau zu erreichen begann. Aus heutiger Sicht mag sich das selbstverständlich ausnehmen, aber wir sollten uns dennoch die Ängste während dieser Krisenmonate und ihren Beitrag zur Gestaltung des Kontexts für alles, was noch kommen sollte, vor Augen führen. »Der Kontakt zu einer Risikokapitalfirma signalisiert den hohen Status eines Start-ups und ermutigt andere Player dazu, auf den Zug aufzuspringen«, stellten die Stanforder Soziologen Mark Granovetter und Michael Ferrary in ihrer Studie über einschlägige Firmen im Silicon Valley fest.29 Der Verlust dieser Signalwirkung relegierte ein junges Unternehmen auf die lange Liste derer, die in der rasanten Silicon-Valley-Saga auf der Strecke geblieben waren. Andere Forschungsergebnisse weisen auf die Folgen einer Flut »ungeduldigen« Geldes, die über das Tal hinwegschwappte, als der Inflationshype Spekulanten anzog, was die Volatilität des Risikokapitals noch verstärkte.30 Studien des Investmentverhaltens vor der Dotcom-Blase weisen auf eine »Reibach«-Mentalität, bei der ein schlechtes Ergebnis die Investoren eher zum Aufstocken ihrer Einlagen animierte, und die Sterblichkeitsrate unter den Start-ups im Silicon Valley überstieg nun mal die anderer Risikokapitalzentren.31 Ungeduldiges Geld reflektiert sich auch in der Größe der Start-ups im Silicon Valley, die während dieser Periode erheblich kleiner ausfielen als in anderen Regionen, was ein Interesse an der schnellen Rendite und Desinteresse an der Entwicklung eines Unternehmens oder einer qualifizierten Belegschaft reflektiert. Von einem Interesse an der Entwicklung institutioneller Fähigkeiten, zu der Schumpeter geraten hätte, konnte ohnehin keine Rede sein.32 Verschärft wurden diese Tendenzen durch die spezifische Kultur im »Valley«, der der

Nettowert als einziges Maß für den Erfolg von Silicon-Valley-Eltern und Kindern gilt.33 Allem Genie und hehren Prinzipien zum Trotz konnten Brin und Page die zunehmende Krisenstimmung nicht ignorieren. Spätestens im Dezember 2000 sprach das Wall Street Journal von einem neuen »Mantra« unter den Anlegern im Silicon Valley: »Die bloße Fähigkeit, Geld zu verdienen, wird nicht ausreichen, um auch in den kommenden Jahren mit den großen Hunden zu bellen. Dazu muss man vor allem nachhaltige und exponentielle Profite nachweisen können.«34

Die Entdeckung des Verhaltensüberschusses Die Erklärung des Ausnahmezustands dient in der Politik als Deckmantel für die Aufhebung der Rechtsstaatlichkeit und die Einführung einer neuen Exekutivgewalt, die ihre Legitimation aus der Krise bezieht.35 Bei Google begründete man damit Ende 2000 die Annullierung des Gegenseitigkeitsprinzips zwischen Google und seinen Nutzern. Unter einem gehörigen Willensaufwand entschlossen die Gründer sich, ihre leidenschaftliche Abneigung gegen die Werbung aufzugeben, zu der sie sich immer wieder öffentlich bekannt hatten. Als spezifische Reaktion auf die Ängste der Investoren betrauten sie das winzige AdWords-Team mit der Suche nach Möglichkeiten, mehr Geld in die Kasse zu bringen.36 Page bestand darauf, es der Werbekundschaft so einfach wie möglich zu machen. Im Rahmen dieses neuen Ansatzes bestand er darauf, dass Werbekunden »sich noch nicht einmal mehr mit der Auswahl geeigneter Schlüsselwörter befassen müssen, da Google diese für sie ermitteln würde.«37 In operativer Hinsicht bedeutete das, dass Google sowohl seinen wachsenden Bestand an Verhaltensdaten als auch seine Rechenkraft und Erfahrung ganz darauf konzentrieren würde, Suchanfragen mit relevanter Werbung abzustimmen. Eine neue Rhetorik sollte den ungewöhnlichen Schritt legitimieren. Wenn schon Werbung, dann hätte sie »relevant« für den Nutzer zu sein. Werbung sollte nicht wie bisher an Schlüsselbegriffe in einer Suchanfrage gekoppelt sein, vielmehr sollte eine bestimmte Anzeige

auf ein bestimmtes Individuum abzielen. Sicherte man sich diesen Heiligen Gral der Werbung, ließen sich auch Relevanz und Wert für den Werbekunden garantieren. Was bei dieser neuen Rhetorik unterging, war der Umstand, dass Google bei der Jagd nach diesem neuen Ziel Neuland beschreiten würde: die Ausbeutung von Befindlichkeiten, die allein seinen Bestand an exklusiven und detaillierten kollateralen Verhaltensdaten über Millionen und später dann Milliarden von Nutzern enthüllen konnten. Um das neue Ziel zu erreichen, ordnete man den Verhaltenswert-Reinvestitionszyklus ebenso rasch wie heimlich einem größeren und komplexeren Unterfangen unter. Die Rohstoffe, die bis dahin einzig und allein der Verbesserung der Suchergebnisse gedient hatten, sollten ab sofort auch einzelne Nutzer ins Visier nehmen. Sicher, man würde bestimmte Daten auch künftig zur Verbesserung der Dienstleistungen einsetzen, aber vor allem sollten die wachsenden Bestände kollateraler Signale fortan die Werbung profitabler machen – und zwar für Google und seine Werbekunden. Diese Verhaltensdaten, die zur Verwendung über die Verbesserung des Dienstes hinaus zur Verfügung standen, stellten einen Überschuss dar, und dieser Verhaltensüberschuss sollte dem jungen Unternehmen die »nachhaltigen und exponentiellen Profite« bringen, die es zum Überleben bräuchte. Dank einem gefühlten Notstand begann hier eine Mutation Form anzunehmen, die sich in aller Stille selbstständig machte und sich dem implizit anwaltschaftlichen Gesellschaftsvertrag der ursprünglichen Beziehung des Unternehmens mit seinen Nutzern entzog. Der von Google erklärte Ausnahmezustand bot die Kulisse für das entscheidende Jahr 2002, in dem der Überwachungskapitalismus Wurzeln zu fassen begann. Im April jenes Jahres tat Googles eben entdeckte Wertschätzung für den Verhaltensüberschuss einen Satz in eine neue Dimension. Eines Morgens fand das für die Datenprotokollierung zuständige Team die Wörter »Carol Bradys Mädchenname« an der Spitze der Suchanfragen. Woher kam das plötzliche Interesse an der Figur einer Fernsehserie aus den 70er-Jahren? Als der Datenwissenschaftler Amit Patel, damals Mitglied des Datenlogger-Teams, davon später der New York Times erzählte, meinte er: »So etwas lässt sich einfach nicht interpretieren, wenn man keine Ahnung hat, was sonst in der Welt vor sich geht.«38 Sie kamen

dahinter, dass die Wendung während der beliebten TV-Serie Who Wants to be a Millionaire? in Abständen von jeweils einer Stunde für Spikes gesorgt hatte, als deren Ausstrahlung sich über Amerikas Zeitzonen zog. »Angesichts der Präzision der Carol-Brady-Daten gingen einigen Leuten die Augen auf«, schrieb die New York Times. Selbst Brin überraschte die Klarheit, mit der Search Ereignisse und Trends vorherzusagen vermochte, noch bevor sie auf dem Radar der traditionellen Medien auftauchten. Er sagte der New York Times gegenüber: »Es war, als würden wir ein Elektronenmikroskop ausprobieren. Oder ein Echtzeitbarometer.«39 Was ihre Ideen bezüglich einer Kommerzialisierung ihrer massiven Bestände an Anfragedaten anbelangt, hielten sich Googles Führungskräfte laut New York Times eher bedeckt. »In diesen Daten stecken enorme Möglichkeiten«, vertraute einer von ihnen der Zeitung an.40 Nur einen Monat vor dem »Carol-Brady-Augenblick« – das AdWordsTeam arbeitete bereits an neuen Ansätzen – stellten Brin und Page Eric Schmidt als Chairman ein, einen erfahrenen Executive und Softwareingenieur mit einem Doktor in Informatik. Im August machten sie ihn zum CEO. Doerr und Moritz hatten die Gründer schon länger zur Einstellung eines professionellen Managers gedrängt, der in der Lage wäre, das Unternehmen auf Profitkurs zu bringen.41 Schmidt ließ die Firma erst einmal »den Gürtel enger schnallen« und sorgte dafür, dass sich auch der Letzte des finanziellen Notstands bewusst war. Der Platznot wegen teilte er sich das Büro ganz zufällig mit einem gewissen Amit Patel. Wir wissen nicht, welche einschlägigen Einsichten Schmidt Patel verdankte. Sicher ist nur, dass Googles spezifische Reaktion auf den finanziellen Ausnahmezustand von einem tieferen Verständnis der Vorhersagekraft von Daten geprägt war. Folge war eine kritische Mutation, die schließlich AdWords, Google, das Internet und den Informationskapitalismus an sich in ein erstaunlich lukratives Überwachungsprojekt verwandelte. Von Anfang an galt Googles Werbung als effektiver als so gut wie jede andere Online-Werbung, weil sie mit den Suchanfragen gekoppelt war und Google verfolgen konnte, wenn eine Werbung angeklickt wurde, was sich in der »Click-Rate« niederschlug. Der Werbekundschaft berechnete man jedoch ganz konventionell die Zahl der Leute, die sich die Werbung angesehen hatten. Als Search expandierte, entwickelte Google das

Selbstbedienungssystem AdWords, bei der das Ergebnis einer Suche, in der das Schlüsselwort eines Werbekunden vorkam, die Textbox des Kunden mit einem Link auf seine Einstiegsseite enthielt. Die Preise richteten sich nach der Platzierung der Anzeige auf der Seite mit den Suchergebnissen. Googles Rivale Overture hatte bereits ein Online-Auktionssystem für die Platzierung von Webseiten entwickelt, das es dem Start-up erlaubte, auf Schlüsselwörter ausgerichtete Online-Werbung effektiv zu skalieren. Google sollte dieses Modell auf eine Weise verbessern, die die Geschichte des Informationskapitalismus auf immer verändern sollte. Bloomberg.com erklärte das 2006 folgendermaßen: »Google maximiert die Einkünfte aus dieser kostbaren Liegenschaft, indem es die beste Platzierung darauf demjenigen Werbekunden zuweist, der Google aller Wahrscheinlichkeit nach am meisten bezahlen wird; das errechnet sich aus dem Preis pro Klick multipliziert mit Googles Schätzung der Wahrscheinlichkeit, mit der jemand die Werbung tatsächlich anklicken wird.«42 Möglich wurde dieser kritische Multiplikator dadurch, dass man Googles fortgeschrittene Rechenkapazitäten auf seine bedeutendste und streng unter Verschluss gehaltene Entdeckung richtete: den Verhaltensüberschuss. Von diesem Zeitpunkt an wurde die Kombination von unaufhaltsam fortschreitender Maschinenintelligenz und der Versorgung mit immer größeren Mengen von Verhaltensüberschuss zum Fundament einer beispiellosen Logik der Akkumulation. Googles Prioritäten bei der Rückinvestierung verlagerten sich von der bloßen Verbesserung des Angebots hin zur Erfindung und Institutionalisierung der tiefgreifendsten und technologisch fortschrittlichsten Rohstoffbeschaffungsoperation, die die Welt je gesehen hatte. Von diesem Augenblick an hingen Einkünfte und Wachstum an einem Mehr an Verhaltensüberschuss. Die zahllosen Patente, die Google während dieser ersten Jahre anmeldete, illustrieren die Explosion von Entdeckungen, Einfallsreichtum und Komplexität, deren Auslöser besagter Ausnahmezustand war. Er zeitigte sowohl diese entscheidenden Innovationen als auch die Entschlossenheit des Unternehmens, die Erfassung von Verhaltensüberschuss voranzutreiben.43 Ich beschränke mich hier auf ein 2003 von drei der Topinformatiker des Unternehmens eingereichtes Patent mit dem Titel »Die Generierung von Nutzerinformationen zur Nutzung in der zielgerichteten

Werbung«.44 Dieses Patent ist emblematisch für die neue Mutation und die sich herausbildende Logik der Akkumulation, die Googles Erfolg definieren sollte. Von noch größerem Interesse für uns ist, dass es uns einen ungewöhnlichen Einblick in die »ökonomische Ausrichtung« dieser Technologie bietet, da es die Denkart renommierter Wissenschaftler reflektiert, die ihr Wissen vor den Karren von Googles neuen Zielen spannten.45 So betrachtet steht das Patent als Traktat über die neue politische Klick-Ökonomie und ihr moralisches Universum, bevor das Unternehmen dieses Projekt in einen Nebel von Euphemismen zu hüllen begann. Das Patent enthüllt eine Neuausrichtung von Googles Bühnenmaschinerie auf das neue Publikum, auf eine tatsächliche Kundschaft. »Die vorliegende Erfindung betrifft die Werbung«, kündigen die Erfinder an. Trotz der enormen Quantitäten demografischer Daten, die den Werbetreibenden zur Verfügung stehe, würde ein großer Teil des Werbebudgets »einfach verschwendet … eine solche Verschwendung ist sehr schwer zu erkennen und entsprechend schwer auszuschalten.«46 Werbung sei von Anfang an ein Ratespiel gewesen: Kunst, Beziehungen, Binsenweisheiten, Standardverfahren, aber nie »Wissenschaft«. Einer bestimmten Person in dem Augenblick eine bestimmte Nachricht zukommen zu lassen, in dem eine hohe Wahrscheinlichkeit einer tatsächlichen Einflussnahme auf ihr Verhalten besteht, sei so etwas wie der Heilige Gral der Werbung. Nach Ansicht der Erfinder hätte man auch mit Online-Werbesystemen dieses Ziel nicht erreicht. Die damals bei Google und seinen Konkurrenten vorherrschenden Ansätze, Werbung an Schlüsselwörtern oder Content auszurichten, seien nicht in der Lage, »für einen bestimmten Nutzer« relevante Werbung zu identifizieren. Die Erfinder boten eine wissenschaftliche Lösung, die selbst die ehrgeizigsten Träume der Werbechefs überstieg: Es besteht eine Notwendigkeit, im Falle einer Nutzeranfrage, etwa einer Suche oder der Anforderung eines Dokuments, die Relevanz der gelieferten Werbeanzeigen … für den die Anfrage einreichenden Nutzer … zu erhöhen … Die vorliegende Erfindung kann neue Methoden, Geräte, Nachrichtenformate und /oder Datenstrukturen zur

Feststellung von Nutzerprofil-Informationen und zur Nutzung der festgestellten Nutzerprofil-Informationen für die Lieferung von Werbung beinhalten.47 Dies bedeutete nichts anderes, als dass Google Verhaltensdaten nicht länger nur zur Verbesserung seiner Dienste zugunsten der Nutzer sammeln würde, sondern um die Gedanken seiner Nutzer zu lesen – in der Absicht, Werbung auf die Interessen zuzuschneiden, auf die sich mittels der Kollateralspuren ihres Online-Verhaltens schließen ließ. Mit Googles einzigartigem Zugang zu Verhaltensdaten wäre es fortan möglich zu wissen, was ein bestimmtes Individuum zu einem bestimmten Zeitpunkt an einem bestimmten Ort denkt, fühlt und tut. Dass uns das heute nicht mehr erstaunen mag, ja dass es überhaupt der Erwähnung wert sein sollte, belegt nur die massive psychische Abstumpfung, die uns einen ebenso beispiellosen wie kühnen Wandel der kapitalistischen Methoden so ungerührt hinnehmen lässt. Die in diesem Patent beschriebenen Techniken sorgen dafür, dass das System bei jeder Nutzeranfrage an Googles Suchmaschine auch gleich eine spezifische Konfiguration einer bestimmten Werbung vorlegt – und das alles in dem Bruchteil eines Augenblicks, den es zur Beantwortung seiner Anfrage braucht. Die Daten für diese augenblickliche Übersetzung einer Anfrage in eine Werbeanzeige – eine vorhersagekräftige Analyse, die man als »Matching« bezeichnete – gingen weit über die bloße Bedeutung der Suchbegriffe hinaus. Man stellte neue Datensätze zusammen, die die Treffsicherheit dieser Vorhersagen drastisch erhöhten. Diese Datensätze bezeichnete man als Nutzerprofil-Informationen (user profile information) oder kurz »UPI«. Diese neuen Daten machten dem Ratespiel ebenso ein Ende wie der Verschwendung im Werbebudget. An deren Stelle trat die mathematische Gewissheit. Aber wo sollten diese Nutzerprofil-Informationen herkommen? Hier warteten die Wissenschaftler mit einem Durchbruch auf. Einige der neuen Daten, so erklärten sie, ließen sich aus den über Google Search anfallenden Verhaltensdaten gewinnen. Darüber hinaus, so betonten sie, ließen sich Verhaltensdaten aber auch in allen anderen Bereichen der Online-Welt aufspüren und sammeln. Nutzerprofil-Informationen, so schreiben sie, ließen sich »erschließen«, »vermuten« und »ableiten«. Ihre neuen Methoden und Rechenwerkzeuge erlaubten die Erstellung von Nutzerprofil-

Informationen aus der Integration und Analyse der Suchmuster eines Nutzers, seiner Dokumentanfragen und einer Vielzahl anderer Signale seines Online-Verhaltens – selbst wenn der Nutzer diese persönlichen Informationen nicht direkt zur Verfügung stelle. Nutzerprofil-Informationen können jede Art von Information über einen individuellen oder über eine Gruppe von Nutzern enthalten. Solche Informationen können, die Genehmigung einer Herausgabe der Nutzerinformationen durch einen Dritten vorausgesetzt, vom Nutzer gestellt u n d   / o d e r a u s d e n A k t i o n e n d e s N u t z e r s g e w o n n e n w e r d e n . Gewisse Nutzerinformationen lassen sich anhand anderer Nutzerinformationen desselben Nutzers und /oder Nutzerinformationen anderer Nutzer ableiten oder vermuten. Nutzerprofil-Informationen können mit unterschiedlichen Einrichtungen verbunden sein.48 Wie die Erfinder hier erklären, lassen sich Nutzerprofil-Informationen direkt ableiten: aus den Aktionen eines oder einer Gruppe von Nutzern, der Art von Dokumenten, die sie sich ansehen, oder der Einstiegsseite einer angeklickten Werbeanzeige. »Eine Werbung für eine Prostatauntersuchung könnte sich auf Nutzerprofile mit den Attributen ›männlich‹ und ›Alter 45 und darüber‹ beschränken.«49 Sie beschreiben unterschiedliche Methoden der Beschaffung von Nutzerprofil-Informationen. Eine davon arbeitet mit »auf maschinellem Lernen basierten Klassifikatoren« (machine learning classifiers), die Werte über eine ganze Reihe von Attributen vorhersagen. »Assoziationsgrafen« enthüllen die Beziehungen zwischen Nutzer, Dokumenten, Suchanfragen und Webseiten; »auch Nutzer-NutzerVerbindungen lassen sich generieren«.50 Die Erfinder weisen darauf hin, dass ihre Methoden nur für die Priesterschaft von Informatikern verständlich seien, die sich von den analytischen Herausforderungen dieses neuen Online-Universums angezogen sehen: »Die folgende Beschreibung soll dem in der Kunst Versierten Herstellung und Nutzung der Erfindung ermöglichen … Diverse Modifikationen an den enthüllten Darstellungen werden dem in der Kunst Versierten ersichtlich sein …«51 Von kritischer Bedeutung für unsere Geschichte ist die Beobachtung der Wissenschaftler, dass die großen Herausforderungen hierbei nicht etwa

technischer, sondern vielmehr sozialer Art sind. Sand kommt ins Getriebe, wenn Nutzer es absichtlich versäumen, Informationen zu liefern, und sei es einfach nur, weil sie nicht wollen. »Leider sind Nutzerprofil-Informationen nicht immer verfügbar«, so der Hinweis der Wissenschaftler. Nutzer lieferten die Informationen nicht immer »freiwillig«, heißt es da, oder »das Nutzerprofil kann aufgrund von Datenschutzerwägungen etc. unvollständig sein … und damit nicht umfassend«.52 Erklärtes Ziel der Patentschrift ist es, Googles neuem Publikum zu versichern, dass seine Wissenschaftler sich vom Recht des Nutzers, über seine persönlichen Informationen selbst zu bestimmen, nicht abschrecken lassen, und das obwohl dies wesentliches Merkmal des ursprünglichen Sozialvertrags zwischen dem Unternehmer und seinen Nutzern gewesen war.53 Selbst wenn Nutzer Profilinformationen liefern, so mahnen die Erfinder, »können diese absichtlich oder unabsichtlich ungenau sein, sie können ablaufen … Nutzerprofil-Informationen für einen Nutzer … können ermittelt (oder upgedatet oder erweitert) werden auch wenn dem System keine expliziten Informationen übermittelt werden … Ursprüngliche Nutzerprofil-Informationen können ausdrücklich eingegebene NutzerprofilInformationen beinhalten, müssen das aber nicht«.54 Die Wissenschaftler lassen also keinen Zweifel daran, dass sie willens – und ihre Erfindungen in der Lage – sind, den im Entscheidungsrecht des Nutzers implizierten »Sand im Getriebe« zu überwinden. Googles proprietäre Methoden ermöglichen es dem Unternehmen, Verhaltensüberschuss zu überwachen, zu erfassen, zu erweitern, zu konstruieren und zu beanspruchen; was auch für Daten gilt, die der Nutzer ganz bewusst nicht mit anderen teilen will. Widerspenstige Nutzer sind also keine Hindernisse für die Datenenteignung. Weder moralische noch rechtliche noch soziale Zwänge werden im Weg stehen, wenn es darum geht, für kommerzielle Zwecke anderer Menschen Verhalten aufzuspüren, zu beanspruchen und zu analysieren. Die Erfinder lieferten Beispiele für die Art von Attributen, die sich bei der Zusammenstellung der NPI-Datensätze – unter Umgehung von Wissen, Absicht und Zustimmung des Nutzers – heranziehen ließen. So gehören dazu unter vielen anderen Variablen besuchte Websites, Psychogramme, Browseraktivitäten, Informationen über Werbung, die man dem Nutzer

gezeigt, die er angeklickt und /oder bei der er nach Ansicht einen Kauf getätigt hat.55 Es ist eine lange Liste, die von Tag zu Tag länger wird. Schließlich sprechen sie noch ein weiteres Hindernis bei der effektiven Zielausrichtung an. Selbst wenn man über Nutzerinformationen verfügt, so schreiben die Erfinder, bestehe die Möglichkeit, dass »Werbetreibende diese Informationen nicht effektiv zum Targeting ihrer Werbung einsetzen können«.56 Durch ihre Beschreibung im Patentantrag erklären die Erfinder öffentlich Googles Fertigkeiten bei der Jagd nach Verhaltensüberschuss sowie dessen Extraktion und Umwandlung in Vorhersagen zum Zweck eines präzisen Targeting. Es gab nicht ein Unternehmen, das es mit Googles Zugangsmöglichkeiten zu Verhaltensüberschuss, seinem Reservoir an wissenschaftlichen Ressourcen, seiner Rechenleistung oder seiner Speicherinfrastruktur hätte aufnehmen können. 2003 war allein Google in der Lage, Überschuss aus gleich mehreren Aktivitätsbereichen zu extrahieren und jedes gewonnene Dateninkrement in umfassende »Datenstrukturen« einzupflegen. Google sah sich in der einzigartigen Position, diese Daten auf dem modernsten Stand der Informatik in Vorhersagen darüber umzuwandeln, wer auf welche Konfiguration welcher Werbeanzeige klicken würde – eine Vorhersage, die die Basis für das endgültige »Matching« bildete –, und das in Sekundenbruchteilen. Die Patentschrift für Googles Erfindung enthüllte ganz neue Möglichkeiten, mit einer automatisierten Architektur die Gedanken, Gefühle, Absichten und Interessen Einzelner wie ganzer Gruppen zu erschließen. Ohne Wissen oder Einwilligung der Betroffenen erstellt man so ein geheimes Profil aus Verhaltensdaten, zu dem allein Google Zugang hat. Diese Einseitigkeit verkörpert die sozialen Beziehungen der Überwachung auf der Basis von Asymmetrien an Wissen und Macht. Diese neue, bei Google erfundene Art der Akkumulation ergab sich vor allem aus der Bereitschaft und der Fähigkeit des Unternehmens, seinen Nutzern diese Art von sozialen Beziehungen aufzuzwingen. Mobilisiert wurde diese Bereitschaft durch einen Ausnahmezustand; die Fähigkeit ergab sich aus dem Erfolg des Unternehmens dabei, seinen privilegierten Zugang zu Verhaltensüberschuss dazu einzusetzen, das Verhalten Einzelner jetzt, in Kürze und irgendwann vorherzusagen. Die so erworbenen vorhersagekräftigen Einsichten gaben dem Unternehmen einen in der

Weltgeschichte einzigartigen Wettbewerbsvorteil auf einem neuen Marktplatz, auf dem man nahezu risikolose Wetten auf individuelles Verhalten veranschlagt, verkauft und kauft. Google war damit nicht länger passiver Empfänger zufälliger Daten, die man zum Segen seiner Nutzer dem Recycling zuführte. Das Patent auf zielgerichtete Werbung wirft Licht auf den Erkenntnisweg Googles von seiner Gründung unter dem Banner der Anwaltschaftlichkeit hin zur Entwicklung der Verhaltensüberwachung als eine ausgereifte Logik der Akkumulation. Die Erfindung an sich enthüllt das Denken, das den Verhaltenswert-Reinvestitionszyklus dem Dienst eines neuen kommerziellen Kalküls unterwarf. Verhaltensdaten, deren Wert man zuvor für die Verbesserung von Google Search zugunsten des Nutzers »verbraucht« hatte, wurden jetzt zum kritischen – und allein Google zugänglichen – Rohstoff für den Aufbau eines dynamischen Marktplatzes für Online-Werbung. Google sollte sich fortan mehr Verhaltensdaten sichern, als zum Dienst am Nutzer nötig waren. Dieser Überschuss, ein Verhaltensüberschuss, war der alles verändernde – und kostenlose – Aktivposten. Und dieser wurde von der Verbesserung des Dienstes abgezweigt in Richtung eines echten und höchst lukrativen marktwirtschaftlichen Austauschs. Einblick in diese Fähigkeiten hatte von Anfang an allein eine exklusive Datenpriesterschaft, unter denen Google der Hohepriester ist. Sie operiert im Dunkeln, gleichgültig gegenüber sozialen Normen, Gesetzen oder individuellen Ansprüchen auf Selbstbestimmung. So wurde der Grundstein für den Überwachungskapitalismus gelegt. Der Ausnahmezustand, den Googles Gründer ausriefen, verwandelte den jugendlichen Dr. Jekyll in einen skrupellosen, muskelbepackten Mr. Hyde, der fest entschlossen war, seine Beute immer und überall zu jagen, ungeachtet irgendwelcher Ansprüche auf Selbstbestimmung. Das neue Google ignorierte derlei Ansprüche und wollte nichts wissen von a priori gesetzten Einschränkungen hinsichtlich dessen, was es zu finden und an sich zu reißen gab. Es verwarf den moralischen und rechtlichen Inhalt individueller Entscheidungsrechte und interpretierte die Situation in seinem Sinne als eine des technologischen Opportunismus und einseitiger Macht. Dieses neue Google versichert seiner eigentlichen Kundschaft zu tun, was immer nötig sein sollte, um das von Natur aus undurchsichtige menschliche

Verlangen in wissenschaftliche Fakten zu verwandeln, und erklärt seine Gleichgültigkeit gegenüber allen sozialen Normen und Regeln, die ihm dabei im Wege stehen könnten. Dieses Google ist die Supermacht, die eigene Werte setzt und seine Ziele jenseits der Gesellschaftsverträge verfolgt, an die andere sich gebunden sehen.

Größen- beziehungsweise Massenvorteile bei der Überschussversorgung Es gab noch andere neue Elemente, die mithalfen, die zentrale Bedeutung des Verhaltensüberschusses in Googles Operationen zu zementieren, allen voran seine Innovationen bei der Preisgestaltung. Das erste neue Preismodell basierte auf »Klickraten«, richtete sich mit anderen Worten danach, wie viele Nutzer durch einen Klick auf eine Werbung die Website des Werbekunden besuchen – statt eines Preismodells, das sich danach richtet, wie oft die Werbung gesehen wird. Man interpretierte den Klick als Signal für Relevanz und damit als Maß für erfolgreiches Targeting; als operatives Ergebnis, das sich aus dem Verhaltensüberschuss ergab, reflektierte es dessen Wert. Das neue Preismodell sorgte für einen ständig eskalierenden Anreiz, den Verhaltensüberschuss zu vergrößern und so die Effektivität der Vorhersagen fortwährend zu verbessern. Bessere Vorhersagen führten direkt zu einer höheren Klickrate und damit zu höheren Einkünften. Google lernte neue Möglichkeiten automatisierter Auktionen für die zielgerichtete Werbung, die eine rasche Skalierung der neuen Erfindung erlaubten; es war nun möglich, Hunderttausende von Werbekunden und Milliarden (später Billionen) von Auktionen gleichzeitig durchzuführen. Googles einzigartige Auktionsmethoden und deren Möglichkeiten erregten große Aufmerksamkeit, was die Beobachter freilich davon ablenkte, sich Gedanken darüber zu machen, was da eigentlich versteigert wurde: Derivate von Verhaltensüberschuss. Das Klickraten-Modell institutionalisierte die Nachfrage seitens der »Kunden« für diese Vorhersageprodukte und begründete damit die zentrale Bedeutung von Massenvorteilen bei der Überschussversorgung. Das bedeutete, dass die

Überschussgewinnung automatisiert und allgegenwärtig werden musste, sollte der neuen Logik auf den Verhaltensterminkontraktmärkten Erfolg beschieden sein. Eine weitere Schlüsselmetrik, »quality score« (Qualitätspunkte) genannt, half bei der Preisgestaltung einer Werbeanzeige und deren spezifischer Positionierung auf der Seite – über die Auktionsgebote der Kundschaft hinaus. Der »quality score« errechnete sich teils durch die Klickrate, teils aus der Analyse von Verhaltensüberschuss. »Die Klickrate musste prädiktiv werden«, weiß jemand aus der Führungsriege zu erzählen, und dazu brauchte man »alle Informationen, die wir über die Anfrage hatten, und zwar sofort«.57 Es würden eine enorme Rechenleistung und hochmoderne algorithmische Programme nötig sein, um die Art von aussagekräftigen Vorhersagen zu generieren, die die Basis für die Bewertung der Relevanz einer Anzeige bilden sollten. Anzeigen mit einem hohen Score waren billiger als die mit einem niedrigen. Googles Anzeigenkunden beschwerten sich, der »quality score« sei eine Black Box, aber Google war fest entschlossen, daran nichts zu ändern. Und wenn die Kunden sich an die Vorgaben hielten und Werbung mit hohen Scores produzierten, gingen ihre Klickraten durchs Dach. Das Tempo, mit dem AdWords zum Schlager wurde, trieb auch die Überwachungslogik voran. Anzeigenkunden verlangten mehr Klicks.58 Die Antwort darauf bestand darin, das Modell über Googles Suchseiten hinaus zu erweitern und das gesamte Internet zur Leinwand für Googles zielgerichtete Werbung umzufunktionieren. Das wiederum erforderte, dass man Googles eben entdeckte Fähigkeiten bei der »Datenextraktion und analyse«, wie sich Hal Varian ausdrückte, auf den Content jeder Webseite oder Nutzeraktion ausrichtete, indem man Googles rasch expandierende Fertigkeiten in den Bereichen semantische Analyse und künstliche Intelligenz darauf ansetzte, sie auf Bedeutung »auszuwringen«. Nur so konnte Google den Content einer Webseite und die Interaktion des Nutzers mit diesem präzise bewerten. Diese auf Googles patentierte Methoden fußende »Content-Targeted«-Werbung bekam schließlich den Namen AdSense. 2004 sorgte AdSense bereits für einen Umsatz von einer Million Dollar pro Tag; 2010 waren es bereits über 10 Milliarden Dollar im Jahr.

Wir haben es hier mit einem ebenso beispiellosen wie lukrativen Gebräu zu tun: Verhaltensüberschuss, Informatik, materielle Infrastruktur, Rechenleistung, Algorithmensysteme und automatisierte Plattformen. Dieses Aufeinandertreffen sorgte für eine beispiellose »Relevanz« und Milliarden von Auktionen. Die Klickraten waren astronomisch. Die Arbeit an AdWords und AdSense wurde Google genauso wichtig wie die Arbeit an Search. Mit der Klickrate als Maß für Relevanz war der Verhaltensüberschuss als Eckpfeiler einer neuen Art von Handel institutionalisiert; Insider bezeichneten Googles neue Wissenschaft der Verhaltensvorhersage als »Klickphysik«.59 Die Beherrschung dieser neuen Domäne bedurfte einer hochspezialisierten Art von »Klickphysikern«, die für Googles Vorherrschaft in der im Entstehen begriffenen Priesterschaft der Verhaltensvorhersage zu sorgen hatte. Die beträchtlichen Einkünfte riefen die intelligentesten Köpfe unserer Zeit aus den unterschiedlichsten Fachgebieten wie Künstliche Intelligenz, Statistik, Maschinenlernen, Informatik und Predictive Analytics auf den Plan. Gemeinsam widmeten sie sich unter dem Joch der Klickrate in einer Art rechnergestützten Wahrsagerei der lukrativen Vorhersage menschlichen Verhaltens. So rekrutierte das Unternehmen etwa eine Koryphäe der Informationsökonomie, die bereits seit 2001 in einer beratenden Funktion für Google tätig gewesen war, als Patriarchen dieser vielversprechenden Gruppe und ihres jungen Wissenschaftszweigs: Hal Varian. Mehreren Darstellungen zufolge waren Page und Brin nur zögerlich ins Werbegeschäft eingestiegen. Nachdem sich jedoch die Hinweise darauf häuften, dass Werbung dem Unternehmen aus der Krise helfen könnte, änderten sie ihre Haltung.60 Mit dem Unternehmen retteten sich auch zwei hochintelligente junge Männer davor, in einer profit- und konkurrenzorientierten Kultur wie der des Silicon Valley in der Bedeutungslosigkeit zu verschwinden. Page saß das Beispiel des brillanten, aber verarmten Wissenschaftlers Nikola Tesla im Nacken, der starb, ohne je finanziell von seinen Erfindungen profitiert zu haben. »Und dann reicht es nicht, wenn man nur etwas erfindet«, sinnierte Page.61 Brin sah die Sache so: »Ehrlich, als wir uns noch in der Ära des Dotcom-Booms befanden, kam ich mir wie ein Trottel vor. Wie andere auch besaß ich ein Internet-

Start-up. Und wie die anderen war es nicht profitabel.«62 Die außergewöhnliche Gefahr, finanziell wie sozial abzustürzen, scheint eine Art Überlebensinstinkt in den beiden geweckt zu haben, der nach ebenso außergewöhnlichen Maßnahmen rief – man musste sich anpassen.63 Die Antwort der Gründer auf die Ängste in ihren Kreisen bestand in der Ausrufung des »Ausnahmezustands«, der es angezeigt erscheinen ließ, die alten Werte und Prinzipien aufzugeben. Michael Moritz von Sequoia erinnerte sich an die Krisensituation, die zur »genialen« Neuerfindung des Unternehmens führte. Er sah das Unternehmen an einer Wegscheide. Er betonte dabei die Eigenart von Googles Erfindungen, deren Geburt im Ausnahmezustand und die Kehrtwende vom Dienst am Nutzer hin zu seiner Überwachung. Insbesondere hob er die alles verändernde Entdeckung des Verhaltensüberschusses als Aktivposten heraus, die Google zum Wahrsagegiganten machte. Als Durchbruch betonte er die Modifikation des Overture-Modells, als das junge Unternehmen die geballte Kraft seiner Analytik auf den Verhaltensüberschuss richtete, um die Wahrscheinlichkeit eines Klicks zu prognostizieren: Die ersten 12 Monate waren für Google kein Spaziergang, da das Unternehmen nicht mit dem Geschäft begonnen hatte, das es sich schließlich erschloss. Zuerst ging man in eine ganz andere Richtung, man verkaufte seine Technologie – man verkaufte Lizenzen für seine Suchmaschinen an größere Internetsites und Unternehmen … Die ersten sechs, sieben Monate jagte man das Geld nur so durch den Schornstein. Und dann, das war das Geniale, übernahm man ein Modell, das man bei einem anderen Unternehmen – Overture – gesehen hatte, wo man es gerade entwickelte, und das war das Ranked-Advertising. Sie sahen, wie sich das verbessern und forcieren ließ, und machten es sich zu eigen, und das brachte geschäftlich die Wende.64 Moritz’ Überlegungen legen nahe, dass Google die Art, wie das Unternehmen »Geld durch den Schornstein jagte«, ohne die Entdeckung des Verhaltensüberschusses und die Wende hin zu Überwachungsoperationen nicht hätte aufrechterhalten, ja womöglich nicht hätte überleben können. Wir werden nie wissen, was aus Google ohne den durch ungeduldiges Geld geschürten Ausnahmezustand geworden wäre.

Welche anderen Wege zu stabilen Einkünften hätte man gehabt? Welche Alternativen hätte man gehabt, an den Prinzipien der Gründer und den Rechten des Nutzers auf Selbstbestimmung festzuhalten? Stattdessen öffnete Google mit einer neuen Inkarnation des Kapitalismus eine Büchse der Pandora, deren Inhalt wir gerade erst zu verstehen beginnen.

Erfunden von Menschenhand Wir müssen uns hier vor allem eines vor Augen halten: Erfunden wurde der Überwachungskapitalismus von einer spezifischen Gruppe von Menschen, zu einem spezifischen Zeitpunkt, an einem spezifischen Ort. Er ergibt sich zwangsläufig weder aus der digitalen Technologie noch aus dem Informationskapitalismus. Er wurde bewusst geschaffen – nicht unähnlich der Massenproduktion 1913 bei Ford. Ford versuchte zu beweisen, dass Profit durch Volumen zu maximieren war, da es die Kosten senkte und damit für eine höhere Nachfrage sorgte. Es war dies eine geschäftliche Rechnung, die zuvor weder in der ökonomischen Theorie noch in der unternehmerischen Praxis erprobt worden war. Erste Ansätze dazu waren bereits bei Fleischgroßhändlern, Großmühlen, Nähmaschinen-, Fahrrad- und Konservenfabriken, Rüstungsbetrieben und Brauereien zu erkennen gewesen. Das praktische Wissen über die Austauschbarkeit von Teilen, über Standardisierung, Präzisionsmaschinen und eine lückenlose Fließbandfertigung wuchs unaufhaltsam. Aber niemand hatte die große Sinfonie geschrieben, die Ford in seiner Phantasie hörte. Dem Historiker David Hounshell zufolge gab es einen Zeitpunkt, den 1. April 1913, und einen Ort, Detroit, als das erste bewegliche Fließband »nur ein weiterer Schritt in der jahrelangen Entwicklung bei Ford« schien, »aber doch irgendwie vom Himmel fiel. Noch vor dem Feierabend hatten einige der Ingenieure das Gefühl, einen wesentlichen Durchbruch geschafft zu haben.«65 Binnen eines Jahres war die Produktivität über das ganze Unternehmen hinweg gestiegen, von 50 % bis zum Zehnfachen des alten Outputs.66 Hatte das Model T 1908 noch 825 Dollar gekostet,67 war der Preis bis 1924 auf das Rekordtief von 260 Dollar für einen Vier-ZylinderPersonenwagen gesunken.68

Wie im Falle von Ford waren einige Elemente der ökonomischen Überwachungslogik im Online-Umfeld bereits seit Jahren im Einsatz, auch wenn sie nur einer kleinen Gruppe von IT-Spezialisten ein Begriff waren. So hatte man »Cookies« – Softwaremechanismen, bei denen Informationen zwischen einem Server und einem Client-Computer ausgetauscht werden – bereits 1994 bei Netscape Communications entwickelt, dem Unternehmen, das den ersten kommerziellen Webbrowser entwickelte.69 Desgleichen waren auch »Web-Bugs«, winzige, oft unsichtbar in Webseiten und E-Mails eingebettete Grafiken, die Nutzeraktivitäten überwachen und persönliche Informationen sammeln sollten, bereits Ende der 1990er-Jahre bekannt.70 IT-Spezialisten waren zutiefst besorgt ob der Implikationen solcher Überwachungsmechanismen für die Privatsphäre, und, zumindest im Falle der Cookies, es gab institutionelle Bemühungen, Richtlinien für das Internet zu entwickeln, die deren Möglichkeiten, Nutzer zu überwachen und auszuspionieren verboten.71 1996 war die Funktion der Cookies bereits zum Politikum geworden und wurde heiß diskutiert. Auf Workshops der USBundeshandelskommission diskutierte man 1996 und 1997 Vorschläge, die Kontrolle über jegliche persönliche Information mittels eines simplen automatischen Protokolls von Haus aus dem Nutzer zu übertragen. Werbetreibende machten erbittert dagegen Front und versuchten gemeinsam, eine staatliche Regulierung durch eine Network Advertising Initiative, eine Art freiwillige Selbstkontrolle, zu umgehen. Dennoch verbot die Regierung Clinton Cookies auf allen Websites des Bundes, und bis April 2001 lagen dem Kongress bereits drei Gesetzesvorlagen vor, die unter anderem eine Regulierung von Cookies vorsahen.72 Google hauchte diesen Praktiken neues Leben ein. Seine Softwareentwickler und Wissenschaftler dirigierten nun als Erste die gesamte kommerzielle Überwachungssinfonie. Sie integrierten dabei eine ganze Bandbreite von Mechanismen – Cookies, proprietäre Analytik, Algorithmen – zu einer umfassenden neuen Logik, die Überwachung und einseitige Enteignung von Verhaltensdaten als Basis einer neuen Marktform verankerten.73 Die Wirkung dieser Erfindung war nicht weniger dramatisch als die Henry Fords. Bereits 2001, als Googles neue Systeme zur kommerziellen Ausbeutung seiner Entdeckung noch in der Testphase standen, stiegen die Nettoeinkünfte gegenüber dem Vorjahr um 400 % auf

86 Millionen Dollar an, und das Unternehmen machte zum ersten Mal Profit. Von da an begann das Geld zu fließen und hörte nicht mehr zu fließen auf – ein ganz entschiedener Beweis dafür, dass Verhaltensüberschuss in Kombination mit Googles proprietärer Analytik ein Treffer war. Die Einkünfte stiegen 2002 auf 347 Millionen Dollar, 2003 auf 1,5 Milliarden und 2004, im Jahr des Börsengangs, auf schließlich 3,5 Milliarden.74 Die Entdeckung des Verhaltensüberschusses hatte für ein Plus von 3 950 % gesorgt, und das in weniger als vier Jahren.

Der (geheime) Imperativ der Extraktion Wir sollten hier auf die kritischen Unterschiede hinsichtlich der Auswirkungen auf den Kapitalismus in diesen beiden Augenblicken unternehmerischer Originalität im Falle von Ford und Google hinweisen. Fords Erfindungen revolutionierten die Produktion. Googles Erfindungen revolutionierten die Extraktion und begründeten den ersten ökonomischen Imperativ des Überwachungskapitalismus: den Extraktionsimperativ. Der Extraktionsimperativ besagt, dass der Nachschub an Rohstoff stetig zu steigen hat. Der Industriekapitalismus hatte Größenvorteile bei der Produktion verlangt, um einen höheren Durchsatz zu geringeren Stückkosten zu erreichen. Im Gegensatz dazu verlangt der Überwachungskapitalismus Größen- bzw. Massenvorteile bei der Extraktion von Verhaltensüberschuss. Massenproduktion zielte auf neue Nachfragequellen bei den ersten Massenverbrauchern am Anfang des 20. Jahrhunderts. »Massenproduktion«, Ford selbst hat das sehr deutlich gesagt, »beginnt mit der Wahrnehmung eines öffentlichen Bedürfnisses.«75 Angebot und Nachfrage waren gekoppelte Effekte der neuen »Existenzbedingungen«, die das Leben von Sophie und Max in der Ersten Moderne definierten. Fords Erfindung verstärkte die Wechselbeziehungen zwischen Kapitalismus und den Menschen der Zeit. Im Gegensatz dazu haben Googles Erfindungen den ursprünglichen Gesellschaftsvertrag mit seinen Nutzern zunichtegemacht. Die Rolle des Verhaltenswert-Reinvestitionszyklus, der Google anfangs im Interesse

seiner Nutzer hatte agieren lassen, erfuhr eine drastische Veränderung. Anstatt den Bund von Angebot und Nachfrage mit den Menschen seiner Zeit zu festigen, entschied sich Google dafür, sein Geschäftsmodell neu, das heißt um die aufkommende Nachfrage seiner Werbekunden herum, zu gruppieren und um des Marktvorteils willen mit allen zur Verfügung stehenden Mitteln Online-Verhalten zusammenzukratzen und auszuwringen. Bei dieser neuen Operation waren Nutzer nicht länger Selbstzweck, sondern wurden Mittel zu anderer Leute Zielen. Reinvestition in Dienstleistungen für den Nutzer wurde zu einer Methode, Verhaltensüberschuss anzuziehen, womit der Nutzer nur noch ahnungsloser Rohstofflieferant in einem breiter angelegten Ertragszyklus war. Und da man den warmen Regen, der in dem Augenblick ins Haus kam, in dem man Kapital aus Verhaltensüberschuss zu schlagen begann, wieder investierte, um immer mehr Nutzer in sein Netz zu locken, waren die Mitbewerber in Googles Kerngeschäft, der Websuche, bald aus dem Feld geschlagen. Das bei Google mögliche Maß an Überschussenteignung war einfach zu groß, was de facto zum Monopol bei der Websuche führte. Kraft seiner Erfindungen, Entdeckungen und Strategien wurde Google zugleich zum Mutterschiff und Idealtypus einer neuen, auf Wahrsagerei und Verkauf basierenden Ökonomie – ein ebenso altes wie lukratives Handwerk, das seit Anbeginn der Menschheitsgeschichte Kapital aus unserer Konfrontation mit der Ungewissheit zu schlagen weiß. Für die Nachahmung eines Produktionsprozesses zu werben, wie Henry Ford das getan hatte, ist eine Sache, eine ganz andere ist es, mit der steten Intensivierung versteckter Prozesse zu prahlen, die auf die Extraktion von Verhaltens- und persönlichen Daten abzielen. Das Letzte, woran Google gelegen war, wäre die Preisgabe der Geheimnisse hinter den neuen Regeln gewesen, mit denen sich das Unternehmen zum Sklaven des Extraktionsimperativs gemacht hatte. Verhaltensüberschuss bildete die neue Ertragsbasis; Geheimhaltung war die Basis für eine anhaltende Akkumulation von Verhaltensüberschuss. So institutionalisierte man die Geheimniskrämerei in Leitsätzen und Praktiken, die jeden Aspekt von Googles Verhalten auf und hinter der Bühne regieren. Nachdem Googles Führungsspitze die kommerzielle Macht des Verhaltensüberschusses erkannt hatte, führte Eric Schmidt »die

Versteckstrategie«, wie er es nannte, ein.76 Den Angestellten des Unternehmens war es ab sofort untersagt zu kommentieren, was es mit den »neuen Methoden, Geräten, Nachrichtenformaten und /oder Datenstrukturen« auf sich hatte, von denen in der Patentschrift die Rede war. Ebenso wenig durften sie sich zu Gerüchten über den Cashflow äußern. Sich zu verstecken war keine Post-hoc-Strategie; sie war von Anfang mit in den Teig des Kuchens gerührt, aus dem man den Überwachungskapitalismus buk. Recht überzeugend schildert der ehemalige Google-Executive Douglas Edwards dieses Dilemma und die Kultur der Heimlichtuerei, für die sie sorgte. Seinem Bericht zufolge waren Page und Brin »Falken«, die auf die aggressive Erfassung und Speicherung von Daten pochten. »Larry widersetzte sich jedem Weg, der unsere Technologiegeheimnisse aufdecken würde oder Staub um den Datenschutz aufwirbelte und unsere Fähigkeit gefährdete, Daten zu sammeln.« Um die Neugier des Nutzers nicht unnötig zu wecken, drängte Page darauf, ihm das Ausmaß von Googles Datenoperationen nicht unnötig auf die Nase zu binden. So hielt er etwa den Bildschirm mit dem Ticker der aktuellen Suchanfragen in der Lobby von Googles Hauptquartier für alles andere als klug. Außerdem versuchte er die jährliche Google-Zeitgeist-Konferenz »zu killen«, auf dem die Suchtrends der letzten zwölf Monate vorgestellt wurden.77 Der Journalist John Battelle spricht in seiner Google-Chronik der Jahre 2002 bis 2004 von »Reserviertheit«, »begrenzter Informationsbereitschaft« und »so unnötiger wie befremdender Heimlichtuerei und Abkapselung«.78 Ein anderer früher Biograf des Unternehmens schrieb: »Das Geheimnis zu wahren, war jedoch auch recht einfach, denn kaum einer der das InternetGeschäft verfolgenden Experten hielt dergleichen überhaupt für möglich.«79 Wie Eric Schmidt der New York Times sagte: »Man muss siegen, tut das aber besser leise.«80 Die wissenschaftliche und materielle Komplexität hinter der Erfassung und Analyse von Verhaltensüberschuss begünstigte die »Versteckstrategie«, umgab sie die Operation doch wie ein Tarnumhang. »Websuche in unserer Größenordnung ist eine massive Hürde für den Markteintritt«, warnte Schmidt potenzielle Mitbewerber.81 Selbstverständlich gibt es triftige geschäftliche Gründe dafür, niemandem zu verraten, wo die Goldgrube liegt. In Googles Fall brachte die

Versteckstrategie einen Wettbewerbsvorteil, aber es gab auch andere, dringlichere Gründe für Geheimniskrämerei und Verschleierung. Wie hätte sie wohl reagiert, hätte man der Öffentlichkeit damals gesagt, Google verdanke seine Magie seinen exklusiven Fähigkeiten in Sachen einseitiger Überwachung unseres Online-Verhaltens und seinen spezifischen Methoden, die Entscheidungsrechte des Einzelnen auszuhebeln? Google konnte gar nicht anders, als einen Mantel des Schweigens über Operationen zu werfen, die einfach nicht nachweisbar sein sollten – und das von Anfang an, denn sie nahmen den Nutzern etwas weg, ohne sie zu fragen, um diese widerrechtlich abgeschöpften Ressourcen dann im Dienste Dritter einzusetzen. Dass Google überhaupt die Macht hatte, die Heimlichkeit durchzusetzen, zeugt schon für den Erfolg seiner Ansprüche. Diese Macht illustriert den Unterschied zwischen »Entscheidungsrechten« und »Privatsphäre«. Entscheidungsrechte stellen einem anheim, ob man etwas geheim halten oder anderen mitteilen will. Man kann über das Maß an Privatsphäre oder Transparenz von Fall zu Fall entscheiden. Richter William O. Douglas vom Obersten Gerichtshof der Vereinigten Staaten hat diese Auffassung 1967 so formuliert: »Privatsphäre beinhaltet die freie Entscheidung des Einzelnen, zu eröffnen oder zu enthüllen, was er glaubt, was er denkt, was er besitzt …«82 Der Überwachungskapitalismus beansprucht diese Entscheidungsrechte für sich. Die typische Klage läuft auf eine Aushöhlung der Privatsphäre hinaus, was jedoch irreführend ist. Im weiteren gesellschaftlichen Kontext wird die Privatsphäre nicht ausgehöhlt, sondern umverteilt, insofern die Entscheidungsrechte über sie vom Überwachungskapital beansprucht werden. Anstatt dass die vielen darüber entscheiden, was sie enthüllen wollen und wie, konzentriert sich dieses Entscheidungsrecht in der Domäne des Überwachungskapitalismus. Da Google dieses unabdingbare Element der neuen Akkumulationslogik entdeckt hat, bleibt dem Unternehmen nichts anderes übrig, als auch das Recht auf die Informationen geltend zu machen, auf denen sein Erfolg fußt. Dass das Unternehmen in der Lage ist, diese Rechtsaneignung zu verstecken, hängt im selben Maß von der Sprache ab wie von den technischen Methoden oder Googles Geheimhaltungspolitik. Euphemismen,

so schrieb George Orwell, dienten in Politik, Krieg und Geschäft dazu, »Lügen wie Wahrheit klingen zu lassen und Mord respektabel zu machen«.83 Google achtet sorgsam darauf, die Bedeutung seiner Verhaltensüberschussoperationen mit IT-Jargon zu camouflieren84. Zwei beliebte Begriffe – »digitale Abgase« und »digitale Krümel« – konnotieren wertlose Abfallprodukte, umherliegende Überbleibsel, die jeder nach Belieben aufklauben kann. Warum sollte man Abgase in die Atmosphäre ausströmen lassen, wenn man sie zu nützlichen Daten recyceln kann? Wer wollte sich dazu versteigen, dieses Recycling als Ausbeutung, Enteignung oder Plünderung zu bezeichnen? Wer wollte es wagen, »digitale Abgase« als Beute oder Kontrabande zu deklarieren? Wer wollte sich vorstellen, dass Google gelernt hatte, diese sogenannten »Abgase« ganz bewusst herzustellen? Auch das Wort »zielgerichtet« ist ein solcher Euphemismus. Es klingt nach Präzision, Effizienz und Kompetenz. Wer würde darauf kommen, dass sich hinter diesem Targeting eine neue politische Gleichung verbirgt, bei der Googles massierte Rechenleistung die Entscheidungsrechte des Nutzers verscheucht wie King Kong eine Fliege? Und das auch noch hinter den Kulissen, wo keiner es sieht? Diese Euphemismen funktionieren auf genau dieselbe Art wie jene, die sich auf den frühesten Karten des amerikanischen Kontinents finden, in denen ganze Landstriche mit Begriffen wie »Heiden«, »Ungläubige«, »Götzendiener«, »Wilde«, »Vasallen« und »Rebellen« markiert waren. Diese Euphemismen erlaubten es den Invasoren, die indigenen Völker mitsamt ihren Orten und Ansprüchen aus ihren moralischen und rechtlichen Gleichungen zu streichen. So legitimierten sie Enteignung und Unterjochung und ebneten den Weg für Kirche und Monarchie. Der schiere Aufwand mit dem man nackte Fakten hinter Rhetorik, Auslassung, Komplexität, Exklusivität, Masse, Vertragsbestimmungen, Design und Euphemismen zu verbergen versuchte, ist ein weiterer Faktor, der uns erklären hilft, warum bei Googles Durchbruch zur Profitabilität niemandem die Grundmechanismen seines Erfolgs und deren weitere Bedeutung auffielen. In diesem Kontext ist kommerzielle Überwachung nicht mehr nur unseliger Zufall oder Versehen. Sie ist unabdingbar weder im Rahmen der Entwicklung des Informationskapitalismus noch als

Produkt des Internets oder der digitalen Technologie an sich. Sie ist ein bewusstes menschliches Konstrukt, eine beispiellose Marktform, eine originelle Lösung für einen Notstand – und der zugrundeliegende Mechanismus, der eine neue, nahezu kostenlose Klasse von Aktiva schuf und in Erträge umwandelte. Überwachung ist der Weg zum Profit, der jede mit »wir, das Volk« beginnende Deklaration außer Kraft setzt, uns ohne unsere Einwilligung unserer Entscheidungsrechte beraubt, und das selbst wenn wir »nein« sagen. Die Entdeckung des Verhaltensüberschusses markierte einen kritischen Wendepunkt nicht nur in Googles eigener Biografie, sondern auch in der Geschichte des Kapitalismus. In den Jahren nach Googles Börsengang 2004 erstaunte Googles spektakulärer finanzieller Durchbruch die Online-Welt und zog sie schließlich in seinen Bann. Die Investoren aus dem Silicon Valley hatten über Jahre hinweg trotz des Risikos Geld nachgeschoben in der Hoffnung auf das traumhafte Geschäftsmodell, das alles die Mühe wert machen würde. Als Google seine Geschäftsergebnisse veröffentlichte, war die Jagd nach dem mythischen Schatz offiziell vorbei.85 Die neue Akkumulationslogik griff zunächst auf Facebook über, das im selben Jahr startete, in dem Google an die Börse ging. CEO Mark Zuckerberg hatte es abgelehnt, seine Nutzer für seinen Dienst zur Kasse zu bitten wie in einem anderen Jahrhundert die Telefongesellschaften. »Unsere Mission besteht darin, jeden mit jedem auf der Welt zu verbinden. Das schafft man nicht mit einem Dienst, für den die Leute bezahlen«, insistierte er.86 Im Mai 2007 machte er das soziale Netzwerk, das zunächst auf einen Kreis von Hochschulen beschränkt gewesen war, für alle Welt zugänglich. Sechs Monate später, im November, startete er mit Beacon sein großes Werbeprojekt, das jede Transaktion eines Nutzers mit einer Partnerwebsite allen seinen »Freunden« mitteilte. Diese Postings erschienen selbst dann, wenn der Nutzer gerade nicht bei Facebook eingeloggt war. Außerdem passierte es ohne sein Zutun und ohne sein Wissen. Der lautstarke Protest seitens der Nutzer, aber auch von Facebook-Partnern wie Coca-Cola, zwang Zuckerberg rasch zurückzurudern. Im Dezember tauchte Beacon wieder auf, aber der Nutzer musste der Teilnahme eigens zustimmen. Der 23jährige CEO verstand das Potenzial des Überwachungskapitalismus; ihm

fehlte nur noch die Behändigkeit, mit der Google seine Operationen und Absichten zu verschleiern wusste. Die drängende Frage in Facebooks Zentrale – »Wie können wir all die Facebook-Nutzer zu Geld machen?« – harrte nach wie vor einer Antwort.87 Im März 2008, nur drei Monate nach dem ersten Versuch, Googles Akkumulationslogik nachzuahmen, stellte Zuckerberg Google-Executive Sheryl Sandberg als COO ein. Die ehemalige Stabschefin von USFinanzminister Larry Summers war 2001 zu Google gestoßen und schließlich zum »Vice President for Global Sales and Operations« aufgerückt. Bei Google leitete sie die Entwicklung des Überwachungskapitalismus durch den Ausbau von AdWords und anderen Aspekten des Online-Werbegeschäfts.88 Einer der Investoren, die das Wachstum des Unternehmens während dieser Zeit beobachtet hatten, kam zu dem Schluss: »Sheryl hat AdWords geschaffen.«89 Indem sie bei Facebook anheuerte, »übertrug« die talentierte Sheryl Sandberg den Überwachungskapitalismus dorthin; sie war es, die Facebooks Wandlung vom sozialen Netzwerk zum Werberiesen vollzog. Sandberg sah, dass Facebook als soziales Netzwerk eine atemberaubende Quelle für Verhaltensüberschuss war – es gleichsam auf der größten Diamanten- und Goldmine der Welt zugleich saß. »Wir verfügen über bessere Informationen als irgendwer. Wir kennen Geschlecht, Alter, Wohnort, und das sind echte Daten im Gegensatz zu dem Zeug, das andere nur erschließen«, sagte Sandberg. Facebook lernte Nutzerprofilinformationen aufzuspüren, zusammenzukratzen, zu speichern und zu analysieren, um damit seine eigenen Targeting-Algorithmen zu fabrizieren. Und wie Google wollte auch Facebook seine Extraktionsoperationen nicht auf das beschränken, was die Leute freiwillig mit dem Unternehmen zu teilen bereit waren. Sandberg verstand, dass es durch die kunstvolle Manipulation der auf Intimität und Sharing gebauten Facebook-Kultur möglich sein würde, Verhaltensüberschuss nicht nur dazu einzusetzen, eine Nachfrage zu befriedigen, sondern diese auch zu schaffen. Für den Anfang bedeutete das, Werbekundschaft in Facebooks OnlineKultur einzuschleusen, wo sie Nutzer in ein »Gespräch« verwickeln konnten.90

Zusammenfassung: Logik und Operationen des Überwachungskapitalismus Mit Google als Vorreiter wurde der Überwachungskapitalismus rasch zum Standardmodell des Informationskapitalismus im Web, und wie wir in den kommenden Kapiteln sehen werden, zog dieses Modell nach und nach Wettbewerber aus allen Sektoren an. Diese neue Marktform erklärt den Dienst an den eigentlichen Bedürfnissen der Leute für weniger lukrativ und damit weniger wichtig als den Verkauf von Vorhersagen über ihr Verhalten. Google hat entdeckt, dass wir weniger wert sind als anderer Leute Wetten auf unser künftiges Verhalten. Diese Entdeckung hat alles verändert. Verhaltensüberschuss definiert Googles finanziellen Erfolg. 2016 kamen 89 % der Einkünfte der Muttergesellschaft Alphabet aus Googles TargetedAdvertising-Programmen.91 Das Ausmaß der Rohstoffflüsse reflektiert sich in Googles Herrschaft über das Internet. 2017 bearbeitete man durchschnittlich 40 000 Suchanfragen pro Sekunde – das macht über 3,5 Milliarden Suchen pro Tag und 1,2 Billionen Suchen im Jahr.92 Kraft seiner beispiellosen Erfindungen verdrängte Google 2014 ExxonMobil vom zweiten Platz der höchstbewerteten Unternehmen; damit war man sechzehn Jahre nach der Gründung mit einem Marktwert von 400 Milliarden Dollar das zweitteuerste Unternehmen der Welt nach Apple.93 2016 versetzte die Google-Holding Alphabet vorübergehend ihren Rivalen Apple auf den zweiten Rang und lag am 20. September 2017 mit einem Börsenwert von 649 Milliarden Dollar auf Platz 2.94 Treten wir doch kurz einen Schritt zurück und versuchen, uns einen Überblick über diesen komplexen Sachverhalt zu verschaffen, um zu verstehen, wie die Teile des Puzzles zusammengehören:

1. Die Logik Man bezeichnet Google und andere Überwachungsplattformen zuweilen als »zweiseitige« oder »mehrseitige« Märkte, aber die Mechanismen des Überwachungskapitalismus weisen auf etwas anderes.95 Google hat eine Möglichkeit entdeckt, seine nicht-marktlichen Interaktionen mit seinen

Nutzern in Rohstoffüberschuss zur Fabrikation von Produkten zu verwandeln, die auf genuine Markttransaktionen mit den tatsächlichen Kunden abzielen: den Werbetreibenden.96 Diese Übertragung von Verhaltensüberschuss von außerhalb des Markts in diesen ermöglichte es Google, Investitionen in Erträge umzuwandeln. Das Unternehmen schuf so aus dem Nichts und zu null Grenzkosten eine Aktiva-Klasse aus Rohstoffen, die aus dem nicht-marktlichen Online-Verhalten seiner User gewonnen wurden. Zunächst hatte man diese Rohstoffe einfach nur »gefunden«, sie waren ein Nebenprodukt der Websuche. Später machte man dann aggressivst Jagd auf diese Aktiva und beschaffte sie sich größtenteils durch Überwachung. Gleichzeitig schuf das Unternehmen eine neue Art von Marktplatz, um die aus diesen Rohstoffen fabrizierten proprietären »Vorhersageprodukte« zu handeln. Zusammenfassend lässt sich über diese Entwicklungen sagen, dass wir den Verhaltensüberschuss, auf den Googles Geschicke beruhen, als Überwachungsaktiva sehen können; diese Aktiva sind kritische Rohstoffe beim Streben nach Überwachungserträgen und deren Umwandlung in Überwachungskapital. Die gesamte Logik dieser Kapitalakkumulation umreißen wir am präzisesten mit dem Begriff Überwachungskapitalismus, der Fundament und Rahmen für eine auf Überwachung fußende Wirtschaftsordnung bildet: die Überwachungsökonomie. Das übergeordnete Muster hier ist eines von Unterordnung und Hierarchie, wobei die ursprünglichen Wechselbeziehungen zwischen dem Unternehmen und seinen Nutzern dem abgeleiteten Projekt untergeordnet werden, unseren Verhaltensüberschuss für die Ziele Dritter zu erfassen. Wir sind damit weder die Subjekte der Wertrealisation noch sind wir, wie man immer wieder behauptet, das von Google verkaufte »Produkt«. Wir sind vielmehr die Objekte, aus denen Google unrechtlich den Rohstoff für seine Vorhersagefabriken bezieht. Und eben diese fertigen Googles Produkte: Vorhersagen über unser Verhalten, die Google nicht an uns, sondern an seine eigentliche Kundschaft verkauft.97 Wir sind die Mittel zu anderer Leute Zweck. Wandelte der Industriekapitalismus die Rohstoffe der Natur in Wirtschaftsgüter um, beansprucht der Überwachungskapitalismus die menschliche Natur für ein neu erfundenes Wirtschaftsgut, das Marktprojekt

eines neuen Jahrhunderts. Es ist nachgerade unanständig, den damit angerichteten Schaden auf den augenfälligen Umstand zu reduzieren, dass die Nutzer kein Entgelt für den von ihnen gelieferten Rohstoff bekommen. Diese Kritik ist ein Meisterstück der Irreführung durch jene, die gern einen Preismechanismus eingeführt sähen, um die Extraktion menschlichen Verhaltens zu Fabrikations- und Verkaufszwecken zu institutionalisieren und damit zu legitimieren. Sie ignoriert den ausschlaggebenden Punkt, dass nämlich das Wesen der Ausbeutung in diesem Fall in der Umwandlung unseres Lebens in Verhaltensdaten besteht, die anderen eine bessere Kontrolle über uns an die Hand geben soll. Die wesentlichen Fragen hier drehen sich um die folgenden Tatsachen: dass unser Leben überhaupt in Verhaltensdaten umgewandelt wird; dass eine Bedingung für diese allgegenwärtige Verdatung die Unwissenheit ist; dass Entscheidungsrechte verschwinden, bevor man überhaupt weiß, dass es etwas zu entscheiden gibt; dass dieses Dahinschwinden unserer Rechte Folgen hat, die wir weder absehen noch vorhersagen können; dass es keinen Ausweg gibt, keine Stimme, keine Loyalität, sondern nur Hilflosigkeit, Resignation und psychische Abstumpfung; dass die Verschlüsselung die einzige positive Maßnahme ist, die es noch zu diskutieren gibt, wenn wir uns in kleiner Runde Gedanken machen, wie wir uns vor den Kräften verstecken können, die sich vor uns verstecken.

2. Die Produktionsmittel Googles digitaler Fabrikationsprozess ist eine kritische Komponente des Beispiellosen. Seine spezifischen Technologien und Techniken, die ich hier als »Maschinenintelligenz« zusammenfasse, sind in ständiger Entwicklung begriffen. Ihre Komplexität ist beängstigend. Schon der Begriff kann, was immer er heute bedeuten mag, in einem oder fünf Jahren eine ganz andere Bedeutung haben. So heißt es zum Beispiel, Google sei bereits seit 2003 mit der Entwicklung von »künstlicher Intelligenz« befasst und setze sie ein, aber der Begriff an sich ist ein bewegliches Ziel. Die Möglichkeiten der künstlichen Intelligenz haben sich entwickelt: von primitiven Programmen, mit denen sich Tic-Tac-Toe spielen lässt, bis hin zu Systemen, die ganze Flotten von fahrerlosen Fahrzeugen dirigieren.

Googles Fähigkeiten in Sachen Maschinenintelligenz nähren sich von Verhaltensüberschuss, und je mehr Überschuss sie konsumieren, desto akkurater werden die Vorhersageprodukte, die daraus resultieren. Kevin Kelly, Mitgründer des Magazins Wired, hat vor Jahren schon darauf hingewiesen, dass es zwar so aussehen mag, als entwickle Google seine AIFähigkeiten zur Verbesserung von Search, dass Google aber aller Wahrscheinlichkeit nach die Entwicklung von Search vorantreibe, um damit seine AI-Fähigkeiten zu trainieren.98 Das ist das Wesen des Maschinenintelligenz-Projekts. Die Intelligenz einer Maschine richtet sich danach, wie viele Daten sie frisst. In dieser wichtigen Hinsicht unterscheiden sich die neuen Produktionsmittel fundamental vom industriellen Modell, bei dem eine Spannung herrscht zwischen Quantität und Qualität. Maschinenintelligenz ist die Synthese dieser Spannung, da sie erst bei Annäherung an die Totalität ihr volles Qualitätspotenzial erreicht. Da immer mehr Unternehmen sich nach Googles Vorbild auf die Jagd nach Überwachungsprofiten machen, beschäftigt sich ein beträchtlicher Teil der weltweit arbeitenden Datenwissenschaft und sämtlicher damit verwandten Gebiete mit der Fabrikation von Vorhersageprodukten, die für den Anstieg der Klickraten zielgerichteter Werbung sorgen sollen. So haben zum Beispiel mit der Arbeit an Bing befasste Wissenschaftler von Microsoft in Peking 2017 einen Durchbruch bekanntgegeben: »Die akkurate Schätzung von Klickraten bei Werbeanzeigen hat eine entscheidende Auswirkung auf die Erträge eines Suchgeschäfts; schon eine Verbesserung der Genauigkeit von 0,1 % bei unserer Produktion würde Hunderte von Millionen Dollar an zusätzlichen Erträgen generieren«, schrieben sie. Dann führen sie eine neue Applikation fortgeschrittener neuraler Netzwerke vor, die eine einschlägige Verbesserung von 0,9 % und »beträchtliche Zugewinne bei der Klickrate im Online-Traffic« verspricht.99 Ähnlich führte ein Forscherteam von Google ein neues tiefes neurales Netzwerkmodell ein – alles zur Erfassung von »Interaktionen prädiktiver Features« und die Produktion von »Performance auf dem Stand der Technik« zur Verbesserung der Klickraten.100 Tausende von Beiträgen wie diese, die einen inkrementell, die anderen große Sprünge, ergeben zusammen ein teures, hochentwickeltes, undurchsichtiges und exklusives »Produktionsmittel« des 21. Jahrhunderts.

3. Die Produkte Maschinenintelligenz verarbeitet Verhaltensüberschuss zu Vorhersageprodukten, die prognostizieren sollen, was wir jetzt, bald und irgendwann fühlen, denken und tun. Diesen Methodiken gehörten zu Googles bestgehüteten Geheimnissen. Das Wesen dieser Produkte erklärt, wieso Google wiederholt behauptet, ja beteuert hat, keine persönlichen Daten zu verkaufen. Googles Chefetage pocht gern auf ihre Unbescholtenheit in Sachen Privatsphäre, weil sie ihren Rohstoff nicht verkauft; das Unternehmen verkauft die Vorhersagen, die zu fabrizieren es aus seinem in der Weltgeschichte einmaligen Hort von Verhaltensüberschuss allein in der Lage ist. Vorhersageprodukte reduzieren das Risiko für Werbekunden, indem sie ihnen raten, wo und wann sie ihre Wetten abschließen sollen. Qualität und Wettbewerbsfähigkeit des Produkts sind eine Funktion seiner Annäherung an die Gewissheit: je vorhersagekräftiger das Produkt, desto geringer ist das Risiko für den Käufer und desto größer der Absatz. Google hat seine Rolle als datenbasierter Wahrsager gelernt. Das Unternehmen ersetzt Intuition durch aufskalierte Wissenschaft, um unsere Geschicke profitabel zu verkaufen – das heißt seiner Kundschaft, nicht uns. Praktisch von Anfang an zielten Googles Vorhersageprodukte größtenteils auf den Verkauf zielgerichteter Werbung. Aber wie wir noch sehen werden, war Werbung nur der Beginn des Überwachungsprojekts, nicht das Ziel.

4. Der Marktplatz Vorhersageprodukte werden auf einer neuen Art von Markt verkauft, auf dem allein mit künftigem Verhalten gehandelt wird. Die Profite des Überwachungskapitalismus kommen hauptsächlich aus diesen Verhaltensterminkontrakten. Und auch wenn Werbekunden die beherrschenden Player in der ersten Phase dieses neuen Marktplatzes waren, gibt es keinen Grund, solche Märkte auf diese Kundengruppe zu beschränken. Und so wie es bei Fords neuem System eher zufällig um Autos ging, geht es bei diesen neuen Vorhersagesystemen eher zufällig um Werbung. In beiden Fällen sind die Systeme auf eine ganze Reihe anderer

Domänen übertragbar. Der bereits sichtbare Trend ist, wie wir in den kommenden Kapiteln sehen werden, dass jeder Akteur mit einem Interesse am Ankauf probabilistischer Informationen über unser Verhalten und /oder dessen Beeinflussung diese auch kaufen kann. Er braucht sich dazu nur auf den Märkten umzusehen, auf dem Verhaltensgeschicke von Individuen, Gruppen, Körperschaften und auch Gegenständen gehandelt werden (siehe Abb. 2).

Abbildung 2

Kapitel 4 Der Graben um die Burg Mit der Geburt war ihre Schule aus. Zufrieden mit frühreifer Lebenskunde befanden sie sich richtig und zuhaus. – W. H. Auden, Sonette aus China, I

Menschlicher Rohstoff Googles damaliger CEO Eric Schmidt identifizierte Hal Varians erste Studie über die Anzeigenauktionen des Unternehmens als den HeurekaMoment, in dem man die wahre Natur von Googles Geschäft erkannt habe: »Plötzlich wurde uns klar, dass wir im Auktionsgeschäft waren.«1 Larry Page schreibt man eine ganz andere und weit profundere Antwort auf die Frage »Was ist Google?« zu. Douglas Edwards erzählt von einem Meeting mit den Gründern, bei der man deren Antworten auf eben diese Fragen näher unter die Lupe nahm. Page sinnierte dort: »Falls wir eine Kategorie hätten, dann wäre das die persönliche Information … Wo man überall gewesen ist. Mitteilungen … Sensoren sind billig und werden noch billiger. Speicherplatz ist billig. Kameras sind billig. Die Menschen werden enorme Datenmengen generieren. Alles, was du je gesehen, erfahren oder wovon du je gehört hast, wird durchsuchbar werden. Dein ganzes Leben wird durchsuchbar.«2 Diese Vision ist eine perfekte Reflexion der Geschichte des Kapitalismus, die sich dadurch auszeichnet, dass er Dinge, die außerhalb der Marktsphäre angesiedelt sind, an sich reißt und auf einem Markt zur

Ware erklärt. In The Great Transformation, seiner grandiosen Geschichte der Industrialisierung am Beispiel Englands, beschrieb Karl Polanyi 1944 die Ursprünge dieses Wandlungsprozesses mittels dreier ebenso erstaunlicher wie kritischer Erfindungen, die er als »Warenfiktionen« bezeichnete. Deren erste war, dass das Leben des Menschen der Marktdynamik untergeordnet und als »Arbeitskraft« gekauft und verkauft werden könne. Die zweite bestand darin, dass Natur auf dem Markt als »Land« oder »Grundbesitz« wiedergeboren werden könne. Und drittens schließlich könne »Austausch« eine Wiedergeburt als »Geld« erfahren.3 Fast achtzig Jahre zuvor hatte Karl Marx die Privatisierung des Grundbesitzes und der natürlichen Ressourcen als eine Art eigentlichen Urknall geschildert, den er als »ursprüngliche Akkumulation« bezeichnete.4 Die Philosophin Hannah Arendt verfeinerte die Ansichten von Polanyi und Marx. Ihrer Ansicht nach war die ursprüngliche Akkumulation nicht nur eine einmalige urzeitliche Explosion, die den Kapitalismus hervorbrachte. Sie versteht sie vielmehr als wiederkehrende Phase in einem sich wiederholenden Zyklus, da im Lauf der Zeit immer mehr Aspekte der gesellschaftlichen und natürlichen Welt der Marktdynamik untergeordnet würden. Ohne eine Wiederholung des von Marx beschriebenen »Sündenfalls«, so schrieb sie, sei ein Zusammenbruch dieser Wirtschaft unvermeidlich, da die » ›ursprüngliche Akkumulation des Kapitals‹, deren einfache und von keinerlei ›eisernen Gesetzen‹ der Ökonomie selbst noch gehinderte Räuberei den Akkumulationsprozess allererst ermöglicht hatte, nicht für immer genügen würde, um den Akkumulationsmotor weiterlaufen zu lassen«.5 In unserer Zeit marktfreundlicher Ideologien und Praktiken ist dieser Zyklus so allgegenwärtig, dass uns seine Kühnheit kaum mehr auffällt, geschweige denn dass es uns einfiele, seine Ansprüche in Frage zu stellen. Was kann man heute nicht alles »kaufen«? Blut und Organe seiner Mitmenschen, die Erlaubnis zur Tötung eines artengeschützten Tieres; für Geld kann man sich sein Kind von anderen austragen, jemanden für sich Schlange stehen oder sich einen Parkplatz freihalten lassen. Die Liste wird von Tag zu Tag länger.6 Auf Hannah Arendts Einsichten aufbauend, entwickelte der Sozialtheoretiker David Harvey das Konzept einer »Akkumulation durch

Enteignung«: »Was die Akkumulation durch Enteignung tut, ist eine Reihe von Vermögenswerten … zu sehr niedrigen (und in manchen Fällen ganz ohne) Kosten freizusetzen. Das überakkumulierte Kapital kann sich solcher Vermögenswerte bemächtigen und sie unmittelbar in einen profitbringenden Nutzen verwandeln.«7 Er fügt hinzu, dass Unternehmer, die sich entschlossen hätten, »Teil des Systems« zu werden, um »die Nutzen der Kapitalakkumulation direkt anzustreben«, oft auch diejenigen seien, die diesen Enteignungsprozess in neue »verwundbare Territorien« trieben.8 Larry Page hatte begriffen, dass die menschliche Erfahrung Googles unberührter Wald sein könnte: Rohstoff, der sich ohne zusätzliche Kosten online und zu sehr geringen Kosten draußen in der realen Welt, wo »Sensoren billig« sind, extrahieren ließ. Ist sie erst einmal extrahiert, gewinnt man daraus Verhaltensdaten und generiert so den Überschuss, der die Basis für eine ganz neue Klasse marktwirtschaftlichen Austauschs bildet. Der Überwachungskapitalismus hat seinen Ursprung in diesem Akt digitaler Enteignung; ins Leben gerufen haben ihn die Ungeduld überakkumulierter Investitionen und zwei Unternehmer, die fest entschlossen waren, »Teil des Systems« zu werden. Das war der Hebel, der bei Google die Weiche in Richtung Profit stellte. Die heutigen Besitzer von Überwachungskapital haben eine vierte Warenfiktion ausgerufen, die sich aus der enteigneten Erfahrungsrealität des Menschen ableitet, dessen Körper, Gedanken und Gefühle so jungfräulich und makellos sind wie einst die üppigen Wiesen und Wälder, bevor sie der Marktdynamik zum Opfer fielen. Gemäß dieser neuen Logik wird die menschliche Erfahrung den Marktmechanismen des Überwachungskapitalismus unterworfen und als »Verhalten« wiedergeboren. Dieses Verhalten wird zu Daten, die ihren Platz in der endlosen Schlange von Daten einnehmen, mit denen man die Maschine füttert, um daraus Vorhersagen zu fabrizieren, die schließlich auf den neuen Verhaltensterminkontraktmärkten gehandelt werden. Die Kommodifizierung von Verhalten im Überwachungskapitalismus führt unsere Gesellschaft einer Zukunft entgegen, in der Marktmacht von Geheimniskrämerei, Undechiffrierbarkeit und hochspezialisiertem Wissen wie von Festungsgräben geschützt sein wird. Und selbst wenn etwas von dem aus unserem Verhalten gewonnenen Wissen als Quidproquo für die

Teilnahme an uns zurückfließt – wie im Falle der sogenannten Personalisierung –, verfolgen parallel dazu verlaufende geheime Operationen eine kommerzielle Nutzung von Überschuss, die weit über unsere Interessen hinausgeht. Und wir haben darüber keine formale Kontrolle, weil wir für dieses Marktgeschehen bedeutungslos sind. In dieser Zukunft sind wir Exilanten, von unserem eigenen Verhalten ausgeschlossen und ohne Einsicht in oder Kontrolle über das Wissen, das andere für Dritte aus dieser Enteignung ziehen. Wissen, Autorität und Macht bleiben beim Überwachungskapital, für das wir lediglich »menschlicher Rohstoff« sind. Wir sind die indigenen Völker, deren stillem Anspruch auf Selbstbestimmung die Landkarten unserer Erfahrung keine Rechnung mehr tragen. Die digitale Enteignung ist keine vereinzelte Episode, sondern die stetige Koordination von Aktion, Material und Technik – sie ist keine einzelne Welle, sie ist die Flut. Googles Führungsspitze hatte vom ersten Augenblick an verstanden, dass ihr Erfolg der ständigen und umfassenden Befestigung bedurfte, wollte sie ihre »Wiederholungssünde« vor Anfechtung und Regulierung bewahren. Man wollte sich von vornherein nicht gebunden sehen, weder durch eine verantwortungsvolle Unternehmensführung noch durch demokratisches Recht. Gerade die Demokratie würde man sich vom Leib halten müssen, um seine Freiheit zu behaupten und aus ihr Kapital zu schlagen. »Wie konnten sie damit durchkommen?« Das ist eine wichtige Frage, auf die wir hier immer wieder zurückkommen werden. Ein Antwortmuster hängt ab vom Verständnis der Lebensbedingungen, die die Nachfrage nach den Dienstleistungen des Überwachungskapitalismus schaffen und aufrechterhalten. Umrissen haben wir dieses Thema bereits bei der Behandlung der »Kollision« in Kapitel Eins. Ein zweiter Satz Antworten hängt ab von einem klaren Verständnis der Grundmechanismen und Bewegungsgesetze des Überwachungskapitalismus. Wir haben bereits mit dieser Untersuchung begonnen, und sie wird sich noch durch den ganzen Teil II hindurchziehen. Eine dritte Antwort setzt ein Verständnis der politischen und kulturellen Umstände und Strategien voraus, die den Ansprüchen des fortgeschrittenen Überwachungskapitalismus Vorschub leisteten und sie vor Anfechtungen bewahrten. Diesem dritten Bereich werden wir uns in den folgenden

Abschnitten widmen. Keines der genannten Elemente hätte das allein schaffen können. Allerdings kamen politische Umstände und proaktive Strategien zusammen, um das Biotop anzureichern, in dem diese Mutation Wurzeln fassen und gedeihen konnte. Dazu gehören unter anderem 1) das unbeirrbare Streben der Google-Gründer nach »Freiheit« und deren Verteidigung durch unternehmerische Kontrolle und das Bestehen auf ihr Recht auf einen rechtsfreien Raum; 2) der Schutz durch gewisse historische Gegebenheiten wie etwa die politische und rechtliche Ausrichtung des neoliberalen Paradigmas im Verein mit dem dringlichen Interesse des Staats an den Möglichkeiten von Verhaltensüberschussanalysen und Vorhersagen im Gefolge der Terroranschläge vom 11. September 2001; und 3) der bewusste Bau von Befestigungen in Politik und Kultur zur Verteidigung ihres Reiches und zum Schutz vor einem allzu genauen Blick hinter die Kulissen seiner Praktiken.

Die Cry-Freedom-Strategie Eine Methode der Google-Gründer, ihre Freiheit zu institutionalisieren, bestand in der ungewöhnlichen Strukturierung ihrer Corporate Governance, die ihnen die absolute Kontrolle über das Unternehmen gab. Page und Brin führten dazu im Rahmen von Googles Börsengang 2004 als Erste im Technologiesektor ein Zweiklassen-Anteilssystem ein. Die beiden sollten die Super-Class-»B«-Aktien mit je zehn Stimmen bekommen, im Gegensatz zu den Class-»A«-Papieren mit jeweils nur einer Stimme. Das Arrangement garantierte Page und Brin die Immunität gegen Druck sowohl seitens des Markts als auch der Investoren. Page schrieb dazu anlässlich des Börsengangs im »Founders’ Letter«: »Im Rahmen unserer Umwandlung in ein öffentlich gehandeltes Unternehmen haben wir eine Unternehmensstruktur eingerichtet, die Dritten eine Übernahme von oder den Einfluss auf Google erschwert …Wesentliche Auswirkung dieser Struktur ist die hohe Wahrscheinlichkeit, dass unser Team, insbesondere Sergey und ich, eine wachsende Kontrolle über Entscheidungen und Geschicke des Unternehmens haben, wenn Google-Aktien die Hände wechseln.«9

In Ermangelung der üblichen Kontrollmechanismen bat man die Öffentlichkeit, den Gründern doch einfach zu »vertrauen«. Schmidt sollte immer wieder auf dieses Leitmotiv zurückkommen, wenn man ihn auf das Thema ansprach. So sah er sich zum Beispiel im Dezember 2014 nach der Möglichkeit eines Machtmissbrauchs bei Google gefragt. Er sagte seinem Publikum darauf einfach die Fortsetzung der dynastischen Linie des Unternehmens zu. Page hatte Schmidt 2011 als CEO abgelöst, und die damalige Führungsriege würde für handverlesene Nachfolger sorgen: »Wir sind mit Larry gut bedient … derselbe Zirkus, dieselben Clowns … Wir sind dieselben Leute … alle, die Google mit aufgebaut haben, wir ziehen am selben Strang, und ich bin sicher, unsere Nachfolger werden am selben Strang ziehen.«10 In dem Jahr verfügten Page und Brin über eine Stimmenmehrheit von 56  %, die sie dazu einsetzten, ein Drei-Klassen-System zu implementieren, in dem sie C-Aktien ohne Stimmrecht ausgaben.11 Bloomberg Businessweek schrieb dazu: »Die zahnlosen C-Aktien sichern Page und Brin auch künftig die Kontrolle.«12 2017 schließlich kontrollierten sie 83 % der B-Aktien mit dem zehnfachen Stimmrecht, was sich in einer Stimmenmehrheit von 51 % niederschlug.13 So manch anderer Gründer im Silicon Valley machte es Google nach. 2015 traten 15 % aller Firmen bei ihren Börsengängen mit einem ZweiKlassen-System an im Vergleich zu gerade mal 1 % 2005; bei mehr als der Hälfte dieser Börsenneulinge handelte es sich um Hightech-Unternehmen.14 Vor allem aber trat auch Facebook 2012 mit diesem Zwei-Klassen-System an, das dem Gründer Mark Zuckerberg die Stimmenmehrheit sicherte. 2016 gab dann Facebook auch C-Aktien ohne Stimmrecht aus, was Zuckerbergs persönliche Entscheidungsgewalt zementierte.15 Während man unter Finanzwissenschaftlern und Anlegern über die Auswirkungen diese Aktienstrukturen debattierte,16 ermöglichte die absolute Kontrolle über ihre Unternehmen den Gründern von Google und Facebook eine dynamische Zukaufspolitik, die in zwei kritischen Bereichen ein Wettrüsten lostrat. Modernste Fertigung ist ohne Maschinenintelligenz nicht mehr denkbar, was erst Google und später Facebook dazu zwang, Firmen und Fachkräfte aus einschlägigen Disziplinen anzuwerben und kaufen: Gesichtserkennung, »Deep Learning«, Augmented Reality und

dergleichen mehr.17Aber Maschinen sind eben nur so intelligent wie es ihnen die Menge an zugeführter Nahrung erlaubt. Also wetteiferten Google und Facebook um das größte Netz bei der Jagd nach den Schwärmen von Verhaltensüberschuss in allen Winkeln der rechnergestützten Welt. Zu dem Zweck bezahlten die Gründer überdimensionale Prämien für die Chance, durch Aufkäufe einer ständig wachsenden Zahl exklusiver Nachschubrouten Verhaltensüberschuss zu beziehen. So bezahlte Google nur zwei Jahre nach seinem Börsengang 1,65 Milliarden Dollar für ein gerade mal anderthalb Jahre altes Start-up, das bis dahin keinen Cent verdient hatte und bis über beide Ohren in Urheberrechtsklagen steckte. Während viele den Ankauf von YouTube als »verrückt« bezeichneten und das Unternehmen dafür kritisierten, ging Schmidt in die Offensive. Er gab offen zu, dass Google eine Milliarde für die Video-Sharing-Site bezahlt hatte, auch wenn er sich hinsichtlich der Gründe eher bedeckt hielt. 2009 schließlich kam ein gewitzter Medienanalyst von Forrest Research dem Geheimnis auf die Spur: »Das Unternehmen nimmt faktisch den Wert der zusätzlichen Ausgaben an, da Google seine geballte Werbeerfahrung nebst Suchmaschinen-Traffic in YouTube einbinden kann … das garantiert, dass die Millionen und Abermillionen von Besuchern auf eine Site kommen, die Google gehört anstatt einem anderen … Wie das Lockvogelangebote so an sich haben, braucht die Site ihren Einsatz nicht einmal einzuspielen, sie ist dennoch ihr Geld wert.«18 Zuckerberg verfolgte bei Facebook ähnliche Strategien und zahlte »astronomische« Preise für eine »rasante« Parade fast durch die Bank unprofitabler Start-ups wie die Augmented-Reality-Firma Oculus (2 Milliarden Dollar) und die Messaging-Applikation WhatsApp (19 Milliarden Dollar), womit man sich die gigantischen Ströme menschlichen Verhaltens sicherte, die durch diese Pipelines fließen würden. Ganz im Sinne des Extraktionsimperativs sagte Zuckerberg den Investoren, er habe nicht die Absicht, an Erträge auch nur zu denken, bevor der Dienst nicht »Milliarden« von Usern erreichte.19 »Zuckerberg braucht eigentlich gar nicht mit dem Board zu reden«, meinte dazu ein Tech-Journalist, »die Aktionäre haben sowieso keine Chance, Zuckerbergs Mätzchen zu kontrollieren.«20

Es lohnt hier den Hinweis darauf, dass ein Verständnis dieser Akkumulationslogik den Überlegungen der EU-Kommission bezüglich Facebooks Ankauf von WhatsApp gut getan hätte; immerhin basierte dessen Genehmigung auf der Zusicherung, dass die Datenflüsse der beiden Unternehmen getrennt bleiben würden. Die Kommission sollte erst später dahinterkommen, dass der Extraktionsimperativ und die durch ihn bedingten Größenvorteile bei den Versorgungsoperationen die Integration von Überschussflüssen erzwingen – Ziel ist schließlich die Verbesserung des Vorhersageprodukts.21 Googles Gründer konstruierten eine Unternehmensform, die ihnen in der Marktsphäre die absolute Kontrolle garantierte, und dieselbe Freiheit strebten sie auch in der öffentlichen Sphäre an. Ein Schlüsselelement von Googles Freiheitsstrategie war die Fähigkeit des Unternehmens, rechtsfreie gesellschaftliche Räume zu erkennen, aufzubauen und seinen Anspruch darauf anzumelden. Der Cyberspace spielt eine entsprechend wichtige Rolle in diesem Drama. Eric Schmidt und Jared Cohen feiern ihn gleich auf der ersten Seite ihres Buches über das digitale Zeitalter: »Die Onlinewelt … wird kaum durch Gesetze beschränkt«, das Internet sei »der größte unregulierte Raum der Welt«.22 Sie feiern ihren Anspruch auf operative Räume jenseits der Reichweite politischer Institutionen – sie sind im 21. Jahrhundert das Gegenstück zu den »dunklen Kontinenten«, die im 19. Jahrhundert die britischen Spekulanten an ihre Küsten lockten. Hannah Arendts Untersuchung über den Export überakkumulierten britischen Kapitals nach Asien und Afrika Mitte des 19. Jahrhunderts hilft uns bei der Entwicklung dieser Analogie: »In unzivilisierten und rückständigen Ländern, wo es weder Industrien noch politische Organisationen gab und wo daher die schiere Gewalt ohnehin alle Fragen des täglichen Lebens entschied, haben die sogenannten Gesetze des Kapitalismus sich wirklich realisiert. …Erst wo das Produktionsgesetz der Wirtschaft außer Kraft gesetzt war, konnte der Wunschtraum der Bourgeoisie, Geld möge von sich aus Geld erzeugen, in Erfüllung gehen.«23 Diese Gesetzlosigkeit war ein kritischer Erfolgsfaktor in der kurzen Geschichte des Überwachungskapitalismus. Schmidt, Brin und Page haben ihr Recht auf die Freiheit vom Gesetz leidenschaftlich verteidigt, und das selbst noch als Google zum womöglich mächtigsten Unternehmen der Welt

heranwuchs.24 Bezeichnend für ihre Anstrengungen sind einige ständig wiederkehrende Themen: dass Technologieunternehmen wie Google sich schneller entwickelten als die Fähigkeit des Staats, ihnen zu folgen oder sie zu verstehen; dass jeder Eingriffs- oder Regulierungsversuch damit entweder von vornherein schlecht durchdacht oder schlichtweg dumm sei; dass Regulierung immer eine negative Kraft sei, die Innovation und Fortschritt behindere; und schließlich dass Gesetzlosigkeit stets der notwendige Kontext für »technologische Innovation« sei. Schmidt, Page und Brin bekennen sich hierzu recht freimütig. 2010 bestand Schmidt in einem Interview mit dem Wall Street Journal darauf, dass bei Google seiner starken Anreize wegen, »die User ordentlich zu behandeln«, keine Regulierung vonnöten sei.25 2011 spielte Schmidt einer Reporterin der Washington Post gegenüber auf die antidemokratische Formel des ehemaligen Intel-CEO Andy Grove an, als er meinte, Groves Idee »ist mir durchaus recht«. Google sei fest entschlossen, sich vor dem Schneckentempo demokratischer Institutionen zu schützen: Andy Grove hat da eine Formel … »Bei Hightech geht alles dreimal schneller als bei normalen Geschäften. Und beim Staat geht alles dreimal langsamer als normale Geschäfte. Das macht eine Lücke von neunmal … Man sorgt also am besten dafür, dass einem der Staat nicht in die Quere kommt und einen ausbremst.«26 Business Insider berichtete über Schmidts Bemerkungen auf dem Mobile World Congress im selben Jahr. »Nach seiner Meinung zu staatlicher Regulierung gefragt«, habe Schmidt gesagt, »dass Technologie so schnell sei, dass der Staat erst gar nicht versuchen sollte, sie zu regulieren, weil sich einfach alles zu schnell ändere und die Technologie ohnehin jedes Problem lösen würde. ›Wir sind schneller als jeder Staat‹, sagte Schmidt.«27 Noch offener zeigen Brin und Page ihre Verachtung für Recht und Regulierung. Letzterer überraschte 2013 eine Versammlung von Entwicklern, als er sich auf eine Frage aus dem Publikum hin über die »Negativität« äußerte, die die Freiheit des Unternehmens einschränke, »wirklich tolle Sachen zu bauen« und zusammen mit anderen Unternehmen »dialogfähige« Technologien zu schaffen. »Alte Institutionen wie das Recht und dergleichen halten einfach nicht Schritt mit dem Tempo der

Veränderungen, für das wir mit der Technologie gesorgt haben … Als wir an die Börse gingen, waren die Gesetze fünfzig Jahre alt. Ein Gesetz, das fünfzig Jahre alt ist, ich meine, aus der Zeit vor dem Internet, das kann ja nicht mehr zutreffen.« Auf die Frage, wie man diese »Negativität« seiner Ansicht nach begrenzen und eine »positive Einstellung« fördern könne, meinte Page: »Vielleicht sollten wir einen kleinen Teil der Welt abstecken … als Technologen sollten wir einen geschützten Platz haben, an dem wir Neues ausprobieren und seine Wirkung auf die Gesellschaft, auf die Leute herausfinden können, ohne damit sozusagen in die normale Welt zu gehen.«28 Es ist wichtig, sich darüber im Klaren zu sein, dass es die Logik ihrer eigenen Schöpfung ist, die die Überwachungskapitalisten in die Gesetzlosigkeit zwingt. So setzten Google wie Facebook sich nachdrücklich dafür ein, den Schutz der Privatsphäre im Web abzuschaffen, die Regulierung zurückzufahren, Gesetze zur Förderung der Privatsphäre zu verwässern oder gleich zu blockieren und jeden Versuch, ihre Praktiken einzuschränken, im Keim zu ersticken, weil derlei Gesetze existenzielle Bedrohungen für den reibungslosen Fluss von Verhaltensüberschuss sind.29 Das Beutetier, dem Verhaltensüberschuss extrahiert werden soll, muss sowohl ungeschützt sein als auch kostenlos verfügbar, wenn diese Logik der Akkumulation greifen soll. Allerdings sind diese Bedingungen auch eine Achillesferse. Im Augenblick ist Googles Gesetz allein der Programmcode, aber das Risiko neuer Gesetze in seinen erobert geglaubten Territorien ist und bleibt eine beständige Gefahr für den Überwachungskapitalismus. Sollten neue Gesetze seine Extraktionsoperation für rechtswidrig erklären, würde das Überwachungsmodell implodieren. Diese Marktform muss sich entweder für den ewigen Konflikt mit dem demokratischen Prozess rüsten oder neue Wege finden, die Demokratie zu unterwandern, zu verführen und seinen Zielen gefügig zu machen, will sie weiter ihrer inneren Logik folgen. Will der Überwachungskapitalismus erfolgreich überleben, muss er, mit allen verfügbaren Mitteln, eine kollektive Übereinkunft in die Wege leiten und dabei gleichzeitig die Gesetze ignorieren, anfechten, umformen oder sonst wie unschädlich machen, die dem kostenlosen Verhaltensüberschuss ein Ende zu machen drohen.

Diese Ansprüche auf rechtsfreien Raum ähneln in bemerkenswerter Weise denen der robber barons eines früheren Jahrhunderts. Wie die Leute bei Google beanspruchten diese Titanen Ende des 19. Jahrhunderts verwundbare Territorien in ganz eigenem selbstsüchtigem Interesse, indem sie dessen Rechtmäßigkeit erklärten und ihren neuen Kapitalismus um jeden Preis gegen die Ansprüche der Demokratie verteidigten. Wir hatten das also schon einmal, oder wenigstens in den USA. Der Historiker David Nasaw schildert die systematische Gesetzlosigkeit dieser »Raubritter«, für die Herbert Spencers Sozialdarwinismus30 dieselbe Rolle spielte, die Hayek, Jensen, ja selbst Ayn Rand heute für ihre digitalen Nachfahren einnehmen. So wie die Industriellen des Goldenen Zeitalters Spencers ebenso bestechenden wie pseudowissenschaftlichen Slogan vom »Überleben der Tüchtigsten« als Beweis für einen göttlichen Plan im Munde führten, den Reichtum in den Händen der aggressivsten Wettbewerber zu konzentrieren, so entschuldigen die heutigen Überwachungskapitalisten die beispiellose Konzentration von Informationen und Reichtum als unvermeidliches Resultat von »Netzwerkeffekten« und Märkten, in denen alles dem Sieger zusteht.31 Wie die heutigen Überwachungskapitalisten standen die Millionäre des Goldenen Zeitalters vor einem Bruch, einer Veränderung der Produktionsmittel ungeheuren Ausmaßes. Sie sahen sich vor einem scheinbar leeren Territorium, in dem es einen neuen Industriekapitalismus zu erfinden galt, der frei von jeglichen Zwängen sein sollte – sei es hinsichtlich des Einsatzes von Arbeitskraft, sei es hinsichtlich der Arbeitsbedingungen, des Ausmaßes an Schäden für die Umwelt, der Gewinnung von Rohmaterial, ja selbst der Qualität ihrer Produkte. Und wie ihre Pendants im 21. Jahrhundert zögerten sie nicht einen Augenblick, sich eben der Gesetze zu bedienen, die sie verachteten, indem sie unter dem Banner von »Privateigentum« und »Vertragsfreiheit« marschierten. Die heutigen Überwachungskapitalisten machen es ihnen nach, indem sie zur Rechtfertigung eines ungehinderten technologischen Fortschritts die Flagge der Redefreiheit hissen – ein Thema, auf das wir noch zurückkommen werden. Erfüllt von der Überzeugung, der Staat habe »weder Recht noch Grund für eine Einmischung in die Mechanismen der Wirtschaft«, taten die

Millionäre des Goldenen Zeitalters sich zusammen, um die »Rechte des Kapitals« zu verteidigen und den gewählten Volksvertretern Grenzen zu setzen, was die Entwicklung von Leitlinien und Gesetzen anging. Es brauche keine Gesetze, so argumentierten sie, schließlich habe man doch bereits das »Gesetz der Evolution«, die »Gesetze des Kapitals« und die »Gesetze der Industriegesellschaft«. John D. Rockefeller beharrte darauf, sein überdimensionales Ölvermögen sei das Resultat der »natürlichen Gesetze der Entwicklung des Handels«. Bei seiner Aussage vor dem Kongress antwortete der betrügerische Finanzier Jay Gould auf die Frage nach der Notwendigkeit einer bundesweiten Regulierung der Frachtkosten im Schienenverkehr, die Kosten würden bereits durch »die Gesetze von Angebot und Nachfrage, Produktion und Konsumption« reguliert.32 1896 besiegten die Millionäre mit vereinten Kräften den populistischen Demokraten William Jennings Bryan, der mit dem Versprechen angetreten war, die Wirtschaft der Politik unterzuordnen, worunter er unter anderem die Regulierung der Eisenbahnen und den Schutz der Bevölkerung vor »Räuberei und Unterdrückung« verstand.33 Unterm Strich lag für die geschäftliche Elite des Goldenen Zeitalters der effektivste Weg, den Sündenfall jener ökonomischen Ära zu verteidigen, wie Nasaw es ausdrückt, in einer »Einschränkung der Demokratie«. Das taten sie mittels einer üppigen Finanzierung eigener politischer Kandidaten einerseits sowie durch einen raffinierten ideologischen Feldzug gegen die bloße Vorstellung, eine Demokratie könnte das Recht haben, sich in die Sphäre der Ökonomie einzumischen.34 Ihre Industrien sollten »selbstregulierend« sein und völlig ungehindert ihren eigenen Evolutionsgesetzen folgen können. »Demokratie«, so predigten sie, »hatte ihre Grenzen, die weder Wähler noch deren gewählte Vertreter zu überschreiten wagten, auf dass nicht ökonomisches Unheil über die Nation hereinbrach.«35 Bei unserer Diskussion der »Festungsanlagen« weiter unten werden wir sehen, dass Google alle diese Strategien wiederbelebt und noch weitere dazuerfunden hat. Aber zunächst wollen wir den einzigartigen Umständen auf den Grund gehen, in deren Schutz sich die Entdeckung der menschlichen Erfahrung als ebenso wohlfeile wie unerschöpfliche Ressource hegen und pflegen ließ.

Das neoliberale Erbe: schützendes Biotop Begünstigt wurde Googles Handlungsweise nicht zuletzt durch historische Umstände. Google, ja das ganze überwachungskapitalistische Projekt an sich, profitierte von zwei Entwicklungen, in deren Folge sich die Mutation zum Überwachungskapitalismus vollziehen konnte. Die erste dieser Entwicklungen ist die neoliberale Eroberung der staatlichen Aufsichts- und Regulierungsmaschinerie über die amerikanische Industrie, eben des Rahmenwerks, von dem in Kapitel 1 die Rede war.36 Eine faszinierende Studie der Juraprofessorin Jodi Short von der University of California zeigt auf, wie viel die neoliberale Ideologie zur Erklärung sowohl von Googles Ambitionen als auch seines Erfolgs bei der Verteidigung rechtsfreien Raums beiträgt.37 Short analysierte 1 400 Artikel aus juristischen Fachpublikationen zum Thema Regulierung zwischen 1980 und 2005. Beherrschendes Thema dieser Literatur war, dem Einfluss von Hayek und Friedman entsprechend, »der Zwangscharakter staatlicher Verwaltung« und die systematische Gleichsetzung von ökonomischer Regulierung mit »Tyrannei« und »Autoritarismus«. Dieser Weltsicht zufolge ist jegliche Regulierung ein Hindernis und Bürokratie grundsätzlich abzulehnen, da bei ihr der Mensch dominiert. Wie Short feststellt, waren diese Ängste in den Jahrzehnten ihrer Stichprobe sogar noch einflussreicher bei der Ausformung regulativer Ansätze als rationale Argumente bezüglich Kosten und Effizienz. Sie identifiziert zwei Quellen für diese Ängste. Die erste bestand im Widerstand der amerikanischen Geschäftswelt gegen die Reformen des New Deal. Nicht unähnlich der Millionäre des Goldenen Zeitalters sah sie im Widerstand gegen die Regulierung einen »gerechten Kampf zur Verteidigung der Demokratie gegen die Diktatur«.38 Eine zweite Quelle war die Furcht vor Totalitarismus und Kollektivismus, wie sie durch den Zweiten Weltkrieg und den folgenden Kalten Krieg geschürt und von Hayek theoretisch artikuliert wurde. Diese Verteidigungsthematik sorgte in Amerika nicht nur für einen Wandel im politischen Denken, sondern veränderte auch die Einstellung von Entscheidungsträgern gegenüber der regulativen Rolle des Staats.39

Short fand in der Literatur mehrere Vorschläge für Abhilfen gegen die mit »Zwang« verbundene staatliche Regulierung. Deren hervorstechendste war die »Selbstregulierung«, vor allem nach 1996, den Jahren, in denen Digitaltechnologie und Internet ihren Weg in den Mainstream fanden. Der Gedanke dahinter ist, dass Unternehmen ihre eigenen Standards setzen, die Erfüllung dieser Standards selbst überwachen, ja sogar ihr eigenes Verhalten beurteilen und im Falle von Verstößen diese »freiwillig melden und für Abhilfe sorgen«.40 Zum Zeitpunkt von Googles Börseneinführung 2004 war die Selbstregulierung sowohl beim Staat als auch in der Geschäftswelt fest verankert – sie galt als das effektivste Werkzeug für eine Regulierung ohne Zwang und als das Gegenmittel für jedwede Neigung zu Kollektivismus und Zentralisierung von Macht.41 Das neoliberale Erbe war ein unerwarteter Glücksfall für die neuen Überwachungskapitalisten. Nach Ansicht des Rechtswissenschaftlers Frank Pasquale schuf es ein Modell, das Privatsphäre als marktfähige Ware behandelte in der Annahme, dass der »Verbraucher« nur Dienstleistungen in Anspruch nähme, die ihm das Maß an Privatsphäre böten, nach dem ihm sei. Jede regulierende Einmischung würde dieser Ansicht zufolge nur die Vielfalt des Wettbewerbs untergraben. Darüber hinaus gelten dieser Denkweise der Click-Wrap-Vertrag und seine »sadistischen« Verwandten als ausreichende Signale, nach welchem Maß an Privatsphäre dem Einzelnen ist.42 Der neoliberale Zeitgeist spielte außerdem Googles Führung und später ihren überwachungskapitalistischen Gesinnungsgenossen in die Hände, als sich diese zum Schutz ihrer Erfindungen auf die im Ersten Verfassungszusatz garantierte freie Meinungsäußerung beriefen. Es ist dies ein umstrittenes Gebiet, in dem Verfassungsgesetz und politische Ideologie nicht zu trennen sind, und ich möchte hier nur auf einige wenige Elemente hinweisen, um für ein besseres Verständnis des Biotops zu sorgen, das die neue Überwachungsmarktform genährt hat.43 Die wesentliche Dynamik ist hier, dass die Rechtswissenschaft hinsichtlich des Ersten Verfassungszusatzes, vor allem in den letzten beiden Jahrzehnten, eine »konservativ-libertäre« Interpretation der in ihm garantierten Rechte reflektiert. »In den letzten Jahrzehnten«, so der Verfassungsrechtler Steven Heyman, »wurde der Erste Verfassungszusatz

zu einem der wichtigsten Mittel, mit dem Richter die konservativ-libertäre Agenda zu fördern versuchen.«44 Dies führte zu vielen dramatischen Gerichtsentscheiden etwa des Obersten Gerichtshofs: der Ablehnung jedweder Einschränkungen von Wahlkampfspenden, der Ablehnung jedweder Einschränkung von Hassreden und Pornografie sowie seine Entscheidung, der Vereins- und Versammlungsfreiheit Vorrang über staatliche Bürgerrechte gegen Diskriminierung einzuräumen. Wie viele Rechtswissenschaftler bemerkt haben, sorgt die ideologische Ausrichtung der gegenwärtigen Rechtsprechung zum Ersten Verfassungszusatz für eine enge Verbindung zwischen Redefreiheit und Eigentumsrechten. Dass sie Eigentümerschaft mit einem absoluten Anspruch auf Meinungsfreiheit verbindet, hat dazu geführt, jede Handlung eines Unternehmens als »Meinungsäußerung« unter den Schutz der Verfassung zu stellen.45 Einige Rechtswissenschaftler sehen darin eine gefährliche Rückkehr zu den feudalen Doktrinen, aus denen im 17. Jahrhundert sich das Gesellschaftsrecht zu entwickeln begann. Diese mittelalterlichen Rechtsprinzipien beschränkten die Macht des Souveräns über »die Körperschaften von Aristokratie, Kirche, Gilden, Universitäten und Städten … die das Recht geltend machten, sich selbst zu regieren«.46 Ein Resultat dieser Entwicklung besteht darin, dass amerikanische Gerichte heute »rasch bei der Hand sind, die Möglichkeiten eines staatlichen Übergriffs zu erkennen, während sie weniger willens sind, die Probleme ›privater‹, geschweige denn der Unternehmensmacht zu sehen«.47 In diesem Kontext arbeiteten Überwachungskapitalisten eifrig an einer »cyberlibertären« Ideologie, die Frank Pasquale als »Fundamentalismus in Sachen Redefreiheit« bezeichnet hat. Ihre Anwaltsteams pochen aggressiv auf die Prinzipien des Ersten Verfassungszusatzes, um jede Art von Aufsicht oder externen Zwängen abzuwehren, die entweder den Inhalt ihrer Plattformen einschränken könnten oder die »algorithmische Ordnung von Informationen«, wie sie durch ihre Maschinenoperationen entstehen.48 Ein Anwalt, der mehrere führende Überwachungskapitalisten vertreten hat, drückt das folgendermaßen aus: »Anwälte, die für diese Unternehmen arbeiten, treten aus geschäftlichen Gründen für die freie Meinungsäußerung ein. Geschäftlich äußern sich diese Unternehmen genau genommen alle in der Sprache der Redefreiheit.«49

In dieser Hinsicht sind die Überwachungskapitalisten ausnahmsweise einmal nicht beispiellos. »Die ganze Geschichte Amerikas hindurch«, so erinnert uns der Chronist des Gesellschaftsrechts Adam Winkler, »machten die mächtigsten Unternehmen des Landes beharrlich mobil, um sich unter Berufung auf die Verfassung unerwünschter staatlicher Eingriffe zu erwehren.«50 Aber auch wenn die heutige Mobilisierung nichts Neues ist, zeigt Winklers Bericht akribisch die Auswirkungen vergangener Mobilisierungen auf die Verteilung von Wohlstand und Macht in der amerikanischen Gesellschaft sowie die Kraft demokratischer Werte und Prinzipien von Ära zu Ära auf. Auch wenn die mit dem Internet verbundene Erweiterung unserer Möglichkeiten zur freien Meinungsäußerung im Zeitalter des Überwachungskapitalismus in vieler Hinsicht als emanzipatorische Kraft zu werten sein mag, dürfen wir Folgendes nicht übersehen: Der heutige Fundamentalismus in Sachen Redefreiheit hat bislang jede sorgfältige Untersuchung der beispiellosen Operationen verhindert, die die neue Marktform konstituieren und für ihren spektakulären Erfolg verantwortlich sind. Man bedient sich der Verfassung zum Schutz einer ganzen Reihe neuer Praktiken, die nicht nur von ihren Zielen und Folgen her demokratiefeindlich sind, sondern im Wesentlichen sogar auf die Zerstörung eben jener vom Ersten Verfassungszusatz garantierten Werte hinauslaufen, die den Einzelnen vor Machtmissbrauch schützen sollen. In den Vereinigten Staaten trägt auch eine Reihe von Bundesgesetzen wesentlich dazu bei, den Überwachungskapitalismus vor dem prüfenden Blick zu schützen. Das bekannteste davon firmiert als Section 230 des Communications Decency Act und soll die Betreiber von Websites hinsichtlich von Nutzern generierten Content vor Zivilklagen und Strafverfolgung durch den Staat schützen. »Kein Provider oder Nutzer eines interaktiven Computerdienstes«, so lautet das Statut, »ist als Verbreiter oder Urheber von Inhalten anderer Inhaltslieferanten zu sehen.« Dieser gesetzliche Rahmen ermöglicht es einer Site wie TripAdvisor negative Hotelrezensionen zu veröffentlichen und gestattet aggressiven Trollen, sich frei auf Twitter zu bewegen, ohne dass das eine wie das andere Unternehmen dafür nach üblichen Regeln zur Rechenschaft zu ziehen wäre. Section 230 institutionalisierte das Konzept, dass Websites keine

»Verbreiter« oder »Verleger«, sondern lediglich »Vermittler« seien. »Eine Online-Plattform wegen eines obszönen Blog-Postings zu verklagen«, so ein Journalist, »wäre genauso, als würde man die New Yorker Stadtbibliothek dafür verklagen wollen, ein Exemplar von Lolita zu führen.«51 Der Freibrief, den Section 230 den Unternehmen ausstellte, ging Hand in Hand mit der herrschenden Ideologie und Praxis der »Selbstregulierung«; ab sofort konnten die Internetunternehmen – und später dann auch die Überwachungskapitalisten – nach Belieben schalten und walten. Das 1995, also in der Anfangsphase öffentlichen Zugangs zum Internet, formulierte Gesetz zielte darauf ab, die Haftbarkeit einer Website für von ihr veröffentlichte Inhalte durch die Auflösung der Widersprüche zwischen zwei früheren Gerichtsurteilen zu verleumderischen Inhalten zu klären.52 1991 hatte ein Gericht entschieden, CompuServe sei nicht wegen Diffamierung zu belangen, nur weil das Unternehmen ein Posting nicht auf rufschädigende Inhalte geprüft hatte, da, wie es in der Urteilsbegründung hieß, CompuServe mit einer öffentlichen Bibliothek, einer Buchhandlung oder einem Zeitungskiosk vergleichbar sei. Vier Jahre später traf ein New Yorker Gericht eine gegenteilige Entscheidung im Falle von Prodigy, einem der ersten Webdienstleister überhaupt. Mit der Moderation seiner MessageBoards, so das Gericht, habe Prodigy die Rolle des Zensors übernommen, wodurch das Unternehmen nicht nur Verbreiter, sondern auch Herausgeber sei. Womit Internetunternehmen sich in einer paradoxen Zwickmühle sahen, waren sie damit doch praktisch in dem Maße haftbar, in dem sie schädigende Inhalte von ihrer Website fernzuhalten versuchten.53 Section 230 sollte diesen Widerspruch auflösen, indem sie Internetunternehmen ermutigte, »in gutem Glauben« eine gewisse Kontrolle über Inhalte auszuüben, ohne deswegen gleich haftbar zu sein. Zwar gewährt das Statut nach wie vor eine in der Sache sinnvolle Rechtssicherheit, doch hat der Aufstieg des Überwachungskapitalismus zu einer fundamentalen Änderung seiner Folgen geführt. Ist ein »Vermittler« nämlich gleichzeitig auch ein Überwachungskapitalist, postet er eben nicht mehr nur anderer Leute Inhalte. Vielmehr sind diese Inhalte zugleich auch der Rohstoff für die fortwährende Anhäufung von Verhaltensüberschuss. Ein Überwachungskapitalist ist eben nicht mit einer Stadtbibliothek in ihrer

Rolle als neutrale Hüterin literarischer Klassiker vergleichbar. Weit gefehlt. Das arglose Buch im Regal – nebst den Aufzeichnungen über alle, die es je ausgeliehen haben und wann, deren Wohnort, Verhalten, Netzwerke etc. – ist jetzt die Goldgrube, deren Ausbeute, in Verhaltensdaten umgerechnet, an Maschinen zur Fabrikation eines Produkts verfüttert wird, das Milliarden einbringt. Der Schutz, unter den die Section 230 die »Vermittler« stellte, fungiert damit jetzt als weiteres Bollwerk, das die überwachungskapitalistischen Extraktionsoperationen vor der kritischen Inaugenscheinnahme schützt. Das erklärt denn auch, warum die »Anwälte von Tech-Unternehmen gar so verbissen prozessieren, um auch nur den Ansatz einer Erosion zu verhindern«, was Section 230 angeht.54 Ein Statut, das ursprünglich zum Schutz eines wichtigen neuen technologischen Milieus geschaffen wurde, schützt jetzt die Asymmetrien an Wohlstand, Wissen und Macht eines außer Rand und Band geratenen Kapitalismus.

Unter dem Schutz des überwachungstechnischen Ausnahmezustands In seinem Buch Surveillance After September 11 schildert der Überwachungswissenschaftler David Lyon die Intensivierung der Überwachungspraktiken nach den Anschlägen von 2001, im Rahmen derer man zuvor bestehende Beschränkungen aufhob: »Nachdem jahrzehntelang Datenschutzbeauftragte, Bürgerrechtsgruppen und andere die negativen gesellschaftlichen Auswirkungen der Überwachung so gering wie möglich zu halten versuchten, erleben wir eine Verschiebung hin zu zunehmend ausgrenzenden und invasiven Überwachungspraktiken.«55 Auch diese abrupte Neuausrichtung der Interessen von Politik und staatlicher Macht nach 9 /11 gewährte der aufkeimenden Marktform Schutz. Lyons Beschreibung ist höchst akkurat.56 In den Jahren vor 9 /11 entwickelte sich die Bundeshandelskommission (FTC) zum wesentlichen Akteur bei der Debatte um Privatsphäre und Datenschutz im Internet. Aus Gründen, auf die wir bereits eingegangen sind, sprach die FTC sich für eine Selbstregulierung aus; sie war es, die Internetunternehmen zur Erarbeitung von Verhaltensregeln, Leitlinien zum Datenschutz und

Vollzugsmechanismen anhielt.57 Aber auch die FTC kam schließlich zu dem Schluss, dass eine Selbstregulierung nicht ausreichen würde, um die Privatsphäre des einzelnen Verbrauchers im Web zu schützen. 2000, also noch ein Jahr vor 9/11, Googles Entdeckung des Verhaltensüberschusses oder dem Erfolg von AdWords, gab die FTC einen Bericht heraus, der gesetzlichen Handlungsbedarf zur Regulierung der Privatsphäre im Web anmeldete: »Da Initiativen zur Selbstregulierung weit hinter einer breiten Umsetzung von selbstregulierenden Programmen zurückbleiben«, so schrieb man, »ist die Kommission zu dem Schluss gekommen, dass Bemühungen dieser Art nicht garantieren können, dass der OnlineMarktplatz in seiner Gänze den von den Branchenführern übernommenen Standards folgt … unbeschadet brancheninterner und staatlicher Bemühungen in den letzten Jahren.« Wie in dem Bericht zu lesen, hatten gerade mal 8 % aller populären Websites das Gütesiegel eines der von der Branche eingerichteten Datenwächter.58 Die FTC umriss anschließend ein Bundesgesetz, das die Verbraucher online geschützt hätte – und das trotz der vorherrschenden Abneigung gegen jedwede Regulierung zugunsten der Tendenz, Internetoperationen als freie Meinungsäußerungen zu behandeln. Ihre Empfehlungen verlangten »klare und deutlich sichtbare« Hinweise auf die jeweiligen Praktiken im Umgang mit Informationen, die Selbstbestimmung des Verbrauchers darüber, was mit persönlichen Informationen passiert, den Zugang zu allen persönlichen Informationen und damit verbunden das Recht, diese zu korrigieren oder zu löschen, sowie einen verstärkten Schutz persönlicher Informationen vor dem Zugriff Dritter.59 Es ist durchaus denkbar, dass, hätte man diese Vorschläge gesetzlich verankert, viele der grundlegenden Elemente des Überwachungskapitalismus entweder eindeutig illegal oder wenigstens der öffentlichen Einsicht und damit einer Anfechtung zugänglich gewesen wären. Die Bemühungen der FTC waren von kurzer Dauer. Peter Swire, von Clinton 1999 zum ersten Datenschutzbeauftragten der US-Regierung ernannt und später Mitglied von Obamas Expertengruppe für Nachrichtendienste und Kommunikationstechnologie, sagte dazu: »Mit den Anschlägen vom 11. September hat sich alles geändert. Es ging ab sofort mehr um die Sicherheit als um die Privatsphäre.«60 Die eben noch

diskutierten Datenschutzbestimmungen waren mehr oder weniger über Nacht vom Tisch. Sowohl in den USA als auch in der Europäischen Union sorgte man rasch für Gesetze, die ausgedehnte Überwachungsaktivitäten erlaubten. Der amerikanische Kongress verabschiedete den Patriot Act, schuf das Terrorist Screening Program und richtete eine ganze Reihe weiterer Maßnahmen ein, die die unbegründete Erfassung persönlicher Informationen drastisch ausweiteten. Die Ereignisse vom 11. September dienten zum Anlass für immer neue Gesetze, die auch die Befugnisse von Nachrichtendiensten und Strafverfolgungsbehörden in Europa erheblich erweiterten – selbst in Deutschland, wo man für Überwachungsmaßnahmen besonders sensibilisiert ist.61 In den USA sorgte der fehlende »Überblick« der Behörden im Falle der Anschläge von 2001 nicht nur für allgemeines Entsetzen, man empfand ihn auch als Schmach, die alle anderen Bedenken überwog. Je mehr sich die Behörden gedrängt sahen, um einer effektiven Recherche und Analyse willen Schranken zu beseitigen und Datenbanken zu fusionieren, desto mehr verschoben sich die Verfahrensrichtlinien von »need to know« nach »need to share«.62 Kritisches Ziel war dabei das Internet. CIA-Direktor Michael Hayden räumte das 2013 ein, als er bei einem Vortrag erklärte, man könne der CIA in den Jahren nach 9 / 11 »durchaus zu Recht die Militarisierung des World Wide Web vorwerfen«.63 Die einschlägige Gesetzgebung blieb als unmittelbare Folge davon auf der Strecke. »Der Kongress verlor das Interesse daran, die Verwendung von Daten auf dem privaten Sektor zu regulieren … Ohne die Gefahr einschlägiger Gesetze verpuffte bei vielen privaten Bemühungen um eine Selbstregulierung die Energie.«64 Bei der Bundeshandelskommission verlagerte sich der Fokus weg von den breiteren Belangen des Datenschutzes hin zu einer politisch akzeptableren »schadensbasierten« Strategie. Man konzentrierte sich mit anderen Worten auf Fälle, in denen körperliche oder wirtschaftliche Schäden zu definieren waren, wie etwa bei Identitätsdiebstahl oder der Sicherheit von Datenbanken.65 Nachdem die Vorlagen vom Tisch waren, bestimmten andere Kräfte das politische Umfeld, in dem der Überwachungskapitalismus Wurzeln fassen und gedeihen sollte. Die Terroranschläge von 9 / 11 sorgten in der Welt der Nachrichtendienste für einen Nachfrageschub, in dem exponentielles

Wachstum Trumpf war. Bei aller Geheimniskrämerei unterlag selbst die NSA den zeitlichen Gegebenheiten und Beschränkungen der Demokratie. Die Mühlen der Demokratie mahlen von Natur aus langsam; Redundanzen, Gewaltenteilung, Gesetze und Regeln wirken sich auf das Tempo auf. Die Nachrichtendienste suchten nach Entfaltungsmöglichkeiten, mit denen rechtliche und bürokratische Beschränkungen so rasch wie möglich zu umgehen waren. In diesem traumatischen und angsterfüllten Umfeld berief man sich auf einen »Ausnahmezustand«, um einen neuen Imperativ zu legitimieren: Tempo um jeden Preis. »9 / 11«, so drückt es Lyon aus, »hatte gesellschaftlich negative Folgen, die bis dahin der Stoff repressiver Regime und dystopischer Romane waren … Die Aufhebung der Normalität wird mit dem ›Krieg gegen den Terrorismus‹ gerechtfertigt.«66 Kritisch für unser Thema hier ist, dass dieser Ausnahmezustand sowohl Googles Wachstum begünstigte als auch die erfolgreiche Entwicklung seiner überwachungsbasierten Logik der Akkumulation. Googles Mission bestand darin, »die Informationen der Welt zu organisieren und nutzbar zu machen«, und Ende 2001 hatten die Nachrichtendienste weithin »Informationsdominanz« erlangt. Diese wurde rasch mit Hunderten Milliarden Dollar staatlicher Förderung einer weltweiten technologischen Infrastruktur mit Personal nebst einschlägigen Praktiken gefestigt. Die Konturen einer neuen Interdependenz von öffentlichen und privaten Akteuren der Informationsdominanz begann sich herauszubilden, die man am besten durch die Optik von etwas versteht, was Max Weber als eine aus gegenseitiger Anziehungskraft geborene »Wahlverwandtschaft« bezeichnet hat, die ihren Ursprung in gemeinsamen Bedeutungen, Interessen und gegenseitigen Beeinflussungen hat.67 Die Wahlverwandtschaft zwischen staatlichen Nachrichtendiensten und dem kaum flüggen Überwachungskapitalisten Google blühte auf unter der Hitze des nationalen Notstands und sorgte für eine historische Deformität: den Überwachungskapitalismus. Mit den Anschlägen vom 11. September änderte sich das Interesse des Staats an Google; Praktiken, die Stunden zuvor noch im üblichen Rahmen der Gesetzgebung behandelt wurden, wurden über Nacht zu missionskritischen Notwendigkeiten umdeklariert. Wie Google verlangte es den Staat nach Gewissheit; beide waren sie fest

entschlossen, dieses Verlangen in ihren jeweiligen Domänen um jeden Preis zu stillen. Zu erkennen war diese Interessenverwandtschaft bereits 2002, als der ehemalige NSA-Chef Admiral John Poindexter sein Total-InformationAwareness-Programm bekanntgab, dessen Vision sich wie ein erster Führer durch die Grundmechanismen überwachungskapitalistischer Datenerfassung und -analyse liest: Wenn terroristische Vereinigungen Anschläge gegen die Vereinigten Staaten planen und ausführen, muss es zwischen deren Angehörigen zu Transaktionen kommen, und diese werden in diesem Informationsraum Spuren hinterlassen … Wir müssen in der Lage sein, diese Signale aus dem Rauschen herauszuhören … die relevanten Informationen, die aus diesen Daten extrahiert werden, müssen in Repositorien mit aufbereiteten semantischen Inhalten der Analyse verfügbar gemacht werden, um diese Aufgabe zu erfüllen.68 Der Kongress mochte Poindexters TIA die Unterstützung verweigert haben, was jedoch nichts daran änderte, dass das Pentagon eine ganze Reihe der einzelnen Initiativen des Programms klammheimlich in sein Advanced Research and Development Activity (ARDA) übernahm; dazu kamen 199 Data-Mining-Projekte in Dutzenden von Bundesbehörden und über 120 Programme zur Erfassung und Analyse persönlicher Daten, die vor allem ein Ziel hatten: die Vorhersage individuellen Verhaltens.69 »Die CIA muss im Valley mitschwimmen«, hatte CIA-Direktor George Tenet 1997 hinsichtlich der Notwendigkeit erklärt, die neuen Technologien aus dem Silicon Valley beherrschen zu lernen.70 Um direkten Zugang zu ihnen zu haben, eröffnete die CIA dann 1999 mit In-Q-Tel ebendort ein von ihr selbst finanziertes Risikokapitalunternehmen. Die Operation war zwar als Experiment gedacht, wurde aber nach 9 / 11 zu einer kritischen Quelle neuer Fähigkeiten und Beziehungen; Silicon Valleys Mercury News zufolge kam auch ein Kontakt mit Google zustande: »Es herrscht bei der CIA eine ganz neue Dringlichkeit, Technologien zu finden, die Sinn in all die unstrukturierten Datenströme im Internet und andernorts bringen können. Für die Ausbildung von Analysten hat die Agency nicht genügend Zeit.« In-Q-Tels CEO sprach von einem »Alarmstart« der Behörden und sagte: »Bei uns herrscht eine fieberhafte Aktivität.«71

Im Verein mit den gemeinsamen Interessen zwischen Staat und Privatwirtschaft schuf diese »fieberhafte Aktivität« das fruchtbare Biotop, in dem es die überwachungskapitalistische Mutation zur Reife brachte. Einem Bericht der New York Times zufolge fanden sich die Nachrichtendienste auf der Suche nach neuen Data-Mining- und Analysetechnologien mit ihrem Jahresbudget von 40 Milliarden Dollar 2006 regelmäßig zum Shopping im Silicon Valley ein.72 Angesichts der rasanten Fortschritte bei Google suchte man nach Möglichkeiten, sich dieser Fähigkeiten zu bedienen; gleichzeitig wurde Google eingespannt, um Sicherheits- und Überwachungstechnologien von erwiesenem nachrichtendienstlichem Wert weiterzuentwickeln, zu kommerzialisieren und zu verbreiten. Im Spätsommer 2003 bekam Google einen mit 2,07 Millionen Dollar dotierten Auftrag, die National Security Agency mit seiner Suchtechnologie auszustatten. Dokumenten zufolge, die die Verbraucherorganisation Consumer Watchdog im Rahmen des Freedom of Information Act zu sehen bekam, bezahlte die NSA Google für eine »Suchanwendung mit der Fähigkeit, 15 Millionen Dokumente in vierundzwanzig Sprachen zu durchsuchen«. Google verlängerte diese Dienstleistung im April 2004 kostenlos um ein Jahr.73 2003 begann Google seine Suchmaschine im Rahmen eines gesonderten Vertrags mit der CIA für dessen Intelink Management Office maßzuschneidern; Auftragsvorgabe war »die Überwachung streng geheimer, geheimer und sicherheitsempfindlicher, aber nicht geheimer interner Netzwerke für die CIA und andere nachrichtendienstliche Behörden«.74 Die großen US-Nachrichtendienste legten mithilfe von Google-Systemen ein internes Wiki mit Namen Intellipedia an, das es Nachrichtendienstlern ermöglichte, Informationen mit anderen Organisationen zu teilen, kaum dass die neuen Systeme diese aufgesaugt hatten.75 2004 erwarb Google Keyhole Inc., eine auf Satellitenkartografie spezialisierte Firma, deren Hauptfinanzier das CIA-eigene Venture-CapitalUnternehmen In-Q-Tel war. Keyhole sollte zum Fundament von Google Earth werden, und John Hanke, der Gründer der Firma, sollte schließlich die Leitung von Google Maps und dessen umstrittenen Spross Street View übernehmen. 2009 investierten Google Ventures und In-Q-Tel gemeinsam

in Recorded Future, ein Bostoner Start-up, das um der Vorhersage künftiger Ereignisse willen jeden Aspekt des Webs in Echtzeit überwacht. Wie Wired berichtete, war dies das erste Mal, dass Risikokapital der CIA und Google auf dasselbe Start-up setzten; selbstverständlich hatten danach sowohl Google als auch In-Q-Tel Sitze im Board von Recorded Future.76 Einen weiteren Ausdruck fand der überwachungstechnische Ausnahmezustand im Jahrzehnt nach 9 / 11 in den schmeichelhaften Bemühungen der NSA, mehr wie Google zu werden. So versuchten die Staatsschützer in einer Reihe von Domänen Googles Fähigkeiten nachzueifern. 2006 stellte General Keith Alexander seine Vision einer Suchmaschine namens ICREACH vor, die »es erlauben würde, beispiellose Mengen von … Metadaten über die vielen Behörden den Nachrichtendiensten hinweg verfügbar zu machen und zu analysieren«. Ende 2007 startete ein Pilot des Programms, das die Zahl verfügbarer Kommunikationsereignisse von zuvor 50 Milliarden auf 850 Milliarden anhob. Das System war als »Google-artige« Suchschnittstelle konzipiert, die es den Analysten erlaubte, Suchen mit Metadaten-»Selektoren« abzugleichen und so wichtigen Verhaltensüberschuss für die Analyse zu extrahieren. Ziel war das Ausmachen »sozialer Netzwerke«, »Lebensmuster«, »Gewohnheiten« und die »Vorhersage künftigen Verhaltens« ganz allgemein.77 2007 schrieben zwei Analysten der NSA ein internes Ausbildungshandbuch, wie Informationen im Internet zu finden seien. In diesem kam das lebhafte Interesse der Behörde an allem, was mit Google zu tun hat, zum Ausdruck. So findet sich darin ein Kapitel, in dem man nicht nur Google Search dekonstruiert, sondern auch die Google-»Hacks«, mit denen sich nicht für die öffentliche Verbreitung gedachte Informationen aufbringen lassen.78 Im selben Jahr wurde das Interesse der Nachrichtendienstler an Google gleich noch einmal hervorgehoben, als Googles Forschungsleiter, der AIExperte Peter Norvig, die Moderation des Pentagon Highlands Forums übernahm – ein exklusives Networking-Event für Militärs, Nachrichtendienstler, Leute aus der Hightech-Branche, gewählte Volksvertreter, Angehörige der akademischen Elite, Spitzenmanager und Rüstungslobbyisten. 2001 bezeichnete der Direktor des Forums Richard O’Neill die Funktion der Veranstaltung einem Publikum in Harvard

gegenüber als »Ideenmaschine, die Ideen, die aus den Meetings hervorgehen, Entscheidungsträgern und Leuten aus den Thinktanks zugänglich macht«.79 Es sollte eine Brücke sein zwischen Staat und führenden Unternehmen, vor allem denen aus dem Silicon Valley.80 Einem detaillierten Bericht des investigativen Journalisten Dr. Nafeez Ahmed zufolge81 förderte das Forum Googles Wachstum beträchtlich – ganz zu schweigen davon, dass sich dort Kontakte auf höchster Ebene pflegen ließen. »Googles Inkubation durch die amerikanische Geheimdienstgemeinde war von Anfang an eine Folge direkter Unterstützung und informeller Netzwerke finanzieller Einflussnahme, die wiederum an den Interessen des Pentagon ausgerichtet waren.« Eine andere prominente Rechtswissenschaftlerin bezeichnete die »Kollaboration« zwischen Google und der nachrichtendienstlichen Gemeinde, insbesondere der NSA, als »beispiellos«.82 In diesen Jahren äußerten Experten sich über die wachsende Interdependenz zwischen den diversen Nachrichtendiensten und den Unternehmen im Silicon Valley.83 Die Nachrichtendienste wollten um alles in der Welt den rechtsfreien Raum, dessen sich Unternehmen wie Google erfreuten. In seinem Essay »Die Verfassung im Nationalen Überwachungsstaat« bemerkte der Rechtswissenschaftler Jack Balkin, die Verfassung stehe staatlichen Akteuren bei der rasanten Verfolgung ihrer Überwachungsagenda im Wege, was wiederum Anreize für den Staat schaffe, »sich auf private Unternehmen zu verlassen, was Erfassung und Erzeugung von Informationen angeht«.84 Balkin zufolge hat der Oberste Gerichtshof weder geschäftlichen Aufzeichnungen noch Informationen, die man an Dritte weitergeben kann, groß Beschränkungen auferlegt. E-Mails werden praktisch immer auf privaten Servern gespeichert, was deren Schutz »einschränkt, um nicht zu sagen nichtexistent« mache. Das Fehlen einschlägiger Gesetze machte private Unternehmen zu attraktiven Partnern für staatliche Akteure, die an demokratische Zwänge gebunden sind. Die Notwendigkeit, sich der Aufsicht durch die Verfassung zu entziehen, so der Rechtswissenschaftler Jon Michaels, führe in Sachen Datensammlung zwangsläufig zur geheimen Zusammenarbeit zwischen Staat und Privatwirtschaft. Diese neige dazu, »auf der Basis eines Handschlags organisiert zu werden statt auf der gesetzlicher Formalitäten

wie etwa Durchsuchungsbeschlüsse, und sie können so arrangiert werden, um die Rechtsaufsicht zu umgehen oder um sich über das Gesetz hinwegzusetzen«.85 Wie er schreibt, üben private Datenbestände eine unwiderstehliche Anziehungskraft auf Nachrichtendienste aus, ja sie »sind in gewisser Hinsicht sogar darauf angewiesen«.86 Bestätigt wurden die Beobachtungen beider Rechtswissenschaftler, als der ehemalige Direktor der NSA Mike McConnell einen weiteren Einblick in die Wahlverwandtschaft zwischen Google und den Geheimdiensten bot. In einem Artikel in der Washington Post ließ McConnell keinen Zweifel daran, dass man Googles Erfassung, Extraktion und Analyse von Daten als gegeben hinnahm, ja, sogar begehrte. Hier verschmolzen private und staatliche Interessen in der Weißglut neuer Bedrohungen, die für eine Nachfrage sorgte, die in »Millisekunden« befriedigt werden wollte. In McConnells Zukunft gibt es ein »nahtloses« Überwachungsimperium, in dem die Erfordernisse der Selbsterhaltung keinen Platz mehr lassen für die Artigkeiten der Demokratie mit ihren zeitraubenden Praktiken, seien es nun ordnungsgemäße Verfahren, Beweise, Durchsuchungsbeschlüsse oder das Recht überhaupt. »Jüngste Berichte über eine mögliche Partnerschaft zwischen Google und dem Staat weisen auf diese Art vereinter Anstrengungen – und gemeinsamer Herausforderungen –, wie wir sie aller Wahrscheinlichkeit nach in der Zukunft sehen werden«, schreibt McConnell dazu. »Derlei Absprachen«, so betont er, »werden zu einer Trübung der Grenzen zwischen den traditionellen Rollen des Staats und des privaten Sektors führen.«87 In den letzten Monaten der Amtszeit Präsident Obamas besuchte der damalige Verteidigungsminister Ash Carter das Silicon Valley, wo er die Konstituierung eines neuen Beratergremiums für Verteidigungsfragen – des Defense Innovation Advisory Board – bekanntgab. Dieses sollte als Kanal zwischen den Technologiebossen im Valley und dem Verteidigungsministerium fungieren. Carter berief Eric Schmidt in das neue Board und beauftragte ihn mit der Auswahl derer, die ihm angehören sollten. Das Magazin Wired kam zu dem Schluss: »Der Staat braucht das Silicon Valley mehr denn je bei seinen Bemühungen, sich gegen die Sicherheitsbedrohungen im Cyberspace zu verteidigen.«88 Reichlich belegt wurde das in einer von Fred Cate (Indiana University) und James Dempsey

(University of California) betreuten internationalen Studie zur »Massendatensammlung«. Die Wissenschaftler äußern sich darin zur »massiven Anhäufung« persönlicher Daten in der Hand privater Unternehmen: »Es ist verständlich, dass der Staat Zugang zu diesen Daten haben will … Im Grunde beansprucht jede Regierung der Welt die Macht, die Unternehmen, die über sie verfügen, zu deren Herausgabe zu zwingen.«89 Wäre da nicht der überwachungspolitische Ausnahmezustand gewesen, bestünde durchaus die Möglichkeit, dass diese Daten nie existiert hätten – oder wenigstens nicht in dem Ausmaß und derart detailliert. Der überwachungspolitische Ausnahmezustand half die Entwicklung des Informationskapitalismus auszuformen, indem er ein Umfeld schuf, in dem Googles junge Überwachungspraktiken eher erwünscht waren, als dass man gegen sie angehen wollte. Die Geschichte erlaubt hier wie so oft keinen Gegenbeweis, und wir können unmöglich sagen, ob der Informationskapitalismus sich in eine andere Richtung entwickelt hätte, hätte sich da nicht plötzlich das neue Interesse an seinen überwachungstechnischen Möglichkeiten gemeldet. Für den Augenblick jedenfalls sieht es ganz so aus, als hätte diese »Wahlverwandtschaft« zwischen Staat und Privatwirtschaft dazu geführt, dass man den jungen Praktiken des Überwachungskapitalismus so gut wie ohne Aufsicht oder eine ordnende Hand Wurzeln zu fassen und zu wachsen erlaubte. Das wiederum ermutigte Googles junge Chefetage, auf die Gesetzlosigkeit als einer Art Naturrecht zu bestehen, und zum anderen ermutigte es, was gar noch fragwürdiger ist, den Staat dazu, Google diese Freiheit auch tatsächlich zu gewähren. So begünstigte also eine starke Wahlverwandtschaft zwischen privaten und öffentlichen Interessen den Erwerb von Gewissheit um jeden Preis, und in diesem inbegriffen war offensichtlich, dass man dem Überwachungskapitalismus eine Freistatt, eine Art Glashaus bot. Zu gegebener Zeit werden die Historiker zweifelsohne sowohl hinter die näheren Einzelheiten dieser Beziehungen kommen als auch hinter das Maß, in dem das neue militarisierte Biotop dafür sorgte, dass man Googles Entdeckungen hinsichtlich Erfassung und Einsatz von Verhaltensüberschuss einer näheren Prüfung bewusst entzog.

Im Kontext dieser neuen militärischen Zielsetzung kamen die ursprünglich auf die Anwaltschaftlichkeit des VerhaltenswertReinvestitionszyklus ausgerichteten digitalen Möglichkeiten nun einer ungehinderten Überwachung zugute. Überwachungsaktiva konnten so ohne jegliches Risiko von Sanktionen gedeihen und zogen Überwachungskapital an. Die Erträge folgten auf dem Fuß. Die Situation erinnert an die amerikanischen Automobil-, Stahl- und Werkzeugmaschinenindustrien Mitte des 20. Jahrhunderts, als Rüstungsaufträge dafür sorgten, dass die Fabriken auf Hochtouren liefen. Was sich freilich unterm Strich eher als Fluch erwies denn als Segen. Nicht nur verzerrte und unterdrückte die militärische Nachfrage den Innovationsprozess, sie trieb einen Keil zwischen diese Industrien und ihre zivile Kundschaft, was während der Globalisierung der Märkte Ende der 1970er- und Anfang der 1980er-Jahre ihre Position Wettbewerbern aus dem Ausland gegenüber schwächte.90 Die Entwicklung unter den Bedingungen des überwachungspolitischen Ausnahmezustands verlief ähnlich. So lukrativ wie das Überwachungsmodell war, sah man bei Google keinen Handlungsbedarf für den beschwerlichen und obendrein riskanten Schritt hin zu einer auf Austausch und Kundennutzen gegründeten Marktform. Wieso sollte man Experimente mit organischeren Methoden der Monetarisierung riskieren, wenn Überwachung und Extraktion vor dem Gesetz geschützt und obendrein immens profitabel waren? Und diese Fragen stellte man sich nicht nur bei Google. Der gesamte Internetsektor stand vor derselben Entscheidung. Nachdem Risikokapitalgeber und Wall Street Blut geleckt hatten, hatten Internetunternehmen kein Problem mehr damit, sich dem Trend zu fügen. Und im nächsten Augenblick wäre es denn auch schon zu beschwerlich gewesen, gegen den Strom zu schwimmen.

Bollwerke Wie kommt es, dass der Überwachungskapitalismus sich, all die Jahre nach den Auslösern der manischen Jagd nach Informationsdominanz, noch immer so gut wie ungehindert entfalten kann – wenigstens in den USA? In den dazwischenliegenden Jahren haben wir die Institutionalisierung einer

Unzahl von Fakten erlebt, die die Praktiken des Überwachungskapitalismus in einer Weise normalisierten, dass sie uns heute unvermeidlich erscheinen: die Entdeckung des Verhaltensüberschusses und die darauf folgende massive Akkumulation von Kapital und Material, die Überhandnahme von Geräten und Diensten, die Integration von Datenflüssen und die Institutionalisierung von Terminkontraktmärkten für menschliches Verhalten. Wir sollten jedoch nicht dem Trugschluss verfallen, dies sei alles naturgegeben; wir sollten in dieser Blüte kein Signal für einen inhärenten Wert des Überwachungskapitalismus oder seine Unvermeidlichkeit sehen. Wir werden in den kommenden Kapiteln viele weitere Faktoren aufdecken, die zu diesem Erfolg beigetragen haben, aber zuerst möchte ich mich auf Googles systematische Bemühungen konzentrieren, zum Schutz seiner Überschussflüsse vor etwaigen Herausforderungen Bollwerke um seine Versorgungskette aufzubauen. So viel über einige der Elemente dieser Befestigungsstrategie geschrieben wurde, für unsere Zwecke tun wir besser daran, jedes einzelne als Aspekt eines mehrschichtigen Plans zu sehen, mit dem eine nähere Prüfung der Kernoperationen verhindert und der Fluss eines kostenlosen unregulierten Verhaltensüberschusses garantiert werden sollten. Man sorgte für besagte Bollwerke in vier Schlüsselarenen; ihr Ziel war es, Google – und damit letztlich auch andere Überwachungskapitalisten – vor politischer Einmischung zu schützen und vor Kritik insgesamt. 1. Der Nachweis von Googles Möglichkeiten als Lieferant von Wettbewerbsvorteilen im Wahlkampf; 2. man sorgt bewusst für Unklarheiten hinsichtlich der Grenzen zwischen öffentlichen und privaten Beziehungen und aggressivem Lobbying; 3. der Drehtüreffekt durch das personelle Hin und Her zwischen Google und der Regierung Obama, begünstigt durch die Wahlverwandtschaft während Googles Wachstumsjahren 2009–2010; und 4. Googles gezielte Einflussnahme auf wissenschaftliche Arbeiten und den breiteren kulturellen Diskurs, der so wichtig ist für die Ausformung von Politik, öffentlicher Meinung und politischer Wahrnehmung.

Die Beschäftigung mit den Auswirkungen dieser vier Verteidigungsstrategien hilft uns verstehen, wie der Überwachungskapitalismus zustande kam und warum er nach wie vor gedeiht. Googles erste Strategie bestand im Nachweis, dass genau dieselbe aus Verhaltensüberschuss gewonnene Vorhersagekraft, die die Überwachungskapitalisten reich gemacht hatte, auch politischen Kandidaten zum Wahlsieg verhelfen konnte. Um den Beweis dafür anzutreten, erbot sich Google, seine Magie auf den Wahlkampf des 21. Jahrhunderts anzuwenden; den Anfang machte man mit Obamas Präsidentschaftskampagne 2008. Eric Schmidt spielte eine führende Rolle sowohl bei der Organisation der Teams als auch bei der Umsetzung modernster Datenstrategien. Letztere sollten die traditionelle Kunst der Politik in den Schatten wissenschaftlicher Verhaltensprognosen stellen.91 In Obamas Chicagoer Hauptquartier … erstellte man in den umkämpften Bundesstaaten Wochenende für Wochenende neue Modelle, um die Wählerschaft zu erfassen … Mitarbeiter vor Ort konnten bundesweit die Auswirkungen der Ereignisse auf das projizierte Verhalten und die Ansichten jedes einzelnen Wählers sehen.92 Den Medienwissenschaftlern Daniel Kreiss und Philip Howard zufolge trug man für Obamas Wahlkampf 2008 erhebliche Datenmengen über mehr als 250 Millionen Amerikaner zusammen, so etwa »ein breites Spektrum von Daten zum Online-Verhalten und relationaler Daten aus der Nutzung der Wahlkampfwebsite und Social-Media-Sites wie etwa Facebook«.93 Der Journalist Sasha Issenberg, der diese Entwicklungen in seinem Buch The Victory Lab dokumentierte, zitiert einen von Obamas politischen Beratern, der die Arbeit mit Vorhersagemodellen mit dem Instrumentarium eines Wahrsagers verglich: »Wir wussten schon, für wen … die Leute stimmen würden, bevor die sich entschieden hatten.«94 Obama nutzte seine Nähe zu Schmidt, um seine Position als Kandidat der Innovation zu zementieren, der mit dem business as usual in der Hauptstadt Schluss machen würde.95 Nach Obamas Wahl wurde Schmidt Mitglied des

Transition Economic Advisory Board, einem Kreis von Beratern in Wirtschaftsfragen.96 Außerdem trat er zusammen mit Obama bei dessen erster Pressekonferenz nach dem Wahlkampf auf. »Allein das Bild von Schmidt Schulter an Schulter mit den führenden Köpfen von Obamas Wirtschaftspolitik«, so schrieb Politico, »genügte, um Googles Mitbewerbern einen eisigen Schauer über den Rücken zu jagen. ›Bei Microsoft sitzt der Schreck tief‹, sagte ein demokratischer Lobbyist und Branchenkenner. ›Es hat seinen Grund, warum die Leute eine Heidenangst vor Google haben.‹ 97 Schmidts Rolle bei Präsident Obamas Wahl war nur ein Kapitel in einer langen und mittlerweile legendären Beziehung, die man hier und da als »Liebesaffäre« bezeichnet hat.98 So überrascht es denn auch nicht weiter, dass Schmidt beim Kampf um die Wiederwahl 2012 eine gar noch sichtbarere Rolle übernahm. Er stand sowohl beim Sammeln von Spenden in der ersten Reihe als auch bei der Erschließung technologischen Neulands; außerdem beaufsichtigte er in der Wahlnacht »persönlich« die Berechnung der Wahlbeteiligung.99 Jim Rutenbergs Bericht über die maßgebliche Rolle der Datenwissenschaftler bei Obamas Wahlsieg 2012 in der New York Times bietet eine anschauliche Darstellung der Erfassung und Analyse von Verhaltensüberschuss als politische Methode. Die Wahlkampfleitung kannte »Name, Anschrift, Rasse, Geschlecht und Einkommen jedes einzelnen unschlüssigen Wählers im Land, den es zu überreden galt, für Obama zu stimmen«. Und man hatte eine Möglichkeit gefunden, diese Leute mit Fernsehspots gezielt anzusprechen. Einer der Durchbrüche dabei war der »persuasion score«, an dem sich ablesen ließ, wie leicht ein unentschlossener Wähler zu überzeugen sein würde, den demokratischen Kandidaten zu wählen.100 Wie bei Google, Facebook und anderen Domänen der Informationsdominanz waren der Verhaltensüberschuss und seine Vorhersagekraft auch in Obamas Wahlkampfzentrale ein wohlgehütetes Geheimnis. »Das Ausmaß«, so schrieb Rutenberg, »in dem die Kampagne sich der neuesten Werkzeuge bediente, Blicke ins Leben anderer Leute zu werfen, und die schiere Masse an persönlichen Daten, die da auf den Servern verarbeitet wurden, bleiben größtenteils im Dunkeln. Die

Geheimniskrämerei … diente teils dazu … sich den Wettbewerbsvorteil zu erhalten. Aber man machte sich zweifelsohne auch Sorgen, dass dem Wähler angesichts von Praktiken wie ›Data-Mining‹ und ›Analytics‹ nicht allzu wohl in seiner Haut war.«101 Zweitens: Mit der Wahl von 2012 am Horizont prahlte Schmidt 2011 in einem Interview mit der Washington Post mit einer weiteren Befestigungsstrategie: »Die Mitarbeiter sind jung – die Mitarbeiter verstehen das … Und genau darauf verlassen wir uns. Und natürlich haben wir auch ehemalige Mitarbeiter eingestellt. Die kennen einander alle. Genauso funktioniert das.«102 Googles politisches Instrumentarium ebnete den ungewöhnlich stark frequentierten Weg durch die Drehtür zwischen den Machtzentren beider Küsten. Das Google Transparency Project analysierte die Bewegungen von Mitarbeitern zwischen der »Googlesphäre« (das Unternehmen selbst nebst Töchtern sowie seine Anwalts- und Lobbyfirmen) und dem Staat (Weißes Haus, Kongress, Behörden, Bundeskommissionen und bundesweite Wahlkampforganisationen) während Obamas Amtszeit. Wie man feststellte, waren bis zum April 2016 bereits 197 Personen aus Regierungsposten in die Googlesphäre abgewandert, während 61 in die andere Richtung migriert waren. Von diesen traten 22 Amtsträger aus dem Weißen Haus eine Stellung bei Google an; 31 Führungskräfte aus der Googlesphäre heuerten direkt im Weißen Haus an oder bei einem der bundesweiten Beratungsgremien mit unmittelbarer Relevanz für Googles Geschäft.103 Drittens ließ es Google, nur um auf der sicheren Seite zu sein, auch anderen im politischen System gegenüber nicht an Großzügigkeit fehlen. In dem Buch, das er 2014 mit dem langjährigen Google-Manager Jonathan Rosenberg schrieb, entwickelte Schmidt das Motiv des Staats als Handlanger von Amtsinhabern, die in heimlichem Einverständnis jeder Veränderung entgegenarbeiten – wobei Google sich als Außenseiter und Störenfried sah. Die Autoren brachten ihre Geringschätzung für Politiker und Lobbyisten zum Ausdruck, als sie schrieben: »Es ist dies der natürliche Weg für Politiker, da Amtsinhaber im Allgemeinen eine Menge mehr Geld haben als die Störer und ausgesprochen geschickt dabei sind, es zur Beugung des politischen Willens einer demokratischen Regierung einzusetzen.«104

Im selben Jahr, in dem Schmidt über Amtsinhaber und ihren politischen Einfluss herzog, gab Google mehr als jedes andere Unternehmen fürs Lobbying aus – über 17 Millionen Dollar und damit fast doppelt so viel wie sein Überwachungsrivale Facebook. Während der nächsten Jahre, als das Weiße Haus in neue Hände überging, behielt Google sein Tempo bei; 2018 gab man mit 18 Millionen Dollar mehr aus als jedes andere Unternehmen im Land.105 Damit wehrte sich das Unternehmen gegen Gesetze zum Schutz der Privatsphäre und andere Initiativen, die seine Freiheit eingeschränkt hätten, Verhaltensüberschuss zu erfassen und zu verarbeiten.106 Google gehörte auch in der EU zu den bestausgestatteten Lobbyisten; nur eine Firma, die für ein Bündnis von Konzernen tätig war, gab hier mehr fürs Lobbying aus.107 Auch auf bundesstaatlicher Ebene lernte das Unternehmen raffinierte Lobbying-Bemühungen einzufädeln; sie zielten in erster Linie darauf ab, Gesetzesinitiativen abzubügeln, die ein Mehr an Privatsphäre geschaffen hätten und damit Googles Verhaltensüberschuss-Operationen hätten einschränken können. So bekam Google schließlich das Recht zugesprochen, seine autonomen Fahrzeuge auf die Straße zu schicken – von denen man erwartete, sie würden noch zu wichtigen Gliedern in der Versorgungskette –, nachdem man Entscheidungsträger aus Obamas Umfeld dazu bekommen hatte, die Regulierungsbehörden auf bundesstaatlicher Ebene zu überreden.108 Sowohl Google als auch Facebook führen derzeit aggressive Lobbying-Kampagnen in den Bundesstaaten, die darauf abzielen, Gesetze zur Regulierung biometrischer Daten und der Privatsphäre entweder abzubügeln oder zu schwächen. »Die haben es auf Ihren Körper abgesehen«, wie es in einem Artikel heißt.109 In einer vierten Art von Bollwerk lernte das Unternehmen, sowohl die akademische Forschung als auch die engagierte Zivilgesellschaft zu infiltrieren und so zu beeinflussen, dass sie eine genauere Prüfung seiner Praktiken aufweichte oder in einigen Fälle sogar durchkreuzte. Die Washington Post bescheinigte Google eine »Meisterschaft in der Einflussnahme à la Washington« und spricht von Raffiniertheit, wenn es darum gehe, selbst zu bestimmen und zu lenken, was über den Konzern erzählt wird. Schmidt packte dabei durchaus selbst mit an. Ohnehin schon Mitglied der New America Foundation, einem Thinktank, der eine

einflussreiche Rolle bei der Gestaltung von Obamas Wirtschaftspolitik spielte, nahm er dort 2013 den Vorsitz an – mit einer persönlichen Spende von einer Million Dollar, einem erklecklichen Teil des Jahresbudgets von 12,9 Millionen Dollar. Zwischen 1999 und 2016, als Schmidt den Vorstand wieder verließ, erhielt die Stiftung 21 Millionen Dollar aus einem Konglomerat von Google, Schmidt und Schmidts Familienstiftung.110 In einem akribischen Bericht enthüllte die Washington Post Googles filigrane Arbeit in dieser vierten Domäne. Besonders gut illustrierten sie die Intrigen hinter den Kulissen einer dreiteiligen Reihe über den Wettbewerb im Bereich der Internetsuche am Law and Economics Center der George Mason University, einem »marktlibertären« akademischen Zentrum, das von Google erhebliche Mittel erhalten hatte.111 Die Treffen fanden im Mai 2012 statt, ausgerechnet als die Bundeshandelskommission kartellrechtliche Ermittlungen gegen Google eingeleitet hatte. Wie Reporter herausfanden, arbeiteten Mitarbeiter des Unternehmens eng mit dem Center zusammen. Entsprechend entschied man sich für Google-freundliche Redner und Teilnehmer, von denen viele gar bei Google angestellt waren. Zu den Bemühungen gehörte auch, dass man »dem Stab des Centers eine detaillierte Auflistung von Kongressmitgliedern, Angehörigen der FTC und hochrangigen Amtsträgern aus dem US-Justizministerium und dem Justizministerium [von Virginia] zukommen ließ«. Den Reportern zufolge dominierten in den Podiumsrunden »führende Fachleute aus Technologie und Recht«, die einen staatlichen Handlungsbedarf gegen Google vehement verneinten, wobei »sie ihre Argumente ausgerechnet vor den Vertretern jener Behörden vorbrachten, die über die Geschicke des Unternehmens mitbestimmten sollten«. Viele Teilnehmer hatten keine Ahnung, dass Google bei der Gestaltung dieser Treffen die Hand im Spiel gehabt hatte, da Google und die Mitarbeiter des Centers sich darauf geeinigt hatten, das Wirken des Unternehmens hinter den Kulissen geheim zu halten.112 Die kartellrechtlichen Ermittlungen der FTC scheinen Googles Ängste vor einer Bedrohung des Überwachungskapitalismus geschürt zu haben. Im fraglichen Jahr nahmen Googles auf die Zivilgesellschaft abzielenden Stiftungen eine Wendung ins Aggressive. Eine Untersuchung des Center for Media and Democracy spricht von der »Googlisierung der extremen Rechten«. 2012 umfasste die Liste der Stipendiaten ein neues Bündnis

libertärer Gruppen, die für ihre Opposition gegen Regulierung und Steuern sowie für ihre Unterstützung von »Klimaleugnern« bekannt sind. Es gehören dazu etwa die von Grover Norquist angeführten Americans for Tax Reform, die von den Koch-Brüdern finanzierte Heritage Action und andere regulierungsfeindliche Gruppen wie die Federalist Society und das Cato Institute.113 Außerdem bekannte sich das Unternehmen, wenn auch eher leise, zu seiner Mitgliedschaft bei ALEC, einer Lobbying-Gruppe, die für ihre Opposition gegen strengere Waffengesetze und Abgaslimits sowie für ihr Eintreten für einen Wahlausschluss bestimmter Gruppen, Steuererleichterungen für die Tabakindustrie und andere Anliegen der extremen Rechten bekannt ist.114Unterdessen enthält eine Liste der Google Policy Fellows von 2014 auch Personen aus einer Reihe von NonprofitOrganisationen, von denen man erwarten würde, dass sie den Kampf gegen die Konzentration von Information und Macht in den Händen des Unternehmens anführen würden, so etwa das Center for Democracy and Technology, die Electronic Frontier Foundation, das Future of Privacy Forum, die National Consumers League, The Citizen Lab, die Asociación por los Derechos Civiles und andere.115 Einem Bericht des Wall Street Journal vom Juli 2017 zufolge finanziert Google gezielt die Forschung von Universitätsprofessoren, die Googles Position hinsichtlich Gesetzgebung, Regulierung, Wettbewerb, Patenten und so weiter teilten.116 In vielen Fällen nahm Google sogar Einfluss auf ihre Publikationen; außerdem versäumten es einige der Autoren, darauf hinzuweisen, Mittel von Google erhalten zu haben. Zwar erklärte Google öffentlich, der »Scheck sei mit keinerlei Verpflichtungen verbunden«, aber ein Fall von 2017 strafte diese Behauptung Lügen. Im Sommer dieses Jahres lobte Barry Lynn. einer der renommiertesten Wissenschaftler der New America Foundation und Spezialist für digitale Monopole, in einem Posting das historische Urteil der EU-Kommission, Google nach mehrjährigen kartellrechtlichen Ermittlungen mit einem Bußgeld von 2,4 Milliarden Euro zu belegen. Laut New York Times und Lynns eigener Darstellung beugte sich der Direktor der NAF dem Druck Schmidts und feuerte Lynn und sein zehnköpfiges OpenMarkets-Team. »Google wirft sowohl in Washington wie auch in Brüssel aggressivst mit Geld um sich, um dann an den Drähten zu ziehen«, sagte

Lynn gegenüber der New York Times. »Die Leute haben mittlerweile eine solche Angst vor Google.« Den Reportern zufolge geht Googles ebenso »hemdsärmelige wie raffinierte« Einflussnahme mittlerweile weit über die anderer amerikanischer Unternehmen hinaus.117 Mit Google in der Führungsrolle erweiterte der Überwachungskapitalismus die Marktdynamik ganz erheblich, sobald man lernte, den Menschen seiner Erfahrung zu enteignen und diese in die begehrten Verhaltensvorhersagen umzuwandeln. Hervorgebracht, in Schutz genommen und zum Erfolg verholfen haben Google und das weitere Überwachungsprojekt die spezifischen historischen Umstände ihrer Geburt – die Bedürfnisse der Zweiten Moderne, das neoliberale Erbe und die Realpolitik des überwachungspolitischen Ausnahmezustands; beigetragen haben dazu die maßgeschneiderten Befestigungsanlagen, die darauf abzielten, die Operationen seiner Versorgungskette vor einer eingehenderen Prüfung zu schützen, die die Folge einer politischen und kulturellen Vereinnahmung gewesen wäre. Die Fähigkeit des Überwachungskapitalismus, sich die Demokratie vom Leib zu halten, sorgte für folgende nackte Tatsachen: Zwei Männer, die weder durch eine Wahl legitimiert sind noch einer demokratischen Aufsicht unterliegen, kontrollieren Organisation und Präsentation aller Informationen der Welt. Ein Mann, der weder durch eine Wahl legitimiert ist, noch einer demokratischen Aufsicht unterliegt, kontrolliert ein zunehmend universelles Mittel sozialen Miteinanders nebst all der Informationen, die in seinem Netzwerk präsentiert werden oder verborgen liegen.

Kapitel 5 Die Ausarbeitung des Überwachungskapitalismus: Annexion, Monopolisierung und Wettbewerb Jedwedes Wort wie Liebe und Friede, das man einst das Leben bejahend sang, ist jetzt besudelt, entweiht, entwürdigt, abscheulich schrill mechanisch sein Klang. – W. H. Auden, »We Too Had Known Golden Hours«

Der Extraktionsimperativ »Unser höchster Ehrgeiz ist, das Google-Erlebnis an sich umzugestalten, es schön einfach zu machen«, sagte Larry Page, »automagisch geradezu, weil wir verstehen, was Sie wollen, und es prompt liefern können.«1 Im Zuge der Kampagne zur Erreichung dieses Ziels zwingt der Extraktionsimperativ unerbittlich zum Skalieren der Versorgungsoperationen. Entsprechend darf es auf der Jagd nach Verhaltensüberschuss keine Einschränkungen geben, darf kein Gebiet vor der Plünderung geschützt sein. Die Anmaßung eines Rechts, über die Aneignung menschlicher Erfahrung, deren Übersetzung in Daten und den Einsatz dieser Daten zu entscheiden, ist eine Begleiterscheinung dieses Prozesses, so untrennbar mit ihm verbunden wie ein Schatten. Das erklärt auch, warum Googles Versorgungskette zwar mit Search begann, dann aber ihren Ehrgeiz auf immer neue Felder ausdehnte, die nichts mehr zu tun haben mit Suchanfragen und Klicks. Googles

Bestände an Verhaltensüberschuss umfassen heute jeden Aspekt des Online-Milieus: Suchen, E-Mails, Texte, Fotos, Songs, Messages, Videos, Standort, Kommunikationsmuster, Einstellungen, Vorlieben, Interessen, Gesichter, Gefühle, Krankheiten, soziale Netzwerke, Einkäufe usw. usf. Augenblick für Augenblick entsteht ein ganzer neuer Kontinent von Verhaltensüberschuss aus den zahllosen virtuellen Fäden unseres Alltags, wenn dieser mit Google, Facebook, ja überhaupt mit irgendeinem Aspekt von rechnergestützter Architektur kollidiert. Man kann sogar sagen, dass unter dem Regime des Überwachungskapitalismus das weltumspannende System elektronischer Datenverarbeitung als Extraktionsarchitektur einem neuen Zweck zugeführt wird. Dieser Prozess entstand zwar online, greift aber zusehends über in die reale Welt, ein Umstand, dem wir uns in Teil II widmen werden. Wenn Google ein »Suchunternehmen« ist, warum investiert die Firma dann in Smart-Home-Apparaturen, am Körper zu tragende Computer und fahrerlose Fahrzeuge? Wenn Facebook ein soziales Netzwerk ist, warum arbeitet die Firma dann an Drohnen und erweiterter Realität? Diese Diversität mag den Außenstehenden zuweilen verwirren, gilt aber im Allgemeinen als visionäre Investition – als unkonventionelle Wette auf die Zukunft. So wie die Dinge liegen, sind Aktivitäten, die uns verschiedenartig erscheinen mögen, ja völlig willkürlich über ein eher zufälliges Spektrum von Branchen verteilt, in Wirklichkeit ein und dieselbe Aktivität mit ein und demselben Ziel: der Erfassung von Verhaltensüberschuss. Jede dieser Aktivitäten basiert auf einer minimal unterschiedlichen Konfiguration von Hardware, Software, Algorithmen, Sensoren und Konnektivität, und jede hat etwas anderes zu emulieren: Autos, Hemden, Handys, Bücher, Videos, Roboter, Chips, Drohnen, Kameras, Bäume, Uhren, Fernseher, Nanobots, ja selbst eine Netzhaut oder eine Darmflora. Ihr Zweck ist freilich immer ein und derselbe: die Erfassung von Verhaltensüberschuss. Google ist ein Proteus, aber so viele Gestalten das Unternehmen auch annehmen mag, sein Ziel ist immer dasselbe: die Jagd und Erfassung von Rohstoffen. Fahr doch mein Auto! Sprich in mein Telefon! Trag mein Hemd! Orientiere dich nach meiner Karte! So unterschiedlich der kreative Strom von Erscheinungsformen auch sein mag, er ist stets nur die Tierschau am Rande des großen Zirkuszelts: der fortwährenden Erweiterung der Extraktionsarchitektur zur Beschaffung von Rohstoffen in Mengen, die dem

kostspieligen Produktionsprozess der hochwertigen Vorhersageprodukte gerecht werden, der allein Kunden anziehen und binden kann. Als er sich 2008 mit der Frage konfrontiert sah, warum Google denn 150 »Produkte« habe, sagte der damalige CEO Eric Schmidt: »Man kann das als Kritik formulieren oder als Strategie. Ziel des Unternehmens ist die Zufriedenheit des Kunden. Sehen Sie es mal so, Google hat ein Produkt: die Zufriedenheit des Kunden.«2 Diese Kunden sind Werbekunden und andere, die für Googles Vorhersagen bezahlen. »Kundenzufriedenheit« entspricht demzufolge im Falle von Google einem dominierenden Marktanteil auf den lukrativen neuen Verhaltenskontraktmärkten, den das Unternehmen über seine wachsende Extraktionsarchitektur aufrechterhält. Unentwegt arbeitet das Unternehmen an Aufbau und Erprobung neuer Versorgungsrouten, von denen letztlich nur eine Handvoll tatsächlich zum operativen Einsatz kommt. Versorgungsrouten, die zuverlässig die erwünschten Größenvorteile bringen – wie etwa Googles Handybetriebssystem Android oder Gmail –, werden ausgearbeitet und institutionalisiert. Nachschubrouten, die durchfallen – wie etwa Buzz oder Dodgeball –, werden wieder geschlossen oder modifiziert. Ist eine Route blockiert, findet man eine neue. Erfolgreiche Versorgungsrouten dienen gleichzeitig als Plattform für zielgerichtete Werbung, vergrößern die Reichweite von Verhaltensterminkontraktmärkten und binden den Nutzen auf eine Art, die ihm noch mehr Verhaltensüberschuss abgewinnt. Es wird immer eine in ständiger Veränderung begriffene Auswahl von Nachschubwegen geben, aber alle Varianten haben operativ dasselbe Mandat: die Erfassung von Verhaltensüberschuss und den Erwerb von Entscheidungsrechten. Und wie für einen Fluss auf seinem Weg zum Meer gilt auch hier, dass man sich einen anderen Weg suchen muss, wenn der eine blockiert ist. In diesem Kapitel folgen wir den Auswirkungen des Extraktionsimperativs als Motor unserer neuen Marktform und ihrer Wettbewerbsdynamik. Dieser Imperativ verleiht dem Verhaltensüberschuss eine bestimmende Rolle in jedem Aspekt der überwachungskapitalistischen Unternehmung. Das beginnt mit der nicht endenden Parade von Innovationen, die darauf hinauslaufen, den Nachschub an Rohstoffen zu monopolisieren. Diese Strategie der Monopolisierung ist nicht lediglich

eine technologische Leistung; die nachhaltige Enteignung bedarf einer filigran orchestrierten und sorgfältig getakteten Mixtur politischer, kommunikativer, rechtlicher und materieller Strategien, Ansprüche auf neues Territorium erst dreist zu erheben und dieses dann beharrlich zu verteidigen. Der Erfolg dieser Strategien sorgte – erst bei Google, dann bei Facebook – sowohl für die Realisierbarkeit an sich als auch für Erträge. Was wiederum neue Wettbewerber in den zunehmend unbarmherzigen Kreislauf von Annexion, Monopolisierung und Wettbewerb in den neuen Verhaltensterminkontraktmärkten zog.

Monopolisierung der Nachschubwege Die Entdeckung des Verhaltensüberschusses in den Jahren 2001 und 2002 bedeutete zwangsläufig, dass Search der erste Google-»Dienst« war, der zur Nachschubroute umfunktioniert wurde. Die daraus resultierenden Veränderungen in den Mechanismen der Suchmaschine waren für Normalsterbliche kaum vorstellbar, geschweige denn zu erkennen. Als Ben Edelman von der Harvard Business School diese versteckten Mechanismen 2010 unter die Lupe nahm, stellte er fest, dass die »erweiterten Funktionen« eines Produkts mit Namen Google Toolbar – ein Plug-in für Microsofts Internet Explorer, der dem Nutzer die Suche erlaubt, ohne erst auf google.com gehen zu müssen – dem Unternehmen »die komplette URL jeder Seitenansicht überträgt, selbst die Suchanfragen über konkurrierende Suchmaschinen«. Edelman entdeckte, dass es »auffallend leicht« war, diese Option zu aktivieren, aber unmöglich, sie wieder abzustellen. Selbst wenn ein Nutzer die Toolbar explizit deaktivierte und sie deaktiviert schien, weil sie nicht mehr zu sehen war, verfolgte das Plug-in weiterhin das Browserverhalten des Nutzers.3 Da Google jährlich mittlerweile »Billionen« von Suchanfragen bearbeitet, sichern die damit gekoppelten Tracking-Mechanismen im Verein mit seinen robusten und nahezu unausweichlichen Tracking-Cookies dem Unternehmen ungeheure Größenvorteile, die das Fundament von Googles Versorgungsoperationen bilden.4

2015 tat sich der auf das Internet spezialisierte Rechtswissenschaftler Tim Wu mit Michael Luca von der Harvard Business School und einem Team von Datenwissenschaftlern von Yelp zusammen. Ihr Ziel war, hinter die versteckten Mechanismen von Google Search zu kommen, die – aus unserer Perspektive betrachtet – der Erweiterung seiner kritischen Nachschubfunktionen dienen. Wie sie feststellten, verfälschte Google systematisch die Suchergebnisse zugunsten seiner eigenen Inhalte und »nachgelagerter Produkte«: Google hat im Lauf der Zeit eigene Inhalte entwickelt, so etwa seine eigenen Shopping-Preislisten und Rezensionsmöglichkeiten von Geschäften vor Ort … Google fungiert also sowohl als Suchmaschine wie auch als Anbieter von Inhalten. Um seine Suchdominanz zur Förderung eigener Inhalte einzusetzen, hat Google ein Feature namens »Universal Search« entwickelt, das konkurrierende Anbieter von Inhalten ganz bewusst ausschließt und nur Inhalte von Google anzeigt.5 Der unendliche Bedarf an Verhaltensüberschuss im großen Stil muss zwangsläufig zu einer institutionalisierten Ausgrenzung konkurrierender Inhalte führen. Da Search das Fundament von Googles Nachschuboperationen bildet, besteht ein massiver Anreiz für das Unternehmen, Nutzer auf seine Suchplattform und angeschlossene Dienste zu locken, um dort mit seinen verborgenen »Methoden, Apparaturen und Datenstrukturen« für eine effiziente Extraktion zu sorgen. Die Tendenz zur Ausgrenzung sorgt für eine Reihe von Praktiken, die man an Regulierungsrahmen des 20. Jahrhunderts gemessen als »monopolistisch« bezeichnen würde. Aber so zutreffend derlei Charakterisierungen sind, sie lassen die hervorstechendsten Elemente der neuen Ordnung unberücksichtigt. Der Extraktionsimperativ verlangt, dass alles besessen werden muss. In diesem neuen Kontext sind Güter und Dienstleistungen nichts weiter als an Überwachung gebundene Versorgungsrouten. Es geht eben nicht um das Auto; es geht um die Verhaltensdaten, die sich aus der Nutzung des Autos gewinnen lassen. Es geht nicht um die Karte; es geht um die Verhaltensdaten aus der Interaktion mit der Karte. Das Ideal ist hier

die ständige Erweiterung der Grenzen, bis sie schließlich die ganze Welt umfassen und alles, was in ihr ist und geschieht, und das rund um die Uhr. Traditionell verzerren Monopole auf Güter und Dienstleistungen Märkte, indem sie auf unfaire Weise die Konkurrenz ausschalten, um dann nach Belieben an der Preisschraube drehen zu können. Im Überwachungskapitalismus jedoch fungieren viele als monopolistisch definierte Praktiken als Mittel, die Versorgung mit nutzerbasierten Rohstoffen zu monopolisieren. Man verlangt dem Nutzer keinen monetären Preis ab; er ist lediglich Mittel zum Zweck der Datenextraktion. Monopolisierende Praktiken dienen entsprechend nicht dem Schutz von Produktnischen, sondern vielmehr dem Schutz kritischer Versorgungswege für die unregulierte Ware Verhaltensüberschuss. In einer anderen Zeit hätten unseriöse Marktakteure vielleicht versucht, sich den Kupfer- oder Magnesiummarkt unter den Nagel zu reißen, in unserer Zeit ist es eben der Verhaltensüberschuss. So behindert Google in Search auf unfaire Weise die Wettbewerber, nicht um die Preise zu diktieren, sondern um die Vorherrschaft über seine wichtigste Nachschubroute zu wahren. Diese Operationen zur Monopolisierung des Nachschubs sind mitnichten Abstraktionen mit fernen Wirkungen auf Mineralien oder Feldfrüchte, die sich irgendwann im Preis irgendeines Endprodukts niederschlagen. In diesem Kontext sind wir es, die monopolisiert werden. Wir sind die Quelle für die begehrte Ware; Ziel der Extraktion ist unsere Erfahrung. Mit der Verbreitung des Überwachungskapitalismus über das Silicon Valley hinaus auf eine ganze Reihe anderer Unternehmen und Sektoren sehen wir uns zunehmend in einer Welt, in der es kein Entkommen mehr gibt; wir sehen uns in die Enge getrieben von Enteignungsoperationen, die Tag für Tag dichter, lückenloser werden und gnadenlos expandieren. Wir werden noch auf diese Frage zurückkommen, ich erlaube mir aber vorneweg zu sagen, dass ein regulierender Eingriff in Googles monopolistische Praktiken wahrscheinlich kaum noch eine Wirkung auf die grundlegenden Operationen dieser Marktform haben dürfte. Ständig werden neue Nachschubrouten entdeckt, erschlossen, gesichert. Die Enteignungsoperationen können gar nicht anders, als jedes Hindernis zu umgehen, und sie werden das auch weiterhin tun – nur eine ernsthafte Bedrohung ihrer Existenz könnte sie daran hindern.

Googles Mobilplattform Android ist ein gutes Beispiel für die beherrschende Rolle der Erfassung von Überschuss und dessen Verteidigung. Mit dem Aufstieg von Smartphone und Tablet ist das Internet beweglich geworden, und Google sah sich gezwungen, neue Wege zu finden, Search, seine primäre Versorgungskette, sowohl zu verteidigen als auch zu erweitern. Android wurde rasch zu Googles zweiter kritischer Versorgungsroute für Verhaltensüberschuss. 2008 gründete Google ein Bündnis von Geräteherstellern und Mobilnetzbetreibern zur Entwicklung einer »offenen und universellen Plattform für Mobilgeräte«. Einige Beobachter sahen im Android-Handy Googles Chance, mit Apple um die lukrativen Gewinnspannen bei Smartphones zu konkurrieren, aber bei Google hatte man das noch weit größere Potenzial für Wachstum und Profit durch Verhaltensüberschuss und dessen Verarbeitung zu Vorhersageprodukten erkannt. Google vergab Android-Lizenzen kostenlos an andere SmartphoneHersteller, weil es dem Unternehmen darum ging, Nutzer auf Google Search und andere Google-Dienste zu ziehen. Man sorgte so für einen allgegenwärtigen mobilen Versorgungsapparat, der es dem Unternehmen erlaubte, bereits erobertes Territorium für die Gewinnung von Verhaltensüberschuss zu halten und neues zu erschließen. Dazu gehören etwa die bei Werbekunden besonders begehrte Ortung (Geolocation) und mobile Zahlsysteme.6 Googles Finanzdirektor erklärte das den Finanzanalysten 2009 folgendermaßen: »Wenn wir über eine Kostensenkung durch Open-Source-Software für die Verbreitung dieser Mobiltelefone sorgen, überlegen Sie mal, wie viel Suchen [uns das bringt].«7 Ein prominenter Risikokapitalist aus dem Silicon Valley sagte 2011 über Android-Geräte 2011, sie seien »nicht ›Produkte‹ im klassischen geschäftlichen Sinn … man versucht nicht, mit Android Profit zu machen … Man will jede Schicht zwischen sich und dem Kunden beseitigen und alles kostenlos (oder gar noch billiger) machen … Im Grunde ziehen die nicht nur einen Burggraben; Google verbrennt auch noch die Erde auf 250 Meilen rund um die Burg, um dafür zu sorgen, dass da keiner rankommt.«8 Die Maßgaben für die Entwicklung von Android waren der Schlüssel zum Erfolg dieser Nachschubstrategie. Im Gegensatz zum iPhone ist die

Android-Plattform open source oder »quelloffen«, was es Entwicklern weltweit erleichterte, Apps für Android-Nutzer zu programmieren. Zu guter Letzt bündelte Google dieses wertvolle neue Universum von Applikationen mit seinem Google-Play-Store. Hersteller, die ihre Geräte mit vorinstalliertem Google Play ausliefern wollten, mussten Googles Mobildienste lizensieren und als exklusive oder wenigstens voreingestellte Möglichkeiten mitinstallieren: Search, Gmail, Google Play, YouTube, Google Maps, Google Photos und welche Nachschubrouten sonst gerade angesagt waren. 2016 beschäftigte sich eine kartellrechtliche Untersuchung der Europäischen Union mit Googles Android-Praktiken. Die Monita der Kommission spiegelten Googles bewussten Aufbau von Nachschubrouten und deren Schutz in Search und Mobile. Damit betonte die staatliche Kritik an Googles monopolistischen Praktiken einmal mehr die traditionellen Schäden für den Wettbewerb, anstatt die neuen Gefahren durch den Überwachungskapitalismus zu sehen. Im April 2013 sagte Eric Schmidt anlässlich einer Tagung »rund ums Digitale«: »Unser Ziel mit Android ist, jeden zu erreichen. In sechs bis neun Monaten überschreiten wir mit Android die Milliardengrenze. In ein, zwei Jahren werden es zwei Milliarden sein … Ein relativ günstiges Smartphone mit einem Browser ist alles, was Sie brauchen, um an die Informationen der Welt zu kommen.« Der letzte Satz war wohl als Beschreibung der Vorzüge von Android gedacht, ist aber weit treffender als Zusammenfassung von Googles Ambitionen und gestattet uns einen Einblick in die kritischen Größenvorteile, die man sich von dieser mobilen Nachschubroute erhoffte.9 So braucht es denn auch nicht weiter zu verwundern, mit welchem Ingrimm Google bedrohte Nachschubrouten verteidigt. Jede Bedrohung seiner Extraktionsoperationen und seiner ausgrenzenden Ansprüche auf die nötigen Rohstoffe ist eine Grenzüberschreitung, die man unmöglich dulden kann. 2009 entschloss sich Motorola, auf seinen Android-Geräten Googles kostenlose Geolocation-Dienste durch die von Skyhook Wireless zu ersetzen, deren Ergebnisse man bei Motorola für verlässlicher hielt. Einer von Googles Produktmanagern räumte zwar Skyhooks Überlegenheit ein, äußerte aber in einer E-Mail an einen Google-Manager Bedenken ob dieses Schritts. Wenn weitere Hersteller auf Skyhook umstiegen, so schrieb er,

wäre das »schrecklich« für Google, weil das Unternehmen dann keine Möglichkeit mehr hätte, Daten für seine WiFi-Location-Datenbank zu sammeln.10 In den Prozessunterlagen einer Klage, die Skyhook schließlich gegen Motorola (und Samsung) anstrebte, findet sich eine E-Mail von Googles »Senior-Vice-President of Mobile« an Motorolas CEO, in der er im Falle einer Unterbrechung von Googles Datengewinnung mit einem Lieferstopp droht.11 Es ist dies nicht der einzige Rechtsstreit, der illustriert, dass Produkte wie Android für Google als Nachschubrouten wichtiger sind als für den Verkauf. 2011 gründeten zwei ehemalige Google-Ingenieure und ein Datenschutzanwalt die Firma Disconnect, Inc. Diese entwickelte Desktopund Mobilapplikationen »zum Schutz von Privatsphäre und Sicherheit des Internetnutzers«. Sie blockierten »unsichtbare unerwünschte Netzwerkverbindungen zwischen Browser oder Mobilgerät eines Nutzers sowie Sites oder Services, die mit unsichtbarem Tracking befasst oder der Verbreitung von Schadsoftware verdächtig sind … nicht nur, wenn er im Web unterwegs ist, sondern auch wenn er andere mobile Applikationen Dritter benutzt«.12 Disconnect nahm dabei insbesondere die »unsichtbaren, unerwünschten und häufig nicht angezeigten« Netzwerkverbindungen mit Websites und Diensten Dritter aufs Korn, zu denen es kommt, kaum dass man eine Website besucht oder eine mobile Applikation öffnet. Dummerweise, jedenfalls für Disconnect, handelte es sich bei dem Prozess, den man da zu unterbinden versuchte, um eine wichtige Nachschubroute für Google und andere Überwachungskapitalisten.13 Es gibt mehrere Studien zum Ausmaß von Googles Extraktionsarchitektur, darunter etwa den Web Privacy Census,14 der sich in der Hauptsache mit der Messung von Cookies befasst, den kleinen Code-Fitzelchen, die in Ihrem Browser abgelegt werden, wenn Sie eine Website besuchen, und über die sich Ihre Aktivitäten im Web verfolgen lassen. Web Privacy Census analysierte die führenden 100, 1 000 und 25 000 Websites in den Jahren 2011, 2012 und 2015, alles Jahre fieberhafter Entdeckungs- und Entwicklungsarbeit für Überwachungskapitalisten. Die Vergleichsdaten von 2012 und 2015 enthüllten doppelt so viele Sites mit 100 Cookies oder mehr und über dreimal so viele Sites mit 150 Cookies oder mehr. 2015, so stellte das Team fest, fing sich jeder Nutzer bei einem schlichten Besuch der 100

beliebtesten Websites über 6 000 Cookies ein, von denen 83 % von Dritten stammten, die mit der besuchten Website absolut nichts zu tun hatten. Außerdem fand man »Googles Tracking-Infrastruktur« auf 92 der Top-100Sites und 923 der Top-1 000-Sites. Anders gesagt, »Googles Fähigkeiten, Nutzer auf beliebten Websites zu verfolgen, sucht seinesgleichen; sie erreichen einen Level an Überwachung, den sonst nur ein Internet-ServiceProvider erreichen kann«. Ebenfalls 2015 analysierte Timothy Libert von der University of Pennsylvania die Top-Million unter den Websites und stellte dabei fest, dass 90 % davon Daten an durchschnittlich neun externe Domänen weitergeben, die Nutzerdaten zu kommerziellen Zwecken tracken, erfassen und enteignen. Von diesen Websites initiieren 78 % Datentransfers an eine Domäne, die Google gehört. Weitere 34 % transferieren Daten an eine Domäne im Besitz von Facebook.15 Steven Englehardt und Arvind Narayanan von der Princeton University berichteten 2016 über die Ergebnisse ihrer Messungen und Analysen der Tracking-Daten von einer Million Websites.16 Sie identifizierten 81 000 unbeteiligte Dritte, von denen nur 123 auf mehr als 1 % der Sites präsent sind. Von diesen Domänen sind die Top 5 der unbeteiligten Dritten und zwölf der Top 20 im Besitz von Google. »Genau genommen«, so ihr Schluss, »sind Google, Facebook und Twitter die einzigen unbeteiligten Dritten, die auf mehr als 10 % der Sites präsent sind.« Forscher in China untersuchten 2017 10 000 Applikationen der beliebtesten Märkte für unabhängige Apps. Sie fanden einen »versteckten« Prozess, mittels dem eine App automatisch andere Apps im Hintergrund Ihres Smartphones startet. Sie kamen zu dem Schluss, dass diese »versteckte Verständigung zwischen Apps« am häufigsten auf Märkten für unabhängige Android-Anwendungen zu finden seien. Von den 1 000 Top-Apps auf einer von Chinas beliebtesten Plattformen starteten 822 im Durchschnitt 76 andere Apps, von diesen waren wiederum 77 % von cloudbasierten »Push-Services« getriggert, die offiziell zwar nur für Updates sorgen sollten, aber offensichtlich weit mehr machten als das. Im Android-System, so die Forscher, sorgt Google für diesen Push-Service.17 Eine ganz außerordentliche Studie der französischen NonprofitOrganisation Exodus Privacy in Zusammenarbeit mit dem Yale Privacy Lab dokumentierte 2017 die exponentielle Wucherung von Tracking-Software.

Exodus identifizierte 44 Tracker in über 300 Apps für Googles AndroidPlattform, von denen es einige auch für Apples Betriebssystem gibt. Insgesamt erfuhren diese Apps mehrere Milliarden Downloads. Zwei Aspekte sind dabei hervorzuheben: ihre Allgegenwart und ihre Zunahme. Erstens gibt es kaum eine unschuldige App; wenn sie Sie jetzt nicht trackt, dann eben nächste Woche oder nächsten Monat: »Auf diesen Trackern baut eine ganze Industrie, und Apps, die heute als ›clean‹ eingestuft werden, können Tracker enthalten, die noch nicht erkannt wurden. Außerdem besteht die Möglichkeit, dass Entwickler Tracking-Code in spätere Versionen ihrer Apps einbauen.« Zweitens sind selbst nach außen hin völlig unschuldige Applikationen wie Wetter, Taschenlampe, Mitfahrgelegenheiten und Dating-Apps mit Dutzenden von Trackern »verseucht«, die auf zunehmend bizarre, aggressive und undurchsichtige Taktiken bauen, um massive Mengen an Verhaltensüberschuss abzugreifen, Daten, die letztlich für zielgerichtete Werbung eingesetzt werden. So entwickelte zum Beispiel der Ad-Tracker FidZup die Möglichkeit der »Kommunikation zwischen einer Tonquelle und einem Mobiltelefon«. Anders gesagt, er ist in der Lage, durch Ausstrahlung eines für das menschliche Ohr nicht hörbaren Ultraschallsignals die Präsenz von Mobiltelefonen nebst ihren Besitzern in einem Gebäude zu erkennen: »Nutzer, die ›Bottin Gourmand‹ installiert haben, einen französischen Restaurant- und Hotelführer, geben anderen die Möglichkeit, sie auf ihrem Weg durch Paris über die Lautsprecher von Geschäften zu orten. Ähnliches gilt für die Leser von Apps wie ›Auto Journal‹ und der TV-Programm-App ›TeleStar‹.« Nach dem Muster des Google-Patents, das wir uns in Kapitel 2 angesehen haben und das uns noch öfter begegnen wird, sind diese ständig eingeschalteten Tracker allen gegenteiligen Zusagen zum Trotz immun gegen Ihre Einstellungen der »Zugriffsrechte« auf Ihrem Android-Gerät.18 Angesichts der Aggressivität dieser Versorgungsoperationen überrascht es nicht weiter, dass Google Disconnect aus seinem immensen Katalog von Mobil-Apps für Google Play verbannt hat, was Disconnect 2015 Klage gegen Google einreichen ließ. In der Klageschrift hieß es, dass »Werbeunternehmen, darunter auch Google selbst, diese unsichtbaren Verbindungen dazu benutzen, den User auf seinem Weg durch das Web oder beim Einsatz anderer mobiler Applikationen zu ›tracken‹, um

persönliche Informationen über den User zu sammeln, ein ›Profil‹ zu erstellen und dann Geld mit zielgerichteter Werbung für diesen User zu verdienen«.19 Außerdem führte die Klageschrift aus, dass der von Google angebotene Schutz der Privatsphäre es dem Unternehmen »ausnahmslos« gestatte, »weiterhin personenbezogene Informationen zu sammeln«.20 Besonders vielsagend ist Googles Verbannung der Disconnect-App im Lichte des Umstands, dass Google, ganz im Gegensatz zu Apple, sich bekanntermaßen »libertär« gibt, wenn es um die Millionen von Apps geht, die man sich in seinem Store »kostenlos« ziehen kann. Die lockeren Richtlinien des Unternehmens zielen allenfalls darauf ab, Schadsoftware zu erkennen und auszuschließen, aber damit hat es sich praktisch auch schon.21 Die Gründer von Disconnect versuchten gegen den Extraktionsimperativ anzugehen, konnten das jedoch nicht allein. Nachdem man – vergeblich – mit Google zu verhandeln versucht hatte, tat das Unternehmen sich schließlich mit anderen Organisationen zusammen, um bei der EU Kartellrechtsbeschwerde gegen Google einzureichen, was denn auch die bereits laufenden einschlägigen Ermittlungen gegen Android forcieren half.22 Disconnect warf Google unter anderem Folgendes vor: Google sieht sich unter immensem Druck seitens der Finanzmärkte, die »Effektivität« seines Trackings zu steigern, um Erträge und Profite zu erhöhen. Dem Nutzer die Möglichkeit an die Hand zu geben, seine persönlichen Informationen zu kontrollieren (und sich gegen Malware zu schützen), indem er den Aufbau unsichtbarer Verbindungen zu problematischen Sites unterbindet, stellt eine existenzielle Bedrohung für Google dar.23 Als ehemalige Mitarbeiter von Google glaubten die Gründer von Disconnect ihren Gegner zu kennen, aber sie unterschätzten sowohl den Fortschritt der Institutionalisierung des Überwachungskapitalismus als auch die Heftigkeit, mit der das Unternehmen bereit war, sich gegen derlei »existenzielle Bedrohungen« seiner Versorgungsrouten zu wehren.

Der Enteignungszyklus

Schon lange vor dem Streit mit Disconnect war man bei Google zu der Erkenntnis gekommen, dass die erfolgreiche Enteignung keine Einzelaktion ist, sondern vielmehr ein filigranes Ineinandergreifen politischer, gesellschaftlicher, behördlicher und technischer Operationen über geraume Zeit hinweg. Seine Enteignungsoperationen enthüllen eine vorhersehbare Folge von Phasen, die ausgesprochen detailliert erarbeitet und orchestriert sein will, um ihrer letztendlichen Bestimmung als System vollendeter Tatsachen gerecht zu werden, das die Extraktion von Verhaltensüberschuss normalisiert. Dieser Zyklus gliedert sich in vier Phasen: Übergriff, Gewöhnung, Anpassung und Neuausrichtung. Zusammengenommen konstituieren diese Phasen eine »Theorie des Wandels«, die Enteignung als vorhersehbare politische und kulturelle Operation auf der Basis einer komplexen Palette administrativer, technischer und materieller Fähigkeiten beschreibt. Es gibt viele augenfällige Beispiele für diesen Zyklus, so etwa Googles Gmail, Googles Anstrengungen, über soziale Netzwerke für Nachschubrouten zu sorgen, erst mit Buzz und dann mit Google+, und schließlich die Entwicklung von Google Glass. In diesem Kapitel konzentrieren wir uns darauf, uns am Beispiel von Street View einen genaueren Einblick in diesen Enteignungszyklus und seine unternehmerischen Herausforderungen zu verschaffen. Die erste Phase einer erfolgreichen Enteignung besteht im Übergriff, der sich als eigenmächtiger Einfall in einen ungeschützten Raum definiert; bei diesem kann es sich um Ihren Laptop handeln, Ihr Smartphone, eine Webseite, die Straße, in der Sie wohnen, eine E-Mail an einen Freund, Ihren Spaziergang im Park, Ihre Websuche nach einem Geburtstagsgeschenk, die Fotos Ihrer Kinder auf Facebook, Ihre Interessen, Ihren Geschmack, Ihre Verdauung, Ihre Tränen, Ihre Aufmerksamkeit, Ihre Gefühle, Ihr Gesicht. Zu diesem Übergriff kommt es in dem Augenblick, in dem Enteignungsoperationen mithilfe ihrer virtuellen Fähigkeiten Verhaltensüberschuss aus den nicht-marktlichen Sphären unseres Alltags entführen. Dieser Übergriff ist damit Googles fundamentale und zugleich ertragreichste Form der Enteignung; sie entspricht Hannah Arendts »Sündenfall einfacher Räuberei«. Dieser Übergriff geht die Straße lang, ohne nach links oder rechts zu blicken; ihm ist einzig daran gelegen, sich das Entscheidungsrecht

anzumaßen über alles und jedes, was ihm unterkommt. »Das nehm ich mir«, sagt er. »Und damit gehört es mir.« Google hat gelernt, diese Übergriffe zu initiieren; stößt das Unternehmen auf Widerstand, werden seine Widersacher entweder verführt, ignoriert, überfahren oder einfach erschöpft. Die Verführung beinhaltet eine Kaskade goldener Verlockungen: beispiellose Speicherkapazitäten, Zugang zu einer ganz neuen Qualität von Informationen, neue Annehmlichkeiten. Sollte es nötig sein, kann das Unternehmen im Handumdrehen zu hemdsärmeligeren Taktiken greifen, die auf Zeit, Geld und Schneid des Gegners abzielen. Gegen Google sind Hunderte von Klagen von Ländern, Gruppen und Einzelpersonen anhängig, und es gibt noch weit mehr Fälle, von denen die Öffentlichkeit nie etwas hört. Laut Marc Rotenberg, dem Chef des Electronic Privacy Information Center, vermag niemand so recht zu sagen, wie viele Klagen es gegen Google rund um die Welt gibt.24 Die Klagen sind unterschiedlichster Art, aber es geht fast ausnahmslos darum, dass der eigenmächtige Übergriff auf Widerstand stößt. Der Widerstand über Rechtsweg und Bürgerprotest ist im Zusammenhang mit der Digitalisierung von Büchern aufgekommen,25 mit dem Sammeln persönlicher Daten durch Street View,26 dem Erfassen verbaler Kommunikation,27 der Umgehung von Datenschutzeinstellungen,28 der Manipulation von Suchergebnissen,29 der umfassenden Speicherung von Suchdaten,30 der Übermittlung von Standortdaten per Smartphone,31 Wearables und Gesichtserkennung,32 dem heimlichen Horten von Schüler- und Studentendaten für kommerzielle Zwecke33 sowie der Konsolidierung von Nutzerprofilen über das ganze Spektrum von Google-Geräten und -Diensten hinweg,34 um nur einige zu nennen. Sie können davon ausgehen, in nächster Zeit auch Drohnen, Körpersensoren, Neurotransmitter, »digitale Assistenten« und andere mit Sensoren ausgestattete Geräte auf dieser Liste zu sehen. Google bleibt bei alledem erstaunlich konsequent sowohl hinsichtlich seines Anspruchsdenkens und seiner Entschlossenheit wie auch seiner Dreistigkeit. Der Extraktionsimperativ zwingt das Unternehmen zur permanenten Ausweitung seiner Grenzen in den ungeschützten Raum. Ziel einer zweiten Phase ist die Gewöhnung. Während Gerichtsverfahren und Ermittlungen im Schneckentempo demokratischer Institutionen

vonstattengehen, setzt Google die Entwicklung seiner umstrittenen Praktiken mit Siebenmeilenstiefeln fort. In der Zeit, in der Bundeshandelskommission, US-Fernmeldebehörde, Gerichte und EUKommission ermitteln, etablieren sich die umstrittenen neuen Praktiken als institutionelle Fakten, während ein rasant wachsendes Ökosystem von Interesseneignern für den nötigen Rückhalt sorgt. In einer Mischung aus Einverständnis, Hilflosigkeit und Resignation gewöhnen sich die Leute an diese Übergriffe. Das Staunen verflüchtigt sich ebenso wie die Empörung; der Übergriff selbst, einst undenkbar, hält schleichend Einzug in die Normalität. Schlimmer noch, er erscheint uns allmählich unvermeidlich. Neue Abhängigkeiten entwickeln sich. Und je mehr die Bevölkerung dieser Entwicklung gegenüber abstumpft, desto schwieriger wird es für Einzelne wie für Gruppen, ihre Rechte einzuklagen. Wenn Google sich gelegentlich zur Änderung seiner Praktiken gezwungen sieht, sorgen seine Manager und Ingenieure in einer dritten Phase des Zyklus für oberflächliche, aber taktisch effektive Anpassungen, die die unmittelbaren Forderungen von Behörden, Gerichtsentscheiden und öffentlicher Meinung befriedigen. Inzwischen formiert sich in einer letzten Phase das Unternehmen neu, um eine neue Rhetorik, Methoden und Designelemente zu kultivieren, die die umstrittenen Versorgungsoperationen gerade mal so weit neu ausrichten, dass sie den gesellschaftlichen und rechtlichen Forderungen zu genügen scheinen. Die Kreativität, die finanziellen Ressourcen sowie die Entschlossenheit, die man auf die Steuerung dieses inszenierten Prozesses verwendet, sind so flexibel wie dynamisch. Im Gegensatz dazu ist die operative Notwendigkeit von Größen- bzw. Massenvorteilen bei der Erfassung von Verhaltensüberschuss ein Perpetuum mobile, dessen unerbittlicher Takt keinen Platz für Abweichungen lässt. Das Unternehmen entwickelte und verfeinerte Theorie und Praxis der Enteignung, als es dem öffentlichen Widerstand zu begegnen und diesen zu transformieren lernte – eine wesentliche Bedingung für Schutz und Erweiterung seines Verhaltensüberschuss-Franchise. Der von Google am 1. April 2004 lancierte E-Mail-Dienst Gmail bot eine erste Gelegenheit zum Erklimmen dieser Lernkurve. Das Unternehmen trotzte damals der öffentlichen Entrüstung über das automatische Scannen von E-Mails, die man als frische Quelle für Verhaltensüberschuss im Dienste zielgerichteter

Werbung sah. Schließlich verfeinerte man den Enteignungszyklus zu einer expliziten Theorie des Wandels, die den Rahmen für einen taktischen Spielplan lieferte, auf den das Unternehmen heute bei Widerstand aus dem »Volk« standardmäßig als kampferprobte Reaktion zurückgreifen kann. Der Enteignungszyklus trotzte den Bedrohungen durch die Gmail-Affäre dermaßen erfolgreich, dass man ihn 2007 bei der Schlacht um Google Street View gleich wieder einsetzte und weiter verfeinerte. Einmal mehr fragte das Unternehmen erst gar nicht um Erlaubnis. Man wiederholte einfach den »Sündenfall einfacher Räuberei« und nahm sich, was man wollte. Man wartete den Widerstand ab, während man schon einmal mit der Verdatung begann: Straßen, öffentliche Plätze, Gebäude, Privathäuser.

Phase 1: Übergriff Es war ein scheinbar harmloser Blogeintrag, der Street View zum ersten Mal ins öffentliche Bewusstsein rückte. Googles oberster Datenschützer Peter Fleischer lobte beim Stapellauf des neuen »Dienstes« Amerikas »hohe Tradition« öffentlicher Räume, wo seiner Ansicht nach »die Menschen nicht dieselben Erwartungen in Sachen Privatsphäre haben wie in ihren eigenen vier Wänden«. Als Anwalt weiß Fleischer um die Leistung von Worten beim Aufsetzen von Verträgen und wie man mit ihnen Präzedenzfälle schafft; es lohnt sich also, sich seine Formulierungen von 2007 einmal sorgfältig anzusehen. Seine nur scheinbar beiläufige Prosa leistet Schwerarbeit, wenn sie öffentliche Räume zu Freiwild erklärt. Seiner Darstellung nach ist jeder öffentliche Platz ein geeignetes Objekt für die neue Art von Einfall, diesen Übergriff ohne Genehmigung, Wissen oder Einverständnis der Betroffenen. Privathäuser, Straßen, Viertel, Ortschaften, Städte – für Google sind sie alle nicht mehr nur lokale Örtlichkeiten, wo Ansässige leben, wo Nachbarn sich treffen und unterhalten. Google Street View, so lässt er uns wissen, erhebt Anspruch auf jede Örtlichkeit als ein Objekt unter vielen in einem endlosen Raster von GPS-Koordinaten und Kamerawinkeln. Fleischers Erklärung ist nichts anderes als der Versuch, Googles Recht darauf zu begründen, jede Örtlichkeit ihrer subjektiven Bedeutungen zu entkleiden, die die Menschen, die dort zusammenkommen, zu einer

Gemeinschaft machen. Sicher, wenn wir aus dem Haus gehen, wissen wir, dass wir gesehen werden, aber wir erwarten, voneinander gesehen zu werden und das an Örtlichkeiten unserer Wahl. Jetzt ist alles ein unpersönliches Spektakel. Mein Haus, meine Straße, mein Viertel, mein Lieblingscafé … alles ist umdefiniert zu einer lebenden Tourismusbroschüre, zum Ziel der Überwachung, zum Tagebau am Datenberg – anders gesagt ein Objekt zur allgemeinen Inspektion und zur kommerziellen Enteignung. Google hatte bereits alles im Web an sich gerissen, aber Street View und Googles andere Kartierungsoperationen – Google Maps und Google Earth (die 3D-Sicht der Welt mittels Satelliten- und Luftaufnahmen) – kündeten von einer noch weit ambitionierteren Vision. Unter dem Mandat seines Appetits auf Verhaltensüberschuss sollte alles und jedes auf der Welt bekannt sein, von Google verdatet, durch Google zugänglich gemacht und von Google indexiert werden. Dahinter steckt die Annahme, dass es nichts gibt, was außerhalb von Googles Grenzen läge. Die Welt ist bezwungen, uns zu Füßen gelegt, präsentiert von Google. Der Blogeintrag, der den Stapellauf von Street View begleitete, erinnert an die Invasion der Spanier in der Karibik. Die adelantados, die dort an Land gingen, versteckten die nackten Tatsachen der Invasion hinter aufwändigen Gesten von Freundschaft und Demut, die es den ahnungslosen Taíno unmöglich machten, die unmittelbare Gefahr hinter ihrer Ankunft zu erkennen. Auch Fleischer versicherte seinem Publikum, in freundlicher Absicht zu kommen. Street View und seine komischen 360-Grad-Kameras auf den Autodächern hätten durchaus die Absicht, »die Privatsphäre der Menschen zu respektieren, die zufällig eine öffentliche Straße langgehen«, schrieb Fleischer. »Deshalb haben wir einen einfachen Prozess entwickelt, über den sich jeder an uns wenden kann, um sein Bild entfernen zu lassen«. Und er versprach, Gesetze und Gebräuche »in anderen Teilen der Welt« zu respektieren.35 Der Widerstand regte sich im Handumdrehen und zuhauf. Im Januar stieß Street View auf heftige Opposition in Deutschland und Japan. John Hanke, mittlerweile als Vice President zuständig für Google Maps nebst angeschlossenen Produkten, machte sich nichts aus dem Aufstand. (Wenn Sie sich erinnern wollen, Hanke hatte die von der CIA finanzierte

Satellitenkartierungsfirma Keyhole gegründet und leitete nach deren Aufkauf ihre Umwandlung zu Google Earth.) Er sagte einem Reporter, es sei alles nur Teil eines »Kreislaufs«, den Leuten verständlich zu machen, »worum es sich handelt und was es nicht ist und worum sie sich wirklich keine Gedanken zu machen brauchen«. Damit meinte er den Enteignungszyklus. Google Earth geriet ebenfalls unter Beschuss; man bezichtigte das Programm der Mithilfe bei einem Terroranschlag in Mumbai. Hanke bestand darauf, dass die Debatte um Google Earth oder Street View »im Westen mehr oder weniger abgeklungen« sei. Clever setzte er jeden Widerstand gegen Googles Übergriffe mit den freiheitsfeindlichen Interessen autoritärer Staaten und ihren »geschlossenen Informationsgesellschaften« gleich.36 Auf diese Retourkutsche sollten Google und seine Verbündeten immer wieder zurückgreifen, wenn man sie auf ihre Vergehen ansprach. Ob Hanke wohl überrascht war, als im April 2009 die Einwohner des stillen englischen Weilers Broughton in Cambridgeshire einem Street-ViewFahrzeug die Zufahrt verwehrten, als es durch den kleinen Ort fahren wollte? Man machte dem Fahrer klar, dass er nicht willkommen sei. Immerhin war das mitten im besagten »Westen«. Die Debatte um Datenschutz, Selbstbestimmung und Entscheidungsrechte war alles andere als verstummt. Privacy International reichte offiziell Beschwerde bei den britischen Datenschützern ein, in der mehr als 200 Leute aufgeführt wurden, deren Gesichter auf Street-View-Bildern deutlich zu erkennen waren. Man verlangte, den Dienst vorläufig zu stoppen. In Googles Chefetage hatte man offensichtlich Fleischers Direktive nicht gelesen, die Privatsphäre Betroffener zu respektieren. Hanke tat die Proteste kurzerhand ab. Er sagte der Londoner Times gegenüber, dass das Unternehmen sich nicht davon abschrecken lasse, die Erfassung des Vereinigten Königreichs bis Jahresende zu komplettieren. Er erklärte, die von Street View gelieferten Informationen seien »gut für die Wirtschaft und gut für jeden Einzelnen … Es geht darum, den Leuten wesentliche Informationen zu geben, anhand derer sie bessere Entscheidungen treffen können«.37 Hankes Bemerkungen waren natürlich reines Wunschdenken, aber sie deckten sich mit Googles breiterer Praxis: Menschen zu ermächtigen, ist

etwas Gutes – nur übertreiben sollte man es dabei nicht, damit sie nicht mitbekommen, dass man sie in Wahrheit ihres Rechts auf Selbstbestimmung beraubt, und sie nicht auf die Idee kommen, sich diese zurückzuholen. Das Unternehmen möchte den Leuten zu besseren Entscheidungen verhelfen – solange freilich diese Entscheidungen nicht Googles eigene Imperative tangieren. Googles ideale Gesellschaft ist eine Bevölkerung auf Distanz gehaltener Nutzer, nicht mündiger Bürger. Das Unternehmen idealisiert den informierten Menschen, aber nur soweit es Google ins Konzept passt. Am liebsten sähe uns das Unternehmen als gefügig, harmonisch und vor allem dankbar. 2010 gab in Deutschland der Bundesbeauftragte für den Datenschutz bekannt, es handle sich bei Google Street View um eine verkappte Operation zur Datenerfassung, da Street-View-Fahrzeuge auch Daten aus privaten WLAN-Netzwerken erfassten.38 Google bestritt den Vorwurf; das Unternehmen bestand darauf, dass man nur öffentliche WLAN-Netze und die Namen und Adressen von WLAN-Routern erfasse, nicht aber persönliche Informationen, die über diese Netze gehen.39 Binnen weniger Tage jedoch bewies eine unabhängige Analyse deutscher Sicherheitsexperten, dass Street-View-Fahrzeuge auch in unverschlüsselten WLAN-Netzen übertragene Daten aus privaten Haushalten erfassten. Google musste daraufhin einräumen, dass man auch »Nutzdaten«, persönliche Daten aus unverschlüsselten WLAN-Übertragungen erfasst und gespeichert hatte. In einem Blogeintrag hieß es zur Entschuldigung: »In einigen Fällen wurden dabei auch ganze E-Mails und URLs und Passwörter erfasst.« Techniker in Kanada, Frankreich und den Niederlanden fanden heraus, dass zu diesen Nutzdaten auch Namen gehörten, Telefonnummern, Kreditkarteninformationen, Passwörter, SMS, E-Mails und Transkripte von Chats sowie Aufzeichnungen über Online-Dating, das Anschauen von Pornos, Browseraktivitäten, medizinische Informationen, Fotos sowie Video- und Audio-Dateien. Die Spezialisten folgerten, dass sich solche Datenpakete zusammensetzen und daraus detaillierte Profile eindeutig erkennbarer Personen erstellen ließen.40 Googles »SpyFi«-Skandal sorgte rund um die Welt für Schlagzeilen. So mancher glaubte damals, die Enthüllungen über Street View würden Google irreparablen Schaden zufügen. In Deutschland, wo das Unternehmen

eindeutig gegen geltendes Persönlichkeits- und Datenschutzrecht verstieß, reagierte die Obrigkeit besonders heftig. Man drohte Google mit Ermittlungen der EU-Kommission und Konsequenzen vor deutschen Gerichten. Man legte dem Bundesrat einen Antrag vor, Google für die Darstellung persönlichen Eigentums ohne Einwilligung des Eigentümers mit einem Bußgeld zu belegen.41 Klagen standen Google darüber hinaus in der Schweiz, Kanada, Frankreich und den Niederlanden ins Haus.42 Bereits 2012 liefen Ermittlungen in zwölf Ländern – zahlreichen Ländern Europas, in der Nordatlantikregion und Australien; in mindestens neun Ländern konnten Verstöße gegen geltendes Recht belegt werden.43 In den Vereinigten Staaten stießen die Justizminister von achtunddreißig Bundesstaaten Ermittlungen gegen Googles Street-View-Praxis an. Privatleute strebten zahlreiche Sammelklagen an, von denen acht im Bundesgerichtsbezirk Northern California zusammengefasst wurden.44 Dem Chef von Privacy International zufolge gebärdete Google sich zunehmend wie Orwells »Big Brother«.45 Das Electronic Privacy Information Center (EPIC) machte sich in den USA für einen massiven juristischen Widerstand gegen Googles Bemühungen stark, sich der Verantwortung für den »SpyFi«-Skandal zu entziehen. Die Organisation begann darüber hinaus online detailliert Buch über weltweite Proteste, Ermittlungen und außergerichtliche Einigungen bezüglich Street View und seiner Extraktionstaktiken zu führen.46 Google bezeichnete etwaige »Verletzungen der Privatsphäre« im Rahmen seiner Street-View-Operation als »Versehen« eines seiner Ingenieure, der mit einem »experimentellen« Projekt befasst gewesen sei – irgendwie sei dessen Code unbeabsichtigt in die Software von Street View geraten. Das Unternehmen weigerte sich jedoch, die Identität des mysteriösen Ingenieurs preiszugeben und beharrte darauf, die Leiter des Projekts hätten keine Kenntnis von der Erfassung der Daten gehabt und auch keinerlei Absichten hinsichtlich ihrer Nutzung. »Wir haben Mist gebaut«, räumte Eric Schmidt der Financial Times gegenüber ein und fügte hinzu, dem verantwortlichen Ingenieur stünde eine interne Untersuchung seines klaren »Verstoßes« gegen Googles Geschäftspolitik ins Haus. Ungeachtet des Vorfalls beharrte Schmidt auf Googles Mission einer Indexierung sämtlicher Informationen der Welt.47

2012 bezeichnete eine Untersuchung der Bundeshandelskommission (FTC) den Fall als eine »im Design der Software bewusst angelegte Entscheidung eines mit dem Street-View-Projekt befassten GoogleMitarbeiters«48. Man habe den betreffenden Ingenieur eigens seiner Kenntnisse im WLAN-»Wardriving« wegen für das Team ausgewählt, der systematischen Kartierung von WLAN-Netzen aus einem fahrenden Fahrzeug heraus.49 Seine Aufzeichnungen belegten eindeutig, dass die Software sowohl den WLAN-Traffic von Nutzern aufzeichnete als auch die GPS-Daten ihres jeweiligen Standorts nebst »Information darüber, was sie machten«, die dann offline zu anderen Zwecken analysiert werden sollten. »Datenschutzbedenken«, von denen durchaus die Rede war, ließ man dabei bewusst außen vor.50 Die FTC fand Material, das Googles »Sündenbock«-Szenario Lügen strafte. Die Aufzeichnungen des Ingenieurs zeigten, dass er die Dokumentation seiner Software sehr wohl per E-Mail an die Projektleitung schickte, die sie dann mit dem Street-View-Team durchging. Außerdem hatte er, auch dafür gab es Belege, in mindestens zwei Fällen mit Kollegen darüber gesprochen, dass Street View persönliche Daten sammle. Dazu kamen noch die gründlichen internen Software-Prüfungen und Testverfahren und der regelmäßige Transfer von Nutzerdaten von den Street-View-Festplatten zu Googles Datenzentrum in Oregon. Und trotz aller dieser belegten Fakten bestritten Googles Ingenieure, von einer Erfassung persönlicher Daten gewusst zu haben.51

Phase 2: Gewöhnung Hankes Wette darauf, dass der »Zyklus« früher oder später jeden Widerstand aufreiben würde, reflektiert eine operative Schlüsselkomponente des Extraktionsimperativs, die man mit Search entdeckt, mit Gmail verbessert und mit Street View perfektioniert hat. Die Message hinter dem Verfahren ist eindeutig: »Nicht zurückschauen. Probleme aussitzen. Druck machen, falls nötig.« Der Bericht des amerikanischen Bundesamts für das Fernmeldewesen (FCC) ist in gewisser Weise schmerzlich, eine melancholische

Bestandsaufnahme der Verwundbarkeit unserer Demokratie im Showdown mit einem vermögenden, zu allem entschlossenen und dreisten Befürworter der totalen Überwachung. Im November 2010 erbat die FCC von Google in einer schriftlichen Anfrage die Herausgabe einschlägiger Informationen. Das Unternehmen zeigte wenig Entgegenkommen. Im März des folgenden Jahres forderte man zusätzliche Informationen an. Googles Antwort ließ ebenso zu wünschen übrig wie seine Bereitschaft zur Kooperation überhaupt, sodass im August ein »Anforderungsschreiben« folgte. Googles mangelndes Engagement machte im Oktober ein weiteres Schreiben erforderlich. Es entstanden der FCC enorme Lasten daraus, ein ganzes Jahr lang hinter schwer zu fassenden Managern des Unternehmens herjagen zu müssen. Der Bericht ist sowohl eine Dokumentation negativen Raums als auch die einer klaren Abfuhr an die Demokratie. Auf die erste Anfrage bekam die FCC »nur fünf Dokumente« und keine E-Mails. Wie das Unternehmen verlauten ließ, habe man keine Zeit für eine umfassende Prüfung, eine solche stelle eine »Belastung« dar. Google »versäumte« es, relevante Personen zu identifizieren; Namen wurden »redigiert«; man behauptete, die geforderten Informationen »dienten keinem sinnvollen Zweck«; außerdem »versäumte« man es, Informationen zu verifizieren. Auch einer Anforderung bestimmter Informationen »kam Google nicht nach«. Google betrachtete es als Zumutung, der FCC Zugang zu den Nutzerdaten zu gewähren, die das Unternehmen auf unzulässige Weise gesammelt hatte. »Google wartete ab.« Den ganzen Bericht durchziehen Wendungen wie »versäumte zu antworten« und »versäumte es, zur Verfügung zu stellen«. »Google handelte Aufforderungen der Behörde zuwider … zögerte hinaus«. Fünfmal verlangte die FCC eidesstaatliche Erklärungen, aber das Unternehmen lieferte nicht eine einzige; man bekam sie erst im September 2011, als man sie unter Strafandrohung einforderte. Der mysteriöse Ingenieur weigerte sich einfach, mit den Ermittlern zu sprechen, wobei er sich auf sein Recht auf Aussageverweigerung berief, um sich nicht selbst zu belasten. »Es gibt Belege dafür«, so die Schlussfolgerung des Berichts, »dass Googles Versäumnis, mit der Behörde zu kooperieren, in vielen oder allen Fällen auf Vorsatz beruht.« Man hätte auch sagen können, dass sein »Imperativ« das dem Unternehmen gebot.

Letztendlich behielten die Anwälte des Unternehmens die Oberhand; sie verteidigten Googles umfassende Datenerfassung mit einem obskuren Abschnitt eines jahrzehntealten Abhörparagrafen. Mit das Aufschlussreichste an dieser ganzen Episode ist wohl, dass Google das demokratische Rechtssystem, dem das Unternehmen mit so offener Verachtung begegnete, letztlich doch wieder bemühte, um sich der Verantwortung zu entziehen. Schließlich belegte die FCC Google mit einem Bußgeld von 25 000 Dollar dafür, die Ermittlungen behindert zu haben. Google kam also nicht etwa ungeschoren davon, weil die Gesellschaft die Praktiken des Unternehmens billigte, sondern weil es nicht genügend einschlägige Gesetze gibt, die den Bürger vor seinen Übergriffen schützen. Den achtunddreißig Justizministern erging es nicht viel besser. Als der Kopf der Gruppe, Connecticuts damaliger Justizminister Richard Blumenthal, unter Strafandrohung die Herausgabe der umstrittenen Nutzerdaten verlangte, »ignorierte Google« die Aufforderung.52 Das Unternehmen erklärte sich schließlich 2013 zu einer außergerichtlichen Einigung mit den betreffenden Staaten bereit; es akzeptierte ein Bußgeld von gerade mal 7 Millionen Dollar und eine Reihe von Vereinbarungen über eine »aggressive« Selbstregulierung. Die New York Times berichtete damals, Google hätte endlich eingestanden, »im Zuge seines Kartierungsprojekts Street View die Privatsphäre der Bürger dadurch verletzt zu haben, dass man … ganz beiläufig auch persönliche Informationen abgriff« – als wäre dieser Skandal das einzige Problem an der ganzen Affäre gewesen.53 Vertreter der Bundesstaaten prahlten, der »Konzernriese … verpflichtet sich zu einer Änderung seiner Unternehmenskultur, um zur Sensibilität gegenüber der Problematik persönlicher Daten und deren Schutz zu erziehen«.54 Im Lichte des Umstands, dass es der Extraktionsimperativ ist, der den »Konzernriesen« zum Riesen macht, weiß man nicht, ob man lachen oder weinen soll ob der Zuversicht der Justizminister, was Googles Verpflichtung zu datenschutzbezogener Selbstregulierung angeht. Es treten hier zwei wesentliche Punkte zutage, die die Gewöhnungstaktik illustrieren. Der erste ist der Umstand, dass Jahre vergingen zwischen dem ersten Übergriff 2007, dem Skandal von 2010, dem Abschluss der FCCErmittlungen 2012 und dem Abschluss der Untersuchung der Justizminister

2013. Die deutschen Ermittlungen erklärte man Ende 2012 für abgeschlossen, ohne dass sie viel gebracht hatten. Andere Anfechtungen und Verfahren zogen sich hin. Aber trotz aller Anfechtungen machte Google in all diesen Jahren mit Street View weiter. Zwischen 2008 und 2010 sammelte man »unrechtmäßig« weltweit 600 Gigabyte an persönlichen Informationen, 200 davon in den USA.55 Dem Unternehmen zufolge habe man mit dem Erfassen persönlicher Daten aufgehört. Hat man das wirklich? Kann das irgendjemand mit Sicherheit sagen? Und selbst wenn dem so wäre, der ursprüngliche Eingriff in die Privatsphäre, den Street View darstellt, ging unbeschadet weiter. Der zweite Punkt ist, dass sich rückblickend das Szenario des im Alleingang handelnden Softwareingenieurs als brillant konzipierte Augenwischerei entpuppte, als klassische Sündenbockstrategie. Man lenkte damit den Blick weg von der ebenso ambitionierten wie umstrittenen Agenda des Extraktionsimperativs auf das Narrativ von der einzelnen infizierten Zelle in einem riesigen, aber im Großen und Ganzen arglosen Organismus. Man brauchte die infizierte Zelle nur herauszuoperieren, um den Organismus für gesund und von seiner Datenkleptomanie geheilt erklären zu können. Dann konnte man ihn, gleichsam neugeboren, wieder auf die Straße schicken. Google erreichte genau das, was Hanke vorhergesagt hatte. Die fundamentale Dreistigkeit von Street View, dieser ebenso beispiellose wie erstaunliche Eingriff, der die Bewohner eines winzigen englischen Dorfes auf die Barrikaden brachte, hatte sechs weitere Jahre Zeit, um Wurzeln zu fassen. Die strategische Disziplin des Unternehmens, wenn es ums Mauern geht, um Abfuhren an die Obrigkeit oder die Ausbeutung der Demokratie, führte dazu, dass die aus Street View gewonnenen Daten sechs weitere Jahre genutzt werden konnten und dass man sechs weitere Jahre hatte, um am Mythos von Googles Unvermeidlichkeit zu feilen. Und wir sahen hilflos zu, während das Unternehmen sechs weitere Jahre hatte, um den Diebstahl unserer Entscheidungsrechte normal aussehen zu lassen, ja sogar »praktisch«, »nützlich« oder »genial«.

Phase 3: Anpassung

Im Oktober 2010, kurz vor der ersten Anfrage der Bundesfernmeldebehörde, kündigte Googles Senior Vice President für Softwareentwicklung und Forschung in einem offiziellen Post auf dem Google-Blog stärkere »Maßnahmen zum Datenschutz« an. »Wir haben in dieser Beziehung schwer versagt«, sagte er. Der Skandal um Street View wurde als Versehen hingestellt, als einziger Makel eines Unternehmens, das alles daran setzt, »sich unser Vertrauen zu verdienen«. Der Blogeintrag versicherte der Öffentlichkeit, das Unternehmen spreche mit externen Regulierern »über mögliche Verbesserungen unserer Geschäftspolitik«, und versprach, sich um Verbesserungen im Datenschutz zu kümmern. Man machte mit Alma Whitten eine Google-Managerin mit einschlägigen Referenzen zur Direktorin für Datenschutz in den Abteilungen Softwareentwicklung und Produktmanagement. Außerdem stellte das Unternehmen in Aussicht, künftig bei der internen Ausbildung einen ganz neuen Wert auf den »verantwortungsvollen Umgang mit Nutzerdaten« zu legen. Und schließlich versprach das Posting neue interne Aufsichtsmechanismen für den Umgang mit Daten. »Wir sind zutiefst beschämt über das, was da passiert ist«, hieß es da, »aber auch zuversichtlich, dass diese Änderungen unserer Prozesse und Strukturen zu einer deutlichen Verbesserung unserer internen Datenschutz- und Sicherheitspolitik zum Nutzen aller unserer User führen.«56 Während man der Öffentlichkeit Reformen versprach, sah sich das Unternehmen gezwungen, sich in einer ganzen Reihe von Ländern den Forderungen des Gesetzgebers anzupassen, so etwa in Australien, Belgien, Frankreich, Hongkong, Irland, Israel, Italien, Kanada, Neuseeland, den Niederlanden, Polen, Spanien, Südkorea, in den USA und im Vereinigten Königreich – in allen diesen Ländern standen Street View Klagen, Bußgelder und / oder eine Regulierung ins Haus. In Japan klagten Hausbesitzer über Street-View-Kameras, die über die Zäune guckten, die eigentlich vor Einsicht schützen sollten. Google erklärte sich bereit, seine Kameras tiefer zu stellen, alle Aufnahmen neu zu machen und identifizierbare Gesichter und Autokennzeichen unkenntlich zu machen.57 In Deutschland konnten betroffene Hausbesitzer die Unkenntlichmachung ihrer Fassaden auf Street-View-Aufnahmen verlangen.58 2009 und 2010 machten 250 000 Haushalte von dieser Möglichkeit Gebrauch; Google

musste vorübergehend 200 Programmierer einstellen, um der Nachfrage nachzukommen.59 In Hamburg musste Google 145 000 Euro Bußgeld berappen; dem dortigen Datenschutzbeauftragten war überhaupt erst aufgefallen, dass Google nicht nur fotografierte, sondern auch unrechtmäßig personenbezogene Daten aus unverschlüsselten Funknetzen erfasste.60 Zwar blieb der Datenschutzbeauftragte damit 5 000 Euro unter seinem oberen Limit, aber es war dennoch das höchste Bußgeld, das je in Europa wegen eines Verstoßes gegen den Datenschutz verhängt worden war. Der Nachlass belohnte Googles Versicherungen, die erfassten Nutzerdaten unverzüglich und gründlich zu löschen. 2011 stellte Google sein Street-View-Programm in Deutschland ein; zwar besteht der Dienst auch hier noch, aber von Updates einmal gemachter Aufnahmen sah man ab.61 Andere Länder belegten Street View mit Verboten. So verbot die Schweiz die Straßenansichten zunächst kategorisch; der eidgenössische Datenschutzbeauftragte forderte Google auf, den Dienst vom Netz zu nehmen. Schließlich wurde das Verbot aufgehoben, aber das Schweizer Bundesverwaltungsgericht erlegte dem Unternehmen eine Reihe strenger Richtlinien auf, darunter das Unkenntlichmachen von Gesichtern und Autokennzeichen, eine Reduzierung der Kamerahöhe sowie Möglichkeiten für die Nutzer, ihre Beteiligung zu verweigern. Noch 2016 war Googles Dienst in der Schweiz auf von Touristen frequentierte Örtlichkeiten beschränkt.62 Außerdem drohte Google ein Verbot von Street View in Griechenland, Indien, Litauen, Österreich und der Tschechischen Republik. Im Sommer 2017 jedoch waren Street-View-Daten von wenigstens Teilen dieser Länder erhältlich.63

Phase 4: Neuausrichtung Was Google in seinem vermeintlichen Schuldbekenntnis nicht sagte und als einziges nicht sagen konnte, war, dass man sich von seiner Grundlogik der Akkumulation abwenden würde, eben den Prinzipien des Überwachungskapitalismus, die diesen Koloss erst ins Leben gerufen und für sein Wachstum gesorgt hatten. Die Botschaft der

Neuausrichtungskampagne bestand darin, dass Google keine Ausnahmen machen kann; alles muss zur Umwandlung in Rohmaterial mit Beschlag belegt werden – ausnahmslos. Google kann gar nichts sagen oder tun, um dem Nutzer den Schutz seiner Privatsphäre zuzusichern; es käme einem institutionellen Suizid gleich. So liest sich auch folgende Passage aus einem Artikel zur Feier von Google Maps: »Google Maps trat alle möglichen datenschutzrechtlichen Kontroversen los … die Leute sind völlig durchgedreht … Das heißt aber nicht, dass Street View als Projekt gestorben wäre. Es ist heute in 65 der circa 200 Länder erhältlich, in denen es Google Maps gibt.«64 Alma Whittens Aufgabe bestand darin, Googles Ruf in Sachen Datenschutz zu kitten, nicht den Extraktionsimperativ zu demontieren und dessen unerbittliches Verlangen nach Größenvorteilen bei der Rohstoffversorgung. Das macht ihre Aufgabe jedoch von der Logik her unmöglich. Dass sie sie trotzdem ernst nahm, lässt der Umstand vermuten, dass sie nur zweieinhalb Jahre nach ihrer Ernennung zur Datenschutzbeauftragten im April 2013 ihren Rücktritt und ihr Ausscheiden aus dem Unternehmen bekanntgab.65 Es ist geradezu schmerzlich zu sehen, wie Whitten über Googles Praktiken anlässlich eines Hearings Anfang 2013 vor dem Kongress aussagte. Man sieht ihr an, welche Mühe es ihr macht, unter dem Druck der Fragen um Worte zu ringen, ohne die Wahrheit zu sagen.66 Es war an der Zeit, sich neu zu formieren und das weltweite Kartenprojekt neu auszurichten; von beenden konnte keine Rede sein. Darauf, dass sich nicht viel geändert hatte oder ändern würde, wies das Schicksal von Googles mysteriösem Softwareingenieur in den beiden Jahren nach dem Skandal. Binnen weniger Tage nach dem Bericht der FCC im April 2012 identifizierte einer der mit dem Street-View-Fall betrauten Ermittler Googles »Einzelgänger« als Marius Milner, einschlägig bekannt als Hacker und »Wardriving«-Spezialist.67 Zwei Jahre waren vergangen seit seiner »eindeutigen Verletzung« von Googles Geschäftspolitik und dem angeblich irreparablen Schaden, den er Google damit zugefügt hatte. Doch Milner war noch immer bei der Firma beschäftigt und hatte mittlerweile mit YouTube zu tun.68 Noch im selben Jahr sollte er zusammen mit fünf anderen Erfindern unter der Führung von John Hanke ein Patent anmelden:

»System und Methode für den Transport Virtueller Objekte in einem Parallel-Reality-Game«.69 Die Erfindung, an der Milner mitgearbeitet hatte, gehörte zu Ingress, einem Virtual-Reality-Spiel, das ebenfalls von Hanke und einem Team bei Google entwickelt wurde. Hanke sollte schließlich mit Niantic Labs unter der Ägide von Googles neuer Holding Alphabet seine eigene Firma aufziehen. Ingress wurde schließlich zum Prüfstand für viele der grundlegenden Konzepte, die in Pokémon Go auftauchten, dem Prototyp einer zweiten Phase überwachungskapitalistischer Expansion, den wir uns in Teil II näher ansehen werden. In dieser nächsten Phase sind Googles Karten eine kritische Ressource für die Ausweitung digitaler Enteignung von der virtuellen Welt auf die Welt, die wir als »real« bezeichnen. Im Lichte dieser Pläne konnte man Street View unmöglich sterben lassen oder auch nur eine Beeinträchtigung des Projekts erlauben. Der Produktleiter für Google Maps formulierte das sehr prägnant im September 2012, nur vier Monate nach Beendigung der Untersuchung durch die FCC: »Wenn Sie sich die Offline-Welt ansehen, die reale Welt, in der wir leben, so sind all diese Informationen noch nicht in ihrer Gänze online. Im Alltag versuchen wir zunehmend, diese Kluft zwischen dem, was wir in der realen Welt sehen, [und der Online-Welt] zu überbrücken, und eben diesen Part übernimmt Maps.«70 Googles streng gehütetes »Ground Truth«-Projekt, 2008 initiiert, aber erst vier Monate nach dem FCC-Bericht 2012 öffentlich vorgestellt, veranschaulicht diese Aussage. Ground Truth steht für ein weiteres Konzept, das der Deep Map, die im Gegensatz zur herkömmlichen Karte en détail die »Logik der Orte« enthält: Gehwege, Goldfischteiche, Autobahnauffahrten, Verkehrsmeldungen, Fährverbindungen, Parks, Universitätsgelände, Stadtviertel, Gebäude und vieles mehr.71 All diese Details richtig hinzubekommen, verschafft einen entscheidenden Vorteil im Wettbewerb um den aus Mobilgeräten anfallenden Verhaltensüberschuss. Der Aufbau einer solchen Deep Map bedient sich öffentlicher Ressourcen wie der geografischen Datenbanken des für die Volkszählung zuständigen US Census Bureau und der für Kartografie zuständigen Behörde US Geological Survey.72 Was Googles Karten jedoch von allen anderen unterscheidet, ist die Integration seiner exklusiven proprietären Daten, die

man aus Street View gewonnen hat. Es werden mit anderen Worten durch öffentliche Investitionen erhobene Daten mit aus dem einseitigen Transfer von Verhaltensüberschuss und Entscheidungsrechten gewonnenen Daten ergänzt und aufgewertet. Die Ergebnisse werden zu privaten Aktiva umdeklariert. Alex Madrigal, einer der ersten Journalisten, die man 2012 zu einer Vorführung von Ground Truth einlud, schrieb dazu, »das Kartierungsteam, das sich größtenteils bei Street View bedient, veröffentlicht vierzehntägig mehr Bilddaten, als Google 2006 insgesamt zur Verfügung standen … Google hat mittlerweile bis zu fünf Millionen Meilen abgefahren.« Er vergleicht Street-View-Fahrzeuge mit den ersten Web-Crawlern von Google Search, die im Zuge des ursprünglichen Enteignungsakts in aller Stille Webseiten requirierten, um sie zu indexieren und zugänglich zu machen. 2012 wartete Street View auch bereits mit Straßenschildern und Adressen auf. Bald, so schrieb Madrigal, »wird dank Street View jedes Wort, das von einer Straße aus sichtbar ist, Teil von Googles Index der physischen Welt werden«. Madrigals erster Blick auf Ground Truth schloss mit der Beobachtung: »Es ist kaum wahrscheinlich, dass noch ein Unternehmen eine solche Masse geografischer Daten zusammentragen wird wie Google … Man hat diesen ganzen großen Spielplatz als ausgefeilten Köder für Sie gebaut.«73 Einer der Projektleiter drückte das folgendermaßen aus: »Die Herausforderung beim Entschluss zu einer Kartierung der Welt besteht darin, dass man nie aufhören kann.«74 So feierte denn auch 2016 Googles Street-View-Website den Erfolg seiner Evolution mit der Erklärung: »Wir haben viel geschafft seit unserem Start 2007; heute bieten wir 360-GradPanorama-Ansichten von Orten auf allen sieben Kontinenten.« Street Views Flotte von Überwachungs-Tools wurde um Rücksäcke erweitert, Fahrradtaxis, ein Schneemobil und eine rollbare Kamera für den Innenbereich – sie alle dienen dazu, Aufnahmen von Orten zu liefern, die für Street-View-Autos nicht zu erreichen sind. Man bot Fremdenverkehrsämtern und Nonprofit-Organisationen kostenlose Rucksackkameras an, die Wanderer tragen sollten, um damit »Ansichten abgelegener und einzigartiger Orte zu sammeln«, von Orten also, die buchstäblich »nicht am Netz« sind.75

Was Google nicht selbst aufbauen konnte, kaufte man sich hinzu. 2013 schlug das Unternehmen Facebook in einer Übernahmeschlacht um das israelische Social-Mapping-Start-up Waze, einen Pionier der teilnehmerbasierten Echtzeit-Verkehrsinformation. 2014, genau in dem Augenblick, in dem das US-Handelsministerium die Bestimmungen für hochauflösende Satellitenaufnahmen lockerte, erwarb man das auf Satellitenaufnahmen in Echtzeit spezialisierte Start-up Skybox. Wenn Sie sich einen Satelliten über ihrem Büro vorstellen, dann konnte die alte Auflösung wahrscheinlich ihren Schreibtisch erkennen. Das neue Bildmaterial – bei dem jedes Pixel etwa 31 cm misst – kann erkennen, was sich auf Ihrem Schreibtisch befindet. Wenn man eine derartige Auflösung erreicht, beginnt man etwas hinzuzufügen, was wir als »Lebensmusteranalyse« bezeichnen. Was bedeutet, dass man Aktivität nicht nur bestimmen, sondern im Ablauf beobachten kann.76 In diesem Kontext tritt auch der Sinn eines anderen Aspekts von Googles Neuausrichtungskampagne zutage: 2011 ließ das Unternehmen verlauten, mit der Einführung eines »Indoor-Positioning-Systems« sei »eine neue Grenze« gefallen. Dieses ermögliche es, Personen zu lokalisieren und ihren Bewegungen zu folgen, »wenn sich jemand in einem Flughafen, einer Shopping-Mall oder einem Einzelhandelsgeschäft aufhält«. Letztendlich würden diese neuen Fähigkeiten auch mit Sensoren und eingebetteten Kameras arbeiten, die es dem Nutzer erlauben, Innenräume zu kartieren und sich darin zurechtzufinden.77 In einem Blog-Posting vom September 2014 stellte man diese neuen dynamischen Fähigkeiten der Öffentlichkeit als unseren persönlichen neuen »Co-Piloten für jede Entscheidung« vor, »von der Wahl zwischen rechts und links an der Kreuzung über die Entdeckung neuer Restaurants bis zum Ziel Ihres nächsten Wander- und Kletterausflugs«. Der Post schreibt Street View das Verdienst zu, diese wunderbaren neuen Fähigkeiten erst ermöglicht zu haben, und verkündet auch gleich die Ausweitung des Übergriffs mit der Einführung eines mobilen Karten-Tools, das, als Rucksack getragen, die innere Kartierung von Gebäuden erlaubt.78 Die von Cartographer zusammengetragenen Informationen ließen sich dann der wachsenden Navigationsdatenbank für Innenräume hinzufügen, was wiederum Googles Möglichkeiten zur

Lokalisierung von Personen und Geräten bei ihren Bewegungen zwischen Außen und Innen potenziert. Das Innere von Gebäuden war Street View und dem Extraktionsimperativ bis dahin verborgen geblieben; die Wahrscheinlichkeit, dass Hausbesitzer diese Kameras hereinlassen würden, war gering. Cartographer bündelte seine Fähigkeit mit der breiteren Neuausrichtungskampagne für Street View und diente sich Geschäften zur Vertrauensbildung und Beschwichtigung von Kundenängsten an – mit dem Versprechen einer erheblichen Steigerung des Ertrags. Google forderte Geschäfte mit direktem Kundenkontakt auf, »Kunden zum Eintreten zu ermuntern«. Mithilfe von »Business View« könnten Konsumenten einen Blick in Tausende von Hotels, Restaurants und anderen Zielen werfen. Suchergebnisse von Google Search sollten diesen neuen Street-View-Content zeigen. Hotels könnten so eine virtuelle Tour ihrer Häuser anbieten. »Geben Sie ihnen die Gewissheit, nach der sie suchen«, suggerierte Google seinen Geschäftskunden, indem sie es dem Verbraucher ermöglichen, »Ihr Haus schon vor der Ankunft zu erleben«. Google versicherte außerdem, dass virtuelle Touren »Doppelbelegungen« ein Ende machten, und sorgte für ein Zertifizierungsprogramm, das es Geschäften ermöglichte, sich von freiberuflichen, aber von Google akkreditierten Fotografen ablichten zu lassen. Diese außergewöhnliche neue Gewöhnungstaktik zielte auf die Umkehr des alten Musters ab. Statt eines problematischen Eingriffs in die Privatsphäre, der dem Widerstand durch Heimlichkeit zu entgehen trachtete, sollte Street View ein üppiges VIP-Zelt sein, vor dem die Geschäftswelt sich um des begehrten Zutritts willen gegenseitig auf die Füße trat. Street Views Weiterentwicklung nach der Neuorientierung verkündete eine kritische Verlagerung hinsichtlich Orientierung und Ambitionen des Überwachungsprogramms: Es sollte nicht mehr darum gehen, Wege bloß aufzuzeigen, sondern darum, die Leute entlang bestimmter Wege zu steuern. Wir werden uns diese neue Episode der Enteignung in den kommenden Kapiteln näher ansehen. Lassen wir Street View und die weiter gefassten Projekte von Google Maps für den Augenblick als Sinnbild für die immer ambitionierteren neuen Ziele stehen, auf die dieser Enteignungszyklus bald weisen sollte: die Migration von einer Online-Datenquelle über das Monitoring der realen Welt und der Ratgeberrolle hin zum aktiven Hirten einer Herde von Schafen – vom Wissen über die Einflussnahme hin zur

Kontrolle. Letztendlich sollten die detaillierten Daten von Street View zur Basis für einen weiteren Komplex spektakulärer Übergriffe des Unternehmens werden: dem selbstfahrenden Fahrzeug und »Google City«, über die wir mehr in Kapitel 6 erfahren. Diese Programme zielen darauf ab, die Erfassung von Verhaltensüberschuss auf ganz neue Niveaus zu heben, während sie ganz nebenbei neue Gebiete für den Aufbau von Verhaltensterminkontraktmärkten in der realen Welt realer Waren und Dienstleistungen eröffnen. Es ist wichtig, sich darüber im Klaren zu sein, dass jede Innovation auf den anderen aufbaut und alle nur dem einen Ziel dienen: der Extraktion von Verhaltensüberschuss im großen Stil. In dieser Progression nimmt Google eine Gelegenheit wahr, von der es hofft, dass seine Kundschaft sie zu schätzen weiß: seine Fähigkeit, Einfluss auf reales Verhalten in den realen Räumen des alltäglichen Lebens zu nehmen. 2016 zum Beispiel stellte das Unternehmen eine neue Funktion seiner Maps-App namens »Fahrmodus« vor, die den Nutzern Ziele und Reisezeit vorschlägt, ohne dass diese der App sagen, wohin sie wollen. Haben Sie eben noch online nach einem Hammer gesucht, dann besteht die Möglichkeit, dass »Fahrmodus« Sie in den nächsten Baumarkt dirigiert, kaum dass sie den Gurt angelegt haben. Einem Bericht des Wall Street Journal zufolge integriert Google »diese ›Push‹-Technologie auch in seine mobile Search-App«.79 In diesem sich abzeichnenden Szenario weist der »Co-Pilot« einen an, eine Strecke zu fahren, die vom ständig wachsenden Wissen über die Person und den Kontext bestimmt wird. Vorhersagen darüber, wo und warum eine Person Geld ausgeben möchte, bezieht Google über seinen exklusiven Zugang zu Verhaltensüberschuss und seine nicht weniger exklusiven analytischen Fähigkeiten: »Iss hier.« »Kauf das.« Googles Analyse von Verhaltensüberschuss kann vorhersagen, dass Sie sich vermutlich einen teuren Wollanzug kaufen wollen, und seine EchtzeitLokalisierungsdaten können den auf Ihr Profil maßgeschneiderten EchtzeitPrompt eines Geschäftsinhabers oder Werbetreibenden in genau dem Augenblick auslösen, in dem Sie in Sichtweite seines edlen Zwirns sind. Push & Pull, hier eine Anregung, da ein Schubs, dort eine Schmeichelei – oder bringt man Sie besser zum Erröten, um Sie zu verführen? Wie auch immer, Google möchte Ihr Co-Pilot fürs Leben werden. Jede menschliche

Reaktion auf einen kommerziellen Prompt führt zu mehr Daten zur Verfeinerung Ihres Profils und damit zur Verbesserung des Vorhersageprodukts. Die Prompts selbst werden in einer Neuauflage der bewährten Online-Märkte gekauft und bezahlt: Man handelt jetzt in Echtzeit in der realen Welt mit Verhaltensterminkontrakten, Wetten auf Ihre Zukunft – und damit mit Ihrer Zukunft. Die Einsätze auf diesem neuen Markt sind hoch: nicht vorherzusagendes Verhalten bedeutet hier entgangene Einnahmen. Google kann hier nichts dem Zufall überlassen. Der Tech-Newsletter The Register vom September 2016 enthüllte, dass die Google-Play-App, die vorinstalliert mit dem jüngsten Android-Handy kommt, unablässig den Standort des Nutzers checkt und diese Information sowohl Ihren unabhängigen Apps als auch Googles eigenem Server zuspielt.80 Ein auf dem Gebiet der Computersicherheit tätiger Forscher stellte schockiert fest, dass sein Android-Handy ihn aufforderte, sich die McDonald’s-App herunterzuladen, als er in eine Filiale eintrat. Wie er später feststellte, hatte Google Play seinen Standort Tausende Male erfasst. Ebenso »bietet einem Google Maps kaum eine anständige Möglichkeit zum Abschalten«, schreibt er. Schaltet man die App ab, so warnt einen das Betriebssystem, dass andere Anwendungen des Geräts womöglich nicht mehr wie vorgesehen funktionieren.81 Googles penetrante Art reflektiert die autoritäre Politik des Extraktionsimperativs ebenso wie die Tatsache, dass das Unternehmen zum Sklaven der unerbittlichen Forderungen seiner ökonomischen Mechanismen geworden ist. Was wir uns hier vom geschichtlichen Standpunkt aus vor Augen halten müssen, ist, dass das einst geschmähte Street View im Rahmen seiner Position bei der unabdingbaren Erweiterung der Verhaltensterminkontraktmärkte sowohl online wie in der realen Welt ein neues Leben gefunden hat. Einst nur Werkzeug zielgerichteter OnlineWerbung, umfassen diese wachsenden Märkte heute Vorhersagen darüber, was Menschen jetzt, bald und später tun werden, ob sie nun online unterwegs sind, auf dem Gehsteig oder der Straße oder in Räumen, Hallen, Geschäften, Wartesälen und Korridoren. Diese ehrgeizigen Ziele lassen neue Übergriffe und Enteignungen ahnen. Auch diese werden dem Zyklus folgen: von Aufschrei und Widerstand über Gewöhnungstaktiken bis zur

Neuorientierung, nachdem der Widerstand erst einmal gebrochen und die Bevölkerung unempfindlich und willenlos ist. Ob durch Zufall oder mit Absicht, Google hat die Macht des Kartografen entdeckt. Der große Historiker der Kartografie John B. Harley brachte es auf den Punkt: »Karten schaffen Imperien.« Sie sind unerlässlich für die »Befriedung, Zivilisierung und Ausbeutung« imaginierter oder beanspruchter, aber noch nicht eroberter Territorien. Orte und Menschen müssen bekannt sein, um sie kontrollieren zu können. »Die Linien auf der Karte«, so schrieb Harley, seien eine Sprache der Eroberung, in der »die Invasoren den Kontinent unter sich aufteilen, wobei ihr Entwurf deren komplexe Rivalitäten und relative Macht reflektiert.«82 Die ersten Versuche einer umfassenden Landvermessung der USA fingen diese Sprache in dem perfekten Motto »Ordnung über das Land« ein.83 Der Kartograf ist als Urheber dieser Ordnung das Instrument der Macht, das Realität auf nur zwei Zustände – Karte oder Versenkung – reduziert. Die Wahrheit des Kartografen kristallisiert die Botschaft heraus, die Google und Überwachungskapitalisten überhaupt allen Menschen einschärfen müssen: Wenn du nicht auf unserer Karte bist, existierst du nicht.

Die Hunde der Dreistigkeit Projekte wie Street View lehrten Google, dass es sich die Rolle eines Herrn und Gebieters über die Zukunft anmaßen und damit durchkommen konnte. Das Unternehmen lernte, selbst die umstrittensten Enteignungsanstrengungen aufrechtzuerhalten, wenn sie zur Sicherung der wichtigen neuen Versorgungslinien nötig sind. Während man, um nur ein Beispiel zu nennen, rund um die Welt gegen Street View Sturm lief – und nur wenige Monate, bevor in Deutschland bekannt wurde, dass Street View insgeheim persönliche Informationen aus unverschlüsselten WLAN-Netzen erfasste –, stellte Google Buzz vor, eine Plattform, die es Google erlauben sollte, seine Schleppnetze durch den Strom des begehrten Verhaltensüberschusses aus den sozialen Netzwerken zu ziehen. Die invasiven Praktiken, die man mit Buzz einführte (man requirierte die privaten Informationen seiner Nutzer und veröffentlichte ihre persönlichen

Kontakte), löste eine neue Runde des Enteignungszyklus nebst dramatischen Protesten dagegen aus. Als Google seine Nachschubrouten umzuleiten und jede Opposition zu umgehen oder zunichtezumachen lernte, hatte das Unternehmen keine Hemmungen mehr, die Hunde der Dreistigkeit von der Leine zu lassen. Nehmen wir hier aus zahlreichen Beispielen nur Google Glass heraus, weil das Projekt die Hartnäckigkeit des Extraktionsimperativs und seiner Umsetzung in die kommerzielle Praxis besonders gut illustriert. Google Glass kombinierte Computer, Kommunikation, Fotografie, GPSTracking, Datenabfragen sowie Möglichkeiten zur Audio- und Videoaufnahme in einem brillenähnlichen Format. Die Daten, die Google Glass sammelte – Standort, Audio, Video, Fotos und andere persönliche Informationen –, gingen von dem Gerät direkt an Googles Server, wo sie mit den anderen Versorgungsrouten zu einem ungeheuren Strom von Verhaltensüberschuss verschmolzen. Man sah das Projekt als Vorläufer für flexiblere und weniger plumpe Formen tragbarer Rechner zum Erfassen von Verhaltensüberschuss. John Hanke bezeichnete die vertraute Brillenform als geeignet für »die erste Einführungsphase« tragbarer Technologie – in etwa analog dazu, dass die ersten Autos kleinen Pferdekutschen glichen. Die »Brillen« sollten mit anderen Worten etwas camouflieren, was beispiellos war. »Letztendlich müssen wir diese Technologien, egal wo am Körper man sie trägt, voll optimieren, je nach der Aufgabe, die sie erledigen sollen, nicht danach, was im ersten Augenblick ihrer Erfindung gesellschaftlich akzeptabler ist, nur weil es die Leute an etwas erinnert, was sie schon mal gesehen haben.«84 Nachdem man Google Glass im Frühjahr 2012 unter großem Getöse als futuristisches Modeaccessoire vorgestellt hatte, dauerte es nicht lange, bis die Öffentlichkeit entsetzt auf diese bizarre Invasion ihrer Privatsphäre reagierte. Man bezeichnete ihre Träger gern als glassholes, und einige Geschäfte sprachen ein Hausverbot gegen sie aus.85 Datenschutzaktivisten protestierten gegen das »pausenlose«, aber eben »nicht wahrnehmbare« Aufzeichnen von Personen und Örtlichkeiten – es schließe die berechtigte Erwartung von Privatsphäre und / oder Anonymität seitens anderer von vornherein aus. Sie warnten vor den Risiken, die diese neuen Datenströme in Verbindung mit Gesichtserkennungssoftware bargen,

und prophezeiten, dass Technologien wie Glass das Verhalten von Menschen in der Öffentlichkeit auf immer verändern könnten. Im Mai 2013 verlangte ein Datenschutzausschuss im amerikanischen Kongress von CEO Larry Page Garantien für den Schutz der Privatsphäre, während man auf einer Entwickler-Konferenz bei Google bereits über Apps für das neue Gerät sprach. Im April 2014 gab Pew Research bekannt, dass 53 % aller Amerikaner die sogenannten »Smart Wearables« für »eine Veränderung zum Schlechteren« hielten; bei Frauen lag der Prozentsatz bei 59 %.86 Google hielt durch; man wartete, dass der Gewöhnungseffekt einsetzte. Im Juni des Jahres gab das Unternehmen bekannt, dass Glass mit der Livestream-Video-Sharing-App ausgeliefert würde, was es den Nutzern ermöglichen würde, alles um sie herum in Echtzeit ins Web zu stellen. Auf die Frage, ob man tatsächlich jedem Nutzer eine derart umstrittene und übergriffige Technologie in die Hand geben wolle, sagte der CEO von Livestream: »Letztlich ist das Googles Sache … die machen die Regeln.«87 Brin machte klar, dass man jeden Widerstand kategorisch zurückweisen würde, als er dem Wall Street Journal gegenüber sagte: »Die Leute haben eine natürliche Aversion gegen Innovationen.«88 Die Anpassung begann 2015 mit der Verlautbarung, dass Glass nicht mehr erhältlich sein würde. Das Unternehmen verlor kein Wort über die Abscheu der Öffentlichkeit oder die sozialen Probleme, die eine Technologie wie Glass aufwarf. In einem Blog-Posting hieß es: »Jetzt sind wir so weit, uns die Schuhe für die großen Kinder anzuziehen und laufen zu lernen … Wir werden Ihnen künftige Versionen von Glass zeigen, wenn wir so weit sind.«89 Man beauftragte einen Brillendesigner damit, den futuristischen Look in etwas Schöneres zu verwandeln. Die Neuorientierung begann in aller Stille. Im Juni 2015 legte man der technologischen Abteilung des amerikanischen Bundesamts für Fernmeldewesen (FCC) ein neues Design für Glass vor90 und sorgte dann im September erneut für Schlagzeilen mit der Ankündigung, Glass gehe »mit neuem Namen erneut an den Start«. Ein Jahr später rückte Eric Schmidt, mittlerweile Chairman bei Google, den Stand der Dinge ins rechte Licht: »Es handelt sich hier um eine große und ausgesprochen fundamentale Plattform für Google.« Seiner Erklärung zufolge habe man Glass nur zurückgezogen, um der Technologie »für den Nutzer den letzten

Schliff zu geben … so etwas braucht seine Zeit«.91 Je mehr durchsickerte, desto klarer wurde, dass man ungeachtet der öffentlichen Reaktion nicht die geringste Absicht hatte, die neuen Versorgungswege aufzugeben, die anziehbare Technologien eröffneten. Glass war der Vorbote einer neuen »Wearables«-Plattform, die bei der Migration von VerhaltensüberschussOperationen aus der Online-Welt in die Offline-Welt helfen würde.92 Öffentlich wurde die Neuausrichtungsphase im Juli 2017 mit der Vorstellung der Neuauflage von Glass als »Glass Enterprise Edition« im Google-Blog.93 Von einem Frontalangriff auf den öffentlichen Raum sah man diesmal ab. Man hatte sich stattdessen für einen taktischen Rückzug auf den Arbeitsplatz entschieden – die probate Methode im Kontext von Gewöhnungsprozessen, die darin besteht, übergriffige Technologien erst einmal unter wehrlosen Angestellten zu normalisieren. »In vielen Gebieten wie zum Beispiel der Herstellung, in der Logistik, im Außendienst oder im Gesundheitswesen profitieren Beschäftigte von der Konsultation eines tragbaren Geräts, über das sich Informationen und andere Ressourcen abrufen lassen, während die Hände beschäftigt sind«, schrieb der Projektleiter. Und die meisten Presseberichte lobten die Neuerung; allenthalben stellte man den Anstieg von Produktivität und Effizienz in Betrieben heraus, die das neue Glass einsetzten.94 Kaum einer nahm zur Kenntnis, dass es sich bei der Gewöhnung an Glass in der Arbeitsumgebung mit an Sicherheit grenzender Wahrscheinlichkeit um eine Hintertür handelte, die Technologie wieder auf die Straße zu bringen, oder dass man Arbeitern und Angestellten die übergriffigen Überwachungsmöglichkeiten des Geräts als Bedingung ihrer Beschäftigung aufzwingen würde. Die Lektion, die uns Google Glass lehrt, ist folgende: Wann immer sich auf der Nachschubroute ein Hindernis auftut, öffnet man ersatzweise andere und setzt die Expansion über diese fort. Zwar hat Google notgedrungen gelernt, etwas mehr auf den PR-Aspekt seiner Entwicklungen zu achten, aber die bedingungslosen Erfordernisse des Extraktionsimperativs bedeuten, dass der Enteignungszyklus ungebremst weiterlaufen und beständig neue Territorien einfordern muss. Enteignung mag in der Theorie einen Akt »einfacher Räuberei« darstellen, in Wirklichkeit jedoch handelt es sich dabei um einen

komplexen, filigran orchestrierten politischen und materiellen Prozess mit deutlich zu unterscheidenden Phasen und vorhersehbaren Dynamiken. Unter dem glamourösen Nebel von Pages »Automagie« offenbart sich hier eine Theorie des Wandels, die den systematischen Transfer von Wissen und Rechten weg von den vielen hin auf die wenigen propagiert. Sie definiert öffentliche Anfechtungen als den ebenso leidigen wie absehbaren Aufschrei törichter Bürger, die in unreflektiertem »Widerstand gegen den Wandel« wehmütig an einer unwiederbringlichen Vergangenheit festhalten wollen und dabei eine unvermeidliche Zukunft leugnen: Googles Zukunft, die Zukunft des Überwachungskapitalismus. Dieser Theorie zufolge gilt es, jeglichen Widerstand als typisch für die ersten schwierigen Phasen des Übergriffs durchzustehen. Ihr zufolge ist Widerstand so flüchtig wie der spitze kleine Schrei beim Eindringen der Kanüle, bevor das Lidocain seine betäubende Wirkung tut.

Wettbewerb um die Enteignung Googles spektakulärer Erfolg sowohl bei der Konstruktion der Mechanismen und Prinzipien des Überwachungskapitalismus als auch beim Einfahren von Überwachungserträgen sorgte für Wettbewerbsdruck in einem eskalierenden Extraktionskrieg. Google hatte im leeren Raum begonnen, sah sich aber angesichts der Attraktivität der Überwachungserträge bald im Wettbewerb mit anderen. Facebook war der erste und ist bis dato auch der aggressivste Konkurrent in der Schlacht um den Nachschub an Verhaltensüberschuss. Das liegt daran, dass auch Facebook den Enteignungszyklus gemeistert hat. In rasantem Tempo initiierte das Unternehmen eine ganze Welle von Übergriffen und etablierte sich so im herren- und gesetzlosen Grenzgebiet der Überschussextraktion, während es seine Handlungsweise leugnet, jede Kritik von sich weist und die Öffentlichkeit gründlich zu verwirren versucht. Facebooks Gründer Mark Zuckerberg redet Datenschutzbedenken beharrlich klein. In einem Porträt des New Yorker tat er die Eingriffe seines Unternehmens in die Privatsphäre anderer als »Fehltritte« ab.

So einige waren da ganz anderer Meinung, etwa eine Gruppe von Kritikern, zu der schließlich auch die Bundeshandelskommission gehören sollte. Der 2010 als Kommunikationstool im Netzwerk der FacebookFreunde eingeführte »Like«-Button war rasch entlarvt, als ein holländischer Forscher ihn als Instrument zur Übertragung von Verhaltensüberschuss outete, der seinen Dienst auch dann tut, wenn er nicht angeklickt wird – ein Umstand, den Facebook leugnete. 2011 spitzte der Extraktionsimperativ ein weiteres Mal aus dem rhetorischen Nebel, als ein australischer Blogger den Beweis führte, dass Facebook seine Nutzer auch trackte, wenn sie ausgeloggt waren. Am 25. September jenes Jahres versicherte Facebook, an der Behebung des »Fehlers« zu arbeiten, obwohl das Unternehmen drei Tage zuvor erst eines seiner Schlüsselpatente eingereicht hatte, mit dem es genau das zu erreichen beabsichtigte, was es bestritt: »Kommunikation von Informationen über Aktivitäten aus einer anderen Domäne in einem sozialen Netzwerksystem«.95 Die neuen Methoden ermöglichten Facebook das Tracking von Nutzern in anderen Lebensbereichen und damit das Erstellen von Profilen dieser Nutzer und ihrer sozialen Netzwerke sowie das Empfangen von Berichten unbeteiligter Dritter über jede Aktivität des Facebook-Nutzers. All das wurde im System gespeichert, um es mit nutzerspezifischem Werbematerial zu korrelieren. Aber selbst am 27. September noch leugnete Facebook der New York Times gegenüber sowohl das Tracking seiner Nutzer als auch die zielgerichtete Werbung. Rückblickend sehen wir, dass diese Taktik der Irreführung und der Verschleierung dem Unternehmen zwei Jahre allmählicher Gewöhnung eintrug. 2011 trat Facebook die dritte Phase des Enteignungszyklus – die Anpassung – los, als man sich mit der FTC hinsichtlich des Vorwurfs einigte, seine Kunden systematisch betrogen zu haben, »indem man ihnen versicherte, sie könnten ihre Informationen auf Facebook sehr wohl für sich behalten, um sie dann doch wiederholt zu veröffentlichen und mit anderen zu teilen«.96 Zu den belegten Vertrauensbrüchen gehörten einseitige Änderungen an der Website, die private Informationen der Öffentlichkeit zugänglich machten; der Zugang zu persönlichen Daten durch unbeteiligte Dritte; das Leaking persönlicher Daten an Apps von Fremdanbietern; »verifizierte Apps«, an denen nichts verifiziert war; der Zugang zu

persönlichen Daten durch Werbetreibende; der Zugang zu persönlichen Daten selbst nach Löschung des Accounts sowie Verstöße gegen das Safe Harbor Framework, das Datentransfers mit der Europäischen Union reguliert. Im Paralleluniversum des Überwachungskapitalismus erfüllte jeder dieser Verstöße den Extraktionsimperativ mit der Bestnote. Die FTC untersagte dem Unternehmen weitere unrichtige Darstellungen hinsichtlich seiner Datenschutzpolitik, verlangte die ausdrückliche Zustimmung des Nutzers zu neuen einschlägigen Regeln und ordnete ein umfassendes Datenschutzprogramm an, das die nächsten zwanzig Jahre über alle zwei Jahre einem Audit unterliegen sollte. Vorgebracht hatte die Beschwerde gegen Facebook das Electronic Privacy Information Center (EPIC) und ein Bündnis anderer Datenschutzaktivisten.97 »Facebooks Innovation«, so der Vorsitzende der FTC Jon Liebowitz, »muss nicht zwangsläufig auf Kosten der Privatsphäre seiner Nutzer gehen.«98 Nur war Mr. Liebowitz’ Kontrahent kein Unternehmen; er hatte es mit einer neuen Marktform mit ebenso eigenen wie unbeugsamen Imperativen zu tun, deren Anforderungen ausschließlich auf Kosten der Privatsphäre des Nutzers zu erfüllen sind. Womöglich ahnte Marc Rotenberg, Executive Director von EPIC, den langen Weg der Enteignung und die vielen Einsprüche, die unterwegs nötig sein würden, als er die Weisungen der FTC lobte, aber gleichzeitig auch anmerkte, dass Einigungen mit einzelnen Firmen letztlich nichts daran änderten, dass hier der Gesetzgeber auf Bundesebene gefordert sei.99 Die Neuorientierung folgte auf dem Fuß. 2012 gab das Unternehmen bekannt, man würde sich bei der zielgerichteten Werbung künftig am Einsatz mobiler Apps orientieren. Im selben Jahr berichtete die Financial Times, Facebook arbeite mit Datalogix, einer mit dem Sammeln von Verbraucherdaten befassten Firma in Chicago, um festzustellen, wann Online-Werbung zu Käufen in der realen Welt führt, was das Erfassen persönlicher Nutzerinformationen aus Kunden-Accounts unabdingbar machte. Als Beispiel nannte man E-Mail-Adressen.100 2012 ermöglichte Facebook darüber hinaus Werbetreibenden Zugang zu Daten für das Targeting, darunter E-Mail-Adressen, Telefonnummern und Angaben über von Nutzern besuchte Websites. Das Unternehmen räumte ein, dass sein System private Messages von Nutzern auf Links zu Websites Dritter scanne

und derart verlinkten Webseiten automatisch »Likes« zuordne.101 2014 schließlich räumte man das Tracking von Nutzern über das ganze Web hinweg ein; unter anderem diene der »Like«-Button zur Erstellung detaillierter Profile für die personalisierte Einblendung von Werbeanzeigen. Facebooks »umfassendes Datenschutzprogramm« wies den Nutzer auf diese neue Tracking-Politik mit einigen Zeilen in seinen ebenso unverständlichen wie endlosen Nutzungsbestimmungen hin. Eine Möglichkeit, die Zustimmung zu verweigern, bot man dem Nutzer nicht.102 Google behauptete derweilen, sich an eine Zusage an die FTC zu halten, die 2001 deren kritische Vorbedingung gewesen war, Google die Erlaubnis für den Erwerb des Ad-Tracking-Riesen DoubleClick zu erteilen. In Ermangelung einer Möglichkeit zur expliziten Einwilligung des Nutzers hatte das Unternehmen sich damals bereit erklärt, Daten aus dem TrackingNetzwerk nicht mit anderen eindeutig personenbezogenen Informationen zu korrelieren. In diesem Fall erlaubte Google Facebook, die überwachungskapitalistische Grenze zu erweitern, und sorgte so dafür, dass Zuckerbergs Unternehmen die Hauptlast von Übergriff und Gewöhnung trug. Im Sommer 2016 überschritt Google selbst diese Grenze mit der Ankündigung, den von DoubleClick erfassten Browserverlauf eines Nutzers »möglicherweise« mit eindeutigen personenbezogenen Informationen aus Gmail und anderen Google-Diensten zu kombinieren. Die versprochene Einwilligungsfunktion für diesen neuen Tracking-Level präsentierte man unter der Überschrift »Einige neue Features für Ihr Google-Konto«. Ein Datenschutzexperte bezeichnete diesen Schritt als Todesstoß für den letzten »winzigen Anschein« von Datenschutz im Web.103 Ein Bündnis von Datenschutzgruppen legte dagegen erneut Beschwerde bei der FTC ein; wie aus deren Formulierung hervorgeht, hatte man implizit die Logik des Enteignungszyklus erkannt: »Google betreibt schrittweise und insgeheim, was auf einmal erledigt eindeutig illegal wäre.«104 Zu weithin publik gewordenen Schnitzern kam es 2012 bei Facebooks Börsengang, als Abwärtskorrekturen seiner Umsatzprognosen zu einigen fragwürdigen Geschäften zwischen seinen Investmentbankern und deren Kunden führten. Bedingt hatte diese Korrekturen die rapide Zuwendung zu Mobilgeräten, aber auch auf seinem Weg hin zu mobiler Werbung hatte das Team von Zuckerberg und Sandberg die Feinheiten des Enteignungszyklus

rasch im Griff. Im Handumdrehen gingen sie bei der Jagd nach Verhaltensüberschuss so geschickt wie skrupellos vor, erfassten Verhaltensüberschuss in den erforderlichen Mengen, umgingen Gesetze, wehrten sich gegen andere und rüsteten ihre Produktionsmittel auf. Alles, was zählte, war die Verbesserung ihrer Vorhersageprodukte. Die Überwachungserträge flossen in Strömen; die Aktionäre des Unternehmens sahen sich üppig belohnt. 2017 pries die Financial Times den Umsatzzuwachs von 71 % mit der Schlagzeile »Facebook: Das Zeichen wahrer Größe«. Mit zwei Milliarden aktiven Nutzern monatlich stieg der Börsenwert des Unternehmens auf knapp unter 500 Milliarden Dollar. Im ersten Quartal 2017 stand Facebook auf Platz sieben einer maßgeblichen Rangliste der 100 Topunternehmen der Welt – im Jahr zuvor hatte es noch gar nicht auf der Liste gestanden.105 Im zweiten Quartal 2017 kam nahezu jeder eingenommene Dollar aus der Werbung, insbesondere der mobilen Werbung, die 9,2 von insgesamt 9,3 Milliarden ausmachte, was einem Zuwachs von 47 % gegenüber dem Vorjahr entsprach.106 Dem englischen Guardian zufolge kassierten Google und Facebook 2016 ein Fünftel der weltweiten Werbeausgaben, fast doppelt so viel wie 2012. Einer anderen Rechnung zufolge zeichneten Google und Facebook 2016 für fast 90 % des Wachstums bei den Ausgaben für Werbung verantwortlich.107 Und sie verdankten ihre anscheinend unanfechtbare Position dem Überwachungskapitalismus. Von den drei nächstgrößten Internetunternehmen – Microsoft, Apple und Amazon – war es Microsoft, das sich als Nächstes und entschiedener als die anderen dem Überwachungskapitalismus zuwandte, um seine Führungsposition auf dem Hightech-Sektor wiederherzustellen. Im Februar 2014 ernannte man zu diesem Zweck Satya Nadella zum CEO. Wie allseits bekannt, hatte Microsoft beim Wettbewerb um die Websuche und bei der Entwicklung seiner zielgerichteten Werbung einige entscheidende Gelegenheiten versäumt. Bereits 2009, als Nadella noch Senior Vice President und Manager von Microsofts Suchbusiness war, kritisierte er öffentlich das Versäumnis des Unternehmens, die finanziellen Möglichkeiten dieser ersten Phase des Überwachungskapitalismus zu erkennen. »Im Rückblick«, klagte er, »war es eine furchtbare Entscheidung«, die Werbung bei der Suche einzustellen.

»Keiner von uns sah das Paid-Search-Modell in all seiner Pracht.« Nadella erkannte damals, dass Microsofts Suchmaschine Bing nicht mit Google konkurrieren konnte, weil es bei der Erfassung von Verhaltensüberschuss an Masse fehlte, die nun mal der kritische Faktor bei der Fabrikation qualitativ hochwertiger Vorhersageprodukte ist: »Wenn Sie sich die Suche ansehen … dann ist Masse dabei alles. Wir haben eindeutig nicht genügend Masse, und das beeinträchtigt … die Qualität der Ad-Relevanz, was vielleicht das größte Problem ist, das wir heute haben.«108 Kaum drei Monate nach Antritt seines Amts gab Nadella seine Absicht bekannt, Microsoft direkt auf diese Masse zuzusteuern. Im April 2014 lagen die Ergebnisse einer Studie vor, die das Unternehmen bei IDC, einem internationalen Marktforschungsunternehmen, in Auftrag gegeben hatte.109 Diese war zu dem Schluss gekommen, dass »Unternehmen, die ihre Daten nutzen, potenziell ihre Erträge um 1,6 Billionen Dollar steigern können im Gegensatz zu Unternehmen, die das nicht tun«. Entsprechend war Nadella fest entschlossen, sein Glück an den fernen Gestaden dieser reichen neuen Welt zu versuchen. Microsoft wollte die Vorteile seiner eigenen Datenschätze ernten; außerdem wollte sich das Unternehmen darauf spezialisieren, seine Kundschaft dazu zu »befähigen«, dasselbe zu tun. Nadella signalisierte die neue Richtung auf dem offiziellen Microsoft-Blog: »Die Chancen dieser neuen Welt bestehen darin, eine Möglichkeit zur Katalyse dieser Datenabgase aus dem allgegenwärtigen Einsatz von Rechnern zu finden und diese in Brennstoff für Umgebungsintelligenz zu verwandeln.«110 Einem Video zufolge, das diese neue »Datenvision« erklärt, »sind Daten, die einst ungenutzt blieben, jetzt Aktiva«. Viele von Nadellas Initiativen zielten darauf ab, verlorene Zeit nachzuholen, indem man robuste Nachschubrouten für Verhaltensüberschuss aufbaute und die Produktionsmittel des Unternehmens auf den neusten Stand brachte. Das bei Bing für die Suche zuständige Entwicklerteam baute sein eigenes Modell der digitalen und physischen Welt; die digitale Technologie, die sie dabei einsetzten, bekam den Namen Satori: ein selbstlernendes System, das Tag für Tag um das Datenvolumen von 28 000 DVDs wächst.111 »Es ist schlicht umwerfend«, sagte der Projektleiter, »wie viele Daten wir in den letzten paar Jahren erfasst haben. Aneinandergereiht würden die bis zur Venus reichen, und Sie

hätten immer noch 7 Billionen Pixel übrig.«112 Jedes einzelne dieser Pixel wurde gewinnbringend eingesetzt. Beim Earnings-Call im Oktober 2015 gab das Unternehmen bekannt, man habe mit Bing dank der Milliarde Dollar aus dem Quartal zuvor zum ersten Mal schwarze Zahlen geschrieben. Eine weitere Strategie zur Verbesserung von Bings Zugang zu Verhaltensüberschuss war Microsofts »cloudbasierte digitale Assistentin« Cortana, der Nutzer drei Monate nach dem Start bereits über eine Milliarde Fragen gestellt hatten.113 »Vier von fünf Suchanfragen«, so erklärt ein Executive von Microsoft, »gehen über den Browser an Google. In der Taskleiste [von Windows 10, über die Cortana aufgerufen wird] gehen fünf von fünf Anfragen an Bing … Damit machen wir ernst mit dem Thema Suche. Suche ist die Schlüsselkomponente unserer Monetarisierungsstrategie«.114 Cortana generiert mehr als Suchtraffic. »Cortana«, so erläutert es Microsofts Datenschutzerklärung, »funktioniert am besten, wenn Sie sich anmelden und Cortana Daten von Ihrem Gerät sowie aus Ihrem persönlichen Microsoft-Konto und anderen Microsoft-Diensten (sowie von Ihnen ausgewählten Angeboten Dritter) nutzen kann.«115 Wie Larry Pages »Automagie« soll Cortana zur ehrfurchtsvollen und dankbaren Kapitulation animieren. Ein Executive von Microsoft formuliert Cortanas Message folgendermaßen: » ›Ich weiß so viel über dich. Ich kann dir besser helfen, als du ahnst. Ich sehe Muster, die du nicht siehst.‹ Darin liegt ihr Zauber.«116 Nichtsdestoweniger war das Unternehmen klug genug, seinen Nutzern das wahre Ausmaß von Cortanas Wissen zu verschweigen. Cortana will alles über Sie wissen, aber sie will nicht, dass Sie wissen, wie viel sie weiß oder dass alle ihre Operationen darauf abgestimmt sind, fortwährend mehr zu erfahren. Stattdessen ist der »Bot« darauf programmiert, Sie um Erlaubnis und Bestätigung zu fragen. Laut dem zuständigen Projektmanager ist der Gedanke dahinter, die Öffentlichkeit nicht kopfscheu zu machen, indem man Cortanas Intelligenz als »autonom« outet, also stellt man sie lieber als »progressiv« dar. Es wäre zu viel für die Leute, wenn sie wüssten, wie viel ihre Smartphones bereits für sie übernehmen: »Wir haben uns

bewusst entschlossen, ein bisschen weniger ›magisch‹ und ein bisschen transparenter zu sein.«117 Nadella stellt sich eine neue »Gesprächsplattform« vor, die Nutzer mit Bots interagieren lässt, die sie dazu bewegen, die Einzelheiten ihres Alltags nicht nur freiwillig, sondern gerne herauszugeben.118 Die Plattform verspricht Erlebnisse wie »Conversational Commerce«,119 ein Verkaufsgespräch mit einem Bot, der »weiß, welche Schuhe Sie letzte Woche gekauft haben, der Ihre Vorlieben aus Ihren bislang getätigten Einkäufen kennt, der Ihr Profil hat und ein Empfehlungsmodell aufrufen kann, um zu entscheiden, nach welchem Produkt Ihnen ist … Kraft Daten und Analytik kann der Bot mit Empfehlungen aufwarten, die er für besonders relevant hält. Außerdem kann er andere aus Ihrem sozialen Netzwerk darum bitten, Ihnen bei Ihrer Entscheidung zu helfen. Haben Sie Ihre Wahl getroffen, weiß er, welche Größe Sie haben, wohin die Ware geschickt werden soll, kennt Ihre Zahlungsinformationen und veranlasst die Zusendung Ihres Kleids.«120 Das Erscheinen von Microsofts neuem Betriebssystem Windows 10 im Juli 2015 machte klar, wie ernst es dem Unternehmen damit war, Nachschubrouten für Verhaltensüberschuss aufzubauen und zu sichern.121 Ein Softwareingenieur bezeichnete es in einem Artikel für Slate.com als »Datenschutzmorast, der dringend der Reform bedarf«, als er detailliert beschrieb, wie das System »sich das Recht zugesteht, Ihre Daten tonnenweise auf Microsofts Server zu schippen, Ihre Breitbandleitung für Microsofts eigene Zwecke nutzt und ein Profil Ihrer Verwendung von Windows erstellt.«122 Wie so einige Experten rasch herausfanden, drängte das System den Nutzer dazu, die »Expressinstallation« vorzunehmen, bei der die Voreinstellung den maximalen Fluss persönlicher Informationen an die Server des Unternehmens erlaubt. Eine technische Prüfung der TechWebsite Ars Technica enthüllte, dass selbst nach Rücknahme dieser Einstellungen und Abschalten wesentlicher Dienste wie Cortana das System weiterhin Verbindung mit dem Internet aufnahm und Informationen an Microsoft weitergab. In einigen Fällen schienen darunter auch persönliche Informationen zu sein wie die Gerätekennung, Nutzerinhalte und Standortdaten.123

Einer Analyse der Electronic Frontier Foundation (EFF) zufolge mussten selbst Nutzer, die Cortana bewusst deaktiviert hatten, eine Informationserfassung von »beispiellosem« Umfang hinnehmen, so etwa Text-, Stimmen- und Touch-Eingaben, Webtracking sowie Telemetriedaten über die allgemeine Verwendung des Geräts, welche Programme man benutzt und wie lange und dergleichen mehr. Die EFF stellte darüber hinaus fest, dass das Unternehmen sich dafür entschied, bestimmte Sicherheitsfunktionen untrennbar mit dem Fluss personenbezogener Daten zu koppeln. Man begründete das damit, dass Sicherheitsupdates nicht richtig funktionieren würden, falls Nutzer es vorzogen, Angaben über ihren Standort auf ein Minimum zu beschränken.124 2016 erwarb Microsoft für 26,2 Milliarden Dollar das soziale Netzwerk für Fachkräfte LinkedIn. Ziel ist es, sich zuverlässige Nachschubrouten für Verhaltensüberschuss im Kontext sozialer Netzwerke zu sichern. Bewerkstelligt wird das über den sogenannten »Social Graph«, einer Art digitalen Karte unseres Online-Ichs, das heißt unserer Persönlichkeit und unserer Beziehungen. Diese aussagekräftigen neuen Ströme an Sozialüberschuss von 450 Millionen Nutzern125 können erheblich zur Verbesserung von Microsofts Vorhersageprodukten beitragen, ein Schlüsselfaktor, den Nadella in seiner Ankündigung des Erwerbs von LinkedIn heraushob: »Das kann Targeting und Relevanz auf den nächsten Level bringen.«126 Nadella sprach Investoren gegenüber von der Möglichkeit einer »beschleunigten Monetarisierung durch private und Firmenabonnements sowie durch zielgerichtete Werbung«. Zu den relevanten Schlüsselfaktoren gehörten neben Microsofts umfassendem Wissen über jeden einzelnen seiner Nutzer konsolidierte Profile über das ganze Spektrum von Diensten, Geräten und Kanälen hinweg: »Heute weiß Cortana über Sie Bescheid, über Ihr Unternehmen und über die Welt. Künftig wird Cortana auch alles über Ihr berufliches Netzwerk wissen und sich für Sie ein Bild machen. Damit sind Sie immer einen Schritt voraus.«127 Auch diesmal sahen sich Microsoft und Nadella für ihre Wende zu Überwachungserträgen vom Markt reich belohnt. Als Nadella im Februar 2014 zum CEO befördert wurde, handelte man die Papiere des Unternehmens mit etwa 34 Dollar und sein Marktwert belief sich auf 315

Milliarden Dollar. Drei Jahre später, im Januar 2017, überstieg die Marktkapitalisierung zum ersten Mal seit 2000 die 500-Milliarden-DollarGrenze und seine Aktien stiegen auf 65,64 Dollar, den Höchststand in der Geschichte des Unternehmens.128

Der Sirenengesang der Überwachungserträge Der beispiellose Erfolg von Google, Facebook und schließlich Microsoft übten eine schier greifbare Anziehungskraft auf die globale Wirtschaft aus, vor allem in den USA, wo die Politik der Gesetzlosigkeit fester als sonst wo verwurzelt ist. Im Handumdrehen demonstrierten auch Unternehmen aus etablierten Wirtschaftszweigen, Unternehmen, die an sich mit dem Silicon Valley nichts zu tun hatten, ihre Entschlossenheit, in den Wettbewerb um Überwachungserträge einzusteigen. Zu den Ersten in dieser zweiten Welle gehörten die Telekommunikations- und Kabelunternehmen, die für den Internetzugang von Millionen von Menschen verantwortlich sind. Obwohl nach wie vor offen ist, ob diese Unternehmen eine reelle Chance gegen die etablierten Internetriesen haben, deutet alles darauf hin, dass die Internetanbieter es auf einen Versuch ankommen lassen wollen. »Gewappnet mit einem umfassenden Überblick über das gesamte Web, befinden sich Internetanbieter womöglich sogar in einer Position, selbst Facebook oder Google zu übertrumpfen«, hieß es dazu in der Washington Post.129 Die größten amerikanischen Unternehmen auf diesem Sektor – Verizon, AT&T und Comsat – tätigten strategische Ankäufe, die eine Abwendung von ihren etablierten Gebührenmodellen hin zur Monetarisierung von Verhaltensüberschuss signalisieren. Ihre taktischen Manöver demonstrieren die Generalisierbarkeit sowohl der grundlegenden überwachungskapitalistischen Mechanismen als auch der operativen Voraussetzungen. Darüber hinaus belegen sie, dass diese neue Logik der Akkumulation ein ganz neues Territorium breitangelegter Marktanstrengungen definiert. Der dem Marktwert nach größte Telekommunikationskonzern der Welt Verizon machte seine Hinwendung zu Überwachungserträgen im Frühjahr

2014 publik. Ein Artikel in der Fachpublikation Advertising Age verkündete den Eintritt des Unternehmens in die Mobilwerbung.130 Die Möglichkeiten dieser Art von Werbung, so der bei Verizon für das Datenmarketing zuständige Vice President, sei bis dato durch ihre »Adressierbarkeit« eingeschränkt gewesen, durch »die zunehmende Schwierigkeit, Verbrauchern über wechselnde Geräte hinweg zu folgen«. Ein anderer Marketingexperte hatte diese Klage so formuliert: »Es gibt keine übergreifende Identität, anhand derer sich Nutzer mobiler Applikationen und ihr mobiler Browser unter einen Hut bringen lassen.«131 Der Artikel sprach von Verizons Entwicklung einer »Alternative zum Cookie für einen Werberaum, der am Fehlen von Cookies krankt«. Verizons Ansatz zielte darauf ab, das Tracking-Problem der Werbetreibenden dadurch zu lösen, dass man jedem Verizon-Nutzer eine sogenannte »PrecisionID«, eine versteckte und nicht löschbare Tracking-Nummer, zuwies.132 Genau genommen hatte Verizon seinen Übergriff bereits 2012, also zwei Jahre früher eingeleitet, der Öffentlichkeit aber wohlweislich davon nichts gesagt. Was vermutlich daran lag, dass diese PrecisionID es dem Unternehmen ermöglicht, das Verhalten von Personen an Smartphones und Tablets zu identifizieren und zu überwachen. Man generierte so Verhaltensüberschuss, ohne dass der Nutzer das mitbekam. Der Tracker ist weder abzuschalten noch mit Browsereinstellungen oder Datenschutztools zu umgehen. Egal ob ein Verizon-Nutzer eine Website oder ein Mobilgerät anwählt, das Unternehmen und seine Partner nutzen diese versteckte Identnummer zur Erfassung und Bündelung von Verhaltensdaten – und das alles ohne Wissen des Kunden. Verizons unentrinnbare Tracking-Fähigkeiten brachten dem Unternehmen einen entscheidenden Vorteil beim zunehmenden Wettbewerb um Verhaltensüberschuss. Werbetreibende, die es darauf angelegt haben, Ihren Spaziergang im Park zur Gelegenheit für eine Werbebotschaft zu deklarieren, können anhand dieser Nummer Ihr Handy damit treffgenau mit Anzeigen bombardieren. Außerdem ging Verizon eine Partnerschaft mit Turn ein, einer Firma für Werbetechnologie, die es bereits mit der Erfindung eines ungewöhnlichen »Zombie-« bzw. »Perma-Cookie« zu einem zweifelhaften Ruf gebracht hatte. Diese Cookies erzeugen automatisch Kopien, wenn ein Nutzer sich dem Ad-Tracking zu entziehen

oder die Cookies zu löschen versucht. Als Partner von Verizon verquickte Turns Zombie-Cookie sich mit Verizons geheimer Tracking-ID, was zusätzlich Schutz vor Entdeckung und kritischer Prüfung bot. Turns »Chefdatenschützer« sagte dazu: »Wir versuchen es mit der hartnäckigsten Kennung, die wir kriegen können, um zu tun, was wir tun.«133 Im Herbst 2014 outete Jacob Hoffman-Andrews, ein Technologe bei der Electronic Frontier Foundation, Verizons heimlichen neuen Anspruch auf kostenlose Rohstoffe. Sein Artikel in Wired analysierte jedoch nicht nur Verizons Überwachungsprogramm, er nannte mit AT&T noch einen zweiten Schuldigen, der sich einer ähnlichen Tracking-ID bediente. »Es gibt keine Möglichkeit, das abzustellen«, zitierte er einen Sprecher von Verizon.134 Selbst wenn Kunden sich aus Verizons zielgerichteter Werbung ausklinken, so Hoffman-Andrews, die Tracking-ID bleibe bestehen, da sich das Unternehmen über alle gegenteiligen Signale des Nutzers hinwegsetze. Auch andere Einstellungen wie »Do not Track«, Incognito und andere Private-Browsing-Modi änderten daran nichts. Die Identnummer werde jeder »unverschlüsselten Website« übermittelt, »die ein Verizon-Kunde von seinem Mobilgerät aus anwählt. Das gestattet es Werbetreibenden und Websites, eingehende und permanente Profile der BrowsingGepflogenheiten von Nutzern zu erstellen – ohne deren Zustimmung.«135 Von der Gefahr neuer Konkurrenz aufgeschreckt, warf Google sich zum Datenschützer auf und startete eine Kampagne für ein neues InternetProtokoll, das »Header-Injections« wie die von Verizons PrecisionID unmöglich machte.136 Die Journalistin und Datenschutzexpertin Julia Angwin und ihre Kollegen bei ProPublica berichteten, dass ähnliche Tracking-IDs sich in der Telekommunikationsbranche zum Standard entwickelten. Was einen Manager aus der Werbebranche in Begeisterung ausbrechen ließ: »Was wir spannend finden, das ist die Kennung auf Netzbetreiberlevel, bei der die Erkennung auf einem höheren Level ansetzt, was uns mit hundertprozentiger Sicherheit tracken lässt …« Hoffman-Andrews bezeichnete Verizons Taktiken als »spektakuläre Verletzung der Privatsphäre seiner Kunden«.137 Die taktischen Operationen des Unternehmens freilich weisen auf eine Entwicklung, die noch viel weiter geht.

Verizon hatte nicht die Absicht, den einmal gewonnenen Boden wieder preiszugeben; die versteckte Nummer sollte bleiben. Seinen Kunden versicherte man, es sei »unwahrscheinlich, dass Sites und Werbetreibende versuchen werden, ein Kundenprofil zu erstellen«.138 Experten brauchten freilich nicht lang, um herauszufinden, dass Twitters Mobilwerbung sich längst auf Verizons Identnummer verließ, um das Verhalten von TwitterNutzern zu tracken.139 Dann fand der Informatiker und Rechtswissenschaftler Jonathan Mayer heraus, dass Turns Zombie-Cookie mit mehr als dreißig Unternehmen kommunizierte, darunter Google, Facebook, Yahoo, Twitter, Walmart und WebMD. Mayer untersuchte die Datenschutzeinstellungen von Verizon und Turn, nur um festzustellen, dass es sich bei beiden um Mogelpackungen handelte. Verizons öffentliche Erklärungen zu Privatsphäre und Datenschutz seiner Tracking-ID, so seine Schlussfolgerung, sind allesamt falsch. »Für den normalen Nutzer«, schrieb er, »gibt es schlicht keinen Schutz.«140 Verizons massives überwachungskapitalistisches Engagement koppelte die Interessen des Unternehmens unauflösbar an den Extraktionsimperativ. Wir erkennen das daran, dass Verizon den Enteignungszyklus entdeckte und implementierte. Rasch arbeitete man sich durch die Folge taktischer Phasen vom Übergriff bis zur Neuausrichtung. Verizons ursprünglicher Übergriff trug dem Unternehmen drei Jahre interner Experimente und Entdeckungen ein. Als die Öffentlichkeit dem Unternehmen auf die Schliche kam, leitete es den allmählichen Prozess der öffentlichen Gewöhnung an seine neuen Praktiken ein. Waren seine Strategien erst einmal öffentlich, ließ es das Sperrfeuer kritischer Artikel und die prüfenden Blicke der Datenschützer über sich ergehen, erkaufte sich damit aber auch mehr Zeit, sich nach Ertragsmöglichkeiten und weiteren Nachschubrouten umzusehen. Die öffentliche Reaktion auf seinen Übergriff zwang das Unternehmen, die nächsten Phasen des Zyklus zu planen. Der Druck der Öffentlichkeit triggerte Anfang 2015 die Adaptionsphase. Nur wenige Monate zuvor hatte die FCC der illegalen Tracking-Praktiken wegen gegen Verizon zu ermitteln begonnen. Das Electronic Privacy Information Center ließ im Januar eine Petition zirkulieren, in der man die FCC aufforderte, ein Bußgeld gegen das Unternehmen zu verhängen. Zum Monatsende veröffentlichte der Senatsausschuss für Handel, Wissenschaft

und Transport ein Schreiben an Verizon, in dem man »tiefe Besorgnis« über die neuen Praktiken zum Ausdruck brachte.141 Der Ausschuss tadelte Verizon und Turn für die »allem Anschein nach« bewusste »Verletzung der Privatsphäre« und »die Umgehung der Entscheidung« ihrer Kunden.142 Binnen Tagesfrist gab Verizon folgende Erklärung ab: »Wir arbeiten daran, die hier als UIDH [unique identifier header] bezeichnete Identnummer in das Opt-out mit aufzunehmen, und gehen davon aus, dass das bald verfügbar sein wird.« Die New York Times sprach hinsichtlich Verizons Erklärung von einer »wesentlichen Revision seines Programms für zielgerichtete Mobilwerbung«.143 Die Times hatte nicht wissen können, dass die Neuorientierungsphase des Enteignungszyklus längst in Gang gesetzt war. Im Mai 2015 erklärte sich Verizon bereit, für 4,4 Milliarden Dollar AOL zu erwerben. Wie viele Analysten rasch merkten, war das eigentliche Zugpferd dieses Ankaufs AOLs CEO Tim Armstrong, der vor seiner Zeit bei AOL wesentlich am Aufbau von Googles AdSense beteiligt war. Er war bei Google Vertriebsleiter Werbung für Amerika gewesen, als er – wie Sheryl Sandberg vor ihm – 2009 zu AOL ging. Neben einem gründlichen Verständnis für die Rolle der Überwachungs-DNA bei AdWords brachte er die Entschlossenheit mit, AOLs Bilanz mit einer überwachungskapitalistischen Gentherapie zu retten. »Unser Hauptinteresse«, sagte Verizons Geschäftsführer für das operative Geschäft, »galt der phantastischen AdTech-Plattform, die Tim Armstrong und sein Team aufgebaut hatten.«144 Forbes zufolge brauchte Armstrong Verizons Ressourcen, »um gegen das Duopol von Google und Facebook anzugehen«.145 Jede ernsthafte Kampfansage an die beiden Giganten des Überwachungskapitalismus musste mit Größenvorteilen bei der Beschaffung von Verhaltensüberschuss beginnen. Dazu leitete Verizon seine Nachschubwege auf der Stelle über AOLs Werbeplattformen. Binnen weniger Monate nach dem Erwerb von AOL postete Verizon auf seiner Website eher still und leise eine neue Datenschutzerklärung, die wohl kaum einer seiner 135 Millionen Mobilnetzkunden je lesen sollte. In den letzten Absatz waren einige Zeilen gerutscht, die alles sagen: PrecisionID war im Begriff umzuziehen. Verizon und AOL würden ab sofort zusammenarbeiten. Um »Dienste anzubieten, die noch personalisierter und

damit von noch größerem Nutzen für Sie sind … werden wir Verizons existierende Werbeprogramme in das Werbenetzwerk von AOL integrieren. Diese Kombination wird dazu beitragen, die Werbung, die Sie über die ganze Palette der von Ihnen genutzten Geräte und Dienste zu sehen bekommen, nützlicher zu machen«. Die neue Erklärung beteuerte, dass »uns die Privatsphäre unserer Kunden sehr wichtig ist« – freilich nicht wichtig genug, um den Extraktionsimperativ zu kompromittieren und den Rohstofflieferanten zu erlauben, das Enteignungsprogramm des Unternehmens anzufechten. Möglichkeiten zum Opt-out wurden angeboten, aber wie üblich waren sie komplex, schwer zu finden und zeitraubend. »Bitte nehmen Sie zur Kenntnis«, so schloss das Posting, »dass Eingriffe am Browser Ihrer Geräte, wie das Löschen von Cookies oder Ihres Browserverlaufs, keine effektive Möglichkeit für ein Opt-out aus den Werbeprogrammen von Verizon und AOL sind.«146 Die Einigung zwischen FCC und Verizon war ein weiterer düsterer Beleg dafür, dass eine öffentliche Einrichtung keine Chance hat gegen Tempo und Ressourcen eines entschlossenen Überwachungskapitalisten. Im März 2016, lange nach der Bekanntgabe von Verizons taktischer Neuausrichtung, einigte sich die FCC mit Verizon auf ein Bußgeld von 1,35 Millionen Dollar wegen der versteckten Verstöße gegen den Datenschutz. Verizon erklärte sich bereit, sein Cookie auf Opt-in-Basis zu relancieren. Allerdings erstreckte sich die Einigung nicht auf AOLs Werbenetzwerk – und genau dort spielte ab sofort die Musik. Verizons frische Versorgungsrouten standen nie zur Debatte.147 Noch im selben Monat sollte sich Tim Armstrong mit Werbekunden treffen, ein Rendezvous, das dem Wall Street Journal als »seine erste richtige Chance« galt, »den Leuten klarzumachen, dass AOL – eben von Verizon Communications Inc. eingekauft – die Absicht hatte, Facebook Inc. und Google ernsthaft Konkurrenz zu machen …«148 Am 31. März 2016 stellte die FCC den Vorschlag für eine Verordnung zur Debatte, Datenschutzrichtlinien für Internet-Serviceprovider einzuführen. Die Unternehmen sollten weiterhin Verhaltensdaten sammeln dürfen, soweit diese der Sicherheit und Effektivität ihrer Angebote dienten, für jeden anderen Einsatz von »Verbraucherdaten« sollte eine ausdrückliche Einwilligung nötig sein. »Haben wir erst einmal bei einem Internet-

Serviceprovider unterschrieben«, schrieb der Chef der FCC Tom Wheeler, »haben die meisten von uns kaum eine Möglichkeit, es uns anders zu überlegen oder das betreffende Netzwerk auf die Schnelle wieder zu verlassen.«149 Der Vorschlag zielte ausschließlich auf InternetServiceprovider ab, da sie der Zuständigkeit der FCC unterliegen; Internetunternehmen schloss er nicht ein, da deren Regulierung in den Zuständigkeitsbereich der Bundeshandelskommission fällt. Im Lichte der hohen Einsätze im Enteignungswettbewerb, der bereits unter den großen Internet-Serviceprovidern herrschte, überrascht es nicht weiter, dass der Vorschlag sich rasch zum politischen Blitzableiter entwickelte. Internet-Serviceprovider, deren Lobbyisten, Politikberater und politische Verbündete taten sich zusammen, um die Initiative im Keim zu ersticken. Eine solche Regelung würde ihre Chancen im Wettbewerb mindern, sagten sie. »Telekommunikationsunternehmen sind gegen diesen Vorschlag, weil er sie ihrer Ansicht nach im Wettbewerb mit anderen Internetunternehmen wie Google benachteilige, die ebenfalls Daten über Nutzer sammeln …«150 Am 27. Oktober 2017 stimmten die Kommissionsmitglieder mit drei zu zwei Stimmen in einer bahnbrechenden Entscheidung für den Schutz des Verbrauchers im Internet. Es war ein historischer Tag im Leben des jungen Überwachungskapitalismus, aber auch im langen Leben der FCC, denn immerhin sorgte die Behörde damit zum ersten Mal für Online-Schutz dieser Art.151 Weder die ursprünglichen Vorschläge der FCC noch die endgültige Abstimmung kühlten Verizons Eifer bei der Jagd nach Verhaltensüberschuss in ausreichenden Mengen. Und falls das Gesetz in die Stadt kam, würde man sich eben eine neue Stadt ohne Sheriff kaufen. Im Juni 2017 besiegelte Verizon den Ankauf des Kerngeschäfts von Yahoo!. Damit erwarb man für gerade mal 4,48 Milliarden Dollar eine Milliarde Nutzer, die die Dienste des einstigen Internetriesen monatlich in Anspruch nehmen, darunter 600 Millionen aktive Mobilnutzer.152 »Größe ist unabdingbar«, hatte Armstrong ein Jahr zuvor Journalisten gegenüber gesagt.153 »Wenn man bei der Olympiade mitmischen will, muss man gegen Google und Facebook antreten.«154 Armstrong pries Verizons Vorzüge: seine umfassende Übersicht über das Verhalten seiner Nutzer und deren Downloads rund um die Uhr nebst ihren Standorten.

2017 hatte Verizon alle Elemente für seine neuen Ambitionen am Start. Das neue Internetunternehmen unter Armstrongs Leitung nannte sich Oath – »Eid«; es umfasste Yahoo! und AOL und hatte monatlich insgesamt 1,3 Milliarden Nutzer. »Verizon«, so fasste die New York Times zusammen, »hofft mit seinem Spektrum von Inhalten und neuen Formen der Werbung in seinem Wettbewerb gegen Google und Facebook mehr Besucher und Vermarkter anzuziehen.«155 In einem beunruhigenden Epilog zu diesem Kapitel in der Geschichte des Überwachungskapitalismus stimmte am 28. März 2017 ein frisch gewählter republikanischer Kongress dafür, die Datenschutzregelung für Internetprovider wieder abzuschaffen, zu der die FCC sich erst wenige Monate zuvor durchgerungen hatte. Die Richtlinien hatten von Kabel- und Telefongesellschaften verlangt, die Zustimmung des Nutzers einzuholen, bevor sie persönliche Informationen zu Werbezwecken oder zur Erstellung von Profilen verwendeten. Die Unternehmen hatten die republikanischen Senatoren davon überzeugt, dass das Zustimmungsprinzip ein schwerer Schlag für die grundlegenden Mechanismen des neuen Kapitalismus wäre: die Legitimität einseitiger Überschussenteignung, die Eigentumsrechte am Überschuss, die Entscheidungsrechte über diesen und das Recht auf einen unregulierten rechtsfreien Raum, in dem man diesen Aktivitäten nachgehen kann.156 Darüber hinaus hinderte der Beschluss vom März 2017 die FCC daran, künftig ähnliche Datenschutzregelungen anzustreben. Der von den Demokraten in die FCC berufene Tom Wheeler traf in einem Artikel für die New York Times den Kern des Problems: Für meine demokratischen Kollegen und mich sind die digitalen Spuren, die ein Verbraucher bei der Nutzung des Netzes hinterlässt, Eigentum dieses Verbrauchers. Sie enthalten private Informationen über persönliche Präferenzen, gesundheitliche Probleme und finanzielle Angelegenheiten. Nach Ansicht unserer republikanischen Kollegen in der Kommission sollten diese Daten dem Netzwerkbetreiber zum freien Verkauf zur Verfügung stehen. Die Aufhebung der Regelung bedeutete Folgendes: In dem Augenblick, in dem an sich durch Bundesgesetze zur Vertraulichkeit des Telefonats geschützte Informationen über das Internet gehen, landen sie in der

Überschussversorgungskette der Internetprovider. Diese Schlappe war der Abgesang des Mythos von der »Kostenlosigkeit« für Dienstleistungen wie Googles Suche oder Facebooks soziales Netzwerk, und die Überwachung war der bittere Preis für den faustischen Pakt, den sich Internetnutzer rund um die Welt aufschwatzen ließen. Die Aufhebung der Regelung machte dem Verwirrspiel endgültig ein Ende, da nun jeder Nutzer weiß, dass er mit der Begleichung seiner Telefonrechnung auch gleich für das Privileg einer abstrakten, aber nichtsdestoweniger räuberischen Leibesvisitation mitbezahlt.157 Neue wie etablierte Unternehmen aus allen Sektoren – Einzelhandel, Finanzwirtschaft, Versicherungen, Gesundheit, Autobranche, Hotellerie, Tourismus und Bildung – schließen sich dem Pilgerzug zum Mekka der Überwachungserträge an. Alle lockt sie die Vorstellung von überdimensionalem Wachstum und Profit, das Versprechen auf die üppigen Renditen, wie sie eben nur auf den Finanzmärkten zu finden sind. In den folgenden Kapiteln werden wir uns zahlreiche Beispiele aus allen diesen Sektoren ansehen. In einem parallelen Trend entwickelte sich die Überwachung im Interesse der Jagd nach Verhaltensüberschuss und dessen Verkauf selbst zur Dienstleistung. Man fasst solche Unternehmen gerne unter dem Begriff »Software as a Service« oder SaaS zusammen, wobei sie mit dem Begriff »Überwachung als Dienstleistung« weitaus treffender bezeichnet wären. So überprüft zum Beispiel ein neuer App-basierter Ansatz bei der Kreditvergabe auf der Stelle die Kreditwürdigkeit anhand detaillierter Daten aus dem Smartphone des Antragstellers und anderem Online-Verhalten wie Textnachrichten, E-Mails, GPS-Koordinaten, Postings auf sozialen Medien, Facebook-Profilen, Einkäufen und Kommunikationsmustern.158 Solche Datenquellen können sehr wohl intime Details enthalten, wie etwa wie oft Sie Ihr Handy aufladen, die Zahl der Textnachrichten, die Sie bekommen, ob und wann Sie Ihre Anrufe beantworten, wie viele Kontakte Sie in Ihrem Telefon gespeichert haben, wie Sie Online-Formulare ausfüllen oder wie viele Kilometer Sie täglich fahren. Aus diesen Verhaltensdaten ergeben sich nuancierte Muster, die auf die Wahrscheinlichkeit schließen lassen, mit der Sie Ihren Kredit nicht bedienen werden, eine Information, die wiederum als Rohstoff für die Weiterentwicklung und Verfeinerung solcher und anderer

Algorithmen dient. Zwei Wirtschaftswissenschaftler, die sich diesen Ansatz näher angesehen haben, stellten fest, dass derlei aus Verhaltensüberschuss gewonnene Eigenschaften zu einem Vorhersagemodell führen, das sich mit der traditionellen Bewertung der Kreditwürdigkeit durchaus vergleichen lässt: »Die Methode quantifiziert eine Vielzahl von Verhaltensaspekten, die vom Typ her in die Kategorie ›weiche‹ Informationen fallen, womit diese für formelle Institutionen lesbar werden.«159 Der CEO eines Kreditunternehmens, das pro Kunde 10 000 Signale analysiert, erklärte dazu: »Das ermöglicht einem einen ganz anderen Einblick in den Alltag dieser Kunden.«160 Entwickelt wurden solche Methoden ursprünglich für Afrika, um dort Personen ohne Kreditlinie die Geldaufnahme zu ermöglichen. Eine Kreditgruppe interviewte potenzielle Kunden in einkommensschwachen Ländern und kam zu dem Schluss, dass es ein Leichtes wäre, die ohnehin schon gebeutelten Armen dort auszubeuten: »Die meisten sagten, dass sie kein Problem damit hätten, im Gegenzug für die dringend benötigten Mittel persönliche Details preiszugeben.«161 Aber da diese App-basierten KreditStart-ups in der Regel im Silicon Valley entwickelt und finanziert werden, überrascht es nicht weiter, dass dieselben Techniken Teil eines breiteren Trends wurden, auch amerikanische Familien auszubeuten, die, von Finanzkrise und neoliberaler Sparpolitik wirtschaftlich ausgeblutet, ihr Heil in einer Kreditaufnahme suchen. Wie das Wall Street Journal berichtete, arbeiteten neue Start-ups wie Affirm, LendUp und ZestFinance mit »Daten aus Quellen wie sozialen Medien, Online-Verhalten und Datenmaklern, um über die Kreditwürdigkeit Zigtausender amerikanischer Verbraucher ohne Kreditlinie zu entscheiden« – ein weiterer Hinweis darauf, dass Entscheidungsrechte und der Schutz der Privatsphäre, den sie ermöglichen, zu einem Luxus geworden sind, den sich nicht mehr allzu viele leisten können.162 Ein weiteres Beispiel für »Überwachung als Dienstleistung« ist ein Unternehmen, das eingehende Sicherheitsüberprüfungen potenzieller Kunden und Mieter an Arbeitgeber respektive Vermieter verkauft. So verlangt zum Beispiel ein potenzieller Vermieter von seiner potenziellen Mieterin den Einblick in alle ihre Social-Media-Profile. Der Dienst »durchkämmt Ihre Aktivitäten auf der Site« – darunter die Threads

kompletter Unterhaltungen und privater Messages – und schickt sie durch Natural-Language-Processing- und andere Analysesoftware, um dann schließlich einen Bericht auszuspucken, der von Ihrer Persönlichkeit bis hin zu ihrem »finanziellen Stresspegel« alles umfasst. Und er macht dabei auch vor vertraulichen Informationen wie Schwangerschaften oder Ihrem Alter nicht halt. Die Betroffenen haben dabei keine Möglichkeit, die Ergebnisse einer solchen Überwachung einzusehen oder gar anzufechten. Und während eine potenzielle Mieterin alledem durchaus noch zustimmen muss, sehen sich Menschen mit weniger Geld und Möglichkeiten wehrlos unter dem Joch, für soziale Teilhabe mit dem Verlust der Privatsphäre zahlen zu müssen. Der CEO des fraglichen Dienstleisters fasst das triumphierend zusammen: »Wenn sie dafür bekommen, was sie wollen, geben die Leute ihre Privatsphäre auf.«163 Eine weitere Art von Unternehmen, die »Überwachung als Dienstleistung« anbieten, benutzt Datenwissenschaft und maschinelles Lernen dazu, das Internet nach Verhaltensüberschuss von Personen zu durchkämmen – sei es, um diesen zu verkaufen, sei es, um daraus lukrative Vorhersageprodukte zu fabrizieren. Der Rechtswissenschaftler Frank Pasquale bezeichnet dies als »dunklen Markt für personenbezogene Daten«.164 So dient hiQ etwa seine Vorhersageprodukte Personalabteilungen an. Die Firma durchkämmt das Web nach Informationen über die Angestellten eines Kunden, unter anderem soziale Medien und öffentlich verfügbare Daten; ihre »Data-Science-Engine extrahiert aus diesem Rauschen starke Signale dafür, dass jemand ein ›Fluchtrisiko‹ darstellen könnte«. Maschinenlernmodelle ordnen die Angestellten auf einem Risikoindex ein, der es dem Kunden ermöglicht, »mit laserartiger Präzision die Angestellten herauszupicken, die die größte Gefährdung darstellen«. Das Unternehmen behauptet, damit eine »Kristallkugel« zu liefern und dass seine Vorhersagen »praktisch identisch« mit tatsächlich beobachteter Personalfluktuation sind. Mit den von hiQ gelieferten Informationen können Personaler präventiv eingreifen. So geben sich Firmen entweder besondere Mühe, einen Angestellten zu halten, oder sie stellen einem »Fluchtrisiko« in einer Art Präventivschlag den Stuhl vor die Tür.

Ein weiteres Beispiel ist Safegraph, ein Unternehmen, das sich mit Apps zusammengetan hat, die Ihr Verhalten zum Erfassen von »high precision /  low false positive«-Daten tracken, die man »im Hintergrund aus großen Populationen« zieht. Laut einem Artikel der Washington Post sammelte die Firma allein im November 2016 siebzehn Billionen »Standort-Marker« von zehn Millionen Smartphones. Diese verkaufte man unter anderem an zwei Forscher einer Universität für eine detaillierte Studie politischer Einflüsse auf Verhaltensmuster von Familien an Thanksgiving in diesem Jahr.165 Allen verbreiteten Euphemismen wie »Anonymisierung« und »EntIdentifikation« zum Trotz trackt Safeguard individuelle Geräte und die Bewegungen ihrer Besitzer den ganzen Tag über, und die Daten, die dabei entstehen, sind allemal detailliert genug, um den Standort ihrer Wohnungen zu ermitteln. Der Überwachungskapitalismus ist zwar eine digitale Geburt, aber wie wir in den kommenden Kapiteln sehen werden, ist er längst nicht mehr auf digital geborene Unternehmen beschränkt. Diese Logik, Investitionen in Erträge zu verwandeln, ist nicht nur höchst anpassungsfähig, sondern auch außergewöhnlich lukrativ, solange die Rohstoffversorgung nichts kostet und man sich das Gesetz vom Leibe hält. Die rasante Abwanderung hin zu Überwachungserträgen, die im Augenblick zu beobachten ist, erinnert an die Verlagerung von Erträgen aus Gütern und Dienstleistungen hin zu Erträgen aus der meisterhaften Beherrschung der spekulativen und kapitalmarktorientierten Strategien des Finanzkapitalismus Ende des 20. Jahrhunderts. Damals sahen sich die Unternehmen reihenweise gezwungen, sich denselben Geboten zu unterwerfen: die Belegschaft reduzieren, Herstellung und Dienstleistungen auslagern, Ausgaben für Produkt- und Dienstleistungsqualität reduzieren, Leistungen für Angestellte und Verbraucher einschränken und die Interaktion mit dem Verbraucher automatisieren – kostenreduzierende Strategien mit einem Wort, die darauf abzielen den Aktienpreis eines Unternehmens zu stützen, der damit unter das Joch einer zunehmend begrenzten und ausgrenzenden Sicht des Unternehmens und seiner Rolle in der Gesellschaft geriet. Mit zunehmender Hitzigkeit des Wettbewerbs um Überwachungsaktiva schieben sich neue Bewegungsgesetze in den Vordergrund. Diese werden auf lange Sicht für die Herausbildung eines immer gnadenloseren

Imperativs sorgen, künftiges Verhalten vorherzusagen – mit immer größerer Gewissheit, mit immer präziseren Details. Das wiederum muss dazu führen, dass sich das ganze Projekt von der virtuellen Welt zugunsten unserer »realen« Welt löst. In Teil II werden wir dieser Migration in die reale Welt folgen. Wir werden sehen, wie Wettbewerbsdynamiken die Expansion von Nachschuboperationen erzwingen und eine immer komplexere Extraktionsarchitektur sowohl weiter als auch tiefer in jeden Bereich unseres Alltags greift. Bevor wir dieses Projekt angehen, ist es jedoch erst einmal Zeit für eine Standortbestimmung. Wie bereits angedeutet, können wir die Gefahren des Überwachungskapitalismus in ihrer Gänze weder durch die Linse der Privatsphäre oder des Datenschutzes begreifen noch durch die des Monopols. In Kapitel 6 biete ich deshalb eine neue Lesart von Gefahr. Die Bedrohungen, denen wir uns gegenübersehen, sind weit fundamentaler, da Überwachungskapitalisten sich der wesentlichen Fragen bemächtigen, die in unserer Zeit Wissen, Autorität und Macht definieren: Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet?

Kapitel 6 Die Annexion: Wissensteilung in der Gesellschaft Warum die Frucht wohl als verboten galt? Für sie nichts Neues mehr; wohl schwiegen sie, doch hörten sie kaum hin, als man sie schalt: was sie nun draußen täten, wußten sie. – W. H. Auden, Sonette aus China, II

Die Google-Deklarationen Am 4. Dezember 1492 gelang es Kolumbus, den auflandigen Winden ein Schnippchen zu schlagen, die ihn daran gehindert hatten, von der Insel, die wir heute als Kuba kennen, in See zu gehen. Binnen Tagesfrist warf er Anker vor der Küste einer benachbarten Insel, die bei den Einheimischen Kiskeya oder Bohio hieß, und brachte damit etwas in Gang, was Historiker als »Eroberungsmuster« bezeichnen. Dieses verläuft in drei Phasen: die Erfindung legalistischer Maßnahmen, mit denen man die Invasion zu rechtfertigen versucht, die Deklaration territorialer Ansprüche und schließlich die Gründung einer Stadt, um die Eroberung zu legitimieren und institutionalisieren.1 Die Seeleute hätten unmöglich ahnen können, dass sie mit ihrer Handlungsweise den ersten Entwurf eines Musters lieferten, dessen Echo über Zeit und Raum bis ins digitale 21. Jahrhundert nachhallen sollte. Auf Bohio fand Kolumbus endlich eine blühende materialistische Kultur, die seiner Träume und dem Appetit der spanischen Monarchen würdig war.

Er fand Gold sowie kunstvolle Stein- und Holzarbeiten vor, außerdem »zeremonielle Räume … von Mauern gesäumte Plätze für Ballspiele … Steinkrägen, Anhänger und stilisierte Statuen … reich geschnitzte hölzerne Throne … aufwändigen persönlichen Schmuck«. In der Überzeugung, dass die vielversprechende Insel mit den freundlichen Bewohnern »sein bisher bester Fund« sei, erklärte er Königin Isabella: Es bleibt nur noch, eine spanische Präsenz einzurichten und ihnen zu befehlen, Ihnen zu Willen zu sein. Denn … Sie können ihnen befehlen und sie für Sie arbeiten lassen, Saat auszubringen und zu tun, was immer sonst nötig ist, und eine Stadt zu bauen, und sie lehren, Kleider zu tragen und unsere Gebräuche anzunehmen.2 Dem Sprachphilosophen John Searle zufolge ist eine Deklaration eine besondere Art des Sprechens und Handelns, das Fakten frei erfindet und eine neue Realität schafft, wo vorher nichts war. Das funktioniert folgendermaßen: Manchmal sagen wir etwas, nur um die Welt zu beschreiben – »Du hast braune Augen« –, manchmal um sie zu verändern: »Schließ die Tür.« Eine Deklaration verbindet beides; sie behauptet eine neue Realität, indem sie die Welt beschreibt, als wäre eine erwünschte Veränderung bereits eingetreten: »Alle Menschen sind gleich.« »Sie können ihnen befehlen.« Searle sagt: »Im Fall einer Deklaration sorgt man dafür, daß etwas der Fall ist, indem man erklärt, daß es der Fall sei.«3 Nicht jede Deklaration ist explizit in Worte gefasst. Manchmal beschreiben wir nur oder beziehen uns auf oder sprechen über oder denken an etwas oder wir handeln in Bezug auf eine Situation so, »daß eine Realität dadurch geschaffen wird, daß man sie als geschaffene darstellt«.4 Mal angenommen, der Kellner bringt meinem Freund und mir zwei gleiche Teller Suppe und setzt uns beiden je einen vor. Ohne ein Wort zu sagen, erklärt er damit, dass die Teller nicht identisch sind: Einer ist für meinen Freund, der andere ist für mich. Wir bekräftigen diese Fakten, indem ich nur aus »meinem« Teller esse und mein Freund aus »seinem«. Als »sein« Teller leer ist, hat er noch Hunger, und so fragt er mich, ob er einen Löffel voll Suppe aus dem Teller vor mir haben kann, womit noch einmal bestätigt wird, dass der Teller vor mir »mein« Teller ist. So werden Deklarationen kraft Anerkennung der neuen Fakten durch andere bekräftigt oder

geschwächt. Laut Searle ist »die gesamte institutionelle Realität und daher … die gesamte menschliche Zivilisation … das Produkt von … Deklarativa«.5 Deklarationen sind ihrem Wesen nach übergriffig, weil sie der sozialen Welt neue Fakten aufzwingen, während ihre Urheber noch auf Wege sinnen, andere zur Anerkennung dieser Fakten zu bewegen. Kolumbus’ Deklaration reflektiert dieses »Eroberungsmuster«, wie der Historiker Matthew Restall schreibt: »Spanier des 16. Jahrhunderts präsentierten ihre Taten und die ihrer Landsleute konsequent in einer Diktion, die die Vollendung ihrer Eroberungsfeldzüge vorwegnahm, und verliehen so den Eroberungschroniken einen Anschein von Unvermeidlichkeit. Die Phrase ›spanische Eroberung‹ mitsamt ihren Implikationen ist uns überliefert, weil den Spaniern so viel daran lag, ihre Bemühungen als Eroberungen und Befriedungen darzustellen, als erfüllte Kontrakte, als von der Vorsehung bestimmt, als vollendete Tatsachen.«6 Den spanischen Konquistadoren und ihren Monarchen war daran gelegen, ihre Invasion auf eine Art zu rechtfertigen, die für Einverständnis sorgen sollte, vor allem unter ihrem europäischen Publikum. So versuchten sie ihrem Tun »einen legalistischen Anschein« zu verleihen, »indem sie sich auf bewährte Präzedenzfälle beriefen und nach diesen handelten«.7 Zu diesem Zweck waren die Soldaten angehalten, den Einheimischen vor einer Kampfhandlung den Requerimiento zu verlesen, ein königliches Edikt von 1513, das den Konquistador zur Verkörperung der Autorität Gottes, des Papstes und des Königs erklärt und die indigenen Völker zu deren Vasallen.8 Ihr Caciques Indianer auf dem Fußvesten Land, dieses oder jenes Orts, wir verkündigen euch, daß allein ein Gott, ein Pabst, und ein König in Castilia ist, welchem Herren diese Länder zugeeignet sind, kommet alsbald und huldigt ihm, etc.9 Im Folgenden zählte dieses Edikt auf, welche Unbilden über die Bewohner des Dorfes kommen würden, sollten sie der Aufforderung nicht nachkommen: »Wo ihr es underlassen werdet, so solt ihr wissen, daß wir euch bekriegen, erwürgen, und zu leibeignen Leuten machen wollen.« In

dieser monumentalen Konfrontation mit dem Beispiellosen riet man den Einheimischen zu und warnte sie in einer Sprache, die sie nicht verstanden, sich widerstandslos einer Autorität zu ergeben, die sie sich noch nicht einmal vorstellen konnten. Der spanische Dominikaner Bartolomé de Las Casas, dessen Chronik diese Episode spanischer Gräuel dokumentiert, schrieb, dass der Requerimiento den Einheimischen eine faire Behandlung versprach, falls sie sich ergaben, ihnen aber auch die Folgen einer Gegenwehr vor Augen führte. Um das Maß an Zynismus dieser Übung vollzumachen, entledigten die Invasoren sich ihrer nicht selten dadurch, dass sie sich »wie Dieb und Mörder biß auf eine halbe Meil an die Statt, Flecken oder Dorff« heranschlichen, »und da allein abgesondert, bey nächtlicher Weil … rufften sie Ihren Befehl auß«. Hatten sich die Europäer ihrer Informationspflicht entledigt, stand dem Morden, Brandschatzen und der Versklavung »der armen Indianer«, die »sambt ihren Weibern und Kindern noch im besten Schlaff« waren, nichts mehr im Weg. Jeder Anschein von Widerstand wurde als »Revolte« gewertet, was eine »Vergeltung« von einer Brutalität rechtfertigte, die jede militärische Norm überschritt: »Was ihnen gefiel, brachten sie flugs umb. Die sie aber gefangen nahmen, marterten sie so jämmerlich … brenneten sie mit heißen Feuern, damit man sie als leibeigene Knechte« erkennen konnte. 10 Das Prinzip der Eroberung durch Deklaration sollte uns vertraut klingen, schließlich wurden die Fakten des Überwachungskapitalismus kraft sechs kritischer Deklarationen in die Welt gesetzt – Deklarationen, die völlig aus der Luft gegriffen waren, als Google sie ausrief. Dass wir die dergestalt geltend gemachten Fakten widerspruchslos hinnahmen, zeigt sich in den Enteignungsstrategien von Verizon und anderen Neuzugängen am überwachungskapitalistischen Firmament. Hingerissen von den Leistungen des jungen Unternehmens, übergingen seine Gründer, Fans und eine völlig vernarrte Presse schweigend die bestürzende Vision von Invasion und Eroberung, die sich hinter ihrer Behauptung verbarg.11 Diese sechs Deklarationen legten das Fundament für das breitere Projekt des Überwachungskapitalismus und seinen Sündenfall der Enteignung. Es gilt, sie um jeden Preis zu verteidigen, weil jede auf der vorhergehenden baut. Wenn eine fällt, fallen sie alle.

Wir beanspruchen menschliche Erfahrung als herrenlosen Rohstoff. Auf der Basis dieses Anspruchs können wir Rechte, Interessen, Kenntnisnahme und Verständnis der Betroffenen ignorieren. Auf der Basis unseres Anspruchs bestehen wir auf das Recht, die Erfahrung des Einzelnen in Verhaltensdaten umzuwandeln. Aus unserem rechtlichen Anspruch auf dieses herrenlose Rohmaterial ergibt sich das Recht auf den Besitz aller aus menschlichem Verhalten gewonnenen Verhaltensdaten. Aus unserem Recht, Daten zu erfassen und in Besitz zu nehmen, ergibt sich das Recht, zu wissen, was uns diese Daten enthüllen. Aus unserem Recht zu erfassen, zu besitzen und zu wissen, ergibt sich das Recht, darüber zu entscheiden, wie und wozu wir unser Wissen einsetzen. Aus unserem Recht, zu erfassen, zu besitzen, zu wissen und zu entscheiden, ergibt sich das Recht, die Bedingungen zu bestimmen, die uns das Recht, zu erfassen, zu besitzen, zu wissen und zu entscheiden, bewahren. So wurde das Zeitalter des Überwachungskapitalismus mit sechs Deklarationen eingeläutet, die es als Zeitalter der Eroberung definieren. Der Überwachungskapitalismus verdankt seinen Erfolg aggressiven Deklarationen, und dieser Erfolg steht da als aussagekräftige Illustration des übergriffigen Charakters deklarativer Worte und Handlungen, die auf eine Eroberung durch Aufzwingen neuer Realitäten abzielen. Diese Invasoren des 21. Jahrhunderts fragen nicht um Erlaubnis, sie stoßen vor und pflastern die verbrannte Erde mit pseudolegitimierenden Praktiken – statt zynisch übermittelter königlicher Edikte bieten sie zynisch vermittelte Nutzungsvereinbarungen, deren drakonische Forderungen nicht weniger obskur und unverständlich sind. Sie errichten ihre Bollwerke und verteidigen erbittert ihre beanspruchten Territorien, während sie ihre Kraft für die nächste Invasion – den nächsten Übergriff – sammeln. Schließlich bauen sie Städte mit komplexen ökonomischen, politischen und kulturellen Ökosystemen, die als Monumente der Legitimität und der Unvermeidlichkeit des Erreichten stehen. Eric Schmidt bat um unser Vertrauen, aber Googles Deklarationen sorgten dafür, dass das Unternehmen unser Vertrauen gar nicht nötig hatte

für seinen Erfolg. Es waren seine Siege kraft Deklaration, denen Google seine weltgeschichtlich einmalige Konzentration von Wissen und Macht verdankt. Und diese wiederum ist der Panzer, der ihm seinen ungehinderten Vormarsch ermöglicht. Schmidt spielt darauf selbst gelegentlich an, so zum Beispiel, wenn er sich über die Macht »moderner Technologieplattformen« äußert: »Mit Ausnahme von biologischen Viren gibt es fast nichts, was sich mit derartiger Geschwindigkeit, Effizienz und Aggressivität ausbreitet wie diese Technologieplattformen, und dies verleiht auch ihren Machern, Eigentümern und Nutzern neue Macht.«12 Kraft seiner beispiellosen Konzentration von Wissen und Macht herrscht der Überwachungskapitalismus über die Wissensteilung in der Gesellschaft – das Prinzip gesellschaftlicher Ordnung in einer Informationsgesellschaft. Diese Entwicklung ist umso gefährlicher, als sie beispiellos ist. Da sie sich nicht auf bekannte Schäden reduzieren lässt, ist ihr mit bekannten Gegenstrategien schwerlich beizukommen. Aber welcher Art ist nun dieses neue Prinzip gesellschaftlicher Ordnung und wie kommt es, dass ausgerechnet die Überwachungskapitalisten darüber bestimmen? Das sind die Fragen, denen wir uns in den folgenden Abschnitten widmen werden. Die Antworten helfen uns bei der Reflexion darüber, was wir gelernt haben, und bereiten uns darauf vor, was noch vor uns liegt.

Wer weiß? Dieses Buch begann mit der Erinnerung an eine dringliche Frage, die mir der junge Manager einer Papierfabrik in einer kleinen Stadt im Süden der USA gestellt hat: »Arbeiten wir dann künftig alle für eine intelligente Maschine, oder haben wir intelligente Menschen um die Maschine herum?« In den Jahren nach jenem verregneten Abend verfolgte ich die Digitalisierung seiner Papierfabrik. Wie in meinem Buch In the Age of the Smart Machine beschrieben, verwandelte der Wechsel zur Informationstechnologie die Fabrik in einen »elektronischen Text«, dem – vor allem anderen – die Aufmerksamkeit der Angestellten dort galt. Statt der physischen Arbeit, die man mit Rohstoffen und Maschinen verbinden würde, bedeutete »seine Arbeit machen« zunehmend die Überwachung von

Daten auf Monitoren sowie die Fähigkeit, den Vorgaben dieses »elektronischen Textes« gemäß zu handeln und von ihm zu lernen. Was uns heute völlig normal erscheint, war damals außergewöhnlich. Diese offensichtlichen Veränderungen, so mein Argument seinerzeit, waren Zeichen eines ebenso tiefgreifenden wie bedeutsamen Wandels. Das Ordnungsprinzip des Arbeitsplatzes hatte eine Wandlung erfahren von einer Arbeitsteilung hin zu einer Wissensteilung. Ich schrieb über die vielen Frauen und Männer, die sich selbst und ihre Vorgesetzten überraschten, als sie neue intellektuelle Fertigkeiten zu meistern und in diesem informationsreichen Umfeld zu wachsen lernten. Auf der anderen Seite dokumentierte ich auch die bitteren Konflikte im Gefolge dieser Leistungen, die sich als dreierlei Dilemmas kategorisieren ließen: von Wissen, Autorität und Macht. Jede nähere Betrachtung der Wissensteilung hat zuerst diese Dilemmas zu lösen, die sich in drei wesentlichen Fragen ausdrücken lassen. Deren erste lautet: »Wer weiß?« Es ist dies die Frage nach der Verteilung von Wissen und ob man in die Möglichkeit zu lernen, etwas zu erfahren, eingeschlossen wird oder von ihr ausgeschlossen bleibt. Die zweite Frage lautete: »Wer entscheidet?« Dies ist eine Frage der Autorität: welche Menschen, Institutionen oder Prozesse entscheiden, wer lernen, wer etwas erfahren darf, was er lernt, was er erfahren und was er mit seinem Wissen anstellen darf? Wie legitimiert sich diese Autorität? Die dritte Frage lautet: »Wer entscheidet, wer entscheidet?« Das ist nun eine Frage der Macht. Worin besteht die Quelle der Macht, auf die sich die Autorität über Teilhabe an und Ausschluss von Wissen stützt? Besagter junger Manager und ich sollten die Antworten letztendlich bekommen – nur fielen sie nicht so aus, wie wir uns das erhofft hatten. Ungeachtet der Mühe, die die Angestellten in der Papierfabrik sich gaben, ungeachtet all ihrer Triumphe dabei, fasste damals auf höchster politischer Ebene Hayeks Weltsicht Fuß, während die Wall Street sich begeistert Jensens Strategien verschrieb. Und Letztere lernte im Handumdrehen, diese den Aktiengesellschaften aufzuzwingen. Folge davon war ein auf Kostensenkung getrimmtes Geschäftsmodell, dem ausschließlich am Applaus des Wall-Street-Publikums lag. Entsprechend bestand es auf Automatisierung und der Auslagerung von Arbeitsplätzen ins Ausland – anstatt in die digitalen Fertigkeiten und Möglichkeiten des amerikanischen

Arbeiters zu investieren. So sollte denn die Antwort auf das Wer weiß? lauten: die Maschine – sie und ein Elitekader, das mit den analytischen Tools für Troubleshooting und für die Extraktion von Wert aus Informationen vertraut war. Die Antwort auf das Wer-entscheidet? lautete: eine beschränkte Marktform und ihre Geschäftsmodelle. Und mangels einer signifikanten Doppelbewegung, wie wir sie im 19. Jahrhundert hatten, lautete die Antwort auf das Wer entscheidet, wer entscheidet? automatisch: Finanzkapital, das einzig dem Prinzip der Maximierung des Aktienwerts Rechenschaft schuldig war. Es überrascht denn auch nicht weiter, dass sich laut einem Bericht des Brookings Institute fast vierzig Jahre später Millionen amerikanischer Arbeitnehmer infolge der »rasanten Digitalisierung« von der Chance »auf eine anständig qualifizierte Stelle« ausgeschlossen sehen. »Vor dem Hintergrund der Tatsache, dass digitale Kompetenz wesentlich zur Produktivitätssteigerung beiträgt«, legt der Bericht Unternehmen dringend die »Investition in Fortbildungsstrategien im IT-Bereich für jetzige Belegschaften« nahe.13 Womöglich sähe unsere Gesellschaft heute ganz anders aus, hätten sich amerikanische Unternehmen dazu entschlossen, nicht nur in Maschinen, sondern auch in Menschen zu investieren. Die meisten Unternehmen zogen die intelligente Maschine dem intelligenten Menschen vor, was in einer ganzen Reihe von Jobs zu einem bestens dokumentierten Muster führte, Menschen durch Maschinen und ihre Algorithmen zu ersetzen. Mittlerweile fallen darunter jedoch auch zahlreiche Berufe fernab der Werkshalle.14 Das führt zu einem Trend, den Wirtschaftler als »Job-Polarisierung« bezeichnen: die Aufspaltung in hochqualifizierte Arbeitsplätze am oberen Pol und unqualifizierte Jobs am unteren, während die Automatisierung die Stellen, die früher »in der Mitte« waren, verschwinden lässt.15 Und während einige Wirtschaftskapitäne, Ökonomen und Technologen in dieser Entwicklung eine notwendige und unvermeidliche Folge rechnergestützter Technologien sehen, zeigen Studien, dass die Wissensteilung im wirtschaftlichen Bereich die Macht neoliberaler ideologischer, politischer, kultureller und institutioneller Muster reflektiert. So wird zum Beispiel in Europa, wo Schlüsselelemente der alten Doppelbewegung in der einen oder anderen Form überlebt haben, die Job-Polarisierung durch erhebliche Investitionen in die Weiterbildung

der Beschäftigten gebremst, was sowohl zu einer integrativeren Wissensteilung als auch zu qualitativ hochwertigen innovativen Produkten und Dienstleistungen führt.16 Besonders kritisch für unser Thema ist, dass wir uns jetzt in einer zweiten historischen Phase dieses Konflikts sehen. So kritisch die Wissensteilung in den Wirtschaftsbereichen Produktion und Beschäftigung ist, ist sie nur der Anfang eines neuen Ringens um die gar noch größere Frage der Wissensteilung in der Gesellschaft. Die Dilemmas des Wissens, der Autorität und der Macht haben die Grenzen des Arbeitsplatzes durchbrochen, um unseren Alltag zu erobern. In dem Maße, in dem man Menschen, Prozesse und Dinge in Informationen verwandelt, wird die Wissensteilung in der Gesellschaft zum dominanten Prinzip gesellschaftlicher Ordnung unserer Zeit. Eine ganz und gar neue Art von elektronischem Text entwickelt sich weit über die Grenzen von Fabrik und Büro hinaus. Dank unserer Computer, Kreditkarten, Smartphones und der Kameras und Sensoren, die sich in öffentlichen und privaten Räumen ausbreiten, ist heute praktisch bei allem, was wir tun, ein Computer im Spiel, der alle Einzelheiten unseres Alltags in einer Größenordnung erfasst und kodifiziert, die vor wenigen Jahren noch unvorstellbar gewesen wäre. Wir haben den Punkt erreicht, an dem es kaum noch etwas gibt, was außen vor bliebe beim unablässigen Anwachsen dieses neuen elektronischen Texts. In späteren Kapiteln werden wir uns eine ganze Reihe von Beispielen für den neuen elektronischen Text ansehen, der sich lautlos, aber unerbittlich ausbreitet wie ein riesiger Ölteppich und alles in seinem Weg verschlingt: Ihr Frühstücksgespräch, die Straßen in Ihrem Viertel, die Abmessungen Ihres Wohnzimmers, Ihr Jogging im Park. Das Ergebnis ist, dass sowohl die Welt als auch unser Leben verdatet werden. Ob Sie nun über Ihre Pusteln jammern oder sich auf Facebook auf eine politische Diskussion einlassen, ob Sie über Google ein Rezept suchen oder eine sensible Gesundheitsinformation recherchieren wollen, ob Sie Waschpulver bestellen oder Fotos Ihrer lächelnden oder schmollenden Neunjährigen aufnehmen, ob Sie fernsehen oder auf dem Parkplatz auf Ihrem BMX-Rad Kunststücke üben – alles ist Rohstoff für diesen im Entstehen begriffenen elektronischen Text. Der Informationswissenschaftler Martin Hilbert und seine Kollegen schreiben, dass zurzeit selbst die

Grundelemente der Zivilisation wie etwa »Sprache, Kulturgüter, Traditionen, Institutionen, Regeln und Gesetze … digitalisiert und zum ersten Mal explizit in sichtbaren Code umgesetzt werden«, um dann über den Filter »intelligenter Algorithmen«, wie sie heute zur Regelung einer rapide wachsenden Zahl von kommerziellen, staatlichen und sozialen Funktionen eingesetzt werden, an die Gesellschaft zurückzugehen.17 Die wesentlichen Fragen stellen sich uns dabei bei jedem Schritt: Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet?

Das Überwachungskapital und die beiden Texte Es gibt wichtige Parallelen mit dem späten 19. und frühen 20. Jahrhundert, als die Arbeitsteilung sich als wesentliches Prinzip der sozialen Organisation der jungen Industriegesellschaften Europas und Nordamerikas herauszubilden begann. Diese älteren Erfahrungen können uns Richtlinien bieten und aufzeigen, was auf dem Spiel steht. Als zum Beispiel der junge Émile Durkheim seinen Klassiker Über soziale Arbeitsteilung schrieb, war schon der Titel umstritten. Arbeitsteilung verstand man bis dahin als kritisches Mittel zur Steigerung der Arbeitsproduktivität durch Spezialisierung. Adam Smith hatte dieses neue Prinzip industrieller Organisation besonders denkwürdig in seiner Schilderung einer Nadelfabrik beschrieben, und die Arbeitsteilung blieb das ganze 19. Jahrhundert hindurch Thema sowohl des ökonomischen Diskurses als auch von Kontroversen. Durkheim erkannte die Arbeitsproduktivität als ökonomischen Imperativ des Industriekapitalismus, die die Arbeitsteilung ins Extrem treiben sollte, aber sie war nicht, was ihn eigentlich faszinierte. Vielmehr richtete Durkheim seinen Blick auf den sozialen Wandel, der sich um ihn herum abzuzeichnen begann, und bemerkte, dass »Spezialisierung« auch in Politik, Verwaltung, Rechtswesen Wissenschaften und Künsten an »Einfluss« gewann. Er kam zu dem Schluss, dass die Arbeitsteilung sich nicht mehr nur auf den industriellen Arbeitsplatz beschränkte. Sie hatte vielmehr die Grenzen der Fabrik durchbrochen, um zum kritischen Organisationsprinzip der industriellen Gesellschaft an sich zu werden. Wir finden hier auch ein Beispiel für

Edisons Einsicht, nach der die ursprünglich auf die Produktion abzielenden Prinzipien des Kapitalismus schließlich formend auf das breitere soziale und moralische Milieu wirken sollten. »Gleichviel«, schrieb Durkheim, »wie man die Arbeitsteilung beurteilt, jeder fühlt, daß sie eine Grundlage der sozialen Ordnung ist und immer mehr dazu wird.«18 Wie vorherzusehen war, forderte der ökonomische Imperativ die Arbeitsteilung bei der Produktion. Wie aber verhielt es sich mit Sinn und Zweck hinter der Arbeitsteilung in der Gesellschaft? Diese Frage war der Motor von Durkheims Analyse, und seine nunmehr hundert Jahre alten Schlussfolgerungen sind gerade heute für uns relevant. Seiner Argumentation zufolge erklärt die Arbeitsteilung die gegenseitigen Abhängigkeiten und Wechselwirkungen, die die vielen Angehörigen einer modernen Industriegesellschaft in einem größeren Kontext von Solidarität verbinden. Wechselwirkungen sorgen für gegenseitige Abhängigkeiten, Engagement und Respekt, die zusammen das neue Ordnungsprinzip mit moralischer Kraft erfüllen. Mit anderen Worten wurde die Arbeitsteilung in der Gesellschaft um die letzte Jahrhundertwende nötig; sie wurde bedingt durch die rasant sich verändernden Lebensumstände der neuen Individuen der Ersten Moderne, die wir uns in Kapitel 1 näher angesehen haben. Sie war eine unabdingbare Reaktion auf deren neue »Existenzbedingungen«. Als Menschen wie meine Großeltern sich dem Migrationsstrom in die moderne Welt anschlossen, gingen sie des bedeutungsstiftenden Umfelds verlustig, das ihre Gemeinschaft über Raum und Zeit verbunden hatte. Was sollte die Gesellschaft nach dem Wegfallen der Regeln und Rituale von Verwandtschaft und Clan zusammenhalten? Durkheims Antwort darauf war »die Arbeitsteilung«. Das Bedürfnis der Menschen nach einer neuen Quelle für Sinn und Struktur war die Ursache, und die Wirkung war ein ordnendes Prinzip, das Entstehen und Bestand einer robusten modernen Gemeinschaft ermöglichte. Dem jungen Soziologen Durkheim zufolge ist die bedeutsamste Wirkung der Arbeitsteilung nicht, daß sie den Ertrag der geteilten Funktionen erhöht, sondern daß sie sie voneinander abhängig macht. Ihre Rolle in all diesen Fällen besteht nicht darin, die bestehenden Gesellschaften zu verschönern und zu verbessern, sondern Gesellschaften erst zu ermöglichen, die ohne sie

nicht existieren würden … sie übersteigt aber die Sphäre rein ökonomischer Interessen in jedem Fall unendlich, denn sie besteht in der Errichtung einer Sozial- und Moralordnung sui generis.19 Durkheims Vision war weder unproduktiv noch naiv. Er erkannte, dass Umstände eine dunkle Wendung nehmen können und das auch oft tun, was in einer »anormalen Arbeitsteilung« resultiert, wie er das nennt (er spricht auch von »Pathologien«). Diese schafft soziale Distanz, Ungerechtigkeit und Unfrieden statt Wechselwirkungen und gegenseitige Abhängigkeiten. In diesem Kontext hob Durkheim die destruktiven Wirkungen sozialer Ungleichheit auf die Arbeitsteilung in der Gesellschaft hervor, insbesondere extreme Asymmetrien von Macht, in denen er die gefährlichste Form von Ungleichheit sah, weil sie Konflikt an sich unmöglich machen, indem »es einem gar nicht gestattet ist zu kämpfen«. Solche Pathologien sind nur von einer Politik zu heilen, die das Recht des Menschen auf Kampf, auf Konfrontation geltend macht, auf das Recht, im Angesicht ungleicher und illegitimer Macht über die Gesellschaft zu triumphieren. Im späten 19. und fast das ganze 20. Jahrhundert über führten diesen Kampf die Arbeiter- und andere soziale Bewegungen, die die soziale Gleichheit durch Institutionen wie Tarifverhandlungen und Volksbildung geltend machten. Der Wandel, den wir heute erleben, spiegelt diese über hundert Jahre alten Beobachtungen, da die Wissensteilung denselben Weg aus der ökonomischen in die gesellschaftliche Sphäre nimmt, den früher die Arbeitsteilung zurückgelegt hat. Auch die Wissensteilung »übersteigt die Sphäre rein ökonomischer Interessen unendlich«, indem sie zur Basis unserer sozialen Ordnung und deren moralischer Inhalte wird. Die Wissensteilung ist für uns als Angehörige der Zweiten Moderne, was die Arbeitsteilung für unsere Groß- und Urgroßeltern war, die Pioniere der Ersten Moderne. Heute tritt die Wissensteilung als neues Prinzip gesellschaftlicher Ordnung heraus aus der ökonomischen Sphäre und reflektiert das Primat von Lernen, Information und Wissen bei unserem heutigen Streben nach einem effektiven Leben. Und ganz Durkheims Warnung an seine Gesellschaft vor hundert Jahren entsprechend entsteht unseren Gesellschaften heute eine Bedrohung durch die Abtrift der Wissensteilung in Pathologie und Ungerechtigkeit unter den Händen

beispielloser vom Überwachungskapitalismus geschaffener Asymmetrien von Wissen und Macht. Die Macht des Überwachungskapitalismus über die Wissensteilung in der Gesellschaft beginnt mit etwas, was ich als das Problem der beiden Texte bezeichne. Die spezifischen Mechanismen des Überwachungskapitalismus erzwingen die Produktion nicht nur eines, sondern zweier »elektronischer Texte«. Was den ersten Text anbelangt, so sind wir dessen Autoren und Leser zugleich. Dieser öffentlichkeitsorientierte Text ist uns vertraut und wir schätzen ihn des Universums an Informationen und Verbundenheit wegen, den er uns an die Hand gibt. Google kodifiziert die informationellen Inhalte des World Wide Web. Facebooks Newsfeed verbindet das soziale Netzwerk. Ein Gutteil dieses öffentlichkeitsorientierten Texts besteht aus dem, was wir selbst auf Webseiten stellen: Posts, Blogs, Videos, Fotos, Unterhaltungen, Musik, Geschichten, Beobachtungen, »Likes«, Tweets – das ganze massierte Tohuwabohu unseres Lebens, erfasst und mit anderen geteilt. Unter dem Regime des Überwachungskapitalismus jedoch steht der erste Text nicht allein; er zieht einen unmittelbaren Schatten nach sich. Genau genommen fungiert der erste Text, bei all seinen Versprechen, lediglich als Versorgungsoperation für den zweiten, den Schattentext. Alles, was wir zum ersten Text beitragen, egal wie banal oder flüchtig, wird zum Ziel der Überschussextraktion. Dieser Überschuss füllt die Seiten des zweiten Texts. Und dieser zweite Text bleibt unserem Blick verborgen; für ihn gilt »read only« für Überwachungskapitalisten.20 In diesem Text sehen wir unsere Erfahrung als Rohstoff requiriert, um diesen als Mittel zu anderer Leute Marktzielen anzuhäufen und zu analysieren. Der Schattentext ist eine im Entstehen begriffene Anhäufung von Verhaltensüberschuss und dessen Analyse, und er sagt mehr über uns, als wir selbst über uns wissen können. Schlimmer noch, es wird zunehmend schwierig – und vielleicht sogar unmöglich –, nicht zu diesem Text beizutragen. Er nährt sich automatisch von unserer Erfahrung, während wir unsere üblichen und unumgänglichen Routinen sozialer Teilhabe absolvieren. Noch rätselhafter ist die Art, in der Überwachungskapitalisten ihre Erkenntnisse aus ihrem exklusiven Schattentext einsetzen, um den öffentlichen Text ihren Interessen entsprechend zu gestalten. Es wird endlos

darüber geschrieben, wie Google und Facebook die Informationen manipulieren, die man uns zeigt. Für den Augenblick soll uns der Hinweis genügen, dass Googles aus Verhaltensüberschuss abgeleitete Algorithmen Suchergebnisse auswählen und ordnen und dass Facebooks aus Verhaltensüberschuss abgeleitete Algorithmen den Inhalt seines Newsfeed auswählen und ordnen. In beiden Fällen reflektieren diese Manipulationen, wie die Forschung aufgezeigt hat, die wirtschaftlichen Ziele der Unternehmen. Der Rechtswissenschaftler Frank Pasquale drückt das folgendermaßen aus: »Die Entscheidungen im Googleplex fallen hinter verschlossenen Türen … die Macht ein- oder auszuschließen und einen Stellenwert zuzuordnen, ist die Macht der Entscheidung darüber, welche Eindrücke sich beim Publikum halten und welche nicht … All ihren Objektivitäts- und Neutralitätsbehauptungen zum Trotz fallen hier unablässig wertende, anfechtbare Entscheidungen. Und diese helfen, die Welt zu schaffen, die man uns lediglich zu ›zeigen‹ vorgibt.«21 Was den Schattentext anbelangt, erzwingen die Bewegungsgesetze des Überwachungskapitalismus sowohl seine Heimlichkeiten als auch sein beständiges Wachstum. Wir sind die Objekte seiner Narrative, von deren Lektionen wir freilich ausgeschlossen sind. Als Quelle dieser üppigen Schätze ist dieser Schattentext ein Text über uns, für uns ist er nicht. Man erzeugt und wartet ihn vielmehr außerhalb unseres Bewusstseins und beutet ihn dort zum Nutzen anderer aus. Ergebnis all dessen ist, dass die Wissensteilung sowohl das dominante Prinzip gesellschaftlicher Ordnung in unserer Informationsgesellschaft als auch selbst bereits Geisel der privilegierten Position des Überwachungskapitalismus als herrschendem Urheber, Besitzer und Hüter der Texte ist. Die Fähigkeit des Überwachungskapitalismus, diese Texte zu kontrollieren und zu korrumpieren, erzeugt beispiellose Asymmetrien von Wissen und Macht, die genau so funktionieren, wie Durkheim das befürchtet hatte: Die relative Freiheit, mit der man diese Marktform gewähren lässt, sowie der seinem Wesen nach unlesbare Charakter ihrer Aktivitäten haben es ihr ermöglicht, eine erhebliche Kontrolle über die Wissensteilung auszuüben, und das außerhalb unseres Bewusstseins und ohne die Mittel für einen Kampf gegen sie. Das Überwachungskapital hat mittlerweile nicht nur die Macht angehäuft, sondern auch seine Autorität

behauptet, uns die Antworten auf alle wesentlichen Fragen zu geben. Aber selbst Autorität allein reicht nicht aus. Nur das Überwachungskapital verfügt über die materielle Infrastruktur und die einschlägige Intelligenz, um über die Wissensteilung in der Gesellschaft zu herrschen.

Die neue Priesterschaft Wissenschaftler haben darauf hingewiesen, dass die weltweiten Kapazitäten zur Informationsproduktion unsere Möglichkeiten der Verarbeitung und Speicherung von Informationen bereits weit übersteigen.22 Halten Sie sich nur vor Augen, dass unser technologisches Gedächtnis sich etwa alle drei Jahre verdoppelt hat. 1986 war nur 1 % aller Informationen der Welt digitalisiert,23 2000 waren es bereits 25 %.24 2013 lagen dank des Fortschritts von Digitalisierung und Verdatung (die die Weiterverarbeitung von Rohdaten beinhaltet) und neuer Speichertechnologien etwa 98 % der Informationen unserer Welt im digitalen Format vor.25 Informationen sind also digital verfügbar, aber ihr Volumen überschreitet unsere Fähigkeit, ihre Bedeutung zu erkennen. Als Lösung für dieses Problem empfiehlt der Informationswissenschaftler Martin Hilbert: »Die einzige Möglichkeit, die uns noch bleibt, all diese Daten mit Sinn zu erfüllen, besteht darin, Feuer mit Feuer zu bekämpfen.« Womit er meint, dass wir »Computer mit künstlicher Intelligenz« gebrauchen, um »die immensen Massen an Informationen zu sichten«. Facebook, Amazon und Google, so schreibt er, »haben versprochen … mithilfe intelligenter Rechneranalysen Wert aus immensen Datenmassen zu schöpfen«.26 Der Aufstieg des Überwachungskapitalismus macht Hilberts Rat notwendigerweise zu einem äußerst gefährlichen Unterfangen. Auch wenn das keineswegs in seiner Absicht liegt, bestätigt Hilberts Vorschlag nur die privilegierte Position der Überwachungskapitalisten und deren asymmetrische Macht, die ihnen eine ihren Interessen gemäße Einflussnahme auf die Wissensteilung ermöglicht. Googles asymmetrische Macht greift auf alle von uns angesprochenen sozialen Quellen zurück: seine Deklarationen, Verteidigungsbollwerke, Ausnutzung der Gesetze, das Erbe des überwachungstechnischen

Ausnahmezustands, die Probleme der Individuen der Zweiten Moderne usw. usf. Aber sie wäre nicht wirksam operativ ohne die gigantische materielle Infrastruktur, die die Überwachungserträge dem Unternehmen eingebracht haben. Google ist der Pionier der »Hyper-Scale«,27 der endlos anpassungsfähigen Computerarchitektur, und gilt als »das größte Computernetz der Welt«.28 Hyperscale-Operationen findet man bei Unternehmen mit hohem Informationsaufkommen wie Telekommunikationsfirmen und globalen Bezahlsystemen, wo Rechenzentren Millionen »virtuelle Server« brauchen, um ihre Rechenleistung exponentiell, aber ohne erhebliche Expansion an Raum, Kühlung oder Strom zu steigern.29 Die Maschinenintelligenz im Herzen von Googles imposanter Vorherrschaft ist, wie es heißt, zu »80 Prozent Infrastruktur«,30 ein System aus maßgeschneiderten, über fünfzehn Standorte verteilten Datenzentren von Lagerhausgröße und, Schätzungen für 2016 zufolge, 2,5 Millionen Servern auf vier Kontinenten.31 Aufgrund seiner beispiellosen Kombination von infrastruktureller Größe und Wissenschaft ist Google heute, Schätzungen von Investoren zufolge, »schwieriger einzuholen denn je«. Google gilt als »Full-Stack-AI«Unternehmen, das seine eigenen Datenschätze dazu benutzt, »seine eigenen Algorithmen mit eigenen Chips in seiner eigenen Cloud zu trainieren«.32 Ein zusätzlicher Faktor bei Googles Vorherrschaft ist der Umstand, dass Maschinenlernen nur so intelligent ist wie die Menge der Daten, mit denen es trainiert wird, und Google verfügt über die meisten Daten.33 Spätestens 2013 hatte das Unternehmen verstanden, dass seine Hinwendung zu »neuralen Netzwerken«, die gegenwärtig die Grenze künstlicher Intelligenz definieren, die rechnerischen Anforderungen erheblich steigern und eine Verdoppelung seiner Datenzentren bedingen würde. Urs Hölzle, Googles Senior Vice President für Technische Infrastruktur, drückte das folgendermaßen aus: »Das schmutzige Geheimnis hinter [der künstlichen Intelligenz] ist, dass sie allein zum Training des Netzwerks einer irren Zahl von Rechenoperationen bedarf.« Hätte das Unternehmen versucht, die zunehmende rechnerische Arbeitslast mit traditionellen CPUs zu bewältigen, erklärte er, »hätten wir den gesamten Footprint von Google verdoppeln müssen – Datenzentren und Server –, und das allein für zwei, drei Minuten Spracherkennung pro Android-User pro Tag«.34

Da der Bau von Datenzentren der größte Einzelposten des Unternehmens ist und Strom bei den Betriebskosten ganz oben steht, erfand Google einen Weg aus der Infrastrukturkrise. Das Unternehmen begann mit der Entwicklung eines eigens für das maschinelle Lernen entwickelten neuen Chips, der zunächst bei Street View und Alpha Go zum Einsatz kam. Die als Tensor Processing Unit (TPU) bezeichneten Prozessoren sorgten für einen drastischen Zuwachs an Fähigkeiten im Bereich der künstlichen Intelligenz, brauchten nur einen Bruchteil des Stroms herkömmlicher Prozessoren und reduzierten neben dem Investitionsaufwand auch den operativen Haushalt, und bei alledem waren sie auch noch schneller und lernten mehr.35 Die weltweiten Erträge aus AI-Produkten und -Dienstleistungen sollten allen Erwartungen nach um das 57-Fache steigen – von 644 Millionen Dollar 2016 auf 37 Milliarden Dollar 2025.36 Das Know-how, das nötig ist, diese immensen Möglichkeiten und die materielle Infrastruktur dahinter zu nutzen, hat unter den Hightech-Unternehmen einen weltweiten Wettlauf um die etwa 10 000 Fachkräfte ausgelöst, die der Kakophonie gesammelter Daten mithilfe der künstlichen Intelligenz Wissen zu entlocken vermögen. Google bzw. Alphabet ist der aggressivste Aufkäufer von AI-Technologie und einschlägigen Fachkräften. Zwischen 2014 und 2016 hat es neun AIUnternehmen aufgekauft, mehr als doppelt so viele wie sein nächster Rivale Apple.37 Die Konzentration von AI-Talenten bei Google reflektiert einen größeren Trend. 2017 heizten US-Unternehmen Schätzungen zufolge den Wettlauf um AI-Fachkräfte mit 650 Millionen Dollar an – bei den Top-Arbeitgebern im Land gab es mehr als 10 000 offene Stellen.38 Die Top Five unter den Hightech-Firmen verfügen über das Kapital, die Konkurrenz zu verdrängen, von Start-ups über Universitäten, Gemeinden und etablierten Unternehmen in anderen Industrien bis hin zu weniger wohlhabenden Ländern.39 In Großbritannien sprechen Hochschulverwalter bereits jetzt von einer »fehlenden Generation« von Datenwissenschaftlern. Die enormen Gehälter bei Hightech-Firmen haben so viele Fachkräfte angezogen, dass es niemanden mehr gibt, um die nächste Generation von Studenten zu unterrichten. »Das eigentliche Problem ist«, so ein Wissenschaftler, »dass

diese Leute nicht gleichmäßig über die Gesellschaft verteilt sind. Intellekt und Fachwissen sind auf eine Handvoll Unternehmen konzentriert.«40 Kraft seiner üppigen Angebote konnte Google die Anzahl seiner AIFachkräfte allein in den letzten paar Jahren verdreifachen; entsprechend veröffentlichten Google-Leute auch überdurchschnittlich in den renommiertesten wissenschaftlichen Publikationen – 2016 etwa vier- bis fünfmal so viel wie der Weltdurchschnitt. Unter dem Regime des Überwachungskapitalismus rekrutiert das Unternehmen also die fähigsten Köpfe mitnichten, um das Welthungerproblem zu lösen oder den Einsatz fossiler Brennstoffe zu eliminieren; ihr Genie soll einzig und allein die Tore menschlicher Erfahrung stürmen, diese in Daten verwandeln und einem neuen Marktgiganten dienstbar sein, der Wohlstand durch Vorhersagen, Einflussnahme und durch die Kontrolle menschlichen Verhaltens schafft. Vor mehr als sechshundert Jahren legte die Druckerpresse das geschriebene Wort in die Hände des gemeinen Volkes. Nicht zuletzt auf dem Gebiet der Religion kam dies einer Umwälzung gleich, indem die Gläubigen unter Umgehung der Priesterschaft sich ihren eigenen Reim auf das Wort Gottes zu machen begannen. Wir nehmen es heute als gegeben, dass uns das Internet die Verbreitung von Informationen in nie gekanntem Ausmaß ermöglicht und mehr Wissen für mehr Leute verspricht; wir sehen in ihm eine ungeheure demokratisierende Kraft, die Gutenbergs Revolution im Leben zahlloser Menschen realisiert. Allerdings hat uns diese grandiose Leistung einer anderen historischen Entwicklung gegenüber blind gemacht, die sich zunehmend unserem Blick entzieht, eine Entwicklung, die ausgrenzen will, verwirren, verhüllen. Im Schutz dieser verborgenen Entwicklung führt uns der Wettbewerb um die Überwachungserträge zurück in eine vorgutenbergsche Ordnung – die Wissensteilung in der Gesellschaft nimmt zunehmend pathologische Züge an; sie ist in die Hände einer kleinen Priesterschaft privat angestellter Computerspezialisten geraten, ihrer privaten Maschinen und der ökonomischen Interessen, für die sie lernen.

Die Privatisierung der Wissensteilung in der Gesellschaft

Der Überwachungskapitalismus hat sich der Wissensteilung in der Gesellschaft bemächtigt. Ohne eine robuste Doppelbewegung, bei der demokratische Institutionen im Verein mit der Zivilgesellschaft den ungezügelten Überwachungskapitalismus bremsen, stehen wir bei der Entscheidungsschlacht um die Wissensteilung jedoch auf verlorenem Posten. Experten in den Disziplinen der künstlichen Intelligenz wissen das, können oder wollen aber die weiteren Implikationen nicht sehen. »Wer immer die besten Algorithmen und die meisten Daten hat«, so schreibt ein Datenwissenschaftler, »der gewinnt … Google mit seinem Vorsprung und seinem größeren Marktanteil weiß besser, was Sie wollen … Wer immer am schnellsten lernt, gewinnt.«41 Wie die New York Times berichtet, teilt Google-CEO Sundar Pichai sich dieser Tage eine Etage mit dem KIForschungslabor des Unternehmens, was unter CEOs Schule zu machen scheint – eine ziemlich buchstäbliche Auslegung von konzentrierter Macht.42 Vor etwas über dreißig Jahren veröffentlichte der Rechtswissenschaftler Spiros Simitis einen bahnbrechenden Essay zum Thema Privatsphäre in der Informationsgesellschaft. Simitis hatte schon früh begriffen, dass die damals bereits sichtbaren Trends in der öffentlichen und privaten »Informationsverarbeitung« Gefahren für die Gesellschaft bargen, die über enge Auffassungen von Privatsphäre und Datenbesitz hinausgingen. »Persönliche Informationen werden zunehmend eingesetzt, um Verhaltensnormen durchzusetzen«, schrieb er. »Die Informationsverarbeitung entwickelt sich entsprechend zu einem wesentlichen Element langfristiger Strategien, das Verhalten Einzelner zu formen und zu justieren.«43 Simitis’ Argumentation zufolge waren diese Trends nicht nur unvereinbar mit dem Konzept der Privatsphäre, sondern mit der Möglichkeit von Demokratie an sich. Diese nämlich ist abhängig von einem Reservoir individueller Fähigkeiten, die auf einem autonomen moralischen Urteilsvermögen und Selbstbestimmung basieren. Paul Schwartz von der University of California in Berkeley bezog sich auf Simitis’ Arbeit, als er 1989 davor warnte, die Computerisierung würde das empfindliche Gleichgewicht von Rechten und Verpflichtungen hinter dem Recht auf Privatsphäre stören. »Die enormen Mengen persönlicher Daten, die heute in Computern verfügbar sind, bedrohen das Individuum

auf eine Art, die den bisherigen rechtlichen Schutz größtenteils nicht mehr greifen lässt.« Wichtiger noch: Schwartz sah, dass das Ausmaß der damals noch im Entstehen begriffenen Krise Risiken barg, die die Grenzen des Rechts auf Privatsphäre weit überstiegen. »Die Gefahr, die der Computer birgt, gilt der Autonomie des Menschen«, warnte er. »Je mehr über eine Person bekannt ist, desto leichter ist sie zu kontrollieren. Um die Freiheit zu garantieren, von der die Demokratie lebt, bedarf es der Strukturierung des gesellschaftlichen Umgangs mit Informationen und sogar des Verbergens von Informationen.«44 Sowohl Simitis als auch Schwartz ahnten den Aufstieg der Wissensteilung zum Axialprinzip eines neuen rechnergestützten sozialen Milieus; was sie jedoch nicht hatten ahnen können, war der Aufstieg des Überwachungskapitalismus und seiner Folgen. Freilich ist es das explosionsartige Wachstum des Informationskontinents, das für die Verschiebung einer kritischen Achse gesellschaftlicher Ordnung von der Arbeitsteilung des 20. auf eine Wissensteilung des 21. Jahrhunderts verantwortlich ist, aber es sind die Überwachungskapitalisten, die dabei das Sagen haben und einseitig Anspruch auf einen überproportionalen Anteil an den Entscheidungsrechten erheben, die die Wissensteilung in der Gesellschaft formen. Die Akte digitaler Enteignung der Überwachungskapitalisten zwingen dem Einzelnen, aber auch Bevölkerungsgruppen, ja ganzen Gesellschaften eine neue Art von Kontrolle auf; die Privatsphäre des Einzelnen gerät dabei unter die Räder. Zu ihrer Verteidigung braucht es entsprechend einen Neuansatz im Diskurs, Gesetze, richterliche Entscheidungen. Die »Verletzung der Privatsphäre« ist heute eine vorhersehbare Dimension gesellschaftlicher Ungleichheit, aber sie passiert nicht isoliert; sie ist das systematische Ergebnis einer »pathologischen« Wissensteilung in der Gesellschaft, bei der der Überwachungskapitalismus weiß, entscheidet und entscheidet, wer entscheidet. Überwachungskapitalisten gegenüber auf den Schutz der Privatsphäre zu pochen oder sich für ein Ende kommerziell motivierter Überwachung im Internet einzusetzen, ist, als würde man von Henry Ford verlangen, jedes Model T von Hand zu fertigen – oder von einer Giraffe einen kürzeren Hals. Derlei Forderungen bedrohen die Adressaten in ihrer Existenz. Sie verletzen die Grundmechanismen und

Bewegungsgesetze, die hinter der Konzentration von Wissen, Macht und Wohlstand dieses Marktungetüms stehen. Um das auf den Punkt zu bringen: Der Überwachungskapitalismus ist zutiefst demokratiefeindlich, ohne dass seine bemerkenswerte Macht sich auf den Staat gründen würde, wie das in solchen Fällen historisch der Fall war. Desgleichen lassen sich seine Auswirkungen weder auf die Technologie reduzieren noch allein durch diese oder durch böse Absichten böser Menschen erklären; sie sind die ebenso folgerichtigen wie vorhersehbaren Konsequenzen einer in sich folgerichtigen und erfolgreichen Logik der Akkumulation. Seine Dominanz erlangte der Überwachungskapitalismus, zumindest in den USA, in einem relativ rechtsfreien Raum. Von dort breitete er sich auf Europa und den Rest der Welt aus. Überwachungskapitalistische Unternehmen, allen voran Google, dominieren sowohl die Akkumulation als auch die Verarbeitung von Informationen, insbesondere von Informationen über das menschliche Verhalten. Sie wissen eine ganze Menge über uns, während unser Zugang zu ihrem Wissen eher spärlich ausfällt – es versteckt sich nämlich im Schattentext, der nur von den neuen Priestern, ihren Chefs und deren Maschinen zu lesen ist. Die beispiellose Konzentration von Wissen sorgt für eine nicht weniger beispiellose Konzentration von Macht – für Asymmetrien, die als unautorisierte Privatisierung der Wissensteilung in der Gesellschaft zu verstehen sind. Das bedeutet, dass mächtige private Interessen das maßgebliche gesellschaftliche Ordnungsprinzip unserer Zeit kontrollieren – wir erleben mit anderen Worten im Falle der Wissensteilung eben jene Unterwanderung durch das Überwachungskapital, vor der Durkheim vor hundert Jahren in Bezug auf Arbeitsteilung und Industriekapital gewarnt hat. So wie die Dinge gegenwärtig stehen, sind es die überwachungskapitalistischen Unternehmen, die wissen. Es ist ihre Marktform, die entscheidet. Und es ist der Wettbewerb zwischen Überwachungskapitalisten, der entscheidet, wer entscheidet.

Die Macht des Beispiellosen: Ein Überblick

Während es sich bei den Titanenkämpfen des 20. Jahrhunderts um ein Ringen zwischen Industriekapital und Arbeit handelte, stehen sich im 21. Jahrhundert Überwachungskapital und die Gesamtheit unserer Gesellschaften gegenüber, bis hinab zum letzten Einzelnen. Der Wettbewerb um Überwachungserträge macht uns, unsere Körper, unsere Wohnungen, unsere Städte zu Walstätten einer Schlacht um Macht und Profit, die an Brutalität kaum ihresgleichen hat. Wir dürfen uns den Überwachungskapitalismus nicht als etwas vorstellen, was »irgendwo da draußen« in Fabriken oder Büros vonstattengeht; seine Ziele wie seine Auswirkungen sind hier. Wir sind das. Es ist jedoch nicht einfach so, dass wir in den Hinterhalt eines übermächtigen Gegners geraten wären. Man hat uns überrumpelt. Wir hätten diese Invasion und die ihr folgende Enteignung ebenso wenig ahnen können wie der erste arglose Taíno-Fürst das Gemetzel an seinem Volk, das sich aus seiner gastfreundlichen Geste gegenüber diesen verschwitzten, bärtigen adelantados ergab, die da aus dem Nichts unter dem Banner ihres Königs den Strand heraufliefen. Wie kam es, dass wir den »Sündenfall einer einfachen Räuberei« im Herzen dieses neuen Kapitalismus so lange nicht sahen? Nun, wie die Taíno sahen wir uns einem in unserer Geschichte ganz und gar neuem Phänomen gegenüber: dem Beispiellosen. Und wie die Taíno riskieren wir die Katastrophe, wenn wir neue Bedrohungen durch die Optik alter Erfahrungen sehen. Auf der »Angebotsseite« bedienten die Überwachungskapitalisten sich geschickt des gesamten Arsenals der Deklaration zur Legitimierung ihrer Autorität in dieser neuen und ungeschützten digitalen Welt. Die Deklarationen gestatteten ihnen, zu nehmen, ohne zu fragen. Sie camouflierten ihre Absichten mit unlesbaren Maschinenoperationen, gingen in rasendem Tempo vor, hielten die Hand über ihre Praktiken, meisterten die rhetorische Irreführung, lehrten Hilflosigkeit, bemächtigten sich ganz bewusst kultureller Zeichen und Symbole, die wir mit der Thematik der Zweiten Moderne verbinden – Befähigung, Teilhabe, Stimme, Individualisierung und Zusammenarbeit –, und appellierten unverblümt an die Frustrationen der Individuen der Zweiten Moderne, wie sie aus der Kollision zwischen individuellen Sehnsüchten und institutioneller Gleichgültigkeit entstehen.

Im Verlauf dieses Prozesses umgingen die Pioniere des Überwachungskapitalismus bei Google und Facebook die Prinzipien verantwortungsvoller Unternehmensführung, die Prinzipien der Demokratie wiesen sie zurück, ihre Ansprüche schützten sie mit finanziellem Einfluss und politischen Beziehungen. Und schließlich profitierten sie von historischen Gegebenheiten: von einer Zeit, die Regulierung mit Tyrannei gleichsetzt, und dem Überwachungsausnahmezustand nach den Anschlägen vom 11. September, welcher der neuen Marktform Wurzeln zu fassen erlaubte und zur Blüte verhalf. So schufen die Strategien der Überwachungskapitalisten im Verein mit rein zufälligen historischen Geschenken eine Form, die durchaus zu betören vermag, aber eben von skrupelloser Effizienz ist, wenn es um das Schließen der Fluchtwege geht; dazu vernichtet sie den Raum für demokratische Überlegungen, für gesellschaftlichen Diskurs, individuelle Selbstbestimmung und das Recht auf Kampf. Auf der »Nachfrageseite« haben wir die Bevölkerungsgruppen der Zweiten Moderne mit ihrem Hunger nach befähigenden Ressourcen, die so hingerissen waren von den prallen Säcken mit Reis und Milchpulver, die man ihnen vom digitalen Laster warf, dass sie kaum auf die Fahrer achteten, geschweige denn auf deren Ziel. Wir brauchten sie; wir haben sogar geglaubt, ohne sie nicht leben zu können. Aber bei genauerer Hinsicht nehmen sich die sehnlich erwarteten Laster mehr wie automatisierte Invasions- und Enteignungsfahrzeuge aus – eher Mad Max als Rotes Kreuz, eher ein Piraten- als ein Kreuzfahrtschiff. Die Zauberer am Steuer lernen, über Berg und Tal rasend, unser Verhalten zusammenzukratzen und einzulagern und es dann als Eroberer zur legitimen Kriegsbeute und damit ihren Anspruch darauf zu erklären. Da es an einem klaren Verständnis für diese neue Logik der Akkumulation fehlt, ist jeder Versuch, die Aktivitäten der Überwachungskapitalisten zu verstehen, vorherzusagen, zu regulieren oder gar zu verbieten, von vornherein zum Scheitern verurteilt. Die wesentlichen Konzepte, mit denen wir die Dreistigkeit der Überwachungskapitalisten in den Griff zu bekommen versuchen, sind »Privatsphäre« und »Monopol«. Aber weder unsere Bemühungen um einen effizienteren Datenschutz noch die Einschränkung traditioneller monopolistischer Praktiken vermochten bislang an den Grundmechanismen der Akkumulation auch nur zu rütteln –

nicht an den Versorgungsrouten und nicht an den Verhaltensterminkontrakten. Ganz im Gegenteil: So meisterhaft wie die Überwachungskapitalisten mittlerweile die politischen und praktischen Anforderungen des Enteignungszyklus beherrschen, konnten sie ihre Extraktionsarchitekturen verfeinern und auf die gesamte menschliche Sphäre erweitern. Und da der Überwachungskapitalismus sich auch noch der Wissensteilung bemächtigt hat, bedroht sein Erfolg mittlerweile die fundamentalsten Prinzipien sozialer Ordnung in unserer Informationszivilisation. Falls es zum Kampf kommen sollte, dann sollte es ein Kampf um den Kapitalismus sein. Und es sollte dabei darum gehen, dass ein ungezügelter Überwachungskapitalismus eine Bedrohung darstellt – für die Gesellschaft nicht weniger als für den Kapitalismus selbst. Ich spreche hier nicht von technischen Bemühungen, nicht von einer besseren Verschlüsselung oder verbessertem Datenschutz. Solche Strategien bemänteln und rechtfertigen damit nur die Unvermeidlichkeit kommerziell motivierter Überwachung. Sie führen dazu, dass wir uns in unserem Leben verstecken, während wir die Kontrolle denen überlassen, die sich an unserem Verhalten nach Gutdünken gütlich tun. Der Überwachungskapitalismus ist abhängig vom Sozialen; entsprechend besteht die einzige Möglichkeit, das große Versprechen eines an der Blüte der Dritten Moderne ausgerichteten Informationskapitalismus wiederherzustellen, im gemeinsamen sozialen Handeln. In Teil I sahen wir, wie Google seine Extraktionsarchitektur in der Online-Welt aufgebaut hat. Mit der Zunahme des Wettbewerbs um die Überwachungserträge trat ein zweiter ökonomischer Imperativ in den Vordergrund, der die Expansion dieser Architektur in die Welt vorantrieb, die bei uns als die »reale« Welt gilt. Im Augenblick bewegt sich der Überwachungskapitalismus in diese neue Richtung. In Teil II bitte ich Sie, sich auf Ihre Fähigkeit zum Erstaunen zurückzubesinnen, wenn wir der Spur dieses zweiten ökonomischen Imperativs folgen, der sich durch die Vorhersage menschlichen Verhaltens definiert. Dieser Vorhersageimperativ vertieft die Komplexität von Überschussoperationen, da sich hier Größen- bzw. Massenvorteile mit Diversifikationsvorteilen und Handlungs- bzw. Aktionsvorteilen treffen. Diese neuen Disziplinen zwingen den Überwachungskapitalismus zum

Vorstoß in zutiefst persönliche Sphären: unser Alltagsleben, unsere Persönlichkeit, unsere Emotionen. Letztlich jedoch erzwingen sie die Entwicklung ebenso raffinierter wie entschieden versteckter Mittel und Wege, uns in unser Verhalten um ihrer Überwachungserträge willen dreinzureden und es zu modifizieren. Diese Operationen stellen unser natürliches Recht auf das Futur in Frage, also das Recht, frei von Einflüssen illegitimer Kräfte zu handeln, die unser Verhalten außerhalb unseres Bewusstseins beeinflussen, modifizieren und konditionieren wollen. Wir stumpfen ab gegenüber diesen Übergriffen und der Art, wie sie unser Leben entstellen. Wir fügen uns dem Trommelschlag der Unvermeidlichkeit, obwohl hier nichts unvermeidlich ist. Die Fähigkeit zum Erstaunen ist uns abhandengekommen, aber sie lässt sich wiedergewinnen.

TEIL II: DER VORMARSCH DES ÜBERWACHUNGSKAPITALISMUS

Kapitel 7 Das Reality-Business Die Wahrheit liebend, ehe er sie kannte, zog er in Länder seiner Phantasie; einsam und fastend warb er dort um sie, voll Spott auf den, der tätig nach ihr drängte. – W. H. Auden, Sonette aus China, VI

Der Vorhersageimperativ Man hätte sich keinen passenderen Rahmen vorstellen können für Eric Schmidts Ansichten über die Zukunft des Internets als das Weltwirtschaftsforum, diesen Tummelplatz für Neoliberale – und zunehmend auch Überwachungskapitalisten – im verschneiten Davos. Zwischen seinen ehemaligen Kolleginnen Sheryl Sandberg und Marissa Mayer sitzend, antwortete er dort 2015, ohne auch nur einen Augenblick zu zögern, auf eine diesbezügliche Frage: »Das Internet wird verschwinden. Es wird so viele IP-Adressen geben …. so viele Geräte, Sensoren, Dinge, die Sie am Körper tragen, Dinge, mit denen Sie interagieren können, Sie werden das noch nicht mal mehr spüren. Sie haben es immer um sich. Stellen Sie sich vor, Sie treten in einen Raum, und der Raum ist dynamisch.«1 Dem Publikum verschlug es vor Staunen den Atem, und die Schlagzeilen verkündeten einer entsetzten Welt, Googles ehemaliger CEO habe das bevorstehende Aus des Internets prophezeit. Dabei hatte Schmidt genau genommen nur einen gefeierten Artikel der amerikanischen Informatikerlegende Mark Weiser – »The Computer for the 21st Century« –

paraphrasiert, der seit nunmehr fast dreißig Jahren dem Silicon Valley als Referenztext dient. In zwei legendären Sätzen stellte Weiser damals etwas vor, was er als »ubiquitäres Computing« bezeichnete: »Die einschneidendsten Technologien sind die, die verschwinden. Sie verquicken sich mit dem Gewebe unseres Alltags, bis sie von diesem nicht mehr zu unterscheiden sind.« Er schilderte einen ganz neuen Ansatz, »der es Computern ermöglicht, im Hintergrund zu verschwinden … Maschinen, die sich in die Umgebung des Menschen einfügen, anstatt den Menschen zum Eintritt in die ihre zu nötigen, werden der Nutzung eines Computers etwas von der Frische eines Waldspaziergangs verleihen.«2 Weiser hatte begriffen, dass die virtuelle Welt nie mehr sein könnte als eine Schattenwelt, so viele Daten sie auch aufsaugen mag: »Die virtuelle Realität ist lediglich eine Karte, kein Territorium. Sie schließt Schreibtische, Büros, Mitmenschen … Wetter, Bäume, Spaziergänge, Zufallsbegegnungen und, ganz allgemein, den unendlichen Reichtum des Universums aus.« Die virtuelle Realität, so schrieb er, »simuliert« die Welt eher, als »die bestehende Welt sichtbar zu verbessern«. Im Gegensatz dazu werde das ubiquitäre Computing die reale Welt mit seinem rundum vernetzten Apparat lautloser, »ruhiger« und gefräßiger Rechner überziehen.3 Weiser bezeichnete diesen Apparat als die neue »Computerumwelt« und schwelgt in den Möglichkeiten ihres unermesslichen Wissens, wie etwa »den Anzug zu kennen, den Sie sich die Woche zuvor so lange angesehen haben, weil sie Ihrer beider Standorte kennt, und sie kann im Nachhinein noch den Namen des Modeschöpfers in Erfahrung bringen, der sie zu dem Zeitpunkt nicht interessiert hat«.4 Schmidt sprach also nicht vom Ende des Internets an sich, sondern von dessen erfolgreicher Entkoppelung von speziellen Geräten wie PC oder Smartphone. Für Überwachungskapitalisten ist dieser Übergang eine ausgemachte Sache. Satte Überwachungsprofite haben zu massivem Wettbewerb um die Einkünfte aus diesen neuen Märkten für künftiges Verhalten geführt. Selbst der ausgeklügeltste Prozess für die Umwandlung von Verhaltensüberschuss in zuverlässige Vorhersageprodukte ist nur so gut wie der Rohstoff, mit dem man ihn füttert. Überwachungskapitalisten müssen sich deshalb fragen: Welche Arten von Überschuss ermöglichen die Herstellung besonders zuverlässiger Vorhersageprodukte? Diese Frage

markiert einen kritischen Wendepunkt, kristallisiert sich in ihr doch mit dem Vorhersageimperativ ein zweiter ökonomischer Imperativ heraus, der uns den immensen Druck offenbart, den er auf die Erträge der Überwachungskapitalisten ausübt. Die erste Generation von Vorhersageprodukten ermöglichte die zielgerichtete Online-Werbung. Diese Produkte bauten auf mittels Skaleneffekten erzieltem Überschuss aus dem Internet. Ich habe die Wettbewerbskräfte hinter dem Bedarf an skaliertem Überschuss unter dem Begriff »Extraktionsimperativ« zusammengefasst. Der Wettbewerb um Überwachungserträge erreichte schließlich einen Punkt, an dem das schiere Volumen an Überschuss zur notwendigen, aber letztlich eben doch nicht hinreichenden Bedingung für den Erfolg wurde. Die nächste Schwelle definierte sich durch die Qualität der Vorhersageprodukte. Im Wettlauf um immer höhere Grade an Gewissheit wurde rasch klar, dass die besten Vorhersagen an die Genauigkeit unmittelbarer Beobachtung herankommen müssten. Ausdruck dieser Wettbewerbskräfte ist der Vorhersageimperativ. Google /Alphabet, Facebook, Microsoft und viele andere Unternehmen, die im Augenblick dem Sog der Überwachungserträge folgen, setzen auf das »Verschwinden« des Internets, weil ihnen nichts anderes übrig bleibt. Mit dem Zwang zu immer präziseren Vorhersagen im Nacken war ihnen klar, dass sie ihre Extraktionsarchitektur sowohl ausweiten als auch diversifizieren mussten, um neue Quellen für Überschuss und neue Versorgungsoperationen aufzutun. Größenvorteile sollten selbstverständlich nach wie vor wichtig sein, nur wurden in dieser neuen Phase die Versorgungsoperationen vergrößert und intensiviert, um Diversifikationsund Handlungsvorteilen Rechnung zu tragen. Was bedeutet das? Die Wende hin zu Diversifikationsvorteilen definiert einen neuen Satz von Zielen: Verhaltensüberschuss muss riesig sein, darüber hinaus aber auch breit gefächert. Diese Variationen entwickelte man in zwei Dimensionen. Die erste ist die Ausweitung der Extraktionsoperationen über die virtuelle Welt hinaus in die »reale« Welt, in der wir effektiv unser eigentliches Leben leben. Überwachungskapitalisten verstanden, dass ihr künftiger Wohlstand von neuen Versorgungsrouten abhängen würde, die sich hinaus ins richtige Leben erstrecken: auf die Straße, unter Bäume, in die Stadt. Bei dieser Ausweitung geht es um Ihren Kreislauf, Ihre Matratze,

Ihre Gespräche am Frühstückstisch, Ihren Arbeitsweg, Ihr Jogging, Ihren Kühlschrank, Ihren Parkplatz, Ihr Wohnzimmer. In ihrer zweiten Dimension geht die Diversifikation in die Tiefe. Und dieser Run auf Diversifikationsvorteile in der Tiefendimension gestaltet sich gar noch dreister, ist doch der Gedanke dahinter, hochprädiktiven – und entsprechend lukrativen – Verhaltensüberschuss aus den intimen Mustern unserer Persönlichkeit zu schürfen. Diese Versorgungsoperationen zielen direkt auf unsere Persönlichkeit, Stimmungen und Emotionen, unsere Lügen und unsere Sollbruchstellen. Intimität wird Schicht um Schicht erfasst und in einer Sturzflut von Datenpunkten den algorithmischen Fließbändern zugeführt, die daraus Gewissheit fabrizieren. So wie zunächst schiere Masse notwendig wurde, dann aber für hochwertigere Vorhersageprodukte nicht mehr ausreichte, so war bald klar, dass auch Diversifikation notwendig war, aber dann nicht mehr ausreichte für die Art von qualitativ höchstwertigen Vorhersageprodukten, die allein dafür sorgten, dass man auf den neuen Märkten für künftiges Verhalten den Wettbewerbsvorteil nicht verlor. Verhaltensüberschuss hat sowohl immens als auch divers zu sein. Größte Gewissheit bei der Verhaltensvorhersage freilich erreicht man durch eine formende Intervention an der Quelle. Die Prozesse, die man zur Erreichung dieses Ziels erfand, bezeichne ich als Aktions- bzw. Handlungsvorteile. Um sie sich zu sichern, konfiguriert man Maschinenprozesse dergestalt, dass man im richtigen Leben, bei richtigen Menschen in den Stand der Dinge eingreift. Diese Eingriffe zielen auf eine Verbesserung der Gewissheit durch Agieren: Sie stupsen, gängeln, manipulieren und modifizieren Verhalten in spezifische Richtungen. Das kann relativ subtil vonstattengehen – etwa indem man eine bestimmte Wendung in Ihren Facebook-Feed einfügt, durch die präzise getimte Einblendung des Pay-Buttons auf Ihrem Smartphone oder durch Abschalten Ihres Wagens, wenn Sie die Versicherungsprämie nicht bezahlten. Diese Intensivierung des Wettbewerbs, die ihren Ausdruck in Diversifikation und Aktion findet, erhöht den invasiven Charakter der Versorgungsoperationen und hat eine ganz neue Ära von Überwachungsgeschäft losgetreten, das ich hier als Reality-Business bezeichnen will. Größenvorteile implementierte man durch eine maschinenbasierte Extraktionsarchitektur in der Online-Welt; das RealityBusiness hingegen bedarf maschinenbasierter Architekturen in der realen

Welt. Mit ihnen erfüllt sich endlich Weisers Vision allgegenwärtiger, automatisierter, rechnergestützter Prozesse, die sich »mit dem Gewebe unseres Alltags verquicken, bis sie von diesem nicht mehr zu unterscheiden sind« – wenn auch mit einem Dreh: Sie operieren jetzt im Interesse der Überwachungskapitalisten. Es gibt eine Reihe von Trendwörtern, die sowohl diese Operationen selbst als auch ihren Ursprung verschleiern: »Umgebungsintelligenz«, »ubiquitäres Computing«, das »Internet der Dinge«, um nur drei zu nennen. Für den Augenblick will ich den ganzen Komplex unter dem Begriff »der Apparat« zusammenfassen. Die Etiketten mögen sich unterscheiden, aber die Vision hinter ihnen ist ein und dieselbe: die ständige und allgegenwärtige Instrumentierung, Verdatung, Verbundenheit, Kommunikation und Berechnung von allem und jedem, belebt wie unbelebt, sowie aller nur erdenklichen Prozesse – ob natürlicher, menschlicher, physiologischer, chemischer, maschineller, administrativer, finanzieller, verkehrstechnischer oder sonst welcher Art. Mit anderen Worten gehen – von Telefonen, Autos, Straßen, Häusern, Geschäften, Körpern, Gebäuden, Flughäfen und Städten aus – unablässig Aktivitäten der realen Welt zurück in die digitale Sphäre, wo sie ein neues Leben als Daten annehmen, die zur Umwandlung in Vorhersagen zur Verfügung stehen. All das füllt die Seiten des unablässig expandierenden Schattentexts.5 Je mehr der Vorhersageimperativ an Fahrt gewinnt, desto deutlicher zeigt sich, dass Extraktion nur die erste Phase eines weit ehrgeizigeren Produkts war. Aktionsvorteile bedeuten nichts anderes, als dass die Maschinenarchitekturen der realen Welt nicht nur zu wissen in der Lage sein müssen, sondern auch zu handeln. Extraktion allein reicht nicht aus. Entsprechend wird die Extraktionsarchitektur mit einer neuen Exekutionsarchitektur gekoppelt, was damit dem gesamten vielfältigen Spektrum menschlichen Verhaltens versteckte ökonomische Ziele aufoktroyiert.6 Nach und nach beginnen die Imperative des Überwachungskapitalismus und seine materiellen Infrastrukturen für Extraktions- und Exekutionsoperationen als geschlossenes Ganzes zu funktionieren und ein »Verhaltensmodifikationsmittel« des 21. Jahrhunderts zu produzieren. Ziel des Unterfangens ist nicht etwa, uns Verhaltensnormen etwa im Sinne von

Konformität oder Gehorsam aufzuzwingen, sondern Verhalten zu produzieren, das zuverlässig und definitiv zu erwünschten kommerziellen Ergebnissen führt. Der Forschungsleiter von Gartner, einer renommierten Entwicklungs- und Beratungsfirma, lässt daran keinen Zweifel, wenn er sagt, dass die Beherrschung des »Internets der Dinge als wesentlicher Zuhelfer bei der Transformation von Geschäftsmodellen von ›garantierten Performancelevels‹ hin zu ›garantierten Ergebnissen‹ « dienen werde.7 Es ist dies ein ganz außergewöhnliches Statement, da es derartige Garantien nicht ohne die nötige Macht, sie einzuhalten, geben kann. Dieser breitere Komplex, den wir hier als »Verhaltensmodifikationsmittel« bezeichnen wollen, ist Ausdruck dieser sich zusammenbrauenden Macht. Die Aussicht auf garantierte Ergebnisse bringt uns die Kraft des Vorhersageimperativs erst so recht zu Bewusstsein; er zwingt die Überwachungskapitalisten dazu, die Zukunft zu gestalten, um sie vorhersagen zu können. Unter diesem Regime ist ubiquitäres Computing nicht nur eine Wissensmaschine; sie ist eine Aktuierungsmaschine, die ihnen zu noch mehr Gewissheit über uns verhelfen soll. Abbildung 3 ist eine bildhafte Zusammenfassung der »Bewegungsgesetze«, die ich hier beschrieben habe; sie zeigt, wie der Vorhersageimperativ als Motor die Akkumulation von Verhaltensüberschuss aus der virtuellen in die reale Welt zwingt. Erst so sind die Größen-, Diversifikations- und Aktionsvorteile zu erreichen; nur so kommt man an den immer aussagekräftigeren und damit lukrativen Nachschub an Rohstoff. Mit zunehmender Dynamik nimmt sowohl der Überschuss zu als auch die Kraft; Ziel ist, sich den garantierten Ergebnissen in der realen Welt anzunähern und sie dann irgendwann tatsächlich zu erreichen.

Abbildung 3

Dieser nach und nach wachsende intelligente und leistungsfähige Apparat wird allmählich um uns herum aufgebaut. Niemand kennt seine wahren Ausmaße, weder seine derzeitigen noch seine künftigen. Wir haben es hier mit einer von Hyperbeln geplagten Sphäre zu tun, in der Projektionen nicht selten weit über die tatsächlichen Resultate hinausgehen. Aber täuschen wir uns nicht: Planer, Investoren und Erfinder arbeiten unablässig daran, diese Vision einer rechnergestützten Umwelt zur Realität zu machen. Die Visionen und Ziele ihrer Architekten, die bereits geleistete Arbeit sowie die Programme, die gegenwärtig in der Entwicklung begriffen sind, stellen einen Wendepunkt in der Evolution des Überwachungskapitalismus dar. Lassen Sie mich zu guter Letzt noch eines herausstreichen: Auch wenn es durchaus möglich ist, sich so etwas wie das »Internet der Dinge« ohne den Überwachungskapitalismus vorzustellen, so ist es unmöglich, sich den Überwachungskapitalismus ohne so etwas wie das »Internet der Dinge« vorzustellen. Jede Weisung, die sich aus dem Vorhersageimperativ ergibt, bedarf dieser allgegenwärtigen, alles über die reale Welt wissenden und darin agierenden Präsenz. Der neue Apparat ist materieller Ausdruck des Vorhersageimperativs; er steht für eine neue, vom ökonomischen Zwang zur Gewissheit getriebene Art von Macht. In diesem Fakt laufen zwei Vektoren zusammen: die frühen Ideale ubiquitären Computings und die ökonomischen Imperative des Überwachungskapitalismus. Diese Verschmelzung signalisiert die Metamorphose der digitalen Infrastruktur von einem Etwas, das wir haben, zu einem Etwas, das uns hat. So futuristisch es anmuten mag, die Vision von Individuen und Gruppen, die wie Objekte unablässig getrackt werden, durch und durch bekannt sind und für einen Zweck hin- und hergeschoben werden, dessen sie sich nicht bewusst sind, hat eine Geschichte. Sie wurde vor sechzig Jahren unter der äquatorialen Sonne der Galapagosinseln ins Leben gerufen, als eine Riesenschildkröte sich träge anschickte, ein saftiges Stück Kaktus zu verschlucken, das von einem findigen Wissenschaftler mit einer kleinen Maschine präpariert war. Es war die Zeit, in der Wissenschaftler, des Eigensinns wildlebender Tiere müde, zu dem Schluss kamen, Überwachung sei der notwendige Preis

dafür, etwas über sie zu erfahren. Solche Lebewesen in einem Zoo einzusperren, würde genau das ändern, was man erforschen wollte: ihr Verhalten. Aber wie sollte diese Überwachung vonstattengehen? Die Lösung, die sich Wissenschaftler damals zum Studium von Elchherden, Seeschildkröten und Gänsen ausdachten, wurde von den Überwachungskapitalisten aufpoliert und der Welt als unumgängliches Feature des Lebens im 21. Jahrhundert präsentiert. Alles, was sich geändert hat, ist, dass wir jetzt die Tiere sind.

Die sanfte Eroberung freiheitsliebender Tiere 1964 bot eine international besetzte Expedition zu den Galapagosinseln eine einmalige Gelegenheit zur Erforschung der Telemetrie, einer Grenztechnologie zur Fernübertragung von Computerdaten. Ein neuer Schlag von Wissenschaftlern machte sich für diese Kombination von Biologie, Physik, Ingenieurstechnik und Elektronik stark, allen voran R. Stuart Mackay, ein Physiker, Elektroingenieur, Biologe und Arzt, der unter seinen Kollegen als der Experte galt, auf den die Experten hörten.8 Mackay sah die Telemetrie als Mittel, etwas für das Wohlergehen von Tierpopulationen zu tun. Ein Foto von der Galapagosexpedition zeigt ihn liebevoll über eine Riesenschildkröte gebeugt, die seinen winzigen Apparat geschluckt hatte; in einem anderen hält er eine seltene Meerechse mit einem Sensor am Körper – die Sensoren sollten die Körpertemperaturen der Tiere messen. Er betonte das wesentliche Element, das die Telemetrie von anderen Formen des Monitoring unterschied: die Möglichkeit, Verhalten in ihrem angestammten Habitat mit Sensoren von solcher Kompaktheit zu erfassen, dass sie im Körper des Tieres, von diesem unbemerkt, verschwinden konnten: Der Einsatz des Funksignals eines Senders im oder am Subjekt zur Übermittlung von Informationen an einen fernen Empfänger zur Aufnahme sorgt für Bewegungsfreiheit und erlaubt die ungestörte Erforschung andernfalls unzugänglicher Körperteile, ohne dass das Subjekt sich des Messprozesses bewusst ist … die Methoden belassen

das Subjekt in einem relativ normalen psychologischen und physiologischen Zustand und beeinträchtigen die Fortsetzung seiner normalen Aktivitäten nicht.9 Mackays Veröffentlichungen konzentrierten sich vor allem auf die technischen Aspekte seiner Studien, erlauben aber hier und da auch den Blick auf größere Zusammenhänge. Telemetrie erlaubte die Erstellung großer Datensätze sowie korrelierende Massenstudien an ganzen Populationen. Wie er schrieb, lassen sich dieselben Techniken auch auf die statische Welt anwenden: den Baldachin eines Regenwalds, das Aushärten von Beton, chemische Reaktionsgefäße, die Lebensmittelverarbeitung. Mackay stellte sich ganze Populationen vernetzter datenemittierender Einzeltiere vor. Seine erste Generation »anziehbarer Technologien« ermöglichte das Studium freilebender Tiere jeder Spezies – einschließlich der menschlichen. Biomedizinische Telemetrie, so betonte er, eigne sich auf einzigartige Weise zur Sammlung von Informationen, die sonst »in freier Wildbahn« unmöglich zusammenzutragen wären. Das Schlüsselprinzip dabei war für ihn, dass seine Fernüberwachung funktionierte, ohne dass die Tiere sich ihrer bewusst waren. Besonders nützlich war das bei der Lösung von schwierigen Problemen wie etwa der Messung »unkooperativer Tiere« und der Notwendigkeit der Datensammlung bei sich frei in »unzugänglichen Regionen« bewegenden Herden. Mackays Erfindungen ermöglichten es den Wissenschaftlern, Tiere selbst dann zu verdaten, wenn diese sich frei wähnten; sie waren sich mit anderen Worten des Übergriffs, das heißt des Einfalls in ihre einst geheimnisvollen Landschaften nicht im Geringsten bewusst. Mackay betonte, dass Übertragung und Monitoring von Sensordaten nur ein Teil der Geschichte seien. Es genüge nicht, die Wege der Tiere zu kennen; es gehe darum, ihnen den Weg zu zeigen. Er sprach dem »umgekehrten Prozess« der »Telestimulation« das Wort, die einem nicht nur das Monitoring von Verhalten erlaubte, sondern auch Auskunft darüber gab, wie dieses Verhalten zu modifizieren und optimieren sei; die Telestimulation biete die Möglichkeit zu einem »Ferndialog zwischen dem Subjekt und dem Versuchsleiter«.10 Im digitalen Zeitalter erfüllte sich die erweiterte Version von Mackays Vision. Die Präzision der Satellitenerfassung im Verein mit der nachgerade

explodierenden Rechenkraft unserer Computer auf winzigen Siliziumchips, hochentwickelte Sensoren, internetgestützte Netzwerke und PredictiveAnalytics auf der Basis von »Big Data« haben ganz außerordentliche Systeme geschaffen, die uns Bedeutung und Bewegungen ganzer Tierpopulationen und ihren einzelnen Individuen offenbaren – und das ständig und überall.11 Die Wearables an und in den Körpern von Tieren sind darüber hinaus auch zu Sensoren für Klima, Geografie und Ökologie unseres Planeten geworden; sie ermöglichen »ein Quorum-Sensing unseres Planeten mittels einer ganzen Reihe unterschiedlicher Spezies, mit denen sich die Diversität der Sinne erschließen lässt, die sich in Tiergruppen entwickelt haben«, das führe zu einer Art »sechstem Sinn für die Gesamtheit der Tiere weltweit«.12 Wie Sie sich vermutlich bereits denken können, besteht kaum Grund zur Annahme, dass die Anwendung dieser Möglichkeiten auf die Tierwelt beschränkt bleiben sollte. Und so ist diese Schwelle denn auch bereits überschritten.13 2014 stellte ein Forscherteam der University of Washington unter der Leitung von JenqNeng Hwang ein »Super-GPS« vor. Auf der Basis städtischer Überwachungskameras, ermöglichte es »die dynamische Visualisierung des Standorts von Personen, die sich eine Straße oder einen Gehsteig entlangbewegen, damit die animierte Version dieser Echtzeit-Dynamiken auf städtischen Straßen für andere auf Plattformen wie Google Earth zu sehen ist«.14 Die großartige Arbeit Professor Mackays und seiner Nachfolger nahm zahlreiche künftige Umwälzungen vorweg. In einer Metamorphose, die Mackay nicht vorausgeahnt hatte, wurde die Wissenschaft, die aus seiner bahnbrechenden Arbeit erwuchs, zum Muster für die nächste Phase in der Evolution des Überwachungskapitalismus, bei der die nun auf menschliches Verhalten angewandte Telematik in den Bann einer neuen und lukrativen Logik der Akkumulation geriet. Die Anforderungen der Vorhersage, die später mit einem ökonomischen Imperativ verschmelzen sollten, waren in Mackays Arbeit bereits angelegt. Die Notwendigkeit für Diversifikationsvorteile, sowohl hinsichtlich der Bandbreite als auch der Tiefe, reflektieren sich in seiner Rahmengrundlage, laut der es Informationen sowohl über Populationen als auch Details über ihre einzelnen Mitglieder zu erfassen galt. Er dachte also bereits an den Griff in die fernsten Winkel bis dahin unzugänglicher Regionen. Heute

gehören zu diesen Regionen auch der Fahrersitz Ihres Autos, Ihre Küche und Ihre Nieren. Sein »umgekehrter Prozess« der Telestimulation erlebt seine Wiederauferstehung in den Aktionsvorteilen, die Verhalten automatisch stimulieren, wenn auch nicht um die menschliche Herde vor der Katastrophe zu retten, als vielmehr um die Vorhersagbarkeit ihres Verhaltens zu maximieren. War Mackay noch von wissenschaftlichem Pioniergeist beseelt, dürstet die heutigen »Experimentatoren« nach Gewissheit bei der Umwandlung unseres Lebens in Rechenprozesse. Mackays Tiere waren sowohl unbefangen als auch von Natur aus unkooperativ, weil sie sich frei fühlten, zumal im Schutz unzugänglicher Territorien. Heute ist die ungezwungene, lockere Freiheit, die das Menschentier genießt – das Gefühl der Unbefangenheit, das im Mysterium abgelegener Winkel und intimer Räume gedeiht –, lediglich Sand im Getriebe des überwachungskapitalistischen Apparats.

Menschenherden Eine Variante von Mackays Erbe für unsere Zeit bietet Professor Joe Paradiso vom MIT Media Lab, wo man – vom Data-Mining bis hin zu Wearables – einige der wertvollsten Fähigkeiten und Anwendungsmöglichkeiten des Überwachungskapitalismus erfand. Paradiso hat eine Gruppe brillanter Köpfe – Datenwissenschaftler und Ingenieure, Musiker und Künstler – um sich geschart, die gemeinsam die Welt durch die Linse von Google Search mit einem frischen Auge sehen. Mit eben den Disziplinen, mit denen man das Web zu beherrschen gelernt hat – Verdatung, Indexierung, Browsing und Suche –, versuchen sie jetzt, die Realität selbst zu beherrschen. Ohne eine »ubiquitäre wahrnehmungsfähige Umwelt«, so schreibt Paradiso, »sind die kognitiven Maschinen dieser allseits befähigten Welt taub, stumm und blind und vermögen nicht relevant zu reagieren auf Ereignisse in der realen Welt, zu der sie einen Beitrag leisten wollen«.15 Anders gesagt, ubiquitäres Computing hat keinen Sinn ohne das ubiquitäre Erfassen, das die Erfahrung der Berechnung zugänglich macht.

Zu diesem Zweck haben Paradisos Studenten einen »Hörbaum« erfunden, der Klänge streamt, die »Aufmerksamkeit erregen wollen« und »in eine Zukunft weisen, in der digitale Informationen nahtlos in die physische Welt integriert« sind.16 Er und seine Kollegen haben dazu hundert Hektar Marschland mit Hunderten von Sensoren versehen, die ihre Umgebung messen und aufzeichnen sollen – Temperatur, Luftfeuchtigkeit, Nässe, Lichtbewegung, Wind, Geräusche, Chemikalienlevels, den Fluss von Baumsäften und vieles mehr. Sie entwickelten dazu »Trägheitssensoren« zum Tracking und zur Berechnung komplexer Bewegungen sowie »wahrnehmungsfähige Fasern«, um »radikal neue funktionelle Substrate« zu schaffen, »die Auswirkungen auf Medizin, Mode und Kleidung haben können … und die Elektronik in alle dehnbaren oder formbaren Dinge bringen«. Es gibt Elektronik, die sich in Form von Tätowierungen und Make-up direkt auf die Haut auftragen lässt, während sich Fingernägel und Handgelenke in Rechnerschnittstellen verwandeln lassen, die Fingergesten zu lesen vermögen, selbst wenn man die Hände dazu nicht bewegt. »Sensortape« und »Stickers« lassen sich auf »unzugängliche Oberflächen und Baumaterialien aufbringen«, wo man sie »drahtlos befragen« kann.17 Paradiso und seine Kollegen mussten sich dabei mit einem speziellen Paradoxon herumschlagen. Auf der einen Seite hätten sie für mehr Sensordaten in fast jedem Umfeld zu sorgen – von Smartphones über Haushaltsgeräte bis hin zu Kameras und Autos –, auf der anderen Seite sahen sie sich den damit verbundenen Schwierigkeiten gegenüber, sensorengenerierte Datenflüsse in die Produktion aussagefähiger Analysen zu integrieren. Ihre Antwort darauf hieß »DoppelLab«, eine digitale Plattform zur Kombination und visuellen Darstellung von Sensordaten.18 Der Gedanke dahinter ist, jede Art von physischem Raum, vom Innern eines Bürogebäudes bis zur ganzen Stadt, in eine »browsebare Umgebung« zu verwandeln, wo sich mittels Tausender, Milliarden oder gar Billionen von Sensoren alles hören und sehen lässt, was in diesem Raum vor sich geht. So wie Browser wie Netscape uns als Erste »Zugang zu der Masse an Daten im Internet ermöglichten, so werden Softwarebrowser es uns ermöglichen, Sinn in die Flut von Sensordaten zu bringen, die da unterwegs ist«.19

Ziel bei alledem ist eine große Synthese: Zusammenführung und Verschmelzung jeder Art von sensorischen Daten aus jedem Kanal und jedem Gerät zur Entwicklung einer »virtuellen sensorischen Umgebung«, in der »Crawler ständig Daten durchgehen … Zustände berechnen und andere aus diesen Daten abgeleitete Parameter schätzen«. Zusammengetragen werden diese Daten von überall. Paradiso ist zuversichtlich, dass »eine geeignete Schnittstelle mit diesen künstlichen Sensorien für eine digitale Allwissenheit …, eine allgegenwärtige und umfassende Umgebung erweiterter Realität zu sorgen verspricht … die intuitiv browsebar ist«. Er ist davon überzeugt, dass allgegenwärtige sensorische Informationen und Computer »eher eine Erweiterung unserer selbst sein werden als eine Verkörperung des ›Anderen‹ «. Informationen werden »direkt in unsere Augen und Ohren« strömen, »treten wir erst einmal in die Ära der Wearables ein … die Grenzen zwischen Individuen werden in dieser Zukunft ausgesprochen verschwommen« ausfallen.20 Paradiso und seinem Koautor Gershon Dublon zufolge besteht die nächste große technologische Herausforderung in der »KontextAgglomeration«, worunter sie die Fähigkeit verstehen, die rasch expandierenden sensorischen Informationen zu neuen »Applikationen« zusammenzustellen.21 Der Gedanke dahinter ist, dass jeder physische Raum und jede Spur von Verhalten in diesem Raum – summende Bienen, Ihr Lächeln, die Temperaturschwankungen in meinem Kleiderschrank, der Wind in den Bäumen, eine Unterhaltung – informatisiert (in Information übersetzt) werden kann. Räume lassen sich zu einem nahtlosen Strom suchbarer Informationen, Bilder und Klänge zusammenfassen – denken Sie daran, wie Google einst Webseiten angehäuft und zusammengefasst hat, um sie zu indexieren und damit durchsuchbar zu machen. »Dieser Wechsel wird ein nahtloses Nervensystem schaffen, das den ganzen Planeten überzieht – und eine der wesentlichen Herausforderungen für die ITGemeinde besteht heute darin, die in rasanter Entwicklung begriffenen ›allwissenden‹ elektronischen Sensorien mit der menschlichen Wahrnehmung zu verschmelzen.«22 Bei aller Brillanz und Kreativität scheinen sich diese Wissenschaftler der rastlosen ökonomischen Ordnung nicht gewahr zu sein, die es kaum erwarten kann, ihre Leistungen in den Dienst ihrer Überwachungserträge zu

stellen. Paradiso rechnet noch nicht einmal mit der Übersetzung seines allwissenden Paradieses in die Realpolitik des Überwachungskapitalismus. Der Vorhersageimperativ jedoch besteht auf den aus all diesen neuen Datenströmen gewonnenen Überschuss, und Überwachungskapitalisten belegen nun einmal die vorderste Bank im Klassenzimmer digitaler Omniszienz.

Die Realpolitik des Überwachungskapitalismus Der Rückgang öffentlicher Mittel für das »ubiquitäre Computing« überlässt den Tech-Unternehmen die Initiative bei der Grundlagenforschung wie bei der Entwicklung entsprechender Applikationen. Es kommt zu einem Wettlauf in der Branche mit dem Ziel, »Google zu werden«, was den neuen Apparat und seine Extraktions- und Exekutionsarchitekturen anbelangt.23 Trotz der radikalen Aussichten eines allgegenwärtigen, vernetzten und wahrnehmungsfähigen Rechenapparats und der oft wiederholten Behauptung, dieser »werde alles verändern«, operieren amerikanische Tech-Unternehmen nach wie vor unter Bedingungen relativer Gesetzlosigkeit; weder eine umfassende gesellschaftliche noch eine staatliche Regulierung sind in Sicht. Intels Chefstratege für das »Internet der Dinge« kommentierte die Sorge hinsichtlich der Implikationen für Privatsphäre und Datenschutz folgendermaßen: »Bei uns herrscht der unerschütterliche Glaube, dass wir bei allem Verständnis für die Debatte um eine Regulierung nicht wollen, dass eine solche sich der technologischen Innovation in den Weg stellt.«24 Statt einer »Regulierung« oder eines »Gesellschaftsvertrags« bestimmt den Weg zunehmend der Kapitalismus, vor allem der Überwachungskapitalismus. Ungeduldig harrt man neuer Verhaltensterminkontraktmärkte und »zielgruppengerechter Applikationen«. Microsofts Verantwortlicher für die Plattform, die mittels Maschinenintelligenz Integration und Analyse der Daten aus dem Internet der Dinge erledigen soll, sagt dazu: »So richtig cool und gruselig wird es, wenn auch die ganze Konkurrenz mit ihren smarten Geräten mit ins Boot kommt: ein großer Sekundärmarkt für Daten … eine Sekundärquelle für

Einkünfte.« Diese Märkte, so erklärt er, sind »dasselbe wie Googles oder Facebooks Märkte für zielgerichtete Werbung«.25 Ein Bericht von IBM ist da ganz seiner Meinung: »Dank des Internets der Dinge werden physische Gegenstände zu Teilnehmern an globalen digitalen Echtzeitmärkten. Die zahllosen Arten von Gegenständen um uns herum sind dann so leicht zu indexieren, zu finden und zu handeln wie irgendein anderes Online-Gut … Wie nennen das die ›Liquifizierung‹ der physischen Welt.«26 In einer ominösen Parallele zur Rhetorik über die »Datenabgase« als Vorspiel zur Enteignung bedarf diese zweite Phase der Enteignung auch einer neuen Rhetorik, die gleichzeitig zu legitimieren und vom tatsächlichen durch den Vorhersageimperativ ausgelösten Geschehen abzulenken vermag. Diese Rolle übernimmt ein neuer Euphemismus: »Dark Data«. So investierte zum Beispiel Harriet Green von IBM drei Milliarden Dollar in das Internet der Dinge – eine Bindung von Ressourcen, die darauf abzielte, das Unternehmen zum ernsthaften Herausforderer im Rennen um den Titel »Google des ubiquitären Computings« zu machen. Ein Hemmschuh bei der digitalen Allwissenheit, so Green, sei der Umstand, dass die meisten der von den einschlägigen Unternehmen gesammelten Daten »unstrukturiert« seien, wodurch sich Verdatung und Kodifizierung entsprechend schwierig gestalteten.27 IBMs Kunden stellen sich besorgt die Frage: »Was können wir mit diesen (unstrukturierten) Daten machen, um uns effizienter zu machen oder neue Produkte und Dienste zu schaffen, die wir verkaufen können, um unser Geschäft zu optimieren oder Neues für Kunden zu kreieren?«28 Unstrukturierte Daten können nicht einfließen in die neuen Kreisläufe für den An- und Verkauf liquifizierter Güter. Sie gehen darin nicht auf; sie sind Sand im Getriebe. Green kapriziert sich in diesem Kontext auf einen deklarativen Begriff, der das Problem gleichzeitig benennen und seine Lösung rechtfertigen soll: Dark Data. Für diese neue Phase der Enteignung verfeinert man die Botschaft, die man in der Online-Welt perfektioniert hat – »wenn du nicht im System bist, existierst du nicht«. Da der Apparat der vernetzten Dinge alles sein soll, ist jedes Verhalten – von Mensch oder Ding –, das beim Run auf die universelle Integration fehlt, dunkel: bedrohlich, ungezähmt, rebellisch, eigensinnig, außer Kontrolle. Die hartnäckige Masse von Dunkeldaten wird zum Widersacher der Ambitionen

von IBM und seiner Kundschaft deklariert. Hören Sie hier ein Echo von Mackay und seiner Entschlossenheit, die Geheimnisse freilebender Tiere und unzugänglicher Regionen zu durchdringen? Die Spannung ergibt sich daraus, dass nichts, aber auch rein gar nichts zählt, sofern es nicht als Verhalten erfasst, in elektronische Datenflüsse übersetzt und als beobachtbare Daten ans Licht gezerrt wird. Alles muss ausgeleuchtet sein, um es zählen und en masse dirigieren zu können. Auf diese Weise macht man »Dark Data« spielend zu den »Datenabgasen« des ubiquitären Computing. Das Konzept liefert die moralische, technische, kommerzielle und rechtliche Grundlage für leistungsfähige Maschinenintelligenzsysteme, die in der Lage sind, Verhalten und Befindlichkeiten, die nie für die Öffentlichkeit bestimmt waren, zu erfassen und zu analysieren. Für die, die nach Überwachungserträgen streben, bedeuten diese Dark Data ebenso lukrative wie notwendige Territorien in dem dynamischen universellen Puzzle, das sich aus den Bemühungen um Masse, Diversifikation und Aktion ergibt. So besetzt die Tech-Community Dark Data in der Rolle der untragbaren »unbekannten Unbekannten«, einer Größe, mit anderen Worten, die das finanzielle Versprechen des »Internets der Dinge« bedroht.29 Es ist also nur verständlich, dass Green die Maschinenintelligenz – und hier insbesondere IBMs anthropomorphisiertes AI-System »Watson« – als den Retter eines Apparats darstellt, der sich von Verschwendung und Unverständlichkeit bedroht sieht. Maschinenintelligenz heißt bei IBM »kognitives Computing«, vermutlich um die beunruhigenden Konnotationen undurchschaubarer Macht zu vermeiden, die mit Wörtern wie »Maschine« und »künstlich« verbunden sind. Unter der Führung von CEO Ginni Rometty investierte das Unternehmen massiv in »Watson«, den man als »das Gehirn des ›Internets der Dinge‹ « preist. Romettys Willen nach soll IBM die Maschinenlernfunktionen dominieren, die die ubiquitären Daten in ubiquitäres Wissen und ubiquitäre Aktion umwandeln sollen. »In der ersten Diskussion muss es darum gehen, wie viel Dark Data Sie haben, die nur Watson und kognitives Computing wirklich abfragen können«, sagt Green. »Wissen Sie, die Menge an Daten, die tagtäglich geschaffen wird – ein Großteil davon liegt einfach brach, bis man sie nutzt. In diesen Dark Data stecken phantastische Möglichkeiten …

die Fähigkeit, alles auf der Welt mit Sensoren auszustatten, also im Prinzip alles zum Computer zu machen, ob das nun Ihre Kontaktlinsen sind, Ihr Krankenhausbett oder eine Eisenbahnschiene.«30 Die Botschaft dahinter ist die, dass die neuen Instrumente des Überwachungskapitalismus Handlungen und Befindlichkeiten der ganzen Welt in Datenform zu Verhaltensflüssen machen werden. Jedes dergestalt entstandene Bit ist von seinem Leben im sozialen Kontext, von der unbequemen Last moralischer und politischer Erwägungen, gesellschaftlicher Normen, Werte, Beziehungen, Gefühle und Situationen befreit. In diesem konturlosen Fluss sind Daten nichts als Daten, Verhalten ist Verhalten. Gefühle und Handlungen sind in Daten übersetzt; der Körper ist nichts weiter als ein Satz Koordinaten in Zeit und Raum. Alles in diesem Datenverschnitt, Belebtes wie Unbelebtes, teilt sich ein und denselben existenziellen Status, alles ist wiedergeboren als objektives, messbares, indexierbares, browsebares, suchbares »Es«. Der Überwachungskapitalismus und seine ökonomischen Imperative reduzieren Welt, Körper und Selbst unwiederbringlich auf den Status von Objekten – sie verschwinden im Blutstrom eines gigantischen neuen Marktkonzepts. Seine Waschmaschine, ihr Gaspedal, Ihre Darmflora, alles ist gleichwertig, auf eine einzige Dimension reduziert, zu Informationsgütern, die sich trennen und beliebig wieder zusammensetzen, indexieren, browsen, manipulieren, analysieren, vorhersagen lassen; und schließlich lässt sich daraus ein Produkt machen, das man kaufen und verkaufen kann – immer und überall. Die Weltsicht, die sich Wissenschaftler wie Paradiso und Wirtschaftskapitäne wie Green zurechtgelegt haben, wurde mittlerweile an zahlreichen Fronten losgetreten, an denen digitale Allwissenheit als Patentrezept für die Gewissheit im Dienste sicheren Profits sehnlich erwartet wird. Unser nächster Abschnitt gibt uns die Gelegenheit, diese Weltsicht in Aktion zu sehen, und das in einem Wirtschaftssektor, an den die Pioniere des Überwachungskapitalismus nun sicher nicht gedacht hatten: der Kraftfahrzeugversicherung. In den Plänen wie in den Praktiken dieser neuen Akteure zeigen sich sowohl die Entschlossenheit bei der Institutionalisierung von Diversifikations- und Aktionsvorteilen als auch die Wende hin zu einer finsteren neuen Welt, in der automatisierte und

zielgerichtete Verhaltensmodifikationsmittel als Wege zum Profit verstanden werden.

Gewissheit um des Profits willen In Kapitel 3 haben wir Googles Hal Varian kennengelernt, der uns hier einmal mehr aushilft, indem er Licht sowohl auf die Bedeutung als auch die spezifischen Anforderungen des Vorhersageimperativs wirft. Wenn Sie sich erinnern wollen: Varian beschrieb vier neue »Einsatzmöglichkeiten« rechnergestützter Transaktionen.31 Die erste davon war die »Datenextraktion und -analyse«; wir konnten, davon ausgehend, auf den Extraktionsimperativ als den Grundmechanismus des Überwachungskapitalismus schließen. Varian zufolge werden die anderen drei neuen Einsatzmöglichkeiten – »neue Vertragsformen durch besseres Monitoring«, »Personalisierung und individueller Zuschnitt« sowie »fortwährende Experimente« – gar noch wichtiger als die erste.32 Jetzt ist die Zeit dafür reif. »Da Transaktionen jetzt rechnergestützt ablaufen, lässt sich heute Verhalten beobachten, das zuvor nicht zu beobachten war, und wir können darauf Verträge abschließen«, sagt Varian. »Das ermöglicht Transaktionen, die früher schlicht nicht machbar waren.«33 Da er deren paradigmatische Kraft erkennt, zieht er denn auch als Beispiel »Systeme zum Monitoring von Kraftfahrzeugen« heran. Wenn heute, so Varian, jemand seine monatliche Rate für seinen Wagen nicht bezahle, sei es »weitaus leichter, einfach das Monitoringsystem eines Fahrzeugs anzuweisen, den Anlasser zu blockieren und den Standort durchzugeben, wo man es abholen kann«.34 Versicherer, so schreibt er weiter, können sich ebenfalls auf diese Art von Fernüberwachung stützen, um zu sehen, ob ihre Kunden sicher fahren, und auf dieser Basis entscheiden, ob man die Police beibehalten, die Prämie anpassen oder im Schadensfall einem Antrag entsprechen soll. Varians neue Einsatzmöglichkeiten rechnergestützter Transaktionen in der Versicherungsbranche sind zur Gänze von internetaktiven Geräten abhängig, die sowohl wissen als auch handeln. Man kann sogar sagen, sie sind gar nicht vorstellbar ohne die materiellen Möglichkeiten von

Extraktions- und Exekutionsarchitekturen, mit denen man heute die reale Welt überzieht. Das von Varian beschriebene Fahrzeugmonitoringsystem zum Beispiel bietet sowohl Diversifikations- als auch Aktionsvorteile. Es kennt den Stand der Dinge nicht nur, es greift auch ein; es überwacht Daten und reagiert auf programmierte Anweisungen, den Motor abzustellen, sodass der Autohändler den »bewegungsunfähigen« Wagen nebst seinem machtlosen Lenker abholen kann. Wo nun der Vorhersageimperativ dafür sorgt, dass Versorgungsoperationen zunehmend in der realen Welt Einzug halten, geraten auch Hersteller und Dienstleister von Sektoren fernab des Silicon Valley in den Bann der Aussichten auf Überwachungserträge. So hat es zum Beispiel dem CEO des amerikanischen Versicherungskonzerns Allstate Googles Vorbild angetan: »Es gibt heute eine Menge Leute, die aus Daten Kapital schlagen. Sie suchen was bei Google und denken, das kostet nichts. Von wegen. Sie geben denen Informationen; die verkaufen Ihre Informationen. Könnten wir, sollten wir die Informationen, die wir von Autofahrern bekommen, an diverse andere weitergeben und so etwas zusätzlichen Profit erwirtschaften? Wir sollten da langfristig denken.«35 Autoversicherer scheinen besonders erpicht auf die Implementierung von Varians Vision und Mackays Telematik zu sein. Der Kampf um unseren Wagen entpuppt sich so als hervorragendes Beispiel für die Entschlossenheit, mit der große wie kleine Unternehmen heute hinter dem Verhaltensüberschuss her sind. Autoversicherer wissen schon lange, dass Risiko eng mit Fahrverhalten und Persönlichkeit verbunden ist – aber was sollten sie tun?36 Heute können die Systeme zum Fernmonitoring, wie sie die moderne Telematik bereitstellt, unablässig darüber informieren, wo wir sind, wo wir hinwollen, über unser Fahrverhalten, über den Zustand unseres Wagens. Durch entsprechende Bestückung des Armaturenbretts und des Smartphones lässt sich mittels applikationsbasierter Telematik darüber hinaus auch berechnen, wie es uns geht und was wir sagen. So sehen sich gerade Autoversicherer im Visier von Beratern und potenziellen Technologiepartnern, die ihnen mit ihren überwachungskapitalistischen Strategien ein neues Kapitel kommerziellen Erfolgs verkaufen wollen. »Die Ungewissheit wird stark reduziert werden«,

psalmodiert ein Bericht von McKinsey & Co über die Zukunft der Versicherungsbranche. »Das führt zu einer Aufweichung des Prinzips der Gegenseitigkeit und dazu, dass sich der Fokus von Personengruppen auf Vorhersage und Management individueller Risiken verschiebt.«37 Ein Bericht von Deloittes Center for Financial Services rät zur »Risikominimierung« – ein Euphemismus für garantierte Ergebnisse – durch Monitoring und dadurch, dass man Versicherungsnehmern in Echtzeit ein bestimmtes Verhalten aufzwingt, ein Ansatz, der als behavioral underwriting bezeichnet wird.38 »Versicherer haben die Möglichkeit zum direkten Monitoring des Verhaltens einzelner Versicherungsnehmer«, heißt es bei Deloitte, »indem sie während der Fahrt Zeit, Standorte und Straßenbedingungen aufzeichnen, ob sie rasant beschleunigen, schnell oder gar mit überhöhten Geschwindigkeiten fahren, wie schnell sie Kurven nehmen und ob sie ihre Blinker einsetzen.«39 Telematik sorgt für beständige Datenflüsse, sodass sich die traditionellen »Proxy-Faktoren« wie etwa demografische Informationen, die man früher zur Risikokalkulation heranzog, durch Echtzeitverhaltensüberschuss ersetzen lassen. Das wiederum bedeutet, dass Überschuss sowohl reichlich (Größenvorteile) als auch divers (Diversifikationsvorteile) zu sein hat, Letzteres sowohl hinsichtlich des Spektrums als auch der Tiefe. Sogar kleinere Versicherer, für die der erhebliche finanzielle Aufwand für Telematik zu hoch ist, können die meisten dieser Ziele mittels einer Smartphone-App erreichen, durch die sich die teure Hardware und die Kosten für die Datenübertragung sparen lassen. »Diese Versicherer könnten sogar davon profitieren, insofern eine mobile App Daten aus erster Hand über Verhalten und Performance des Fahrers erfassen kann … was den Rundumblick auf das Gesamtrisiko erlaubt, auf dessen Basis man die Police ausstellt.«40 Ist Ungewissheit erst einmal durch Gewissheit ersetzt, können die Prämien, die zuvor zwangsläufig unbekannte Größen des Alltags reflektierten, von Millisekunde zu Millisekunde steigen und fallen, immer auf der Basis präziser Informationen darüber, wie schnell man nach einem unerwartet hektischen Morgen mit einem Krankheitsfall in der Familie zur Arbeit rast oder ob man auf dem Parkplatz hinter dem Supermarkt Rennen fährt. »Wir wissen, dass 16-jährige Fahrer in mehr Unfälle verwickelt sind

… aber nicht jeder 16-Jährige ist ein lausiger Fahrer«, meint dazu ein Telematikfachmann aus der Versicherungsbranche. Prämien, die sich nach dem tatsächlichen Verhalten richten, sind »ein großer Vorteil für eine angemessene Preisgestaltung«.41 Ein solches Maß an Gewissheit bedeutet, dass auf Risikominimierung abzielende Versicherungspolicen mehr und mehr Maschinenprozessen weichen, die »fast unmittelbar« auf nuancierte Verstöße gegen gesetzte Parameter reagieren und damit das Risiko für den Versicherer erheblich verringern, wenn nicht gar ausschließen.42 Nun ist der Gedanke hinter der Telematik jedoch, dass sie nicht nur weiß, sondern auch handelt (Aktionsvorteile). Sie ist ein ausgesprochen wirkungsvolles Durchsetzungsinstrument. Behavioral underwriting, das Versichern auf der Basis verhaltensorientierter Tarife, verspricht damit, das Risiko für den Versicherer zu reduzieren, indem das Verhalten des Versicherungsnehmers mittels Maschinenprozessen in Richtung maximaler Profitabilität gelenkt wird. Verhaltensüberschuss wird hier eingesetzt, um zu strafen, etwa in Form einer Echtzeiterhöhung der Versicherungsprämie, eines Bußgelds oder eines Fahrverbots; auf der anderen Seite kann es aber auch belohnen, etwa durch Rabatte, Coupons oder Sternchen, die sich irgendwann einlösen lassen. Die Consultingfirma AT Kearney ahnt bereits »um das Internet der Dinge bereicherte Beziehungen«, die es gestatten, das Verhalten des Kunden durch ein »ganzheitlicheres« Verhältnis zwischen Versicherer und Kundschaft zu beeinflussen«.43 Varians unbekümmerter Vorschlag, den Leuten einfach den Motor abzustellen, die mit den Raten in Verzug kommen, ist mitnichten als Übertreibung zu verstehen. Spireon zum Beispiel, das eigener Darstellung zufolge »größte Unternehmen für After-Market-Telematik«, ist auf Tracking und Monitoring von Fahrzeugen und deren Fahrern für Autoverleiher, Versicherungen und Fuhrparkbetreiber spezialisiert. Die Firma bietet ein System, das Varians Ideal sehr nahekommt.44 Sein »LoanPlus Collateral Management System« mahnt Fahrzeughalter an, die mit ihren Raten im Verzug sind, schaltet Fahrzeuge aus der Ferne ab, wenn ein Verstoß über einen gewissen Zeitraum hinausgeht, und ortet Fahrzeuge, damit der »Sachpfänder« sie abholen kann. Telematik läutet eine neue Ära der Verhaltenssteuerung ein. Darunter kann alles Mögliche fallen, vom Anlegen des Gurts über Tempo,

Leerlaufzeiten, Brems-, Kurven- und Beschleunigungstechnik, Fahrzeiten, Auslandsfahrten oder solche in Sperrgebiete.45 Alle diese Parameter werden in Algorithmen übersetzt, die den Fahrer unablässig überwachen, bewerten und einem Ranking unterziehen; und alle diese Berechnungen führen in Echtzeit zu entsprechenden Anpassungen. Einem Patent von Spireons Topstrategen zufolge können Versicherer Ungewissheit durch Einflussnahme auf das Verhalten des Versicherungsnehmers praktisch ausschließen.46 Der Gedanke dahinter ist, die Prämie auf der Basis ständigen Monitorings fortwährend zu optimieren; die Parameter, an denen man sich dabei orientiert, sind vom Versicherer vorgegeben. Das System setzt also sein Wissen über unser Verhalten um in Macht und verteilt Pluspunkte oder verhängt Bußen. Darüber hinaus wandelt man Verhaltensüberschuss um in Vorhersageprodukte, die man an Werbetreibende verkaufen kann. Das System errechnet Verhaltensmuster, die es Werbenden erlauben, dem Fahrer zielgerichtete Anzeigen auf das Smartphone zu schicken. Ein zweites Patent drückt die Auslösung von Strafmaßnahmen gar noch expliziter aus.47 Es führt eine Reihe von Algorithmen auf, die bei Verstoß gegen die Parameter des Systems zu Konsequenzen führen, so einen »Verstoßalgorithmus«, einen »Fahrverbotsalgorithmus«, einen »Monitoringalgorithmus«, einen »Befolgungsalgorithmus«, einen »Kreditalgorithmus«. Die Unternehmensberatungen stimmen darin überein, den Versicherern zum Einstieg in die Überwachung zu raten. AT Kearney räumt ein, dass das »vernetzte Auto« ein Versuchsgelände für die kommende Entwicklung sei: »Schlussendlich hängt der wahre Wert des Internets der Dinge davon ab, dass die Kunden Verhalten und Risikoprofile auf der Basis des Feedbacks von ihren ›Dingen‹ anpassen.«48 Gesundheitsversicherer sind ein weiteres Ziel: »Anziehbare Beschleunigungsmesser« könnten die Einhaltung eines vorgeschriebenen Fitnessprogramms messen, und »verdauliche Sensoren« könnten das Befolgen von diätetischen und Medikationszeitplänen überprüfen – »was zu einem höheren Wahrheitsgehalt und größerer Detailgenauigkeit führt als ein monatlich eingelöstes Rezept«.49 Deloitte räumt ein, dass die Kunden eigenen Erhebungen zufolge die Telematik aus Sorge um ihre Privatsphäre ablehnten – sie misstrauten dem Monitoring ihres Verhaltens durch Firmen grundsätzlich. Diesem

Widerwillen, so das Unternehmen, sei jedoch beizukommen, indem man Kosteneinsparungen anbiete, die »signifikant genug« sein sollten, um die Leute dazu zu bewegen, hinsichtlich ihrer Sorge um die Privatsphäre »einen Kompromiss einzugehen« – »trotz anhaltender Bedenken«.50 Sollten derlei finanzielle Anreize nicht ziehen, so rät man den Versicherern, ihrer Klientel das Verhaltensmonitoring als »interaktiven Spaß«, »Wettbewerb« und als »erfüllend« zu präsentieren; man sollte Autofahrer für die Besserung ihres Verhaltens oder für ihre »Annäherung an den breiteren Pool der Versicherungsnehmer« belohnen.51 Bei diesem als »Gamifizierung« bezeichneten Ansatz könnten Fahrer dazu ermuntert werden, sich an einem »leistungsbasierten Wettbewerb« und »anreizbasierten Herausforderungen« zu beteiligen.52 (In Spireons Patent figuriert auch ein »Wettbewerbsalgorithmus«.) Ein britischer Versicherer installiert eine Blackbox auf dem Armaturenbrett und bietet Bares zur Belohnung, wenn man deren Herausforderung, »wie ein Mädchen zu fahren«, erfüllt.53 Sollte auch das nicht helfen, so rät man den Versicherern, bei ihrer Kundschaft für ein Gefühl der Unvermeidlichkeit und Hilflosigkeit zu sorgen. Deloitte rät einschlägigen Unternehmen, auf die »Vielzahl anderer Technologien« zu verweisen, »die beim Monitoring ihres Fahrverhaltens bereits im Spiel« seien. Vor allem sollten sie herausstellen, dass »verbesserte Überwachungs- und Lokalisierungsfähigkeiten nun einmal zu unserer heutigen Welt gehören, was immer man davon halten mag«.54 Trotz Kostenersparnissen und größerer Effizienz, die das behavioral underwriting den Autoversicherern bietet, ist es nicht das Endziel für eine Versicherungsbranche, die plötzlich Rückenwind verspürt. Man ist dabei, die Analytik, die die zielgerichtete Werbung in der Online-Welt hervorgebracht hat, für die reale Welt umzufunktionieren, was den Grundstein für die neuen Verhaltensterminkontraktmärkte legt, an denen mit Vorhersagen über das Kundenverhalten gehandelt wird. Und genau auf diesen Markt zielt der Run auf Überwachungserträge letztlich ab. So rät zum Beispiel ein Executive des Cloudanbieters Covisint seiner Kundschaft, aus der Kraftfahrzeugtelematik »Kapital zu schlagen«, um über die zielgerichtete Werbung hinaus in Richtung »zielgerichteter Applikationen« zu gehen. Dabei handelt es sich nicht mehr um Werbeanzeigen auf dem

Bildschirm, sondern um Erlebnisse im realen Leben, die von denselben Fähigkeiten gestaltet werden, die für die zielgerichtete Werbung verantwortlich zeichnen; sie zielen darauf ab, Sie um anderer Leute Profit willen an real existierende Orte zu locken. Das impliziert, dass man Fahrerdaten an Dritte verkauft, die dann herausfinden, wohin Sie gerade unterwegs sind und was Sie wollen. »Sie wissen, welche Restaurants Ihnen zusagen, weil Sie dort mit dem Auto hinfahren, also können sie Ihnen unterwegs Restaurants empfehlen, die wiederum dafür bezahlen.«55 Verhaltensüberschuss versteht sich als Rohstoff für Produkte, die als Basis für das »Co-Marketing« mit anderen Dienstleistern dienen, wie etwa »Abschleppdienste, Reparaturwerkstätten, Waschanlagen, Restaurants und der Einzelhandel«.56 Die Berater bei McKinsey sprechen eine ähnliche Empfehlung aus, indem sie Versicherer darauf hinweisen, dass das »Internet der Dinge« ihnen die Expansion in »völlig neue Geschäftsbereiche« wie zum Beispiel »Datenmärkte« ermögliche. So lasse sich etwa Gesundheitsüberschuss, heißt es bei Deloitte, durch »relevante Empfehlungen monetarisieren«.57 Die großen Consulting-Unternehmen raten ihrer Klientel – vor allem den Unternehmen, die im Bereich der Telematik kaum je die kritische Masse erreichen werden – sich mit anderen »digitalen Playern« zusammenzutun.58 Das Modell dafür ist ein Deal zwischen IBM und General Motors, die 2016 die Gründung von »OnStar Go« bekanntgaben, der »ersten kognitiven Mobilitätsplattform« der Kraftfahrzeugindustrie. Dell und Microsoft haben Versicherungs-»Beschleuniger« für das »Internet der Dinge« lanciert. Dell beliefert Versicherungen mit Hardware, Software, Analytik und Diensten zur »präziseren Vorhersage von Risiken und der Einleitung entsprechender Präventivmaßnahmen«;59 Microsoft hat sich mit dem Versicherer American Family Insurance zur Entwicklung von auf Heimautomatisierung spezialisierten Start-ups zusammengetan.60 Datenunternehmen galten früher lediglich als »Zulieferer«, aber mittlerweile ist es weit wahrscheinlicher, dass die Autohersteller Zulieferer für die Datengiganten werden. »Google möchte die Menschen den ganzen Tag über begleiten, um Daten zu generieren, die sich zum wirtschaftlichen Profit einsetzen lassen«, räumte Dieter Zetsche, CEO der Daimler AG, ein. »An diesem Punkt scheint mir ein Konflikt mit Google

vorprogrammiert.«61 Google und Amazon liefern sich bereits jetzt einen Wettbewerb um das Armaturenbrett Ihres Wagens, wo ihre Systeme sowohl die Kommunikation als auch alle Applikationen steuern sollen. Von dort ist es nur ein kleiner Schritt zu Telemetrie und verwandten Daten. Google bietet App-Entwicklern bereits jetzt ein cloudbasiertes »skalierbares telemetrisches Ortungssystem« auf der Basis von Google Maps. 2016 signalisierte Google Frankreich sein Interesse an Partnerschaften mit Versicherungsunternehmen »zur Entwicklung von Produktbündeln, die Technologie und Hardware mit Versicherungen verbinden sollen«. Im selben Jahr hieß es in einer Studie der Unternehmensberatung Cap Gemini, dass 40 % aller Versicherer in Google seines starken Markennamens und seiner Fähigkeiten im Management von Kundendaten wegen einen potenziellen Rivalen und damit eine Bedrohung sähen.62

Erfüllung des Unvertrags Aus diesen Beispielen aus dem Alltag der Autoversicherer lassen sich einige alles andere als alltägliche Lektionen ziehen. Autofahrer sehen sich zu einem Quidproquo überredet, bewegt, durch Anreize dazu motiviert oder einfach gezwungen, ein Quidproquo, das die Preisgestaltung mit der Expansion einer Extraktions- und Exekutionsarchitektur koppelt, die auf Diversifikationsvorteile, will sagen, neue Ströme von Verhaltensüberschuss abzielt. Aus der Erfahrung der Autofahrer gewonnene Verhaltensdaten werden verarbeitet und die Ergebnisse fließen in zwei Richtungen: Zum einen gehen sie zurück an die Autofahrer, bei denen sie, um eines höheren Grads an Gewissheit von Vorhersagen und damit an Profitabilität willen, eine Unterbrechung bzw. Korrektur von Verhalten veranlassen, was ich als Aktionsvorteile bezeichne. Zum anderen fließen Vorhersageprodukte nach Sortierung und Ranking des Fahrerverhaltens in die neu geschaffenen Verhaltensterminkontraktmärkte, in denen Dritte Wetten darauf abschließen, was die Autofahrer jetzt, bald oder später tun werden: Wird er sein hohes Sicherheitsranking behalten? Wird sie sich an unsere Regeln halten? Wird er »fahren wie ein Mädchen«? Diese Wetten schlagen sich in der Preisgestaltung nieder, in Anreizstrukturen, in Monitoring- und

Compliance-Regimes. In beiden Operationen wird aus der Erfahrung der Fahrer gewonnener Verhaltensüberschuss umfunktioniert; er wird zum Mittel, die Erfahrung der Fahrer um garantierter Ergebnisse willen zu formen und zu gängeln. Und größtenteils passiert das, wie von Mackay propagiert, ohne dass die Fahrer es merken – sie wähnen sich frei. Garantiert wird all das durch die Google-Deklarationen. Um noch einmal Hal Varian zu bemühen: »Da Transaktionen jetzt rechnergestützt ablaufen, lässt sich heute Verhalten beobachten, das zuvor nicht zu beobachten war, und wir können darauf Verträge abschließen. Das ermöglicht Transaktionen, die früher schlicht nicht machbar waren.«63 Varians »wir« bezieht sich selbstverständlich auf die Leute mit privilegiertem Zugang zum Schattentext, in den die Verhaltensdaten einfließen. Unser einst nicht zu beobachtendes Verhalten kann man sich nehmen, zum Eigentum erklären und somit entscheiden, was man damit macht und wie man davon profitiert. Dazu gehört auch die Schaffung neuer »Vertragsformen«, die uns auf eine Art und Weise nötigen, die ohne die überwachungskapitalistischen Deklarationen zur Enteignung nicht möglich gewesen wäre. Varians Lobeshymne auf den Segen der Kraftfahrzeugtelematik steht beispielhaft für diesen neuen ökonomischen Grenzbereich.64 Aber wir sollten hier innehalten und uns fragen, für wen sich damit das Verfahren vereinfacht, wem all dieser ferngesteuerte neue Segen nützt. Uns ganz sicher nicht. Er denkt dabei vielmehr an die, die heute beobachten, was bis zum Auftauchen des Überwachungskapitalismus nicht zu beobachten war, und damit Aktionen ausführen, die vor dem Überwachungskapitalismus nicht machbar gewesen wären. Varians lockere Prosa wirkt wie ein Schlaflied, das uns seine Beobachtungen als banal, als so gewöhnlich erscheinen lässt, dass sie keines Kommentars wert sind. Aber was passiert in Varians Szenario mit dem Fahrer? Was, wenn ein Kind mit im Auto ist? Was, wenn es in einem Schneesturm unterwegs ist? Was, wenn es einen Zug zu erwischen gilt? Oder Sie Ihr Kind auf dem Weg zur Arbeit zur Kita bringen wollen? Was, wenn Ihr Sohn vergeblich vor der Schule darauf wartet, abgeholt zu werden? Was, wenn Ihre Mutter in einem noch meilenweit entfernten Krankenhaus an der Herz-Lungen-Maschine hängt? Es ist noch gar nicht so lange her, da waren Varians Ideen noch der Stoff für Alpträume. In seinem Buch Ihr werdet es erleben: Voraussagen der

Wissenschaft bis zum Jahre 2000 nahm Herman Kahn, das Wunderkind der Futurologie, bereits 1967 viele der Fähigkeiten vorweg, die Varian heute in der neuen Extraktions- und Exekutionsarchitektur sieht.65 Kahn war alles andere als ein schüchternes Mauerblümchen. Er war bekannt dafür, dass er einen Atomkrieg sowohl für »gewinnbar« als auch für »überlebbar« hielt, und angeblich war er auch das Vorbild für Dr. Strangelove in Stanley Kubricks gleichnamigem Film. Wie auch immer, es war Kahn, der Innovationen wie Varians Fahrzeugmonitoringsystem voraussah, die er in seinem Buch unter dem Kapitel »Weitere Alpträume des 21. Jahrhunderts« behandelte.66 Zu seinen zahlreichen technologischen Einsichten gehören auch automatisierte Computersysteme, die die Bewegungen sämtlicher Fahrzeuge verfolgen und Unterhaltungen abhören und mitschneiden, um sie dann durchsuchbar zu machen. Er stellte sich Computersysteme vor, die individuelles Verhalten – eine gehobene Stimme, einen drohenden Ton – nicht nur erkennen, sondern auch darauf reagieren. »Ein solcher Computer könnte auch selbst logische Schlußfolgerungen ziehen – man kann ihn sich als eine Art ›transistorisierten‹ Sherlock Holmes vorstellen, der Überlegungen anstellt und mehr oder weniger selbständig Spuren verfolgt.«67 Jeder, der über ein solches Wissen verfügt, so seine Schlussfolgerung, sei – wie Faust – »weniger unmoralisch als amoralisch. Er verhält sich gegenüber dem Schicksal derer, die ihm im Wege stehen, eher indifferent als brutal.«68 Zeitgenössische Kritiker Kahns schossen sich einer wie der andere vom Fleck weg auf seine finsteren »Alptraumszenarien« einer computerisierten Überwachung ein. Die nach Science-Fiction klingenden Formen von Kontrolle, ahnten sie, »werden bei vielen für eine ausgesprochene Angst und Zorn sorgen«, schreibt einer.69 Trotz des Spektrums von Szenarien, die Kahn für das ferne Jahr 2000 voraussah, sah die Öffentlichkeit Kahns Reise ins »Undenkbare« vor allem als Möglichkeit, sich auf die »denkbar schlimmsten Entwicklungen« in einem erschreckenden »Alptraum gesellschaftlicher Kontrolle« vorzubereiten.70 Heute präsentiert man eben diesen Alptraum als enthusiastischen Fortschrittsbericht über die neuesten Triumphe des Überwachungskapitalismus. Varians Aktualisierung des Themas lässt auch nicht den Anflug von Befangenheit oder gar Kritik erkennen; es findet sich keine Spur von dem Staunen, zu schweigen von

dem Abscheu, den man wenige Jahrzehnte zuvor prophezeit hatte. Wie konnte der Alptraum so banal werden? Was ist aus unserem Staunen, geworden? Wo bleibt unsere Entrüstung? Mit eben diesen Fragen rang der Politologe Langdon Winner in seinem bahnbrechenden Buch Autonomous Technology von 1977. Seine Antwort? »Wir haben die Orientierung verloren«, schrieb er.71 Akribisch beschreibt Winner, wie unsere Art, »Technisches« zu erfahren, unsere »Sicht, unsere Erwartungen und unsere Fähigkeit zu intelligenten Urteilen« trübe. »Kategorien, Argumente, Schlussfolgerungen und Entscheidungen, die eben noch völlig selbstverständlich gewesen wären, sind es plötzlich nicht mehr.«72 Also, dann versuchen wir uns doch zu orientieren. Varians Loblied gilt nicht einer neuen Vertragsform, sondern eher einer endgültigen Antwort auf die anhaltende Ungewissheit, die den »Vertrag« als Mittel zur Schaffung einer »privaten Ordnung« ins Leben rief. Genau genommen sollte das Wort »Vertrag« im Kontext von Varians Erfindung noch nicht einmal fallen; es steht hier analog zum »pferdelosen Wagen« für etwas, was sich unserem Verständnis entzieht. Varians Erfindung ist in ihrer Beispiellosigkeit eben nicht einfach als neuer Vertrag zu verstehen; sie ist vielmehr die Annullierung eines Vertrags – Unvertrag träfe den Sachverhalt weit besser. Der Unvertrag ist Bestandteil eines weit größeren Komplexes – der Verhaltensmodifikationsmittel, um genau zu sein – und damit eine wesentliche Bedingung des Überwachungskapitalismus. Er trägt zu den Aktionsvorteilen bei, indem er proprietären Verhaltensüberschuss zur Vorwegnahme und Verhinderung alternativer Handlungsweisen nutzt und damit die Unbestimmtheit sozialer Prozesse durch den Determinismus programmierter Maschinenprozesse ersetzt. Und es handelt sich dabei nicht etwa um eine Automatisierung der Gesellschaft, wie jetzt der eine oder andere denken mag, sondern um die Ersetzung der Gesellschaft an sich durch Maschinenprozesse, hinter denen ökonomische Imperative stehen. Der Unvertrag ist kein Raum vertraglich geregelter Beziehungen, sondern eine einseitige Vollstreckung, die solche Beziehungen unnötig macht. Der Unvertrag entgesellschaftet den Gesellschaftsvertrag. Er fabriziert Gewissheit, indem er Versprechen, Dialog, gemeinsame Bedeutung, Problemlösung, Streitschlichtung und Vertrauen durch

automatisierte Prozeduren ersetzt. Sie treten an die Stelle der Ausdrucksformen von Solidarität und menschlichem Handeln, die sich im Lauf der Jahrtausende in der Vorstellung vom »Vertrag« institutionalisiert haben. Der Unvertrag umgeht diese gesellschaftliche Arbeit zugunsten des Zwangs, und er tut dies um immer lukrativerer Vorhersageprodukte willen, die sich einer Gewissheit nähern, die Ergebnisse garantiert. Die Möglichkeit, gesellschaftliche Arbeit durch Maschinenarbeit zu ersetzen, gründet sich auf Googles Deklarationen und die Macht über die Wissensteilung, die sie den Überwachungskapitalisten gegeben haben. Von ihrer privilegierten Position aus können sie beobachten, was zuvor unbeobachtbar, und wissen, was zuvor nicht zu wissen war. Infolgedessen ist ihnen möglich, was zuvor nicht möglich war, nämlich die gesellschaftlichen Beziehungen zugunsten automatisierter Prozesse zu umgehen, die exakt das Verhalten erzwingen, das ihren kommerziellen Zielsetzungen entspricht. Wenn wir, wie Varian und andere, den Unvertrag feiern, feiern wir die Asymmetrien von Wissen und Macht, die diese neuen Möglichkeiten gebären. Nehmen wir den Unvertrag als Wegweiser, der uns dabei hilft, die Orientierung nicht zu verlieren, wenn wir versuchen, uns in den kommenden Abschnitten ein klareres Bild vom wachsenden Ehrgeiz des Überwachungskapitalismus zu machen, die »Realität« in ihrer Gesamtheit für sein Königreich eroberter menschlicher Erfahrung zu annektieren.

Die Unvermeidlichkeitsdoktrin Die Orientierung zu bewahren, wenn rings um uns herum alle sie verlieren, ist gar nicht so leicht. Der Übergang zum »ubiquitären Computing«, bei dem wir uns in einer Welt von Sensoren bewegen, schreibt Paradiso, werde nicht »inkrementell« vonstattengehen, sondern in einem »revolutionären Phasensprung, der durchaus mit der Ankunft des World Wide Web zu vergleichen« sei.73 Diesen »Phasensprung«, den seine Architekten als Allheilmittel gegen die Ungewissheit sehen, sagt er mit absoluter Gewissheit voraus. Paradiso steht hier nicht allein. Ganz im Gegenteil: Die

Rhetorik der Unvermeidlichkeit ist in der Tech-Community so »ubiquitär«, dass man sie als ausgewachsene Unvermeidlichkeitsdoktrin sehen kann. Die unerschütterliche Gewissheit, die Paradisos Vision durchdringt, ist seit jeher ein Hauptmerkmal des Utopismus. In ihrer maßgeblichen Geschichte utopischen Denkens schreiben Frank und Fritzie Manuel: »Seit dem Ende des 18. Jahrhunderts ist die prädiktive Utopie zu einer wesentlichen Form phantasievollen Denkens geworden, die gewisse wissenschaftliche Techniken der Vorhersage vorweggenommen hat … die zeitgenössische Utopie … fügt Vergangenheit, Gegenwart und Zukunft auf eine Art zusammen, als wäre diese vorherbestimmt. Der Zustand, den sie beschreibt, erscheint gleichsam als – sei es durch Gott, sei es durch die Geschichte – verfügt; es kommt zu einem Übertrag millenaristischer Gewissheit«.74 Für die Manuels und viele andere Historiker ist der Marxismus die letzte große moderne Utopie.75 Es gibt bei Marx Hunderte von Passagen, aus denen sein Inevitabilismus spricht.76 Gleich im ersten Abschnitt des Manifests der Kommunistischen Partei von 1848 schrieb Marx, die Bourgeoisie »produziert vor allem ihren eigenen Totengräber. Ihr Untergang und der Sieg des Proletariats sind gleich unvermeidlich«.77 Vor dem Siegeszug der modernen Utopie bestand das Genre größtenteils aus phantastischen Erzählungen, in denen man in entlegenen Bergdörfern, versteckten Tälern oder fernen Inseln isolierte Nester menschlicher Perfektion entdeckte. Moderne Utopien wie etwa der Marxismus lassen solche Märchen hinter sich und verschreiben sich »der Reformierung der ganzen Spezies« mit einer rationalen systemischen Vision, »deren Wirkungsgebiet die ganze Welt« zu sein habe. Nicht länger zufrieden damit, Träume zu spinnen, verlegten moderne Utopisten sich auf totalistische und universelle Visionen, Prophezeiungen »des unabwendbaren Endes, auf das die Menschheit sich zubewegte«.78 Heute stellen sich die Missionare des ubiquitären Computing in die Nachfolge von Marx und anderen modernen Utopisten, insofern auch sie eine neue Phase der Geschichte – nach Art von Paradisos »revolutionärem Phasensprung« – postulieren, in der sich die gesamte Gesellschaft zu einem ebenso neuartigen wie überlegenen Muster zusammenfügt. Trotz des Umstands, dass Unvermeidlichkeit das Gegenteil von Politik und

Geschichte ist, bedienen sich die Apostel des Apparats gern historischer Metaphern, um ihren Behauptungen ein gewisses Gewicht zu verleihen. Man sieht den Aufstieg des Apparats dabei wahlweise als Anbruch eines neuen »Zeitalters« oder »Stadiums«, einer neuen »Ära« oder einer neuen »Phase«. Diese Art von historischer Einbettung vermittelt die Vergeblichkeit der Opposition gegenüber der kategorischen Unvermeidlichkeit des Marsches in Richtung Ubiquität. Axis mundi der Unvermeidlichkeitsdoktrin ist das Silicon Valley. Die führenden Köpfe der Hightech-Branche, die Fachliteratur und die Praktiker scheinen sich einig, dass bereits in naher Zukunft alles vernetzt, wissbar und praktisch verwertbar sein wird: Ubiquität und in ihrer Folge die totale Information sind für sie ein Credo. Es überrascht denn auch nicht weiter, dass Googles Führungspersonal leidenschaftliche Anhänger der Unvermeidlichkeitsdoktrin sind. Gleich die ersten Sätze von Schmidt und Cohens Buch von 2013 Die Vernetzung der Welt geben die Marschrichtung vor: »Bald werden alle Menschen auf unserem Planeten vernetzt sein«, schreiben sie. Man bemühte sogenannte prädiktive »Gesetze« wie etwa das »Moore’sche Gesetz« und die »Photonik«, um dieses neue eherne Gesetz der Notwendigkeit zu verkünden, das für exponentielles Wachstum sowohl im Bereich der Konnektivität und als auch bei der Rechenleistung sorgen wird.79 Weiter heißt es: »Der kollektive Ertrag des gemeinsamen Wissens und der vernetzten Kreativität wächst exponentiell. In Zukunft wird die Informationstechnologie so allgegenwärtig sein wie heute die Elektrizität. Sie wird für uns … selbstverständlich und alltäglich sein …«80 Als die Thesen des Buches für Kritik sorgten, stellten sich die Autoren im Nachwort zur Taschenbuchausgabe ihren Kritikern: »Aber das Gejammer über die unvermeidliche Zunahme von Umfang und Reichweite des Technologiesektors lenkt uns von der eigentlichen Frage ab … Viele der Veränderungen, die wir diskutieren, sind unvermeidlich. Sie kommen.«81 So verbreitet er sowohl im Silicon Valley als auch in der breiteren Kultur der Datenwissenschaftler und Hightech-Entwickler ist, wirklich diskutiert oder kritisch hinterfragt wird dieser Inevitabilismus nicht. Paradisos Konzept von der »digitalen Allwissenheit« gilt als evident; Politik und Macht, Märkte oder Staat sind dabei kaum eines Gedankens wert. Wie in

den meisten Darstellungen des Apparats nehmen Fragen individueller Autonomie, moralische Überlegungen, gesellschaftliche Normen und Werte, Datenschutz, Selbstbestimmungsrechte, Politik und Recht die Form von nachträglichen Überlegungen oder pflichtschuldigen Beteuerungen an, dass diese Fragen mit den richtigen Protokollen oder mit weiteren technologischen Lösungen auszuräumen seien. Wenn Informationen »direkt in unsere Augen und Ohren strömen« und »die Grenzen des Individuums ausgesprochen unscharf werden«, wer hat dann Zugang zu diesen Informationen? Was, wenn ich nicht will, dass mein Leben durch Ihre Sinne strömt? Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet? Die Antworten auf solche Fragen gehen unter in der Geräuschkulisse all der Dinge, die ständig ausgeleuchtet, registriert, gezählt, kontrolliert und beurteilt werden. Das Beste, was Paradiso zum Thema zu bieten hat, ist Folgendes: »Das Gesetz könnte einer Person die Eigentümerschaft oder Kontrolle von Daten übertragen, die in seiner bzw. ihrer Umgebung generiert werden; eine Person könnte sich dann dafür entscheiden, diese Daten zu verschlüsseln oder zu verhindern, dass sie ins Netzwerk gehen.«82 Paradiso stellt sich damit eine Gesellschaft vor, in der es dem Einzelnen zufällt, sich selbst vor den allwissenden allgegenwärtigen wahrnehmungsfähigen Rechensystemen des neuen Apparats zu schützen – was sich weniger nach einem Paradies anhört als nach einem sicheren Rezept für eine ganz neue Art von Wahnsinn. Aber es ist genau die Welt, die augenblicklich rund um uns im Entstehen begriffen ist; und dieser Wahnsinn scheint ein flottes Feature davon zu sein. Zwischen 2012 und 2015 interviewte ich 52 Datenwissenschaftler und Spezialisten für das »Internet der Dinge«. Sie kamen aus insgesamt 19 verschiedenen Firmen und brachten es zusammen auf 586 Jahre Erfahrung in Hightech-Unternehmen und Start-ups, vor allem im Silicon Valley. Ich sprach mit ihnen über die herausragende Bedeutung der Unvermeidlichkeitsrhetorik unter den Verkündern des neuen Apparats und stellte allen dieselbe Frage: Warum eigentlich beharren so viele Leute auf der Unvermeidlichkeit ubiquitären Computings? Die Übereinstimmung ihrer Antworten war frappierend. Obwohl sie nicht über den Wortschatz des Überwachungskapitalismus verfügten, betrachtete fast jeder der Befragten

die Unvermeidlichkeitsrhetorik als trojanisches Pferd für massive ökonomische Imperative; außerdem bedauerten sie ausnahmslos das Fehlen einer kritischen Diskussion dieser Annahmen. Der Marketingchef eines Silicon-Valley-Unternehmens, das Software für die Vernetzung intelligenter Geräte verkauft, sagte mir: »Ungenutzter dummer Raum, wo Sie hinschauen, und den müssen wir in Erträge umwandeln. Das ›Internet der Dinge‹ wird gepusht, von selber tut sich da nichts. Die meisten Kunden sehen keinen Bedarf für solche Geräte. Denen können Sie von ›exponentiell‹ und ›unvermeidlich‹ erzählen, so viel Sie wollen. Im Endeffekt hat man im Valley beschlossen, dass das das nächste große Ding wird, damit die Firmen hier wachsen können.« Ich sprach mit dem Chef der Ingenieursabteilung eines großen HightechUnternehmens, das massiv ins Internet der Dinge investiert. Seine Antwort: »Stellen Sie sich vor, sie haben einen Hammer. Das ist das Maschinenlernen. Er hat Ihnen geholfen, auf einen mörderischen Berg zu steigen. Das ist die Dominanz des Maschinenlernens über die Online-Daten. Auf dem Gipfel finden Sie dann einen Riesenhaufen Nägel, die billiger sind, als Sie sich das je hätten vorstellen können. Das ist die neue Sensortechnologie. Vor Ihnen erstrecken sich endlose Weiten, so weit das Auge reicht. Das ist die große weite dumme Welt. Dann merken Sie, dass Sie jedes Mal, wenn Sie mit Ihrem Maschinenlernhammer einen Nagel in ein Brett schlagen, Wert aus dieser ehedem dummen Planke extrahieren. Das ist die Monetisierung von Daten. Was machen Sie? Sie hämmern wie irre drauflos und hören nicht mehr auf, bis Ihnen jemand sagt, dass Sie aufhören sollen. Genau deshalb ist das ›Internet der Dinge‹ unvermeidlich.« Ein leitender Systemarchitekt erklärt den Imperativ am deutlichsten: »Das IdD ist so unvermeidlich wie seinerzeit der Drang nach Westen auf dem amerikanischen Kontinent. Alles Bestimmung. Achtundneunzig Prozent der Dinge da draußen sind nicht vernetzt. Also werden wir sie vernetzen. Das kann irgendwo die Erdfeuchtigkeit sein. Das kann Ihre Leber sein. Das ist Ihr Internet der Dinge. Der nächste Schritt ist, was wir mit den Daten tun. Wir visualisieren die, wir bringen da Sinn hinein. Das ist unser Internet der Dinge.«

Von Menschen gemacht Der unerbittliche Trommelschlag inevitabilistischer Botschaften präsentiert den neuen Allgegenwärtigkeitsapparat als Produkt technologischer Kräfte, die jenseits menschlicher Einflussnahme und gemeinschaftlicher Selbstbestimmung operieren – als außerhalb der Geschichte geborene Bewegung, deren Stoßkraft sich unaufhaltsam in Richtung einer Vervollkommnung der Spezies und des Planeten bewegt. Das Bild von Technologie als autonomer Kraft, deren Handlungen und Folgen unvermeidlich seien, wird seit Jahrhunderten dazu eingesetzt, die Fingerabdrücke der Macht zu verwischen und sie von jeder Verantwortung zu befreien. Das Monster war’s, nicht Victor Frankenstein. Aber es ist nicht die elektronische Fußfessel, die den unter Hausarrest stehenden Straftäter überwacht, es ist der Strafvollzug, das System. Jede Unvermeidlichkeitsdoktrin birgt einen Virus mit dem Zeug zur Waffe: einen moralischen Nihilismus, der darauf programmiert ist, selbstverantwortliches menschliches Handeln aufs Korn zu nehmen und jeglichen Widerstand ebenso aus dem Text menschlicher Möglichkeiten zu löschen wie jegliche Kreativität. Die Rhetorik der Inevitabilisten ist nichts weiter als raffinierte Augenwischerei, die uns zu Hilflosigkeit und Passivität verurteilen soll angesichts unerbittlicher Kräfte, die dem bloß Menschlichen gegenüber gleichgültig sind, ja gleichgültig sein müssen. Das ist die Welt robotisierter Schnittstellen, die der Technologie zur Durchsetzung ihres Willens verhelfen und sie resolut gegen jegliche Anfeindung wappnen. Niemand hat das einsichtiger und prägnanter ausgedrückt als John Steinbeck in seinem Meisterwerk Früchte des Zorns. Man vertreibt darin die Familien von dem Land, das sie seit Generationen bestellen, verzweifelt versuchen sie sich gegenüber den Vertretern der Banken zu verteidigen, die man geschickt hat, um ihnen die Aussichtslosigkeit ihrer Situation vor Augen zu führen. Die Bank, so erklären Letztere, sei ein Ungeheuer, das unablässig gefüttert werden wolle, damit es nicht stirbt. »Es kann nicht immer gleich groß bleiben«, insistieren die Handlanger der Ungeheuer. »Wir sind’s ja auch nicht, es ist die Bank. Eine Bank ist nicht wie ein Mensch …   Menschen haben sie gemacht, aber sie können sie nicht kontrollieren.«83

Das Thema einer angeblich autonomen Technologie hat unter TechWissenschaftlern durchaus Tradition. Einmal mehr erweist sich hier Langdon Winner als probater Führer, der uns daran erinnert, dass die blinde Akzeptanz von Technologie zu einem Charakteristikum modernen Lebens geworden ist: »Die Veränderungen und Verwerfungen, zu denen eine sich entwickelnde Technik im modernen Leben immer wieder führte, wurden ein ums andere Mal als gegeben oder unvermeidlich akzeptiert, und zwar aus dem einfachen Grund, dass niemand sich die Mühe gemacht hat, sich nach anderen Möglichkeiten umzusehen.«84 Winner schreibt, wir hätten uns einem Muster technologischer »Abtrift verschrieben«, das er als »Akkumulation unvermuteter Konsequenzen« definiert: »Wir akzeptieren die Idee, dass die Technik auf keinen Fall behindert werden darf, wenn die Gesellschaft wachsen soll, womit wir vor dem technischen Determinismus kapitulieren. Die vernünftige Betrachtung gesellschaftlicher Werte gilt als ›rückschrittlich‹, entspricht sie doch nicht dem Freibrief, den eine wissenschaftliche Technologie der Gesellschaft ausstellt … Bis auf den heutigen Tag verstößt jeder Vorschlag, den Vormarsch technischer Innovation einzuschränken, gegen ein fundamentales Tabu … Stattdessen akzeptieren wir die Veränderung, um dann später aus reiner Neugier nachzuschauen, was wir da getan haben.«85 Ich kann Winners »Neugier« noch ein Thema hinzufügen: das der Reue. Die Köpfe des Überwachungskapitalismus erwarten, dass wir demselben deterministischen Trugschluss auf den Leim gehen wie Steinbecks Bauern. Wenn Google erfolgreich ist – wenn also der Überwachungskapitalismus erfolgreich ist –, dann müssen die Regeln des Unternehmens ja wohl auch gut sein. Wie Steinbecks Bauern den Banken gegenüber sollen wir akzeptieren, dass Googles Regeln schlicht die Erfordernisse autonomer Prozesse reflektieren, auf die der Mensch keinen Einfluss hat. Unser Verständnis von der inneren Logik des Überwachungskapitalismus legt freilich etwas anderes nahe: Männer und Frauen haben ihn geschaffen und können ihn sehr wohl kontrollieren. Sie wollen nur nicht. Der Inevitabilismus verankert den Ubiquitätsapparat als Geschehen hinter den Kulissen. Wir wissen jedoch, dass es sehr wohl Alternativen zu einem robusten Überwachungskapitalismus mit vernünftigen Lösungen für die Probleme der Dritten Moderne gibt. Wie wir gesehen haben, wurde der

Überwachungskapitalismus in einem spezifischen historischen Kontext entwickelt und perfektioniert, von Männern und Frauen im Dienste eines ungeduldigen Kapitals. Dieselbe Logik verlangt jetzt Ubiquität. Technische Entwicklungen werden in den Dienst seiner Imperative und seines Wachstums gestellt – sie werden geradezu kolonisiert. Die Unvermeidlichkeitsdoktrin trägt dazu bei, indem sie ablenkt von den Ambitionen einer kommenden ökonomischen Ordnung und den Wettbewerbsängsten, die das Überwachungsprojekt in Richtung Gewissheit ins Unermessliche treiben – und damit seine Gier nach unserem Verhalten. Die Unvermeidlichkeitsdoktrin schließt Entscheidungsfreiheit ebenso aus wie die freiwillige Teilnahme. Sie lässt keinen Raum für den Willen des Menschen als Urheber der Zukunft. Woraus sich zahlreiche Fragen ergeben: Wann ist der Punkt erreicht, an dem der inevitabilistische Anspruch auf ubiquitäre Extraktion und Exekution die Grenze zum Missbrauch überschreitet? Werden die utopistischen Deklarationen des Inevitabilismus zu neuen Formen des Zwangs führen, die darauf abzielen, diejenigen unter uns mundtot zu machen, die von ihrem Wunsch nach einer selbstgestalteten Zukunft nicht abrücken wollen?86

Der Boden ist bereitet Googles Deklarationen, die Herrschaft des Überwachungskapitalismus über die Wissensteilung in der Gesellschaft und ihre Bewegungsgesetze; allgegenwärtige Extraktions- und Exekutionsarchitekturen; Mackays Eindringen in unzugängliche Regionen zum Studium freilebender Tiere mittels unaufdringlicher Methoden; die Ablösung der Gesellschaft durch den Unvertrag; Paradisos ubiquitär wahrnehmungsfähige Umwelt; Dunkeldaten; die Prediger des Inevitabilismus – es gibt einen Ort, an dem alle diese Elemente zusammenkommen und einen gemeinsamen, für menschliches Miteinander ausgelegten öffentlichen Raum in eine Petrischale für das Reality-Business des Überwachungskapitalismus verwandeln. Ich spreche von der Stadt. Cisco hat 120 »Smart Cities« rund um die Welt, von denen einige Cisco Kinetic implementiert haben, eine Plattform, die Jahangir Mohammed,

Ciscos Vice-President und Chef für das Internet der Dinge, in einem Blogeintrag folgendermaßen erklärt: »eine cloudbasierte Plattform, die Kunden dabei hilft, Daten von vernetzten Dingen zu extrahieren, zu berechnen und an IdD-Applikationen weiterzuleiten, um bessere Ergebnisse zu bekommen … Cisco Kinetic transferiert die richtigen Daten zur richtigen Zeit zu den richtigen Applikationen … bei gleichzeitiger Einhaltung von Prinzipien wie Dateneigentümerschaft, Privatsphäre und selbst Gesetze zur Datenhoheit«.87 Aber wie so oft kommt der dreisteste Versuch, den gemeinsamen städtischen Raum in das überwachungskapitalistische Gegenstück zu Paradisos Marschland zu verwandeln, von Google. Das Unternehmen hat das Konzept der »For-Profit City« eingeführt und legitimiert. Wie Mackay geraten und Weiser gepredigt hatten, wäre der Computer dort überall einsetzbar und doch nirgendwo sichtbar – er bleibt außerhalb des individuellen Bewusstseins. 2015, kurz nachdem Google sich unter dem Namen Alphabet zu einer Holding organisiert hatte, wurde Sidewalk Labs zu einem der zunächst neun anerkannten Unternehmenszweige unter dem neuen Konzerndach. Ob die »Google City«, wie Sidewalk-CEO Dan Doctoroff, ehedem unter anderem CEO von Bloomberg und zweiter Bürgermeister von New York, es nennt, tatsächlich Erfolg hat oder nicht: Das Unternehmen hat die öffentliche Meinung längst darauf vorbereitet, indem es unseren zentralen sozialen Raum zur kommerziellen Operation umdefiniert, in der bis dato öffentliche Güter und Funktionen als Rohstoffe für einen neuen Markt vorgemerkt sind. In dieser Vision kommen die Vorstellungen von Mackay und Paradiso unter der Ägide des Überwachungskapitalismus in einer grandiosen Architektur vertikal integrierter Versorgungs-, Produktions- und Verkaufsoperationen zum Tragen. Sidewalk Labs’ erster Vorstoß in die Öffentlichkeit war die Einrichtung mehrerer Hundert kostenloser internetfähiger WLAN-Stationen, angeblich um gegen die »digitale Ungleichheit« vorzugehen. Wie wir das bereits bei Google Street View erlebt haben, kann das Unternehmen eine Menge wertvoller Informationen über Personen aus einem WLAN-Netz ziehen, selbst wenn diese Personen Googles Stationen nicht benutzen.88 Doctoroff charakterisiert Sidewalk Labs’ WLAN-Stationen als »Datenbrunnen«, die nicht nur mit Umweltsensoren ausgestattet sind, sondern auch »andere

Daten« sammeln können, »die alle zusammen hyperlokale Informationen über das städtische Umfeld zu generieren imstande sind«. 2016 gab das amerikanische Bundesministerium für Transport und Verkehr eine Partnerschaft mit Sidewalk Labs bekannt, deren Ziel es ist, »die Stadtverwaltung mit Daten über den Nahverkehr zu versorgen«.89 Das Verkehrsministerium vergab Subventionen im Gesamtwert von 40 Millionen Dollar, um den Städten Googles Ideen nahezubringen. Die Sieger sollten in Zusammenarbeit mit Sidewalk Labs an der Integration einschlägiger Technologie in städtische Operationen arbeiten, aber Sidewalk Labs interessierte vor allem die Mitarbeit der Finalisten bei der Entwicklung seines eigenen Verkehrsmanagementsystems Flow.90 Flow verlässt sich auf Google Maps, Street-View-Fahrzeuge und Maschinenintelligenz, die Daten von Fahrern und öffentlichen Räumen erfassen und analysieren soll.91 Diese Analysen produzieren Vorhersageprodukte, die man als »Schlussfolgerungen« darüber charakterisiert, »woher die Leute kommen und wohin sie gehen«, was den Stadtverwaltungen »virtuelle Planspiele« zur Optimierung des Verkehrsflusses ermögliche.92 Doctoroff postuliert eine Stadt unter der Herrschaft der digitalen Allwissenheit: »Wir nehmen alles aus anonymisierten Smartphone-Daten über Milliarden von Meilen, Reisen, Sensordaten und bringen das in die Plattform mit ein.«93 Sidewalk bezeichnet seine Hightech-Dienste als »neue Supermächte zur Ausweitung von Zugang und Mobilität«. Algorithmen, die für die Aufrechterhaltung kritischen Verhaltens in vorgeschriebenen Zonen sorgen sollen, werden diese Datenflüsse verwalten: »Wozu brauchen wir in einer Welt, in der wir Dinge wie Lärm oder Vibrationen überwachen können, derart strenge Bauvorschriften?« Als Alternative schlägt er eine »performancebasierte Flächennutzung« vor, deren Verwaltung mittels Algorithmen der ubiquitäre Apparat übernehmen soll. Wie Varians Fahrzeugmonitoringsystemen ist es diesen Prozessen egal, warum Sie sich so und nicht anders verhalten, solange das von Ihnen produzierte Verhalten zu überwachen und kontrollieren ist. »Ist mir völlig egal«, so erklärt Doctoroff, »was Sie liefern, solange Sie sich an Performancestandards wie etwa Lärmpegel halten.« Er zieht das vor, weil es »den freien Fluss von Eigentum« fördere, »der die logische Erweiterung dieser Technologien

ist«.94 Warum sollten die Bürger etwas zu sagen haben, was ihre Kommunikation angeht oder die langfristigen Auswirkungen von Luxushochhäusern, Hotels oder Wohnblöcken auf Mieten und Geschäfte vor Ort, solange ein Algorithmus mit den Lärmpegeln zufrieden ist? Als man Columbus, Ohio, zum Sieger des vom Verkehrsministerium ausgeschriebenen Wettbewerbs kürte, startete man ein dreijähriges Musterprojekt. Sidewalk wurde unter anderem mit hundert WLANStationen und freiem Zugang zu seiner FLOW-Software implementiert. In Dokumenten und Korrespondenz bezüglich dieser Zusammenarbeit ist dem britischen Guardian zufolge von Innovationen wie »dynamischem Parken« die Rede, von »optimierten Parkleitsystemen« und einem »gemeinsamen Mobilitätsmarkt – was weit beunruhigendere Muster enthüllt, als die Rhetorik vermuten ließe. Sidewalks Datenflüsse kombinieren öffentliche und private Güter zum Verkauf auf dynamischen virtuellen Echtzeitmärkten, die den Bürger eine Menge Geld kosten und Stadtverwaltungen von Sidewalks proprietären Informationen abhängig machen. So sind zum Beispiel öffentliche und private Parkplätze in OnlineMärkten kombiniert und werden »on demand« vermietet; die Kosten variieren dabei in Echtzeit, was die Erträge der Parkplatzbetreiber erheblich steigert. Das optimierte Parkraumbewirtschaftungssystem hängt von Sidewalks Algorithmen ab; sie »berechnen die lukrativsten Routen« für die Mitarbeiter der Ordnungsbehörden, was den Städten Millionen zusätzlicher Dollar einbringt, die sie zwar dringend brauchen, die aber auf Kosten der Bürger gehen. Man verlangt von den Kommunen, erhebliche Summen an öffentlichen Geldern in Sidewalks Technologieplattformen zu investieren. Das bedeutet zum Beispiel, dass man städtische Mittel, die eigentlich für den billigen öffentlichen Nahverkehr bestimmt wären, in »Mobilitätsmärkte« pumpt, die auf private Sharing-Unternehmen wie etwa Uber bauen. Das Unternehmen besteht darauf, dass Städte »Daten über den öffentlichen Nahverkehr mit Ride-Sharing-Unternehmen teilen, was es Uber ermöglicht, seine Fahrzeuge in Richtung überlasteter Bushaltestellen zu dirigieren«. Das Verkehrsleitsystem Flow integriert Informationen und Zahlungen für fast jede Art von Transport an Google Maps; Städte verpflichten sich zu einem »Upgrade« auf Sidewalks mobiles Zahlsystem »für alle existierenden

Nahverkehrs- und Parkdienste«. Sidewalk braucht nicht nur Daten über den öffentlichen Nahverkehr, das Unternehmen besteht auch darauf, dass die Städte alle Informationen über Parkplätze und Fahrerverhalten in Echtzeit mit Sidewalk Labs teilen.95 Auf eine diesbezügliche Frage stellte Doctoroff die neuartige Koppelung öffentlicher Funktionen und privaten Gewinns heraus. »Unsere Mission ist es«, so versicherte er seinen Hörern, »Städte durch Technologie zu verändern … Technologie dazu einzusetzen, große urbane Probleme zu lösen … Wir gehen davon aus, damit eine Menge Geld zu verdienen.«96 Im April 2016 traf sich eine »handverlesene Gruppe führender Persönlichkeiten« aus den Bereichen Technologie, Medien und Finanzwesen im Manhattaner Yale Club, um Sidewalks CEO Dan Doctoroff unter dem Motto »Google City: Wie der Technologie-Gigant die neue Stadt überdenkt – Schneller als Sie denken« sprechen zu hören.97 Seine Ansprache liefert eine offene Einschätzung von »Googles Stadt« als vom Vorhersageimperativ geformte Marktoperation. Er artikulierte Sidewalk Labs’ Ansatz als Übersetzung von Googles Online-Welt auf die Realität der Stadt. Er hätte dabei nicht direkter sein können: Im Endeffekt reproduzieren wir die digitale Erfahrung in den physischen Raum … Mit anderen Worten, totale Vernetzung, unglaubliche Rechenleistung in Verbindung mit künstlicher Intelligenz und Maschinenlernen, die Möglichkeit Daten darzustellen, Sensoren, Kameras, Standortdaten und andere spezialisierte Sensoren … Wir finanzieren alles … über ein neues Werbemodell … Wir können dann tatsächlich gezielte Werbung direkt an Leute in nächster Nähe richten – und sie dann ganz offensichtlich über Funkchips und GPSDienste und dergleichen, aber auch über ihre Browseraktivitäten tracken.98 Noch im selben Jahr gab Sidewalk die Zusammenarbeit mit sechzehn weiteren Städten bekannt; eine wirtschaftlich rentable Größe würde es dem Unternehmen ermöglichen, seine auf Flow basierenden Softwareprodukte zu verbessern. Doctoroff bezeichnete die Zusammenarbeit mit diesen Städten als »unvermeidlich«.99

Die ebenso massive wie vielfältige Kampagne, die da an verschiedenen Schauplätzen im Gange ist, macht den Vorhersageimperativ zur konkreten Aktion. Auf der Jagd nach Diversifikationsvorteilen wird derzeit eine ganze Sturzflut von Maschinenprozessen für Extraktion und Umwandlung von Menschen und Dingen in Verhaltensdaten vorbereitet. Zur Erreichung von Aktionsvorteilen lernt der Apparat, den Fluss persönlicher Erfahrung zu unterbrechen, um unser Verhalten zu beeinflussen, zu modifizieren und schließlich zu steuern. Dahinter stehen Pläne und Interessen eigenmächtiger kommerzieller Akteure und der florierende Markt, an dem sie partizipieren. In nahezu jedem Fall präsentieren die Handlanger der Institutionalisierung ihre neuen Praktiken als etwas, was sie in Wirklichkeit gar nicht sind. Die Realpolitik kommerzieller Überwachungsoperationen bleibt hinter den Kulissen versteckt, während der Chor der Schauspieler, der da im Rampenlicht tanzt und singt, unsere Aufmerksamkeit beansprucht, uns manchmal sogar begeistert. Doch sie schwitzen im grellen Licht der Bühne im Dienste eines einzigen Ziels – dass wir die Antworten nicht bemerken oder, noch besser, dass wir vergessen, die Fragen zu stellen: Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet? Im Lichte dieser Ambitionen überrascht es nicht weiter, dass Doctoroff – wie Page – den rechtsfreien Raum bevorzugt. Presseberichte bestätigten, dass Alphabet / Google über einen Vorschlag für eine neue Stadt nachdenkt und dass mehr als hundert Stadtplaner, Forscher, Technologen, Bauexperten, Ökonomen und Berater an dem Projekt beteiligt sind.100 Obwohl nicht ganz klar sei, so berichtete das Wall Street Journal, woher das Unternehmen die Zigmilliarden Dollar für ein Unterfangen dieser Größenordnung nehmen wolle, sei »ein Schlüsselelement, dass Sidewalk beanspruche, von zahlreichen städtischen Verordnungen ausgenommen zu sein, um ohne Einschränkungen bauen zu können«.101 Im Oktober 2017 trat Doctoroff zusammen mit Alphabets Executive Chairman Eric Schmidt und dem kanadischen Premier Justin Trudeau öffentlich auf, um bekanntzugeben, Toronto sei der Schauplatz von Sidewalks geplantem Projekt. Ziel sei, den richtigen Technologiemix zu entwickeln, um ihn dann an Städte überall auf der Welt lizensieren zu können. »Sidewalk Labs’ Denken ist ein Kind der Begeisterung, die Googles Gründer bei dem Gedanken ›an all das überkam, was man machen

könnte, wenn uns nur jemand eine Stadt geben würde und uns machen ließe‹ «, sagte Schmidt Torontos Globe and Mail gegenüber und »meinte im Scherz, er wüsste, es gebe gute Gründe dafür, dass man das nicht tat«. Dann berichtete die Zeitung von Schmidts Reaktion, als er hörte, Sidewalk und damit Alphabet hätten sich diese Gelegenheit in Toronto gesichert: »Großer Gott! Man hat sich für uns entschieden! Jetzt sind wir an der Reihe.«102

Kapitel 8 Rendition: Auslieferung und Verdatung unserer Erfahrung Mach ein Foto von denen, und die bringen dich um. Die denken, du nimmst denen was weg. Weil jeder nur so und so viel – von was weiß ich! – hat … und wenn dir die Leute alles wegnehmen, dann bleibt dir nichts mehr. – Robert Garland, The Electric Horseman Fotografieren heißt sich das fotografierte Objekt aneignen. Es heißt sich selbst in eine bestimmte Beziehung zur Welt setzen, die wie Erkenntnis – und deshalb wie Macht – anmutet. – Susan Sontag, Über Fotografie

Der Auslieferung ausgeliefert Unternehmen, die unsere persönlichen Daten horten, machen uns nicht nur Sorgen, wir fragen uns auch, warum sie davon profitieren sollten. »Wem gehören die Daten?«, überlegen wir. Nur die wichtigste aller Fragen lassen Diskussionen über den Datenschutz ausnahmslos außen vor: Warum wird unsere Erfahrung überhaupt in Verhaltensdaten umgerechnet? Dieser wichtige Schritt in der Produktionskette von Verhaltensüberschuss war bisher allzu leicht zu übersehen. Dieses Kapitel und das folgende sollen aufmerksam machen auf diese Lücke bei der Mission, das eine in das andere umzuwandeln. Ich fasse die dazugehörigen Operationen unter dem Begriff Rendition zusammen. Der Sündenfall des Überwachungskapitalismus besteht, wie wir gesehen haben,

in der Enteignung menschlicher Erfahrung, aber es handelt sich bei dieser Enteignung durchaus nicht um eine bloße Abstraktion. »Rendition« bezeichnet die konkreten operativen Praktiken der Enteignung, mit denen das Überwachungskapital menschliche Erfahrung als Rohstoff für die Verdatung und alle darauf folgenden Operationen beansprucht – von der Herstellung bis zum Verkauf. Bei näherer Betrachtung dieser intermediären Praktiken erweist sich der ubiquitäre Apparat mitnichten als passiver Spiegel; vielmehr schafft er sich mittels der Rendition aktiv seine eigenen proprietären Wissensreservoirs. Das Substantiv rendition leitet sich ab von dem Verb to render – ein ausgesprochen ungewöhnliches Wort, dessen Mehrdeutigkeit eine Gleichung beschreibt, wenn man so will, die perfekt erfasst, was in der Lücke zwischen menschlicher Erfahrung und Verhaltensdaten passiert. Auf der einen Seite der Gleichung beschreibt das Verb einen Prozess, bei dem aus einem ursprünglich Gegebenen etwas anderes gebildet wird. Es beschreibt die ursächliche Handlung, ein Ding in ein anderes umzuwandeln, wie etwa Öl aus Fett auszulassen (die »Extraktion«, wenn Sie so wollen) oder einen Text aus einer Sprache in einer andere zu übersetzen (»wiederzugeben«). Die Begriffe haben ihren Weg nicht umsonst in die Sprache der digitalen Technologie gefunden. So gibt es etwa diverse rendering engines, die im Falle des auch als »Browser-Engine« bezeichneten »HTML-Renderers« für die visuelle Darstellung von in Programmiersprache erstellten Webseiten sorgen. Auf der anderen Seite der Gleichung beschreibt to render die Art und Weise, in der das Ding, das da verändert wird, sich diesem Prozess überlässt oder in einer Art Kapitulation ergibt. Das Verb geht zurück auf das altfranzösische rendre, das sich seinerseits vom vulgärlateinischen rendere ableitet, in dem wiederum dare steckt, womit die Grundbedeutung »geben« von Anfang an angelegt ist. Alle weiteren Bedeutungen, die das Verb im Lauf der Jahrhunderte dazubekam, bauen letztlich auf dieser auf. Der Überwachungskapitalismus muss auf beiden Seiten der Gleichung tätig werden. Auf der einen Seite dienen seine Technologien dazu, unser Verhalten »auszulassen«, um Daten zu gewinnen, so wie wir Fett auslassen, um das Öl darin zu extrahieren. Wie wir festgestellt haben, entzieht sich das für gewöhnlich unserer Kenntnis, geschweige denn dass wir zugestimmt hätten. Auf der anderen Seite der Gleichung geben wir mit jeder Benutzung

einer digitalen Schnittstelle unsere Erfahrungen preis; wir übergeben sie der »Verdatung« und spielen so dem Überwachungskapitalismus seinen steten Nachschub an Rohstoff zu. Diese Gleichung ist ein neuartiges Arrangement. Wie wir in Kapitel 1 gesehen haben, arbeitete das Aware-Home-Projekt, das man gerade mal ein Jahr vor der Erfindung des Überwachungskapitalismus an der TH Georgia entwickelt hatte, mit ganz anderen Praktiken, in denen ganz andere Grundannahmen umgesetzt waren: 1) sollte ausschließlich der Einzelne darüber entscheiden, welchen Teil seiner Erfahrung er rendern wollte; 2) diese Daten sollten ganz allein der Bereicherung des Lebens des Einzelnen dienen; 3) der Einzelne entscheidet als Einziger über die Verwendung seiner Daten. Fast zwei Jahrzehnte später ist das Aware-Home-Projekt kaum mehr als ein archäologisches Fragment, das uns daran erinnert, dass wir auch einen anderen Weg hätten einschlagen können, den Weg in eine befähigende digitale Zukunft und zu einer gerechteren Wissensteilung in der Gesellschaft. Blicken wir also zurück, dann sollte es das Individuum sein, das weiß, das entscheidet und das entscheidet, wer entscheidet. Wir sehen rückblickend eine Person, die selbst Zweck ihres Tuns und nicht Mittel zu den Zwecken anderer ist. Die Lektion, die sich aus dem AwareHome-Projekt, aber auch aus dem iPod ziehen lässt, ist die, dass es Rendition durchaus auch ohne Überwachungskapitalismus geben kann. Die Lektion, die wir aus diesem und dem folgenden Kapitel ziehen, ist hingegen, dass es keinen Überwachungskapitalismus ohne Rendition geben kann. Nichts ist ausgenommen vom Wettbewerb um Überwachungserträge; Produkte und Dienstleistungen aller Sektoren vernetzen ihre Geräte – denken Sie an den Thermostaten von Nest. Oder nehmen Sie die Schlagzeilen, die im Juli 2017 der selbstständige Staubsauger Roomba machte, als der CEO von iRobot Colin Angle Reuters seine datenbasierte Geschäftsstrategie für das Smart-Home eröffnete: Man versprach sich als Erstes einen neuen Einnahmenstrom daraus, die Grundrisse der Wohnungen seiner Kunden zu verkaufen, die sich mittels der Kartierungsfähigkeit des Saugroboters ermitteln ließen. Angle ließ durchblicken, seine Grundrisse binnen zwei Jahren an Google, Amazon oder Apple verkaufen zu können. Zur Vorbereitung seines Eintritts in den überwachungskapitalistischen Wettbewerb hatte das Unternehmen seinem Spitzenmodell bereits eine

Kamera und neue Sensoren nebst einschlägiger Software verpasst; unter anderem war der Staubsauger damit in der Lage, seine Bewegungen aufzuzeichnen und seine Umgebung minutiös zu kartieren. Der Markt hatte iRobots Vision bereits honoriert; der Aktienpreis des Unternehmens war im Juni 2017 bereits auf 102 Dollar gestiegen (von gerade mal 32 Dollar ein Jahr zuvor), was sich in einem Börsenwert von 2,5 Milliarden Dollar niederschlug; man hatte einen Ertrag von 660 Millionen Dollar eingefahren.103 Datenschutzexperten schlugen auf Angles Ankündigung hin sofort Alarm, da bekannt ist, dass derlei Datenströme sowohl rechtlich problematisch als auch vom Sicherheitsstandpunkt her praktisch ungeschützt sind. Angle versicherte denn auch der Öffentlichkeit sofort, iRobot würde seine Daten nicht ohne die Erlaubnis seiner Kunden verkaufen, und brachte gleichzeitig seine Zuversicht zum Ausdruck, »die meisten würden ihre Zustimmung geben, um die Smart-Home-Funktionen nutzen zu können«.104 Fragt sich nur, woher Angles Zuversicht kam. Laut den Datenschutzrichtlinien des Unternehmens ist es tatsächlich möglich, die Sammlung von Nutzungsdaten durch den Roomba zu kontrollieren oder gar zu stoppen, indem »Sie die WLAN- bzw. BluetoothAnbindung deaktivieren, zum Beispiel, indem Sie Ihr WLAN Passwort ändern«. Wie Angle jedoch im Juli 2017 gegenüber der Tech-Site Mashable einräumte, zeichnet Roomba trotzdem weiter Daten auf, wenn auch nur, um sie »an die Cloud zu schicken, damit man sie sich auf seinem Mobilgerät ansehen kann«.105 Was Angle dabei geflissentlich verschwieg, war, dass eine Kundin, die den Grundriss Ihres Zuhauses nicht mit iRobot teilen möchte, eben auch der meisten der Smart-Funktionen ihres »autonomen« Staubsaugers verlustig geht, darunter so nützliche Dinge wie das Gerät vom Handy aus zu starten oder zu stoppen, nach Zeitplan zu reinigen, sich über »Clean-Map-Berichte« anzeigen zu lassen, wo bereits gesaugt wurde, Statistiken über die Tüchtigkeit des Roboters einzusehen oder bestimmte stark verschmutzte Stellen besonders intensiv anzugehen.106 Angles Zuversicht verweist auf den einzigartigen Ansatz des breiteren Rendition-Projekts, den die überwachungskapitalistischen Lieferanten »smarter« Haushaltsgeräte entwickelt haben. Auf der einen Seite betonen sie, die Kunden könnten selbst bestimmen, ob sie Daten herausgeben und teilen wollen; auf der anderen Seite verlieren Kunden, die sich dem »Opt-

in« verweigern, einen Gutteil der Funktionalität und der Datensicherheit des Geräts. Solche Beziehungen funktionieren ganz im Stil des Requerimiento, nur dass die Botschaft der adelantados eine andere ist: Anstatt »auf die Knie, oder wir vernichten dich«, lautet sie heute »auf die Knie, oder wir vernichten dein Produkt«. Selbst der Kauf einer Matratze kann mittlerweile nicht weniger riskant sein als der eines Saugroboters oder eines Nest-Thermostats. Schauen Sie sich nur mal das Sleep Number Bed mit »Smart-Bed-Technologie und Sleep-Tracking« an.107 Bettkasten wie Matratze sind durch eine spezielle Ausstattung »individualisierbar«, die Winkel lassen sich verstellen, Sensoren machen die Matratze nach Wunsch weicher oder härter. Weitere Sensoren können Ihren Herzschlag messen, Ihre Atmung, wie oft Sie sich nachts drehen und wenden: »Jeden Morgen können Sie sich ihren SleepIQ® und damit die individuelle Qualität und Länge Ihres Schlafs anzeigen lassen … ob er geruhsam war, rastlos, wie oft Sie aufgestanden sind … und wie Sie daran etwas ändern können«.108 Das Unternehmen schlägt auch gleich vor, Ihre Sleep-App mit Ihrem Fitness-Tracker und Ihrem Thermostat zu verbinden, damit Sie sehen, wie Ihr Workout oder die Temperatur Ihres Schlafzimmers sich auf Ihren Schlaf auswirken. Wie allen dieser früher völlig banalen Produkte liegt auch dem Bett eine zwölfseitige Datenschutzrichtlinie bei, die des sorgfältigen Studiums bedarf, will man die »missbräuchlichen« Konditionen verstehen, die fast jeder Kunde ignoriert. Eine ausgesprochen nützliche empirische Studie mit 543 – mit der Rechtslage zu Überwachung und Datenschutz vertrauten – Teilnehmern kam zu dem Ergebnis, dass 74 % dieser aufgeklärten Zeitgenossen sich für den »schnellen« Beitritt zu einem neuen OnlineDienst entschieden und damit die Lektüre von Nutzungsbedingungen und Datenschutzrichtlinien einfach umgingen. Und selbst von denen, die sich durch die missbräuchlichen Verträge scrollten, drückten die meisten direkt auf »Akzeptieren«. Den Rechnungen der Forscher zufolge bräuchte man mindestens fünfundvierzig Minuten für ein angemessenes Verständnis der Konditionen, aber selbst bei denen, die sich die Bedingungen ansahen, lag der Mittelwert bei nur vierzehn Sekunden.109 Trotzdem entsprechen amerikanische Gerichte im Allgemeinen der Behauptung der Unternehmen,

nicht haftbar zu sein, solange der Kunde keinen eindeutigen ökonomischen Schaden nachweisen kann. Im Lichte solcher Fakten werden auch die meisten Käufer eines Sleep Number Bed wohl kaum auf die harten Klauseln seiner Datenschutzrichtlinien stoßen. So heißt es da zum Beispiel, die bloße Übermittlung irgendwelcher persönlicher Informationen impliziere die Zustimmung des Kunden, dass man diese Informationen im Sinne seiner Datenschutzrichtlinien verwenden kann, die die üblichen Auflagen enthalten: Weitergabe an Dritte, Google Analytics, Nutzung für zielgerichtete Werbung und viele mehr.110 Sollte der Kunde sich darüber hinaus dazu entschließen, zur effektiveren Nutzung des Geräts ein Nutzerprofil anzulegen, so betrachtet das Unternehmen dies als Erlaubnis, »biometrische und schlafbezogene Daten darüber« zu sammeln, »wie Sie, ein Kind und jede andere Person, die das Bett benutzt, geschlafen haben, über die Bewegungen der betreffenden Person, Schlafhaltung, Atmung und Herzschlag während des Schlafs«. Außerdem sammelt es sämtliche Audiosignale in Ihrem Schlafzimmer. Wie die meisten solchen Richtlinien weisen auch diese darauf hin, dass persönliche Informationen selbst dann »geteilt« und »genutzt« werden, »wenn Sie die Dienste deaktivieren und /  oder Ihren Account oder Ihr[e] Nutzerprofil[e] bei Sleep Number löschen«. Außerdem weist man den Kunden darauf hin, weder bei der Übertragung noch bei der Speicherung der Daten »hundertprozentige Sicherheit garantieren« zu können; auch die »Do-Not-Track«-Anweisung würde man nicht honorieren. Auf Seite 8 des Dokuments kommt man schließlich auf die Optionen des Kunden hinsichtlich der Nutzung seiner persönlichen Informationen zu sprechen: »Ob Sie uns Informationen übermitteln, liegt ganz an Ihnen. Sollten Sie sich entscheiden, keine Informationen zu übermitteln, kann das dazu führen, dass wir bestimmte Features, Produkte und / oder Dienstleistungen nicht gewährleisten können.«111

Der Tod von Produkten und Dienstleistungen Selbstverständlich steht es einem frei, auf den Kauf eines RoombaSaugroboters, eines Sleep-Number-Betts oder eines Nest-Thermostats zu

verzichten, aber diese Produkte stehen hier nur symbolisch für das groß angelegte Rendition-Projekt als erstem und entscheidendem Schritt beim Aufbau des Ubiquitätsapparats. Im »Internet der Dinge« beginnen Hunderttausende von Objekten Daten zu streamen. Bei dieser neuen Art von Produkten ist die Funktionalität, für die wir bezahlen, unentwirrbar mit Software, Diensten und Netzwerken gekoppelt.112 Das Ergebnis ist, dass Effektivität und Sicherheit des Produkts ganz unverfroren als Faustpfand dafür genommen werden, dass der Besitzer sich der Rendition seiner Daten zur Nutzung von und für die Interessen anderer unterwirft. All das bedeutet nichts anderes, als dass die bloße Idee des funktionsfähigen, effektiven und erschwinglichen Produkts oder Dienstes als ausreichender Basis für den wirtschaftlichen Austausch im Sterben begriffen ist. Produkte jeglicher Art – oft solche, von denen man es am wenigsten erwartet hätte – werden im Sinne der neuen ökonomischen Erfordernisse von Konnektivität und Rendition neu konzipiert. Jedes von ihnen ist jetzt in erster Linie ein Tor zu dem neuen, als »smart« gepriesenen Apparat, während man traditionelle Alternativen verächtlich als »dumm« abtut. Wir müssen uns unbedingt vor Augen halten, dass »smart« in diesem Kontext verhüllend für Rendition steht – Intelligenz, die darauf abzielt, auch das letzte Häppchen gelebter Erfahrung als Verhaltensdaten zu rendern. Jeder »intelligente« Gegenstand ist eine Art Marionette, aber bei aller »Intelligenz« bleibt er eine ohnmächtige Marionette, die nach versteckten ökonomischen Imperativen eines überwachungskapitalistischen Puppenspielers tanzt. Produkte, Dienstleistungen und Applikationen marschieren zum Trommelschlag des Inevitabilismus dem Versprechen von Überwachungserträgen entgegen, die aus bis dato wilden Räumen wie »meine Realität«, »mein Zuhause«, »mein Leben« und »mein Körper« gehauen sind. Jedes smarte Produkt wiederholt unsere grundlegenden Fragen: Was weiß ein smartes Produkt und wem sagt es das? Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet? Beispiele für Produkte, die konsequent darauf aus sind, Verhaltensdaten zu rendern, zu überwachen, aufzuzeichnen und zu übertragen, schießen ins Kraut – von der smarten Wodkaflasche bis zum internetfähigen Rektalthermometer.113 So schwärmt der Business-Entwickler eines Spirituosenherstellers von seinem Plan für eine »vernetzte Flasche«: »Je

mehr wir über die Konsumenten und ihr Verhalten erfahren, desto besser die Dienste, mit denen wir sie verbinden können.« Viele Marken sind fest entschlossen, »der Verpackung eine Sprechrolle auf einem zunehmend interaktiven Markplatz zu geben«.114 Der weltweit operierende Spirituosenhersteller Diageo verspricht mit smarten Sensoren bestückte Flaschen, die nicht nur Verkauf und Verkaufsdaten tracken, sondern vor allem auch »mit den smarten Geräten des Verbrauchers kommunizieren können, um Kontexte zu erahnen und entsprechend Rezepte oder Werbung schicken zu können – die ganz allgemein imstande sind, mit der ganzen Fülle von Informationen auf dem Smartphone des Kunden zu kommunizieren«. Ein Hersteller von Bar-Equipment bringt das Problem auf den Punkt: »Es geht letztlich darum, dass die Barbesitzer Dinge sehen, die sie zuvor nicht sehen konnten, und so ihre Profite maximieren.«115 Heute ist vor allem unser Zuhause im Fadenkreuz des Überwachungskapitalismus. Vielleicht sind Ihnen schon einige erste einschlägige Absurditäten untergekommen: smarte Zahnbürsten, smarte Glühbirnen, smarte Kaffeetassen, smarte Elektroherde, smarte Saftpressen und smarte Utensilien, die Ihre Verdauung fördern sollen. Andere sind beängstigender: Überwachungskameras mit Gesichtserkennung fürs traute Heim; ein Alarmsystem, das ungewöhnliche Vibrationen vor einem Einbruch registriert; GPS-Tracker für Innenräume; Sensoren, die sich an beliebigen Objekten anbringen lassen, um Bewegung, Temperatur und andere Variablen zu analysieren; jede nur erdenkliche Art vernetzter Gerätschaften, Cyborg-Kakerlaken, die auf Töne reagieren. Selbst das Zimmer Ihres Babys wird gerade als Quelle für frischen Verhaltensüberschuss entdeckt.116 Eine nähere Betrachtung der überwachungskapitalistischen Akkumulationslogik als Motor dieser Entwicklung lässt darauf schließen, dass dieses Netzwerk von Dingen sich bereits zu einem Netzwerk der Nötigung zu entwickeln beginnt, in dem man ganz alltägliche Funktionen als Geiseln zur Auslösung gegen Verhaltensüberschuss nimmt.117 Ein Brief von Googles Finanzvorstand an die Division of Corporate Finances der USBörsenaufsicht vom Dezember 2013 erlaubt einen aufschlussreichen Blick auf diese Fakten. Der Brief war eine Antwort auf eine Anfrage der Börsenaufsicht wegen der Segmentierung von Googles Erträgen zwischen

seiner Desktop- und seiner Mobilplattform.118 Google wies in seiner Antwort darauf hin, dass die Nutzer »unsere Werbung künftig auf einer zunehmend diversen Vielfalt von Geräten sehen würden« und es seine Werbesysteme entsprechend auf ein »geräteunabhängiges« Design zubewegen würde, was eine Segmentierung so irrelevant wie unzweckmäßig mache. »In einigen Jahren«, so hieß es in dem Brief, »könnten wir und andere Unternehmen Werbung und anderen Content an Kühlschränken zeigen, Armaturenbrettern, Thermostaten, Brillen und Armbanduhren, um nur einige Möglichkeiten zu nennen.« Hier haben wir mindestens ein Endspiel: Das »smarte Zuhause« und sein »Internet der Dinge« sind die Leinwand, auf dem die neuen Märkte für künftiges Verhalten Konturen anzunehmen beginnen und damit ihren Anspruch in unseren intimsten Räumen erheben. Wichtig für unsere Geschichte hier ist, dass man diese Entwicklung zur Unterstützung eines breiteren Marktprozesses betreibt, der Wetten auf unser künftiges Verhalten abschließt und über den wir so wenig wissen, wie wir ihn kontrollieren können. Jeder Knoten in diesem Netzwerk – der Staubsauger, die Matratze, der Thermostat – muss seine Rolle spielen bei der reibungslosen Rendition von Verhalten, mit der alles seinen Anfang nimmt; und so schließt sich denn ein insistierender Schwarm »smarter« Dinge der Migration hin zu den Überwachungseinträgen an. Wir selbst sehen uns der Alternativen beraubt; wir sehen uns gezwungen, Produkte zu kaufen, die wir nie besitzen können, während wir unsere eigene Überwachung und Nötigung üppig bezahlen. Und um das Maß vollzumachen, sind die Daten, die von diesem Heer von Dingen ausgehen, auch noch notorisch unsicher und anfällig für Datenpannen, ohne dass man jemanden rechtlich in die Pflicht nehmen könnte, uns zu benachrichtigen, wenn man unsere Daten stiehlt oder hackt. Es gibt noch andere, nachgerade prometheische Ambitionen, was die Erfassung von Verhaltensdaten über ansonsten unvernetzte Dinge angeht. Unternehmen wie Qualcomm, Intel und ARM entwickeln winzige optische Module mit geringem Stromverbrauch, die rund um die Uhr eingeschaltet bleiben und an jedem Gerät anzubringen sind – an Ihrem Telefon, am Kühlschrank, überhaupt auf jeder Oberfläche. Einer Führungskraft von Qualcomm zufolge wissen damit Geräte oder Spielsachen, was um sie

herum vorgeht: »Eine Puppe könnte damit erkennen, wenn sich ihr das Gesicht eines Kindes zuwendet.«119 Oder nehmen Sie »smarte Haut«, eine brillante Erfindung, die augenblicklich vor der kommerziellen Entwicklung steht. Schätzen gelernt hatte man sie bei Monitoring und Diagnose zahlreicher Krankheiten wie etwa Parkinson oder Schlafstörungen, mittlerweile jedoch ist sie der Hoffnungsträger unaufdringlicher Ubiquität und damit hochkreativer neuer Möglichkeiten für Überwachungseinkünfte. So haben Forscher an der TH Georgia eine intelligente Haut entwickelt, die Strom aus Radiowellen und anderen Energiequellen zu saugen vermag und damit Batterien überflüssig macht. Intelligente Haut gilt als das Nonplusultra unter den »sensorischen Werkzeugen, da sie potenziell zum Aufbau beständiger Drahtlosnetze für die Massenimplementierung taugt«.120 Sie kann erkennen, fühlen, analysieren, drahtlos kommunizieren und mittels simpler RFIDTechnologie sogar »Parameter ändern«.121 Wie im Falle von Paradisos »Sensor-Tape« betonen die Wissenschaftler auch bei der intelligenten Haut ihre »universellen Einsatzmöglichkeiten« zum »beständigen Monitoring« der Welt um uns, die sie nicht nur sensorisch erfassen, sondern mit der sie auch interagieren kann – und das alles, so die Forscher, mit der Unauffälligkeit eines »Abziehbilds«. Eine der von ihnen vorgeschlagenen Einsatzmöglichkeiten seien die Regale von Supermärkten, wo die kommerziellen Möglichkeiten besonders reichhaltig seien.122 Ausgeformt durch die Imperative des Überwachungskapitalismus, ausgerichtet an seinen Zielen, ist Rendition das Paradebeispiel eines überwachungskapitalistischen Projekts. Bei der Abfassung des Schattentexts ist Rendition der erste Schritt: die operative Umsetzung »des Sündenfalls der einfachen Räuberei«, der dieses Marktprojekt von Anfang an definiert. Losgetreten hat die Rendition der Welt, ihrer Straßen und Wohnräume Google, und das unter Umgehung unserer Einwilligung und Missachtung unserer Proteste. Facebook hat um seiner Verhaltensterminkontraktmärkte willen das soziale Netzwerk und seine grenzenlosen Details gerendert. Heute ist der allgegenwärtige Apparat das Mittel zur allgegenwärtigen Rendition menschlicher Erfahrung. Wir haben bereits gesehen, mit welcher Dringlichkeit Überwachungskapitalisten »Sand im Getriebe«, das heißt Probleme, zu eliminieren versuchen, deren

Ausmerzung ein kritischer Erfolgsfaktor ihrer Versorgungsoperationen ist. Der Vorhersageimperativ lässt Grenzen und Einschränkungen schlicht nicht zu; entsprechend werden Überwachungskapitalisten fast alles tun, um sie zu eliminieren. Diese Bestrebungen verwandeln das »Verbundensein« in einen kommerziellen Imperativ und definieren die Autonomie des Individuums damit zwangsläufig als Gefahr für die Überwachungserträge. Die Rendition-Praktiken des Überwachungskapitalismus erdrücken jede vernünftige Diskussion über ein »Optionsrecht«. Die Zeit der Feigenblätter ist vorbei. Der Euphemismus der Einwilligung kann nicht länger von der ungeschminkten Tatsache ablenken, dass es sich bei der Rendition unter dem Überwachungskapitalismus im Regelfall um einen ebenso ungenehmigten wie einseitigen, gefräßigen und unverfrorenen Vorgang handelt. Diese Charakteristika fassen die Asymmetrien von Wissen und Macht zusammen, aus denen das Element der Überwachung im Überwachungskapitalismus resultiert. Darüber hinaus unterstreichen sie eine unangenehme Wahrheit, dass es nämlich schwierig ist, der Rendition aus dem Weg zu gehen. Da selbst Branchen fernab des Tech-Sektors in den Sog der Überwachungsprofite geraten, hat der Ingrimm des Wettlaufs um die Verdatung menschlicher Erfahrung die Rendition zu einem globalen überwachungskapitalistischen Projekt gemacht. Dieses Kapitel wie auch das nächste beschäftigt sich mit einer Reihe von Rendition-Aktivitäten, die auf Diversifikationsvorteile abzielen. Der Rest dieses Kapitels konzentriert sich auf die erste Dimension der Diversifikation, die Erweiterung – die Vereinnahmung immer neuer Brocken menschlicher Erfahrung als Folge des Einzugs der RenditionOperationen in die reale Welt. Die Erweiterung sucht jeden Winkel, jede Ritze, jede Äußerung, jede Geste in die mythische »Cloud« hineinzusaugen und damit zu enteignen. Alles Belebte hat seine Fakten herauszugeben. Alles muss ausgeleuchtet werden, es kann keine Schatten geben, keine Dunkelheit. Unbekanntes ist nicht tragbar. Für sich zu bleiben ist verboten. In Kapitel 9 werden wir uns noch mit der Dimension der Tiefe befassen. Zunächst einmal wirft man das Netz großflächig übers Wasser unseres Alltags, aber es gibt auch U-Boote, die ebenjene Tiefen nach neuen Quellen für Überschuss ausloten, die ihrer seltenen Vorhersagequalitäten wegen besonders wertvoll sind: Ihre Persönlichkeit, Ihre Gefühle, Ihre Endorphine … Die Beispiele in diesen Kapiteln sind nicht erschöpfend; sie sollen

lediglich die zielstrebige Hartnäckigkeit und Arglist illustrieren, mit der das Überwachungskapital bei seiner unverschämten Suche nach immer neuen Aspekten menschlicher Erfahrung, die sich als Gewissheit zu Geld machen lassen, zu Werke geht. Selbstverständlich müssen wir bei diesem Unterfangen bestimmte Akteure, Produkte und Techniken nennen, um das Wirrwarr der Details zu durchschauen: Firmen werden aufgekauft und abgestoßen, haben Erfolg oder gehen unter; Leute kommen und gehen. Während bestimmte Technologien, Produkte, Prozesse verschwinden, entwickelt man andere und verfeinert sie. Solange man dem Überwachungskapitalismus zu florieren erlaubt, wird eine abgelegte Technologie durch eine neue ersetzt. Dieses Drunter und Drüber ist für den Erfolg des Überwachungskapitalismus nicht weniger wichtig als das Tempo seiner Entwicklung, und wir dürfen uns davon auf keinen Fall am Verständnis der »Bewegungsgesetze« hindern lassen, die diese heftig in Bewegung geratene Landschaft regieren. Wir müssen die Ziele und Muster dahinter verstehen.

Die Rendition des Körpers Die Rendition Ihres Körpers beginnt ganz einfach mit Ihrem Smartphone. Selbst wenn die Stadt nicht »smart« ist oder Google gleich ganz gehört, wird ein Marktakteur kein Problem dabei haben, Ihren Körper zu finden.123 Bei all den ausgefeilten Methoden, mit denen der Überwachungskapitalismus menschliche Realität zu Verhaltensüberschuss macht, die einfachste und wichtigste ist seine Fähigkeit, rund um die Uhr zu wissen, wo wir sind. Ihr Körper ist für ihn ein sich verhaltendes Objekt, das es zu tracken und um seiner späteren Auffindbarkeit willen zu berechnen und zu indexieren gilt. Die meisten Smartphone-Apps wollen Auskunft über ihren Standort, selbst wenn es für den Dienst selbst nicht nötig ist; dass sich das Wissen um ihren Standort an sich schon zu Geld machen lässt, ist dafür Grund genug. Standortdaten sind unter anderem den »Geotags« zu entnehmen, die entstehen, wenn Ihr Smartphone automatisch Ihre Identität nebst Standort in Fotos und Videos einfügt. Einzelhändler bedienen sich des »Geofencing«,

um ein physisches Areal zu definieren, in dem man Leuten Nachrichten aufs Handy schickt: »Kommen Sie rein!« »Kaufen Sie!« »Wir haben ein Angebot – nur für Sie!«124 Sie brauchen sich nur eine Starbucks-App herunterzuladen und aus dem Haus zu gehen, wenn Sie das live erleben wollen. »Mobilwerbung«, so ein Marketingberater, »die ultimative Form des Geotargeting, ist der Heilige Gral der Werbung.«125 »Tipps und Tricks« für Location-Based Marketing bekommt man reichlich von einer Firma, die auf mobile Werbung spezialisiert ist: »Es erlaubt einem, die zwanghafte Ader der Menschen auszunutzen, indem man sie mit einer gezielten Nachricht zu Impulskäufen animiert … Außerdem verhilft es einem zu Einsichten in Ihre aktuellen Kunden, wenn Sie lesen, was diese auf Yelp oder Facebook sagen.«126 Ein anderer Spezialist für mobiles Marketing empfiehlt das auf Lebensmuster ausgerichtete »Life-Pattern Marketing«; entwickelt hat man es auf der Basis einer Methode, die man bei militärischen Nachrichtendiensten als »Lebensmuster-Analyse« bezeichnet. Sie besteht im Sammeln von Standort- und anderen Daten über Telefone, Satelliten, Fahrzeuge und Sensoren, um daraus Informationen über täglich wiederkehrende Verhaltensmuster von »Personen von besonderem Interesse« zu erstellen; das erlaubt Vorhersagen über ihr künftiges Verhalten. Vermarkter sind aufgefordert, die »täglichen Bewegungsmuster« eines »Zielpublikums« aufzuzeichnen, um »die Leute in ihrer täglichen Routine mit Marken- und Promo-Messages abfangen zu können«. »Die psychologische Wirkung wahrgenommener Ubiquität ist frappant«, heißt es bei einer einschlägigen Firma. »Life-Pattern Marketing sorgt bei Kunden für einen nachhaltigen psychologischen Eindruck.«127 Sie können den GPS-Locator an Ihrem Handy abschalten, sicher, aber kaum einer macht das, die einen weil sie sich auf seine Funktionen verlassen, die anderen weil sie nicht wissen, dass es so etwas gibt. Pew Research zufolge benutzten 2013 74 % aller amerikanischen SmartphoneBesitzer Apps, die GPS-Daten benötigten, 2015 waren es bereits 90 % – also etwa 153 Millionen und damit mehr als die, die auf ihrem Handy Musik hören oder Videos gucken.128 Die Abhängigkeit des Kapitalismus von geheimen Operationen läuft darauf hinaus, dass die meisten von uns

einfach nicht wissen, nicht wissen können, in welchem Ausmaß unser Telefon dank der lukrativen Überwachung als Peilsender dient. Forscher an der Carnegie Mellon University lieferten dafür in einer Studie den Beweis.129 Drei Wochen lang informierte man die dreiundzwanzig Teilnehmer an der Studie fortwährend über die Zahl der Apps, die auf ihre GPS-Daten zugriffen, sowie über die Gesamtzahl der Zugriffe in einem gegebenen Zeitraum. Sie waren verblüfft über das schiere Ausmaß des Ansturms, als sie erfuhren, wie oft man ihren Standort in einem Zeitraum von vierzehn Tagen abgerufen hatte: 4 182-mal, 5 398-mal, 356-mal usw. Und das alles um des Profits von Werbetreibenden, Versicherern, Einzelhändlern, Marketingfirmen und Hypothekenbanken willen, oder wer immer sonst noch für seine Teilnahme an diesen Verhaltensmärkten bezahlt.130 »Ich hatte das Gefühl, von meinem Telefon verfolgt zu werden«, brachte einer der Teilnehmer das Problem auf den Punkt. »Richtig zum Fürchten.«131 58 % der Teilnehmer an der Studie reduzierten daraufhin die Zahl der Apps, denen sie den Zugriff erlaubten. Es überrascht nicht weiter, dass Google einer der Vorreiter des GPSTrackings war. 2016 machte die eidesstattliche Erklärung einiger Gesetzeshüter, die sich um einen Durchsuchungsbefehl für einen kalifornischen Bankräuber bemühten, recht deutlich, warum Googles GPSDaten so unvergleichlich sind: »Google sammelt und speichert Daten von Android-fähigen Mobilgeräten. Google sammelt diese Daten, wann immer einer seiner Dienste aktiviert wird und / oder wann immer es auf diesem Gerät zu einem »Ereignis« kommt, etwa zu einem Anruf, einer SMS, einem Zugriff auf Internet oder E-Mail.132 Mit anderen Worten, die Beamten wandten sich wegen der Ortung des Kriminellen an Google, weil das Unternehmen über detailliertere Information verfügt als selbst die Telefongesellschaften. Androids Ortungssysteme kombinieren die Daten von Mobilfunkmasten mit GPS, WLAN-Netzen sowie Informationen aus Fotos, Videos und anderen Quellen: »Das sorgt dafür, dass Android seine User nicht nur auf ein Stadtviertel, sondern auf ein Gebäude genau lokalisieren kann.«133 2018 fanden einige investigative Journalisten der Nachrichten-Website Quartz heraus, dass Android seit Anfang 2017 mittels Triangulation Positionsdaten von Mobiltelefonen selbst dann erfasst und gesammelt hatte, wenn die Ortungsdienste abgeschaltet, keine Apps in

Betrieb und keine SIM-Karte im Handy war. Benutzt wurden die Informationen zur Verwaltung von Googles »Push«-Nachrichten und anderer Botschaften, die man den Nutzern auf das Android-Handy schickte. Das ermöglichte es dem Unternehmen zu verfolgen, »ob eine Person mit einem Android-Handy oder eingeschalteten Google-Apps einen bestimmten Laden betreten hat, was sich dazu verwenden lässt, dem User zielgerichtete Werbung zukommen zu lassen.«134 Googles »Standortverlauf« ist ein Produkt seiner weltweiten Kartierungsbemühungen. Der Dienst ist seit mehr einem Jahrzehnt in Betrieb, wurde aber der Öffentlichkeit erst 2015 als »Meine Zeitachse« vorgestellt, ein Feature, das einem erlaubt, »Orte, an denen Sie waren, sowie die Routen, die Sie zurückgelegt haben, schneller zu finden«.135 Dem Kalkül des Unternehmens zufolge, würde jede negative Reaktion auf Umfang und Beharrlichkeit des durch die Zeitachse enthüllten Trackings durch den Nutzen wettgemacht, den man aus den aktiven Beiträgen der Nutzer zu ihrem Bestand an Verhaltensüberschuss zog, wenn diese ihre Informationen präzisierten, Fotos, Kommentare usw. hinzufügten. Vorgestellt wurde das alles als Investition des Einzelnen in personalisierte Dienste wie Google Now. Letztlich machte das alles es dem Unternehmen nur noch einfacher, Ihre E-Mails und Apps durchzugehen, um relevanten Traffic zu pushen, Wettermeldungen, Benachrichtigungen, Vorschläge, Erinnerungen etc. Standortdaten sind das Quidproquo für diese Dienste. Versüßt wurde Nutzern die Transaktion durch die üblichen Zusicherungen von Privatsphäre und Kontrolle: »Ihre Zeitachse ist privat und nur für Sie sichtbar; Sie bestimmen, welche Orte sie behalten wollen.« Google benutzt Ihre Standortdaten jedoch für zielgerichtete Werbung; mehr noch, diese Daten sind die wichtigste Quelle für den Überschuss in Googles Werbemärkten, schließlich wirken sie sich direkt auf die Klickrate aus. Google und die anderen Überwachungskapitalisten rechtfertigen das alles in der Regel damit, dass es sich bei dem Verhaltensüberschuss, den man da speichere, schließlich nur um Metadaten handle, die mit denen von Millionen anderen Nutzern in einen Topf kämen. Man versucht uns weiszumachen, es sei unmöglich, in diesem immensen Sammelsurium von Daten den Einzelnen zu identifizieren. Leider ist dem nicht so. Datenwissenschaftler haben bewiesen, dass jemand mittels nur dreier

Angaben, die jederzeit von Behörden zu haben sind – Geburtsdatum, Postleitzahl und Geschlecht –, mit »besorgniserregender Leichtigkeit« deanonymisiert werden kann.136 Der Rechtswissenschaftler Paul Ohm schreibt: »Die Re-Identifizierung macht es von Grund auf leichter, unsere Geheimnisse aufzudecken und zu enthüllen. Unsere Feinde tun sich leichter dabei, uns mit Fakten in Verbindung zu bringen, mit denen sie uns erpressen, belästigen, diffamieren, diskriminieren oder uns etwas anhängen können … Dieses Manko durchzieht fast die ganze Gesetzgebung zum Datenschutz.« Hinsichtlich der immensen Mengen an angeblich anonym gespeichertem Verhaltensüberschuss spricht Ohm von »Datenbanken des Ruins«.137 Was Standortdaten anbelangt, ist die Situation nicht besser. Wie 2013 eine Gruppe vom MIT und ein Computerwissenschaftler aus Harvard bewiesen, ist es für jeden Analysten mit den richtigen Tools ein Leichtes, das Bewegungsprofil eines bestimmten Einzelnen aus einem großen Satz anonymisierter Standortmetadaten herauszulesen, was einfach daran liege, dass Individuen in der Regel ganz bestimmte Bewegungssignaturen zu eigen sind. Ein anderes Forscherteam demonstrierte, dass Daten, wie sie von scheinbar »harmlosen« Sensoren in Smartphones – Beschleunigungsmesser, Kreiselkompass, Magnetometer – ermittelt werden, sich dazu einsetzen lassen, »auf eine ständig wachsende Bandbreite menschlicher Aktivitäten und sogar Stimmungen« zu schließen. Ihre Arbeit zeigt außerdem, dass die Daten dieser Sensoren sich dazu eignen, »sensible Informationen über bestimmte User aus anonymisierten Datensätzen zu erhalten«.138 Unternehmen setzen diese Überwachungsfähigkeiten längst ein. So entwickelte Broadcom ein »globales Navigationssatellitensystem« auf einem Chip, das Satellitenkommunikation mit den Sensoren in Ihrem Handy zu einer »Positioning-Engine« verbindet, die Sie orten kann, selbst wenn Sie nicht mit einem Netz verbunden sind – es ortet Sie in einem Gebäude und weiß, wie viele Schritte Sie in welche Richtung gemacht haben und in welcher Höhe. Und all das hängt nur von einem einzigen Faktor ab, sagt dazu ein Unternehmensvorstand: »dem Gerät in Ihrer Hand«.139 Arvind Naraynan und Edward Felten, zwei Informatiker aus Princeton, fassten den Sachverhalt folgendermaßen zusammen: »Es ist

keine effektive Methode bekannt, Standortdaten zu anonymisieren, und es gibt keinen Hinweis darauf, dass so etwas sinnvoll machbar wäre.«140 Selbst ohne »Deanonymisierung« stellen Standortmetadaten eine unvergleichliche Konzentration von Wissen in der Hand privater Unternehmen und damit einen außerordentlichen Vorteil bei der Wissensteilung dar. 2016 gab der Suchmaschinenbetreiber Baidu, auch »Chinas Google« genannt, bekannt, sein »Big-Data Lab« arbeite mit den Standortdaten seiner 600 Millionen Nutzer, um die Dynamiken der chinesischen Wirtschaft zu tracken und vorherzusagen. Das Unternehmen erstellte einen »Beschäftigungsindex« für die nationale Wirtschaft und einen »Konsumindex«. Außerdem hob man seine Fähigkeit hervor, ganz spezifische Vorhersagen generieren zu können, wie etwa Apples Gewinne in China im zweiten Quartal des Jahres. »Soweit uns bekannt ist«, schrieben die Entwickler von Baidu, »sind wir die ersten, die die zweitgrößte Wirtschaft der Welt durch Mining einer derart beispiellosen Menge detaillierter räumlich-zeitlicher Daten messen.«141 So aussagekräftig Standortdaten sind, Wearables und ihre Apps sind ein weiteres Versuchsgelände bei der Rendition des Körpers.142 2016 stellte man eine neue Generation »mit mehr Sensoren und smarteren Algorithmen bestückter Wearables« vor, »mit Fokus auf biometrischem Monitoring … und … Körperteilen als Leiter für die Datensammlung«. Diese komplexen Sensoren haben Zugang zu Umweltfaktoren … Gerüchen … emotionalen Befindlichkeiten«.143 Google hat internetfähige Gewebe entwickelt und behauptet, es werde leitfähiges Garn in jedes Kleidungsstück und in jedes Gewebe der Welt bringen. »Wenn es gelingt, den Sensor in die Textilien einzuweben, als Stoff«, erklärt Projektleiter Ivan Poupyrev, »dann geht das über die Elektronik hinaus. Man macht die Grundstoffe der Welt um uns herum interaktiv.« Eine Partnerschaft mit Levi Strauss hat bereits zu »interaktivem Denim geführt«; die erste Jacke kam im September 2017 auf den Markt. Wie es heißt, ist der Stoff dazu in der Lage, »auf Verhalten zu schließen«, um »interaktiv und doch authentisch« zu sein.144 Sensoren, die durch das Gewebe »sehen« können, sind in der Lage, Gesten von der Subtilität eines Fingerzuckens zu erkennen und zu dechiffrieren. Mackays Themen ziehen sich ad nauseam durch die Literatur über Wearables. So wie er darauf bestand, dass telemetrische Geräte »außerhalb

des Bewusstseins ungebändigter Tiere« zu operieren hätten, so betonen die heutigen Entwickler, dass Wearables »unaufdringlich« sein müssten, um nicht etwa Unruhe auszulösen. Sie haben »lückenlos« zu sein, »umfassend« und – ganz entscheidend – »billig«, um die benötigten Diversifikationsvorteile zu erreichen.145 Die Digitalmarketingfirma Ovum sagt bis spätestens 2020 650 Millionen tragbare Computer voraus, mit anderen Worten doppelt so viele wie 2016; der Motor hinter diesem Wachstum, so legt die Forschung des Unternehmens nahe, sind die Verlockungen der Überwachungserträge. Werbetreibende, so berichten sie, sehen anziehbare Computer als »Quelle detaillierter Datenerkenntnisse und außerdem als neuen Typ von Verhaltens- und Nutzungsdaten. Wearables der Zukunft werden in der Lage sein, ein breites Spektrum von Daten über Gesundheit, emotionalen Zustand und kontextuelle Aktivität des Nutzers zu erfassen. Mithilfe dieser Informationen lassen sich sowohl Produkte als auch Marketingbotschaften verbessern und in hohem Maße maßschneidern«.146 Der Gesundheitssektor ist ein besonders aktives Versuchsgelände für tragbare Sensortechnologie, eine Entwicklung, die besonders schlimm ist angesichts der eher unschuldigen Ursprünge dieser Idee. Als die Telemetrie von Mackays Herden zum menschlichen Tier migrierte, bestand eine ihrer ersten Anwendungen darin, den Schwachen zu helfen – in Form eines um den Hals zu tragenden Anhängers mit Notruftaster für ältere Menschen, die alleine zu Hause sind. 2002, das Jahr, in dem ein nach wie vor geheimer Überwachungskapitalismus seine ersten Durchbrüche hatte, betonte ein Bericht über »drahtlose Telemedizin« den Wert des Heim-Monitoring für Senioren und für die Expansion medizinischer Leistungen in abgelegene Gegenden. Wie im Falle des Aware-Home-Projekts umfasste ein Diagramm der vorgeschlagenen digitalen Architektur für solche Heim-MonitoringDienste nur drei Parteien; es war mit anderen Worten ein geschlossener Kreis, der eine Patientin in ihrem häuslichen Bett, den Server ihres Krankenhauses und ihren Arzt verlinkt.147 Unbeteiligte Dritte sind in keinem dieser Pläne vorgesehen, keine Unternehmen, die Ihr Verhalten erfassen, keine monströsen Hightech-Konzerne mit porösen Plattformen und proprietären Servern, die Ihr Leben in Verhaltensüberschuss

umwandeln, damit sie darauf wetten können, was wir als Nächstes wollen, um es uns als Erster verkaufen zu können. Vor der Geburt des Überwachungskapitalismus und seiner anschließenden Ausbreitung war es möglich, sich eine digitale Darstellung des Körpers als Bereicherung einer intimen Beziehung zwischen Patient und Arzt, Mutter und Kind, älteren Menschen und ihren erwachsenen Kindern vorzustellen. Mit dem Vormarsch des Überwachungskapitalismus im digitalen Milieu ist diese Vision geradezu lächerlich geworden. Sowohl Aware Home als auch das Design für Telemedizin gingen davon aus, dass Verhaltensdaten in den Dienst am Menschen reinvestiert werden, der stets das Subjekt dieser Arrangements bleibt. Es herrschen Gelassenheit, Vertrauen und Würde – eine Chance für echtes Wissen und Befähigung. Zahlreiche Artikel zum Thema Gesundheitsmonitoring betonen nach wie vor dessen Nützlichkeit für Senioren, aber der Diskurs hat sich ganz entschieden wegbewegt von seinem früheren Stand der Gnade. So einige Forscher antizipieren die Fusion von smarten Städten mit dem, was man heute als »mHealth« bezeichnet, zur »Smart Health«. Letzteres definiert sich als die »Bereitstellung gesundheitlicher Dienstleistungen unter Nutzung der kontextsensitiven Netzwerke und Sensing-Infrastruktur smarter Städte«.148 Zu diesem Zweck gibt es mittlerweile verlässliche Sensoren für die Rendition einer zunehmenden Reihe physiologischer Prozesse zu Verhaltensdaten: Körpertemperatur, Herzfrequenz, Hirnaktivität, Muskelbewegungen, Blutdruck, Schweißabgaberate, Energieverbrauch und jede einzelne Bewegung Ihres Körpers.149 Es gibt Sensoren für die Erfassung von visuellen, Audio- und physiologischen Daten während der postoperativen Erholung und der Rehabilitation.150 Man hat flexible Sensorpflaster entwickelt, die Atmung sowie Hand-, Schluckund Gehbewegungen als Verhaltensdaten erfassen können.151 In anderen Applikationen liefern »anziehbare Sensoren präzise biomechanische Analysen«, wenn Sie gehen oder laufen, und ein »Wireless Body Area Network« zeichnet beim Gehen oder Laufen »unter extremen Bedingungen« Ihre Werte auf und analysiert sie dabei.152 Es legt beredtes Zeugnis über das Versagen des Gesundheitswesens bei der Versorgung der Individuen der Zweiten Moderne ab, dass wir auf Gesundheitsdaten und einschlägigen Rat per Telefon zugreifen, während

dieser Taschencomputer auf aggressive Weise auf uns zugreift. Und da diese Individuen bei ihrer Suche nach Rat und Unterstützung in Rekordzahlen zu Fitnessarmbändern und Ernährungs-Apps greifen, hat mHealth eine Explosion an Rendition und Erfassung von Verhaltensüberschuss ausgelöst.153 2016 gab es für die Plattformen Android (Google) und iOS (Apple) bereits über 100 000 mobile Gesundheits-Apps, doppelt so viele wie 2014.154 Diese Datenfülle lässt sich einfach nicht mehr als intimer, in sich geschlossener Informationskreislauf zwischen einer Patientin und ihrem Arzt oder einer App und ihren ernährungsbewussten oder joggenden Anwendern sehen. Das Idyll mag sich hier und da gehalten haben, sicher, ist aber in den Augen der Überwachungskapitalisten nur noch ein verblasstes Bild aus längst vergangenen Zeiten. In den USA unterliegen der größte Teil dieser Gesundheits- und FitnessApps keiner Datenschutzregelung, und die wenigen Gesetze, die es diesbezüglich gibt, berücksichtigen weder die neuen digitalen Fähigkeiten noch die Heftigkeit überwachungskapitalistischer Operationen, jedenfalls nicht in angemessener Weise. Man erwartet von Unternehmen Selbstregulierung gemäß von der Bundeshandelskommission und anderen Behörden vorgeschlagener Richtlinien. So gab zum Beispiel 2016 die Bundeshandelskommission eine Liste mit Best-Practices für die Entwickler mobiler Gesundheits-Apps heraus, die auf mehr Transparenz, Datenschutz und Sicherheit abzielen. In diesen sehen sich die Entwickler unter anderem aufgefordert, »dafür Sorge zu tragen, dass ihre App nicht auf Verbraucherinformationen zugreift, die sie nicht braucht«, »den Benutzer über bestimmte Kontakte selbst bestimmen zu lassen, anstatt ihre App über die Standardschnittstelle auf die gesamte Kontaktliste des Nutzers zugreifen zu lassen«; außerdem sollten sie darauf achten, den Nutzer »die Entscheidung über Datenschutzeinstellungen selbst treffen« zu lassen.155 Im selben Jahr ließ das amerikanische Bundesamt für Nahrungs- und Arzneimittel (FDA) verlauten, man würde Gesundheits- und Fitness-Apps nicht zu regulieren versuchen, da sie nach Ansicht der Behörde nur ein »geringes Risiko« darstellen. Die Behörde gab stattdessen einen eigenen Satz unverbindlicher Richtlinien für Softwareentwickler heraus.156 Die Richtlinien der Behörden meinen es durchaus gut, übersehen aber die unbequeme Wahrheit, dass die Überwachungskapitalisten sich mit

Transparenz und Datenschutz so schwertun wie die frühen Industriekapitalisten mit der Verbesserung der Arbeitsbedingungen, der Abschaffung der Kinderarbeit oder der Verkürzung des Arbeitstags. Es bedurfte damals einer gezielten Gesetzgebung, um die Arbeitsbedingungen zu verbessern; mit Vorschlägen war es nicht getan. Damals wie heute sind die Probleme, die man mit diesen unverbindlichen Aufforderungen zur Zurückhaltung anzugehen versucht, nicht als Exzesse, Fehler, Versehen oder Fehlerurteile zu verstehen. Sie ergeben sich aus der herrschenden Akkumulationslogik und ihrer unerbittlichen ökonomischen Imperative. Eine Überprüfung mobiler Gesundheits-Apps vom rechtlichen Standpunkt aus kommt zu dem Schluss, dass die meisten von ihnen sich »privater Informationen und Daten des Verbrauchers ohne dessen Einwilligung bemächtigen und den Nutzer in der Regel nicht darüber informieren, dass man diese Informationen Werbeunternehmen zuschicken wird«.157 Eine lange Reihe von Studien bestätigt dies,158 aber konzentrieren wir uns hier auf eine eingehende Untersuchung von Wissenschaftlern der Munk School of Global Affairs an der University of Toronto in Zusammenarbeit mit Open Effect, einer Nonprofit-Einrichtung für digitale Privatsphäre und Sicherheit. Munk und Open Effect nahmen Erfassung, Verarbeitung und Nutzung von Daten am Beispiel von neun Fitness-Trackern unter die Lupe.159 Sieben wählte man ihrer Beliebtheit wegen, einer kam von einer kanadischen Firma, der neunte war eine App, die sich speziell an die weibliche Kundschaft richtet. Alle außer zwei dieser Apps übermittelten jeden geloggten Einsatz an die Server ihrer Hersteller, was neben dem Backup der Daten auch das Teilen mit Freunden ermöglichte, aber eben auch die »Analyse« und die Weitergabe an unbeteiligte Dritte. Einige der Tracker übermittelten Nummern zur Identifizierung des Geräts; andere übermittelten fortwährend und passiv die genauen GPS-Koordinaten ihrer Nutzer. Mit diesen Identifikatoren ließen sich »Fitness- und biografische Daten auf eine bestimmte Hardware, ein Mobiltelefon oder ein bestimmtes Fitness-Wearable beziehen«. Keine dieser sensiblen Informationen wäre für einen effektiven Einsatz des Trackers nötig gewesen, und die Datenschutzrichtlinien waren günstigstenfalls undurchsichtig und gestatteten den »Verkauf und Tausch der Daten«. Und wie wir mittlerweile

wissen, hat ein Dritter unseren Überschuss erst einmal in Händen, wird er wieder mit Dritten geteilt und so weiter. Außerdem sah sich das Team die Datenübertragung über den Bluetooth Media Access Controller (MAC) an, über den jedes Telefon verfügt und dessen Adresse einmalig und damit ein eindeutiger Identifikator ist. In dem Augenblick, in dem die MAC-Adresse öffentlich sichtbar ist, kann jeder Dritte mit einem Interesse an Ihren »Bewegungen« – Einzelhändler, die wissen wollen, was Sie im Einkaufszentrum treiben, Versicherer, die wissen wollen, ob Sie sich an Ihr Fitnessregime halten – Ihr Telefon »ständig« verfolgen. Im Lauf der Zeit geloggte Datensätze lassen sich zu einem detaillierten Bewegungsprofil kombinieren, was zielgerichtete Applikationen ermöglicht, was wiederum die Wahrscheinlichkeit garantierter Ergebnisse im Vorhersagegeschäft erhöht. Der einzige wirkliche Schutz wäre gegeben, wenn eine App regelmäßig eine neue, randomisierte MAC-Adresse für Ihr Telefon generieren würde, aber von den neun Trackern machte das nur der von Apple. Und als wäre das alles noch nicht beunruhigend genug, weist der Bericht auf die allgemeine Sorglosigkeit der Unternehmen sowohl was die Datensicherheit an sich angeht als auch die Möglichkeit, falsche Daten zu generieren. Wie die Forscher schreiben, ist die Information des Verbrauchers diesbezüglich bewusst irreführend und unverständlich, damit er einerseits die eingebauten Sicherheitsmaßnahmen überschätzt und andererseits »das Spektrum persönlicher Daten, die von den Herstellern dieser Fitness-Tracker gesammelt werden« unterschätzt. »Wir haben ernsthafte Sicherheitsmängel festgestellt«, so der Schluss der Forscher, »so etwa die Übertragung sensibler Ortungsdaten, die keinen ersichtlichen Nutzen für den Verbraucher haben, und … Datenschutzrichtlinien, die dem Verkauf ihrer Fitnessdaten an Dritte auch ohne ausdrückliche Einwilligung Tür und Tor öffnen«.160 Sollten Sie jetzt geneigt sein, diesen Bericht abzutun, da Fitness-Tracker ja wohl eher unter Spielzeug fallen, sehen wir uns noch eine eingehende Untersuchung Android-basierter Diabetes-Apps an, die 2016 im Journal of American Medicine erschien. Sie illustriert auch ganz vorzüglich die Gier, mit der man die Rendition unseres Körpers betreibt.161 Wie die Forscher schreiben, habe das Bundesamt für Nahrungs- und Arzneimittel zwar der

Verschreibung einer ganzen Reihe von Apps durch den Arzt zugestimmt, sich dabei aber »nicht intensiv genug« damit befasst, was hinter den Kulissen mit den übertragenen Daten passiere. Sie prüften 211 DiabetesApps und unterzogen davon 65 per Zufallsprinzip ausgewählte einer näheren Analyse ihrer Datenübertragungspraktiken. Schon mit dem bloßen Download der Apps »autorisierte die Software automatisch die Erfassung und Modifikation sensibler Informationen«. Und auch hinter den Kulissen spielte sich einiges ab: So etwa fanden die Forscher Apps, die Ihre Informationen modifizieren oder gar löschen (64  %), den Status Ihres Telefons und Ihre Identität erfassen (31 %), Standortdaten erfassen (27 %), Ihre WLAN-Verbindungen einsehen (12 %) und Ihre Kamera aktivieren, um sich Zugang zu Ihren Fotos und Videos zu verschaffen (11 %). Zwischen 4 % und 6 % gingen noch viel weiter: Sie lasen das Adressbuch, wählten Telefonnummern an, die man auf dem Gerät fand, modifizierten Kontakte, erfassten die Logs der getätigten Anrufe und aktivierten das Mikrofon, um Stimmen aufzunehmen. Schließlich entdeckten die Forscher ein noch weit dunkleres Geheimnis: Datenschutzrichtlinien spielen schlicht keine Rolle. Von den 211 Apps in der Gruppe hatten 81 % noch nicht einmal welche, und bei den übrigen »dienten nicht alle Bestimmungen tatsächlich dem Schutz der Privatsphäre«. Von den Apps ohne Datenschutzrichtlinien teilten 76 % sensible Informationen mit Dritten, und von den mit Datenschutzrichtlinien teilten 79 % Ihre Daten mit Dritten, wobei nur etwa die Hälfte von ihnen diesen Umstand in ihren einsehbaren Richtlinien auch tatsächlich einräumte. Datenschutzrichtlinien wären mit anderen Worten weit treffender mit dem Begriff Überwachungsrichtlinien abgedeckt, den ich denn auch hier vorschlagen möchte. Es gibt eine ganze Reihe neuer Territorien für die Körper-Rendition: Organe, Augen, Blut, Hirnströme, Gesichter, Haltung, Gang … In jedem kommen dieselben Muster zum Ausdruck, derselbe Zweck, wie wir ihn bereits kennen. So skrupellos wie unerbittlich bekämpfen Überwachungskapitalisten jeden Versuch, die Rendition irgendwie einzuschränken. Die Heftigkeit, mit der sie auf ihr völlig aus der Luft gegriffenes »Recht auf Rendition« bestehen, belegt dessen fundamentale Bedeutung bei der Jagd nach Überwachungserträgen.

Eine gute Illustration dieser Heftigkeit findet sich in der Entschlossenheit, mit der Überwachungskapitalisten gegen eine gesetzliche Regelung der Rendition biometrischer Informationen, insbesondere zur Gesichtserkennung, vorgehen. Da diese in den USA nicht durch Bundesgesetz geregelt ist, führt man diese Schlacht auf bundesstaatlicher Ebene. Den umfassendsten rechtlichen Schutz bietet gegenwärtig der Illinois Biometric Privacy Act, demzufolge Unternehmen der schriftlichen Einwilligung bedürfen, um die biometrischen Informationen einer Person erfassen zu können; außerdem gibt das Gesetz dem Einzelnen unter anderem das Recht, ein Unternehmen im Falle einer ungenehmigten Rendition zu verklagen.162 Das Center for Public Integrity hat in Zusammenarbeit mit Journalisten, Datenschützern und Rechtswissenschaftlern die aktive Opposition der Überwachungskapitalisten gegen das Gesetz in Illinois und ähnliche Gesetzesvorlagen in anderen Bundesstaaten dokumentiert. Mit seinen einzigartigen Wettbewerbsvorteilen in Sachen Gesichtserkennung gilt Facebook als das kompromissloseste aller Tech-Unternehmen, wenn es um biometrische Daten geht. Wie es heißt, arbeitet das Unternehmen »fieberhaft daran zu verhindern, dass andere Bundesstaaten Gesetze wie das von Illinois verabschieden«.163 Facebook hat seine politische Macht in nur wenigen Jahren beträchtlich ausgebaut und ist fest entschlossen, Googles Lehrbuch politischer und kultureller Befestigungen umzusetzen. Der Gründer des Unternehmens, Mark Zuckerberg, legt eine eiserne Entschlossenheit bei der Verteidigung seiner Freiheiten in einem rechtsfreien Raum an den Tag. Ständig versucht er, die Grenzen bestehender Regeln zu erweitern, während er jede Bemühung um neue Gesetze im Keim zu ersticken versucht. Zwischen 2009 und 2017 erhöhte Facebook seine Ausgaben für das Lobbying um das 50-Fache und konnte so »eine massive Lobbying-Entourage von Strippenziehern in Washington« aufbauen.164 Allein während des Wahlkampfs 2016 gab Facebook 4,6 Millionen Dollar aus; 2017 betrug das Lobbying-Budget des Unternehmens 11,5 Millionen Dollar.165 Zuckerbergs Vorteile bei der Biometrik sind erheblich. 2017 luden die zwei Milliarden Nutzer, die Facebook jeden Monat besuchen, 350 Millionen Fotos hoch – pro Tag. Daraus ergibt sich eine

Versorgungsoperation, die seine hauseigenen Entwickler als »praktisch unbegrenzt« bezeichnen.166 2014 ließ ein Forscherteam des Unternehmens verlauten, man habe »die Lücke geschlossen« und sei nun in der Lage, Gesichter »in freier Wildbahn« mit einer Treffsicherheit von 97,35 % zu erkennen und nähere sich damit »einer Performance von menschlichem Niveau«.167 Der Bericht streicht die Nachschub- und Herstellungsvorteile des Unternehmens heraus, vor allem den Einsatz von »Deep-Learning« auf der Basis »großer Trainings-Sets«.168 Facebook machte keinen Hehl aus seiner Begeisterung, die Gesichtserkennung für mehr Schlagkraft bei der zielgerichteten Werbung einsetzen zu können; einen weit massiveren Aufschwung jedoch brachte die immense Maschine zur Verfeinerung seiner Algorithmen, die Facebook diese ungeheure Masse an Fotos bot. Bereits 2018 lernten diese Maschinen Aktivitäten zu unterscheiden, Interessen, Stimmungen, Blicke, Kleidung, Gang, Frisuren, Körpertyp und Haltung.169 Die Marketingmöglichkeiten sind grenzenlos. Es dürfte niemanden, der sich mit dem Vorhersageimperativ beschäftigt hat, überraschen, dass Facebook mit einem derart guten Blatt auf der Hand kaum etwas anderes akzeptieren wird als die totale Kapitulation bei seiner Schlacht um die Verdatung von Gesichtern um eines lukrativeren Vorhersageprodukts willen. Bislang hatten Facebook und Co. Erfolg mit ihrem Widerstand. So konnte man Gesetzesvorlagen in Montana, New Hampshire, Connecticut und Alaska abbügeln; im Bundesstaat Washington kam eine einschlägige Vorlage nur erheblich verwässert durchs Parlament. Facebook war, als einzigem Tech-Unternehmen übrigens, selbst diese zahnlose Fassung zu viel.170 Wird die Rendition unterbrochen, wird sich auch der Überwachungskapitalismus nicht halten – die ganze Unternehmung steht und fällt mit dem Sündenfall. Vielleicht die beste Illustration dafür ist das öffentliche Drama 2015 um den erfolglosen Versuch, durch einen freiwilligen »Datenschutzprozess unter Beteiligung aller Stakeholder« allgemeingültige Richtlinien zu Erfassung und Nutzung biometrischer Informationen zu schaffen. Aufgerufen hatte dazu die Nationale Fernmeldeund Informationsunion (NTIA) beim Bundeshandelsministerium. Nach wochenlangem Tauziehen verließen die Verbraucherschützer die Verhandlungen aus Protest über die unnachgiebige Position der Tech-

Unternehmen und ihrer Lobbyisten im entscheidenden Punkt: die Einwilligung der Betroffenen. Die Unternehmen bestanden auf ihr Recht, Gesichtserkennungssysteme dazu einzusetzen, »einen Fremden auf der Straße« zu erkennen, ohne zuerst dessen Einwilligung einzuholen. Ein an den Gesprächen beteiligter Lobbyist sagte der Presse: »Jeder hat das Recht, in der Öffentlichkeit zu fotografieren …Wenn jemand hier Gesichtserkennung einsetzen will, sollte er dann wirklich erst vorher um Erlaubnis fragen müssen?«171 Datenschutzexperten konterten sofort, dass von einem solchen Recht nirgendwo die Rede sei, schon gar nicht im Ersten Verfassungszusatz.172 Niemand rechnete mit der Tatsache, dass der Vorhersageimperativ die Unwissenheit zur bevorzugten Vorbedingung für die Rendition-Operationen macht – ganz Arendts Erkenntnissen entsprechend und wie Mackay das für Tiere in der freien Wildbahn gefordert hatte. Die Sünde scheut das Licht. Man setzte die Gespräche ohne die Datenschützer fort, und 2016 gab die NTIA eine »Best-Practices-Empfehlung für die kommerzielle Nutzung der Gesichtserkennung« heraus.173 Das »best« im Titel dieser Empfehlung versteht man am besten als auf die Überwachungskapitalisten bezogen; für alle anderen sollte man besser von »Worst-Practices« sprechen. In der Sprache dieser Empfehlungen sehen sich Tech-Unternehmen, Einzelhändler und andere, die hinter Überwachungserträgen herjagen, gerade mal »angehalten«, ihre Richtlinien zur Gesichtserkennung »Verbrauchern in zumutbarer Weise zugänglich zu machen«. Wo immer Unternehmen Gesichtserkennung auf eine physische Örtlichkeit anwenden, sind sie »angehalten«, dies den Verbrauchern »anzuzeigen«.174 Man verleiht Rendition-Operationen damit stillschweigend Legitimität: nicht nur weil niemand Einspruch erhebt, sondern weil sie unverrückbare Tatsachen sind – mit dem Flitter zahnloser »Best-Practices« behängt. Alvaro Bedoya, ein Rechtswissenschaftler von der Georgetown University, ein Mitglied der Gruppe von Datenschützern, die die Beratungen verlassen hatte, schimpfte die Empfehlungen »eine Farce eben jener Prinzipien fairer Informationspraxis, mit der man sie begründet«. Sie bieten »dem Einzelnen keinen wirklichen Schutz« und »können unmöglich ernst genommen werden«.175

Unter dem Regime des Überwachungskapitalismus gibt der Einzelne seine Erfahrung weder heraus, weil er die Wahl hätte, noch weil er dazu verpflichtet wäre, sondern einfach aus Unwissenheit und unter der Diktatur der Optionslosigkeit. Der allgegenwärtige Apparat baut auf Heimlichkeiten und Zwang. So wie sich unser Leben entwickelt, kommen wir am Digitalen nicht vorbei, wo die unbeabsichtigte bzw. unfreiwillige Rendition zum unausweichlichen Fakt geworden ist. Wir haben in den seltensten Fällen das Recht zu wissen oder zu entscheiden, wer weiß oder zu entscheiden, wer entscheidet. Diese abnorme Wissensteilung wird heimlich per Handstreich geschaffen und aufrechterhalten, durch unsichtbare Methoden implementiert und von Unternehmen dirigiert, die nach den ökonomischen Imperativen einer merkwürdigen neuen Marktform operieren. Hinter den Kulissen ziehen die Überwachungskapitalisten die Fäden, während das Ensemble auf der Bühne uns mit hehren Reden von Offenheit und Konsens einzulullen versucht. Der Vorhersageimperativ wandelt die Dinge, die wir haben, um in Dinge, die uns haben, um die ganze Bandbreite unserer Welt – unserer Erfahrung, unseres Zuhauses und unseres Körpers – in sich verhaltende Objekte umzuwandeln, die sich auf dem Weg zum Profit berechnen und weiterverarbeiten lassen. Die Chronik der Rendition ist hier jedoch noch nicht zu Ende. Für den zweiten Akt müssen wir unsere Wohnzimmer, unsere Straßen verlassen und unter die Oberfläche gehen, wo sich das innere Leben abspielt.

Kapitel 9 Rendition aus den Tiefen Ich spürte nichts, da griff ich zu … – Leonard Cohen, Halleluja

Personalisierung als Eroberung 2016 stellte Satya Nadella im Rahmen von Microsofts alljährlicher IgniteKonferenz Cortana vor – die »persönliche digitale Assistentin« des Unternehmens: Diese neue Kategorie persönlicher digitaler Assistenten ist ein Runtime, ein neues Interface. Cortana kann Textinput übernehmen. Sie kann Sprachinput übernehmen. Sie kennt Sie bis ins Innerste. Sie kennt Ihren Kontext, Ihre Familie, Ihre Arbeit. Sie kennt die Welt. Sie ist grenzenlos. Mit anderen Worten, sie ist Ihnen auf den Leib geschneidert. Wohin Sie auch immer gehen, sie geht mit. Sie ist auf jedem Smartphone verfügbar – ob iOS, Android oder Windows spielt keine Rolle. Sie ist über alle Applikationen hinweg verfügbar, die Sie je im Leben einsetzen werden.1 Wir sprechen hier von einem neuen Grenzgebiet an Verhaltensüberschuss, in dem man den dunklen Kontinent Ihres Innenlebens – Ihre Absichten und Motive, Lebensinhalte und Bedürfnisse, Vorlieben und Sehnsüchte, Stimmungen und Emotionen, Persönlichkeit und Veranlagungen, Ihre Wahrheitsliebe oder Ihre Lügen – zum Profit von Dritten ans Tageslicht bringt. Sinn und Zweck der Operation besteht nicht etwa darin, Ihnen

gegebenenfalls zu helfen, sondern Ihr Verhalten in unermesslich kleinen Inkrementen zur Berechnung verfügbar zu machen, sodass jedes einzelne davon sich auf dem Fließband einreiht, das diese Rohstoffe in Richtung Produktentwicklung, Fertigung und Verkauf befördert. Implementiert wird dieser maschinelle Einmarsch in die menschlichen Tiefen unter dem Banner der »Personalisierung«. Aus diesem Schlagwort sprechen der Eifer und der Zynismus, mit dem man sich auf die zweifelhafte Herausforderung stürzt, die Bedürfnisse und Unsicherheiten der Zweiten Moderne für überdimensionale Gewinne auszubeuten. Von der Warte des Vorhersageimperativs aus ist Personalisierung nichts weiter als ein Mittel zur »Individualisierung« der Versorgungsoperationen, mit dem man sich einen beständigen Fluss an Verhaltensüberschuss aus der Tiefe menschlichen Seins sichern will. Zu bewerkstelligen freilich ist das ausschließlich vor dem Hintergrund unseres anhaltenden Hungers nach Anerkennung, Wertschätzung und – vor allem – Unterstützung. Sie erinnern sich, dass Googles Chefökonom Hal Varian einer der ersten war, die diesen Weg vorzeichneten. »Personalisierung und individueller Zuschnitt« sind ihm zufolge die dritte »neue Einsatzmöglichkeit« rechnergestützter Transaktionen. Anstatt Google Search Fragen stellen zu müssen, sollte »Google wissen, was Sie wollen, und es Ihnen sagen, bevor Sie die Frage stellen«. Beauftragt wurde damit Google Now, der erste digitale Assistent des Unternehmens. Varian wies darauf hin, dass die Nutzer Google noch viel mehr von sich würden preisgeben müssen, um den Wert der Anwendung voll auszuschöpfen: »Google Now muss noch viel mehr über Sie und Ihr Umfeld wissen, um diese Dienstleistungen anbieten zu können. Das macht dem einen oder anderen Sorgen.« Diese Bedenken rationalisiert er damit, dass er die Herausgabe persönlicher Daten an Google mit der Intimität einem Arzt, Anwalt oder Steuerberater gegenüber vergleicht. »Warum sollte ich diese persönlichen Informationen teilen wollen?«, fragt er. »Weil ich etwas dafür bekomme … Diese digitalen Assistenten werden so nützlich sein, dass jeder einen haben möchte.« Varian ist also zuversichtlich, dass die Bedürfnisse der Individuen der Zweiten Moderne den natürlichen Widerwillen gegenüber der Rendition persönlicher Erfahrungen als Quidproquo unterwandert, dass letztlich das in

Aussicht gestellte Paradies eines mehr oder weniger stressfreien, effektiveren Lebens alle einschlägigen Bedenken überwiegen wird.2 Nur hat Varians Vorstellung von Personalisierung eben nichts zu tun mit dem Vertrauensverhältnis zwischen Arzt und Patient oder Anwalt und Mandant, denn es ist genau das Gegenteil. Ärzte, Anwälte, Steuerberater sind gegenseitigen Verpflichtungen und Abhängigkeiten unterworfen, die aus der Institutionalisierung ihrer Ausbildung, bestimmten Verhaltenskodizes sowie der Aufsicht von Ärzte- bzw. Anwaltskammer erwachsen sind. Verstöße gegen diese Regeln sind mit entsprechenden Strafen bewehrt. Google und seine überwachungskapitalistischen Gesinnungsgenossen riskieren dergleichen nicht. Varians Äußerungen sind eine der seltenen Gelegenheiten, bei denen sich der Nebel technologischer Rhetorik gerade einmal so weit lichtet, um einen Blick auf den Nutzen sozialer und ökonomischer Ungleichheit für die überwachungskapitalistische Mission zu erlauben. Varians Argumentation zufolge bietet die Ungleichheit eine Gelegenheit, die Einsätze bei Googles Quidproquo für ein effektives Leben zu erhöhen. So sagt er etwa, eine Möglichkeit, die Zukunft vorauszusagen, bestehe darin, Daten darüber zu erfassen, was reiche Leute besitzen, weil das genau das sei, was die Mittelschicht und die Armen wollen. »Was haben reiche Leute heute?«, so seine rhetorische Frage. »Persönliche Assistenten.« Dass der Luxus einer Generation oder Klasse der nächsten zur Notwendigkeit wird, war grundlegend für die Entwicklung des Kapitalismus der letzten fünfhundert Jahre. So beschreiben Historiker den »Verbraucherboom«, der die erste industrielle Revolution Ende des 18. Jahrhunderts in Großbritannien befeuerte, als dank einiger Visionäre wie Josiah Wedgwood und der Innovationen der ersten modernen Fabriken eben in die Mittelschicht aufgerückte Familien Porzellan, Möbel und Textilien zu kaufen begannen, die sich zuvor nur die Reichen hatten leisten können. Diese neue »Neigung zu verbrauchen« gilt als »beispiellos in der Tiefe, in der sie die unteren Schichten durchdrang«.3 1767 äußerte der Volkswirt Nathaniel Forster die Besorgnis, dass der »modische Luxus« sich »wie eine ansteckende Krankheit« ausbreite, und beklagte den »nimmermüden Ehrgeiz bei allen niederen Ständen, zum Niveau der direkt über ihnen aufzusteigen«.4 Aufschlussreiche Einblicke in diesen Prozess bot Adam

Smith, der beobachtet hatte, dass die Luxusgüter der oberen Schichten mit der Zeit zu »lebenswichtigen Gütern« werden. Dazu kommt es, wenn die »üblichen Regeln der Schicklichkeit« sich dahingehend verändern, dass sie neue, von Eliten eingeführte Gebräuche reflektieren und damit zu billigeren Produktionsmethoden führen, die aus einst unerschwinglichen Waren neue erschwingliche Güter und Dienstleistungen machen.5 Fords Model T ist das beste Beispiel dieser Progression im 20. Jahrhundert, aber sie kommt in allen Jahrhunderten vor. Varian stellt die Personalisierung als das heutige Gegenstück dieser historischen Dynamiken und damit als Lösung dar. Das neue »lebenswichtige Gut« verspricht Erleichterung für die von stagnierenden Löhnen, Doppeljobs, gleichgültigen Konzernen und einer durch Sparmaßnahmen leeren öffentlichen Hand unter Druck geratenen Massen. Varian sieht im digitalen Assistenten eine so wichtige Ressource im Ringen um ein effektives Leben, dass sie jeden zu leistenden Verzicht in Kauf nehmen werden. »Unmöglich, den Geist wieder in die Flasche zu bekommen«, meint der Inevitabilist. »Kein Mensch wird mehr etwas gegen Tracking und Monitoring haben, so groß wie die Vorteile hinsichtlich Komfort, Sicherheit und Dienstleistungen sein werden … das ständige Monitoring wird zur Norm werden.«6 Für alle – diejenigen ausgenommen, die reich oder stur genug sind, auch ohne Googles Hilfe ein effektives Leben zu führen, und die so den schlimmsten Exzessen der Rendition entgehen. Wo Entscheidungsrechte und Selbstbestimmung zunehmend Privilegien der Reichen werden, hat Varian keine Antwort für die, die dieselben Privilegien einfordern. Historisch führten Durchbrüche bei Billiggütern und Dienstleistungen immer zur Expansion der Produktion und damit zu mehr Arbeitsplätzen, höheren Löhnen und einem besseren Lebensstandard für viele. An solche Reziprozitäten denkt Varian freilich nicht. Stattdessen legt er den Finger in die Wunde der Zweiten Moderne – ihre Unsicherheiten – und benutzt unseren Schmerz für die Ziele des Überwachungsprojekts. Für Varian ist der Hunger nach neuen »lebenswichtigen Gütern« eine Gelegenheit zur Enteignung; er liefert ihm sogar bequemerweise die Rechtfertigung dafür, dabei bis in die intimsten Tiefen zu gehen.

Google Now war nur ein erster Schritt, eine Gewöhnungsübung, die den Weg für das ebnete, was noch kommen sollte. Unter dem Begriff »prädiktive Suche« kombinierte man alles, was Google bis dahin entwickelt hatte: die Leistungen des Unternehmens bei Stimmsuche und neuralen Netzwerken, seinen allwissenden Knowledge Graph und seine unvergleichbaren Fähigkeiten in Sachen Maschinenintelligenz. Und aufgefahren hatte man all das Geschütz, um aus Ihrem Content, Kontext und Ihrem Verhalten zu lernen – durch Ihre Suchen, Ihre E-Mails und Ihren Terminkalender, aber auch durch die Daten aus Ihrem Telefon, Ihrer Stimme, Ihren Bewegungen, Aktivitäten und Apps.7 Und dieses Mal bestand das Ziel nicht nur darin, Anzeigen zu verkaufen, sondern »die Informationen zu erraten, die Sie in jedem beliebigen Augenblick brauchen werden« auf Ihrem Weg durch die reale Welt.8 »Google Now«, heißt es vollmundig in einem Promovideo, »ist immer einen Schritt voraus, um Sie mit mehr Selbstvertrauen und Zuversicht durch Ihren Tag zu lenken … mit der prädiktiven Power von Now bekommen Sie genau das, was Sie wissen müssen, wann Sie es brauchen.«9 »Es ist, als käme die Suchmaschine zu Ihnen«, schwärmte ein Rezensent.10 Jedes Begehr vorausahnend schwimmen einem die Infokarten der App auf dem Homescreen des Smartphones entgegen: ein Hinweis auf eine geänderte Abflugzeit, Wetter- und Verkehrsmeldungen, nahe gelegene Restaurants und Geschäfte, das Museum, das Sie schon immer mal besuchen wollten. Der Logik eines Google-Managers zufolge weiß das Unternehmen ohnehin schon alles über Sie, warum also nicht einen Dienst daraus machen, der dem Unternehmen noch besseren Zugang zu Ihren Informationen verschafft: »Google wird wissen, wann mein Flieger startet, ob mein Paket bereits angekommen ist und wo meine Frau ist und wie lange sie brauchen wird, um heute Nachmittag nach Hause zu kommen … Selbstverständlich weiß Google das.« Google Nows seherische Fähigkeiten folgen dem nunmehr sattsam bekannten Muster. Sie stammen aus Maschinenprozessen, die man mittels eines endlosen Verhaltensstroms – virtuell wie aus der realen Welt – trainiert. Warum verwandte Google eine derartige Rechenleistung und wertvollen Verhaltensüberschuss darauf, Ihnen mit so viel Aufmerksamkeit

durch den Tag zu helfen? Nun, der Grund ist einfach der, dass Google Now eine neue Klasse von Vorhersageprodukten signalisierte. Googles bahnbrechender Crawler erlaubte ein blitzschnelles Indexieren des World Wide Web; in einem nächsten Schritt erlaubte der allgegenwärtige Apparat das Crawling der Realität; heute, in der dritten Phase, besorgen hochspezialisierte Versorgungsoperationen das Crawling unseres Lebens. Bei Google Now sahen wir bereits einen ersten Vorstoß in diesen neuen Raum, bei dem man die Fähigkeiten des Webcrawlers, Informationen aufzuspüren, mit diesen neuen Life-Crawling-Operationen zusammenspielt, um unser Verhalten zu erfassen, zu antizipieren und, wie wir noch sehen werden, letztlich auch zu verändern. Verhaltensüberschuss, online wie offline, sei es der Inhalt Ihrer E-Mails, Ihr Aufenthaltsort gestern Nachmittag, was Sie gesagt oder getan haben, Ihre Befindlichkeit – alles wird zu Vorhersageprodukten kombiniert, in denen jeder Aspekt Ihrer Alltagsrealität zum Freiwild wird. Ein weiteres Beispiel für diese neue Phase ist Facebooks »M«, das 2015 als Teil der Messenger-App gestartet wurde. Vorgestellt hat man ihn als persönlichen Assistenten, »der Aufgaben bewältigt, die kein anderer Personal Assistant erledigen kann«. Hinter alledem stehe eine »künstliche Intelligenz, die von Menschen trainiert und beaufsichtigt wird«.11 Der bei Facebook für die Messaging-Produkte zuständige Vorstand beschrieb die Ziele des Unternehmens bezüglich M folgendermaßen: »Für den Anfang erfassen wir Ihre Absichten aus dem, was Sie vorhaben. Oft führt eine Absicht auch zu einem bestimmten Kauf oder zu einer Transaktion, woraus sich für uns mit der Zeit eine Gelegenheit [zum Geldverdienen] ergibt.«12 Wichtiger noch sei, so betont er, dass »M aus menschlichem Verhalten lernt«.13 Trainieren wollte man die Maschinen des Unternehmens mit dem Verhaltensüberschuss aus den Messages von 700 Millionen Nutzern am Tag. Irgendwann, so hoffte man, sollte M dann auch sein Training selbst übernehmen. 2017 hatte Facebook seine Ambitionen in Sachen Maschinenintelligenz etwas zurückgeschraubt und konzentrierte sich mit seinem persönlichen Assistenten auf seine Kernmission: den Kommerz. »Das jetzige Team sucht nach Wegen, die im Messenger angelegte kommerzielle Absicht zu aktivieren«, ließ ein Manager des Unternehmens verlauten. Der Gedanke

dahinter sei »die Priorisierung kommerzgetriebener Erfahrungen« sowie die Entwicklung neuer Möglichkeiten für den Nutzer, »rasch mal etwas zu kaufen«, ohne lange Kreditkarteninformationen einzugeben, Seiten durchzublättern oder Applikationen zu öffnen. So werden sich während eines Telefonats mit Freunden Pop-up-Buttons öffnen, wann immer das System eine »kommerzielle Absicht« entdeckt. Dann brauchen Sie nur draufzutippen, um etwas zu bestellen, zu kaufen oder zu buchen. Den Rest erledigt das System.14 So entpuppt sich der »persönliche digitale Assistent« denn rasch als Avatar des Markts, als ein weiteres trojanisches Pferd, bei dem sich die Absicht, unser Leben zu verdaten und zu monetarisieren hinter dem Schleier der »Hilfestellung« und Wortgeklingel wie »Personalisierung« verbirgt. Seine freundlichen Empfehlungen, sein Rat und die Dienstfertigkeit, mit der er sich einem andient, vermögen kaum den aggressiven neuen Marktkosmos zu verbergen, der damit wie ein Damoklesschwert über jedem Aspekt unseres Alltags schwebt. Dessen Gestirne können Restaurants sein, Banken, Klempner, Einzelhändler, Kartenvorverkäufer, Airlines und eine endlose Zahl anderer wildfremder Leute, die das Interesse an unserem Verhalten auf den Plan ruft – jetzt, bald oder irgendwann. Sie stehen Gewehr bei Fuß, um an Ihrem Arbeitsweg zu verdienen, an der Unterhaltung mit Ihren Kindern oder an Ihren zerschlissenen Joggingschuhen. Ihr digitaler Assistent mag seine spezielle »Persönlichkeit« aus Ihren Neigungen und Vorlieben ziehen, aber seine Hilfestellung wird immer in unbekanntem Maße vorbelastet, ja verzerrt sein durch die Marktmethoden und Wettbewerbe, die er vor uns verbirgt. Google hat sich damit all den anderen Tech-Unternehmen angeschlossen, die das »Gespräch« zum bevorzugten Mittler zwischen Mensch und Apparat machen wollen. Durchaus möglich, dass der augenblickliche Trend zur Stimme von anderen Trends abgelöst wird, bis ein Wink mit dem Finger oder der bloße Gedanke eine Aktion auszulösen vermag. Für den Augenblick jedoch gibt es gute Gründe für diesen Wettlauf ums gesprochene Wort. Deren erster liegt auf der Hand: Die zuverlässige Spracherkennung vermag eine unübersichtliche Landschaft servicebedingter Interaktionen in kostengünstige Prozesse zu übersetzen, deren Ausmaß und Vielfalt theoretisch unbegrenzt sind.

Arbeitswissenschaftler betonen diese Tatsache schon seit geraumer Zeit.15 Vor diesem Hintergrund ist auch der Wettlauf zwischen einer neuen Generation »persönlicher digitaler Assistenten« zu verstehen. Die Stimme, die hier das Rennen macht, die »One Voice«, wird zum Giganten unter den Pipelines für Verhaltensüberschuss, da ihr ihre Fähigkeit, den Löwenanteil menschlicher Erfahrung zu monopolisieren und an sich zu reißen, einen potenziell unschlagbaren Wettbewerbsvorteil an die Hand gibt. Das »Gespräch« steht allein auf weiter Flur mit seinem Versprechen, die Rohstoffversorgung zu dominieren, und die finanziellen Früchte dieser One Voice sind astronomisch. Gerade die zwanglose Unterhaltung hilft, die Grenzen zwischen dem mit kommerziellen Playern gesättigten Apparat und uns zu verwischen. Wir verbinden das Gespräch mit Freundschaft. Je mehr wir im Apparat einen Vertrauten sehen, eine Nanny, eine Gouvernante, ein Supportsystem – eine Art körperlose, aber allgegenwärtige »Mrs. Doubtfire« für jeden Einzelnen –, desto mehr Erfahrung erlauben wir ihm zu erfassen, desto umfangreicher werden seine Versorgungsoperationen. Kommunikation steht bei den Freuden des Lebens ganz oben an, und eine auf den verbalen Austausch gebaute Schnittstelle ist allein schon der Bequemlichkeit wegen eine tolle Sache. Was könnte besser sein, als mit einer bloßen Äußerung ein Geschehen auszulösen, zumal ein Marktgeschehen: »Es werde Licht.« »Es werde ein neues Paar Joggingschuhe.« »Das Schöne an Amazons Device-Business ist«, meint ein Topmanager des Unternehmens, »dass wir mit jedem dieser Geräte auch mehr Jeans verkaufen. Und das eine oder andere kleine Schwarze mehr. Und Schuhe. Und das ist gut so.« Dieses »Voice-Shopping«, wie er es nennt, sei nicht nur gut fürs Geschäft, sondern auch gut für geschäftliche Vorhersagen.16 Bei der »Unterhaltung« mit einem digitalen Gerät gehen einem die Worte leichter über die Lippen, problemloser jedenfalls als im Laden; man tut sich weniger Zwang an, man kann nörgeln, man kann vergleichen; man braucht sich keine Gedanken darüber zu machen, wo Produkte oder Dienstleistungen herkommen und warum; es kommen weniger Zweifel auf, man braucht nicht zu zögern; man braucht sich die Transaktion später nicht durch den Kopf gehen zu lassen, braucht nichts zu bereuen. Der Sprecher sieht sich im Zentrum eines ebenso naht- wie reibungslosen Universums.

Die Nahtstellen bleiben im Hintergrund, wo sich Maschinen des Sands im Getriebe wie unterschiedlicher Apps und Geräte annehmen, Verwaltungskram, Vertrieb, Zahlungen und Versand – alles, was die Grenzen und Hürden beseitigt, die den freien Fluss von Wunsch und Befriedigung gefährden könnten. Das spontan-flüssige Plätschern der »Unterhaltung« macht diese neue Art von persönlichem digitalem Assistenten zu einer Stimme als Schnittstelle zwischen Ihrem Leben und den neuen Märkten für Ihr Leben, zwischen Ihren Erfahrungen und der Versteigerung Ihrer Erfahrungen: »ein Runtime, eine neue Schnittstelle«, die uns das Gefühl von Herrschaft gibt, während wir sie in Wirklichkeit damit aus der Hand geben. In dieser kommerziellen Traumlandschaft ist man ganz erpicht darauf, Äußerungen, die unserer Ansicht nach einst eher »hinter verschlossene Türen« gehörten, als Verhaltensüberschuss zu erfassen. Die Umwandlung unserer Unterhaltung in Verhaltensüberschuss erfolgt auf zweierlei Art: Die erste ergibt sich aus dem, was man sagt, die zweite daraus, wie man etwas sagt. Smart-Home-Geräte wie Amazons Echo oder Google Home erfassen endlose Ströme beiläufiger Unterhaltung, aus denen anhand hochentwickelter Inhaltsanalysen gehobene Vorhersageprodukte gefertigt werden, die unsere Bedürfnisse »antizipieren«. Google nutzte 2016 seine Entwicklertagung zur Vorstellung seines neuen, auf Gesprächsbasis umgedachten Google Now; es hieß fortan »Assistant« und integrierte sämtliche Geräte, Dienste, Tools und Apps des Unternehmens. »Wir wollen, dass die Nutzer einen anhaltenden, wechselseitigen Dialog mit Google führen. Wir wollen Ihnen bei der Erledigung Ihrer Angelegenheiten im richtigen Leben helfen, und wir wollen das für Sie tun«, erklärte Googles CEO Sundar Pichai. »So können Sie zum Beispiel in Chicago vor einer Skulptur stehen und Google fragen ›Wer hat die entworfen?‹ Sie brauchen ›The Bean‹ oder ›The Cloud Gate‹ noch nicht einmal auszusprechen. Wir verstehen Ihren Kontext und wir sagen Ihnen, dass die Skulptur von Anish Kapoor ist.«17 Googles neuer Assistent war in Googles neuer Messaging-App Allo integriert, wo er nach Informationen suchen, Aufgaben erledigen oder sogar Messages von der Stange schreiben kann. Wichtiger noch ist, dass Assistant Leben in Google Home bringt.18 Der Gedanke dahinter ist, dass das Gerät

(oder sein Nachfolger) mit der Zeit die Rendition einer theoretisch unendlich diversen Bandbreite unbelebter und belebter häuslicher Sachverhalte und Aktivitäten verlangt – Unterhaltungen, Glühbirnen, Anfragen, Terminpläne, Bewegungen, Reiseplanungen, Heizung, Einkäufe, Sicherheit, gesundheitliche Probleme, Musik, Kommunikationsfunktionen und vieles mehr. Früher suchten Sie Google, jetzt sucht Google Sie. Die Werbung für Google Home zeigt liebevolle Familien in ihrem geschäftigen und komplexen Leben, die sichtbar erleichtert sind, nach Hause zu kommen und sich in die Arme dieser effizienten und allwissenden Hauskraft zu begeben. Dieser in Erfüllung gegangene Traum der Zweiten Moderne fordert einen ungewöhnlich hohen Preis für das Versprechen eines effektiveren Lebens. Für jeden Nutzer, der – wie Pichai sich das vorstellt – sein eigenes individuelles Google möchte, muss Google dieses Individuum haben.19 Die Effektivität, mit der Ihr Hausmeister ihnen dienen kann, hängt ganz von dem Maß ab, in dem ihm Ihr Leben – wissentlich oder unwissentlich – verdatet zur Verfügung steht. Breite und Tiefe dieser Rendition Ihres Lebens entsprechen der Größenordnung des Marktgeschehens, das der Assistant auslösen und in dem er vermitteln kann. Es gibt durchaus Unterschiede zwischen den diversen Verkörperungen der von den TechRiesen angebotenen »Personalisierung« und »Assistenz«. Tatsache ist, dass diese eher banal sind im Vergleich zum kollektiven Run auf das totale Wissen über Ihre Befindlichkeit, Ihren existenziellen Kontext und ihre Alltagsaktivitäten. Tatsache ist auch, dass das alles im Dienste des erfolgreichen Trainings der Maschinen zur effektiveren Ausrichtung von Marktoperationen auf jeden einzelnen Augenblick unseres Lebens passiert. Dieses ganze potenzielle Marktgeschehen um unsere Äußerungen hängt ab von Sprachaktivierung, Spracherkennung und der Antwort darauf. Sie wiederum sind das Produkt hochentwickelter Maschinensysteme, die man mit dem immensen weltweiten Schatz an gesprochenen Worten trainiert. Je mehr strukturelle Einsichten diese Maschinen aus gesprochenem Überschuss ziehen, desto mehr Geschäft lässt sich mit dessen Inhalt machen. Das bedeutet, dass der Wert dessen, was Sie sagen, nur mit Maschinen zu realisieren ist, die auch aus der Art, wie Sie etwas sagen, zu lernen imstande sind. Diese Art von Überschuss kommt aus der Struktur

Ihrer Äußerungen: Wortschatz, Aussprache, Intonation, Rhythmus, Tonfall, ja selbst Ihrem Dialekt. Da auf Entwicklung und Perfektionierung von Sprachfunktionen erpichte Unternehmen die Welt nach Sprache durchkämmen, kommt es zu einem Wettbewerb um den Nachschub an gesprochenen Äußerungen, der Ihre Sätze zu dieser eben genannten zweiten Art von Überschuss macht. »Amazon, Apple, Microsoft und Chinas Baidu«, so berichtet Bloomberg Businessweek, »sind auf der weltweiten Jagd nach Terabytes an menschlicher Sprache. Microsoft hat rund um den Globus Laborwohnungen eingerichtet, in denen Freiwillige in häuslicher Umgebung Gespräche führen.« Die Tech-Firmen erfassen die Unterhaltungen, die wir über ihre smarten Geräte und Telefone führen, und speichern sie. Chinas Suchmaschinenbetreiber Baidu sammelt Äußerungen in jedem Dialekt der Landessprache: »Sie nehmen all die Daten auf, um ihren Computern beizubringen, Befehle und Fragen zu parsen, zu verstehen und darauf zu reagieren.«20 Teile unserer Unterhaltungen werden regelmäßig en gros an Dritte verkauft, die damit »Audio-Reviews« durchführen, bei denen virtuelle Punktrichter zu bewerten haben, wie gut sich Maschinentext und menschliche Sprache, auf denen er beruht, entsprechen; so prüft man Audioaufnahmen von Smartphones, Messaging-Apps und digitalen Assistenten. Unternehmen wie Amazon, Google und Microsoft benutzen diese Audioanalysen, um die Algorithmen ihrer Sprachsysteme zu verfeinern. Die Tech-Unternehmen bestehen darauf, dass derlei Aufnahmen anonym seien, nichts weiter als Stimmen ohne Identität. »Unsere Partner haben keine Möglichkeit, die Stimmproben mit bestimmten Leuten zu verbinden«, versicherte eine Führungskraft von Microsoft. Eine Journalistin jedoch, die für einen solchen Job als virtuelle Analystin von Audioaufnahmen anheuerte, kam zu einem ganz anderen Schluss, da die Aufnahmen voll Intimitäten, Gefühlen und leicht zu identifizierender persönlicher Angaben waren: … in den Aufnahmen an sich schon geben User bereitwillig persönliche Informationen preis – Informationen, die gerade ihrer spezifischen Art wegen für diese Review-Prozesse so wertvoll sind. Ungewöhnliche Namen, schwierig auszusprechende Städte und

Ortschaften, hyperlokale Eigenheiten … Ich habe Leute ihre vollen Namen äußern hören, gerade am Anfang eines Gesprächs, oder sie lieferten Informationen, aus denen sich auf ihren Standort schließen ließ, wenn sie einen Arzttermin ausmachten … die Aufnahmen sind voller Dinge, von denen die Leute nie im Leben gewollt hätten, dass ein Außenstehender sie hört, Anonymität hin oder her … Es gibt kaum eine Möglichkeit, die Leute, die sie hören, daran zu hindern, sie weiterzugeben.21 In die »Sprachfähigkeiten« digitaler Geräte wird erheblich investiert. Samsungs Smart-TV ist ein gutes Beispiel dafür, was hinter den Kulissen passiert. Voraussagen der geschäftlichen Entwicklung prognostizieren routinemäßig ein starkes Wachstum für internetfähige Geräte, und Samsung gehört zur kleinen Gruppe von Marktführern auf diesem Gebiet.22 Samsungs Geräte arbeiten mit dem Betriebssystem Android, und es kam schon früh zu Verträgen sowohl mit der Alphabet / Google-Tochter Nest als auch mit Cisco. »Unser erster Auftrag besteht darin, Ihr Zuhause mit Ihrem vernetzten Leben zu verbinden«, erklärte ein Top-Executive 2014.23 2015 kamen Datenschutzaktivisten dahinter, dass die Fernseher des Unternehmens noch weit cleverer waren als vermutet und alles aufnahmen, was in der Umgebung des Geräts gesagt wurde – gibst du mal das Salz; das Waschmittel ist alle; ich bin schwanger; kaufen wir doch einen neuen Wagen; wir gehen ins Kino; ich habe eine seltene Krankheit; sie will die Scheidung; er braucht eine neue Brotdose; liebst du mich? Und alle diese Gespräche landeten bei einem anderen Marktführer in Sachen Spracherkennungssysteme: Nuance Communications. Die »Überwachungsrichtlinien« des Fernsehers – o ja, selbst unsere Fernseher haben heute Überwachungsrichtlinien – enthüllen das komplexe Treiben von Überwachungsbestrebungen und kommerziellen Interessen, das heute ohne unser Wissen in unseren vier Wänden regiert. Samsung räumt ein, die Befehle, die die Spracherkennung des Fernsehers triggern sollen, an Dritte weiterzugeben, und fügt hinzu: »Seien Sie sich bitte darüber im Klaren, dass ihre gesprochenen Worte zu den Daten gehören, die erfasst und durch den Einsatz der Spracherkennung an Dritte weitergegeben werden.«24 Samsung lehnte jede Verantwortung für die

Datenschutzrichtlinien dieser Dritten ab, wie übrigens fast alle Überwachungsrichtlinien, einschließlich des Unternehmens, das die Gespräche seiner ahnungslosen Kunden tatsächlich sammelt und übersetzt.25 Mit der Art von Dreistigkeit, wie wir sie mittlerweile von unseren New-Age-Konquistadoren erwarten, rät Samsung seinen Kunden: »Sie sollten Vorsicht walten lassen und die für von Ihnen genutzten Websites und Dienste Dritter geltenden Datenschutzrichtlinien einsehen.«26 Der wackere Verbraucher, der sich tatsächlich dazu entschließen sollte, diese Dokumente einzusehen, wird in den Datenschutzrichtlinien von Nuance Communications weder Trost noch Beistand finden – nur denselben Katechismus, den er von Samsung und fast jeder anderen Firma her kennt. Er sieht sich mit anderen Worten aufgefordert, die Datenschutzrichtlinien der Unternehmen anzusehen, an die man seine Gespräche verkauft. Und so geht das weiter – ein Gewaltmarsch in Richtung Wahnsinn oder Kapitulation, und das alles wegen eines Fernsehers.27 Kalifornien hat immerhin ein Gesetz verabschiedet, das die Erfassung von Stimmdaten über vernetzte Fernsehgeräte ohne »gut sichtbare diesbezügliche Informationen« verbietet. Außerdem verbietet das Gesetz die Nutzung von derlei Daten für Werbezwecke Dritter.28 Wie wir jedoch von unserer Untersuchung des Enteignungszyklus her wissen, sind die ökonomischen Imperative, die Überwachungskapitalisten zur Erfassung von Verhaltensüberschuss zwingen, nicht so einfach zu bremsen. 2016 schon hatte Samsung draufgepackt, was seine Fernsehgeräte als Basis für die heimliche Rendition von Verhaltensüberschuss für seine Versorgungskette angeht: Die Firma machte seine neuen Modelle zum Hub »zur Steuerung eines breiten Ökosystems kompatibler Smart-Geräte in einer einfachen und einheitlichen Oberfläche«, die Tausende von Geräten unterstütze, darunter Ventilatoren, Lichter, Thermostate, Überwachungskameras und Schlösser. Gesteuert wird das alles mit einer universellen Fernbedienung, die jeden gesprochenen Befehl erfasst.29 2017 erreichte die Bundeshandelskommission eine außergerichtliche Einigung über 2,2 Millionen Dollar im Rahmen einer von New Jerseys Justizministerium initiierten Klage gegen Vizio, einen der weltgrößten Hersteller und Vertreiber von internetfähigen Smart-TVs.30 Vizios Versorgungsoperationen scheinen gar noch aggressiver gewesen zu sein als

die Samsungs. Wie sich bei Ermittlungen herausstellte, sammelte Vizio »in Sekundenabständen eine Auswahl von Pixeln auf dem Bildschirm, die man mit einer Datenbank für TV-, Film- und kommerziellem Content abglich«. Zusätzlich ermittelte das Unternehmen weitere Daten zu Sehgewohnheiten »von Kabel- oder Breitbandanbietern, Settop-Boxen, Streaming-Geräten, DVD-Spielern und terrestrischen Ausstrahlungen«. Man brachte es damit pro Tag alles in allem auf gut 100 Milliarden Datenpunkte – allein von den elf Millionen Fernsehgeräten, die man im Rahmen der Einigung identifiziert hatte.31 Vizio hatte seine Versorgungsoperationen hinter der Einstellung »Smart Interactivity« versteckt, die man dem Käufer als Feature verkaufte, das »Programmangebote und Vorschläge« versprach, ohne dass man auf die eigentliche Funktion dieses »Features« verwies. In einem ungewöhnlich ungeschminkten Blogeintrag beschreibt die FTC Vizios Verkauf des erfassten Verhaltensüberschusses: Vizio machte darauf den Berg von Daten zu Barem, indem man die Sehgewohnheiten seiner Kunden an Werbeunternehmen und andere verkaufte. Und damit keine Zweifel aufkommen: Wir sprechen hier nicht von allgemeinen Informationen über nationale Trends. Der Klage zufolge wurde Vizio dabei sehr persönlich. Die Firma gab die IPAdressen seiner Kunden an Datenunternehmen weiter, die sie darauf mit den individuellen Käufern und Haushalten zusammenführten. Vizios Verträge mit Dritten untersagten zwar die namentliche ReIdentifizierung von Käufern und Haushalten, mit einer ganzen Reihe anderer persönlicher Details nahm man es aber weniger genau, z. B. Geschlecht, Alter, Einkommen, Familienstand, Haushaltsgröße, Bildung, Wohneigentum. Außerdem gestattete Vizio diesen Firmen das Tracking und Targeting ihrer Kunden über ihre Geräte.32 Eine entsprechende Erklärung von Maureen K. Ohlhausen, der geschäftsführenden Vorsitzenden der FTC, nannte die Einigung bahnbrechend, besage sie doch, dass »individuelle Sehgewohnheiten unter die Definition sensibler Informationen fallen« und somit den Schutz durch die FTC verdienten.33 Es war ein Finger im Deich, der die Flutwelle ähnlicher Übergriffe nicht aufhalten konnte. Die knallende Peitsche des Vorhersageimperativs treibt

die Jagd nach unerforschten Gesprächsfetzen aus dem Alltagsleben. Die Rendition macht selbst vor scheinbar harmlosen Versorgungsquellen wie Spielzeug nicht halt, die mittlerweile zu »Spionagespielzeug« geworden sind. Eine neue Generation interaktiver Puppen und Spielzeugroboter, darunter die Puppe »My Friend Cayla«, entpuppten sich als Hubs für minderjährigen Verhaltensüberschuss, die kleine Kinder und die Smartphones ihrer Eltern »ohne wirksame Datenschutzstandards einer anhaltenden Überwachung unterziehen«.34 Das beliebte Spielzeug von Genesis Toys kommt mit einer mobilen Applikation zur »Datenverarbeitung«, die es nach Download auf ein Smartphone dem Spielzeug ermöglicht, zu erfassen und zu verstehen, was Ihr Kind sagt. Dabei verschafft es sich freilich Zugang zu den meisten Funktionen auf Ihrem Handy, auch zu solchen, die absolut keine Bedeutung für die Funktionen der Puppe haben, wie etwa Kontaktliste und Kamera. Die Applikation sorgt mittels Bluetooth für eine Internetverbindung und überträgt die erfassten Gespräche Ihres Kinds mit dem Spielzeug. Eines der Modelle, gegen das Klage eingereicht wurde, veranlasst Kinder, eine Reihe persönlicher Informationen wie etwa ihren Wohnort preiszugeben. Die Gespräche zwischen Kind und Puppe werden durch die Spracherkennungssoftware, die auch in diesem Fall von Nuance Communications kommt, zum Online-Abgleich in Text übersetzt; die Informationen werden dann dazu eingesetzt, mittels Google Search und anderer Webressourcen die Fragen des Kindes zu beantworten. Wie Forscher festgestellt haben, landen die Audiodateien der arglos geführten Unterhaltungen (Nuance nennt sie »Dialogbrocken«) auf den Servern der Firma, wo man sie analysiert und speichert.35 Wie Sie mittlerweile vermutet haben, setzen diese Dialogbrocken – wie die von Samsung aufgezeichneten Gesprächsfetzen – ihren Weg als Verhaltensüberschuss fort, um »für andere Dienstleistungen und Produkte« weiterverkauft zu werden; dem stimmt man durch die Nutzung von Puppe und App laut Dienstleistungsvertrag zu. Inzwischen gewann Mattel, einer der größten Spielwarenhersteller der Welt, mit seinen innovativen interaktiven und internetfähigen Produkten an Boden. Angeführt wird die von Maschinenintelligenz gesteuerte Invasion durch die neue gesprächige Barbie und ihr Traumhaus.36 Das sprachaktivierte smarte Puppenhaus kann auf über hundert Befehle – »Fahr

den Lift herunter« und »Mach die Discokugel an« – reagieren. Alles in allem sehen wir uns vor einer neuen Art von Gewöhnungsprozedur, die auf die Normalisierung der Ubiquität selbst in intimsten Räumen abzielt. »Barbies neues Smart-Home ist voll krass«, jubelte Wired. »Barbies ultimative Butze ist sprachaktiviert … Alles funktioniert wie in einem richtigen Smart-Home: Der volle Bringer mit universeller Sprachkontrolle, statt einem Sammelsurium unterschiedlicher Apps, die Speicherplatz auf Ihrem Handy fressen … Die Zukunft ist da.«37 In dieser Zukunft lernen bereits Kinder die Prinzipien der One Voice – »dem »Runtime«, der neuen Schnittstelle. Sie steht überall zur Verfügung, erpicht darauf, ihre Befehle auszuführen, ihre Wünsche zu ahnen und ihre Möglichkeiten zu formen. Unter der putzigen Perücke wird die One Voice, stets den speziell auf uns zugeschnittenen Marktplatz im Sinn, mit diensteifrigem Gequengel so einiges verändern in unserer Welt: Intimität, wie wir sie kennen, ist, wenn schon nicht völlig ausgemerzt, so doch kompromittiert. Alleinsein gibt es nicht mehr. Kinder werden als Erstes lernen, dass es keine Grenze gibt zwischen Selbst und Markt. Irgendwann wird man sich fragen, wie das überhaupt jemals anders hatte sein können. Es überrascht nach alledem nicht weiter, dass sich Mattel, als das Unternehmen im Januar 2017 einen neuen CEO einstellte, für Googles Leiter des nord- und südamerikanischen Werbegeschäfts entschied.38 Die meisten Analysten waren sich einig, dass dieser Schritt Mattels Bekenntnis zu innovativem internetfähigem Spielzeug und virtueller Realität unterstrich. Nur unterstreicht diese Berufung eben auch den Fokuswechsel von der Herstellung toller Produkte für uns hin zur Erfassung toller Daten über uns. Die Puppe, früher mal Spiegel ungezügelter Kindheitsphantasien, ist zusammen mit dem Rest der Spielzeugkiste – nebst Kiste, Kinderzimmer und Elternhaus – vorgemerkt für Rendition, Berechnung, Vernetzung und Profit. Nicht länger bloßes »Zeug«, wird alles zu Vehikeln für eine Reihe von Geschäftsgelegenheiten, die man aus unseren »Dialogbrocken« und diversem anderem Goldstaub fabriziert. In Deutschland wurde die smarte »Schnüffelpuppe« 2017 als »verbotene Sendeanlage im Sinne des § 90 Telekommunikationsgesetz« eingestuft und vom Markt genommen: »Jedes bluetoothfähige Gerät in Reichweite von

etwa zehn Metern kann eine Verbindung zu ihr aufbauen und Lautsprecher und Mikrofon nutzen.« Es fehle an eingebauten Sicherungen; Dritte hätten selbst »über mehrere Wände hindurch auf die Puppe Zugriff«. Das »Top 10 Spielzeug des Jahres« 2014, das laut Bundesnetzagentur »alle Kriterien eines verbotenen Spionagegeräts« erfülle, musste, sofern es bereits gekauft wurde, vernichtet werden.39 In den USA standen zu dem Zeitpunkt entsprechende Schritte gegen die Puppe oder Genesis Toys noch aus.40 Inzwischen bereitet das vernetzte Puppenhaus unsere Kinder und Familien auf das vernetzte Zimmer vor (ein Projekt, das Mattel im Januar 2017 bekanntgab und neun Monate später unter dem Proteststurm von Eltern und Datenschützern auf Eis legte). Das vernetzte Zimmer bereitet den Weg für das vernetzte Zuhause, dessen Lieferanten hoffen, dass es uns der vernetzten Welt gegenüber dickfellig macht – schließlich sollen wir blind und taub den vorherbestimmten Weg der Ubiquität und ihres Versprechens unermesslicher Überwachungserträge gehen.41 Da auf der Jagd nach Sprachüberschuss die Wettbewerbslogik das was und wie diktiert, versucht man sich das Monopol darauf zu sichern. Dieses Verlangen nach Totalität sorgt für enormen Wettbewerbsdruck, gilt es doch, das Runtime, das Interface zu werden, das dominante, wenn schon nicht exklusive Medium, durch das wir mit dem Apparat kommunizieren und er mit uns. Es ist ein Wettlauf mit dem Ziel, sämtliche Gespräche dieser Welt mit Beschlag zu belegen, da dies die Voraussetzung für den privilegierten Status als die »One Voice« ist, die eine Stimme, die als Preis für den Sieg die Fähigkeit erhalten wird, alle Augenblicke aller Menschen vorauszuahnen und zu monetarisieren. Das messianische Streben nach Totalität und Vorherrschaft ist offensichtlich, sowohl in der Rhetorik als auch in den Strategien der wesentlichen Teilnehmer an diesem Rennen. Aber so sehr sie alle, Google, Microsoft, Amazon und Samsung, in die Vorherrschaft auf dem Gebiet der Spracherfassung investieren, sprechen Amazon, sein Maschinenlernassistent Alexa und seine wachsende Linie an Echo-Hubs und Dot-Lautsprechern von allen die deutlichste Sprache. Alexa scheint das Schwellenereignis zu sein, das Amazon nicht nur als aggressiven Kapitalisten definiert,42 sondern auch als Überwachungskapitalisten.

Amazon öffnete im Falle von Alexa ganz bewusst Drittentwicklern die Tür, um die Bandbreite der »Skills« des Assistenten zu erweitern – so kann Alexa sowohl Rezepte lesen als auch Pizza bestellen.43 Außerdem öffnete man die Plattform den Herstellern von Smart-Home-Geräten, von Lichtanlagen bis hin zu Geschirrspülern, was Alexa zur alleinigen Herrin über alle Ihre Heimsysteme und Haushaltsgeräte macht. 2015 gab Amazon bekannt, dass man Alexa unter dem Namen »Amazon Lex« als Dienst verkaufen würde, was es jedem Unternehmen erlaubte, Alexas Gehirn in seine Produkte zu integrieren. Amazon Lex definiert sich als »Dienst für den Einbau sprachgesteuerter Nutzeroberflächen in jede Applikation auf Sprach- oder Textbasis … Lex ermöglicht es Ihnen, ganz neue Produktkategorien zu definieren.«44 Alexas Entwicklungsleiter erklärte das folgendermaßen: »Unser Ziel ist die Entwicklung eines neutralen Ökosystems für Alexa … es soll so allgegenwärtig werden wie irgend möglich.«45 Bereits 2018 schloss Amazon Verträge mit Bauunternehmen ab, seine Dot-Lautsprecher nicht nur im ganzen Haus direkt in die Decken einzubauen, sondern auch Echo-Geräte und von Alexa gesteuerte Türschlösser, Lichtschalter, Alarmanlagen, Türglocken, Thermostate … »Amazon«, so hieß es in einem Bericht, »ist in der Lage, mehr und umfassendere Daten über die Lebensgewohnheiten der Leute zu erfassen.«46 Das Unternehmen möchte uns reale Dienste vom Hausputz über Installationen bis hin zu Lieferungen aus dem Restaurant verkaufen. Einigen Insidern zufolge geht die Vision des Unternehmens jedoch noch viel weiter, nämlich in Richtung einer allwissenden Stimme, die jede unserer Erfahrungen kennt und jede unserer Handlungen im Voraus ahnt.47 Schon heute gehören Amazon zukunftsträchtige Patente wie etwa ein »Voice-Sniffer-Algorithmus«, der sich in beliebige Geräte integrieren lässt und der in der Lage ist, auf Wörter und Sätze wie »gekauft«, »mag ich nicht« oder »mag ich« mit dem Angebot eines Produkts oder einer Dienstleistung zu reagieren.48 Amazon ist auf der Jagd nach Verhaltensüberschuss.49 Das erklärt auch, warum das Unternehmen sich Apple und Google im Wettbewerb um das Armaturenbrett Ihres Wagens angeschlossen und Verträge mit Ford und BMW unterschrieben hat. »Shoppen vom Lenkrad aus bedeutet, den

Verhaltensterminkontraktmarkt auf Ihrem Fahrersitz zu platzieren. Alexa steht mit Restaurantempfehlungen ebenso bereit wie mit einem Rat, wo man sich seine Reifen nachsehen lassen kann.50 »So allgegenwärtig werden wie irgend möglich« erklärt, weshalb Amazon Echo /Alexa auch als Familientelefon genutzt sehen möchte, das in der Lage ist, Anrufe entgegenzunehmen und zu tätigen; weshalb das Unternehmen in fast 5 000 Zimmer des Wynn Las Vegas Echo installieren ließ; und weshalb man Alexa an Callcenter verkauft, um live gesprochene und getextete Fragen von Kunden zu beantworten.51 Jede Erweiterung von Alexas Territorium vergrößert das Volumen von Sprachüberschuss aus Amazons Servern, was dann wieder Alexa zugutekommt. Der Weg zur Krönung als One Voice ist alles andere als leicht, und es gibt noch andere, die unter massivem Ellenbogeneinsatz aufs Ziel zudrängen. So möchte zum Beispiel auch Google seinen »persönlichen Assistenten« Google Home als Familientelefon genutzt sehen.52 Samsung schickt seine Neuerwerbung »Viv« ins Rennen, ein leistungsfähiges Spracherkennungssystem, dessen Design von den Entwicklern von Apples »Siri« stammt, für deren Geschmack Apples Ansatz ihnen zu wenig Freiheit ließ. Vivs Chefentwickler erklärte, dass sich »Dinge erledigen lassen, indem man mit Dingen spricht … Ein Markt, der die nächste große Ära definieren wird«.53 Wenn das Leben ein Wildpferd ist, dann ist der digitale Assistent ein weiteres Mittel, dieses Pferd durch Rendition zuzureiten. Unser ungebärdiges Leben wird gefügig gemacht, in Form von Verhaltensdaten erfasst, um es in einem Neuentwurf als Territorium zum Browsen, Durchsuchen, Kennen und Modifizieren zur Verfügung zu stellen. So wie der Überwachungskapitalismus das Web in eine von Erfassung und Analyse von Verhaltensüberschuss befeuerte Marktattacke auf breiter Front verwandelte, so wird künftig unser Alltagsleben zur bloßen Leinwand für die Explosion eines neuen, nicht mehr abzustellenden Marktkosmos, bei dem sich alles um unser Verhalten dreht und vor dem es kein Entrinnen mehr geben wird.

Die Rendition des Selbst

»Wir sind die Interaktion Face-to-Face gewöhnt, bei der das Gesagte wieder verschwindet … Ich hatte immer angenommen, die Kommunikation per Tastatur sei wie ein Brief oder ein Anruf, aber jetzt ist mir klar, dass sie nicht mehr verschwindet. Dass elektronische Kommunikation unsichtbar sei, ist reine Phantasie …«54 Der Mann war ein brillanter Wissenschaftler aus der Forschungsabteilung eines großen Pharmakonzerns, den ich in meinem Buch In the Age of the Smart Machine »Drug Corp« genannt habe.55 Ich hatte die dortige Forschungsgruppe über einige Jahre hinweg immer wieder besucht, als man die tagtägliche Kommunikation von Face-to-Face-Meetings auf DIALOG umstellte, eines der ersten »Computer-Conferencing«-Systeme überhaupt. DIALOG war einer der Vorläufer einer Technologie, die wir heute als »soziale Medien« bezeichnen. Die Plattform schuf einen neuen sozialen Raum, in dem Drug Corps Wissenschaftler »ihre Beziehungsnetzwerke, ihren Zugang zu Informationen, ihren Austausch von Gedanken und Smalltalk« pflegten und erweiterten, wie ich damals schrieb. DIALOG fand zunächst großen Anklang, aber die Geschichte ging nicht gut aus. »Mit der Zeit«, so schrieb ich, »wurde ihnen klar, dass sie damit unwissentlich auch einst flüchtige und nicht greifbare Aspekte ihres sozialen Austauschs der Einsicht und Prüfung von oben aussetzten.« Meine Interviews aus jener Zeit dokumentieren das allmähliche Erwachen den neuen Gefahren gegenüber: Dimensionen persönlicher Erfahrung, die einst implizit und privat waren, wurden plötzlich auf eine Art und Weise explizit und öffentlich, die die Entwickler von DIALOG nicht hatten ahnen können, und das mit Konsequenzen, die man als zutiefst bedauerlich empfand. Dank des neuen rechnergestützten Milieus erschien die berufliche wie private Konversation plötzlich als elektronischer Text – sichtbar, für alle nachzuvollziehen, mit allen zu teilen. Sicher, das System bereicherte die Arbeit in vieler Hinsicht, aber es sorgte eben auch für viele Blößen, da es Neigungen, Werte, Einstellungen und soziale Interaktion dem prüfenden Blick aussetzte. Anhand einer ganzen Reihe von Konflikten, die sich im Lauf der Jahre entwickelten, konnte ich beobachten, dass Drug Corps’ Führungskräfte der Versuchung nicht widerstehen konnten, sich des neuen sozialen Texts als Mittel für Bewertung, Kritik und Strafe zu bedienen. Mehr als einmal erfuhr ich von Managern, die seitenweise DIALOG-

Nachrichten ausgedruckt und auf dem Boden ihres Büros ausgebreitet hatten, um Meinungen zu einem bestimmten Thema zu analysieren. Manchmal ging man sogar mit der Schere zu Werke, um Nachrichten nach Themen oder Verfassern sortieren zu können. In vielen Fällen ging es dabei tatsächlich nur darum, sich einen Überblick über die Fakten zu verschaffen, aber es kam durchaus vor, dass Manager herausfinden wollten, wer für oder gegen ihre Direktiven war. Das bleibende Zeugnis des Texts wurde damit zum Medium, über das Manager »einst ephemere Aspekte von Untergebenen zu kontrollieren und steuern versuchten«.56 Die anfängliche Begeisterung über das vielversprechende Medium wich zynischen Befürchtungen, als die Wissenschaftler allmählich von DIALOG Abstand nahmen und sich für eine eher oberflächliche und unpersönliche Kommunikation per E-Mail entschieden. Jahrzehnte später kommunizieren die Kinder und Enkel dieser Wissenschaftler wie die meisten von uns ungezwungen per Smartphone und sozialen Medien, ohne dass uns bewusst wäre, dass wir Drug Corps bittere Lektionen wiederholen, nur auf einem ganz neuen Niveau der Rendition. Die Wissenschaftler reagierten verstört darauf, ihre ungezwungenen Unterhaltungen so konkret und explizit präsentiert als Objekt hierarchischer Inspektion zu sehen. Heute sehen wir unser Innenleben – simplistisch unter den Begriffen »Persönlichkeit« oder »Emotionen« zusammengefasst – als Rohstoff neu aufgelegt und jedem zugänglich gemacht, der eine neue Generation versorgungskettenfreundlicher Accessoires bezahlen oder herstellen und diese neue Art von Verhaltensüberschuss mit den nötigen Produktionsmitteln analysieren und daraus lukrative Vorhersageprodukte produzieren kann. »Personalisierung« ist einmal mehr das Hüllwort, das uns diese neue Generation aus dem Rohstoff unseres Selbst gefertigter Vorhersageprodukte nahezubringen versucht. Diese Innovationen erweitern die Logik früherer Arten von Enteignung: vom Webcrawling über das Reality-Crawling zum Selbst-Crawling. Wie auch schon bei den anderen Auflagen verschwinden Einsichten und Techniken, die anfangs zu Erkenntnis und Bereicherung beitragen sollten, rasch im Schwarzen Loch des kommerziellen

Überwachungsprojekts, um daraus als noch raffiniertere, noch dreistere Versorgungs-, Produktions- und Verkaufsmethoden wieder hervorzugehen. Die zwei Milliarden Facebook-Nutzer sind das bezeichnendste Beispiel für die Nachkommen der Drug-Corp-Wissenschaftler. Viele von ihnen sind ja gerade deshalb zu Facebook gegangen, um der umfassenden hierarchischen Aufsicht der Kommunikation am Arbeitsplatz zu entgehen, die seit den ersten experimentellen Jahren bei Drug Corp zum Normalfall geworden ist. Facebook, so dachten sie, sei »unser Treff«, ein freundliches neutrales Medium wie das gute alte Telefon, eine notwendige öffentliche Einrichtung, wo man zusammenkommen, kommunizieren und partizipieren kann. Stattdessen ist Facebook zu einer der autoritärsten und bedrohlichsten Quellen für prädiktiven Verhaltensüberschuss aus den Tiefen unseres Selbst geworden. Mit einer neuen Generation von Recherchetools lernte das Unternehmen unser »Selbst« zu plündern – bis zum intimsten Kern. Neue Versorgungsoperationen vermögen ihr gesamtes Facebook-Profil in messbares Verhalten umzurechnen, von Ihrem Zeitgefühl über Ihre Intelligenz und sexuelle Orientierung bis in die letzten nuancierten Winkel Ihrer Persönlichkeit. Die ungeheuren Kapazitäten von Facebooks Maschinenintelligenz fertigen aus diesen aussagekräftige Vorhersageprodukte. Den Weg für die wohlfeile Plünderung Ihres Facebook-Profils ebnete 2010 die Erkenntnis eines Teams deutscher und amerikanischer Wissenschaftler, dass es sich bei diesen Profilen mitnichten um idealisierte Selbstporträts handelt, wie viele geglaubt hatten. Stattdessen, so stellte man fest, reflektieren die Informationen auf Facebook die tatsächliche Persönlichkeit des Nutzers. Die Einschätzung erfolgte unabhängig anhand des Fünf-Faktoren-Modells1; außerdem verglich man die Angaben mit den Beschreibungen, die Teilnehmer an der Studie von ihrem »Selbst« lieferten. Überzeugende Belege deuten darauf hin, dass die einzigartige Dynamik des Facebook-Milieus dieses Bild der »wahren Persönlichkeit« im Lauf der Zeit verkomplizieren sollte, wie wir in Kapitel 16 noch sehen werden; 2011 jedoch ermutigten diese frühen Erkenntnisse drei Wissenschaftler von der University of Maryland zum nächsten Schritt. Auf der Basis hochentwickelter Analytics entwickelten sie eine Methode, aus den

öffentlich zugänglichen Informationen seines Facebook-Profils die Persönlichkeit eines Nutzers vorherzusagen.58 Im Verlauf dieser Arbeit lernte das Team den Zauber des Verhaltensüberschusses zu schätzen, als man zum Beispiel dahinterkam, dass die Preisgabe spezifischer persönlicher Informationen wie Religionszugehörigkeit oder politische Ausrichtung weniger zu einer robusten Persönlichkeitsanalyse beiträgt als der Fakt, dass er sie überhaupt preisgibt. Diese Einsicht machte das Team auf eine ganz neue Art aussagekräftiger Verhaltensmetriken aufmerksam. Anstatt also den Inhalt von Favoritenlisten – Fernsehsendungen, Aktivitäten oder Musik – zu analysieren, stellten sie fest, dass einfache »Metadaten« wie etwa das Maß an preisgegebenen Informationen, »sich als weitaus nützlicher und prädiktiver erwiesen als die ursprünglichen Rohdaten«. Die Kombination der Berechnungen auf der Basis dieser Verhaltensmetriken mit linguistischen Analysen und internen Facebook-Statistiken brachte das Forscherteam zu folgendem Schluss: »Wir liegen bei der Vorhersage der Punktzahl eines User-Persönlichkeitsmerkmals mit etwas über einem Zehntel am tatsächlichen Wert.«59 Das Team der University of Maryland machte sich damals auf eine jahrelange Reise hin zur Instrumentalisierung von Daten aus den Tiefen der Persönlichkeit zum Zweck eines hochintentionalen Programms zur Manipulation und Modifikation von Verhalten. Und obwohl sie nicht viel von der Straße vor ihnen sahen, ahnten sie die Nützlichkeit ihrer Ergebnisse für ein gieriges Publikum von Überwachungskapitalisten: Mit der Fähigkeit, auf die Persönlichkeit eines Users zu schließen, lassen sich Social-Media-Websites, E-Commerce-Händler und selbst Anzeigen-Server auf die Persönlichkeitszüge des Users maßschneidern und Informationen so präsentieren, dass User empfänglicher für sie sind … Die Präsentation von Facebook-Anzeigen könnte auf die Persönlichkeit des Users angepasst werden … Produktbesprechungen von Autoren mit ähnlichen Persönlichkeitsmerkmalen wie die des Users könnten herausgestellt werden, um Vertrauen und Nützlichkeit zu erhöhen.60

Die neuen Fähigkeiten erwiesen sich auch auf Social-Media-Daten aus anderen Quellen angewandt noch als robust. Noch im selben Jahr veröffentlichte das Team aus Maryland Erkenntnisse auf der Basis öffentlich zugänglicher Twitter-Daten – die Vorhersagen lagen innerhalb von 11 % bis 18 % am tatsächlichen Wert. Ähnliche Erkenntnisse sollten von zentraler Bedeutung für den Fortschritt beim Rendering von FacebookProfilen als Verhalten für neue Arsenale an Überschuss aus der Tiefe werden.61 In Großbritannien baute ein Forscherteam, darunter Michal Kosinski von der Cambridge University und David Stillwell vom Cambridge Psychometrics Centre2, auf dieser Forschung auf. Stillwell hatte bereits die myPersonality-Datenbank entwickelt, eine Drittanbieter-App, die Facebook-Nutzern psychometrische Tests – etwa nach dem FFM-Modell – erlaubt, auf die man ihnen dann Feedback gibt. 2007 gestartet und am Psychometrics Centre gehostet, enthielt die Datenbank 2016 bereits sechs Millionen Persönlichkeitsprofile; ergänzt wurden diese von vier Millionen Facebook-Profilen. Zunächst nur eine einzigartige, wenn auch unkonventionelle Quelle für psychologische Daten, hatte sich myPersonality zur bevorzugten Datenbank für die Erprobung, Standardisierung und Validierung neuer Modelle zur Vorhersage von Persönlichkeitswerten auf der Basis gar noch kleinerer Samples von Facebook-Daten und -Metadaten entwickelt. 2012 zogen die beiden in einem Forschungsbericht folgenden Schluss: »Die Persönlichkeit eines Users ist leicht und effektiv aus öffentlich zugänglichen Daten vorherzusagen.« Außerdem wiesen sie darauf hin, dass die Nutzer sozialer Medien sich der gefährlichen Blößen, die sie sich mit ihren arglosen, aber umfangreichen persönlichen Enthüllungen geben, kaum bewusst sind. Spezifisch hoben sie die einseitige Umkehrung der Datenschutzrichtlinien von Facebooks CEO Mark Zuckerberg hervor, der 2010 verlauten ließ, dass Facebook-Nutzer gar keine Privatsphäre mehr erwarteten. Zuckerberg hatte die Entscheidung des Unternehmens bekanntgegeben, eigenmächtig persönliche Informationen seiner Nutzer zugänglich zu machen: »Wir haben entschieden, dass das jetzt die sozialen Normen sind, also haben wir es einfach getan.«63

Ihre Bedenken hielten die Autoren freilich nicht davon ab, auf die Relevanz ihrer Forschungsergebnisse für das »Marketing« zu verweisen, das »Design von User-Interfaces« sowie für Empfehlungsdienste.64 2013 enthüllte eine weitere provokative Studie von Kosinski, Stillwell und Microsofts Thore Graepel, dass sich anhand von Facebooks »Likes« ein breites Spektrum persönlicher Attribute erschließen lasse, die man im Allgemeinen für privat halte: sexuelle Orientierung, ethnische Zugehörigkeit, religiöse und politische Ansichten, Persönlichkeitsmerkmale, Intelligenz, Glück, Drogenkonsum, Trennung der Eltern, Alter und Geschlecht.65 Hinsichtlich der sozialen Auswirkungen ihrer Arbeit scheinen die Autoren zunehmend ambivalent. Auf der einen Seite schwärmen sie, mit den neuen prädiktiven Fähigkeiten ließen sich »zahlreiche Produkte und Dienste« verbessern. Sie kommen zu dem Schluss, dass Online-Geschäfte ihr Verhalten auf die Persönlichkeit eines jeden einzelnen Nutzers ausrichten, dass sich mit anderen Worten Marketing und Produktempfehlungen psychologisch auf jeden Einzelnen maßschneidern ließen. Auf der anderen Seite wiesen die Autoren sehr wohl darauf hin, dass automatisierte Vorhersagemaschinen in der Hand von Unternehmen, Regierungen oder Facebook selbst in der Lage seien, Millionen von Profilen zu berechnen, ohne dass die Betroffenen sich dessen bewusst seien, geschweige denn dass sie ihr Einverständnis gegeben hätten, und dabei auf Dinge stoßen können, »die der Einzelne womöglich nicht mit anderen teilen möchte«. Entsprechend mahnen die Forscher: »Man kann sich Situationen vorstellen, in denen solche Vorhersagen, selbst wenn sie unrichtig sein sollten, eine ernsthafte Gefahr für Wohl, Freiheit oder sogar das Leben des Einzelnen darstellen können.«66 Dieser ethischen Dilemmas ungeachtet, war Kosinski 2015 an die Stanford University umgezogen (erst an den Fachbereich Computerwissenschaften, dann an die Graduate School of Business), wo seine Forschung rasch Mittel unter anderem von Microsoft, Boeing, Google, der National Science Foundation und der Defense Advanced Research Projects Agency (DARPA) anzog.67 Kosinski und eine wechselnde Riege von Mitstreitern, darunter immer wieder auch Stillwell, gaben eine Reihe von Artikeln heraus, die die Erkenntnisse der ersten

Berichte sowohl ausarbeiteten als auch erweiterten. Insgesamt ging es ihnen um die Verfeinerung von Methoden, »mit minimalem Aufwand rasch und billig große Gruppen von Teilnehmern einzuschätzen«.68 Abermals Neuland betrat Kosinski in einer 2015 zusammen mit Stillwell und dem Psychologen Youyou Wu veröffentlichten Arbeit, in der das Team bekanntgab, die Genauigkeit ihrer Computervorhersagen hätte mit der menschlichen Urteilsvermögens gleichgezogen oder dieses sogar überholt, und zwar sowohl was die Nutzung von Facebook-»Likes« zur Einschätzung von Persönlichkeitsmerkmalen auf der Basis des FFM-Modells anbelangt als auch bei der Vorhersage von »Lebensprognosen« wie »allgemeine Zufriedenheit«, »Drogenmissbrauch« oder »Depression«.69 Die Studie ließ keinen Zweifel am eigentlichen Durchbruch bei der Erforschung Facebookbasierter Vorhersagen: die Wirtschaftlichkeit bei der Ausbeutung dieser höchst intimen Verhaltenstiefen durch »automatisierte, akkurate und billige Tools zur Persönlichkeitseinschätzung«, die das effektive Targeting einer neuen Klasse von »Objekten« erlaubt, die früher mal unter dem Begriff »Persönlichkeit« bekannt war. Dass diese Wirtschaftlichkeit zu erreichen ist, ohne dass das die freilebenden Tiere mitbekommen, macht das Ganze nur noch reizvoller, wie ein anderes Team in seiner Arbeit herausstellt: »Die traditionelle Methode für die Persönlichkeitsbewertung ist des Aufwands an Zeit und Arbeit wegen extrem kostspielig, außerdem lassen sich die Informationen zur Persönlichkeit der Betroffenen damit nicht ohne deren Bewusstsein erfassen.«70 Die Persönlichkeitsanalyse zum kommerziellen Vorteil baut auf Verhaltensüberschuss – sogenannten »Metadaten« oder »Mid-LevelMetriken«, von den Forschern verfeinert und getestet und darauf angelegt, alle zu täuschen, die meinen, sie hätten die Kontrolle über die »Menge« an persönlichen Informationen, die sie in sozialen Medien preisgeben. Um einer erschwinglichen Autoversicherung willen – um nur ein Beispiel zu nennen – muss man uns als verantwortungsbewusst, freundlich und offen kodifizieren. Groß vorzutäuschen ist da nichts, da der Überschuss, der zur Analyse herangezogen wird, sich uns nicht notwendigerweise erschließt. Wir werden nicht auf Substanz überprüft, sondern auf Form. Der Preis, den man Ihnen bietet, errechnet sich nicht aus dem, was Sie schreiben, sondern daraus, wie Sie es schreiben. Nicht was in Ihren Sätzen steht, zählt, sondern

deren Länge und Komplexität, nicht was Sie auflisten, sondern die Tatsache, dass Sie eine Liste aufstellen, nicht das Bild selbst, sondern die Wahl des Filters und der Grad der Sättigung, nicht was Sie enthüllen, sondern wie Sie Privates mit anderen teilen oder eben nicht, nicht wo Sie sich mit Ihren Freunden verabreden, sondern wie Sie das bewerkstelligen – durch ein beiläufiges »man sieht sich« oder die Angabe von Ort und Zeit. Nicht weniger aufschlussreich und potenziell schädlich für Ihr Selbst sind Ausrufezeichen und Adverbien. Die Banalität dieser Einsichten in unsere »Persönlichkeit« sollte nicht davon ablenken, dass sowohl Volumen als auch Tiefe des neuen, durch derlei Extraktionsoperationen ermöglichten Verhaltensnachschubs beispiellos sind; derlei war bis dato schlicht unvorstellbar.71 Wie Michal Kosinski 2015 einem Interviewer gegenüber sagte, verstehen wenige, dass Unternehmen wie »Facebook, Snapchat, Microsoft, Google und andere Zugang zu Daten haben, die Wissenschaftler selbst nie hätten erfassen können«.72 Datenwissenschaftler haben die Persönlichkeitsmerkmale des FFM-Modells mit Überschuss aus den Fotos von Twitter-Profilen (Farbe, Komposition, Bildtypus, demografische Informationen, Gesichtspräsentation und -ausdruck) vorhergesagt,73 aus Selfies (Farbe, Stil, visuellen Texturen etc.)74 und Instagram-Fotos (Farbtöne, Helligkeit, Sättigung etc.).75 Andere haben alternative algorithmische Modelle76 und Persönlichkeitskonstrukte getestet.77 Ein anderes Forscherteam demonstrierte die Möglichkeit, aus Facebook- und Twitter-Messages auf die »Lebenszufriedenheit« zu schließen.78 In dieser neuen Welt gibt es keinen Manager, der auf Händen und Knien mit einer Schere den Ausdrucken einer betriebsinternen Messaging-Software zu Leibe rückt, um sie sinnvoll zu ordnen; hier wird mit anderen Worten nicht der Boden eines Büros »gecrawlt«, sondern Sie selbst. In besagtem Interview von 2015 bemerkte Kosinski: »Alle unsere Interaktionen werden heute durch digitale Produkte und Dienste vermittelt, was nichts anderes bedeutet, als dass im Grunde alles aufgezeichnet wird.« Er bezeichnet seine eigene Arbeit als »ziemlich gruselig«: »Ich möchte wirklich betonen, dass vieles von dem, … was man machen kann, von Unternehmen und Staat nicht ohne Einwilligung der Nutzer gemacht werden sollte.« In Anspielung auf die klägliche Asymmetrie der

Wissensteilung bedauerte er die Weigerung von Facebook und anderen Unternehmen, ihre Daten mit der »allgemeinen Öffentlichkeit« zu teilen. Unterm Strich kommt er zu dem Schluss, dass »wir als Gesellschaft der Fähigkeit verlustig gegangen sind, große Konzerne mit enormen Budgets und enormem Zugang zu Daten dazu zu bringen, diesen Segen mit uns zu teilen … und das nicht, weil die böse wären, sondern weil die Öffentlichkeit im Großen und Ganzen einfach so verdammt blöde ist … Wir sollten endlich erwachsen werden und dem ein Ende machen«.79 Im Kapitalismus jedoch sorgt eine latente Nachfrage nun einmal für Anbieter und Angebot; im Überwachungskapitalismus ist das nicht anders. Durchaus wohlmeinende Forscher lassen sich unwissentlich einspannen, in den Tiefen unseres Selbst nach Verhalten zu schnüffeln, und hinterlassen dabei eine Spur billiger, aber saftiger Happen, die die von der Kette gelassenen Hunde des Vorhersageimperativs nur aufzuspüren und zu verschlingen brauchen. Es dauerte denn auch nicht lange, und es war so weit. Anfang 2015 stellte IBM seinen Watson Personality Service vor.80 Die Maschinenintelligenz des Unternehmens und deren Tools sind gar noch komplexer und invasiver als die der meisten akademischen Studien. Über das Fünf-Faktoren-Modell hinaus schätzte IBM jedes Individuum nach zwölf Kategorien von »Bedürfnissen« ein: »Begeisterungsfähigkeit, Harmonie, Neugier, Ideale, Nähe, Selbstverwirklichung, Freiheit, Liebe, praktische Veranlagung, Stabilität, Herausforderung und Struktur«. Daraufhin identifiziert Watson »Werte«, die als »motivierende Faktoren« definiert sind, »die den Entscheidungsprozess einer Person über fünf Dimensionen beeinflussen: Selbsttranszendenz / Hilfe für andere, Bewahrung / Tradition, Hedonismus / Freude am Leben, Selbststeigerung /  Erfolgsstreben und Offenheit für Veränderung / Begeisterungsfähigkeit.«81 IBM verspricht neben »grenzenlosen« Anwendungsmöglichkeiten für seinen neuen Überschussnachschub »eingehendere Porträts individueller Kunden«.82 Wie zu erwarten, testet man diese Operationen an wehrlosen Angestellten, die, einmal daran gewöhnt, zu fügsamen Angehörigen einer verhaltenstechnisch gesäuberten Gesellschaft werden können. Es lassen sich jetzt »Persönlichkeitskorrelate« identifizieren, anhand derer sich präzise die Art und Weise vorhersagen lässt, in der der einzelne Kunde auf Marketingmaßnahmen reagieren wird. Wer wird einen Coupon einlösen?

Wer wird welche Produkte kaufen? Laut IBM lassen sich »Content und Verhalten in sozialen Medien« einsetzen, »um durch die regelhafte Zuordnung von Persönlichkeit und Verhalten … von den Möglichkeiten gezielter Ertragsförderung zu profitieren«.83 Die Marketing-Messages, wie überhaupt der Ansatz von Kundendienstmitarbeitern, Versicherungsvertretern, Reiseberatern, Immobilien- und Investitionsmaklern usw., lassen sich mit der »Persönlichkeit« des Kunden in Deckung bringen – genauer gesagt mit den psychologischen Daten, die man einem der Genannten im Augenblick der Kontaktaufnahme zuspielt.84 Wie IBMs eigene Forschungen ergeben haben, erzielen Akteure, die man mit den Persönlichkeitsmerkmalen »soziale Verträglichkeit« und »Gewissenhaftigkeit« verbindet, einen erheblich höheren Grad an Kundenzufriedenheit. So etwas lässt sich mit gesundem Menschenverstand erkennen, nur dass diese Interaktionen jetzt in Echtzeit und großem Stil mit dem Ziel gemessen und aufgezeichnet werden, Verhalten je nach Marktwirkung zu belohnen oder ausmerzen zu können.85 Dank der Rendition vermag eine Handvoll mittlerweile messbarer Persönlichkeitsmerkmale – wie etwa das »Bedürfnis nach Liebe« – die Wahrscheinlichkeit vorauszusagen, mit der man »eine bestimmte Marke« mag.86 In einem Experiment mit zielgerichteter Werbung auf Twitter fand IBM heraus, dass sich die Klick- wie die »Follow«-Raten signifikant erhöhen ließen, indem man Individuen mit hohem »Offenheits«- und niedrigem »Neurotizismus«-Quotienten aufs Korn nahm. In einer anderen Studie erfasste IBM Verhaltensdaten von 2 000 Twitter-Nutzern, um Metriken wie Reaktionsrate, Aktivitätslevel und die Zeit zwischen Tweets zu eruieren; dazu bediente man sich psycholinguistischer Analysen von Tweets sowie Analysen nach dem Fünf-Faktoren-Modell vor. IBM trainierte sein Vorhersagemodell, indem man den 2 000 Nutzern standortoder produktbezogene Fragen stellte. Wie die Ergebnisse zeigten, ließ sich anhand von Persönlichkeitsinformationen die Wahrscheinlichkeit von Antworten voraussagen. Leute, die die Maschinen als moralisch, vertrauensvoll, freundlich, extrovertiert und umgänglich einstuften, neigten eher zu einer Antwort als Leute, die man als vorsichtig und ängstlich eingestuft hatte. Wir sehen also viele der Charakteristiken, die wir unseren Kindern beizubringen und nach denen wir unser eigenes Verhalten

auszurichten versuchen, mir nichts, dir nichts zu Enteignungsinstrumenten für die verborgenen maschinellen Renditionsprozesse umgemodelt. Man könnte auch sagen, dass in dieser neuen Welt Paranoia und Ängstlichkeit als Schutz vor maschineller Invasion aus Profitgier dienen. Müssen wir unseren Kindern künftig beibringen, ängstlich und argwöhnisch zu sein? IBM ist hier natürlich nicht allein. Rasch hat sich ein innovativer neuer Schlag von Persönlichkeitssöldnern an die Institutionalisierung dieser neuen Versorgungsoperationen gemacht. Gerade ihre Anstrengungen lassen ahnen, wie schnell wir die Orientierung verlieren, sorgt die Institutionalisierung doch erst für Normalität und soziale Akzeptanz, um uns dann allmählich das dicke Fell wachsen zu lassen, das mit der Gewöhnung einhergeht. Dieser Prozess beginnt mit Geschäftsplänen und Marketingbotschaften, neuen Produkten, Diensten und nicht zuletzt mit journalistischen Darstellungen, die die neuen Fakten als gegeben hinzunehmen scheinen.87 Zu dieser neuen Schar von Söldnern gehört auch Cambridge Analytica, eine britische Unternehmensberatung im Besitz des publikumsscheuen Milliardärs Robert Mercer, der auch Donald Trump finanziert. Der CEO des Unternehmens Alexander Nix brüstete sich damit, mit dem persönlichkeitsbasierten »Mikro-Verhaltens-Targeting« sowohl zur »Brexit«-Kampagne als auch zu Trumps Wahlkampf beigetragen zu haben.88 Nix behauptet, Daten auf einen »individuellen Level« aufgelöst zu haben, »an dem wir fast um die vier- oder fünftausend Datenpunkte über jeden Erwachsenen in den Vereinigten Staaten haben«.89 Während Wissenschaft und Presse dem Wahrheitsgehalt dieser Aussage sowie der Rolle auf den Grund zu gehen versuchten, die diese Techniken bei den Wahlen von 2016 gespielt haben könnten, gab der neue Chief Revenue Officer der Firma eher leise die weniger glamouröse, aber dafür umso lukrativere Strategie für die Zeit nach der Wahl bekannt. »Nach dieser Wahl gehen wir volle Segel ins kommerzielle Geschäft.« In einem Artikel für ein Fachjournal für Autohändler sagte er kurz nach der Wahl in Amerika, seine neuen Analysemethoden enthüllten, »wie ein Kunde etwas verkauft haben möchte, wie sein Persönlichkeitstyp aussieht und mit welcher Methode er am besten zu überreden ist … Es verändert das Verhalten der Leute durch sorgfältig gearbeitetes Messaging, das ihnen zusagt … Es braucht nur

geringfügige Verbesserungen bei der Konversionsrate, und ein Autohaus kann mit einer dramatischen Ertragssteigerung rechnen.«90 2018 spielte man der investigativen News-Website The Intercept ein Facebook-Dokument zu, das die Bedeutung von Daten aus der Tiefe bei der Fabrikation von Facebooks Vorhersageprodukten illustriert. Es bestätigt damit die primäre Ausrichtung des Unternehmens auf die Verhaltensterminkontraktmärkte und enthüllt das Maß, in dem die umstrittenen Praktiken von Cambridge Analytica bei Facebook business as usual reflektieren.91 In dem vertraulichen Dokument heißt es, Facebooks unvergleichliches »Know-how auf dem Gebiet des Maschinenlernens« ziele darauf ab, den »geschäftlichen Kernherausforderungen« seiner Kunden entgegenzukommen. Dazu stellt man Facebooks Fähigkeit heraus, seine ebenso konkurrenzlosen wie intimen Datenschätze dahingehend einzusetzen, »künftiges Verhalten vorherzusagen«, indem man den Einzelnen aufs Korn nimmt: wie er sich verhalten, was er kaufen und was er denken wird – jetzt, später, irgendwann. Das Dokument verbindet Vorhersage, Eingriff und Modifikationen. So preist man zum Beispiel einen als »Loyalitätsvorhersage« bezeichneten Facebook-Dienst seiner Fähigkeit wegen, den Verhaltensüberschuss einer Person dahingehend zu analysieren, ob eine »Gefahr bestehe«, dass sie sich einer anderen Marke zuwendet. Der Gedanke dahinter ist, dass derlei Vorhersagen das sofortige Eingreifen der Werbetreibenden auslösen könnten, um die Loyalität des Betroffenen durch aggressives Messaging wieder zu stabilisieren. Womit man mit anderen Worten durch die Veränderung der Zukunft ein garantiertes Ergebnis erreicht. Facebooks »Vorhersagemaschine« basiert auf einer neuen Plattform namens »FBLearner Flow«, die das Unternehmen als sein neues »AIBackbone« bezeichnet. Sie sei der Schlüssel zu »personalisierten Erfahrungen«, die »besonders relevanten Content« garantierten.92 Das Maschinenlernsystem »schluckt Tag für Tag Billionen von Datenpunkten, trainiert Tausende von Modellen – entweder offline oder in Echtzeit – und stellt diese dann der Serverflotte für Vorhersagen in Echtzeit zur Verfügung«. Wie das Unternehmen erklärt, hat man »seit seiner Inbetriebnahme über eine Million Modelle trainiert, und unser

Vorhersagedienst ist derart gewachsen, dass er über sechs Millionen Vorhersagen pro Sekunde machen kann«.93 Wie wir bereits gesehen haben, leitet sich die »Personalisierung« aus der Vorhersage ab; die Vorhersage wiederum leitet sich ab aus den von Tag zu Tag größeren Beständen an Verhaltensüberschuss und damit aus immer skrupelloseren Rendition-Operationen. Das vertrauliche Dokument nennt sogar einige der Rohstoffe, die man an diese ebenso hochvolumige wie breit diversifizierte Hochgeschwindigkeits-Fertigungsoperation verfüttert: Standort, Einzelheiten über das WLAN-Netzwerk, Informationen über das Gerät, aber auch Daten aus Videos, Analysen von Affinitäten, Einzelheiten über Freundschaften, Ähnlichkeiten mit Freunden usw. usf. Es war vermutlich kein reiner Zufall, dass die geleakte FacebookPräsentation etwa um dieselbe Zeit auftauchte, in der eines der Superhirne bei Cambridge Analytica, ein junger Mann namens Chris Wylie, zum Whistleblower wurde und die Welt über die geheimen Bemühungen der Firma informierte, Einfluss auf das Wahlverhalten Einzelner zu nehmen. Im Nu hatten sich die Augen der Welt auf die kleine, auf politische Analysen spezialisierte Firma und die gigantische Datenquelle hinter ihr gerichtet: Facebook. Es gibt viele unbeantwortete Fragen hinsichtlich der Rechtmäßigkeit von Cambridge Analyticas komplexem Manöver und seiner tatsächlichen politischen Wirkung, aber auch hinsichtlich der Beziehung des Unternehmens zu Facebook. Uns interessiert hier nur, dass seine Machenschaften ein grelles Licht auf die Macht überwachungskapitalistischer Mechanismen werfen, vor allem auf die Entschlossenheit, mit der man sich mit Daten aus der Tiefendimension versorgt. Kosinski und Stillwell hatten die Aufmerksamkeit auf den kommerziellen Wert ihrer Methoden gelenkt; sie wussten, dass Überschuss aus der Tiefe ganz neue Möglichkeiten sowohl für die Manipulation als auch die Modifikation von Verhalten bot. Wylie berichtet, wie sehr ihn diese Aussichten fasziniert hatten und dass er es gewesen war, der Cambridge Analytica dazu überredete, Kosinskis und Stillwells Daten zur Förderung von Robert Mercers politischen Zielen einzusetzen. Vorgabe war das »Micro-Targeting von Verhalten … die Einflussnahme auf die Wähler auf der Basis nicht etwa demografischer Erkenntnisse, sondern ihrer

Persönlichkeit.94 Als entsprechende Verhandlungen mit Kosinski und Stillwell scheiterten, heuerte man mit Alexander Kogan einen dritten Akademiker aus Cambridge an, der mit einem ähnlichen Datenschatz arbeiten sollte: Facebooks Persönlichkeitsdaten. Kogan war bei Facebook kein Unbekannter. Er hatte mit den Datenwissenschaftlern des Unternehmens schon 2013 zusammengearbeitet; Facebook hatte für das Projekt Daten über 57 Milliarden »Freundschaften« zur Verfügung gestellt. Diesmal bezahlte er schätzungsweise 270 000 Leute für die Teilnahme an einem Persönlichkeitsquiz. Was die Teilnehmer freilich nicht wussten, war, dass Kogan nicht nur Zugang zu ihren Facebook-Profilen hatte, sondern auch zu den Profilen von durchschnittlich 160 ihrer Freunde, »die keine Ahnung hatten von der Verletzung ihrer Privatsphäre, »noch hatten sie Grund, etwas zu vermuten«.95 Es handelte sich um eine Rendition-Operation ungeheuren Ausmaßes, mittels der Kogan psychologische Profile von zwischen 50 und 87 Millionen Facebook-Nutzern erstellte; diese Daten verkaufte er dann an Cambridge Analytica.96 Nach seiner Arbeit befragt, hatte Kogan Facebook versichert, seine Forschung sei rein akademischer Art. Die gegenseitige Wertschätzung beider Parteien war so robust, dass Facebook einen von Kogans Assistenten für die hauseigene psychologische Forschungsgruppe unter Vertrag nahm.97 »Wir haben auf Facebook Millionen von Nutzerprofilen abgegriffen«, gestand Wylie, »und mit diesem Wissen Modelle aufgebaut, um mit den auf der Basis dieses Wissens aufgebauten Modellen gezielt die inneren Dämonen der Leute zu adressieren.98 Seine Zusammenfassung der Leistungen von Cambridge Analytica ist gleichzeitig ein Abriss des überwachungskapitalistischen Projekts an sich und eine Erklärung für dessen Entschlossenheit zur Rendition aus der Tiefe. Es handelt sich hier um genau die überwachungskapitalistischen Fähigkeiten, die in den fast zwei Jahrzehnten seiner Inkubation im rechtsfreien Raum erstarken konnten. Dass die Offenlegung dieser Praktiken weltweit für Erstaunen sorgte, verwundert angesichts der Tatsache, dass es sich hier um nichts weiter handelte als um Routineelemente in der täglichen Umsetzung überwachungskapitalistischer Methoden und Ziele. Das ist bei Facebook nicht anders als bei anderen überwachungskapitalistischen Unternehmen. Indem Cambridge Analytica statt der kommerziellen

Verhaltensterminkontraktmärkte garantierte Ergebnisse in der politischen Sphäre anvisierte, änderte man lediglich die Schussrichtung der überwachungskapitalistischen Maschinerie. Nicht Wylie, sondern Eric Schmidt hatte die Büchse der Pandora geöffnet. Als er die Wahlverwandtschaft zementierte, die für den überwachungstechnischen Ausnahmezustand sorgte, ebnete er den Weg für die Übertragung überwachungskapitalistischer Kernmechanismen auf den Wahlprozess. Immerhin hatte Wylie sich als Obamas »Director of Targeting« die ersten Sporen verdient.99 Schmidts nunmehr waffenfähige Innovationen sind zum Objekt der Begierde für jeden Wahlkampf geworden und, weit gefährlicher noch, auch für alle Feinde der Demokratie.100 Cambridge Analytica hatte jedoch nicht nur die Grundmethoden des Überwachungskapitalismus – Rendition, Verhaltensüberschuss, Maschinenintelligenz, Vorhersageprodukte, Größen-, Diversifikations- und Aktionsvorteile – auf den Wahlkampf übertragen, das finstere Abenteuer lieferte darüber hinaus auch Anschauungsmaterial für die taktischen Erfordernisse des Überwachungskapitalismus. Die Operationen des Unternehmens zielten darauf ab, durch Geheimniskrämerei für Unwissenheit zu sorgen und das Bewusstsein des Einzelnen ganz bewusst zu umgehen. Wylie bezeichnet das als »Informationskrieg« und räumt zu Recht die Asymmetrien von Wissen und Macht ein, die für die Verhaltensmodifikationsmittel von so grundsätzlicher Bedeutung sind: Ich finde so was schlimmer als Schikane, weil die Leute womöglich gar nicht mitbekommen, was da mit ihnen passiert. Die Schikane respektiert den anderen wenigstens als Akteur, insofern der Bescheid weiß … Wenn man den anderen nicht als Akteur respektiert – alles, was über diesen Punkt hinaus passiert, ist der Demokratie alles andere als förderlich. Und ein Informationskrieg ist der Demokratie vom Wesen her nicht förderlich.101 Wir müssen hier freilich einräumen, dass dieser »Krieg« und seine Invasions- und Eroberungsstrukturen längst zum überwachungskapitalistischen Standardrepertoire gehören; Tag für Tag zwingt man sie Milliarden argloser Menschen auf, insofern RenditionOperationen alle Grenzen verletzen und Modifikationsoperationen die

Herrschaft über alle und jeden beanspruchen. Der Überwachungskapitalismus nötigt uns dieses »Handeln« ab als Quidproquo für Information und Verbundensein, während er die Grenzen der Rendition unablässig in neue Territorien ausweitet. Und auf diesem Vormarsch setzen Unternehmen wie Facebook und Google alles verfügbare Fußvolk ein – Sozialwissenschaftler wie Kogan zum Beispiel, die sich mächtig ins Geschirr legen, den Unternehmen ihre hochmodernen Methoden nicht nur beizubringen, sondern ihnen dann auch noch dabei zu helfen, sie zu integrieren und für die Eroberung der nächsten Grenze zu perfektionieren – aber davon mehr in Kapitel 10. Ungeachtet der tatsächlichen Möglichkeiten der Firma und der politischen Auswirkungen ihres Handelns zeugt das Tun von Cambridge Analytica von der Schlüsselrolle der Tiefenrendition bei Vorhersage und Modifikation von Verhalten im Dienste der Gewissheit. Milliardäre wie Zuckerberg und Mercer haben festgestellt, sich mit Gewalt die Macht über die Wissensteilung in der Gesellschaft verschaffen zu können, indem sie sich dieser Rendition-Operationen zu bemächtigen versuchen und mit ihnen der Schicksale, die diese erzählen. Sie wollen die Macht zu wissen, zu entscheiden, wer weiß, und zu entscheiden, wer entscheidet. Die Rendition der »Persönlichkeit« war ein Meilenstein in diesem Unterfangen – eine Grenze, sicher, aber noch lange nicht die letzte.

Maschinenemotionen 2015 bekam ein gerade mal acht Jahre altes Start-up namens Realeyes von der Europäischen Kommission Fördermittel von 3,6 Millionen Euro für ein Projekt mit dem Codenamen »SEWA: Automatic Sentiment Analysis in the Wild«.102 Ziel war »die Entwicklung automatisierter Technologie, die die Emotionen einer Person während des Betrachtens von Content zu erkennen vermag und auf dieser Basis ermitteln kann, wie sehr dieser Person der Content gefällt«. Für den Director of Video bei AOL International war das Projekt »ein Riesensatz vorwärts in Sachen Video-Reklame-Technologie … dem Heiligen Gral des Video-Marketing«.103 Schon im Jahr darauf gewann Realeyes mit dem Horizon 2020 den Innovationspreis der Kommission für

»seine auf Maschinenlernen basierten Tools, die Marktforscher dabei unterstützen, die Wirkung ihrer Werbung zu analysieren, um sie relevanter zu machen«.104 Das SEWA-Projekt gestattet uns den Blick auf eine ganz neue Art der Rendition und damit der Versorgung mit Verhaltensüberschuss: »Affective Computing«, das auch unter den Bezeichnungen »Emotionsanalytik« und »Gesinnungsanalyse« firmiert. Mithilfe dieser Tools taucht das Personalisierungsprojekt tiefer hinab auf den Meeresgrund, um dort ein neues Grenzgebiet der Rendition zu beanspruchen, das über unsere Persönlichkeit hinaus nach unserem Seelenleben greift. Für den Erfolg dieses Projekts, Überschuss in unseren seelischen Tiefen zu schürfen, muss zunächst unser Unbewusstes – der Ort, wo sich unsere Gefühle ausbilden, bevor sie zu Worten werden – neu interpretiert werden als Rohstoffquelle für die maschinelle Rendition und Analyse unter den Vorzeichen der immer präziseren Vorhersage. Der Bericht eines Markforschers zum Thema Affective Computing bringt das folgendermaßen auf den Punkt: »Kenntnis des emotionalen Zustands in Echtzeit kann Geschäften beim Verkauf ihrer Produkte und damit bei der Ertragssteigerung zur Hand gehen.«105 Emotionsanalyseprodukte wie SEWA durchkämmen – oft mittels kleinster und damit »unaufdringlicher« Kameras – und hochspezialisierter Software Gesichter, Gesten, Körper und Gehirn und verdaten ihre Funde mittels »biometrischer« und »Tiefen«-Sensoren. Dieser maschinenintelligente Komplex wird darauf trainiert, auch noch das subtilste und intimste Verhalten zu isolieren, zu erfassen und zu verdaten, vom unbeabsichtigten Wimpernschlag bis zum vor Überraschung für den Bruchteil eines Augenblicks geöffneten Mund. Sensoren und Software vermögen Gesichter zu erkennen und zu identifizieren; sie schätzen Alter, ethnische Zugehörigkeit und Geschlecht; sie analysieren Blickrichtung und Wimpernschlag; sie tracken bestimmte »Gesichtspunkte«, um »MikroÄußerungen« und Augenbewegungen zu lesen, Gefühle, Stimmungen, Stress, Unehrlichkeit, Langeweile, Ratlosigkeit, Absichten und mehr – und das alles in Echtzeit.106 In der Projektbeschreibung von SEWA heißt es dazu:

Technologien, die in natürlicher Umgebung robust und präzise menschliches Gesichts-, Stimm- und Sprachverhalten sowie Interaktionen zu analysieren vermögen, wie sie mit den allgegenwärtigen Webcams in digitalen Geräten zu beobachten sind, hätten eine tiefgreifende Wirkung sowohl auf die wissenschaftliche Grundlagenforschung als auch auf den industriellen Sektor. Sie … messen Verhaltensindikatoren, die sich bisher der Vermessung sperren, weil sie zu subtil oder flüchtig waren, um von menschlichen Augen oder Ohren gemessen zu werden107 Diese Art von Verhalten entzieht sich auch der bewussten Wahrnehmung. Die Maschinen dagegen erfassen die Nanosekunde der Empörung, die der zornigen Tirade vorangeht, die Nanosekunde, in der der Groschen fällt, oder das Aufleuchten schierer Freude auf dem Gesicht einer jungen Frau beim Anblick einer Filmsequenz, auch wenn sie verbal letztlich darüber nichts Präziseres zu sagen hat als: »Mir hat’s gefallen!« Realeyes selbst erklärt, dass die Webcams des Unternehmens Leute beim Videogucken in ihren eigenen vier Wänden beobachten, »damit wir echte Reaktionen erfassen können«. Algorithmen verarbeiten Gesichtsausdrücke, »Emotionen werden in Echtzeit erkannt, aggregiert und online übertragen, Sekunde für Sekunde … was unserer Kundschaft bessere Geschäftsentscheidungen ermöglicht«. Das Unternehmen legt Wert darauf, seine »proprietären Metriken« hervorzuheben, die Marketingleuten beim »Targeting spezieller Kundenkreise« und bei der »Vorhersage von Performance« behilflich seien. Wie so oft im Bereich der Maschinenintelligenz ist hier Qualität eine Funktion der Quantität. Laut Realeyes enthalten die verwendeten Datensätze über 5,5 Millionen annotierte Einzelbilder von mehr als 7 000 Versuchspersonen aus aller Welt: »Wir arbeiten am Aufbau des weltweit größten Bestands an Datensätzen zu Ausdruck und Verhalten. Wir arbeiten beständig an neuen Sätzen sowie an Qualität und Volumen unserer vorhandenen Kategorien: Gesichtsausdrücke, Emotionen, Verhaltensweisen oder unterschiedliche Intensitäten … Die Automatisierung dieser Prozesse erlaubt einen Grad an Skalierung, der uns die Emotionen eines gesamten Saals erfassen lässt.«108 Seinen Kunden rät das Unternehmen, »mit den Emotionen Ihres Publikums zu spielen, um vorne zu bleiben«.109 Die

Website der Firma bietet einen kurzen Überblick über die Geschichte der Erforschung menschlicher Emotionen. »Je mehr der Mensch empfindet«, so die Schlussfolgerung, »desto mehr gibt er aus … Ansonsten nicht fassbare ›Emotionen‹ werden zu konkreter sozialer Aktivität, Markenbewusstsein und Profit.«110 Der Vorsitzende von SEWAs Industry Advisory Board nimmt hinsichtlich des Unterfangens kein Blatt vor den Mund, wenn er sagt, »die unausgesprochene Sprache des ganzen Körpers und die Interpretation komplexer emotionaler Reaktionen … eignen sich wunderbar zur Interpretation von Reaktionen auf Marketingmaterial.« Klipp und klar stellt er fest: »Es grenzt an Dummheit, die emotionale Reaktion bei der Bewertung von Marketingmaterialien außen vor zu lassen.«111 Und tatsächlich extrahieren diese »unbewussten Tools« aus unserem Innenleben eine ganz neue Qualität von Verhaltensüberschuss, um vorherzusagen, was Sie in genau dem Augenblick kaufen werden, in dem Sie einem Anstoß von außen gegenüber besonders empfänglich sind. Dem Vorsitzenden von SEWAs Advisory Board zufolge lassen sich »Emotional Analytics« mit »dem Identifizieren einzelner musikalischer Noten« vergleichen. Jeder potenzielle Kunde werde damit zu einer kurzen, erkennbaren Komposition: »Wir werden in der Lage sein, ganze Akkorde menschlicher Reaktionen wie etwa ›Likes‹, Langeweile etc. zu identifizieren … Wir werden irgendwann zu Meistern im Lesen der Gefühle und Absichten unserer Mitmenschen.«112 Es ist beileibe nicht das erste Mal, dass man das Unbewusste aufs Korn nimmt, um es zum Instrument für anderer Leute Ziele zu machen. Propaganda und Werbung zielen seit jeher auf uneingestandene Ängste und Sehnsüchte ab. Nur hat man sich dabei bislang eher auf die Kunst verlassen als auf die Wissenschaft; man kommunizierte mit den Massen auf der Basis von Bruttodaten oder professioneller Intuition.113 Diese Operationen waren schlicht nicht zu vergleichen mit dem wissenschaftlichen Einsatz heutiger Rechenleistung zur unablässigen mikrovermessenen Rendition unserer mehr oder weniger echten Gefühle. Nicht, dass die Hersteller dieser Tools Sie Ihres Innenlebens zu berauben versuchten; es geht ihnen lediglich um dessen Überwachung und Ausbeutung. Sie wollen nichts weiter, als mehr über uns zu wissen als wir selbst.

Man hat die Schätze des Unbewussten im Lauf der Jahrtausende unterschiedlich ausgelegt – vom Geist über die Seele bis hin zum Selbst. Doch der Priester des Altertums und der moderne Psychotherapeut sind sich einig in ihrer Wertschätzung der heilenden Kräfte von Selbstentdeckung, Selbstbeherrschung, Integration, Konditionierung und Transzendenz. Im Gegensatz dazu hat die Auffassung von Emotionen als die Summe lesbarer Verhaltensdaten erst Mitte der 1960er-Jahre mit der Arbeit von Paul Ekman Wurzeln gefasst, damals noch ein junger Professor an der University of California, San Francisco. Von seinen ersten Veröffentlichungen an postulierte Ekman, dass »Taten mehr zählten als Worte«.114 Selbst wenn eine Person ihre emotionale Kommunikation zu zensieren oder zu kontrollieren versuche, so Ekman, schlüpfe doch die eine oder andere Art nonverbalen Verhaltens durch die Maschen dieser Kontrolle und sorge für »Leaks«.115 Schon früh erkannte er den potenziellen Nutzen eines »Einschätzungsmusters«, anhand dessen sich der Ausdruck zuverlässig auf seine ursächlichen Emotionen zurückverfolgen lässt,116 und 1978 schließlich veröffentlichte Ekman zusammen mit Wallace Friesen das bahnbrechende Facial Action Coding System (FACS), das ihm das gewünschte Muster bot. FACS unterscheidet die elementaren Bewegungen der Gesichtsmuskeln und teilt sie ein in siebenundzwanzig »Aktionseinheiten«, zu denen noch weitere kommen, so etwa für Kopf, Augen, Zunge. Später kam Ekman zu dem Schluss, dass sechs »Basisemotionen« (Wut, Angst, Trauer, Freude, Ekel, Überraschung) die Grundlage für das breitere Spektrum emotionalen Ausdrucks bieten.117 FACS und das Sechs-Emotionen-Modell sind im selben Maß zum dominanten Paradigma für das Studium von Mimik und Emotionen geworden, wie das Fünf-Faktoren-Modell das Studium der Persönlichkeit dominiert. Das Programm der emotionalen Rendition begann ganz harmlos am MIT Media Lab, wo die Professorin Rosalind Picard sich mit einem ganz neuen Gebiet der Computerwissenschaft beschäftigte, das sie »Affective Computing« nannte. Sie gehörte zu den Ersten, die die Möglichkeit sahen, Ekmans Mimikmuster mithilfe von Rechnern zu automatisieren und Mikroausdrücke mit ihren ursächlichen Emotionen zu korrelieren.118 Sie nahm sich zum Ziel, Gesichtsausdrücke mit der Berechnung stimmlicher

Intonation und anderen physiologischen Signalen emotionalen Ausdrucks zu verbinden, die sich als Verhalten messen lassen. 1997 veröffentlichte sie Affective Computing, in dem sie eine praktische Lösung dafür bot, dass einige Emotionen dem Bewusstsein zugänglich sind und sich »kognitiv« ausdrücken lassen (»Ich habe Angst«), während andere sich dem Bewusstsein womöglich entziehen, aber dennoch physisch ausgedrückt werden, etwa als Schweißperlen, in großen Augen oder einer fast unmerklichen Versteifung des Kinns. Der Schlüssel zum Affective Computing, so Picard, liege darin, sowohl bewusste als auch unbewusste Emotionen als beobachtbares Verhalten zur Kodifizierung und Berechnung zu erfassen. Ein Computer, so ihr Argument, wäre in der Lage, unsere Emotionen als Verhaltensinformationen wiederzugeben. Affekterkennung, wie sie es nennt, sei »ein Problem der Mustererkennung«, während »Affektausdruck« die Synthese von Mustern sei. Ihrer Ansicht nach könnte man »Computern die Fähigkeit verleihen, Emotionen mindestens so gut zu erkennen wie ein Mensch«. Picards Vorstellungen von einem praktischen Einsatz ihrer Einsichten in die Affekte waren gut gemeint, oder zumindest hatte sie damit nichts Böses im Sinn. Die meisten der von ihr beschriebenen Anwendungsmöglichkeiten gehorchten der Logik des Verhaltenswert-Reinvestitionszyklus: Jede Erkenntnis, die dabei zustande kam, sollte dem Subjekt gehören und seinem reflexiven Lernprozess dienen. So stellte sie sich zum Beispiel einen Computer als Interviewpartner vor, der als »affektiver Spiegel« dienen könnte, der einen als Coach auf ein Vorstellungsgespräch oder eine Verabredung vorbereiten könnte, und eine Art automatischen Korrektor, der einen auf aggressive Untertöne in einem Text aufmerksam machen könnte, bevor man auf »Abschicken« drückt. Picard antizipierte auch Tools, die Software und Sensoren kombinierten, von denen sie sich Vorteile für eine ganze Reihe von Alltagssituationen erhoffte. So hoffte sie, autistischen Kindern bei der Entwicklung emotionaler Kompetenzen helfen zu können; sie dachte daran, Programmierer per Feedback über die Frustrationslevel von Nutzern zu informieren; Spieler von Videospielen sollten Punkte für Mut oder Stressabbau bekommen; sie dachte an Lernmodule, die die Neugier anregen und Unbehagen minimieren; nicht zuletzt schwebte ihr vor, die emotionale Dynamik eines Klassenzimmers zu analysieren. Sie stellte sich interaktive Software vor, die unsere Vorlieben herausfinden, um

uns dann auf Nachrichten, Kleidung, Kunst oder Musik hinzuweisen, die sich positiv auf unsere Stimmung auswirken könnte.119 Wie immer wir auf diese Ideen reagieren mögen, ihnen ist ein wesentliches Grundmuster gemein: Ganz im Gegensatz zu dem, was Realeyes mit SEWA im Sinn hat, sollten Picards Daten nicht bloß über uns, sondern für uns da sein. Picard war sich 1997 der Notwendigkeit der Privatsphäre sehr wohl bewusst, »damit Sie die Kontrolle darüber behalten, wer Zugang zu diesen Informationen hat«. Für unsere Analyse besonders wichtig, brachte sie auf den letzten Seiten ihres Buches einige Bedenken zum Ausdruck: »Es gibt gute Gründe dafür, Ihre Affektmuster nicht aller Welt mitzuteilen … Mag sein, dass Sie Ihren Freunden Ihre gute Laune zeigen wollen … Was Sie vermutlich nicht wollen, ist, die Aufmerksamkeit eines Heers von Verkäufern auf sich zu ziehen, die es gar nicht erwarten können, Ihr stimmungsbedingtes Kaufverhalten auszubeuten, zu schweigen von Marketingleuten, die Sie davon überzeugen wollen, es könnte Ihnen mit ihrer Limonade gerade jetzt noch viel besser gehen.« Und nicht nur wies sie auf die Möglichkeit einer allzu aufdringlichen Überwachung am Arbeitsplatz hin, sie äußerte auch Bedenken hinsichtlich der Möglichkeit einer dystopischen Zukunft, in der »böswillige« staatliche Kräfte Affective Computing zur Manipulation und Kontrolle von Emotionen einsetzen könnten.120 Trotz der geäußerten Befürchtungen sind ihre Schlussfolgerungen eher nichtssagend. Jede Technologie, so schrieb sie, habe ihre »Vor- und Nachteile«. Derlei Bedenken seien jedoch keinesfalls »unüberwindliche Hürden«, da man »Vorkehrungen dagegen entwickeln« könne. Picard war zuversichtlich, dass mit Technik und Technologien jedes Problem zu lösen sei, und sie stellte sich »anziehbare Computer« vor, die »Informationen ausschließlich für Ihren persönlichen Gebrauch sammeln« würden. Es sei von größter Bedeutung, so betonte sie, »dass der Träger die letzte Kontrolle über derlei Geräte« behalte, »damit sie zu Werkzeugen der Selbstbefähigung werden und nicht zu Werkzeugen der Unterdrückung«.121 In einem Muster, wie wir es mittlerweile sattsam kennen, sind derlei Vorkehrungen angesichts des fliegenden Starts des Überwachungskapitalismus auf der Strecke geblieben. 2014 hatte Facebook bereits ein Patent für die »Emotionserkennung« eingereicht, das ganz dazu

angetan war, jede einzelne von Picards Befürchtungen zu bestätigen.122 Der Gedanke dahinter waren »ein oder mehrere Software-Module, die in der Lage sind, Emotionen, Mimik oder andere Charakteristika eines Nutzers anhand von Bildinformationen zu erkennen«. Wie immer gibt das Unternehmen sich ambitioniert. Die »keinesfalls erschöpfende« Liste »von Beispielen … zu erkennender Emotionen« umfasst mimische Äußerungen wie »Lächeln, Freude, Humor, Staunen, Begeisterung, Überraschung, Stirnrunzeln, Trauer, Enttäuschung, Verwirrung, Eifersucht, Gleichgültigkeit, Langeweile, Ärger, Depression oder Schmerz«. Gleichzeitig gibt man seiner Hoffnung Ausdruck, dass das Modul »mit der Zeit« in der Lage sein könnte, »das Interesse eines Users an dargestelltem Content« einzuschätzen, um diesen »auf einen Gefühlstyp zuschneiden zu können«.123 2017, also genau zwanzig Jahre nach Erscheinen von Picards Buch, prognostizierte ein führendes Marktforschungsunternehmen, dass der »Markt für Affective Computing«, so etwa Software, die Sprache, Gestik und Mimik erkenne, nebst Sensoren, Kameras, Speichergeräten und Prozessoren, von 9,35 Milliarden Dollar 2015 auf 53,98 Milliarden Dollar 2021 steigen würde, mit anderen Worten eine kumulierte jährliche Wachstumsrate von nahezu 35 %.124 Was hat diese Explosion ausgelöst? Was ist passiert? Ganz oben auf der Liste der »Trigger« für dieses dramatische Wachstum stehe »die steigende Nachfrage nach der Kartierung menschlicher Emotionen, vor allem auf dem Marketing- und Beratungssektor«.125 Picards gute Absichten wurden damit zu Eisenspänen im Banne eines Magneten, als die Marktnachfrage die elektronische Affekterkennung unter dem Diktat des Vorhersageimperativs ins übermächtige Kraftfeld des Überwachungskapitalismus zog. Picard sollte schließlich selbst ein Rädchen dieser neuen Enteignungsindustrie werden. Sie gründete zusammen mit ihrer Kollegin vom MIT Rana el Kaliouby eine Firma namens Affectiva, und deren Hinwendung zum Überwachungskapitalismus ist eine Metapher für das Schicksal der Emotionsanalyse an sich, die sich in den konkurrenzorientierten Mahlstrom der Überwachungserträge gezogen sieht. Picard und Kaliouby hatten mit der gemeinsamen Vision begonnen, ihre Forschung im medizinischen und therapeutischen Umfeld einsetzen zu

können. Insbesondere die Herausforderungen autistischer Kinder schienen ein perfektes Einsatzfeld für ihre Entdeckungen, als sie mit bezahlten Schauspielern ein Maschinensystem namens MindReader darauf trainierten, Emotionen anhand bestimmter Reaktionen und Gesichtsausdrücke zu erkennen. Von Anfang an schon hatte die ganze Riege der Firmensponsoren des MIT – Pepsi, Microsoft, Bank of America, Nokia, Toyota, Procter & Gamble, Gillette, Unilever und andere – die beiden mit Anfragen überhäuft, ob sich ihr System nicht auch zur Messung der emotionalen Reaktionen von Kunden einsetzen ließe. Kaliouby schildert das anfängliche Zögern der beiden Frauen angesichts ihrer Entschlossenheit, mit ihren Applikationen »Gutes zu tun«. Ihrem Bericht zufolge hatte das Media Lab den beiden Frauen zugeredet, ihre Arbeit als »Spin-Off« in ihr Start-up Affectiva einzubringen, das als »Baby-IBM für künstliche emotionale Intelligenz« konzipiert war.126 Es dauerte nicht lange, und das neue Unternehmen konnte sich vor Anfragen von Werbeagenturen und Marketingfirmen kaum retten – alle waren sie ganz erpicht auf die automatisierte Rendition und Analyse aus der Tiefe. Picard schilderte einem Journalisten gegenüber diese Zeit folgendermaßen: »Unser CEO konnte mit dem medizinischen Bereich aber auch schon gar nichts anfangen.« Folge davon war, dass Picard sich bereits drei Jahre nach Gründung der Firma »hinausgedrängt« sah. Einer der Wissenschaftler erzählte das folgendermaßen: »Wir begannen mit einer Palette leistungsfähiger Produkte zur Unterstützung von Menschen, die sich mit dem Erkennen von Affekten schwertun … Dann verlegte man sich immer mehr auf das Gesicht, konzentrierte sich auf die Werbung und auf Vorhersagen, ob jemandem ein Produkt gefällt. Man kam einfach total ab von der ursprünglichen Mission.«127 Unternehmen wie der Marktforscher Millward Brown und der Werberiese McCann Erickson, die in einer neuen Welt gezielter »personalisierter« Werbung konkurrierten, lechzten geradezu nach Zugang zu den inartikulierten Tiefen der Verbraucherreaktion. Millward Brown hatte bereits eine neurowissenschaftliche Abteilung eingerichtet, hatte aber Probleme mit der Skalierung. Es war Affectivas Analyse einer besonders nuancierten Anzeige für Millward Brown, die die Executives des Unternehmens betörte; und sie war es denn auch, was zum Kurswechsel des

Start-ups führte. »Die Software sagte uns etwas, was wir möglicherweise nicht sahen«, erklärte ein Executive von Millward Brown. »Die Leute sind oft nicht in der Lage, derlei Details in sechzig Sekunden zu artikulieren.«128 2016 war Kaliouby CEO der Firma und sorgte für die Neudefinierung des Kerngeschäfts als »Emotion AI«.129 Die Firma hatte 34 Millionen Dollar Risikokapital aufgenommen, und zu ihren Kunden gehörten 32 Fortune-100-Unternehmen und 1 400 Marken aus aller Welt.130 Man behauptete, mit 4,8 Millionen Gesichtsvideos aus 75 Ländern die weltweit größte Emotionsdatenbank zu haben, arbeitete aber dennoch an der ständigen Erweiterung seiner Versorgungsrouten mit Dateien von OnlineViewern, Gamern, Autofahrern und aus Unterhaltungen.131 In eben diesem kommerziellen Kontext hatte Kaliouby langsam, aber sicher das Gefühl, dass es doch nur logisch wäre, einen »Emotionschip« zur operativen Grundlage einer neuen »Emotionsökonomie« zu erklären. Sie schwärmt ihrem Publikum gegenüber von einem Chip, der überall in alles eingebaut sein werde, ständig im Hintergrund läuft und jedes Mal, wenn man nach seinem Smartphone sieht, für einen »Emotionspuls« sorgt: »Meiner Ansicht nach werden wir in Zukunft einfach davon ausgehen, dass jedes Gerät in der Lage ist, unsere Emotionen zu lesen.«132 Mindestens eine Firma nahm ihren Vorschlag ernst: Emoshape. Die Firma mit dem Motto »Das Leben ist der Wert« produziert einen Mikrochip, den sie als »die erste Maschine für Emotionssynthese der Branche« anbietet; man spricht von »hochperformantem maschinellem Emotionsbewusstsein«. Wie das Unternehmen verlauten lässt, kann sein Chip mit einer Genauigkeit von bis zu 98 % zwölf Emotionen klassifizieren, was es seiner »künstlichen Intelligenz … erlaubt, 64 Billionen möglicher emotionaler Zustände zu erfahren«.133 Kalioubys Vorstellung nach werden wir künftig das pausenlose »Scannen von Emotionen« genauso als gegeben hinnehmen wie das Setzen von »Cookies« beim Surfen im Web. Auch diese Cookies sorgten einst für Entrüstung, heute waten wir auf unserem Weg durchs Web in einer Flut von Cookies. So sieht sie zum Beispiel YouTube die Gesichter seiner Nutzer scannen, während sie sich dort Videos ansehen. Auftrieb bekommt ihre Zuversicht durch die sich aus dem Vorhersageimperativ ergebende Nachfrage. »So wie ich das sehe, spielt es überhaupt keine Rolle, dass Ihr

Fitbit keine Kamera hat, weil Ihr Handy eine hat und Ihr Laptop und Ihr Fernseher eine haben werden. All diese Daten liefern, mit der Biometrie Ihrer anziehbaren Geräte gekoppelt, Ihr emotionelles Profil.134 Für den Anfang ebnete Affectiva schon mal den Weg für die Vorstellung von der »Emotion als Dienstleistung«, indem das Unternehmen seine Analysen »on demand« anbietet: »Zeichnen Sie einfach Menschen beim Ausdrücken von Gefühlen auf und schicken Sie uns diese Videos oder Fotos zu, wir liefern Ihnen dazu aussagekräftige Metriken.«135 Die Möglichkeiten der Tiefendimension scheinen endlos, und sie werden das womöglich auch sein, wenn man Affectiva und seiner Kundschaft nebst Gesinnungsgenossen erlaubt, unser Selbst nach Belieben zu plündern. Es finden sich Hinweise auf noch weit ambitioniertere Projekte, die die »Emotion als Dienstleistung« von der bloßen Beobachtung auf die aktive Modifikation ausweiten wollen. »Glück als Dienstleistung« scheint damit zum Greifen nah. »Ich glaube wirklich, dass wir Ihnen, wenn wir Informationen über Ihre emotionalen Erfahrungen haben, zu einer positiven Stimmung verhelfen können«, sagt Kaliouby. Ihrer Vision zufolge werden Emotionserkennungssysteme Sternchen für Glück vergeben, schließlich sind glückliche Kunden ganz anders »bei der Sache«.136

Wenn sie kommen, um Ihre Wahrheit zu holen Rendition ist mittlerweile zum weltweiten überwachungskapitalistischen Projekt geworden, und in der Tiefendimension ist sie besonders fatal. Sie beansprucht intime Gebiete unseres Selbst, wie etwa Persönlichkeit und Emotionen ihrer besonders reichen Vorkommen an prädiktivem Überschuss wegen als beobachtbares Verhalten. In dem festen Entschluss, das Innenleben um der fetten Überwachungserträge willen zu parsen und abzupacken, erklärt ein neuer Schlag von Söldnern auf der Jagd nach dem Selbst die schützenden Barrieren um unser Innenleben als »schlecht fürs Geschäft«. Ihr Fachgebiet macht Schluss mit der Vorstellung vom autonomen Einzelnen, und man belohnt die neue »Barrierefreiheit« mit allerhand Tand: Premiumstatus, Boni, Glückssternchen, Rabatte, »Kaufen!«-Buttons, die in genau dem Augenblick auf Ihrem Gerät

auftauchen, für den man die maximale Erfolgschance vorhergesagt hat – Hauptsache, wir ziehen uns aus und überlassen uns den raffenden Händen neugieriger Maschinen, die diese neue Marktwelt regieren. Ich verzichte hier ganz bewusst auf eine eingehende Erörterung der Begriffe »Bewusstheit«, »Unbewusstheit«, »Emotion« oder »Persönlichkeit« zugunsten einer, wie ich hoffe, weniger ungebärdigen Wahrheit, die diese jüngste Phase des Übergriffs gegen unsere Erfahrungswelt besonders deutlich hervortreten lässt. Erfahrung ist nichts Gegebenes, sondern vielmehr das, was ich daraus mache. Durchaus möglich, dass eine Erfahrung, die ich belächle, den anderen zu begeistern vermag. Das Selbst ist der innere Raum gelebter Erfahrung; hier wird Bedeutung geschaffen. Und das Fundament dieses Schaffensprozesses ist für mich die persönliche Freiheit; und sie ist deshalb das Fundament, weil ich nicht leben kann, ohne meine Erfahrungen zu ordnen, ohne sie mit Sinn zu erfüllen. Was immer man mir auch wegnehmen mag, diese innere Freiheit, Sinn zu schaffen, ist und bleibt mir das Heiligste. »Die Freiheit«, so heißt es bei Sartre, »ist nichts anderes als die Existenz unseres Willens«, und er fügt hinzu: »In Wirklichkeit genügt es nicht, zu wollen: man muß den Willen haben, zu wollen.«137 Diese Herausbildung des Willens zum Wollen ist der innere Akt, der uns den Status autonomer Wesen verleiht, die das Sichentscheiden auf die Welt projizieren und damit die Qualitäten eines selbstbestimmten moralischen Urteils erfüllen, die unabdingbares und höchstes Bollwerk der Zivilisation sind. Genau das steht hinter einer anderen von Sartres Einsichten: »Die Wörter arbeiten ohne Anhaltspunkte, hervorgerufen durch eine Unruhe ohne Namen …die Stimme erwächst aus einer Gefahr: man kann sich nur entweder verlieren oder das Recht erwerben, in der ersten Person zu sprechen«.138 Je tiefer der Vorhersageimperativ in das Selbst vordringt, desto unwiderstehlicher wird der Wert des Verhaltensüberschusses; entsprechend intensiver werden die Bemühungen, auch die letzte Emotion mit Beschlag zu belegen. Was wird aus meinem Recht, aus meinem und als mein Selbst in der ersten Person zu sprechen, wenn der anschwellende, vom Vorhersageimperativ losgetretene Kommerzialisierungswahn darauf aus ist, auf dem Vormarsch in Richtung meiner Gedanken auch meine Seufzer für

sich zu vereinnahmen, meine Wimpernschläge, meine Äußerungen? Hier geht es längst nicht mehr darum, dass das Überwachungskapital Überschuss aus meiner Websuche, aus meinem Surfverhalten, aus meinen Einkäufen wringt. Das Überwachungskapital begehrt nach weit mehr als den Koordinaten meines Körpers in Zeit und Raum. Es verletzt mein inneres Heiligtum in dem Augenblick, in dem seine Maschinen und ihre Algorithmen über die Bedeutung meiner Atmung und meiner Augen entscheiden, der Anspannung meiner Kiefermuskeln, des Stockens in meiner Stimme und eines arglos gesetzten Ausrufungszeichens. Was wird aus meinem Willen, mich zur ersten Person zu wollen, wenn die Marktwelt um mich herum sich als mein Spiegel ausgibt und mir je nachdem, was ich ihrer Ansicht nach gerade fühle, gefühlt habe oder fühlen werde, Gestalten verleiht? Wenn sie mich dabei ignoriert, anstachelt, schilt, anfeuert oder bestraft? Das Überwachungskapital kann gar nicht anders, als mich in meiner Gänze zu wollen, und das so weit und tief es nur geht. Eine auf »Human Analytics« und Affective Computing spezialisierte Firma bewirbt seine Kunden mit dem Slogan »Kommen Sie der Wahrheit näher. Verstehen Sie das ›Warum?‹ «. Was wird denn, wenn sie mir meine »Wahrheit« wegnehmen wollen? Wenn sie unaufgefordert und fest entschlossen durch mein Selbst marschieren und links und rechts alles mitnehmen, was nicht niet- und nagelfest ist, um damit ihren Zielen entsprechend ihre Maschinen zu füttern? Wo soll man, im eigenen Selbst in die Ecke gedrängt, dann noch hin? Es hat ganz den Anschein, als hätten sich solche Fragen mit der Zeit auch Rosalind Picard selbst aufgedrängt. In einem Vortrag mit dem Titel »Towards Machines That Deny Their Maker«, den sie 2016 in Deutschland hielt, waren die zuversichtlichen Äußerungen ihres Buches – dass man »Vorkehrungen« entwickeln könne, dass zusätzliche Technologien und Techniken sämtliche Probleme lösen könnten und »anziehbare Computer« Informationen nur für den persönlichen Gebrauch sammeln sollten, damit »Werkzeuge der Selbstbefähigung nicht zu Werkzeugen der Unterwerfung« würden139 – ganz neuen Überlegungen gewichen: »Einige Organisationen wollen menschliche Emotionen ohne Wissen oder Einwilligung der Betroffenen erfassen … Einige Wissenschaftler wollen Computer bauen, die dem Menschen weit überlegen sind und die weit mehr können, als sich

selbst zu reproduzieren … Wie könnten wir sicherstellen, dass diese neuen affektiven Technologien unser Leben auch tatsächlich verbessern?«140 Picard hatte die Marktkräfte nicht vorhergesehen, die die Rendition von Emotionen in lukrativen Überschuss und damit in Mittel zu anderer Leute Ziele verwandeln. Dass ihre Vision sich in Tausenden von Aktivitäten manifestiert, sollte eigentlich ein Triumph für sie sein, nur steht dieser im Schatten des Umstands, dass so viele dieser Aktivitäten heute mit dem kommerziellen Überwachungsprojekt gekoppelt sind. Jedes Versäumnis, für orientierende Richtlinien zu sorgen, trägt zu Gewöhnung, Normalisierung und damit letztlich zur Legitimierung bei. Den größeren Zielen des Überwachungskapitalismus untergeordnet, nehmen sich die Ziele des Affective-Computing-Projekts heute wie in einem Zerrspiegel dargestellt aus. Diese Entwicklung lässt an die Worte des Informatikers und Humanisten Joseph Weizenbaum, auch er Professor am MIT, denken, der sich oft und eloquent über das Mitwirken seiner Zunft bei der Entwicklung schrecklicher Waffensysteme geäußert hat. Ich glaube, er hätte zornig seinen Speer in Richtung der zuweilen ahnungslosen, zuweilen aber auch durchaus entschlossenen Söldner des Selbst geschleudert. Es hat also durchaus seine Berechtigung, wenn wir seine Stimme an den Schluss dieses Kapitels stellen. Ich weiß nicht so recht, ob gerade die Informatik oder ihre Subdisziplin künstliche Intelligenz eine besondere Vorliebe für Euphemismen hat. Wir schwärmen von Computersystemen, die verstehen, die sehen, entscheiden, Urteile fällen … ohne unsere Oberflächlichkeit zu sehen, die unfassbare Naivität, mit der wir diesen Konzepten gegenüberstehen. Mit unserem Gerede narkotisieren wir unsere Fähigkeit … uns ihres letztendlichen Ziels bewusst zu werden … Man kann diesem Zustand nicht entkommen, ohne sich immer und immer wieder zu fragen: »Was mache ich da eigentlich? Wie sehen letztlich Anwendung und Einsatz der Ergebnisse meiner Arbeit aus?« Und vor allem: »Bin ich zufrieden damit, oder schäme ich mich, zu einer solchen Verwendung beigetragen zu haben?«141

Kapitel 10 Lass Sie Tanzen Aber vernehmt, wie gekränkt der Morgen, und auch warum er weint: geschleift sind Mauern und Seelen; dem Willen der Ungerechten hat nie die Maschine gefehlt; indessen verzichten die Fürsten nicht auf die echt-edle alles vereinende Lüge. – W. H. Auden, Sonette aus China, XI

Aktions- beziehungsweise Handlungsvorteile »Die neue Macht liegt in der Aktion«, sagte mir ein leitender Softwareingenieur. »Die Intelligenz des Internets der Dinge bedeutet, dass Sensoren gleichzeitig auch Aktoren sein können.« Erklärend fügt der Chef der Softwareabteilung eines wichtigen Players im »Internet der Dinge« hinzu: »Es geht nicht mehr nur einfach nur um ubiquitäres Computing. Heute heißt das Ziel ubiquitäre Intervention, Aktion und Kontrolle. Die wahre Macht liegt heute darin, Echtzeithandeln in der realen Welt zu modifizieren. Vernetzte smarte Sensoren sind in der Lage, jede Art von Verhalten zu registrieren und zu analysieren und dann tatsächlich auszurechnen, wie es zu verändern ist. So werden Echtzeit-Analytics zu Echtzeit-Aktion.« Die Wissenschaftler und Softwareentwickler, die ich interviewt habe, bezeichnen diese neue Fähigkeit als »Aktuation«. Sie ist für sie der kritische, wenn auch kaum diskutierte Wendepunkt in der Evolution des Ubiquitätsapparats. Diese Aktuationsfähigkeit definiert eine neue Phase des Vorhersageimperativs, die ich unter dem Begriff Aktions- bzw. Handlungsvorteile zusammenfasse. Sie komplettiert die neuen

Verhaltensmodifikationsmittel und ist damit ein ebenso entscheidender wie notwendiger Schritt in der Entwicklung der überwachungskapitalistischen »Produktionsmittel« hin zu einem iterativen, immer komplexeren und leistungsfähigeren System. Es ist dies eine Wegmarke im Wettlauf um garantierte Ergebnisse. Im Überwachungskapitalismus werden die Ziele und Operationen der automatisierten Verhaltensmodifikation von Unternehmen im Sinne ihrer Ertrags- und Wachstumsziele entworfen und kontrolliert. Ein leitender Softwareingenieur sagte mir dazu: Sensoren lassen sich so gut zur Modifikation menschlichen Verhaltens einsetzen wie zur Modifikation von Geräteverhalten. Mit dem Internet der Dinge lässt sich eine Menge großartiger Sachen bewerkstelligen, wie etwa die Wärme in allen Häusern an Ihrer Straße senken, um einen Transformator vor der Überlastung zu schützen. Auf einer individuellen Ebene bedeutet das aber auch, dass die Macht über solche Schritte eben Vorrang hat vor dem, was Sie gerade machen, oder Sie sogar auf einen Weg lenken kann, den Sie sich nicht ausgesucht haben. Die von mir interviewten Wissenschaftler und Ingenieure identifizierten drei Schlüsselansätze zur Erreichung von Aktionsvorteilen, und alle drei haben sie die Verhaltensmodifikation zum Ziel. Die ersten beiden bezeichne ich als »Tuning« (das Abstimmen auf das System) und »Herding« (das Abrichten zur Masse); der dritte ist uns bereits unter dem Begriff »Konditionierung« (das Abrichten auf reflexauslösende Reize) aus der Verhaltenspsychologie bekannt. Die einzelnen Strategien, die zu den gewünschten Aktionsvorteilen führen, variieren je nach dem Grad der Kombination dieser Ansätze und je nachdem, welchen von ihnen man in den Vordergrund rückt. Das »Tuning« erfolgt auf unterschiedliche Weise, so etwa durch den Einsatz unterschwelliger Auslösereize zur subtilen Ausformung des Verhaltensflusses zu bestimmten Zeitpunkten an bestimmten Orten um einer maximalen Effizienz willen. Eine andere Art von Tuning bedient sich eines psychischen Stupses, den die Verhaltensökonomen Richard Thaler und Cass Sunstein als »Nudge« bezeichnen; sie verstehen darunter »alle Maßnahmen, mit denen Entscheidungsarchitekten das Verhalten von

Menschen in vorhersagbarer Weise verändern können«.1 Verhaltensökonomen arbeiten auf der Basis einer Weltsicht, der zufolge unser Denken, oberflächlich und unzulänglich wie es ihrer Ansicht nach ist, irrationale Entscheidungen ohne eine angemessene Betrachtung möglicher Alternativen bedingt. Sie berufen sich auf »Entscheidungsarchitekturen« zur Beschreibung der Art und Weise, in denen Situationen vorstrukturiert sind, um Aufmerksamkeit zu lenken und unter Umgehung von Bewusstsein und Willen Einfluss auf unser Handeln zu nehmen. In einigen Fällen sind diese Architekturen ganz bewusst darauf ausgerichtet, ein bestimmtes Verhalten hervorzurufen – nehmen Sie nur ein Klassenzimmer, in dem alle Stühle auf den Lehrer ausgerichtet sind, oder eine Website, die von uns verlangt, uns durch eine ganze Reihe obskurer Seiten zu klicken, wollen wir uns des Setzens von Tracking-Cookies erwehren. Der Einsatz dieses Begriffs ist nichts weiter als eine behavioristische Umschreibung dafür, dass soziale Situationen von Haus aus im Sinne eines Tunings gestaltet sind, dessen Maßnahmen sich unserer Kenntnis größtenteils entziehen. Den Überwachungskapitalisten dienen so einige Grundsätze der Verhaltensökonomie zur Legitimierung ihres Bekenntnisses zur kommerziell motivierten Modifikation von Verhalten. Der Dreh besteht darin, dass Nudges Entscheidungen anstoßen, die nicht dem Einzelnen, sondern ihrem Architekten in die Hände spielen. Folge davon sind auf Aktionsvorteile konditionierte Datenwissenschaftler, die es für völlig normal halten, die Kunst des »digitalen Stupsens« um der kommerziellen Interessen ihrer Unternehmen willen zu meistern. So beschreibt etwa der Datenchef einer amerikanischen Drogeriekette, wie das Unternehmen automatisch seine digitalen Nudges so designt, dass sie die Kunden in Richtung eines bestimmten, vom Unternehmen bevorzugten Verhaltens dirigieren: »Sie können mit dieser Technologie die Leute dazu bekommen, etwas Bestimmtes zu tun. Selbst wenn das nur bei 5 % der Leute klappt, dann haben Sie 5 % der Leute zu etwas veranlasst, was sie sonst nicht getan hätten. Wir können also in einem gewissen Maß von einem Verlust der Selbstkontrolle des Nutzers sprechen.« »Herding« ist ein zweiter Ansatz, der sich in dem Bemühen um eine stärkere und überzeugendere Entscheidungsarchitektur im Wesentlichen auf die Kontrolle von Schlüsselelementen im unmittelbaren Kontext der

Betroffenen stützt. Ein Beispiel für so eine Herding-Technik ist der Unvertrag. Das ferngesteuerte Abstellen des Motors sorgt für eine irreversible Veränderung im unmittelbaren Kontext der Autofahrerin, insofern er sie aus dem Fahrzeug »treibt«. Herding ermöglicht das Orchestrieren einer Situation aus der Ferne, insofern es den Betroffenen bestimmte Aktionen verwehrt und ihr Verhalten so auf einen Weg größerer Wahrscheinlichkeit und damit höherer Gewissheit im Sinne einer bestimmten Vorhersage führt. »Wir lernen, die Musik zu schreiben, und sorgen dann dafür, dass sie die Leute tanzen lässt«, erklärt ein mit dem Internet der Dinge befasster Softwareentwickler. Wir können den Kontext um ein bestimmtes Verhalten organisieren und so eine Veränderung erzwingen. Kontextsensitive Daten erlauben uns, Ihre Emotionen mit Ihren kognitiven Funktionen und Ihren Vitalparametern etc. etc. zu bündeln. Wir können wissen, dass Sie nicht fahren wollten, und Ihnen einfach den Motor abstellen. Wir können dem Kühlschrank sagen: »Hey, sperr ab, der Typ sollte nichts essen«, oder wir sagen dem Fernseher, Schluss zu machen, damit Sie endlich etwas Schlaf kriegen, oder dem Sessel, er soll zu rütteln anfangen, weil Sie nicht so lange sitzen sollen, oder dem Wasserhahn, sich zu öffnen, weil Sie mehr Wasser trinken sollen. »Konditionierung« ist ein allseits bekannter Ansatz, erwünschtes Verhalten abzurufen. Wir verbinden den Begriff vor allem mit dem berühmten Behavioristen B. F. Skinner. Ihm zufolge sollte eine Verhaltensmodifikation den Evolutionsprozess imitieren, bei dem Umweltbedingungen für die »Auslese« von besonders erfolgreichem Verhalten sorgen. Statt des älteren und einfacheren Stimulus-Reaktions-Modells, das man mit Watson und Pawlow verbindet, fügte Skinner mit der »Verstärkung« eine dritte Variable hinzu. Bei seiner Laborarbeit mit Mäusen und Tauben beobachtete Skinner an seinen Versuchstieren zunächst eine Reihe natürlich vorkommender Verhaltensweisen und »verstärkte« dann eine – den »Operanten« –, die er häufiger reproduziert sehen wollte. Nach dieser Methode erarbeitete er komplizierte »Verstärkungspläne«, mit denen sich verlässlich bestimmte Verhaltensroutinen erzielen ließen.

Skinner bezeichnete die Anwendung der Verstärkung zur Ausbildung bestimmter Verhaltensweisen als »operante Konditionierung«. Sein Projekt wurde unter den Schlagworten »Behavioral-Engineering« bzw. »Verhaltensmodifikation« oder »behavioristische Konditionierung« weltbekannt. Grundsatz ist stets die fortwährende Ausformung bestimmter Verhaltensweisen auf Kosten anderer. So lernt die Taube zum Beispiel, zweimal auf einen Knopf zu picken, um ein Getreidekorn zu bekommen; die Maus lernt, sich durch einen komplexen Irrgarten zu bewegen und wieder zurück. Skinner stellte sich eine umfassende »Verhaltenstechnologie« zur Anwendung solcher Methoden auf ganze menschliche Populationen vor. »Konditionierung in einer wirtschaftlich rentablen Größe«, so erfahre ich vom Chef-Datenwissenschaftler eines vielbewunderten Bildungsunternehmens aus dem Silicon Valley, »ist von grundlegender Bedeutung für diese neue mit der massiven Konditionierung menschlichen Verhaltens befassten Wissenschaft.« Seiner Ansicht nach erlauben Smartphones, anziehbare Geräte und breiter angelegte Always-on-Netze seinem Unternehmen, das Verhalten eines erheblichen Teils seiner Nutzer zu modifizieren und zu verwalten. Mit dem digitalen Monitoring und Tracking des Tagesablaufs einzelner Nutzer lernt das Unternehmen allmählich die Verstärkungspläne zu beherrschen; Belohnung, Anerkennung und Lob können zuverlässig dafür sorgen, dass sich ein vom Unternehmen auserkorenes Nutzerverhalten durchsetzen wird: Ziel von allem, was wir hier machen, ist, das menschliche Verhalten in einer wirtschaftlichen Größenordnung zu verändern. Wir versuchen dahinterzukommen, wie sich ein Apparat zur Verhaltensmodifikation aufbauen lässt, und dann wollen wir Einfluss auf die tagtäglichen Entscheidungen der Menschen nehmen. Wenn die Leute unsere App benutzen, können wir ihre Verhaltensweisen erfassen und die guten und schlechten identifizieren. Dann entwickeln wir »Behandlungsmethoden« oder »Datenpillen«, die gutes Verhalten auswählen. Wir können testen, wie nützlich unsere Auslösereize für sie sind und wie profitabel bestimmte Verhaltensweisen für uns sind.

Auch wenn es nach wie vor möglich ist, sich eine automatisierte Verhaltensmodifikation ohne den Überwachungskapitalismus vorzustellen, so ist es unmöglich, sich den Überwachungskapitalismus ohne die innige Verbindung der Verhaltensmodifikation mit den technologischen Mitteln vorzustellen, die ihren Einsatz automatisieren. Diese Verbindung ist für Aktionsvorteile unabdingbar. So kann man sich zum Beispiel FitnessTracker, Autos und Kühlschränke vorstellen, deren Daten und operative Kontrolle ausschließlich ihren Besitzern zum Beispiel dabei helfen, sich öfter zu bewegen, sicherer zu fahren und gesünder zu essen. Aber wie wir schon in so vielen Bereichen gesehen haben, hat der Überwachungskapitalismus ein für alle Mal Schluss gemacht mit der Idee einer einfachen Kopplungsschleife im Sinne des VerhaltenswertReinvestitionszyklus. Letztendlich geht es eben nicht um die Geräte, es geht um Max Webers »ökonomische Orientierung«, und diese wird heute vom Überwachungskapitalismus bestimmt. Hinter der ständig zunehmenden Anhäufung immer aussagekräftigerer Formen von Verhaltensüberschuss steht der Reiz der Überwachungserträge. Und die aussagekräftigste Form überhaupt ist zwangsläufig Verhalten, das man bereits im Vorfeld im Sinne garantierter Ergebnisse modifiziert. Die Verschmelzung neuer digitaler Modifikationsmittel und neuer ökonomischer Ziele sorgt für ein breites Spektrum neuer Techniken sowohl zur Erzeugung dieser neuen Überschussarten als auch zur monopolistischen Kontrolle darüber. Aufschlussreich ist da eine Studie mit dem Titel »Behavior Change Techniques Implemented in Electronic Lifestyle Activity Monitors«. Wissenschaftler zweier Universitäten in Texas und Florida, die dreizehn solcher Applikationen zur Überwachung »lifestylebedingter« Aktivitäten unter die Lupe nahmen, stellten fest, dass diese Geräte »ein breites Spektrum verhaltensverändernder Techniken«, enthielten, die »üblicherweise bei Verhaltensinterventionen im klinischen Umfeld Verwendung finden«. Die Wissenschaftler kamen zu dem Schluss, dass verhaltensverändernde Operationen infolge ihrer Migration auf digitale Geräte mit Internetanbindung nachgerade grassieren. Wie sie feststellen, scheint die Möglichkeit einer simplen, vom Verbraucher für den Verbraucher designten Kopplungsschleife ein Ding der Unmöglichkeit – Apps zur Verhaltensänderung böten sich nun mal »zu diversen Arten von Überwachung« an, und »offizielle Methoden«, Daten

einfach nur sicher zu übertragen, »scheint es gegenwärtig in diesen Apps nicht zu geben«.2 Erinnern Sie sich an Hal Varians Lobeshymne auf die »neuen Einsatzmöglichkeiten« von Big Data, die aus diesen allgegenwärtigen rechnergestützten Transaktionen zu beziehen sind? Zu diesen gehörte nach Ansicht von Googles Chefökonom auch das »fortwährende Experimentieren«. Varian sprach davon, dass Googles Entwicklungs- und Datenteams ständig Tausende von »A / B-Experimenten« durchführen, um die Nutzerreaktionen auf Hunderte unterschiedlicher Seitencharakteristika zu testen – vom Layout über Buttons bis hin zu Schriftarten. Varian unterstützte, ja pries diese Art selbstherrlichen Experimentierens und wies darauf hin, dass sämtliche Daten der Welt »nur Korrelationen messen können, aber keine Kausalität«.3 Anders ausgedrückt, Daten sagen einem, was passiert ist, aber nicht, warum es passiert ist. Mangels Kenntnis kausaler Zusammenhänge sind selbst die besten Vorhersagen nichts weiter als extrapolierte Vergangenheit. Folge dieses Problems ist, dass das letzte kritische Element bei der Fabrikation qualitativ hochwertiger Vorhersageprodukte – das heißt solcher, die sich garantierten Ergebnissen nähern – auf das Wissen um kausale Zusammenhänge angewiesen ist. »Wenn man Kausalität wirklich verstehen will«, so Varian, »muss man experimentieren. Und wenn man fortwährend experimentiert, lässt sich auch das System fortwährend verbessern.«4 Und da das »System« Vorhersagen liefern soll, bedeutet »das System fortwährend verbessern«, die Lücke zwischen Vorhersage und Beobachtung zu schließen, um sich der Gewissheit anzunähern. In einer analogen Welt wären derartige Ambitionen viel zu teuer, um praktikabel zu sein, aber in der Sphäre des Internets, so Varian, »lässt sich das Experimentieren ganz und gar automatisieren«. Nicht nur spricht Varian die privilegierte Rolle des Experimentators den Überwachungskapitalisten zu, er präsentiert dies auch ganz beiläufig als vollendete Tatsache. Was denn auch genau genommen die letzte kritische Karte des Blatts an Rechten reflektiert, das sich die Überwachungskapitalisten so selbstherrlich zugespielt haben. Der Vorhersageimperativ zwingt die Überwachungskapitalisten zur Erklärung ihres Rechts darauf, anderer Leute Verhalten aus Profitgründen mit

Methoden zu ändern, die deren Bewusstsein, Willensäußerung, ja den ganzen Komplex von Eigenverantwortlichkeit umgehen, den wir unter Begriffen wie Autonomie und Selbstbestimmung subsumieren. Lassen Sie mich als Nächstes drei unterschiedliche Narrative des Überwachungskapitalisten als »Experimentator« in Sachen Verhaltensmodifikation ausführen, der seine Asymmetrien an Wissen einsetzt, um seinen Willen den arglosen menschlichen Versuchskaninchen aufzuzwingen, als die er seine Nutzer sieht. Die Erkenntnisse aus diesen Experimenten, die Überwachungskapitalisten hinter ihren venezianischen Spiegeln anhäufen, sind kritisch für Aufbau, Feinabstimmung und Erforschung der Fähigkeiten zur kommerziellen Verhaltensmodifikation ihrer Unternehmen. Als Beispiele dienen uns Facebooks NutzerExperimente, das Augmented-Reality-Game Pokémon Go (das bei Google konzipiert und ausgebrütet wurde) sowie die bahnbrechenden Überwachungsambitionen des amerikanischen Sportartikelherstellers Under Armour. Alle kombinieren sie in beunruhigend neuer Art und Weise Techniken des Tunings, Herdings und der Konditionierung, die uns die tief im Bauch des trojanischen Pferdes versteckten Griechen enthüllen: die ökonomische Orientierung hinter dem Schleier des Digitalen.

Facebook macht die Musik 2012 schreckte Facebook die Welt mit einer Studie auf. Sie erschien unter dem provozierenden Titel »A 61-Million-Person Experiment in Social Influence and Political Mobilization« in dem renommierten Wissenschaftsjournal Nature.5 In dieser randomisierten kontrollierten Studie, die im Vorfeld der amerikanischen Kongresswahlen 2010 entstand, manipulierte man den persönlichen wie den Informationsgehalt wahlbezogener Nachrichten in den Feeds von fast 61 Millionen FacebookNutzern; darüber hinaus sorgte man für eine Kontrollgruppe. Der einen Gruppe präsentierte man ein Statement in der Überschrift ihres News-Feed, das die Nutzer zum Gang an die Urne aufforderte. Dazu gab es einen Link mit näheren Informationen zu Wahllokalen und einen klickbaren Button mit der Aufschrift »Ich habe gewählt!«. An einem Zähler war

abzulesen, wie viele andere Facebook-Nutzer ihren Angaben zufolge bereits gewählt hatten; dazu bekam der Nutzer noch bis zu sechs Profile von Facebook-Freunden, die den »Ich-habe-gewählt!«-Button angeklickt hatten. Eine zweite Gruppe erhielt dieselben Informationen, aber ohne die Fotos von Freunden. Eine dritte Kontrollgruppe bekam überhaupt keine spezielle Message angezeigt. Wie die Ergebnisse zeigen, klickten die Nutzer, denen man die »Social Message« gezeigt hatte, mit einer etwa um 2 % höheren Wahrscheinlichkeit auf den »Ich-habe-gewählt!«-Button als die anderen, die nur Informationen an sich bekommen hatten; außerdem klickten sie mit um 0,26 % höherer Wahrscheinlichkeit auf den Link zu den Informationen über die Wahllokale. Die Facebook-Experimentatoren kamen zu dem Schluss, dass SocialMessaging ein effektives Mittel zur Verhaltenssteuerung im großen Stil sei, nehme es doch »direkten Einfluss auf politische Selbstentfaltung, Informationssuche und das reale Wahlverhalten von Millionen von Menschen«. »Die Einblendung vertrauter Gesichter«, so der Schluss der Facebook-Forscher, »kann die Effektivität einer Mobilisierungsmessage dramatisch erhöhen«. Wie das Team errechnete, mobilisierten die manipulierten SocialMessages bei den Zwischenwahlen 2010 60 000 zusätzliche Wähler; darüber hinaus gaben weitere 280 000 ihre Stimme infolge eines »sozialen Ansteckungseffekts« ab, womit man zusammen auf 340 000 zusätzliche Stimmen kam. In ihren Schlussbemerkungen behaupteten die FacebookForscher: »Wir zeigen die Bedeutung sozialer Einflüsse für die Erzielung von Verhaltensänderungen auf …Das Ergebnis legt nahe, dass OnlineMessages eine Reihe von Offline-Verhaltensweisen beeinflussen und dass das wiederum Implikationen für unser Verständnis der gesellschaftlichen Rolle sozialer Online-Medien hat«.6 Der Erfolg dieses Experiments besteht darin, dass es soziale Auslösereize lieferte, die die Nutzer, insofern es sie eine Reihe von den »Experimentatoren« vorherbestimmten Handlungen ausführen ließ, auf eine Art und Weise beeinflussten, die auf ein Tuning ihres Verhaltens in der realen Welt hinauslief. Bei solchen Experimenten lassen sich Aktionsvorteile entdecken, verfeinern und schließlich institutionalisieren; Letzteres geschieht über Software und ihre Algorithmen, die automatisch,

unablässig, allgegenwärtig und allumfassend sind. Ziel all dessen ist das Erreichen von Aktionsvorteilen. Facebooks Verhaltensüberschuss zielt auf die Lösung eines einzigen Problems: wie und wann man in den »Stand der Dinge« unseres Alltags eingreifen muss, um unser Verhalten so zu modifizieren, dass sich die Vorhersagbarkeit einer jetzigen, baldigen oder späteren Handlung drastisch erhöht. Die Herausforderung für die Überwachungskapitalisten besteht darin, zu erfahren, wie sich das effektiv und ökonomisch, das heißt automatisch, bewerkstelligen lässt, wie Facebooks ehemaliger Produktmanager schreibt: Experimente stellen wir mit jedem User irgendwann während seiner Zeit auf der Website an. Sei es, dass man ihm Werbetexte unterschiedlicher Größe zeigt oder unterschiedliche MarketingMessages oder unterschiedliche Call-to-Action-Buttons oder dass man seine Feeds von unterschiedlichen Ranking-Algorithmen generieren lässt … Die meisten Leute, die bei Facebook mit Daten arbeiten, tun das in der Hauptsache, um auf Stimmung und Verhalten der Leute zu wirken. Das machen sie ständig, damit Artikel mehr »Likes« bekommen, damit auf mehr Werbung geklickt wird, damit man mehr Zeit auf der Site verbringt. So funktioniert eine Website nun mal, alle machen das und alle wissen, dass es alle machen.7 Die Veröffentlichung der Facebook-Studie löste eine heftige Debatte aus, als Fachleuten und der breiteren Öffentlichkeit endlich Facebooks – und nicht nur Facebooks – beispiellose Macht, zu überreden, zu beeinflussen und letztlich Verhalten zu fabrizieren, zu dämmern begann. Jonathan Zittrain, Spezialist für internationales Recht an der Harvard University, räumt ein, er könnte sich mittlerweile durchaus vorstellen, dass Facebook still und leise eine Wahl manipuliert, und das mit Mitteln, die seine Nutzer weder entdecken noch kontrollieren könnten. Er bezeichnete das FacebookExperiment als eine Herausforderung an die »kollektiven Rechte«; seiner Ansicht nach könnte so etwas das Recht der Bürger unterminieren, »in den Genuss demokratischer Prozesse zu kommen«.8 Die Bedenken der Öffentlichkeit vermochten an Facebooks selbstherrlichen Praktiken zur Verhaltensänderung im großen Stil nicht zu kratzen. Noch während man 2012 das Experiment zur sozialen Einflussnahme öffentlich

diskutierte, arbeitete einer von Facebooks Datenwissenschaftlern bereits zusammen mit Universitätsleuten an einer neuen Studie mit dem Titel »Experimental Evidence of Massive-Scale Emotional Contagion Through Social Networks«, die man 2013 der renommierten Fachzeitschrift Proceedings of the National Academy of Science vorlegte, wo die bekannte Princetoner Sozialpsychologin Susan Fiske die Redaktion besorgte; er erschien im Juni 2014. Diesmal manipulierten die Experimentatoren »das Ausmaß, in dem Nutzer (N = 689 003) in ihrem Newsfeed emotionalen Äußerungen ausgesetzt wurden«.9 Strukturiert war das Experiment wie einer der angeblich so harmlosen A / B-Tests. In diesem Fall setzte man die eine Gruppe in ihrem Newsfeed überwiegend positiven, die andere überwiegend negativen Nachrichten aus. Man wollte damit prüfen, ob selbst eine unterschwellige Begegnung mit emotionsgeladenem Content jemanden dazu veranlassen könnte, sein Posting-Verhalten dahingehend zu ändern, dass es diesen Content reflektiert. Was es denn auch tat. Ob die Nutzer danach nun fröhlicher oder trauriger waren – der Ton ihrer Äußerungen änderte sich und reflektierte den ihres Newsfeeds. Die Ergebnisse des Experiments ließen keinen Zweifel daran, dass Facebooks sorgfältig konzipierte Auslöseanreize über den Bildschirm hinaus auf das Leben Hunderttausender argloser Nutzer wirkten. Wie von Stuart Mackay für Schildkröten und Elche konzipiert, löste man jetzt mit außerhalb des Bewusstseins ihrer menschlichen Zielobjekte operierenden Prozessen vorhersehbare Formen emotionalen Ausdrucks aus. »Emotionale Befindlichkeiten lassen sich durch emotionale Ansteckung auf andere transferieren, sodass Menschen dieselben Emotionen erfahren, ohne sich ihrer bewusst zu sein«, gaben die Forscher bekannt. »Online-Messages beeinflussen unsere Erfahrung von Emotionen, was sich auch offline auf eine Reihe von Verhaltensweisen auswirken kann.« Das Team bezeichnete seine Arbeit als »mit die ersten experimentell erbrachten Nachweise zur Stützung kontroverser Behauptungen, dass Emotionen sich durch ein Netzwerk ausbreiten können«. Außerdem machte man sich Gedanken darüber, dass selbst diese relativ geringfügige Manipulation einen kleinen, aber messbaren Effekt hatte.10

Was Facebooks Forschergruppe in beiden Experimenten zu erwähnen vergaß, ist, dass unsere Empfänglichkeit für unterschwellige Auslösereize wie unsere Anfälligkeit für eine emotionale »Ansteckung« größtenteils eine Frage der Empathie ist, der Fähigkeit, seine Mitmenschen zu verstehen, sich in sie einzufühlen und ihren Standpunkt zu teilen; zuweilen unterscheidet man auch eigens zwischen »affektiver« und »kognitiver« Empathie. Psychologen haben herausgefunden, dass der Grad, in dem man sich in die Gefühle eines anderen hineinzufühlen und seine Perspektive zu übernehmen vermag, auch die Wahrscheinlichkeit bestimmt, sich durch unterschwellige Auslöseanreize – auch durch Hypnose – beeinflussen zu lassen. Empathie richtet Menschen auf andere Menschen aus. Sie gestattet einem, in der emotionalen Erfahrung aufzugehen und sich auf die Erfahrungen anderer einzuschwingen – bis hin zum unbewussten Nachahmen von anderer Leute Mimik und Körpersprache. Ansteckendes Lachen, ja selbst ansteckendes Gähnen sind Beispiele für dieses Einschwingen auf den anderen.11 Empathie gilt als wesentliches Element für soziale Bindungsfähigkeit und emotionale Verbundenheit, sie kann jedoch auch dafür sorgen, dass man die Nöte Leidender noch aus der Ferne mitempfindet. Für einige Psychologen ist sie deshalb eine durchaus riskante Fähigkeit, weil sie uns eben nicht nur für das Glück, sondern auch für das Leid anderer empfänglich macht.12 Der Erfolg von Facebooks Tuning-Experimenten ist demnach das Ergebnis der wirksamen Ausbeutung der natürlichen Empathie bei der Population seiner Nutzer. Facebooks Forscher behaupten, ihre Resultate ließen zwei Schlüsse zu: Erstens, dass bei einer so riesigen und engagierten Population wie den Facebook-Nutzern selbst kleine Effekte »aggregiert große Konsequenzen haben können«; zweitens forderten die Autoren ihre Leser auf, sich vorzustellen, was sich mit tiefergreifenden Manipulationen in Experimenten mit noch größeren Populationen erreichen ließe, und wiesen auf die Bedeutung ihrer Erkenntnisse für die »Volksgesundheit« hin. Die Öffentlichkeit war einmal mehr entrüstet. »Wenn Facebook Emotionen zu frisieren vermag«, so fragte der britische Guardian, »wozu ist das Unternehmen sonst noch imstande?« Das Nachrichtenmagazin Atlantic zitierte Susan Fiske, die die Studie trotz persönlicher Bedenken für

die Veröffentlichung editiert hatte.13 Sie sagte dem Magazin gegenüber, dass ein privates Unternehmen wie Facebook sich nicht an dieselben gesetzlichen Vorgaben zu halten habe wie die akademische oder staatliche Forschung. Die gesetzlichen Vorgaben, die in den USA die Forschung an Menschen regeln, sind zusammengefasst in der Federal Policy for the Protection of Human Research Subjects, kurz »Common Rule«. Um zu verhindern, dass Experimentatoren ihre Macht missbrauchen, ist jegliche vom Bund finanzierte Forschung verpflichtet, sich an diese Vorgaben zu halten. So verlangt die Common Rule unter anderem eine Einverständniserklärung der Betroffenen, ihren Schutz vor Schäden und Transparenz; außerdem hat eine Nachbesprechung zu erfolgen. Durchgesetzt wird die Common Rule von »Internal Review Boards«, mit Wissenschaftlern besetzten internen Begutachtungskommissionen, die es in jedem Forschungsinstitut zu geben hat. Fiske bestätigte, von Facebooks Argument überzeugt worden zu sein, es handle sich bei dieser Art von experimenteller Manipulation nur um eine unbedeutende Erweiterung der üblichen nutzerbezogenen Bearbeitung seiner Newsfeeds. »Nach allem, was ich erfahren habe«, so Fiske, »manipuliert Facebook diese Newsfeeds offensichtlich ständig … Wer weiß, was die sonst noch für Forschung betreiben.«14 Fiske sah mit anderen Worten, dass es sich bei dem Experiment nur um eine Erweiterung von Facebooks unsanktionierten Standardpraktiken zur Verhaltensmodifikation handelte. Der Datenwissenschaftler Adam Kramer, Koordinator der Studie, sah sich derart mit Anfragen seitens der Medien überschwemmt, dass er sich zu dem Hinweis genötigt sah, dem Unternehmen sei seine emotionale Wirkung »keineswegs egal«. Einer seiner Co-Autoren, Jeffrey Hancock von der Cornell University, sagte der New York Times gegenüber, es sei ihm nie zu Bewusstsein gekommen, dass selbst eine so geringfügige Manipulation von Newsfeeds die Nutzer derart verletzen könnte.15 Dem Wall Street Journal zufolge hatten Facebooks Datenwissenschaftler seit der Einsetzung des Teams 2007 über 1 000 Experimente veranstaltet. Auflagen hätten sie dabei kaum gehabt und mit Sicherheit keine interne Prüfungskommission. Der Psychologe Chris Chambers schrieb im Guardian, »die Facebook-Studie zeichnet das Bild einer dystopischen Zukunft, in der akademische Forscher

ethischen Zwängen dadurch entgehen, dass sie sich für Tests zunehmend gefährlicher, ja schädlicher Eingriffe mit privaten Unternehmen zusammentun.«16 Einen Monat nach Erscheinen der Studie über emotionale Ansteckung äußerte Inder M. Verma, Chefredakteurin der PNAS, im Namen der Herausgeber ihre Sorge die Facebook-Studie betreffend. Zwar sei Facebook formaljuristisch tatsächlich von der »Common Rule« ausgenommen. Allerdings, so meint er: »Es besteht dennoch Anlass zur Sorge, dass beim Sammeln von Daten bei Facebook Praktiken involviert waren, die sich nicht hundertprozentig mit den Prinzipien des Informed Consent decken. Die Teilnehmer hatten keine Möglichkeit zu einer Willenserklärung.«17 Von allen amerikanischen Akademikern lieferte Rechtsprofessor James Grimmelmann von der University of Maryland das umfassendste Plädoyer dafür, Facebook und andere Social-Media-Unternehmen nach den Prinzipien der Common Rule zur Verantwortung zu ziehen. Die Wahrscheinlichkeit, durch ernsthafte Interessenkonflikte kompromittiert zu werden, so seine Überlegung, sei bei der privaten Forschung höher als bei der akademischen, was gemeinsame experimentelle Standards besonders kritisch mache. Es gehe nicht an, so etwas dem ethischen Urteil Einzelner zu überlassen. Grimmelmann befürchtet eine Art »Weißwaschung« durch akademische Prüfungskommissionen: Die »ethische Regulierung von Forschung ließe sich dadurch umgehen, dass man einfach eng genug mit Partnern aus der Industrie zusammenarbeitet. Der um sich greifende Ausnahmefall würde die Common Rule aushebeln.«18 Bei aller Überzeugung in diesem Punkt räumte Grimmelmann auf den letzten Seiten seiner Analyse ein, dass selbst die rigoroseste Anwendung der Common Rule wenig vermöchte, die ungeheure Macht eines Unternehmens wie Facebook einzuschränken, die routinemäßig das Verhalten seiner Nutzer mit Mitteln manipuliert, die nicht dechiffriert und damit auch nicht angefochten werden können. Wie Fiske ahnte auch Grimmelmann das größere Projekt der Aktionsvorteile gerade mal so außerhalb der Reichweite sozialer Normen und geltenden Rechts. Das Wissenschaftsjournal Nature erregte Aufmerksamkeit mit einem scharf formulierten Brief aus der Feder der Bioethikerin Michelle Meyer und fünf weiterer Autoren, die im Namen von 27 Bioethikern eine Lanze

für das Facebook-Experiment brachen. Ihrer Ansicht nach rechtfertigt die Notwendigkeit, neues Wissen über die Online-Sphäre zu kodifizieren, Experimente sehr wohl, auch wenn sich diese nicht an ethische Leitlinien für die Forschung am Menschen halten bzw. halten können. Dreh- und Angelpunkt von Meyers Verteidigung war jedoch, dass »die extreme Reaktion auf diese Studie … dazu führen könnte, dass man derlei Forschung unter Verschluss durchführt … Wenn Kritiker der Ansicht sind, die Manipulation emotionaler Inhalte bei dieser Forschung biete hinreichend Anlass zur Sorge, um eine Regulierung zu rechtfertigen … dann gilt diese Sorge zwangsläufig auch Facebooks Standardpraktiken.«19 Damit waren sich Kritiker und Verteidiger des Facebook-Experiments nur in einem Punkt einig: Facebook könnte sich einfach auf Erpressung verlegen und damit drohen, hinter verschlossenen Türen zu experimentieren, sollten die Regulierer sich in seine Unternehmenspraktiken einmischen wollen. Eine Gefahr, die angesichts der Faktenlage für die akademische Gemeinde nicht von der Hand zu weisen war. Immerhin verfügt Facebook über beispiellose Mittel zur Verhaltensmodifikation, die nicht nur versteckt operieren, sondern auch im großen Stil – und das völlig ohne soziale oder rechtliche Mechanismen für Einwilligung, Widerspruch oder Kontrolle. Da die Wissenschaft für Gremien zu sorgen versprach, die sich um die von Facebooks Forschung aufgeworfenen ethischen Fragen kümmern sollten, gab das Unternehmen eigene Pläne für eine bessere Selbstregulierung bekannt. Facebooks Cheftechnologe Mike Schroepfer gestand, »nicht vorbereitet« gewesen zu sein auf die Art, wie die Öffentlichkeit auf die Studie zur emotionalen Ansteckung reagierte; er gab zu, »dass man einiges hätte anders machen sollen«. Zum neuen »Rahmenkonzept« des Unternehmens gehörten klare Richtlinien, ein Gremium zur internen Prüfung, ein Segment über Forschungspraxis in Facebooks berühmtem »Boot Camp«, dem Trainings- und Orientierungsprogramm für neue Mitarbeiter, sowie eine eigene Website für veröffentlichte akademische Studien. Diese selbstauferlegten »Regulierungsmaßnahmen« änderten freilich nichts an der fundamentalen Tatsache, dass Facebooks Online-Community sowohl unabdingbares

Entwicklungsumfeld als auch Ziel für die Aktionsvorteile des Unternehmens ist. Sehr deutlich machte Letzteres ein Dokument, das im Mai 2017 der australischen Presse zugespielt wurde. Drei Jahre nach der Veröffentlichung der Ansteckungsstudie berichtete der Australian über ein 23-seitiges vertrauliches Dokument aus der Feder zweier Facebook-Executives, das 2017 an Werbekunden in Australien und Neuseeland ging. Detailliert schildert dieser Bericht die Systeme, mit denen das Unternehmen »psychologische Einsichten« über 6,4 Millionen Schüler, Studenten und berufstätige junge Australier und Neuseeländer zusammentrug. Eingehend beschreibt man die zahlreichen Möglichkeiten, anhand der immensen Schätze an Verhaltensüberschuss genau den Moment zu eruieren, in dem das Selbstvertrauen eines jungen Menschen einer »Spritze« bedürfe. Man könne, anders gesagt, den Punkt liefern, an dem er besonders empfänglich für eine spezifische Konfiguration von Werbeanreizen sei: »Durch das Monitoring von Postings, Fotos, Interaktionen und allgemeinen Internetaktivitäten kann Facebook feststellen, wann junge Leute ›gestresst‹, ›niedergeschlagen‹, ›überfordert‹, ›ängstlich‹ und ›nervös‹ sind und wann sie sich ›dumm‹, ›albern‹, ›nutzlos‹ und ›wie Versager‹ vorkommen.«20 Der Bericht zeigt deutlich Facebooks Interesse, diesen Affektüberschuss zur Erzielung von Aktionsvorteilen einzusetzen. Er liefert Informationen über die »Stimmungsumschwünge« junger Leute auf der Basis »interner Facebook-Daten«; außerdem behauptet er, Facebooks Vorhersageprodukte könnten Empfindungen nicht nur »feststellen«, sondern darüber hinaus auch vorhersagen, wie die Betroffenen Emotionen zu bestimmten Zeiten der Woche kommunizieren. Das wiederum lasse sich mit entsprechenden Werbeanzeigen koppeln, was eine maximale Wahrscheinlichkeit der Ergebnisse garantiere. »Antizipierende Emotionen kommen mit höherer Wahrscheinlichkeit am Wochenanfang zum Ausdruck«, rät die Analyse, »während reflektierende Emotionen sich zum Wochenende hin häufen. Montags bis freitags baut man Selbstvertrauen auf; am Wochenende posaunt man seine Leistungen aus.« Facebook bestritt öffentlich, mit derlei Praktiken zu arbeiten, aber Antonio Garcia-Martinez, ein ehemaliger Produktmanager bei Facebook und Autor eines äußerst nützlichen Berichts über das Silicon Valley mit

dem Titel Chaos Monkeys, sprach dem Guardian gegenüber von einer routinemäßigen Anwendung solcher Praktiken. Er bezichtigte das Unternehmen, »zu lügen, dass sich die Balken biegen«. Sein Schluss: »Die unumstößliche Realität ist, dass Facebook nie und nimmer versuchen wird, eine derartige Nutzung seiner Daten einzuschränken, es sei denn, der Aufschrei öffentlicher Entrüstung gerät zu einem Crescendo, dass sich anders nicht dämpfen lässt.«21 Feststeht, dass der öffentliche Protest gegen Facebooks Einmischung in das Gefühlsleben seiner Nutzer, wie sie in der Ansteckungsstudie zum Ausdruck kommt, sowie sein Versprechen zur Selbstregulierung weder am kommerziellen Interesse des Unternehmens an den Gefühlen seiner Nutzer etwas geändert hat, noch an den Zwängen, die es dieses Wissen systematisch im Namen seiner Kunden und in Zusammenarbeit mit seinen Kunden ausbeuten lässt. Dazu kam es schon deshalb nicht, weil es unmöglich ist, solange die Erträge des Unternehmens unter dem Diktat des Vorhersageimperativs an Aktionsvorteile gebunden sind. Facebooks Hartnäckigkeit weist uns einmal mehr auf die unerbittlichen Mühlen des Enteignungszyklus. Das Unternehmen hatte seine offensichtlichen Übergriffe in Form von Verhaltensmodifikation und emotionaler Manipulation öffentlich zugegeben und sich dafür entschuldigt; das Unternehmen versprach die Anpassung in Form einer Einschränkung dieser Praktiken. Währenddessen hatte man längst eine neue Schwelle des Intimlebens überschritten. Facebooks potenzielle Macht über die emotionale Manipulation wurde diskutierbar, ja man nahm sie mit Einsetzung der Gewöhnung sogar als gegeben. Von Susan Fiske über Grimmelmann (den Kritikern) bis hin zu Meyer (der Befürworterin) sind sich die Fachleute einig, dass Facebook seine Aktivitäten eben hinter verschlossenen Türen fortsetzen würde, sollte das Unternehmen sich unter die Kuratel einer Regulierung gestellt sehen. Die in Australien zutage geförderten Dokumente eröffneten den Blick auf diese heimlichen Praktiken. Sie legen damit den Schluss nahe, dass der Zyklus mit der Neuausrichtung von Facebooks Handeln (das Ausweichen in die Heimlichkeit) vollendet ist. Undurchsichtigkeit und Undechiffrierbarkeit bieten dabei, so wie die genannten Wissenschaftler es vorhergesagt hatten, den nötigen Schutz.

Was Facebooks Experiment zur politischen Mobilisierung anbelangt, so lernte das Unternehmen daraus, die Empfänglichkeit seiner Nutzer für soziale Einflüsse manipulieren zu können: Es lässt sich ein Motivationszustand anregen (»Ich möchte wie meine Freunde sein«), der die Wahrscheinlichkeit erhöht, mit der eine relevante Initialisierungsnachricht – der »Ich-habe-gewählt!«-Button – die gewünschte Aktion hervorrufen wird. Die Studie zur emotionalen Ansteckung machte sich eben diese fundamentale Neigung zur sozialen Beeinflussbarkeit zunutze. In diesem Fall platzierte Facebook unterschwellige Anreize in Form von positiver oder negativer affektiver Sprache, die in Kombination mit dem durch den sozialen Vergleich – »Ich möchte wie meine Freunde sein« – ausgelösten Motivationszustand einen wenn auch geringfügigen, aber doch messbaren Ansteckungseffekt produziert. Und das australische Dokument zur zielgerichteten Werbung weist schließlich auf Ernst und Komplexität der Anstrengungen, die man hinter den Kulissen unternimmt, um diesen Effekt durch die kleinteilige Vorgabe spezifischer Motivationszustände zu verstärken. So dekuvriert es nicht nur Ausmaß und Diversität von Facebooks Verhaltensüberschuss, es zeigt auch das Interesse des Unternehmens, mithilfe dieses Überschusses präzise das Auf und Ab der Empfänglichkeit eines Nutzers für eine gezielte Echtzeitwerbung durch bestimmte markenspezifische Auslösereize zu bestimmen – was die Wahrscheinlichkeit garantierter Ergebnisse beträchtlich erhöht. Der Erfolg von Facebooks Experimenten demonstriert, dass Tuning durch Suggestion eine effektive Form der Fernstimulation in wirtschaftlich relevantem Umfang sein kann. Mackays Forderungen entsprechend ist die Umgehung individueller wie kollektiver Bewusstheit von kritischer Bedeutung für Facebooks Erfolge bei der Verhaltensmodifikation. Der erste Absatz der Studie über emotionale Ansteckung hebt diese Umgehung begeistert hervor: »Emotionale Zustände lassen sich per emotionaler Ansteckung auf andere übertragen, was bei anderen dazu führt, dass sie dieselben Emotionen empfinden, ohne dass ihnen das bewusst ist.« Ebenso wie Australiens jungen Erwachsenen nicht bewusst ist, dass man mittels präziserer Vermessung ihrer Ängste und Phantasien ihre Augenblicke größter Verwundbarkeit für kommerzielle Zwecke auszubeuten versucht.

Diese Umgehung ist so wenig Zufall wie Nebensache; sie ist vielmehr grundlegend für die Struktur des gesamten überwachungskapitalistischen Projekts. Individuelle Bewusstheit ist der Feind der Fernstimulierung, da sie die Vorbedingung für die Mobilisierung kognitiver und existenzieller Ressourcen ist. Es gibt kein autonomes Urteilen ohne Bewusstsein. Einwilligung oder Ablehnung, Teilnahme oder Verweigerung, Mitarbeit oder Widerstand: Ohne Bewusstsein kann keine dieser selbstbestimmten Entscheidungen fallen. Eine florierende Literatur beleuchtet Entwicklung, Bedingungen, Folgen und Herausforderungen menschlicher Selbstregulierung als universelles Bedürfnis. Wir verstehen die Möglichkeit der Selbstbestimmung als Fundament für viele der Verhaltensweisen, die wir mit kritischen Fähigkeiten wie Empathie, Wille, Reflexion, persönliche Entwicklung, Authentizität, Integrität, Lernen, Zielsetzung, Impulskontrolle, Kreativität und der Aufrechterhaltung dauerhafter Beziehungen verbinden. »Dieser Prozess impliziert ein Selbst, dass sich Ziele und Standards setzt, seiner eigenen Gedanken und Verhaltensweisen bewusst ist und über die Fähigkeit verfügt, sie zu ändern«, schreiben die Professoren Dylan Wagner und Todd Heatherton in einem Essay über die zentrale Bedeutung der Selbstbewusstheit für die Selbstbestimmung: »Einige Theoretiker sind sogar der Ansicht, dass der ursprüngliche Sinn der Selbstbewusstheit in der Ermöglichung der Selbstregulierung lag.« Jede Bedrohung der menschlichen Autonomie beginne mit einem Angriff auf die Selbstbewusstheit, der »unsere Fähigkeit zur Regulierung unserer Gedanken, Emotionen und unseres Verlangens« niederreiße.22 Die herausragende Bedeutung der Selbstbewusstheit als Bollwerk gegen das Versagen der Selbstregulierung wird auch von zwei Wissenschaftlern aus Cambridge unterstrichen, die eine Skala zur Messung der Bereitschaft, sich überreden zu lassen, entwickelt haben. Wie sie festgestellt haben, besteht die wichtigste Determinante unserer Fähigkeit, Überredungskünsten zu widerstehen, in der »Fähigkeit vorauszudenken«, wie sie es genannt haben.23 Das bedeutet, dass Menschen, die ihre Selbstbewusstheit dazu heranziehen, die Konsequenzen ihrer Handlungsweise durchzudenken, auch in höherem Maße disponiert sind, ihren eigenen Weg zu gehen, und damit auch erheblich weniger anfällig für Überredungstechniken sind.

Selbstbewusstheit spielt darüber hinaus auch eine Rolle im zweiten Faktor der Skala: Hingabe bzw. Engagement. Menschen, die sich bewusst einer bestimmten Vorgehensweise oder einem Satz von Prinzipien verschreiben, werden sich nicht so leicht zu etwas überreden lassen, was gegen dieses Engagement verstößt Wie wir gesehen haben, stellt die Demokratie eine Gefahr für Überwachungserträge dar. Facebooks Praktiken legen einen nicht weniger beunruhigenden Schluss nahe, dass nämlich das menschliche Bewusstsein an sich eine Gefahr für die Überwachungserträge darstellt, insofern Bewusstheit das breitere Projekt der Verhaltensmodifikation gefährden muss. Philosophen erkennen »Selbstregulierung«, »Selbstbestimmung« und »Autonomie« als »Willensfreiheit«. Das Wort Autonomie kommt aus dem Griechischen, setzt sich zusammen aus autós (selbst) und nómos (Gesetz) und bezeichnet damit buchstäblich den Umstand, dass man sich selbst reguliert. Der Begriff steht damit im Gegensatz zur Heteronomie, die auf eine »Fremdgesetzlichkeit« verweist, bei der man sich von anderen reguliert sieht. Die wettbewerbsbedingten Aktionsvorteile haben zur Folge, dass Überwachungskapitalisten alle zu Gebote stehenden Mittel einsetzen müssen, um autonomes durch heteronomes Handeln zu ersetzen. Auf der einen Seite braucht es nicht weiter zu überraschen, dass Kapitalisten an Individuen gelegen sein sollte, die auf eine Art und Weise arbeiten und konsumieren, die dem Kapital besonders förderlich ist. Wir brauchen nur an die Verheerungen der »Subprime-Mortgage«-Geschäfte zurückzudenken, die mitverantwortlich für die Finanzkrise von 2008 waren, oder an den täglichen Affront gegen unsere Autonomie seitens Fluglinien oder Versicherungen, um Belege dafür zu sehen. Es wäre jedoch gefährlich, den heutigen Überwachungskapitalismus für nichts weiter als einen Aufguss dieser Praktiken zu halten. Die strukturellen Erfordernisse von Aktionsvorteilen machen Verhaltensmodifikationsmittel zum Wachstumsmotor. Nie zuvor in der Geschichte standen reichen, mächtigen Privatunternehmen so etwas wie Aktionsvorteile zur freien Verfügung, durch eine weltumspannende Architektur ubiquitärer und allwissender rechnergestützter Kontrolle gesichert, aufrechterhalten durch jede Art von wissenschaftlichem Know-how, das für Geld nur zu haben ist. Besonders bezeichnend ist, dass aus Facebooks Anspruch auf »experimentelle Hoheit« das Vorrecht der Überwachungskapitalisten auf

die Zukunft von anderer Menschen Verhalten spricht. Indem er sich das Recht zuspricht, menschliches Verhalten insgeheim und aus Profitgründen modifizieren zu können, exiliert uns der Überwachungskapitalismus effektiv aus unserem eigenen Verhalten und verschiebt den Lokus der Kontrolle über das Futur vom »ich werde« zum »du wirst«. Mag sein, dass jeder von uns einen anderen Weg geht, aber wie immer der aussieht, seinen Verlauf bestimmen die Aktionsvorteile und damit die ökonomischen Imperative einer überwachungskapitalistischen Ökonomie. Das Ringen um Macht und Kontrolle in der Gesellschaft ist damit nicht länger bestimmt durch versteckte Fakten von Klasse und deren Beziehungen zu den Produktionsmitteln, sondern vielmehr von den versteckten Fakten einer automatisierten Verhaltensmodifikation. War Macht früher mit dem Besitz der Produktionsmittel gleichzusetzen, so definiert sie sich heute durch den Besitz der Mittel zur Verhaltensmodifikation.

Auf die Plätze, fertig, Pokémon Go! New Jersey, Juli 2016. David hatte einen mörderischen Nachmittag hinter sich. Stundenlang hatte er in einem staubigen Gerichtssaal die Zeugenaussagen der beiden gegnerischen Parteien in einem Versicherungsstreit dirigiert. Zu allem Überfluss hatte ein Spannungsstoß in der Nacht zuvor der altersschwachen Klimaanlage des Gerichtsgebäudes den Rest gegeben. Auf der Heimfahrt hatte ein liegengebliebenes Auto den Verkehrsfluss in einem Morast verwandelt. Endlich zu Hause, bugsierte er den Wagen in die Garage und ging von dort aus durch die Waschküche ins Haus. Die kühle Luft dort wirkte wie ein Sprung ins Meer, und zum ersten Mal den ganzen Tag über holte er so richtig tief Luft. Ein Zettel auf dem Küchentisch teilte ihm mit, seine Frau wäre gleich wieder da. Er trank ein Glas Wasser, machte sich einen Drink und ging die Treppe hinauf, um ausgiebig zu duschen. Kaum prasselte das Wasser auf seinen Rücken, klingelte es unten an der Tür. Hatte sie den Schlüssel vergessen? Missmutig ob der unterbrochenen Dusche, zog er T-Shirt und Shorts über und lief an die Tür. Als er sie aufriss, sah er sich vor zwei Teenagern, die ihm ihre Handys unter die Nase

hielten. »Hey, Sie haben einen Pokémon im Hinterhof! Der gehört uns! Dürfen wir hinters Haus, um ihn uns zu schnappen?« »Einen was?« Er hatte keine Ahnung, wovon die Rede war, aber er sollte es gleich erfahren. Es klingelte an dem Abend noch viermal an der Tür; wildfremde Leute wollten in den Garten hinter seinem Haus und reagierten sauer, als er sie zu gehen bat. Auch an den folgenden Tagen bildeten sich Pulks von PokémonJägern auf dem Rasen vor seinem Haus, einige davon jung, andere ohne jede Entschuldigung für ihr Verhalten. Mit gezückten Handys scannten sie gestikulierend und unter großem Geschrei Haus und Garten auf »Augmented-Reality«-Wesen. Durch den schmalen Spalt ihrer Telefonwelt konnten sie ihre Beute sehen, allerdings auf Kosten der Umwelt um sie herum. Dass sie hier ins Heim einer Familie eindrangen und dabei die Grenzen des Anstands verletzten, die dieses Haus zum Zufluchtsort für seine Bewohner machte, sahen sie nicht. Das Spiel belegte das Haus und die Welt darum herum mit Beschlag und interpretierte es um zu einem Punkt im GPS-Koordinatensystem. Wir haben es hier mit einer ganz neuen Art von kommerziellem Anspruch zu tun: der profitorientierten Enteignung, die Realität als grenzenlose Leere sieht, an der man sich bereichern kann. Wann hört das wohl wieder auf?, fragte sich David. Was gibt denen das Recht? Wen soll ich anrufen, damit das aufhört? Ohne es zu wissen, hatte er sich, so unvermittelt aus der Dusche gerissen, den Bewohnern des kleinen britischen Weilers Broughton angeschlossen, die 2009 gegen die Invasion von Googles Street-View-Fahrzeugen protestiert hatten. Wie sie hatte er sich von einem Augenblick auf den anderen im Wettbewerb mit den ökonomischen Imperativen des Überwachungskapitalismus gesehen; und wie sie sollte er bald erfahren, dass es in so einem Fall keine Nummer gab, die man anrufen konnte. Es gab keine Behörde, die sich zuständig fühlte für den entsetzlichen Fehler, der da auf seinem Rasen aufgeblüht war. 2009 hatte, wie wir in Kapitel 5 gesehen haben, Street-View-Chef John Hanke die Demonstranten in Broughton schlicht ignoriert. An seiner Überzeugung, dass nur er und Google wüssten, was für Broughton und für den Rest der Menschheit das Beste sei, war nicht zu rütteln. Jetzt stand er an der nächsten Grenze des Überwachungskapitalismus, diesmal als

Gründer der Firma hinter Pokémon Go, Niantic Labs. Hanke war, wie Sie sich erinnern werden, besessen von dem Gedanken, die Welt zu erobern, indem er sie kartierte. Er hatte bereits Keyhole gegründet, das von der CIA finanzierte Start-up zur Satellitenkartierung, das Google dann aufgekauft und in Google Earth umgetauft hatte. Bei Google war er Vice President für Google Maps und eine treibende Kraft hinter den umstrittenen Bemühungen, öffentlichen wie privaten Raum durch das Street-ViewProjekt zu requirieren. Wie Hanke erzählt, wurde Pokémon Go unter der Ägide von Google Maps geboren; selbst das ursprüngliche Entwicklerteam kam von Google Maps.24 Auch Street Views geheimnisvoller Softwareingenieur Marius Milner hatte sich Hanke bei dieser neuen Phase des Übergriffs angeschlossen. 2010 hatte Hanke unter der Ägide des Mutterschiffs Google mit Niantic Labs bereits seine eigene Startrampe für seine Idee aufgebaut. Sein Ziel war die Entwicklung von »Parallel-Reality«-Games, mit denen sich die Leute durch eben die Territorien treiben und tracken ließen, die Street View so dreist für seine Karten beansprucht hatte. 2015 dann, nach der Umstrukturierung von Google zur Alphabet-Holding, Pokémon Go lief damals bereits, machte man aus Niantic Labs eine eigene Firma; die 30 Millionen Dollar Startkapital kamen von Google, Nintendo (das japanische Unternehmen, das Pokémon Ende der 1990er-Jahre auf seinem »Game Boy« gestartet hatte) und der Pokémon Company selbst.25 Schon früh hatte Hanke die Macht des Spielformats als Mittel zur Erreichung von Aktionsvorteilen erkannt. Er war noch bei Google, als er einem Interviewer gegenüber sagte: »Mehr als 80 % der Besitzer von Mobilgeräten geben an, auf ihrem Gerät Spiele zu spielen … Spiele stehen bei der Nutzung oft sogar an erster oder zweiter Stelle … Entsprechend ist es unserer Ansicht nach wichtig, für Android als Betriebssystem, aber auch für Google an sich, in der Zukunft des Mobile-Gaming innovativ und führend zu sein.«26 Es lohnt sich hier anzumerken, dass Hanke seine Gruppe nach einem Handelsschiff aus dem 19. Jahrhundert benannte, dem die Gier zum Verhängnis geworden war. Nach ihrem Verkauf zum Walfänger umgebaut, stach die Niantic 1849 mit Kurs auf San Francisco und die Walfanggründe des nördlichen Pazifik in See. Unterwegs legte der Kapitän einen

ungeplanten Zwischenstopp in Panama ein, um Hunderte von Glücksrittern an Bord zu nehmen, die im Goldrausch trotz der engen, muffelnden Quartiere auf seinem Walfänger Spitzenpreise für die Fahrt nach Kalifornien zu zahlen bereit waren. Zum Verhängnis wurde dem Kapitän seine Gier, als die Passagiere seine Besatzung mit dem Goldfieber ansteckten; die Besatzung verließ Kapitän und Schiff gleich nach dem Anlegen in San Francisco und machte sich auf den Weg ins gelobte Land. Außerstande, seine Reise fortzusetzen, sah der Kapitän sich gezwungen, sein Schiff für ’n Appel und ’n Ei zu verkaufen; die neuen Eigentümer ließen das Schiff im Hafen auf Grund laufen und machten daraus ein Hotel. 2016 nahmen Hanke und sein Team die Fahrt der meuternden Crew wieder auf. Seine Niantic nahm Kurs auf den neuen Goldrausch im Grenzgebiet der nächsten Eroberungswelle des Vorhersageimperativs: die Aktionsvorteile. Hankes Pokémon Go startete im Juli 2016 als eine von vielen möglichen Antworten auf die Frage, die sich den Ingenieuren und Wissenschaftlern stellte, die dem überwachungskapitalistischen Projekt seine Form gaben. Wie lässt sich menschliches Verhalten schnell und in wirtschaftlich rentablem Maß auslösen, um das Vorhersageprodukt in Richtung garantierter Ergebnisse zu manövrieren? Auf seinem Höhepunkt im Sommer 2016 war Pokémon Go die Erfüllung eines überwachungskapitalistischen Traums; es vereinte Masse, Diversität und Aktivierung; es brachte einen ständigen Strom neuer Quellen für Verhaltensüberschuss, und es lieferte frische Daten für die präzisere Kartierung von Räumen, innen wie außen, öffentlichen wie privaten. Wichtiger noch lieferte es ein Versuchsfeld für die Fernstimulation im großen Stil. Die Besitzer des Spiels lernten hier, kollektives Verhalten automatisch zu konditionieren, in der Herde zu gängeln und in Echtzeit auf Verhaltensterminkontraktmärkte zu treiben, und das immer gerade mal so, dass der Einzelne sich dessen nicht bewusst wird. Bei Hankes Ansatz erreichte man Aktionsvorteile durch die Dynamik eines Spiels. Niantic schuf das neue Spiel von vornherein nicht für den Bildschirm, sondern für die reale Welt. Der Gedanke dahinter war, dass die Spieler nach draußen gehen sollten, um zu Fuß Abenteuer in offenen öffentlichen Räumen zu erleben.27 Strukturiert ist das auf »erweiterte Realität« gebaute

Spiel wie eine Schatzsuche. Nach dem Download der App macht man sich GPS-gesteuert mit der Kamera seines Smartphones auf die Jagd nach virtuellen Wesen: den Pokémon. Diese Figuren tauchen auf Ihrem Smartphone auf, als befänden sie sich mit Ihnen in Ihrer realen Umwelt: auf dem Rasen hinter dem Haus eines Ahnungslosen, einer Straße mitten in der Stadt, einer Pizzeria, einem Park, einem Drogeriemarkt. Eingefangene Pokémon werden mit virtuellem Spielgeld, Bonbons und Sternenstaub belohnt; man setzt sie dann im Kampf gegen andere ein. Ziel ist es, alle 151 Pokémon einzufangen; unterwegs lassen sich »Erfahrungspunkte« sammeln, und man muss eine Reihe von Levels durchspielen. Ab Level 5 können die Spieler sich einem von drei Teams anschließen, um den Kampf in vorgegebenen »Gyms« oder »Arenen« weiterzuführen. Warmgelaufen hatte man sich schon einige Jahre zuvor mit Ingress, Niantics erstem mobilen Spiel für die reale Welt. 2012 veröffentlicht, war Ingress ein Vorläufer, ein Prüfstand für die Möglichkeiten, die schließlich Pokémon Go definieren sollten. Das Spiel veranlasste seine Nutzer, durch ihre Stadt zu fahren, um vorgegebene »Portale« und »Gebiete« zu finden und unter ihre Kontrolle zu bringen. Um die Bewegungen der Spieler zu tracken und die Gebiete zu kartieren, durch die sie sich bewegten, bauten die Designer auf GPS. Hanke denkt daran zurück, was er und sein Team mit Ingress gelernt hatten. Zunächst einmal war da die »Überraschung« des Niantic-Teams, als man sah, wie sehr »das Verhalten der Spieler sich verändert«.28 Hanke begriff, dass in den Regeln und in der sozialen Dynamik des Spiels die Saat der Verhaltensmodifikation angelegt war: »Wenn man die Welt zu seinem Spielbrett machen will, dann müssen die Orte, mit denen die Leute interagieren sollen, bestimmte Charakteristiken haben … Die Spieler sollten einen Grund dafür haben, dahin zu gehen … Das Spiel ermöglicht sie und stupst einen in Richtung dieser Interaktionen.«29 Ein Nutzer, dessen Ingress-Name »Spottiswoode« war, liefert ein Beispiel: »Auf dem Nachhauseweg mit dem Rad halte ich an einer Stelle, die ich zuvor ausgekundschaftet habe, sie liegt im Aktionsradius eines schwachen feindlichen Portals. Ich greife an, dazu benutze ich aufgesammelte XM (»Exotische Materie«), um die feindliche Infrastruktur zu zerstören.« Über den eingebauten Chatklienten lobt ihn ein Spieler mit Namen »Igashu«.

»Guter Job, Spottiswoode«, sagt er. »Ich bin stolz darauf und gehe weiter, plane meinen nächsten Angriff auf ein Portal des Feindes.«30 Laut Hanke sollte Pokémon Go die wichtigsten Motivationsquellen von Ingress umsetzen, das, was den Erfahrungen des Teams zufolge die Spieler dazu bringt, ihr Verhalten zu ändern: die Zugehörigkeit zu einer sozialen Gaming-Community auf der Basis von Action in der realen Welt.31 Jedes Spiel schränkt das Verhalten der Spieler mit Regeln ein, die manche Aktionen belohnen und andere bestrafen, und Niantic ist nicht der Erste, der die Spielstruktur dazu einsetzt, bei seinen Spielern Verhaltensänderungen zu bewirken. »Gamification« als Ansatz der Verhaltenstechnologie ist ein vielbeachtetes Thema, das eine robuste akademische und populärwissenschaftliche Literatur hervorgebracht hat.32 Laut Professor Kevin Werbach von der Wharton School teilen Spiele sich in drei Aktionslevels. Auf dem höchsten Level angesiedelt sind die »Dynamiken«, der Motor hinter der Motivationsenergie eines Spiels. Das können Emotionen sein, die durch den Wettbewerb oder durch Frustration ausgelöst werden, durch eine überzeugende Narration, eine Progressionsstruktur, die das Erlebnis einer Entwicklung hin zu einem höheren Ziel suggeriert, oder auch durch Beziehungen, die für Gefühle sorgen – wie etwa Mannschaftsgeist oder Aggression. Eine Ebene darunter liegen die »Mechaniken«. Sie sind die Bausteine, die die Handlung vorantreiben und für Engagement sorgen. So kann ein Spiel zum Beispiel als Wettkampf strukturiert sein oder als Herausforderung für einen Einzelnen, als Mannschaftssport oder Einzelkampf, die Spieler können abwechselnd an der Reihe sein oder im Team arbeiten, Erfolge können geteilt werden oder dem Sieger zufallen. Und schließlich sind da noch die »Komponenten« des Spiels, die die Mechaniken operationalisieren. Sie sind die sichtbarsten Aspekte des Spiels: Punkte, die für den Fortschritt stehen, als vordefinierte Herausforderungen gestaltete Aufgaben, »Abzeichen« für Leistungen, Ranglisten, um die Fortschritte aller Spieler aufzuzeigen, als Krönung eines Levels der Kampf gegen den Besten usw.33 Die Spieleforschung ist sich mehr oder weniger einig, dass diese Strukturen sehr effektiv zum Handeln motivieren können, und man ist in der Forschung ganz allgemein der Meinung, dass man Spiele zunehmend als bevorzugte Methode zur Änderung individuellen Verhaltens heranziehen

wird.34 In der Praxis bedeutet das, dass man diese Macht des Spiels, Verhalten zu beeinflussen, unter dem Stichwort »Gamification« schamlos in Tausenden von Situationen instrumentalisiert, in denen es einem Unternehmen um nichts anderes als um Tuning, Herding und Konditionierung von Kunden oder Angestellten im Sinne seiner eigenen Ziele geht. Im typischen Fall nimmt man dazu einige wenige Komponenten an Bord, wie etwa Punkte zur Belohnung und Levels für Fortgeschrittene, um das Verhalten im Sinne der unmittelbaren Unternehmensziele zu manipulieren; darunter fallen Kundentreuesysteme oder ein interner Wettbewerb unter Verkäufern. Ein Forscher hat eine Liste von über neunzig solcher »Fälle von Gamification« nebst Rentabilitätsstatistiken zusammengestellt.35 Ian Bogost, Professor für Interaktives Computing an der Technischen Hochschule Georgia und scharfsinniger Beobachter der digitalen Kultur, besteht darauf, derlei Systeme nicht als Spiele, sondern als »Exploitationware« zu bezeichnen, da ihr Ziel allein die Manipulation bzw. Modifikation von Verhalten sei.36 Pokémon Go schlägt mit diesen Möglichkeiten eine ganz neue Richtung ein, insofern es seine Spieler in die reale Welt hinausschickt, wenn auch nicht um des Spiels willen, das sie zu spielen meinen. Hankes einzigartiges Genie besteht darin, die im Spiel integrierten Anstrengungen zur Verhaltensmodifikation auf ein Ziel zu richten, das eine unerforschte Zone jenseits der Bewusstseinsgrenzen der Spieler bewohnt. Es zielt darauf ab, das Verhalten im noch weit größeren Spiel des Überwachungskapitalismus zu formen. Pokémon Go wurde zunächst im September 2015, kurz nachdem Niantic sich eigenständig machte, dem Wall Street Journal gegenüber enthüllt. Die Entwickler des Spiels sagten dem Reporter, das Spiel würde keine Werbung enthalten. Stattdessen würden die Erträge sich aus »Mikrotransaktionen« auflaufen, vermutlich im Verlauf des Spiels getätigte Verkäufe virtuellen Zubehörs, obwohl Niantic nicht sagen wollte, was genau da zu kaufen sein sollte. Immerhin versprach Niantic ein Tracking-Armband, das »vibriert und leuchtet«, wenn sein Träger sich einem Pokémon nähert. Klar war, dass Pokémon eine frische Quelle für Überschuss zur Verfeinerung und Erweiterung der Karten sein würde, von denen das Spiel abhängig war.37

Am 6. Juli 2016 offiziell in Amerika, Australien und Neuseeland gestartet, war Pokémon Go binnen einer Woche die download- und umsatzstärkste App der USA; sie hatte im Handumdrehen so viele aktive Android-User wie Twitter, und über 60 % der Downloads waren täglich im Einsatz, und am 8. Juli hieß das im Durchschnitt 43,5 Minuten.38 Da Niantics Server unter der Last des Andrangs ächzten, schob man das europäische Rollout des Games bis zum 13. Juli hinaus. Bis dahin hatte Niantic jedoch bereits den Wert seiner Herangehensweise an Aktionsvorteile unter Beweis gestellt und legte damit auf der letzten schwierigen Etappe hin zu garantierten Ergebnissen eine nie gekannte Effektivität an den Tag. Das beispiellose Muster zeichnete sich binnen weniger Tage nach dem Start des Games ab. In Virginia bot eine Bar einem Pokémon-Team verbilligte Getränke an; ein Teeladen in San Francisco lockte Spieler unter dem Motto »buy one get one free«.39 Der Besitzer einer Pizzabar in Queens, New York, blätterte um die zehn Dollar für »Lockmodule« hin, mit denen sich Pokémon für einen bestimmten Zeitraum an einen bestimmten Ort locken lassen; anders ausgedrückt, man kann damit die virtuellen Wesen auf einen Barhocker oder auf der Toilette platzieren. Während des ersten Wochenendes stiegen die Umsätze der Bar um 30 % und pegelten sich dann um 70 % über dem Durchschnitt ein. Wie Bloomberg begeistert berichtete, ging für den Geschäftsinhaber damit der Traum in Erfüllung, mittels Location-Tracking Laufkundschaft anzuziehen. »Ein simples Konzept: Ein Softwareentwickler verkauft Anzeigen in der Game-Welt an lokale Geschäfte, ja sogar eine Versteigerung des Versprechens, bestimmte Geschäfte oder Restaurants zu Anlaufstellen für Spieler zu machen, lässt sich vorstellen.«40 Wie Hanke der New York Times gegenüber durchblicken ließ, habe man diese Echtzeitmärkte in der realen Welt von Anfang an im Auge gehabt. »Niantic hatte solche Deals schon bei Ingress«, hieß es in der Times, »und Mr. Hanke sagte, das Unternehmen würde künftig gesponserte Locations für Pokémon Go bekanntgeben.«41 Diese Zukunft kam über Nacht. Binnen einer Woche waren die Grundelemente überwachungskapitalistischer Logik platziert, und man lobte sie über den grünen Klee. Hanke dazu: »Das Spiel verlässt sich fast ganz auf moderne Handy- und Datentechnologie als Motor unserer

Augmented-Reality, aber der vom Spiel generierte Traffic wirkt auch auf das Geschehen in der wirklichen Welt.«42 Schon am 12. Juli bejubelte die Financial Times »Spekulationen über die Zukunft des Spiels als Geldsegen für Einzelhändler und alle anderen, die sich nach dem Getrappel von Füßen sehnen«. Nintendos Aktie schoss um 52 % in die Höhe, wodurch der Börsenwert des Unternehmens um 10,2 Milliarden Dollar stieg.43 Frühere Versprechen, während des Spiels keine Werbung einzublenden, erwiesen sich als Spitzfindigkeiten, die genauerer Prüfung bedurften. Jedenfalls hatte man die Logik überwachungsbasierter Online-Werbung nicht aufgegeben; man hatte sie vielmehr als sein Spiegelbild in die wirkliche Welt verpflanzt. Es handelte sich dabei um eine Ausweitung der in der Online-Welt entwickelten Methoden und Ziele und war damit genau das, was sich bereits Dan Doctoroff von Sidewalk Labs für die »Google City« vorgestellt hatte, nur eben auf die »Realität« übertragen und unter dem Druck des Vorhersageimperativs um ein Vielfaches verstärkt (siehe Kapitel 7). Bereits am 13. Juli gestand Hanke der Financial Times gegenüber ein, dass »unser Geschäftsmodell bei Niantic« über »In-App-Verkäufe« von Pokémon-Go-Zubehör hinaus, »noch eine zweite Komponente hat, das Konzept gesponserter Locations«. Seiner Erklärung zufolge war das von Anfang an so geplant gewesen. Unternehmen, so erklärte er, »werden uns dafür bezahlen, als Locations innerhalb des virtuellen Spielbretts figurieren zu können – vor dem Hintergrund der Prämisse, dass das mehr Laufkundschaft bringt«. Abrechnen würde man mit diesen Sponsoren, so Hanke, auf einer »Pro-Kunde«-Basis, so wie man bei Google Search die Werbung auf einer »Pro-Klick«-Basis berechnet hatte.44 Das Konzept »gesponserter Locations« ist nichts weiter als ein Euphemismus für Niantics Verhaltensterminkontraktmärkte, die den Bodennullpunkt für Hankes neuen Goldrausch darstellen. Elemente und Dynamiken des Spiels dienen in Kombination mit der neuartigen Augmented-Reality-Technologie allein dazu, ganze Populationen von Gamern von einem Monetarisierungscheckpoint in der realen Welt zum nächsten zu treiben. Und sie sind die eigentlichen Kunden: die Geschäfte, angelockt vom Versprechen auf garantierte Ergebnisse, bezahlen dafür, auf diesem in die reale Welt verpflanzten Spielfeld zu figurieren.

Eine Weile sah es ganz so aus, als würde jeder dabei verdienen. Niantic schloss einen Deal mit McDonald’s ab, dessen 30 000 japanische Filialen zu nutzen. Der Besitzer einer britischen Kette von Einkaufszentren sorgte für »Auflade-Teams«, die dort mit tragbaren Ladegeräten bereitstanden. Starbucks gab bekannt, sich »an dem Spaß zu beteiligen«, indem das Unternehmen 12 000 seiner amerikanischen Filialen als offizielle »Gyms« bzw. »Pokéstops« auswies. Dazu kredenzte man »einen neuen PokémonGo-Frappuccino … die perfekte Labung für den vielbeschäftigten Pokémon-Trainer«. Auch Sprint entschloss sich, 10 500 Outlets zu Pokémon-Hubs umzurüsten. Beim Streaming-Riesen Spotify stieg die Nachfrage nach Pokémon-Musik um das Dreifache an. Ein britischer Versicherer bot eine spezielle Handy-Police, »damit Sie auch ein versehentlicher Schaden nicht davon abhält, alle zu fangen«. Disney äußerte sich enttäuscht über die eigenen Strategien, »die physische und die digitale Sphäre zu neuen vernetzten Spielerlebnissen zu verschmelzen«, und beschloss, seinem riesigen Spielzeuggeschäft »eine Pokémon Go ähnliche Richtung« zu geben.45 Der Hype um Pokémon Go begann sich allmählich wieder zu legen, aber die Wirkung von Hankes Leistungen sind unauslöschlich. »Wir haben gerade mal an der Oberfläche gekratzt«, sagte Hanke vor versammelten Fans.46 Wie das Spiel gezeigt hatte, ließen sich Aktionsvorteile in globalem Umfang skalieren und dabei gleichzeitig spezifische individuelle Aktionen auf präzise lokale Marktmöglichkeiten lenken, bei denen eine bestens zahlende Kundschaft sich einer zunehmenden Annäherung an garantierte Ergebnisse erfreuen kann. Niantics spezielle Leistung bestand im Einsatz des Gamification-Prinzips zur Erzielung garantierter Ergebnisse für seine eigentliche Kundschaft: Unternehmen, die an den von Niantic aufgebauten und gehosteten Verhaltensterminkontraktmärkten partizipieren. Hankes Spiel führte den Beweis, dass der Überwachungskapitalismus in der realen Welt praktisch genauso funktioniert wie in der virtuellen. Alles, was es dazu braucht, ist der Einsatz seines exklusiven Wissens (Größe und Diversität) zur Ausformung unseres augenblicklichen Verhaltens (Aktion), um unser späteres Verhalten präziser vorhersagen zu können. Die logische Folgerung daraus ist folgende: Erträge in der realen Welt wachsen proportional zur

Fähigkeit des überwachungskapitalistischen Unternehmens, Personen mit bestimmten Örtlichkeiten in Deckung zu bringen. Gelernt und vorgemacht hatte das bereits Google mit seinem Einsatz von Verhaltensüberschuss zur zielgruppen- bzw. personengenauen Online-Werbung. Diese Voraussetzungen legen nahe, dass Niantics Operationen auf den Aufbau massiver Versorgungsketten für Verhaltensüberschuss – hinsichtlich Masse als auch Diversität – abzielen würden. Man braucht nur einen Blick in die »Überwachungsrichtlinien« des Unternehmens werfen, deren Forderung nach Verhaltensdaten weit über das hinausgeht, was für eine effektive Teilnahme am Spiel nötig wäre. Nur sechs Tage nach Herausgabe des Spiels im Juli 2016 riet BuzzFeed-Reporter Joseph Bernstein den Pokémon-Usern, doch mal zu checken, was die App so an Daten von ihren Handys zog. »Wie die meisten Apps Ihres Smartphones, die auf GPS-Basis arbeiten, weiß auch Pokémon Go eine Menge über Ihre Bewegungen während des Spiels: wohin Sie gehen, wann Sie dort waren, wie Sie hingekommen sind, wie lange Sie geblieben sind und wer sonst noch dort war. Und wie viele andere Entwickler solcher Apps auch speichert Niantics diese Informationen.« Aber während andere standortbasierte Apps solche Daten zwar sammelten, so Bernsteins Schluss, »könnten Pokémon Gos unglaublich detaillierte, auf die Adresse genaue Daten im Verein mit der zunehmenden Popularität des Spiels dazu führen, dass es sich bald zu einem der, wenn nicht dem detailliertesten Social-Graph überhaupt entwickelt«.47 Die auf Nachrichten aus der Branche spezialisierte Website TechCrunch äußert ähnliche Bedenken hinsichtlich der Datengier des Spiels, wenn es »die lange Liste an Zugriffsberechtigungen, welche die App verlangt«, kritisiert. Dazu gehört nicht nur die Kamera, sondern auch die Erlaubnis, »Ihre Kontakte zu lesen« und »das Gerät nach Accounts abzusuchen«. In Niantics »Überwachungsrichtlinien« heißt es, das Unternehmen behalte sich vor, »gesammelte Informationen, auch personenbezogene, zu Forschungs- und Analysezwecken sowie zur demografischen Profilierung und Ähnlichem mit Dritten« zu teilen. Vor allem wies TechCrunch auf das »präzise Standorttracking« und die »Fähigkeit zum Audio-Fingerprinting« aufgrund des Zugangs zu Kamera und Mikrofon. »Sie dürfen also davon ausgehen, dass einige Ihrer Standortdaten bei Google landen.«48 Wie das Electronic Privacy Information Center in einer offiziellen Beschwerde bei

der Bundeshandelskommission schrieb, habe Niantic es versäumt, auch nur einen guten Grund für den »Umfang« zu nennen, in dem man Nutzerdaten abgreife, nicht nur aus Handys, sondern auch aus Google-Profilen. Ebenso wenig war irgendwo von Grenzen die Rede, wie lange man Standortdaten speicherte, nutzte oder mit Dritten teilte. Abschließend hieß es in der Beschwerde: »Es gibt keinen Hinweis darauf, dass Sammlung oder Speicherung von Standortdaten zur Nutzung des Spiels nötig wären oder dem Nutzer sonst in einer Weise dienten, die die Schäden aufwiegen würde, die ihm daraus für Privatsphäre und Sicherheit entstehen.«49 Mitte Juli 2016 bekam Niantic Post von Senator Al Franken, der um Auskunft über die Datenschutzrichtlinien des Unternehmens bat.50 Niantics Antwort Ende August ist aufschlussreich und ein Muster an Irreführung und Geheimniskrämerei, das sich auf die Mechaniken des Spiels konzentriert, ohne auch nur das Geringste über das Geschäftsmodell, geschweige denn die umfassendere Logik der Akkumulation dahinter zu sagen: »Pokémon Go wurde bereits von Gesundheitsämtern, Lehrern, Betreuern für psychisch Kranke, Eltern, Parkverwaltungen und ganz normalen Bürgern rund um die Welt als App gelobt, die gesundes Spiel und Neugier fördert.« Auch wenn das Unternehmen das breite Spektrum von Daten einräumt, die man als Vorbindung für das Spiel sammle – Standortdienste, Fotos, Medien, Daten, Kamera, Kontakte und Netzproviderdaten –, so besteht Niantic darauf, diese Daten lediglich zur »Bereitstellung und Verbesserung« seiner Dienste zu verwenden. Man vergisst dabei freilich geflissentlich, dass Niantics Dienste auf zwei Ebenen operieren: der des Spiels selbst und der der Vorhersagedienste für seine eigentlichen Kunden. Das Unternehmen räumt ein, dass es die Dienste Dritter nutze, so etwa die von Google, um »Daten zu sammeln und zu interpretieren«, vermeidet aber tunlichst, auf die Ziele dieser Analysen einzugehen.51 »Gesponserte Locations« spricht das siebenseitige Schreiben nur einmal an – mit dem Hinweis, dass Sponsoren Berichte über Besuche und spielbezogene Ereignisse erhielten. Von einer Abrechnung »pro Kunde« oder dem Verhaltensüberschuss, der benötigt wird, um diese Metriken zu erhalten, ist nirgendwo die Rede. Ebenso sorgsam umgeht Niantics Präsentation seine Ziele hinter Design und Entwicklung der

Aktionsvorteile, die Verhalten in der richtigen Welt in Echtzeit in Richtung von Niantics Verhaltensterminkontraktmärkten bugsieren. Das Geniale an Pokémon Go ist, das Spiel, das wir sehen, in ein Spiel höherer Ordnung, in ein überwachungskapitalistisches Spiel über ein Spiel verwandelt zu haben. Die Spieler, die auf dem Spielbrett der Stadt durch Parks und Pizzerien streifen, bildeten unbewusst eine neue Art menschlichen Spielbretts für dieses zweite und weit folgenschwerere Spiel. Die Spieler in diesem anderen realen Spiel hatten nichts mehr mit dem Pulk von Enthusiasten zu tun, die am Rande von Davids Rasen die Handys schwenkten. Im neuen realen Spiel werden Vorhersageprodukte zu Protokollen, die bestimmte Formen der Fernstimulierung bedingen, die Menschen in Herden durch reale Territorien treiben sollen, damit sie dort ihr reales Geld in die realen Geschäfte von Niantics realen Verhaltensterminkontraktmärkten treiben sollen. Niantic selbst nimmt sich dabei aus wie eine winzige Sonde aus den unermesslichen Weiten von Googles Arsenal an Kartierungsfähigkeiten, Überschussströmen, Produktionsmitteln und Serverfarmen, ein Unternehmen, das im Auftrag und zum Nutzen des Überwachungskapitalismus den Prototyp globaler Verhaltensmodifikationsmittel bauen und testen soll. Niantic ist dahintergekommen, dass im Taumel spielerischen Wettbewerbs der gefürchtete Sand im Getriebe, zu dem es unweigerlich kommt, wenn individueller Wille im Spiel ist, aus freien Stücken Spielprotokollen weicht, die die Bedingungen für die »natürliche Auslese« stellen. Auf diese Weise sorgt das Spiel automatisch für genau die Verhaltensweisen, nach denen den eigentlichen Zockern in Niantics Verhaltensterminkontraktmärkten ist. Und ist das Spiel auf diesem zweiten Brett erst einmal angestoßen, wetteifern die Spieler im eigentlichen Spiel um den finanziellen Segen, für den die lächelnden Schäfchen der Herde sorgen, während man sie auf ihrem Treck durch die Stadt schert. Letztendlich sehen wir, dass die Sonde das nächste Grenzgebiet ausforschen sollte: die Verhaltensmodifikationsmittel. Das Spiel über das Spiel entpuppt sich als experimentelles Faksimile des überwachungskapitalistischen Entwurfs unserer Zukunft. Es folgt dem Vorhersageimperativ zu seinem logischen Ende, bei dem ebenso massenhafte wie diverse Daten über uns auf die Aktivierungsmechanismen

treffen, die unser Verhalten auf einen neuen Marktkosmos ausrichten sollen. All die Ströme an Überschuss aus all den Räumen, von all den Dingen, all den Körpern, all dem Lachen und all den Tränen zielen letztlich auf diesen Triumph garantierter Ergebnisse und die Sturzflut an Erträgen, zu denen sie führen.

Die Verlockungen des Überwachungskapitalismus bei Under Armour »Beschleunige das Unvermeidliche« gehört angeblich zu den Favoriten unter den Managementprinzipien von Under Armours CEO Kevin Plank, die zur Belehrung seiner Führungskräfte auf einem riesigen Whiteboard geschrieben stehen. Der Gründer des bekannten Unternehmens für Sportbekleidung ist ein Vertreter des Inevitabilismus, wenn es darum geht, die ubiquitäre Rechnerarchitektur als schicksalhafte nächste Phase des Kapitalismus zu sehen. Plank hat begriffen, dass ihm aus der Kombination von Konnektivität, persönlichen Informationsströmen sowie deren Anhäufung und Analyse die Gelegenheit für einen neuen Wissensvorteil erwächst, der in seinem Fall auf fitnessbezogenen Aktivitäten und Ergebnissen fußt. Am Anfang stand die Vision einer Kundschaft auf der Suche nach Einsichten aus Schlaf-, Krankheits- und Ernährungsmustern, sei es durch Selbstanalyse, sei es durch das Gespräch mit dem Arzt. Die Riesen unter den Überwachungskapitalisten mögen bei der Entwicklung und Implementierung von Größen-, Diversifikations- und Aktionsvorteilen im Vorteil sein, aber wie wir gesehen haben, ziehen ihre Erfolge auch neue Konkurrenten an. Under Armour ist ein Beispiel einer produktbasierten Operation, die angesichts der verlockenden Megaprofite der Internetgiganten den Entschluss fasste, den Weg aus dem Verkauf von Produkten in Richtung Überwachungserträge zu gehen. In dieser neuen Phase sieht man die legendären »Funktions-Shirts und Schuhe« nur noch als Gelegenheiten, Verhaltensüberschuss einzufahren. Das neue Ziel des Unternehmens besteht in der Erfassung von Verhaltensüberschuss. Einerseits will man damit den Absatz fördern, andererseits geht es darum, Vorhersageprodukte über unser Verhalten an andere zu verkaufen.

Under Armours Umstieg auf den Überwachungskapitalismus führt uns den Vormarsch der Normalisierungsprozesse vor Augen, zeigt doch gerade dieses Beispiel, wie die unterschiedlichsten Geschäftsformen durch die neuen überwachungskapitalistischen Praktiken unterwandert werden, was selbst das Vertraute zur Quelle neuer Gefahren macht. Ob Under Armour mit seinem Unterfangen Erfolg haben wird oder nicht, die Ambitionen wie die Leistungen des Unternehmens illustrieren Ausbreitung und Dominanz des überwachungskapitalistischen Projekts selbst in Wirtschaftssektoren fernab seiner Anfänge World Wide Web. Planks umwälzende Einsicht bestand darin, dass Gesundheits- und Fitnessdaten über zahllose Geräte, Apps und Plattformen verteilt sind, anstatt vollintegriert und auf einer einzigen gemeinsamen Plattform zugänglich zu sein. Eine solche Plattform, so seine Erkenntnis, würde ein völlig neues Territorium an Daten und Informationen darstellen. Es sieht ganz danach aus, als hätte ihn das Fieber des Konquistadors gepackt, als ihm die elektrisierende Einsicht kam: »Das gehört niemandem!« Von diesem Augenblick an war Plank fest entschlossen, mit Under Armour einen neuen Kurs einzuschlagen. Er würde sowohl die Infrastruktur als auch die nötigen Datenströme für diese neue Wissensdatenbank schaffen. Und dann würde er seinen Anspruch darauf geltend machen: »Da sitz ich so und denk mir, wem soll das gehören? Ihrer Krankenkasse? Der Apotheke? Wollen Sie denen Ihre Daten anvertrauen? Warum nicht uns?«52 Die erste Phase in der Migration des Unternehmens sollte vom Bedarf an robusten Versorgungsketten für Verhaltensüberschuss geprägt sein – allein sie könnten Masse und Diversität garantieren. Under Armours »digitale Transformation« begann 2013, als das Unternehmen über eine Milliarde Dollar für Aufkauf bzw. Investitionen in drei prominente Apps zum mobilen Gesundheits-Tracking ausgab. Noch im selben Jahr brachte Under Armour »Record« heraus, eine mobile App für Schlaf und Fitness – »die Schaltzentrale für alle Ihre Aktivitäten rund um die Uhr«. Record wird als »offene Plattform« beschrieben: Die App fordert einen auf, um einer integrierten Übersicht und Analyse »des Erreichten« willen alle Ihre Daten aus sämtlichen Fitnessgeräten oder -applikationen hochzuladen, etwa von damals bereits beliebten Geräten wie Fitbit und Garmin, und hielt einen an, seine »Fitnessaktivitäten zu tracken, zu

analysieren und im ersten sozialen Netzwerk für Sportler und Fitnessenthusiasten« zu teilen.53 Ergebnis dieser Investitionen war eine digitale Gesundheits- und FitnessCommunity, die Ende 2016 bereits um die 200 Millionen Mitglieder hatte. Eine Führungskraft bezeichnete sie als den »ultimativen digitalen Ausdruck von Under Armour«.54 Einem detaillierten Profil von Plank zufolge hat jeder fünfte Amerikaner eine Under-Armour-App heruntergeladen. Der CEO möchte allen diesen Leuten beim Monitoring ihrer Leistungen helfen, ihrer Laufzeiten, ihrer Gewichtsverluste, ihrer Trainingseinheiten, um sie mit denen von Millionen anderen »Mitglieder der Community« zu vergleichen. Seine Vision, so Plank, sei es, mit umfassenden Gesundheits-, Fitness- und Ernährungsdaten sowie deren Analyse »auf die Weltgesundheit zu wirken«: Das ist so: Ich wache morgens auf, mein Wearable sagt mir, wie lang ich geschlafen habe, und schon geht der erste Datenpunkt hoch zur Cloud. Ich gehe ins Bad und steige auf die Waage, und Datenpunkt zwei geht hoch zur Cloud. Ich möchte trainieren, also lege ich meinen Herzfrequenz-Brustgurt um, und Datenpunkt drei geht ab in die Cloud. Und während ich tagsüber unterwegs bin, sagt der Fitness-Tracker der Cloud, wie viele Schritte ich mache. Und schließlich, was habe ich an dem Tag gegessen? Wenn ich wirklich gründlich sein will, kann ich mit MyFitnessPal alles tracken, schön, aber wenn nicht, dann sage ich ihm einfach, ob ich einen leichten oder durchschnittlichen oder schweren Tag hatte.55 Nachdem die neuen Versorgungsoperationen eingerichtet waren, wurde die zweite Phase von Under Armours »digitaler Transformation« durch Aktionsvorteile definiert. Plank gab eine Partnerschaft mit IBMs CEO Ginni Rometty bekannt, was bedeutete, dass IBMs KI-Plattform Watson im Zentrum von Under Armours Produktionsprozessen stehen würde; Watson würde Records Daten in wertvolle Analysen, Vorhersagen und Verhaltensrichtlinien umrechnen. Konkret hieß das, dass man Watson mit all Ihren Daten – Ihren Aktivitäten, Schlaf- und Mahlzeiten – fütterte, worauf das Superhirn nach einem Vergleich mit dem Rest der UnderArmour-»Community« Feedback ausgab.56 Die neue Mission bestand darin,

»Sportler überall mit biometrischen Messwerten zu befähigen« – alles im Dienste eines besseren »Verständnisses Ihrer selbst«. »Wie kommt es, dass wir mehr über unsere Autos wissen als über unseren Körper?«, fragte Plank rein rhetorisch 2016 auf einer Podiumsdiskussion am Rande einer Messe, wo er Under Armours neue »Connected-Fitness-Strategie« mit Rometty diskutierte.57 Vernetzte Fitness bedeutet nach dem Motto des Unternehmens, »Sportler weltweit zusammenzubringen und zu inspirieren«. Zunächst sah es tatsächlich so aus, als wollte das Unternehmen lediglich Gesundheit und Fitness fördern, um seinen Zielmarkt für Sportbekleidung zu erweitern, aber der Reiz der Überwachungserträge lag damals schon auf der Hand. 2015 sagte Plank Bloomberg News gegenüber, er hätte sich noch nicht entschieden, ob er Googles und Facebooks Werbemodellen folgen wolle, überlegte dann aber: »Stellen Sie sich mal Folgendes vor: Wenn Sie unter Facebook ›sozial‹ verstehen … wenn LinkedIn für Sie ›Business‹ bedeutet, wer ist dann ›Gesundheit und Fitness‹?«58 Ende 2016 versicherte Plank seinen Investoren, seine Investitionen in Daten würden sich auszahlen, wobei er jedoch – nach wie vor ganz konventionell – auf bessere Verkaufszahlen bei den physischen Produkten seines Unternehmens verwies: Wir wissen, womit wir unsere Brötchen verdienen, und offen gesagt, der Grund, aus dem wir uns überhaupt mit einer derartigen Investition auf die Connected Fitness eingelassen haben, war der, mehr Shirts und Schuhe zu verkaufen … Uns steht dieses Jahr mit unserer Version eine große Markteinführung bevor, das »Single Customer View«, und wir denken, dass die Datenmenge, die uns 200 Millionen Nutzer liefern, die uns sagen, wie viel sie sich bewegen, was sie essen und andere Daten, die uns helfen, mehr über sie zu erfahren, uns letztlich auch dabei helfen wird, mehr Shirts und Schuhe zu verkaufen. Also, wir denken, das ist doch was.59 Die »Markteinführung«, von der Plank sprach, war der UA Shop, Under Armours E-Commerce-Applikation, die Mitte 2016 online ging. Man beschrieb sie als »Brücke« zwischen den »digitalen Communities« des Unternehmens und seinem »Kerngeschäft«: Kleidung, Schuhe und

Equipment. Under Armour pries seine App als die einzige auf dem Markt, die von den Gesundheits- und Fitnessinformationen von weltweit fast 200 Millionen Mitgliedern getragen wird: »Vor Connected Fitness hatten wir lediglich Informationen über Transaktionen aus dem Einzelhandel von kaum zehn Millionen Leuten.«60 Jetzt integrierten Under Armours Plattformen Jahr für Jahr die Daten von Milliarden von Aktivitäten, die mit Millionen von Menschen gekoppelt waren. Die Shopping-App führte außerdem den Under-Armour-Account ein, der für jeden Nutzer ein konsolidiertes Profil anlegte, in dem die persönlichen Daten aus seiner Fitness-App und anderen Geräten mitsamt den Daten des jeweiligen Einzelhändlers integriert waren – ganz nach dem Vorbild der konsolidierten Nutzerprofile, die Google über alle Dienste und Kanäle hinweg anlegt.61 Damit war es Under Armour gelungen, ein neues Informationsterritorium anzulegen, und die Frage war nicht, ob man diese Informationen verkaufen sollte, sondern wie. Drei Jahre nach dem Start des Prozesses wurde klar, dass diese Datenströme als Verhaltensüberschuss ausgebeutet werden und im Zuge des Marsches auf aussagekräftige Vorhersageprodukte in Aktionsvorteile umgemünzt werden sollten. Wie wir nun schon in so vielen Fällen gesehen haben, verdrängten die Verlockungen der Überwachungserträge alle Alternativen, schließlich strotzte das Unternehmen nur so vor Einsichten in das Prinzip der Aktionsvorteile. Und diese implizieren zweierlei: Erstens haben sie sich dem Bewusstsein der Betroffenen zu entziehen, und zweitens bauen sie auf den Bruch mit der Selbstregulierung. So lernte Under Armour zum Beispiel, die Kunst der »Suggestion« zu beherrschen, indem man die über den Einzelnen zusammengetragenen Informationen für Werbe-Messages von beispielloser Relevanz und Zeitnähe nutzte. Einem der fürs Digitale zuständigen Topleute des Unternehmens zufolge hatte man aus den Daten gelernt, dass Verbraucher nach einer absolvierten Trainingseinheit um 83 % empfänglicher für Fitness-Messages sind. Anhand der Echtzeitinformationen aus Geräten und Apps war es jetzt möglich, eine Werbenachricht zeitlich so zu platzieren, dass sie einen in genau dem Augenblick »erwischte«, in dem man die Daten über sein Training in die Cloud stellte.

»Wir haben hier ganz unglaubliche Daten«, sagte der für Warengruppenmanagement und Innovation zuständige Mann des Unternehmens. »Wir kennen ihr Tempo, wir wissen, wie weit sie laufen, wie oft sie laufen. Wir wissen buchstäblich, welchen Joghurt sie essen, wir kennen die Marke.«62 Der Leiter Kundenbindung von Under Armour sagte 2017 im Rahmen einer Tagung, die Plattform liefere »Kontextwissen«, das wertvolle Gelegenheiten schaffe, das Wo und Wann von Aktivitäten auszunutzen. So lassen sich zum Beispiel auf einem Wärmebild die Laufstrecken sämtlicher Jogger Manhattans ablesen. Solches Wissen lässt sich noch verfeinern, so etwa auf Frauen zwischen 25 und 40, die zu einer bestimmten Zeit joggen und obendrein Spinning-Kurse nehmen. Plank stellte sich die Wirkung eines solchen Wissens auf die Verkaufszahlen vor: Stellen Sie sich vor, Sie reisen geschäftlich nach Chicago. Eines Morgens gehen Sie joggen, und am Tag zuvor hatten sie eine Erkältung. In Chicago hat es sieben Grad, also läuft Ihnen wahrscheinlich die Nase. Tja, wir machen da ganz zufällig diesen großartigen Laufhandschuh – intern nennen wir ihn den RotzFingerling, weil ein Mikrofaser-Taschentuch daran befestigt ist, damit man sich beim Laufen die Nase putzen kann. Und jetzt stellen Sie sich mal vor, ich könnte Ihnen eine Werbung schicken, in der es heißt: »Hey, sind Sie noch einen Tag in Chicago? Sollen wir Ihnen ein Paar Handschuhe schicken?63 Bald wurde klar, dass die »Wandlung« des Unternehmens auf die Entwicklung neuer Verhaltensmodifikationsmittel abzielte, mit denen sich garantierte Ergebnisse produzieren ließen. Die Datenintegration über Apps und Geräte hinweg sorgte für einen einzigartigen Reichtum an Daten und Details, und mit diesen kam die Gelegenheit, Verhalten nicht nur zu beobachten, sondern auch auszulösen. Rasch wuchs die Vision über »Shirts und Schuhe« hinaus auf die Automatisierung von Verhaltensinterventionen, mit denen sich das Vorhersageprodukt verbessern und der Verkauf anregen ließ. »Wie bringen wir sie dazu, sich richtig zu verhalten?«, fragte eine Führungskraft von Under Armour.64 Wie sieht dieses richtige Verhalten aus? Wie der bei Under Armour für Connected Fitness zuständige Bereichsleiter dem Wall Street Journal gegenüber sagte: »Wenn wir jeden

auf dem Planeten dazu bekommen könnten, nur einmal mehr in der Woche zu trainieren, dann wären wir bestens aufgestellt mit unserem Geschäft.«65 In Echtzeit mit der realen Welt verbunden, waren die Möglichkeiten des Unternehmens, Verhalten auszulösen, potenziell ausgesprochen vielversprechend: »Es geht buchstäblich darum, was man macht, welcher Sport einem tatsächlich zusagt, weil es nämlich durchaus relevant dafür ist, was man sieht.«66 Der für Erträge zuständige Kollege witterte Gelegenheiten zur Ausformung individuellen Verhaltens durch Belohnungen, Lob und zeitgerechte Empfehlungen – das Ganze auf eine Art und Weise, die die Grenzen zwischen Kommerz und Verhaltensmodifikation verwischt: Im Lauf der Zeit werden die Leute das eine oder andere tun, weswegen wir stolz auf sie sind – der eine läuft seine ersten fünf Kilometer, der andere erreicht sein Idealgewicht oder läuft seine persönliche Bestzeit im Marathon –, und für uns ergibt sich daraus eine geschäftliche Gelegenheit: Produktempfehlung, Inhalte, Tipps, Informationen zu Training, Ernährung, Erholung, Schlaf. Wenn Sie all das zusammennehmen, auf eine Art, der Sie die Transaktion nicht gleich ansehen, und die letztlich ziemlich hilfreich ist …67 Investmentanalysten sagte Plank, man würde den Schwerpunkt künftig auf die prädiktive und präskriptive Analyse individueller Profile legen, was zunächst einmal Masse und Diversität voraussetze: »Auf dem Weg nach vorne werden wir weiter tief in die Daten gehen und die so gewonnenen Einsichten auf Ausbau und Intensivierung unserer Beziehung zu den Sportlern verwenden, um mit ihren veränderten Bedürfnissen mitzuziehen.«68 Die erheblichen Investitionen des Unternehmens in die »digitale Transformation«, so betonte sein CEO, bedeuteten jedoch eine tiefgreifende »geschäftliche Transformation«, schließlich sah das neue Modell nicht mehr nur den bloßen Verkauf von Produkten vor, sondern auch die Nutzung unserer persönlichen Daten zur Einflussnahme auf unser Verhalten, um uns dann noch mehr Produkte verkaufen zu können. 2016 in einem Interview danach gefragt, welche Art von Firma ihm denn vorschwebe, stellte Plank Verhalten über Entwicklung und Verkauf physischer Produkte: »Ich sehe

mich gern als performanceorientiertes Unternehmen definiert, weil mir das meiner Ansicht nach keine Grenzen setzt.«69 Was er dann folgendermaßen ausführte: »Wenn ich richtig liege, wird Connected Fitness zum Multiplikator, der uns vom Unternehmen für Shirts und Schuhe zu einem richtigen Technologieunternehmen macht.«70 Kraft dieser Ambitionen prophezeite Plank für 2018 eine Steigerung um fast das Doppelte des Ertrags von 2015. »Daten sind das neue Öl«, war er sich sicher. »Ich glaube, die Unternehmen, die bleiben, schaffen mit Mathematik … mit der einen oder anderen Möglichkeit der Datenverwaltung.« Er verschrieb sich dem Ziel, ein »Mathe-Haus« zu werden, ein datenorientiertes Unternehmen, in dem Daten der Motor von operativem Geschäft und Entscheidungsprozessen sind.71 »In einer Welt, in der wir alle Daten haben«, so der für Einnahmequellen zuständige Senior Vice President von Under Armour, »sind die Möglichkeiten für ein MatheHaus unendlich, aus dem einfachen Grund, dass den Motor viele bauen können, den Brennstoff aber nur sehr wenige besitzen.« 72 Ein genauerer Blick auf die Under-Armour-Saga legt den Gedanken nahe, dass die Anstrengungen des Unternehmens zum Aufbau von Verhaltensterminkontraktmärkten, auf denen ausschließlich proprietäre Daten gehandelt werden, bereits in den ersten Phasen der ConnectedFitness-Initiative angelegt waren. 2014 zum Beispiel ging Under Armour eine Partnerschaft mit dem Schuh- und Bekleidungshändler Zappos ein. Ein neues Feature namens GearTracker, das in Under Armours TrackingSoftware eingebettet ist, fordert die Nutzer dazu auf, das Schuhmodell anzugeben, das sie bei ihren jeweiligen Fitness-Aktivitäten tragen. Wenn sie dann Trainingseinheiten oder gelaufene Kilometer loggen, berechnet die App die Abnutzung der Schuhe und benachrichtigt den Nutzer, wenn es Zeit für ein neues Paar wird. Es genügt dann ein Klick, um die Bestellung bei Zappos zu platzieren; darüber hinaus erweitert Under Armour damit seine Datenquellen. Das Management von Under Armours MapMyFitnessApp erklärt das folgendermaßen: »Wir haben eine Menge User, die alle ihre Jogging-Sessions loggen, aber daneben gibt’s auch noch eine Menge Leute, die nur am Wochenende loggen oder nur wenn sie für ein bestimmtes Event trainieren oder gar noch nachlässiger. Das gibt ihnen einen Grund, es mit dem Tracking etwas genauer zu nehmen.«73 Weitere Partnerschaften – z. B.

für Fahrradketten, Reifen oder Griffbänder für Tennisschläger – sollen sich an diesem Modell orientieren. Under Armour hoffte mit anderen Worten schon früh darauf, dass neue Wissensasymmetrien das Unternehmen zu einem dominanten Player in einer neuen Wissensteilung machen würden. Über die Vorteile hinaus, die man als Nutzer aus Under Armours Apps und Datenintegration ziehen mag, monetarisiert das Unternehmen diese Dienste auch noch dadurch, dass man Möglichkeiten zu Targeting und Modifizierung seines Verhaltens an Dritte verkauft. Die Daten, die man rund um die Uhr sammelte, beschränkten sich keineswegs auf die Verbesserung von Produkten und Dienstleistungen. eine Menge davon ist Überschuss, aus dem man über Fremd-Apps Kapital schlägt, um mit Überwachungserträgen Under Armours Wachstum zu finanzieren. Im Online-Milieu entwickelt, schlägt die Wissenschaft der zielgerichteten Werbung heute durch die Integration in den realen Fluss unseres realen Lebens eine ganz neue Richtung ein, und das mit nie gekannter Detailgenauigkeit und Finesse. Ergebnis dieser Entwicklung sind »zielgerichtete Apps«; sie zielen auf bestimmte Augenblicke in unserem Tagesablauf bzw. spezifische Bedingungen in unserem Körper, in unserem Blut. Diese Apps bedienen sich einer ganzen Reihe verhaltensverändernder Techniken wie Tuning, Suggestion oder Konditionierung; das Geheimnis dahinter besteht darin, all die detaillierten Informationen über unser Verhalten zum präzisen Timing der Interventionen zu nutzen, was eine maximale Vorhersagbarkeit garantiert, ohne dass das dem Nutzer so recht bewusst werden muss. 2017 sagte Under Armours Leiter Kundenbindung auf einer Tagung, die Präzision seiner Daten im Verein mit einem steten Strom kontextueller Informationen erlaube es dem Unternehmen, das exklusive Wissen um die beliebtesten Örtlichkeiten und Tageszeiten für das Jogging dazu einzusetzen, dass man die Leute zu Gütern und Dienstleistungen in ihrer Nachbarschaft dirigiert (was in etwa dem Denken hinter Pokémon entspricht).74 »Ich liebe Innovationen, die eine Veränderung des Verbraucherverhaltens bewirken«, beginnt ein Management-Posting aus dem Jahr 2016. Der Artikel konzentrierte sich auf Googles und Facebooks Bruttogewinnspanne im Bereich digitaler Medien, die 62,17 % respektive 85,77 % betrug: »So unglaublich wie die Bruttogewinnspannen bei den

digitalen Medien sind, erlauben sie den Unternehmen, Geld zu horten. Sieht man sich die Unternehmen an, bei denen digitale Medien die Haupteinnahmequelle sind, finden wir, was die Bruttogewinnspannen angeht, schockierende Zahlen … Lassen Sie die mal auf sich wirken.«75 Plank legte seine ambivalente Haltung gegenüber Facebooks Erfolgsmodell schließlich endgültig ab und richtete seine Ambitionen danach aus. Ein Posting im Management-Blog aus dem Jahre 2017 enthüllt uns eine ganz neue Entschlossenheit, über den konventionellen Verkauf physischer Produkte hinaus auch vom Verhalten seiner Nutzer zu profitieren. Das neue Konzept sah vor, sich »auf ein medienorientiertes Werbegeschäft« zu stützen, »um die technologische Entwicklung voranzutreiben und zu fördern, die Under Armour noch stärker im Geschäft der Hilfe am Nutzer verankert.«76 Auf seinen Werbe-Webseiten bediente Under Armour sich plötzlich der Art von enervierenden Sprachspielchen, die Dave Eggers – wie schon Orwell vor ihm – in seinem Roman Der Circle so effektiv eingesetzt hat: »Geheimnisse sind Lügen«, »teilen heißt heilen«, »Privatsphäre ist Diebstahl«. Auf einer dieser Webseiten prangt die Überschrift »SPRECHEN SIE UNSERE USER ZUR VERSTÄRKUNG IHRER KAUFABSICHT AN«. Ihr folgt der Slogan: »Authentisch kontaktieren und Veränderung inspirieren«. Man verrät seinen Werbekunden, dass »über 90  % der User auf Fitness, Idealgewicht und bessere Ernährung hinarbeiten. Platzieren Sie Nachrichten in Schlüsselaugenblicken, in denen die User besonders ansprechbar sind.« Im Folgenden geht der Text auf die Erfolge einer neuen Getränkemarke ein, die Under Armours »führende TargetingFähigkeiten« dazu einsetzte, »in Schlüsselaugenblicken des Tagesablaufs … relevante Messages« zu platzieren. Das System ermögliche es, »die User in entscheidenden Augenblicken ihres Tagesablaufs zu belohnen«. In Kombination mit Technologie zum Auffinden einschlägiger Ladengeschäfte gelang es, den Umsatz der Getränkemarke um ein Beträchtliches zu erhöhen.77 Eine andere Seite beginnt mit der Zeile: »Wir verfügen über die größte Nahrungsmitteldatenbank, die man je zusammengetragen hat, und liefern entsprechend unvergleichliche Einsichten in die Ernährung.« Die Überschrift darüber lautet: »SPRECHEN SIE UNSERE USER AN, UM

IHREN KONSUM ZU ERHÖHEN«. Der Artikel berichtet von der Entschlossenheit einer »großen Tiefkühlkost-Marke«, Under Armours »größte Dauerstudie aller Zeiten zum Gesundheitsverhalten« dazu einzusetzen, den Nutzern dabei zu helfen, »klügere Entscheidungen zu treffen, ihr Verhalten zu ändern und gesündere Gewohnheiten zu pflegen«.78 Besagtes Tiefkühlkostunternehmen drängte dem Nutzer darüber hinaus kleine Spielchen auf, die ein bestimmtes Verhalten erzeugen sollten. Diese »virtuellen Herausforderungen« ermöglichten es dem Unternehmen, die Leute mit ihrer Marke »durch den Tag zu begleiten« und sie direkt anzusprechen, sei es durch einen Newsletter, Newsfeeds oder andere »Premium Placements«. Alles in allem erhöhte man so die Häufigkeit, mit der die Nutzer »Nahrungsmittel der Marke kauften, aßen und loggten«. Eine weitere Seite ermahnt die Werbekunden dazu, »die Leute täglich anzusprechen, während sie auf ihre Gesundheitsziele hinarbeiten«. Man gibt Ratschläge, wie sich Under Armours Echtzeitdaten-Feeds dazu einsetzen lassen, Menschen in Augenblicken maximaler Empfänglichkeit präzise zu beeinflussen: »Eines der großen Unternehmen aus dem Gesundheitssektor kam zu uns mit dem Anliegen, unsere User auf authentische Weise anzusprechen, um mittels unserer Möglichkeiten einschlägige Artikel mit ihnen zu teilen. Unsere vernetzte Plattform ermöglicht es ihnen, Inhalte in Augenblicken erhöhten Endorphinspiegels zu teilen, wenn die Kunden relevanten Nachrichten gegenüber besonders empfänglich sind.« 79 Aufgegriffen werden diese Themen in Under Armours »StandardWerbespezifikationen« für die Connected-Fitness-Plattform, wo man die Möglichkeiten des Verhaltensüberschusses bei der individuellen Gestaltung und Verabreichung von Verstärkern erklärt. So lassen sich zum Beispiel nach Erreichen der Tagesziele Banner so einblenden, dass sie zeitlich auf den Augenblick größter Befriedigung über die erbrachte Leistung fallen, in der Regel nachdem die User der MyFitnessPal-App ihr Ernährungstagebuch geloggt haben: Premium Web Banners »können dem Kunden eine organisch integrierte Marken-Message zukommen lassen, während er seine täglichen Aktivitäten – Training, Schlaf und Ernährung – plant und trackt.«

Selbst ein flüchtiger Blick auf Under Armours Datenschutzrichtlinien ist aufschlussreich. Neben zahlreichen anderen Vergehen räumt das Unternehmen ein, dass unsere Standortdaten selbst dann geloggt werden, wenn keiner seiner Dienste läuft; außerdem bedient es sich jeder persönlichen Information, die man über Facebook teilt, falls man das soziale Netzwerk zum Einloggen nutzt. Absatz für Absatz heben die Richtlinien die Bemühungen um Verhaltensüberschuss hervor, die weit über das hinausgehen, was man bräuchte, um Wert für den Kunden zu schaffen.80 Alle Klauseln passen nahtlos in das Überwachungsparadigma, wie es die Studien der Carnegie Mellon University, des Journal of American Medicine und der Munk School of Global Affairs illustrieren. Es handelt sich hier um genau die Art von Datenschutzrichtlinien, in denen »nicht alle der Bestimmungen tatsächlich dem Schutz der Privatsphäre dienen«. Es handelt sich mit anderen Worten um Überwachungsrichtlinien. Die Geschichte von Under Armour gewährt einen Blick in die Zukunft, sollte sich der Überwachungskapitalismus weiter im rechtsfreien Raum entwickeln. Ob Under Armour letztlich Erfolg beschert sein wird oder nicht, die Ambitionen des Unternehmens weisen auf das Maß, in dem selbst ein traditionelles Unternehmen angesichts der Sogwirkung sensationeller Profite aus garantierten Ergebnissen sich auf Überwachungserträge verlegen wird. Under Armours Werbeprogramm wie auch die Datenrichtlinien des Unternehmens belegen die zentrale Rolle der ökonomischen Imperative des Überwachungskapitalismus für sein digitales Projekt. Um der benötigten Größen-, Diversifikations- und Aktionsvorteile willen gesammelte Verhaltensüberschussdaten sind von wesentlicher Bedeutung für die hehren kommerziellen Ambitionen des Unternehmens. Seine Vorhersageprodukte sind dank Watsons Superhirn wie Wärmesuchraketen, die ihre Ziele erfasst haben: Wehrlosigkeit, Verwundbarkeit, Arglosigkeit und Vertrauen. Sie schlagen in genau dem schwachen Augenblick ein, der der Aktivierung unseres Willens vorausgeht. Die Realität in ihrer Gänze – unser Schweiß, der Hügel vor Ihnen, sein Herzschlag, ihre Motivation, unsere Laufschuhe –, alles dient der »Verbrauchssteigerung«, für die man den Strom unserer Intimitäten aus unserem pausenlos bis ins Detail aufgezeichneten Leben Berechnungen von historischer Finesse unterzieht.

Was bleibt, nachdem die Überwachungserträge gezählt sind, ist ein unentwirrbar in einen versteckten, allgegenwärtigen, geheimen und umfassenden Marktprozess verwickeltes Selbst. Die Effektivität dieser Operationen hängt ab von einer immensen Maschinerie, die aus Verhaltensüberschuss intimes Wissen über große Gruppen und unseren Schlaf gestern Nacht produziert. Jedes Mal, wenn unser Endorphinspiegel unter den Hammer kommt, verschwimmen die Grenzen zwischen Selbst und Markt in einer Progression, die noch forciert wird von einer aus dem Ruder gelaufenen Rhetorik der »Authentizität« und »Befähigung«, die die Sprache schamlos jeglichen Sinns entleert. Entstellte Sprache ist ein wirksames Ablenkungsmanöver vom Treiben hinter den Kulissen, wo Erweiterung und Tiefe unter dem Diktat der Diversifikation in einem detaillierten Strom intime, persönliche Informationen liefern. Das so gewonnene Wissen wird dann instrumentalisiert werden, um Verhalten um des Profits willen zu modifizieren. »Ich fühle mich so was von toll nach dem Jogging! Ich sage ja zu dir, Tiefkühlkost, und zu euch neuen Schuhen! Wie lieb von euch! Wie schön für mich! Aber Augenblick mal … Was war das denn jetzt? Was ist da passiert?« Wenn wir jetzt nichts merken, obwohl wir eben eine Bestellung abgeschickt haben, wie lange wird es dauern, bis wir unempfindlich werden gegenüber diesem und allen anderen Übergriffen dieser Art? Wie lange wird es dauern, bis wir dickfellig genug sind, überhaupt nichts mehr mitzubekommen? Wie lange wird es dauern, bis wir vergessen haben, wer wir waren, bevor die uns in Besitz genommen haben, über den alten Text der Selbstbestimmung gebeugt, im Licht einer Funsel, einen Schal um die Schultern, das Vergrößerungsglas in der Hand – wie beim Enträtseln alter Hieroglyphen.

Wie sahen sie aus, die Verhaltensmodifikationsmittel? Die neuen globalen Verhaltensmodifikationsmittel, wie sie heute bei Facebook, Niantic und Under Armour in Entwicklung begriffen sind, stehen für ein ebenso neues wie regressives Zeitalter autonomen Kapitals und heteronomer Individuen – wo doch die bloße Möglichkeit demokratischer

Blüte und menschlicher Erfüllung des genauen Gegenteils bedürfte. Diese beispiellose Situation geht weit hinaus über die Debatten um die Common Rule mitten ins Herz unserer Treue zu den Idealen einer demokratischen Gesellschaft, die sich der Herausforderungen bewusst ist, die diese Ideale zur Bürde machen. Vergessen hat man bei alledem freilich, dass die Common Rule das Produkt einer ähnlichen Herausforderung für die Prinzipien individueller Autonomie und Treue zum demokratischen Gedanken war. Sie war ein Ergebnis eines erbitterten Ringens, bei dem demokratisch gesinnte Politiker im Schulterschluss mit sozialen Aktivisten, Wissenschaftlern und Rechtsanwälten sich Entwurf, Entwicklung und Einsatz der Verhaltensänderung als Mittel der Staatsmacht widersetzten. Es ist noch gar nicht so lange her, dass die amerikanische Gesellschaft mobil machte, um sich aller Mittel zur Verhaltensveränderung zu erwehren und sie durch Regulierung unter ihre Kontrolle zu bringen. Und an eben diese historische Situation sollten wir heute anknüpfen, um unsere Orientierung wiederzufinden und unser Bewusstsein zu wecken. 1971 machte sich der verfassungsrechtliche Unterausschuss unter der Leitung von Senator Sam Ervin aus North Carolina und unter Mitwirkung von Stars des gesamten politischen Spektrums wie Edward Kennedy, Birch Bayh, Robert Byrd und Strom Thurmond an eine, wie sich herausstellen sollte, mehrjährige Untersuchung »einer Reihe von Programmen, die darauf abzielten, menschliches Verhalten vorherzusagen, zu kontrollieren und zu modifizieren«. Ervin, konservativer Demokrat und Verfassungsexperte, wurde völlig unvermutet zum Held der Bürgerrechtler, als er während der Watergate-Krise als Vorsitzender des zuständigen Untersuchungsausschusses die Demokratie in Schutz nahm. In diesem Fall sollte der Unterausschuss für Verfassungsrecht Prinzipien und Anwendung der Verhaltensmodifikation einer intensiven verfassungsrechtlichen Prüfung unterziehen. Es war das erste Mal, dass man den Einsatz von Verhaltensänderung als Erweiterung der Staatsmacht in Frage stellte – und man verwarf ihn denn schließlich auch. Ausgelöst hatte die Untersuchung des Senats die wachsende Sorge in der Bevölkerung über die Ausbreitung psychologischer Techniken zur Verhaltenskontrolle. Gründe dafür gab es viele, ausschlaggebend jedoch waren der Kalte Krieg und die Vielzahl psychologischer Techniken und

Programme zur Verhaltensmodifikation, für die er verantwortlich war. Während des Koreakriegs waren die Zeitungen voll gewesen von Meldungen über die »Gehirnwäsche« der Kommunisten. Laut Allen Dulles, damals gerade zum Direktor der CIA ernannt, hatte man amerikanische Kriegsgefangene mit solchen Techniken auf einen Zustand roboterhafter Passivität reduziert. Der Verstand des Opfers, so sagte er, würde »dabei zu einer Schallplatte, über die er, von einem fremden Genius auf die Spindel gelegt, keine Kontrolle hat«.81 Amerikas Feinde schienen kurz davor, Kunst und Wissenschaft der »Gedankenkontrolle« mit psychologischen und pharmakologischen Mitteln zu meistern, die dem eigenen Militär unbekannt waren. Man las von Fortschritten bei der Veränderung mentaler Fähigkeiten aus der Ferne und von der Ausschaltung des »freien Willens« in China und in der Sowjetunion.82 Kurz nach Amtsantritt sorgte Dulles bei der CIA für ein Programm zur Erforschung und Entwicklung von Fähigkeiten zur »Gedankenkontrolle«, vom »Depatterning« und »Rewiring« des Einzelnen bis hin zur Veränderung von Einstellung und Verhaltensweisen eines kompletten Staats.83 Damit begann ein auf morbide Weise durchaus faszinierendes und oft bizarres Kapitel in der Geschichte der amerikanischen Spionage.84 Ein Gutteil der neuen Arbeit leistete man im Rahmen des streng geheimen MKUltra-Projekts, dessen Aufgabe in der »Erforschung und Entwicklung chemischer, biologischer und radiologischer Materialien zur Anwendung bei geheimen Operationen zur Kontrolle menschlichen Verhaltens« bestand. Nach Aussagen vor einem Senatsausschuss, der sich 1975 mit geheimen militärischen und Auslandsoperationen der CIA befasste, kam ein Bericht des zuständigen Generalinspekteurs aus dem Jahre 1963 zutage, der mehrere Gründe für die Geheimhaltung des Programms nannte – allen voran der, dass man in der Veränderung menschlichen Verhaltens etwas Unrechtmäßiges sah. »Forschung im Bereich der Manipulation menschlichen Verhaltens ist nach Ansicht zahlreicher Autoritäten in der Medizin und verwandten Gebieten mit dem Berufsethos unvereinbar«, begann der Bericht. »Mitwirkende am MKUltra-Programm setzen somit gelegentlich ihre berufliche Reputation aufs Spiel.« Außerdem weist man ausdrücklich darauf hin, dass zahlreiche Aktivitäten des Programms illegal

seien, den Rechten und Interessen amerikanischer Bürger zuwiderliefen und in der Öffentlichkeit für Befremdung sorgten.85 Uns interessieren hier in erster Linie Wachstum und Entwicklung der Verhaltensmodifikation als Erweiterung politischer Macht. So führte die »Nachfrage« seitens der CIA zu immer dreisterer Forschung zur Verhaltensveränderung und deren praktischer Anwendbarkeit seitens der Universitätspsychologie. Mediziner und Psychologen machten sich an die Entmystifizierung chinesischer Gehirnwäschetechniken und sorgten für deren Neuinterpretation im Rahmen etablierter Verhaltensforschung. »Gedankenkontrolle«, so die Schlussfolgerung ihrer Arbeit, verstehe sich eher als systematische Konditionierung auf der Basis unberechenbarer Verstärkungsmuster, was ganz im Sinne von B. F. Skinners bahnbrechender Entdeckung einer operanten Konditionierung war. Der Historikerin Rebecca Lemov zufolge hatte die Forschung im Bereich der »Gedankenkontrolle« eine immense Wirkung auf die CIA und andere Zweige des Militärs. Die Vorstellung, »menschliches Material« sei zu verändern – anders gesagt Persönlichkeit, Identität, Bewusstsein und die Fähigkeit zu selbstbestimmendem Verhalten ließen sich unterdrücken, eliminieren und durch eine externe Kontrolle ersetzen –, löste eine Welle panischer Ängste, ein ganz neues Gefühl der Verwundbarkeit aus: »Wenn die Welt tatsächlich voller Gefahren für den inneren wie den äußeren Menschen war, dann brauchte es mehr denn je Fachleute auf diesem Gebiet. Viele gute und an sich wohlmeinende Professoren – Leute, die sich als »Anthropotechniker« sahen oder das de facto auch waren – beteiligten sich an CIA-Projekten, die auf die Veränderung von menschlichem Denken und Verhalten gerichtet waren.86 Als sich 1971 die Senatoren des verfassungsrechtlichen Unterausschusses zusammenfanden, war die Migration von Praktiken zur Verhaltensmodifikation aus dem militärischen in den zivilen Bereich nicht mehr aufzuhalten. Techniken zur Verhaltensveränderung hatten über staatlich finanzierte (meist von der CIA geleitete) Psychologielabors und militärische PSYOPS (Psychological Operations) hinaus eine Reihe institutioneller Anwendungen gefunden, denen eines gemeinsam war: das Anliegen, defekte Persönlichkeiten »festgesetzter« Individuen zu korrigieren, vorzugsweise in einer Umgebung, die »totale Kontrolle« bot

oder einer solchen zumindest nahekam: Gefängnis, geschlossene Anstalt, Schule, Fabrik. Besonderer Handlungsbedarf erwuchs dem Ausschuss, als die Besorgnis unter der Bevölkerung ob der Verbreitung dieser Verhaltensmodifikationsprogramme im Alltag in öffentliche Entrüstung umschlug. Wie die kanadische Psychologin Alexandra Rutherford bei psychologiehistorischen Arbeiten feststellte, fanden Skinners Praktiken zur Verhaltensmodifikation in den 1960er- und 70er-Jahren aufgrund ihrer »bemerkenswerten Erfolge« in rasantem Tempo Verbreitung, wodurch ihre Vertreter sich freilich auch dem kritischen Blick einer nicht selten feindseligen Öffentlichkeit ausgesetzt sahen. Eine ganze Reihe journalistischer Arbeiten schlug Alarm ob des Eifers, mit dem man Techniken zur Verhaltensmodifikation anwenden wollte. Aus allen sprach die Ansicht, sie demütigten ihre Objekte, seien ethisch bedenklich und verstießen gegen grundlegende bürgerliche Freiheiten.87 Weiteren Zündstoff lieferte die Veröffentlichung von B. F. Skinners gesellschaftskritischem Essay Jenseits von Freiheit und Würde,88 in dem der Experimentalpsychologe eine Zukunft auf der Basis der Verhaltenskontrolle propagierte, die Freiheit (mitsamt dem Grundsatz einer liberalen Gesellschaft) an sich verwarf und die Vorstellung der Menschenwürde als Zufallsprodukt eines auf den eigenen Vorteil bedachten Narzissmus abtat. Skinner schwebte eine umfassende »Verhaltenstechnologie« vor, die eines Tages die Anwendung verhaltensverändernder Methoden auf ganze Populationen ermöglichen würde. Die stürmischen Kontroversen um das Buch machten Jenseits von Freiheit und Würde zum internationalen Bestseller. »Geistlos, wie sie ist, spricht Skinners Wissenschaft des menschlichen Verhaltens den Libertären nicht weniger an als den Faschisten«, schrieb Noam Chomsky in einer vielgelesenen Rezension des Buches. »Es wäre nicht absurd, es wäre grotesk, aus der Tatsache, dass sich Umstände arrangieren lassen, unter denen Verhalten durchaus vorhersagbar ist – wie zum Beispiel in einem Gefängnis oder … einem Konzentrationslager … –, darauf zu schließen, man brauche sich deshalb keine Sorge um die Freiheit und Würde des ›autonomen Menschen‹ zu machen.«89

1974 veröffentlichte der Senatsunterausschuss seinen von Senator Sam Ervin verfassten Bericht. Schon nach den ersten Zeilen sollte auch dem letzten Insassen unseres überwachungskapitalistischen Gefängnisses klar sein, dass die amerikanische Gesellschaft einen tieferen sozialen Umbruch hinter sich hat, als die bloße Zahl der seither ins Land gegangenen Jahrzehnte vermuten ließe. Es ist die Mühe wert, Ervins Worte genau zu lesen, allein schon um die Leidenschaft zu begreifen, mit der er die Arbeit seines Ausschusses im Sinne eines Plädoyers für liberale Ideale wie Freiheit und Würde ins Zentrum eines mit der Aufklärung beginnenden Prozesses stellt: Als die Gründerväter unser konstitutionelles Regierungssystem einrichteten, bauten sie es auf das Fundament ihres Glaubens an die Unverletzlichkeit des Individuums … Sie verstanden die Selbstbestimmung als Quelle der Individualität und diese Individualität als tragende Säule der Freiheit … In jüngster Zeit jedoch hat die Technik mit der Entwicklung neuer Methoden der Verhaltenskontrolle begonnen, die in der Lage sind, nicht nur die Handlungsweise des Einzelnen zu verändern, sondern seine Persönlichkeit und seine Denkart an sich … die Verhaltenstechnologie, wie man sie heute in den Vereinigten Staaten entwickelt, rührt an die grundlegenden Quellen der Individualität und an den Kern persönlicher Freiheit … die größte Gefahr … ist die Macht, die diese Technologie einem Einzelnen in die Hand gibt, seine Weltsicht und seine Werte einem anderen aufzuzwingen … Begriffe von Freiheit, Privatsphäre und Selbstbestimmung stehen ihrem Wesen nach im Konflikt mit Programmen, die darauf abzielen, nicht nur die physische Freiheit zu kontrollieren, sondern die Quelle freien Denkens an sich … Noch akuter wird diese Frage, wenn man diese Programme, wie das heute der Fall ist, in Abwesenheit strikter Kontrollen durchführt. So beunruhigend die Verhaltensmodifikation in theoretischer Hinsicht sein mag, bietet die unkontrollierte Ausbreitung der praktischen Techniken zur Verhaltenskontrolle gar noch größeren Anlass zur Sorge.90

Die Kritik von Ervins Bericht an der Verhaltensmodifikation hat eine einzigartige Relevanz für unsere Zeit. Sie beginnt mit einer Frage, die auch wir uns stellen müssen: »Wie konnte man damit durchkommen?« Der Bericht beruft sich bei der Antwort auf den zeitbedingten »Ausnahmezustand«. So wie der Überwachungskapitalismus ursprünglich unter dem Schutz eines sogenannten Kriegs gegen den Terror und des daraus resultierenden zwanghaften Bedürfnisses nach Gewissheit Wurzeln fassen und dann florieren konnte, so migrierten Mitte des 20. Jahrhunderts die Verhaltensmodifikationsmittel unter dem Schutz der Ängste des Kalten Kriegs aus dem Labor hinaus in die Welt. Später dann, in den 1960er- und 70er-Jahren, rief eine Gesellschaft nach bangen Jahren städtischer Unruhen, politischer Proteste und steigender Verbrechensquoten die Verhaltensprofis in die zivile Praxis. Den Senatoren zufolge hatte nicht zuletzt der Ruf nach »Law and Order« zur Suche nach »unmittelbaren und effizienten Mitteln zur Kontrolle von Gewalt und anderen Formen antisozialen Verhaltens geführt. Das Interesse, die Gewalt in den Griff zu bekommen, ersetzte zeitaufwändigere Versuche, die Ursachen dieser Gewalt zu verstehen.« Angesichts der großen Zahl von Unfreiwilligen, die man in Gefängnissen und psychiatrischen Einrichtungen Programmen zur Verhaltensänderung aussetzte, erkannten die Senatoren, dass diese als eine Art von staatlicher Macht zu sehen sei. Aber gab die Verfassung dem Staat das Recht, Verhalten und Denken seiner Bürger zu kontrollieren? Mit Hinsicht auf Bundesbehörden befand der Ausschuss, dass »gegenwärtig in den Vereinigten Staaten unter der Ägide der Bundesregierung … ein breites Spektrum von Techniken zur Verhaltensveränderung zum Einsatz« komme. Angesichts »der rasanten Ausbreitung von Techniken zur Verhaltensmodifikation« sei es beunruhigend, wie wenig »aufrichtige Anstrengungen« man unternehme, »sich der impliziten Probleme individueller Freiheit und … der fundamentalen Konflikte zwischen den Rechten des Einzelnen und der Verhaltenstechnologie anzunehmen«.91 Besonders scharf tadelten die Senatoren die beiden ihrer Ansicht nach schlimmsten und verderblichsten Techniken zur Verhaltensveränderung: Psychochirurgie und Elektrophysiologie. Der Ausschuss definierte sie als den »Einsatz mechanischer Mittel, um diverse Aspekte menschlichen Verhaltens zu kontrollieren«. Mit besonderem Entsetzen verwies der

Bericht auf »Vorrichtungen«, die das Objekt »ständig zu tragen hat, damit sein Verhalten über einen Computer zu überwachen und zu kontrollieren« sei und »um bestimmte Verhaltensweisen zu verhindern«. Der Erste Verfassungszusatz, so argumentierte der Ausschuss, müsse »das Recht jedes Einzelnen, Ideen hervorzubringen, gleichermaßen schützen«. Außerdem sollte das Recht auf Privatsphäre Bürger vor Eingriffen in ihre Gedanken, ihr Verhalten, ihre Persönlichkeit und ihre Identität schützen, auf dass diese Konzepte »nicht bedeutungslos« würden. In diesem Kontext nahm der Ausschuss Skinners »behavioristische Konditionierung« zur kritischen Untersuchung heraus: »Ein bedeutendes Segment der sich herausbildenden Technologie zur Verhaltenskontrolle beschäftigt sich mit der Konditionierung, bei der man diverse Formen von Überzeugung einsetzt, um bestimmte Arten von Verhalten zu stimulieren, während man andere unterdrückt.«92 Fast als hätte man künftige Gamification-Techniken als Mittel zur Verhaltensveränderung vorausgeahnt, sprach der Bericht mit großer Sorge »mildere« Ansätze an, die sich Methoden »positiver Verstärkung« bedienten, vom Anreiz »goldener Sterne« bis hin zu ausgeklügelten Belohnungssystemen zur »Restrukturierung der Persönlichkeit durch künstliche Techniken«. Die allgemeine Besessenheit von dem Gedanken, die Gewalt in den Griff zu bekommen, habe darüber hinaus Methoden der »Verhaltensvorhersage« hervorgebracht, die »gravierende Fragen hinsichtlich des rechtlichen Gehörs, der Privatsphäre und der individuellen Freiheiten« aufwerfen. Ein Psychologe wies 1974 in Monitor, der Zeitschrift der American Psychological Association, Kollegen, die mit ihrer Fähigkeit prahlten, »Verhalten zu kontrollieren«, darauf hin, dass man ihnen jetzt »mit zunehmendem Argwohn, wenn nicht gar mit Abscheu« gegenüberstehe und dass ihnen »Einschränkungen drohten … Die soziale Kontrolle der Verhaltenskontrolle ist unterwegs.«93 Die Arbeit des Senatsausschusses hatte nachhaltige Konsequenzen. Nicht nur gab sie Bürgerrechtsgruppen Auftrieb, die im Rahmen ihres Engagements für die Rechte von Häftlingen und Patienten dem Verhaltensterror in staatlichen Einrichtungen ein Ende zu machen versuchten – auch die Psychologen selbst begannen die Notwendigkeit der Professionalisierung ihrer Disziplin zu diskutieren: klare ethische

Standards, Akkreditierungsverfahren, Ausbildungsprogramme, Beförderungsregeln.94 Das 1974 verabschiedete Bundesforschungsgesetz (National Research Act) forderte die Einrichtung institutioneller Review Boards und legte den Grundstein für die Entwicklung und Institutionalisierung der Common Rule für den ethischen Umgang mit Versuchspersonen, von der sich Facebook bekanntlich ausgenommen fühlt. Noch im selben Jahr richtete der Kongress die Bundeskommission für Versuchspersonen biomedizinischer und Verhaltensforschung ein. Als diese fünf Jahre später im »Belmont Report« ihre Erkenntnisse veröffentlichte, wurde dieser zum professionellen Standard für ethische Richtlinien für vom Bund finanzierte Forschung am Menschen in den USA.95 Das nicht zu überhörende Rechtsbewusstsein der 1970er-Jahre machte Schluss mit dem Einsatz verhaltensverändernder Techniken im zivilen Bereich – oder wenigstens sorgte es dafür, dass ihr Stern verblasste. Ein Vertreter der Bundesgefängnisverwaltung empfahl den Leitern einschlägiger Programme, den »Begriff ›Verhaltensmodifikation‹ « zu vermeiden und von »Belohnung und positiver Verstärkung für die Art von Verhalten« zu sprechen, »für das wir zu sorgen versuchen«. Ein anderer sagte: »Wir machen, was wir seit jeher machen … aber von ›Verhaltensmodifikation‹ zu sprechen, sorgt nur für unnötige Probleme.«96 Unter dem Eindruck der herben öffentlichen Reaktion auf Jenseits von Freiheit und Würde versuchte Skinner 1976, mit den »Missverständnissen« um sein Werk, wie er das sah, aufzuräumen, aber seine »Fibel« Was ist Behaviorismus? kam bei der Öffentlichkeit nicht mehr an.97 Skinners Biografem zufolge »hatte die Schlacht ihren Höhepunkt überschritten«. Die Öffentlichkeit hatte sein Jenseits von Freiheit und Würde zum Bestseller gemacht, »aber Skinners Argument, es gebe kulturell Wichtigeres als die Erhaltung und Erweiterung der individuellen Freiheit, nicht weniger entschieden abgelehnt«.98 Besonders faszinierend bei alledem ist, dass in all diesen Jahren besorgter Debatten kein Mensch sich Verhaltensmodifikationsmittel in anderen Händen hätte vorstellen können als in denen des Staats. 1966 war das Problem der elektronischen Überwachung und der Verhaltenskontrolle Thema eines Artikels in der Harvard Law Review, dessen Autor staatliche

Versuche, Verhalten zu ändern, in Betracht zog, »da solche wahrscheinlicher sind als Versuche von privater Seite«.99 Angewidert von den Exzessen seiner Geheimdienste, ihrer Unterstützung staatlicher Machenschaften unter Nixon sowie der Migration der Verhaltensmodifikation als Mittel zur Aufrechterhaltung der Disziplin in staatlichen Einrichtungen, sorgte das demokratische Empfinden der amerikanischen Gesellschaft für den Rückgang verhaltensverändernder Techniken als verlängerter Arm staatlicher Macht. Senatoren, Professoren, Bürgerrechtler, Anwälte und viele andere Bürger, die sich gegen die antidemokratischen Übergriffe der Verhaltenstechnologen zur Wehr gesetzt hatten, konnten nicht wissen, dass sie diese Methoden nicht ein für alle Mal ausgemerzt hatten. Das Projekt sollte eine ganz und gar unerwartete Reinkarnation als Ausgeburt des Markts erfahren und unter dem Banner des Überwachungskapitalismus mit an Ausmaß und Diversität beispiellosen digitalen Fähigkeiten Wurzeln fassen und schließlich gedeihen. Noch während in den Vereinigten Staaten die demokratischen Kräfte sich der Verhaltensmodifikation als Form staatlicher Macht widersetzten, waren in der Gesellschaft bereits die Energien der kapitalistischen Gegenbewegung am Werk. Die wirtschaftliche Unternehmung sollte in den Genuss von Persönlichkeitsrechten kommen, ohne sich an demokratische Verpflichtungen, rechtliche Zwänge, moralische und soziale Erwägungen gebunden zu fühlen. Ein, jedenfalls im Falle der USA, geschwächter Staat, der von Wahl zu Wahl vom Reichtum der Konzerne abhängig ist, zeigt wenig Lust, sich der Verhaltensmodifikation als Marktprojekt entgegenzustellen, geschweige denn für die moralischen Imperative des autonomen Individuums einzustehen. In ihrer jüngsten Inkarnation erleben wir die Verhaltensmodifikation als globale digitale Marktarchitektur, frei von geografischen und verfassungsrechtlichen Zwängen und vom Wesen her gleichgültig gegenüber den Risiken, die sie für Freiheit, Würde oder die Aufrechterhaltung der liberalen Ordnung birgt, die Ervin und sein Ausschuss hatten verteidigen wollen. Noch bedrückender ist dieser Kontrast im Lichte der Tatsache, dass sich Mitte des 20. Jahrhunderts die Mittel zur Verhaltensveränderung gegen Individuen und Gruppen richteten, die als

»sie«, die »anderen«, gedacht waren: militärische Feinde, Häftlinge und andere Gefangene staatlicher Disziplin. Heute haben es die Verhaltensmodifikationsmittel ungeniert auf »uns« abgesehen. Und keiner kann sich den Maschen des Schleppnetzes dieses neuen Markts entziehen. Jede nur denkbare digitale Verbindung dient dazu, den profitgetriebenen Hunger privater Unternehmen nach Verhalten zu stillen. Was vermag die Macht der Demokratie, wenn die Bedrohung aus dem eigenen Handy kommt, dem digitalen Assistenten, dem FacebookLogin? Wer tritt jetzt für die Freiheit ein, wenn Facebook mit dem Rückzug in den Schatten droht, nur weil wir uns anmaßen, Sand im Getriebe zu sein zwischen dem Unternehmen und den Aktionsvorteilen, die man so sorgfältig, raffiniert und kostspielig aufgebaut hat, um unsere natürliche Empathie auszubeuten und unser Bewusstsein ebenso zu umgehen wie unser Recht auf Selbstbestimmung? Wir kamen bisher immer wieder auf die wesentlichen Fragen zurück, die die Wissensteilung definieren: Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet? Was das Wer weiß? anbelangt, haben wir die gigantischen Anhäufungen von Wissen über unser Verhalten im Schattentext kennengelernt, von immensen Mustern ganzer Populationen bis hin zu intimsten Details aus dem Leben von Einzelnen. Diese neuen Informationsterritorien sind privat und privilegiert, nur den Maschinen bekannt, ihren Priestern und den Marktteilnehmern, die bezahlen, um als Player in diesen neuen Räumen zu agieren. Obwohl klar ist, dass wir von alledem ausgeschlossen sind, weil das Wissen nicht für uns bestimmt ist, haben uns die letzten Kapitel eine tiefere strukturelle Basis für unseren Ausschluss enthüllt. Jetzt wissen wir, dass die Fähigkeit der Überwachungskapitalisten, unser Bewusstsein zu umgehen, eine wesentliche Bedingung für die Wissensproduktion ist. Wir sind ausgeschlossen, weil wir ein Problem, weil wir der Sand im Getriebe sind, der der Ausarbeitung des Schattentexts und damit der Wissensdominanz des Überwachungskapitalismus im Wege steht. Wer entscheidet? Nun, entschieden wurde diese Wissensteilung von den Deklarationen und Übergriffen der Besitzer des privaten Überwachungskapitals. Sie ist eine weitere wesentliche Bedingung der Akkumulation, und ermöglicht hat sie das Zögern des Staats, die demokratische Aufsicht über dieses geheime Reich zu übernehmen. Und

schließlich wäre da noch die Frage: Wer entscheidet, wer entscheidet? Bisher ist das die asymmetrische, vom Gesetz nicht weiter eingeschränkte Macht des Überwachungskapitalismus. Die Kommodifizierung des Verhaltens unter überwachungskapitalistischen Bedingungen richtet unsere Gesellschaft auf eine Zukunft aus, in der eine exklusive Wissensteilung durch Geheimniskrämerei, durch Undechiffrierbarkeit und Fachwissen geschützt ist. Selbst wenn ein Teil des Wissens, das man aus Ihrem Verhalten zieht, als Quidproquo in Form des ersten Texts wieder an Sie zurückgeht, erfassen parallel dazu die geheimen Operationen des Schattentexts den Überschuss, aus dem die Vorhersageprodukte produziert werden, die für andere Marktplätze bestimmt sind, die eher über Sie als für Sie sind. Diese Märkte sind nicht von Ihnen abhängig – außer als Quelle für den Rohstoff, aus dem der Überschuss stammt, und dann als Ziel für garantierte Ergebnisse. Wir haben keine formale Kontrolle, weil wir für die eigentliche Marktaktion nicht wesentlich sind. In dieser Zukunft sind wir Exilanten – ausgeschlossen aus unserem eigenen Verhalten, wird man uns den Zugang zu Wissen verwehren, das man aus unserer Erfahrung zieht, von seiner Kontrolle ganz zu schweigen. Wissen, Autorität und Macht bleiben beim Überwachungskapitalismus, für den wir nichts weiter als »menschliche natürliche Ressourcen« sind.

Kapitel 11 Das Recht auf das Futur Er aber hatte Seinen Plan: gewiß, es ging nicht ohne Zwang und brauchte Zeit, die wahre Wahrheitsliebe reifen ließ und Dankbarkeit. Sein Adler war bereit. – W. H. Auden, Sonette aus China, IX

Mein Wille zum Wollen Ich wache früh auf. Mein Tag beginnt, noch bevor ich die Augen öffne. In meinem Kopf arbeitet es. Im Schlaf sind mir Wörter und Sätze durch den Kopf gegangen; ich habe im Traum das eine oder andere Rätsel vom Vortag gelöst. Also klaube ich als Erstes diese Wörter und Sätze zusammen. Erst dann bin ich so weit, auch meine Sinne aufwachen zu lassen. Ich versuche, die einzelnen Vogelrufe draußen vor dem Fenster zu unterscheiden: Rotdrossel, Sperling, Blauhäher, Specht, Fink, Spottdrossel, Star und Meise. Ihr Gesang geht plötzlich unter im Geschnatter der Gänse am See. Nach einer Handvoll warmen Wassers im Gesicht trinke ich ein Glas kühles Wasser, um auch den Rest von mir aufzuwecken; dann rede ich mit dem Hund in dem ansonsten noch stillen Haus. Ich brühe Kaffee auf und nehme ihn mit in mein Arbeitszimmer, wo ich mich an den Schreibtisch setze, den Computer aufwecke und mich an die Arbeit mache. Ich überlege. Ich tippe diese Worte und stelle mir vor, wie Sie sie lesen. So halte ich das Tag für Tag, Woche für Woche, und das seit einigen Jahren – und es ist gut möglich, dass das noch ein, zwei Jahre so weitergeht.

Durchs Fenster über meinem Schreibtisch verfolge ich das Farbenspiel der Jahreszeiten: grün, rot, gold, weiß, und dann ist wieder alles grün. Wenn Freunde vorbeischauen, werfen sie einen Blick in mein Arbeitszimmer: Bücherstapel, Papier so weit das Auge reicht, selbst der Fußboden ist voll davon. Ich weiß, der Anblick ist etwas viel, und manchmal kann ich ihr Mitleid geradezu spüren. Wieso tut sie sich das tagaus, tagein an? Ich glaube nicht, dass ihnen klar ist, wie frei ich mich fühle. Genau genommen habe ich mich nie im Leben so frei gefühlt. Wie ist das möglich? Ich habe versprochen, dieses Buch zu Ende zu bringen; wie eine Flagge habe ich dieses Versprechen in der Zukunft aufgepflanzt; sie steht für meine selbstauferlegte Verpflichtung, diese Zukunft zu schaffen. Halte ich mein Versprechen nicht, wird diese Zukunft nicht existieren. Ohne meine Fähigkeit, sie mir erst vorzustellen und sie dann kraft meines Willens zu schaffen, wird diese Zukunft nicht werden. Ich bin eine Raupe, die fest entschlossen und zielbewusst Spanne für Spanne die Distanz zwischen jetzt und später überwindet. Da meine Bemühungen Ungewissheit zu Fakten machen, fügt jede noch so kleine Spanne, die ich zurücklege, der bislang bekannten Welt ein Stückchen hinzu. Nicht dass die Welt untergehen würde, sollte ich mein Versprechen nicht halten: Mein Verleger würde eine Annullierung unseres Vertrags überleben; der Leser würde etwas anderes finden; ich würde mich anderen Projekten widmen. Aber mein Versprechen ist ein Anker, der mich vor der Abtrift in die Unwägbarkeiten meiner Launen und Versuchungen schützt. Es ist das Produkt meines Willens zum Wollen und gleichzeitig der Kompass, der mir den Weg in eine ersehnte Zukunft weist, in eine Wirklichkeit, die noch nicht ist. Ereignisse mögen ihren Ursprung in Energiequellen außerhalb meines Willens haben und meinen Kurs abrupt ändern, und dies vermag ich weder vorherzusagen noch zu steuern. Es wäre nicht das erste Mal. Trotz dieser Gewissheit meiner Ungewissheit habe ich keinen Zweifel an meiner Freiheit. Ich kann versprechen, eine Zukunft zu schaffen, und ich kann mein Versprechen einlösen. Wenn das Buch, das mir vorschwebt, in der Zukunft existieren soll, muss ich es kraft meines Willens erschaffen. Ich lebe damit in einer sich entwickelnden Landschaft, die bereits eine Zukunft umfasst, die ich mir nur vorstellen, die ich nur beabsichtigen kann. In meiner Welt existiert das Buch bereits, über dem ich hier sitze. In Erfüllung meines

Versprechens, lasse ich es erscheinen. Dieser Willensakt ist mein Anspruch auf das Futur. Ein Versprechen zu geben heißt, die Zukunft vorherzusagen; ein Versprechen einzulösen heißt, diese Vorhersage kraft meines Willens in eine Tatsache zu verwandeln. Unser Herz pumpt Blut, unsere Nieren filtern dieses Blut, und unser Wille schafft die Zukunft in der geduldigen Entdeckung des nächsten Satzes oder des nächsten Schritts. Auf diese Weise fordern wir unser Recht ein, in der ersten Person als Autoren unserer Zukunft zu sprechen. Die Philosophin Hannah Arendt widmete ein ganzes Buch einer Untersuchung des Wollens als »geistiges Organ für die Zukunft« in Analogie zur Erinnerung als geistiges Organ für die Vergangenheit. Die Macht des Wollens liege in seiner einzigartigen Fähigkeit, nicht nur mit Dingen zu tun zu haben, »die den Sinnen nicht gegenwärtig sind und durch den Geist vergegenwärtig werden müssen, sondern Sichtbarem und Unsichtbarem, das noch nie existiert hat .… und so wie sich die Vergangenheit dem Geiste stets im Kleide der Gewißheit darstellt, so ist die Haupteigenschaft der Zukunft ihre grundsätzliche Ungewißheit, eine wie hohe Wahrscheinlichkeit auch immer die Voraussage erreichen mag«. In Bezug auf die Vergangenheit sehen wir nur Objekte, der Blick auf die Zukunft jedoch bringt »Projekte«, Dinge, die erst noch sein sollen. Handeln wir aus freiem Willen, steht und fällt diese Handlung mit unserer Entschlossenheit, unser Projekt auch tatsächlich durchzuführen. Es sind dies Handlungen, die wir hätten »ungetan« lassen können, wäre da nicht unser Engagement. »Ein Wille, der nicht frei ist«, so Arendts Schluss, »wäre ein Widerspruch in sich selbst.«1 Der Wille ist das Organ, mit dem wir unserer Zukunft zur Existenz verhelfen. Arendts Metapher des Willens als »geistiges Organ für die Zukunft« suggeriert etwas, was uns mitgegeben ist: etwas Organisches, Wesentliches, Unveräußerliches. Moralphilosophen sprechen vom »freien Willen«, da er uns Menschen der Kontrapunkt zur Angst vor der Ungewissheit ist, die jedes selbstständige Handeln erstickt. Arendt bezeichnet Versprechen als »Wegweiser in ein noch unbekanntes und unbegangenes Gebiet« und »Inseln der Sicherheit von den Menschen in das drohende Meer des Ungewissen geworfen«. Sie seien, so schreibt sie, die

einzige Alternative zu einer anderen Art von »Macht«, die auf »SelbstBeherrschung und Herrschaft über Andere« fußt.2 Die Diskussion um den Begriff des freien Willens zieht sich seit Jahrhunderten hin, wenn auch allzu oft mit dem Resultat, unsere Willenserklärungen zum Schweigen zu bringen – als wäre uns die Geltendmachung dieses so fundamentalen menschlichen Fakts peinlich. Ich erkenne das unmittelbare Erfahren meiner Freiheit als unvergängliche Wahrheit, die nicht auf behavioristische Vorstellungen vom Leben als notwendigerweise zufällig und beliebig zu reduzieren ist. Ich verstehe mit anderen Worten mein Leben nicht als durch externe Reize geformt, die sich meiner Kenntnis oder meinem Einfluss entziehen, von ebenso irrationalen wie unzuverlässigen geistigen Prozessen bestimmt, die ich nicht erkennen, geschweige denn mich ihnen entziehen kann.3 Der amerikanische Philosoph John Searle, dessen Ausführungen über die »Deklaration« wir in Kapitel 6 diskutiert haben, kommt in seiner Untersuchung des »freien Willens« zu einem ähnlichen Schluss. Er weist auf die »kausale Lücke« zwischen den Gründen für unsere Handlungen und ihrer Umsetzung. Mag sein, dass wir gute Gründe haben, etwas zu tun, schreibt er, aber das bedeute nicht notwendigerweise, dass wir es auch tatsächlich tun. »Für diese Lücke gibt es einen herkömmlichen philosophischen Namen: die ›Willensfreiheit‹.«4 Ob wir den Begriff seiner »anrüchigen« Geschichte wegen nun mögen oder nicht, schreibt er, es sei »durchaus möglich, daß die Lücke eine Illusion« sei, »loswerden« können wir sie trotzdem nicht. »Der Begriff des Gebens und Haltens von Versprechen setzt die Lücke voraus … Das Geben und Halten von Versprechen setzt auf seiten des Versprechen gebenden und Versprechen haltenden Akteurs Bewußtsein und Freiheitsgefühl voraus«.5 Der freie Wille ist das existenzielle Knochengerüst, das das moralische Fleisch des Versprechens trägt, und wenn ich auf seine Integrität bestehe, dann nicht aus Nostalgie oder weil mir die prädigitale Phase der menschlichen Geschichte aus irgendeinem Grund lieber wäre. Er ist die einzige Freiheit, die wir uns garantieren können, ungeachtet der Last von Trägheit, Entropie oder der Kräfte und Ängste, die aus der Zeit eine endlose Schattenboxpartie von Augenblicken zu machen versuchen. Dieses Knochengerüst ist die notwendige Vorbedingung für die Möglichkeit von

Zivilisation als »moralischem Milieu«, das die Würde des Einzelnen obenan stellt und die entschieden menschlichen Fähigkeiten zu Dialog und Problemlösung respektiert. Jede Person, Idee oder Praxis, die diese Knochen oder das Fleisch darauf beschädigt, beraubt uns einer von und für uns geschaffenen Zukunft. Es handelt sich bei diesen Prinzipien keineswegs um schrullige Accessoires, wie Hal Varian und andere uns nahelegen wollen. Sie sind vielmehr hart erkämpfte Leistungen; sie haben sich in Jahrtausenden menschlichen Wettbewerbs herauskristallisiert. Unsere Freiheit kann sich nur entfalten, wenn wir uns fortwährend bemühen, die Lücke zwischen Geben und Einlösen von Versprechen zu schließen. Darin impliziert ist die Behauptung, durch meinen Willen auf die Zukunft wirken zu können. Mitnichten impliziert ist selbstverständlich die totale Autorität über die Zukunft, nur über meinen kleinen Anteil an ihr. So impliziert die Geltendmachung der Willensfreiheit auch die Geltendmachung des Rechts auf das Futur als Bedingung für ein wirklich menschliches Leben. Warum sollte man eine so elementare Erfahrung wie diesen natürlichen Anspruch auf die Zukunft zum Menschenrecht ausrufen wollen? Nun, die kurze Antwort darauf ist, dass es erst jetzt nötig geworden ist, weil sie in Gefahr ist. Searles Argumentation zufolge kristallisieren sich »bestimmte Merkmale menschlichen Lebens« erst in dem historischen Augenblick zu formalen Menschenrechten, in dem sie einer systematischen Bedrohung ausgesetzt sind. So ist zum Beispiel das Recht zu sprechen ein Grundrecht; der Begriff der »Redefreiheit« als formales Recht kam jedoch erst auf, als die Gesellschaft einen Grad an politischer Komplexität erreicht hatte, der die Redefreiheit zu bedrohen begann. Sprache, so schreibt der Philosoph, sei nicht etwa wichtiger für den Menschen als etwa das Atmen oder die Fähigkeit, sich zu bewegen. Und doch hat nie jemand das »Recht zu atmen« ausgerufen oder ein »Recht auf körperliche Bewegung«, da diese Naturrechte nie unter Beschuss kamen und entsprechend keines formalen Schutzes bedurften. Entsprechend weist Searle auf »den historisch kontingenten, pragmatischen Charakter« dessen, was bei uns »als grundlegendes Menschenrecht« gilt.6 Ich würde vorschlagen, wir wenden uns jetzt dem historischen Augenblick zu, in dem die Bedrohung unseres Grundrechts auf Zukunft

durch eine panvasive7 digitale Architektur der Verhaltensmodifikation begann. Besitzer und Betreiber dieser Architektur ist das Überwachungskapital; Hintergrund sind dessen ökonomische Imperative, der Motor seine Bewegungsgesetze; das Ziel sind garantierte Ergebnisse seiner Vorhersageprodukte.

Unser Wille zum Wollen Um es so einfach wie möglich zu sagen: Freiheit ist ohne Ungewissheit undenkbar – Ungewissheit ist das Medium, in dem der menschliche Wille sich in Form von Versprechen ausdrückt. Selbstverständlich geben wir nicht nur uns selbst Versprechen, wir geben sie auch anderen. Und wenn wir unseren Willen und unsere Versprechen vor einen gemeinsamen Wagen spannen, schaffen wir – verbunden in der Entschlossenheit, unsere Vision von der Welt in dieser umzusetzen – die Möglichkeit kollektiven Handelns hin zu einer gemeinsamen Zukunft. So entwickelte sich, beginnend bei den alten Römern, die Institution, die wir als »Vertrag« bezeichnen.8 Verträge entstanden als gemeinsame »Inseln der Sicherheit«, die die Ungewissheit der menschlichen Gemeinschaft auf ein erträgliches Maß reduzieren sollten, und sie haben diese Bedeutung bis heute behalten. »Der kleinste gemeinsame Nenner des Vertragsrechts ist der, dass es die soziale Praxis des Gebens und Einlösens von Versprechen und Vereinbarungen unterstützt und formt«, heißt es dazu bei einem unserer herausragenden Wissenschaftler. »Das Vertragsrecht richtet sein Augenmerk auf Probleme der Zusammenarbeit«, fasst ein anderer zusammen. »Vertragsrecht … reflektiert ein moralisches Ideal von gleichem Respekt für alle ohne Ansehen der Person. Das erklärt, weshalb das Vertragsrecht genuine rechtliche Verpflichtungen zu schaffen vermag und nicht ein System von Zwängen ist«, schreibt ein Dritter.9 Gerade in diesem Kontext offenbart sich uns die zerstörerische Kraft des Unvertrags am deutlichsten. Denken Sie an Hal Varians Lösung für säumige Ratenzahler beim Autokauf. Varian bezeichnet diese als »neue Vertragsform«, wo doch in Wirklichkeit der Unvertrag die menschliche Welt rechtlich verbindlicher Versprechen hinter sich lässt und sie durch die

positivistischen Berechnungen automatischer Maschinenprozesse ersetzt.10 Ohne langes Federlesen verwirft Varians Unvertrag mehrere Tausend Jahre gesellschaftlicher Entwicklung, in denen die westliche Zivilisation den Vertrag als große gemeinsame Willensleistung institutionalisiert hat. Es ist kein Geheimnis, dass die Institution des Vertrags zu allen Zeiten verzerrt und missbraucht wurde, vom Requerimiento bis hin zum »Sklavenvertrag« – eine herrschende Macht wird immer für schmerzliche Ungleichheiten sorgen, die das gegenseitige Versprechen seiner Bedeutung, ja seiner Möglichkeit an sich berauben.11 Max Weber zum Beispiel wies warnend darauf hin, ein Resultat der Vertragsfreiheit sei unter anderem die Chance, »Güterbesitz … durch Rechtsschranken als Mittel der Erlangung von Macht über andere zu nutzen«.12 Die heutigen Unverträge sind jedoch beispiellos in ihrem Vermögen, anderen einseitig Macht aufzuzwingen. Mit Unterstützung des Apparats schaffen sie mittels einer Kombination von totaler Überwachung und Fernsteuerung eine vernetzte »neue Ökonomie«, die die Versprechen und das soziale Engagement des Menschen schlicht umgeht.13 Ziel des Unvertrags ist eine Situation, die der Wirtschaftswissenschaftler Oliver Williamson als »Vertragsutopie« bezeichnete: einen Zustand vollkommener Information zwischen zwei vollkommen rationalen Menschen, die Versprechen ausnahmslos einhalten.14 Das Problem besteht laut Williamson darin, »dass alle komplexen Verträge notwendigerweise unvollständig sind … Parteien werden sich mit der Notwendigkeit konfrontiert sehen, sich unvorhergesehenen Störungen anzupassen, die sich aus Lücken, Irrtümern und Auslassungen im ursprünglichen Vertrag ergeben«.15 Wenn Sie je ein Haus nach den Plänen eines Architekten haben entstehen sehen, dann haben Sie eine gute Vorstellung davon, was Williamson meint. Keine Blaupause der Welt ist detailliert genug, um Zeichnungen und Spezifikationen problemlos in ein bewohnbares Haus zu verwandeln. Kein Plan antizipiert jedes nur mögliche Problem, und die meisten kommen dem noch nicht einmal nahe. Die Fähigkeiten der Ausführenden sind eine Funktion ihrer vereinten Kräfte bei der Erfindung all dessen, was nötig ist, die Absichten der Zeichner umzusetzen und die unerwarteten, aber unvermeidlichen Komplikationen zu lösen, die sich im Verlauf der

konkreten Arbeit ergeben. Gemeinsam schaffen sie aus der Ungewissheit einer Planzeichnung eine Realität. Was die Zusammenarbeit angeht, verhält es sich mit Vertragsparteien ähnlich wie mit den am Bau eines Hauses beteiligten Parteien. Es geht bei beiden nicht nur einfach darum, den Weg durch ein Labyrinth zu einem vorher vereinbarten Punkt zu finden, es geht um die kontinuierliche Klärung und Verfeinerung von Zielen und Mitteln im Angesicht unerwartet auftauchender Hindernisse. Die Sozialität des Vertrags mag zu Konflikten führen, Frustration, Unterdrückung, Zorn, aber sie kann auch Vertrauen schaffen, Zusammenarbeit, Zusammenhalt und Anpassung als Mittel, mit denen Menschen einer nicht vorhersehbaren Zukunft entgegentreten. Sollte eine »Vertragsutopie« tatsächlich existieren, definierte man sie am besten als »Plan«, der wie andere »utopische Organisationsformen« die »völlige Hingabe an kollektive Zwecke« und die »persönliche Unterordnung« des Einzelnen erfordern würde.16 Und eben genau das ist das Wesen des Unvertrags, der die menschlichen, rechtlichen und ökonomischen Risiken von Verträgen zu Plänen macht, die von privaten Unternehmen um garantierter Ergebnisse willen konzipiert, überwacht und gepflegt werden; hier ist mit anderen Worten weniger die Rede von Vertragsutopie als von Unvertragsdystopie. Was wir verlieren, sollten wir uns der Dystopie des Unvertrags unterordnen, zeigt uns die Erfahrung dreier Menschen in Belleville, einer Kleinstadt in Illinois. Pat und Stanford Kippling schuldeten einer Kreditgenossenschaft 350 Dollar auf ihren 1998er Buick. Nicht zum ersten Mal brachten sie ihre monatliche Rate von 95 Dollar nicht auf. Die Bank beauftragte Jim Ford, einen professionellen Kreditvollstrecker – »Repo Man« –, den Wagen zurückzuholen. Als Ford bei den Kipplings eintraf, musste er feststellen, dass die beiden Senioren sich entscheiden mussten zwischen Medikamenten und den Raten für den Wagen. Ford konnte nicht anders: Er ließ sein Honorar für die Wiederinbesitznahme sausen. Die Kipplings bedankten sich überschwänglich, luden ihn zu einer Tasse Tee ein und klagten ihm ihr Leid. Ford beschloss darauf, die Lücke zwischen einer ungewissen Realität und den Bestimmungen ihres Vertrags zu schließen. Er reagierte wie ein

Mensch, rief bei der Bank an und erbot sich, die Schulden des Paars zu bezahlen. Der Filialleiter der Bank bestand darauf, dass Ford sich an das »Prozedere« hielt. Ford bestand auf die alten sozialen Prinzipien des Vertrags; er hatte es sich in den Kopf gesetzt, einen Weg durch das Labyrinth zu finden, der ihm wenigstens das Gefühl von Gerechtigkeit gab. Schließlich erklärte sich der Filialleiter bereit, mit dem Paar »zu arbeiten«, um zu sehen, was sich machen ließ. Womit die Geschichte jedoch nicht zu Ende war. Binnen 24 Stunden brachte man mit einem Spendenaufruf im Internet die nötigen Mittel auf, den Wagen der Kipplings abzubezahlen – das Geld reichte sogar für eine gründliche Autowäsche, einen Truthahn für Thanksgiving und einen Scheck über 1 000 Dollar für das Paar. Noch weit interessanter an der Geschichte ist, dass sie, nachdem ein Lokalblatt darüber berichtet hatte, durch die traditionellen Medien ging, zu schweigen vom Web. Millionen reagierten auf das Drama, weil es Erinnerungen an etwas ebenso Kostbares wie Unabdingbares lostrat, das vom Aussterben bedroht schien. Jim Ford erinnerte uns an eben die Voraussetzungen eines zivilisierten Lebens, die uns am teuersten sind: die gemeinsame Geltendmachung unseres Rechts auf die Zukunft und deren Ausdruck im gemeinsamen Willen zu Dialog, Problemlösung und Empathie. Jim Ford brachte das eloquent auf den Punkt: »Seid einfach nett zu den Leuten. Ist gar nicht so schwer. Dass die Geschichte für so einen Wirbel gesorgt hat, ist irgendwie traurig. So was sollte alltäglich sein, ganz normal.«17 Aber in der Dystopie des Unvertrags ist diese alltägliche Menschlichkeit eben nicht mehr normal. Was, wenn Kipplings Kreditgenossenschaft mit Spireons Fernsteuerung gearbeitet und einfach das Monitoringsystem des Fahrzeugs angewiesen hätte, den Anlasser zu blockieren? Der Filialleiter hätte sich erst gar nicht eingeschaltet, niemand hätte mit den Kunden geredet. Ein Algorithmus, der mit all den vertrackten, unwägbaren und unzuverlässigen Ausbrüchen menschlichen Willens Schluss machen sollte, hätte sich den alten Buick einfach zurückgeholt. Die Kipplings hätten niemanden zum Tee eingeladen, niemand hätte sich ihre Geschichte angehört. Es hätte sich keine Gelegenheit ergeben, einen anderen Weg durch das Labyrinth zu finden, keine Gelegenheit zur Vertrauensbildung,

keine Gelegenheit für kollektives Handeln, keine menschelnde Feiertagsgeschichte, kein Hoffnungsschimmer für eine Zukunft des Menschen, die die besten unserer Institutionen bewahrt, keine gemeinsame Herausforderung durch die Ungewissheit, keine gemeinsame Freiheit. In der Dystopie des Unvertrags ersetzt der überwachungskapitalistische Drang nach Gewissheit die Arbeit an Aufbau und Erhalt sozialen Vertrauens, in dem der Überwachungskapitalist heute nur Sand im Getriebe, eine unnötige Hürde auf dem Marsch hin zu garantierten Ergebnissen sieht. Er feiert das Ausmerzen der Unsicherheit als Sieg über die menschliche Natur, über unsere Schlauheit und unseren Opportunismus. Alles, was noch zählt, sind die Regeln, die Gründe in Handlungen umsetzen, objektiv messbares Verhalten und der Grad der Übereinstimmung zwischen den beiden. Soziales Vertrauen wird irgendwann welk und zu einer Kuriosität verkümmern, vergleichbar einer dritten Brustwarze oder Weisheitszähnen – Spuren evolutionärer Vergangenheit, die keine Aufgaben mehr erfüllen, weil ihr Kontext verschwunden und damit ihr Sinn abhandengekommen ist.18 Der Unvertrag und seine profitorientierten Mechanismen zur Verhaltensmodifikation sehen die Gesellschaft als unwirtliche Wüstenei, in der man von Misstrauen als Naturzustand ausgehen kann. Vor diesem Hintergrund der allmählichen Normalisierung des automatisierten Plans und seiner Planer zeigt gerade die menschliche Reaktion des »Repo Man«, was der Überwachungskapitalismus noch ausmerzen muss. Die ständige Erneuerung der Menschlichkeit durch den Lernprozess unserer Triumphe und Fehlschläge bei Entscheidungen über die Zukunft im Angesicht der Ungewissheit weicht der unfruchtbaren Leere nicht hinterfragter Willfährigkeit. Das Wort Vertrauen mag sich halten, was es aber an menschlicher Erfahrung beschreibt, verschwimmt in Erinnerungen. Unter einer neuen Diktatur der Markthörigkeit wird Vertrauen zur Fußnote eines vage erinnerten Traums. Mit dem Traum stirbt unser Staunen, stirbt unser Protest. Wir stumpfen ab, und unsere Dickfelligkeit ebnet den Weg für weitere Willfährigkeit. Eine pathologische Wissensteilung, wie sie durch beispiellose Asymmetrien von Wissen und Macht entstehen muss, sperrt uns in eine neue Ungleichheit, die durch Tuner und Getunte gekennzeichnet ist, durch Herding und Herden, durch Rohstoffe und die, die sie ausbeuten,

durch Experimentatoren und ihre arglosen Versuchspersonen, durch die, die die Zukunft kraft ihres Willens schaffen, und die Masse, die sich zu anderer Leute Profit in die Arme garantierter Ergebnisse treiben lässt. Stellen wir also um der Orientierung willen fest, wo wir sind. Ungewissheit ist nicht gleich Chaos; sie ist vielmehr das notwendige Biotop der Gegenwart. Wir entscheiden uns für die Fehlbarkeit gegenseitiger Versprechen und gemeinsamer Problemlösung und gegen die Tyrannei der Gewissheit, wie sie uns eine dominante Macht und ihre Pläne aufzuzwingen versuchen. Warum? Weil es der Preis ist, den wir für die Willensfreiheit zahlen, die das Fundament unseres Rechts auf die Zukunft ist. Fehlt diese Freiheit, implodiert die Zukunft zu einer endlosen Gegenwart bloßen Verhaltens, in der es weder Subjekte noch Projekte, sondern nur noch Objekte geben kann. In der Zukunft, auf die uns der Überwachungskapitalismus vorzubereiten versucht, stellt unser Wille – der meine wie der Ihre – eine Bedrohung für den Fluss von Überwachungserträgen dar. Nicht dass er auf unsere Vernichtung abzielen würde, nein, es geht ihm einfach nur darum, unser Autor zu werden und von dieser Autorenschaft zu profitieren. Man hat sich solche Mittel in der Vergangenheit vorgestellt, machbar geworden sind sie jedoch erst jetzt; man hat solche Mittel in der Vergangenheit verworfen, aber erst jetzt hat man ihnen erlaubt, Wurzeln zu fassen. Wir haben uns in diesem Netz verfangen, ohne dass uns das bewusst geworden wäre, sehen uns aber ohne sinnvolle Alternativen als Möglichkeiten zum Ausstieg, zum Widerstand oder auch nur zu so etwas wie Schutz. Das Versprechen des Versprechens und der Wille zum Wollen sind tiefer verwurzelt als diese Missbildungen. Sie gemahnen uns an den Ort, an dem wir Menschen den Bruch zwischen dem Bekannten und dem Unbekannten heilen, wenn wir unter den Segeln unserer gegenseitigen Versprechen die Meere der Ungewissheit befahren. In der realen Welt menschlichen Strebens gibt es die vollkommene Information ebenso wenig wie die vollkommene Rationalität. Das Leben bringt es so mit sich, dass wir auch dann handeln und Verpflichtungen eingehen, wenn uns die Zukunft nicht bekannt ist. Da brauchen Sie nur jemanden zu fragen, der je ein Kind in die Welt gesetzt oder je sein Herz aus Liebe vergeben hat. Götter kennen die Zukunft, aber wir Menschen setzen einfach einen Fuß vor den anderen und gehen Risiken und Bindungen ein, auch wenn wir

nicht alles über die Gegenwart wissen können, geschweige denn über die Zukunft. Aber eben das ist das Wesen unserer Freiheit, wie es sich im Naturrecht auf die Zukunft ausdrückt. Mit der Entwicklung und Inbesitznahme der neuen Verhaltensmodifikationsmittel richtet sich auch dieses Recht an eben dem Muster aus, das wir bereits kennengelernt haben. Es wird dadurch nicht ausgelöscht, aber mit Beschlag belegt, vom exklusiven Anspruch des Überwachungskapitals auf unsere Zukunft requiriert.

Wie kamen sie damit durch? Im Verlauf der letzten zehn Kapitel habe ich zu belegen versucht, dass der Überwachungskapitalismus für eine beispiellose Logik der Akkumulation steht, die sich durch neue ökonomische Imperative definiert. Deren Mechanismen und Auswirkungen sind mit bestehenden Modellen und Annahmen nicht zu begreifen. Das heißt nicht etwa, dass die alten Imperative – Profitmaximierung mit der damit einhergehenden Intensivierung von Produktionsmitteln, Wachstum und Wettbewerb – verschwunden sind; sie müssen nur durch die neuen Ziele und Mechanismen des Überwachungskapitalismus wirken. Ich gehe diese neuen Imperative hier knapp durch, sowohl um uns den bisher zurückgelegten Weg nochmals vor Augen zu führen wie auch im Vorgriff auf die Frage Wie kamen sie damit durch?. Die Geschichte des Überwachungskapitalismus beginnt mit der Entdeckung des mehr oder weniger vorgefertigten Verhaltensüberschusses im Online-Milieu. Man stellte fest, dass man die »Datenabgase«, die Googles Server verstopften, mit leistungsfähigen analytischen Fähigkeiten kombinieren konnte, um Vorhersagen auf Nutzerverhalten zu produzieren. Diese Vorhersageprodukte wurden zur Basis nachgerade unnatürlich lukrativer Verkaufsprozesse, die neue Märkte für künftiges Verhalten ins Leben riefen. Googles »Maschinenintelligenz« verbesserte sich mit der Zunahme des Datenvolumens, was zu besseren Vorhersageprodukten führte. Diese Dynamik gebar den Extraktionsimperativ, aus dem die Notwendigkeit von

Größen- bzw. Massenvorteilen bei der Akkumulation von Verhaltensüberschuss spricht. Abhängig ist dieser Extraktionsimperativ von automatisierten Systemen, die Verhaltensüberschuss gnadenlos tracken, ihn jagen, um noch mehr Verhaltensüberschuss zu produzieren. Google hat uns diese Logik der Eroberung aufgezwungen. Für Google lag die menschliche Erfahrung auf der Straße. Dort konnte jedermann sie aufklauben, in Daten umrechnen und – als Überwachungsaktiva deklariert – für sich beanspruchen. Rasch erlernte das Unternehmen eine Reihe von rhetorischen, politischen und technologischen Strategien zur Verschleierung dieser Prozesse und ihrer Implikationen. Die Notwendigkeit schierer Masse wurde zum Motor einer unerbittlichen Jagd nach großvolumigem Verhaltensüberschuss. Das wiederum führte zu einer Wettbewerbsdynamik, die darauf abzielte, diesen Nachschub an Rohstoffen mit Beschlag zu belegen, zu monopolisieren und nach ungeschützten rechtsfreien Räumen zu suchen, in denen sich diese unerwartete und noch kaum verstandene Enteignung bewerkstelligen ließ. Unterdessen arbeiteten die Überwachungskapitalisten im Verborgenen daran, uns an ihre Ansprüche zu gewöhnen. Sie bedienten sich dabei unseres Informationsbedarfs ebenso wie unseres Verlangens nach sozialer Teilhabe, was sie unsere Bedürfnisse mit ihren Interessen verschmelzen ließ. Da lukrative Vorhersageprodukte von Verhaltensüberschuss abhängig sind, zwang der Wettbewerb die Versorgungsoperationen zwangsläufig auf ein ganz neues Niveau, das seinen Niederschlag im Vorhersageimperativ fand. Leistungsfähigere Vorhersageprodukte bedurften jedoch nicht nur der Größen-, sondern auch der Diversifikationsvorteile. Anders gesagt, sie brauchten nicht nur Masse, sondern auch Diversität. Diese Diversität umfasst zwei Dimensionen, deren erste die Ausweitung auf ein möglichst breites Spektrum von Aktivitäten ist; bei der zweiten handelt es sich um die Tiefe der Vorhersagedetails zu jeder einzelnen Aktivität. In dieser neuen Phase der Wettbewerbsintensität sehen sich die Wettbewerbskapitalisten gezwungen, von der virtuellen in die wirkliche Welt umzuziehen. Diese Migration erfordert neue Maschinenprozesse für die Rendition aller Aspekte menschlicher Erfahrung zur Umrechnung in Verhaltensdaten. Da man von Vorhersageprodukten zunehmend die Annäherung an Gewissheit in Form garantierter Verhaltensergebnisse

erwartet, spielt Wettbewerb sich heute im Kontext einer sich rasant entwickelnden globalen Architektur allgegenwärtigen Computings und damit allgegenwärtiger Nachschubmöglichkeiten ab. In einer dritten Phase der Wettbewerbsintensität entdeckten die Überwachungskapitalisten die Notwendigkeit von Aktions- bzw. Handlungsvorteilen, die auf neuen Methoden basieren. Diese gehen über Tracking, Erfassung, Analyse und Verhaltensvorhersage weit hinaus. Jetzt geht es um Intervention, um das Eingreifen in den Stand der Dinge und die aktive Ausformung von Verhalten an der Quelle. Resultat dieser Entwicklung ist, dass die Produktionsmittel damit ausgefeilten neuen Mitteln zur Verhaltensmodifikation untergeordnet sind. Diese bauen auf eine Reihe von Maschinenprozessen, Techniken und Taktiken (Tuning, Herding und Konditionierung) zur Ausformung des Verhaltens von Individuen, Gruppen und Populationen, deren Ziel die kontinuierliche Verbesserung ihrer Vorhersageprodukte in Richtung garantierter Ergebnisse ist. So wie der Motor des Industriekapitalismus die kontinuierliche Intensivierung der Produktionsmittel war, so ist im Überwachungskapitalismus mit der kontinuierlichen Intensivierung von Mitteln zur Verhaltensmodifikation ein ganz neuer Zyklus am Werk. Die Interessen der Überwachungskapitalisten haben sich verlagert, von automatisierten Maschinenprozessen, die alles über unser Verhalten wissen wollen, hin zu Maschinenprozessen, die unser Verhalten in ihrem Interesse gestalten sollen. Anders gesagt, diese Entwicklung führte die letzten anderthalb Jahrzehnte von der Automatisierung des Informationsflusses über uns zur Automatisierung unserer selbst. Angesichts der zunehmenden Ubiquität ist es schwierig, wenn nicht unmöglich geworden, sich aus diesem so dreist geknüpften wie unerbittlichen Netz zu befreien. Um unserer Orientierung willen fordere ich die Wiederentdeckung unseres Staunens und der Empörung; vor allem aber fordere ich die Absage an den auf die Google-Deklarationen gebauten faustischen Pakt, der unsere Unterwerfung unter die Mittel zur Modifizierung unseres Verhaltens verlangt. Ich vergesse bei der Beantwortung der Frage, wie sie damit durchkamen, jedoch nicht, dass dabei zahlreiche überzeugende Gründe zu bedenken sind; von einem monokausalen Schluss von einer Ursache auf eine Wirkung sind wir weit entfernt. Zur Beantwortung unserer Frage bedarf es vielmehr eines Blicks auf ein breites Spektrum von historischen

Umständen, Zufälligkeiten, Triften – und deren Sogwirkung. Schließlich verdient der schlichte Zwang Beachtung. Noch irritierender wird unsere Frage in Anbetracht des Umstands, dass die überwiegende Mehrheit einschlägiger Erhebungen zur öffentlichen Meinung zum Verlust der Privatsphäre und anderen Elementen überwachungskapitalistischer Praktiken zu dem Ergebnis kommt, dass kaum einer von uns zufrieden ist mit dem Status quo. In 46 von 48 der relevantesten Umfragen zwischen 2008 und 2017 sprechen sich erhebliche Mehrheiten für einen größeren Schutz der Privatsphäre und mehr Kontrolle über persönliche Daten aus. (Nur zwei frühere Umfragen waren weniger schlüssig, da viele Teilnehmer darauf hinwiesen, sie verstünden nicht, wie oder welche persönlichen Informationen gesammelt würden.) Spätestens 2008 war klar, dass mit Zunahme des Wissens über »Datenschutzpraktiken im Internet« auch die Sorge um die Privatsphäre steigt.19 Auch wenn die Umfragen von Fokus und Fragestellung her sehr unterschiedlich angelegt sind, ist doch ganz allgemein die Beständigkeit der Antworten im Lauf der Jahre bemerkenswert. So stellte zum Beispiel 2009 eine wichtige Umfrage fest, dass 73 % bis 86 % der Amerikaner zielgerichtete Online-Werbung ablehnen, wenn sie darüber informiert sind, wie Unternehmen Daten für diese Art von Werbung erfassen. Eine andere ernstzunehmende Umfrage fand 2015 heraus, dass 91 % der Befragten der Ansicht waren, das Erfassen persönlicher Daten »ohne mein Wissen« stelle keinen fairen Tausch für einen Preisnachlass dar. 55 % widersprachen der Ansicht, es handle sich um einen fairen Austausch für verbesserte Dienste. Einem Bericht von Pew Research von 2016 zufolge hatten nur 9 % der Befragten überhaupt keine Probleme damit, Social-Media-Sites ihre Daten anzuvertrauen; was Unternehmen anbelangte, stieg diese Zahl auf 14 %. Über 60 % wollten mehr für den Schutz ihrer Privatsphäre unternehmen und fanden, dieser gehörte in höherem Maße reguliert.20 Überwachungskapitalistische Unternehmen neigen dazu, derlei Umfrageergebnisse mit dem Hinweis auf das spektakuläre Ansteigen sowohl der Nutzerzahlen als auch der Erträge abzutun. Die Diskrepanz verwirrt sowohl die Forschung als auch die politischen Entscheidungsträger. Wo so viele die Praktiken des Überwachungskapitalismus verwerfen, drängt sich doch – selbst wenn wir davon ausgehen können, dass die meisten von

uns herzlich wenig über diese Praktiken wissen – die Frage auf, wie diese Marktform einen derartigen Erfolg haben konnte. Nun, es gibt eine ganze Reihe von Gründen dafür:

1. Beispiellosigkeit Die wenigsten von uns haben sich gegen die ersten Übergriffe von Google, Facebook und den anderen überwachungskapitalistischen Operationen gewehrt – schon deshalb, weil wir unmöglich erkennen konnten, wie sie sich von allem unterschieden, was uns bis dahin bekannt war. Die grundlegenden Mechanismen und Geschäftspraktiken waren so neu und fremd, so vollkommen sui generis, dass wir nichts weiter als einen Pulk »innovativer« pferdeloser Wagen sahen. Wichtiger noch, unsere Wachsamkeit konzentrierte sich besorgt auf die bekannten Gefahren der Überwachung und Kontrolle seitens des Staats. Frühere verhaltensverändernde Übergriffe im großen Stil waren stets Auswüchse staatlicher Macht; auf eine Attacke von Seiten privater Unternehmen waren wir schlicht nicht gefasst.

2. Die Deklaration als Invasion Der Mangel an Präzedenzfällen führte dazu, dass wir der Offensive so betört wie wehrlos gegenüberstanden. Google gewann so Zeit, die Kunst der Invasion durch Deklaration zu perfektionieren. Das Unternehmen nahm sich, was es wollte, und erklärte es zu seinem Eigentum. Und es machte seine Rechte geltend: auf die Umgehung unseres Bewusstseins; darauf, unsere Erfahrung als Daten zu erfassen, diese zu seinem Eigentum zu erklären und entsprechend nutzen zu können; darauf, Strategien und Taktiken zur Wahrung unserer Unwissenheit zu entwickeln; und schließlich darauf, auf den rechtsfreien Raum zu bestehen, der für seine Operationen nötig ist. Diese Deklarationen haben den Überwachungskapitalismus als Marktform institutionalisiert.

3. Der historische Kontext Eine schützende Nische fand der Überwachungskapitalismus im neoliberalen Zeitgeist, der jedwede staatliche Regulierung der Wirtschaft mit Tyrannei gleichsetzt. Dieser »paranoide Stil« bevorzugt eine Selbstregulierung, bei der sich die Unternehmen praktisch keinerlei Grenzen auferlegt sehen. In einer parallelen Entwicklung wandte sich im Zuge des »Kriegs gegen den Terror« das Interesse des Staats ab von der Regulierung des Datenschutzes hin zur beschleunigten Entwicklung der von Google und anderen Überwachungskapitalisten ersonnenen Fähigkeiten und Technologien. Diese Wahlverwandtschaften sorgten für einen Trend hin zum überwachungstechnischen Ausnahmezustand, der der neuen Marktform weiteren Schutz vor der Überprüfung bot und entsprechend zu seiner Entwicklung beitrug.

4. Die Bollwerke Google sorgte aggressiv für den Schutz seiner Operationen, indem das Unternehmen seine Nützlichkeit im Wahlprozess etablierte; darüber hinaus sorgte man für starke Beziehungen mit gewählten wie ernannten Vertretern des Staats; ein Drehtüreffekt sorgte für einen regen Personalwechsel zwischen Washington und dem Silicon Valley; dazu kamen massive Lobbying-Ausgaben und eine unerbittliche »Soft-Power«-Kampagne kultureller Einflussnahme und Eroberung.

5. Der Enteignungszyklus Die überwachungskapitalistische Führungsriege meisterte – erst bei Google, dann bei Facebook – die Rhythmen und Phasen der Enteignung. Man verlegt sich auf dreiste Übergriffe, bis es zum Widerstand kommt, worauf eine Reihe von Taktiken folgt, von aufwändigen PR-Kampagnen bis hin zu rechtlichen Schritten, die alle nur auf die Gewinnung von Zeit für die allmähliche Gewöhnung an vor Kurzem noch himmelschreiende Fakten abzielen. In einer dritten Phase kommt es dann zu öffentlichkeitswirksamen

Vorführungen seiner Anpassungsfähigkeit, ja sogar zum Rückzug, während man in einer letzten Phase seine Ressourcen umdirigiert, um dieselben Ziele unter dem Deckmantel einer neuen Rhetorik und neuer Taktiken weiterzuverfolgen.

6. Abhängigkeit Die kostenlosen Dienste von Google, Facebook und anderen haben ihren Reiz für die Individuen der Zweiten Moderne und deren latente Bedürfnisse auf der Suche nach Ressourcen für ein effektives Leben in einer zunehmend feindlichen Umwelt. Hat man erst einmal hineingebissen, erweist sich der Apfel als unwiderstehlich. Mit der Ausbreitung des Überwachungskapitalismus im Internet werden die Mittel sozialer Teilhabe deckungsgleich mit den Mitteln zur Modifikation des Verhaltens. Die Ausbeutung der Bedürfnisse der Zweiten Moderne, die den Überwachungskapitalismus vom ersten Augenblick an ermöglichten, durchdrang nach und nach fast jede Möglichkeit sozialer Teilhabe im Web. Den meisten von uns fällt der Rückzug aus diesen Einrichtungen schwer; so mancher bezweifelt, dass das überhaupt möglich ist.

7. Eigeninteresse Neue Märkte für künftiges Verhalten führen zu Netzwerken von Mitläufern, Partnern, Kollaborateuren und Kunden, deren Erträge vom Vorhersageimperativ abhängig sind. Im Nu ist so eine Vielzahl institutioneller Fakten geschaffen. Der Pizzabäcker auf der Pokémon-GoKarte, der Einzelhändler, der seinen Laden mit Funkchips spickt, und die Versicherungsunternehmen, die im Wettlauf um garantierte Ergebnisse und Überwachungserträge um Verhaltensdaten wetteifern.

8. Inklusion

So mancher hat das Gefühl, nicht zu existieren, wenn er nicht auf Facebook ist. Menschen auf der ganzen Welt stürzten sich auf Pokémon Go. Angesichts von so viel Energie, Erfolg und Kapital kann man sich durchaus einsam, ja verlassen fühlen, bleibt man der überwachungskapitalistischen Sphäre fern.

9. Identifikation Überwachungskapitalisten präsentieren sich aggressiv als heroische Unternehmer. So mancher identifiziert sich bewundernd mit dem finanziellen Erfolg und der Beliebtheit von Überwachungskapitalisten, sodass sie für viele zu Vorbildern geworden sind.

10. Autorität So einige sehen in diesen Unternehmen und ihren Führungsriegen Autoritäten in Sachen Zukunft: Genies mit mehr Weitblick als unsereins. Es ist ein Leichtes, dem deterministischen Trugschluss aufzusitzen, ihr Erfolg gebe diesen Unternehmen zwangsläufig recht. So mancher von uns hat entsprechend Respekt vor diesen Experten und ist nur allzu bereit, an ihren wegweisenden Innovationen zu partizipieren.

11. Soziale Überredung Wie wir wiederholt gesehen haben, arbeitet man mit einer endlosen Flut betörender Rhetorik, die darauf abzielt, uns die Wunder überwachungskapitalistischer Innovationen aufzuschwatzen: zielgerichtete Werbung, Personalisierung und digitale Assistenten. Darüber hinaus sollen uns Aktions- bzw. Handlungsvorteile ganz bewusst dazu bringen, wie Schafe vorgeschriebene Wege zu gehen.

12. Alternativlosigkeit

Die »Diktatur der Alternativlosigkeit« steht in voller Blüte. Wie wir gesehen haben, wird der Verhaltenswert-Reinvestitionszyklus zunehmend selten. Das Aware Home ist dem Google Home gewichen. Der Überwachungskapitalismus hat sich über das Internet verbreitet, und der Run auf Diversifikationsvorteile zwang ihn hinaus in die wirkliche Welt. Von Apps über Geräte und Apparate bis hin zu der One Voice wird es immer schwieriger, Fluchtrouten auszumachen, geschweige denn echte Alternativen.

13. Inevitabilismus Das trojanische Pferd einer rechnergestützten Welt – Geräte, Apps, Konnektivität – hat seinen ersten Auftritt in einer unerbittlichen Flut inevitabilistischer Rhetorik, die uns erfolgreich ablenkt vom höchst intentionellen und historisch kontingenten Überwachungskapitalismus in seinem Bauch. Unzählige neue institutionelle Fakten stabilisieren die neuen Praktiken. Resigniert verfallen wir einem Gefühl von Hilflosigkeit.

14. Menschliche Schwäche als Ideologie Über den Inevitabilismus hinaus hat der Überwachungskapitalismus begierig die Ideologie der menschlichen Schwäche der Verhaltensökonomen aufgegriffen und zur Waffe gemacht; dieser Ideologie zufolge ist das menschliche Denken völlig irrational und völlig außerstande zu merken, dass es regelmäßig versagt. Überwachungskapitalisten wenden diese Ideologie zur Legitimierung ihrer Verhaltensmodifikationsmittel an: Tuning, Herding und die Konditionierung sowohl Einzelner als auch ganzer Populationen – und das immer so, dass diese Konditionierung sich deren Bewusstsein entzieht.

15. Unwissenheit

Sie ist und bleibt eine herausragende Erklärung. Überwachungskapitalisten dominieren eine abnorme Wissensteilung, die sie Dinge wissen lässt, die wir nicht wissen können; ihre Absichten und Praktiken müssen dabei im Hintergrund bleiben. Es ist unmöglich, etwas zu verstehen, das im Geheimen entwickelt wurde und so konzipiert ist, dass es nicht lesbar sein soll. Diese Systeme sollen uns einfangen, sie beuten Schwachstellen aus, die durch eine asymmetrische Wissensteilung geschaffen wurden. Unsere Knappheit an Zeit, Ressourcen und Rückhalt arbeiten ihnen noch in die Hand. Sie gehen davon aus, dass unsere Bedürfnisse so stark sind, dass wir den Nachteilen gegenüber blind sind. Damit liegen sie meistens richtig.

16. Geschwindigkeit Der Überwachungskapitalismus hat es von seiner Erfindung in Rekordzeit zur Vorherrschaft gebracht. Dies reflektiert seine Attraktivität für das Kapital und seine Bewegungsgesetze, aber es reflektiert auch eine spezifische Strategie, die mit Tempo arbeitet, um einerseits den Bewusstwerdungsprozess zu lähmen und andererseits unseren Widerstand, während man uns mit unmittelbarer Befriedigung abzulenken versucht. Mit seinem Tempo ist der Überwachungskapitalismus nicht nur der Demokratie um Längen voraus; auch wir haben so keine Möglichkeit zu begreifen, was da vor sich geht, geschweige denn über die Folgen nachzudenken. Die Strategie hat durchaus Tradition in der Politik wie beim Militär, wo Tempo unter dem Namen »Shock and Awe« erfolgreich als Form der Gewalt eingesetzt wird. Wie diese sechzehn Antworten belegen, hat die bestehende Gesetzgebung, die sich größtenteils auf Privatsphäre und kartellrechtliche Bedenken konzentriert, das Wachstum des Überwachungskapitalismus nicht zu bremsen vermocht. Wir brauchen Gesetze, die die Legitimität der überwachungskapitalistischen Deklarationen ebenso von Grund auf verwerfen wie seine Operationen: die unrechtliche Rendition menschlicher Erfahrung als Verhaltensdaten; die Nutzung von Verhaltensüberschuss als kostenlosen Rohstoff; die extreme Konzentration neuer Produktionsmittel; die Fabrikation von Vorhersageprodukten; der Handel mit Verhaltensterminkontrakten; die Nutzung von Vorhersageprodukten durch

Operationen Dritter für Modifikation, Einflussnahme und Kontrolle; die private Akkumulation von Wissen (der Schattentext) und die Macht, die sich aus einer solchen Konzentration ergibt. Das Nein zu diesen Institutionen des Überwachungskapitals und den Deklarationen, auf die sie bauen, würde die Zurücknahme einer gesellschaftlichen Zustimmung zu den überwachungskapitalistischen Zielen und Methoden bedeuten und entspräche damit der Zurücknahme der Zustimmung zu den antisozialen und antidemokratischen Praktiken eines ungezügelten Industriekapitalismus. Sie hatte damals für eine Machtbalance zwischen Arbeitgebern und Arbeitnehmern gesorgt, hatte mit der Kinderarbeit Schluss gemacht, mit gefährlichen Arbeitsplätzen, exzessiven Stunden usw. usf. Die Zurücknahme einer Vereinbarung nimmt im Großen und Ganzen zwei Formen an, eine Unterscheidung, die in Teil III noch recht nützlich wird. Die erste Spielart ist die Gegendeklaration, wie ich es nennen will. Hierunter fallen defensive Maßnahmen wie Verschlüsselung und andere Tools zum Schutz der Privatsphäre, aber auch das Bestehen auf »Dateneigentum« bzw. ein Eigentumsrecht auf Daten. Solche Maßnahmen können in gewissen Einzelfällen durchaus effektiv sein, ändern aber nichts an den Fakten, die ihnen entgegenstehen; sie erkennen ihr Fortbestehen an und tragen damit paradoxerweise zu ihrer Legitimität bei. Nehmen wir an, ich entscheide mich im Falle eines Tracking für das »Opt-out«, dann gilt das für mich, aber meine Entscheidung ist keine Kampfansage, sie ändert nichts an der anstößigen Praxis an sich. Die zweite Form von Widerspruch bezeichne ich als synthetische Deklaration. Lautet die Deklaration »Schach!«, dann ist die Gegendeklaration »Schachmatt!«. Mit der synthetischen Deklaration verändere ich das Spiel. Sie macht ein alternatives Rahmenwerk geltend, das die Fakten transformiert, denen wir gegenüberstehen. Mit Gegendeklarationen spielen wir nur auf Zeit. Wir machen uns das Leben erträglicher, doch nur eine synthetische alternative Vision wird den ungezügelten Überwachungskapitalismus zugunsten einer digitalen Zukunft ändern, die sich als Heimat bezeichnen lässt. Ich will hier die Geschichte der Berliner Mauer als aussagekräftige Illustration dieser beiden Formen von Meinungsverschiedenheit heranziehen. Vom August 1961 bis in die frühen 1980er-Jahre gruben mutige Ostberliner 71 Tunnel in den sandigen Boden der Stadt und gaben

so mehreren Hundert Leuten die Möglichkeit, in den Westen zu fliehen.21 Die Tunnel sind ein Zeugnis für die Notwendigkeit von Gegendeklarationen, aber sie brachten weder die Mauer zu Fall noch gar die Macht, die sie errichtet hatte und hinter ihr stand. Die synthetische Deklaration gewann im Lauf der Jahrzehnte an Schlagkraft, musste aber bis zum vollen Ausdruck bis zur Nacht vom 9. auf den 10. November 1989 warten, als Harald Jäger, stellvertretender Leiter der GüSt Bornholmer Straße, den Befehl zur Öffnung der Grenze gab und 20 000 Menschen nach Westberlin strömten. »In der Nacht vom 9. November schließlich«, schilderte eine Historikerin das Ereignis, »als die Leute an der Berliner Mauer eintrafen und von den Grenzbeamten wissen wollten: Lasst ihr uns durch?, waren diese Menschen ihrer selbst bereits so sicher und die Grenzbeamten so unsicher geworden, dass man sie durchließ.«22

Die Prophezeiung Vor fast siebzig Jahren kam der Wirtschaftshistoriker Karl Polanyi zu dem Schluss, dass die Marktdynamiken eines ungezügelten Industriekapitalismus genau das zerstören würden, was er zu kaufen und zu verkaufen versuchte: Die »Warenfiktion«, wie er die Kommodifizierung von Arbeit, Boden und Geld nannte, ignoriere »die Tatsache, daß die Auslieferung des Schicksals der Erde und der Menschen an den Markt mit deren Vernichtung gleichbedeutend wäre«.23 Mangels einer synthetischen Deklaration scheint Polanyis Prophezeiung sich heute zu erfüllen, und allein das sollte schon uns zu denken geben. Was also verheißt Polanyis Prophezeiung für unsere Zeit? Seiner eigenen Logik von »Shock and Awe« folgend, nahm der Industriekapitalismus die Natur aufs Korn in dem Versuch, sie im Interesse des Kapitals zu erobern; heute hat der Überwachungskapitalismus die menschliche Natur im Visier. Erst allmählich lernten wir die spezifischen Herrschaftsmethoden zu verstehen, mit denen der Industriekapitalismus seit über zweihundert Jahren die Bedingungen aus dem Gleichgewicht bringt, die ein Leben auf der Erde überhaupt erst ermöglichen. Dabei untergräbt er

nichts Geringeres als die Grundprinzipien der Zivilisation. Bei all seinen Vorzügen und immensen Errungenschaften hat der Industriekapitalismus uns hart an den Rand des Schicksals der Bewohner der Osterinsel gebracht, die ihren lebenspendenden Boden ruinierten und dann Statuen errichteten, die den Horizont nach dem Beistand absuchten, der niemals kam. Wenn der Industriekapitalismus derart verheerend auf die Natur wirkte, welche Verheerungen wird der Überwachungskapitalismus an der menschlichen Natur anrichten? Zur Beantwortung dieser Frage müssen wir auf die Imperative zurückkommen. Der Industriekapitalismus hat uns an den Rand eines monumentalen Abgrunds gebracht, aber nicht etwa aus einer bösen Lust an der Zerstörung oder weil die Technik aus dem Ruder gelaufen wäre. Motor dieser Entwicklung war vielmehr die innere Akkumulationslogik des Industriekapitalismus mit ihren Imperativen der Profitmaximierung, ihres gnadenlosen Runs auf die Arbeitsproduktivität mittels zunehmender Technisierung sowie eines durch ständige Rückinvestition von Überschüssen getriebenen Wachstums.24 Was hier zählt, ist Webers »ökonomische Orientierung« und wie diese Orientierung mit der spezifischen Spielart von Kapitalismus verschmilzt, die in jeder Ära die Dominanz erlangt. Die Logik des Industriekapitalismus befreite das Unternehmen von der Verantwortung für seine destruktiven Folgen: die Destabilisierung des Klimasystems und das Chaos, das sich daraus für jede Art von Kreatur ergibt. Polanyi verstand, dass ein ungezügelter Kapitalismus sich nicht von innen heraus zügeln lässt. Seiner Ansicht nach war es Sache der Gesellschaft, den Kapitalismus durch Maßnahmen an die Kandare zu nehmen, die das kapitalistische an das soziale Projekt banden, nur so sorge man für die Nachhaltigkeit von Leben und Natur. Ähnlich lässt sich die Bedeutung von Polanyis Prophezeiung für uns heute nur durch die Linse der ökonomischen Imperative des Überwachungskapitalismus begreifen, die gerade dabei sind, ihren Anspruch auf das Wesen des Menschen zu formulieren. Wenn wir unsere Fähigkeit zu staunen wiederentdecken wollen, dann fangen wir hiermit an: Wenn die Industriezivilisation auf Kosten der Natur florierte und uns jetzt die Erde zu kosten droht, dann wird eine durch den

Überwachungskapitalismus ausgeformte Informationszivilisation auf Kosten der menschlichen Natur florieren – sie droht uns unsere Menschlichkeit zu kosten. Angesichts von Polanyis Prophezeiung drängt sich die Frage auf, ob dieses Schicksal noch mit synthetischen Deklarationen abzuwenden ist. Die ersten beiden Teile des Buches waren dem Verständnis der Ursprünge des Überwachungskapitalismus gewidmet; es ging darum, seine grundlegenden Mechanismen und ökonomischen Imperative zu identifizieren, zu benennen und unter die Lupe zu nehmen. Der Grundgedanke dahinter war von Anfang an, dass sich diese Spezies nur nach erfolgter Benennung würde in den Griff bringen lassen, dass wir nur mit einer eigenen unverbrauchten Terminologie diese Enteignungsmechanismen aufhalten, ihre Wirkung umkehren, für die dringend nötige Auseinandersetzung sorgen könnten. Nur durch diesen Sand im Getriebe lässt sich der pathologischen Wissensteilung der Kampf ansagen, nur so lassen sich letztlich neue Formen des Informationskapitalismus synthetisieren, die den Anforderungen eines effektiven Lebens tatsächlich genügen. Wir sollten für soziale Teilhabe und individuelle Effektivität auf keinen Fall unser Recht auf das Futur opfern müssen, kompromittierte das doch unseren Willen zum Wollen, unsere Autonomie, unsere Entscheidungsrechte, unsere Privatsphäre und nicht zuletzt unser Menschsein selbst. Es wäre jedoch falsch, davon auszugehen, dass der Überwachungskapitalismus allein durch das Prisma seines ökonomischen Handelns zu verstehen wäre – oder dass es bei der Begegnung seiner Herausforderungen mit der Identifizierung, Eindämmung und Transformation seiner Grundmechanismen getan wäre. Die Folgen dieser neuen Akkumulationslogik haben bereits durchzusickern begonnen und dringen über die Grenzen ihrer kommerziellen Praktiken hinaus ein ins Gewebe unserer sozialen Bindungen, wo sie unsere Beziehungen zu anderen ebenso verändern wie die zu uns selbst. Diese Veränderungen bilden die Krume, in der der Überwachungskapitalismus gedeiht: eine invasive Spezies, die sich seine Nahrungskette selbst zu schaffen vermag. Indem sie uns verändert, produziert sie den für ihren Vormarsch nötigen Proviant.

Wir tun uns womöglich leichter, wenn wir diese Dynamiken aus der Perspektive der Vergangenheit sehen. Der Unterschied zwischen Industriekapitalismus und Industriezivilisation ist der Unterschied zwischen der ökonomischen Operation und den Gesellschaften, die sie hervorbringt. Die Spielart des Industriekapitalismus, die Ende des 19., Anfang des 20. Jahrhunderts Dominanz erlangte, sorgte für ein spezifisches moralisches Milieu, das wir nicht in Worte zu fassen brauchen, um es – ganz intuitiv – zu spüren. Kennzeichnend für den Industriekapitalismus war die Arbeitsteilung mit all ihren historisch spezifischen Merkmalen: die Abwendung von der handwerklichen Fertigung hin zur Massenproduktion auf der Basis von Standardisierung, Normierung, Rationalisierung und der Austauschbarkeit von Teilen; Fließband; Großproduktion; riesige Populationen von Fabrikarbeitern; Verwaltungshierarchien; Manager; Spezialisierung; die Trennung zwischen Arbeitern und Angestellten. Die Liste ist nicht erschöpfend, sie soll nur der Illustration dienen. Sie genügt aber zur Erinnerung daran, dass aus diesen für die industrielle Expansion so beherrschenden Ausdrucksformen ökonomischer Imperative die industrielle Zivilisation hervorging. Die Arbeitsteilung wirkte formend auf Kultur, Psyche und soziale Erfahrung. Der Wechsel vom Handwerk auf Stundenlöhne schuf neue Populationen von Arbeitnehmern und Verbrauchern – Männer und Frauen, die ganz und gar abhängig waren von Produktionsmitteln in privater Hand. Es war dies der Schmelztiegel, in dem sich, stets vor dem Hintergrund bedrückender Vorstellungen wie Konformität, Gehorsam und Normierung, die Massengesellschaft herausbildete, ihre hierarchischen Strukturen, ihre zentralisierten bürokratischen Formen öffentlicher und privater Macht. Definiert wurde dieses Leben, bis hinein in jeden Aspekt familiären und häuslichen Lebens, von Institutionen, die diese industrielle Organisation widerspiegeln und abbilden. In einer Zeit, in der der Überwachungskapitalismus sich als die dominante Spielart des Informationskapitalismus herausgebildet hat, müssen wir uns eine Frage stellen: Welche Art von Zivilisation lässt er ahnen? Nun, der folgende dritte Teil versteht sich als erster Beitrag zu dieser dringend benötigten Diskussion. Wie ich bereits gesagt habe, kann uns niemand auf »garantierte Ergebnisse« festlegen, es sei denn, er hat die

Macht dazu. Aber welcher Art ist diese neue Macht? Wie wird sie unsere Gesellschaft verändern? Welche Möglichkeiten für eine Dritte Moderne bietet sie an? Welche neuartigen Formen von Kampf wird sie uns bringen, diese neue Zeit, und was werden sie für eine digitale Zukunft bedeuten, in der wir uns zu Hause fühlen können? Das sind die Fragen, die uns in den dritten Teil führen.

TEIL III: INSTRUMENTÄRE MACHT FÜR EINE DRITTE MODERNE

Kapitel 12 Zwei Arten von Macht Ein Zeitalter endete so, und sein letzter Befreier starb träg und traurig im Bett; jetzt waren sie sicher: der Schatten der riesigen Wade eines Giganten fiel nicht mehr im Zwielicht auf ihre Gärten. – W. H. Auden, Sonette aus China, X

Die Rückkehr zum Beispiellosen Unter dem Überwachungskapitalismus werden die »Produktionsmittel« zur Funktion der »Verhaltensmodifikationsmittel«; Maschinenprozesse ersetzen menschliche Beziehungen, um Vertrauen durch Gewissheit ersetzen zu können. Diese neue Konstellation fußt auf einem gewaltigen digitalen Apparat, historisch beispiellosen Konzentrationen von Rechenleistung und immensem Reichtum. Der Bogen der Verhaltensveränderung im großen Stil integriert all die Operationen, die wir uns bereits angesehen haben: ubiquitäre Extraktion und Rendition, Aktuation (Tuning, Herding, Konditionierung und Zwang), Versorgungsketten für Verhaltensüberschuss, Fabrikation von Vorhersageprodukten (Verhaltensderivate), dynamische Verhaltensterminkontraktmärkte und »Zielausrichtung«, was zu neuen Runden von Tuning, Herding, Konditionierung und den Zwängen des Unvertrags führt – womit der Zyklus in die nächste Runde geht. Es handelt sich bei dieser Konstellation um ein Marktprojekt, dessen Ziel darin besteht, Vorhersagen zu produzieren, die umso wertvoller werden, je näher sie der Gewissheit kommen. Die besten Vorhersagen entstehen auf der Basis totaler Information, und kraft dieser Entwicklung hin zur Totalität

haben die Überwachungskapitalisten sich der Wissensteilung in der Gesellschaft bemächtigt. Von ihrem Feldherrenhügel der sozialen Ordnung aus gebieten sie über das Wissen, schützen und hegen von dort – als Urtext der Gewissheit – den Schattentext. Dergestalt ist das Marktnetz, in dessen Maschen wir uns gefangen sehen. In den ersten beiden Teilen haben wir uns die Bedingungen, Mechanismen und Operationen angesehen, aus denen sich dieses private Reich des Wissens und seine lukrativen Vorhersageprodukte zusammensetzen, die sich in Richtung Gewissheit entwickeln, um der Kundschaft die gewünschten Ergebnisse zu garantieren. Wie in Kapitel 6 ausgeführt, kann es keine garantierten Ergebnisse geben ohne die Macht, sie zu schaffen. Und das eben ist das finstere Herz des Überwachungskapitalismus, dieser totale Neuentwurf der marktwirtschaftlichen Ordnung, der durch seine einzigartige Macht und seinen verhaltensmodifizierenden Apparat auch uns neu zu entwerfen vermag. Aber wie sieht diese Macht aus, und wie genau verändert sie das Wesen des Menschen um seiner lukrativen Gewissheiten willen? Nun, was diese Macht anbelangt, so möchte ich sie als Instrumentarismus bezeichnen und diesen als Instrumentierung und Instrumentalisierung von Verhalten zum Zweck seiner Modifizierung, Vorhersage und Monetarisierung definieren. »Instrumentierung« bezieht sich hier auf die »Marionette«: die ubiquitäre materielle Architektur wahrnehmungsfähiger Maschinenintelligenz, die menschliche Erfahrung rendert, interpretiert und schließlich aktuiert. »Instrumentalisierung« bezeichnet hier die sozialen Beziehungen, die die Puppenspieler mit der menschlichen Erfahrung verbinden, insofern das Überwachungskapital die Maschinerie betreibt, die uns zu Mitteln von anderer Leute Marktziele macht. Der Überwachungskapitalismus hat uns mit einer beispiellosen Spielart des Kapitalismus konfrontiert; jetzt zwingt uns die instrumentäre Macht als Träger und Motor des überwachungskapitalistischen Projekts zu einer zweiten Konfrontation mit dem Beispiellosen. Wer immer sich mutig gegen diese neue Macht ausspricht, orientiert sich bei der Interpretation der heutigen Gefahren unweigerlich an George Orwells Big Brother oder am Gespenst des Totalitarismus an sich. Man bezeichnet Google, Facebook und die kommerzielle Überwachung an sich

immer wieder als »digitalen Totalitarismus«.1 Ich bewundere alle, die sich gegen die Übergriffe kommerzieller Überwachung ausgesprochen haben, gebe dabei allerdings zu bedenken, dass die Gleichsetzung von instrumentärer Macht und Totalitarismus sowohl unserem Verständnis im Wege steht als auch unserer Fähigkeit, ihrer Wirkung entgegenzutreten, sie zu neutralisieren und schließlich zu bezwingen. Es gibt historisch keinen Präzedenzfall für den Instrumentarismus; es gibt aber sehr wohl Präzedenzfälle dieser Art von Begegnung mit einer bis dahin nie gekannten Art von Macht. In den Jahren, bevor man den Totalitarismus auf den Begriff gebracht und auf ein theoretisches Fundament gestellt hat, bedienten sich seine Kritiker der Sprache des Anti-Imperialismus; nur durch ihn ließen die tödlichen Gefahren der neuen Macht sich artikulieren, nur so war an Widerstand auch nur zu denken. Jetzt schwimmen wir abermals orientierungslos in dunklen Gewässern und klammern uns hilfesuchend an den vertrauten Jargon der uns aus dem 20. Jahrhundert bekannten Spielarten autoritärer Macht. Einmal mehr stehen wir vor dem sprichwörtlichen pferdelosen Wagen und versuchen die erahnten Gefahren an vertrauten Details festzumachen – wie sollten wir wissen, dass die Schlüsse, zu denen sie uns verleiten, zwangsläufig falsch sind? Wir müssen die spezifische innere Logik einer ganz und gar neuen Macht des 21. Jahrhunderts begreifen lernen, für die die Vergangenheit einfach keinen geeigneten Kompass mitbringt. Der Totalitarismus zielte auf die Modifikation unserer Spezies durch die Mechanismen des Völkermords und der sozialen Manipulation der Seele. Die instrumentäre Macht führt uns, wie wir sehen werden, in eine ganz andere Richtung. Überwachungskapitalisten haben weder Interesse an Mord und Totschlag noch an Reform oder Errettung unserer Seelen. Nicht dass ihr Ehrgeiz in vieler Hinsicht geringer wäre als der totalitärer Staatsoberhäupter, er ist jedoch von ganz anderer Art. Bei der Benennung einer fremden Form von Macht, die in der menschlichen Erfahrung beispiellos ist, müssen wir von Grund auf neu ansetzen, wollen wir effektiv Widerstand leisten und kreativ auf eine Zukunft nach unseren eigenen Vorstellungen hinarbeiten.

Der Rest dieses Kapitels soll ein Aufbruch in diese Richtung sein. Als Erstes wollen wir ein Verständnis dafür entwickeln, was instrumentäre Macht nicht ist, und dazu werden wir uns im folgenden Abschnitt kurz die Schlüsselelemente totalitärer Herrschaft im 20. Jahrhundert ansehen. Mit das Wichtigste dabei ist, sich vor Augen zu halten, dass die totalitäre Macht, wie heute die instrumentäre, beispiellos war. Sie überstieg das Begriffsvermögen. Wir können eine Menge lernen vom Ringen wie von den Fehlern von Wissenschaftlern, Journalisten und Bürgern, die sich von einer Macht überrollt sahen, die sie nicht begreifen konnten. Die Klärung dieser Fragen verschafft uns das nötige Rüstzeug für eine Untersuchung der Ursprünge des Instrumentarismus. Dazu müssen wir uns noch einmal B. F. Skinner und seinem »radikalen Behaviorismus« zuwenden, vor allem seinem Traum von der »Verhaltenstechnologie«. In Kapitel 13 integrieren wir dann unsere Einsichten, um uns die einzigartigen Ziele und Strategien instrumentärer Macht anzusehen.

Totalitarismus als neue Art von Macht Die Begriffe »Totalitarismus« und »totalitärer Staat« tauchten in den 1920er-Jahren in Italien auf, letzterer bei dem Philosophen Giovanni Gentile, der später mit Benito Mussolini das Manifest »Die Lehre des Faschismus« schrieb.2 Italien war zu Anfang des 20. Jahrhunderts ein Staat zweiter Klasse gewesen, unbedeutend auf der Weltbühne, die Nation gedemütigt, ohne Selbstbewusstsein; da das Land seine Bevölkerung nicht ernähren konnte, wanderten Millionen auf der Suche nach einem besseren Leben aus. Nach der Jahrhundertwende begann eine neue Generation von Intellektuellen und avantgardistischen Futuristen den Traum eines »neuen Italien« zu spinnen. Gentile widmete diesem nationalistischen Wiedererwachen seine Talente als Philosoph. Im Herzen von Gentiles politischer Philosophie steht der Begriff des »Totalen«.3 Er verstand den Staat als alles umschließende organische Volksgemeinschaft, die das Leben des Einzelnen übersteigt. Jedwede Besonderheiten und Unterschiede gehen um seiner übergeordneten Totalität willen bedingungslos im Staat auf. 1932 beauftragte Mussolini Gentile mit

der philosophischen Einleitung zu seiner »Lehre des Faschismus«, während er selbst die sozialen und politischen Prinzipien abhandelte, die die faschistische Weltsicht bestimmen sollten.4 Die Doktrin beginnt mit der Erklärung, dass die faschistische eine »geistige Lebensauffassung« sei, die noch die innersten Bollwerke auch des Letzten durchdringt: Um die Menschen zu kennen, muss man den Menschen kennen … der Faschismus [ist] totalitär, und der faschistische Staat als Zusammenfassung und Vereinheitlichung aller Werte gibt dem Leben des ganzen Volkes seine Deutung, bringt es zur Entfaltung und kräftigt es … Er ist … inneres Gesetz ( n o r m a i n t e r i o r e ) und Disziplin des ganzen Menschen. Er durchdringt Wille und Geist ( i n t e l l i g e n z a ) . Sein Prinzip … dringt in die Tiefe und läßt sich im Herzen des Mannes der Tat wie des Denkers nieder, des Künstlers wie des Wissenschaftlers: als Geist des Geistes ( a n i m a d e l l ’ a n i m a ) … Er will nicht die Formen des menschlichen Lebens, sondern seinen Inhalt, den Menschen, den Charakter, den Glauben neu schaffen. Und zu diesem Zwecke fordert er Disziplin und eine Autorität, die in die Geister eindringt und darin unumstritten herrscht.5 Spätestens 1933 hatte der Begriff des Totalitarismus auch in Deutschland Konjunktur; Joseph Goebbels, Reichsminister für Volksaufklärung und Propaganda, hatte vom »totalen Staat« zu sprechen begonnen und deutsche Intellektuelle hatten die Wende zum Totalitarismus erklärt. Der Nationalsozialismus trug zur Entwicklung bei, indem er den Vorrang der »Bewegung« über den »Staat« erklärte, eine Beziehung, die Hitler 1934 auf dem Parteitag der NSDAP in dem Satz »Die Partei befiehlt dem Staat« zusammenfasste.6 Auf dem Höhepunkt des glanzvollen abendlichen Sektempfangs hob Stalin das Glas, um einen Toast auszubringen. Schweigen legte sich über den Salon der opulenten Moskauer Jugendstilvilla, die dem gefeierten Schriftsteller Maxim Gorki nach seiner Rückkehr aus dem selbstauferlegten italienischen Exil zum goldenen Käfig geworden war. Stalin lieferte an diesem Abend eine prägnante Zusammenfassung des spirituellen Imperativs, der die totalitäre Macht stalinistischer Prägung definiert: »Unsere Panzer sind wertlos«, sagte er den versammelten Schriftstellern,

»wenn die Seelen, die sie lenken müssen, aus Ton sind. Deshalb sage ich: Die Produktion von Seelen ist wichtiger als die von Panzern … Der Mensch erneuert sich durch das Leben, und ihr müßt behilflich sein bei der Erneuerung seiner Seele. Das ist wichtig, die Produktion menschlicher Seelen. Und deshalb erhebe ich mein Glas auf euch, Schriftsteller, auf die Ingenieure der Seele.«7 Die angesprochenen Schriftsteller hoben zu diesen Worten das Glas, in Gedanken womöglich bei ihren weniger anpassungsfähigen Kollegen im Exil oder den in der »Enthauptungskirche« auf einer der subarktischen Solowki-Inseln Gefolterten und Getöteten, wo 1921 das erste Straflager und Vorbild für die späteren GULags entstanden war.8 Als völlig neue Spezies von Macht hatte der Totalitarismus sich von Anfang an der Analyse verweigert, sowohl in seiner russischen als auch in seiner deutschen Spielart; die Gefahren für die Grundfesten westlicher Zivilisation waren schlicht nicht zu sehen. Obwohl die totalitären Regime bereits vor dem Zweiten Weltkrieg Wurzeln fassten – zuerst 1929 in Russland mit Stalins Machtergreifung, dann 1933 mit Hitlers Ernennung zum Reichskanzler –, begann das systematische Studium des Phänomens erst danach. Aber wie hätte man auch analysieren sollen, was größtenteils geheim und in ständiger Bewegung begriffen war? Geheimpolizeien führten geheime Befehle aus, es kam zu Gräueln im Verborgenen und zu stiller Komplizenschaft; ständig änderte sich, wer oder was oben und unten war, Fakten wurden zu Antifakten verzerrt, das alles ging unter in einer endlosen Flut von Propaganda, Desinformation, Euphemismen und schierer Verlogenheit. Starke Führer oder »Egokraten«, um den Begriff des französischen Philosophen Claude Lefort aufzugreifen, schwingen sich auf zu willkürlich urteilenden Richtern über Recht und Unrecht, Wahrheit und Lüge, und treten damit an die Stelle der Herrschaft von Gesetz und gesundem Menschenverstand.9 Die westliche Öffentlichkeit, vor allem die der Vereinigten Staaten, war schlicht außerstande, die Ungeheuerlichkeit dessen zu begreifen, was da im Gange war; es überstieg einfach jede Vorstellungskraft. Ein Denkmal setzte dieser intellektuellen Lähmung im August 1939 unter dem Titel »What’s Going On in Russia?« Walter Duranty, ehedem Chef der Moskauer Redaktion der New York Times, im Magazin Look, das heute vergessen ist,

für seine Zeit jedoch prägend war.10 Der Artikel erschien nur wenige Monate nach Beendigung des Großen Terrors, wie man die Säuberungskampagne vom Herbst 1936 bis Ende 1938 später nannte, in der Stalin systematisch Regimegegner und andere »unzuverlässige Elemente«11 ermorden ließ – von Dichtern über Diplomaten und Generäle bis hin zu politisch Loyalen. Dem Historiker und Stalinspezialisten Robert Conquest zufolge kam es allein 1937–38 zu sieben Millionen Verhaftungen, einer Million Hinrichtungen und zwei Millionen Toten in Arbeitslagern; eine Million Menschen saß Ende 1938 im Gefängnis, und sieben Millionen befanden sich zu diesem Zeitpunkt noch in Lagern (gegenüber fünf Millionen 1936).12 Trotz der Unmittelbarkeit dieser menschlichen Katastrophe bezeichnet Duranty die Verfassung der UdSSR als eine der » demokratischsten der Welt …ein Fundament, auf dem sich eine künftige Demokratie bauen lässt«. Unter den Lobeshymnen auf die Rote Armee, kostenlose Schulbildung, medizinische Versorgung, den sozialen Wohnungsbau und die Gleichberechtigung der Geschlechter findet sich auch ein heiterer Kommentar, der »die Große Säuberung« flott als »eine der periodischen Säuberungen der Kommunistischen Partei« abtut. Durantys Berichten zufolge »ist diese Säuberung jetzt vorbei«, das Volk »repariert den Schaden«, ganz so, als würde das Land nach einem besonders heftigen Gewitter aufräumen. In Wirklichkeit wandte sich Stalins Politik des Terrors – Gewalt, Inhaftierungen, Hinrichtungen und Exil – 1939 mit rasantem Tempo und beängstigender Heftigkeit dem Baltikum und dem Osten von Polen zu; Tausende von Polen starben allein auf den Gewaltmärschen in die Arbeitslager im Norden; die polnische Kommunistische Partei sah sich zur Auflösung gezwungen.13 Am 23. August 1939, acht Tage nach dem Erscheinen von Durantys Artikel in Look, unterzeichneten Stalin und Hitler den Deutsch-Sowjetischen Nichtangriffspakt, worauf Hitler am 1. September in Polen einfiel. Die Rote Armee griff am 17. September Polen von Osten an und marschierte am 30. November in Finnland ein. Besonders bestürzend an Durantys Essay ist seine Charakterisierung von Stalin selbst. Eingezwängt zwischen einer Vorschau auf den Zauberer von Oz mit Judy Garland und einer Fotostrecke mit den peinlichsten Fotos

großer Stars findet sich eine Aufnahme eines lächelnden Josef Stalin; die Legende lautet: »Stalin, Vorsitzender des inneren Kreises der Kommunistischen Partei … hält die Zügel weniger straff als Lenin. Stalin hört lieber auf seine Mitarbeiter, bevor er eine Entscheidung fällt.«14 Der Lobeshymne auf Stalin in Look als Musterbeispiel des aufgeschlossenen Staatsmannes folgte nur wenige Monate später die Kür zum »Mann des Jahres« durch Time. Überhaupt schaffte Stalin es zwischen 1930 und seinem Tod im März 1953 sage und schreibe zehnmal auf das Cover von Time.15 Ich erwähne das, um Ihnen eine annähernde Vorstellung sowohl vom Stand der Entwicklung als auch vom Grad der Institutionalisierung zu geben, den der Totalitarismus erreicht hatte, lange bevor man ihn als geschlossene neue Form von Macht identifizierte und zu analysieren begann – die Voraussetzung, mit anderen Worten, um ihn als die größte Gefahr für die Zivilisation seit Menschengedenken zu erkennen.16 Mit einigen wenigen Ausnahmen begann man erst nach der Niederlage des nationalsozialistischen Deutschland ernsthaft mit der Benennung des Phänomens. Der Historiker Robert Conquest schreibt, dass »viele Informationen verfügbar waren, die der offiziellen Version widersprachen«, und wirft die Frage auf, wie es dem Sowjetregime »dennoch möglich war, diese Darstellung den Journalisten, Soziologen und anderen Besuchern aufzuzwingen«, so »plump und durchsichtig«, wie sie waren. Einen der Gründe dafür sieht er in der großen Mühe, die sich die Sowjetregierung gab, der Welt ein falsches Bild zu präsentieren – bis hin zu »Modellgefängnissen«, die auch nicht die Spur von den ungeheuren Ausmaßen der staatlichen Folter- und Todesmaschinerie ahnen ließen.17 Einen weiteren Grund sah er in der Leichtgläubigkeit der Beobachter selbst. In einigen Fällen, wie etwa in dem von Duranty, blendete sie schlicht ihr eigener Glaube an die Idee eines sozialistischen Staats.18 Der überzeugendste Grund von allen freilich ist der, dass Journalisten, Wissenschaftler und auch westliche Regierungen sich größtenteils einfach schwertaten, die ganze Ungeheuerlichkeit totalitärer Staaten zu erkennen – die Fakten waren einfach so »unwahrscheinlich«, dass selbst Fachleute sich die Wahrheit nicht eingestehen wollten. »Die Stalin-Epoche ist voller Phänomene, die das menschliche Vorstellungsvermögen übersteigen«, schreibt Conquest, »und daher völlig unglaubwürdig erscheinen.«19 Gerade

dieser Mangel an Einsicht und Verständnis hat eine unmittelbare Bedeutung für uns, die wir mit dem Überwachungskapitalismus und seiner neuen instrumentären Macht umzugehen lernen. Die Konfrontation mit der Unmöglichkeit des Totalitarismus reflektieren die bewegenden Berichte der ersten Wissenschaftler, die fest entschlossen waren, den Schleier über den grausigen Wahrheiten der Ära zu lüften. Fast jeder Intellektuelle, der sich unmittelbar nach dem Krieg diesem Projekt zuwandte, berichtet von einem maßlosen Staunen über die Plötzlichkeit, mit der, wie der deutschamerikanische Politikwissenschaftler Carl J. Friedrich es ausdrückt, der Totalitarismus »über die Menschheit hereingebrochen war … unerwartet und unangekündigt«.20 Seine Erscheinungsformen waren so neuartig und unerwartet, so schockierend, rasant und ohnegleichen, dass man buchstäblich keine Worte dafür fand, so sehr widersprachen sie jeder Tradition, jeder Norm, jedem Wert und jeder legitimen Form menschlichen Handelns. Das systematische Anheben der Niveaus von Gewalt und Komplizenschaft, das im Handumdrehen ganze Bevölkerungsgruppen erfasste, erwies sich als so bestürzend, dass es das Fassungsvermögen selbst einiger der großen Geister des 20. Jahrhunderts überstieg. Friedrich war einer der ersten Totalitarismus-Forscher, die diese Erfahrung der Unwahrscheinlichkeit ansprachen. »Vor 1914«, so schrieb er 1954, »ahnte buchstäblich niemand den Verlauf der Entwicklung, der die westliche Zivilisation seit damals überrollt hat … keiner der herausragenden Wissenschaftler – weder Historiker noch Juristen noch Soziologen – sah, was da auf ihn zukam … und seinen Höhepunkt im Totalitarismus fand. Zu diesem Mangel an Voraussicht kommt die Schwierigkeit, das alles zu verstehen.«21 Nicht einmal die weitsichtigsten Analytiker der Industriegesellschaft wie Durkheim oder Weber hatten diese mörderische Entwicklung Anfang des 20. Jahrhunderts geahnt. Hannah Arendt konnte mit der Niederlage Nazideutschlands »zum ersten Mal … versuchen, zu berichten und zu verstehen, was geschehen war … noch immer voll Trauer und Schmerz und daher mit einer Neigung zur Klage, aber doch nicht mehr voll sprachloser Empörung und ohnmächtigem Grauen«.22 Im Lauf der Zeit brachte das Bemühen um ein Verständnis totaler Herrschaft ebenso mutige wie brillante Forschungsarbeiten hervor. Es

führte zu verschiedenen Modellen und Schulen, von denen jede ihre eigenen Schwerpunkte und Einsichten mitbrachte; gemein jedoch war ihnen allen das Bemühen, das Böse endlich zu benennen. »Die totale Herrschaft«, schrieb Arendt, habe »ein Mittel entdeckt, Menschen von innen her zu beherrschen und zu terrorisieren«. Sechs Jahre arbeitete die gebürtige deutsche Philosophin nach dem Zweiten Weltkrieg an ihrer ganz außergewöhnlichen Studie Elemente und Ursprünge totaler Herrschaft, die 1951 erschien.23 Mit ihrem Versuch eines theoretischen Unterbaus für das, was da gerade passiert war legte Arendt eine ungemein detaillierte Pionierarbeit vor. »Verstehen«, so schreibt sie, sei die unabdingbare Antwort auf das »wahrhaft radikale Wesen des Bösen«, wie es sich im Totalitarismus zeige. Verstehen bedeute, »die Bürde zu untersuchen, die unser Jahrhundert uns auferlegt hat, und diese damit bewusst mitzutragen – ihre Existenz weder zu leugnen, noch uns demütig ihrer Last zu ergeben«. Der Totalitarismus habe es darauf angelegt, »die Menschlichkeit« und »das Wesen des Menschen zu vernichten«, schreibt sie. »Den destruktiven Kräften des Jahrhunderts den Rücken zu kehren hat wenig Sinn.«24 Wichtig sei bei alledem die Vernichtung sowohl aller Bindungen als auch aller sozialen Fixpunkte, bis außer der »Bewegung« selbst nichts mehr zählt. Totale »Treue« ist eine der wesentlichen psychologischen Grundbedingungen für das Funktionieren der Bewegung. Und sie wiederum kann nur von absolut isolierten Individuen geleistet werden, deren Bindung weder an die Familie noch an Freunde, Kameraden oder Bekannte einen gesicherten Platz in der Welt garantiert. Daß es überhaupt auf der Welt ist und in ihr einen Platz einnimmt, hängt für ein Mitglied der totalitären Bewegung ausschließlich von seiner Mitgliedschaft in der Partei … ab.25 Wissenschaftler der Jahrhundertmitte wie Friedrich, Theodor W. Adorno, Waldemar Gurian, Zbigniew Brzeziński und Raymond Aron haben zu diesen Themen das Ihre beigetragen; alle haben sie das Bestehen des Totalitarismus auf die Herrschaft über die menschliche Seele erkannt.26 Der Politikwissenschaftler Waldemar Gurian, ein Deutschamerikaner, aus Russland gebürtig, der 1939 aus Deutschland geflohen war, bezeichnet den

Totalitarismus als »säkulare politische Religion, die »absoluten Gehorsam« ebenso erfordere wie »aktive Zustimmung«.27 Die Politikwissenschaftler Carl J. Friedrich und Zbigniew Brzeziński hoben das Vertrauen des Totalitarismus auf den Terror bei der »Neugestaltung« des Menschen hervor, auf »Umerziehungsmaßnahmen« und »ausgiebige Verbesserungen« an Selbst und Psyche.28 Auch der Aktivist und Theoretiker Franz Neumann sah in seiner beherzten Analyse des Nationalsozialismus von 1933 bis 1944 im Terror das höchste Handlungsprinzip. Neumann beschrieb die Unterordnung der Produktionsmittel unter die »Gewaltmittel« im Dritten Reich: Die Nationalsozialisten verschafften sich die Autorität über Eigentum und Produktion nicht zuletzt durch die Enteignung jüdischen Besitzes und durch die Kontrolle der Schlüsselindustrien durch die Partei.29 Die Bevölkerung bis auf den Grund ihrer Seele zu beherrschen, bedarf unvorstellbarer Anstrengungen, was denn auch einer der Gründe für die Unvorstellbarkeit des Totalitarismus war. Er braucht Gefolgsleute, Handlanger und Helfershelfer, die alle bereit sind, die Ärmel hochzukrempeln, um in Blut und Exkremente lebender Menschen zu greifen, deren schwitzende Körper stinken und vor Entsetzen, Kummer und Schmerzen aufschreien.30 Er misst Erfolg auf zellulärer Ebene, er unterwandert, übernimmt die implizierten Visionen vom Völkermord, die Richard Shorten als »Experiment in Sachen Neugestaltung der Menschheit« bezeichnet hat. 31 Zerstörung und Wiederaufbau der Gesellschaft sowie die Säuberung der Menschheit an sich verfolgte man in Stalins Sowjetunion im Namen der »Klasse« und in Hitlers Deutschland im Namen der »Rasse«. Jedes Regime erfand sich seine »Sie-Gruppe«, die man zur Ermordung freigab – in Deutschland waren das Juden, Sinti und Roma, Homosexuelle und Revolutionäre, in Osteuropa hatten diese Gruppen nur andere Vorzeichen; diesen gegenüber stellte man die »Wir-Gruppe«, die Körper und Seele dem Regime verschrieb.32 So konnten totalitäre Regime ihr phantastisches Ziel erreichen, das »Volk-als-Eines«, wie Claude Lefort es nennt. Soziale Einhelligkeit entspricht einer inneren Einhelligkeit, die vom Hass auf die »Feinde des Volkes« aufrechterhalten wird.33 Totalitäre Macht gelingt nicht durch Fernsteuerung, bloße Konformität genügt nicht; vielmehr ist jedes einzelne Innenleben zu beanspruchen und

durch die ständige Androhung einer Strafe ohne Verbrechen zu transformieren. Massenmord bringt Größenvorteile – Lager, Massaker, Gulags; für alle anderen braucht es handgefertigten Terror, der darauf abzielt, jeden Aspekt des Einzelnen von innen nach außen zu kehren und dadurch zu verwandeln: Herz, Verstand, Sexualität, Persönlichkeit und Geist. Ein solches Handwerk bedarf der filigranen Orchestrierung von Isolation, Furcht, Ängsten, Überredung, Phantasie, Sehnsucht, Inspiration, Folter, Schrecken und Überwachung. Arendt beschreibt den unerbittlichen Prozess der »Atomisierung« und Verschmelzung, bei dem der Terror die üblichen zwischenmenschlichen Bande von Gesetzen, Normen, Vertrauen und Zuneigung zerstöre, »die der Freiheit des Einzelnen einen Lebensraum bieten«. Gnadenlos presse das »eiserne Band des Terrors … die Menschen aufeinander, bis jeder Raum für Handlungsfreiheit … verschwindet«.34 »Dem Terror gelingt es, Menschen so zu organisieren, als gäbe es sie gar nicht im Plural, sondern nur im Singular.«35

Ein entgegengesetzter Horizont Instrumentäre Macht bewegt sich anders und in Richtung eines entgegengesetzten Horizonts; sie ist eine ganz eigene Form von Macht. Operiert der Totalitarismus durch Gewaltmittel, operiert die instrumentäre Macht durch Mittel zur Verhaltensmodifikation. Entsprechend verschieben muss sich unser Blick. Weder hat instrumentäre Macht Interesse an unseren Seelen, noch hat sie Prinzipien zu vermitteln. Da sie kein Seelenheil verspricht, braucht sie uns nicht zu belehren, und so wie sie uns nicht zu verwandeln versucht, hat sie auch keine Ideologie, anhand der sich unsere Handlungsweise beurteilen ließe. Sie verlangt nicht jeden Aspekt auch des letzten Einzelnen zu besitzen. Sie hat weder Interesse an der Vernichtung noch an der Verunstaltung von Körper und Geist im Namen reiner Hingabe. Sie möchte Daten über unser Blut, unsere Ausscheidungen, hat aber kein Interesse daran, sich die Hände schmutzig zu machen. Sie hat Verlangen weder nach unserem Kummer noch nach unseren Ängsten oder unserem Schmerz, ist aber ganz erpicht auf den Verhaltensüberschuss, den sie aus unserer Pein zieht. Unsere Bedeutungen und Motive könnten ihr nicht

gleichgültiger sein. Anhand von messbaren Aktionen trainiert, interessiert sie ausschließlich, was wir tun und dass wir es auf eine Art und Weise tun, die sie ihren Operationen – Rendition, Verstärkung, Berechnung und Monetarisierung – zugänglich macht. Auch wenn er nicht mordet, ist der Instrumentarismus für die Menschheitsgeschichte nicht weniger bestürzend, nicht weniger unverständlich und neu, als es der Totalitarismus für all seine Zeugen und Opfer war. Unsere Begegnung mit beispielloser Macht hilft uns bei der Erklärung, warum es sich so schwierig gestaltet, diese neue Art von Zwang zu benennen; ausgeformt im Verborgenen, getarnt von technischer Komplexität, von gewinnender Rhetorik verschleiert, ist sie schwer zu erkennen. War der Totalitarismus ein politisches Projekt, das sich zur Überwältigung der Gesellschaft mit der Wirtschaft zusammentat, so ist der Instrumentarismus ein Marktprojekt, das im Verein mit dem Digitalen seine ganz eigene Art von sozialer Herrschaft geschaffen hat. Es muss also nicht weiter überraschen, dass man den ganz spezifischen Blickwinkel des Instrumentarismus in der umstrittenen Ideenwelt des »radikalen Behaviorismus« und seiner Vorläufer in der theoretischen Physik ausgemacht hat. Entsprechend wenden sich unsere Betrachtungen über die Macht im Zeitalter des Überwachungskapitalismus für den Rest des Kapitels diesen vom Totalitarismus und seinen Verwüstungen weit entfernten Ursprüngen zu. Sie führen uns in Laboratorien, Klassenzimmer und in die Gedankengebäude von Männern, denen Freiheit gleichbedeutend mit Unwissenheit war und Menschen nur abstrakte Organismen, gefangen in Verhaltensmustern, die sie weder verstehen noch kontrollieren können – ganz wie Ameisen oder Bienen oder Mackays Elche.

Der Andere 1971 stellte Time in einer Titelstory Burrhus Frederic »B. F.« Skinner mit den Worten »eine Institution in Harvard« vor und nannte ihn »den einflussreichsten unter Amerikas lebenden Psychologen« und »die umstrittenste zeitgenössische Gestalt der Verhaltenswissenschaften, als Messias vergöttert, als Gefahr verabscheut«.36 Skinner wirkte den größten

Teil seiner Laufbahn am Psychologischen Seminar der Harvard University, und zu den lebhaftesten Erinnerungen an mein Studium gehören meine hitzigen Diskussionen mit ihm. Ich gebe zu, dass die Gespräche kaum zur Änderung unserer jeweiligen Positionen beitrugen, aber sie hinterließen in mir eine bleibende Faszination für eine Deutung menschlichen Lebens, die sich bis heute fundamental von der meinen unterscheidet. Als akademischer Psychologe war Skinner berühmt für die genialen Tools und Techniken zum Studium tierischen Verhaltens, die er erfand: Tauben und Hebel, Tauben und Körner, Tauben auf Heizplatten, Ratten im Labyrinth; und dann erregte er natürlich Aufsehen mit den Einsichten in die Ausformung menschlichen Verhaltens, die er und seine Studenten entwickelten. Seine frühe Forschung erschloss Neuland mit seinen »Verstärkungsplänen«, mit denen er präzise Aktivitätsmuster produzierte, die eigentlich nicht ins Repertoire des Versuchstiers gehörten; er nannte das »operante Konditionierung«. Angeregt durch seine Bemühungen während des Zweiten Weltkriegs, Raketen von Tauben gelenkt ins Ziel zu steuern (woraus jedoch letztlich nichts geworden war), machte Skinner sich auf einen neuen, vom Versprechen einer Verhaltenstechnologie bestimmten Weg. 1947 sagte er auf einem Symposium: »Es geht nicht darum, die Welt ins Labor zu bringen, sondern die Praktiken einer experimentalen Wissenschaft in die ganze Welt hinauszutragen. Wir können das jederzeit, wenn wir nur wollen.«37 Das Raketenprojekt, so überlegte er Jahre später in seiner Autobiografie, habe seine experimentelle Arbeit »in ein neues Licht« gerückt: »Es ging nicht mehr lediglich um die experimentelle Analyse; es war daraus eine Technik geworden.«38 Obwohl er außer seinen logischen Sprüngen kaum eine Grundlage hatte, konnte Skinner es kaum erwarten, die im Labor gewonnenen Einsichten auf die Übel der Welt anzuwenden. Als Intellektueller im Rampenlicht der Öffentlichkeit versuchte er fast siebzig Jahre lang, diese Öffentlichkeit davon zu überzeugen, dass sein radikaler Behaviorismus die Prinzipien gesellschaftlicher Organisation bot, mit denen die Zivilisation sich vor der Katastrophe bewahren ließ. Eher verwegen schloss er in grandiosen Theorien von seinen unseligen Versuchstieren auf das soziale Verhalten des Menschen und dessen Evolution. An die Öffentlichkeit trug er diese in

Büchern wie dem »utopischen« Roman Walden Two (1948) und Jenseits von Freiheit und Würde (1971).39 1974 veröffentlichte er mit Was ist Behaviorismus? eine weitere Apologie seines radikalen Verhaltensprojekts, die diesmal an eine breitere Öffentlichkeit adressiert war. Das Buch sollte der Opposition gegen seine Ansichten begegnen, die seit den ungewöhnlichen – und für viele anstößigen – Argumenten von Jenseits von Freiheit und Würde immer heftiger geworden war. Er selbst sah in diesem Widerstand ein »außerordentliches Missverständnis« und arbeitete unermüdlich an der Aufklärung der Öffentlichkeit bezüglich seiner Theorien. Er war überzeugt davon, man würde ihm recht geben, würde man seine Botschaft nur richtig verstehen. Auf den ersten Seiten von Was ist Behaviorismus? übergeht Skinner die Entrüstung, für die Jenseits von Freiheit und Würde gesorgt hatte; er kommt stattdessen auf die Wurzeln und die ersten Theoretiker und Praktiker des Behaviorismus zu sprechen. Einen Gutteil der Schuld an den Antipathien gegen den Behaviorismus gibt er John B. Watson, der weithin als Begründer der Disziplin gilt.40 Watson hatte bereits 1913 den behavioristischen Standpunkt formuliert: »Die Psychologie ist aus der Sicht des Behavioristen ein rein objektiver experimenteller Zweig der Naturwissenschaften. Ihr theoretisches Ziel ist die Voraussage und Kontrolle des Verhaltens. Die Introspektion zählt nicht notwendigerweise zu ihren Methoden … Der Behaviorist … erkennt … keine Trennlinie zwischen Mensch und Tier.«41 Wie sich herausstellte, war Watson jedoch nicht nur Wissenschaftler, sondern auch ein großartiger Selbstvermarkter, und Skinner übt heftige Kritik an seinen extremen Behauptungen und dem »Mangel an Fakten«, die einen anhaltenden Zweifel auf den radikalen Behaviorismus geworfen hätten. Nachdem er Watson als wesentlichen Urheber des Problems identifiziert hat, nennt er als Schlüssel zur Lösung die Arbeit des eher obskuren Experimentalpsychologen Max Meyer, einem gebürtigen Deutschen, der größtenteils an der University of Missouri lehrte. Meyer hatte in Berlin studiert, wo Max Planck, der zu einem der berühmtesten Physiker aller Zeiten werden sollte, sein Doktorvater gewesen war. Planck hatte auf die Einheit der gesamten physischen Welt und die Entdeckbarkeit der Naturgesetze bestanden, die ihre Geheimnisse jedoch nur in

mathematischen Formeln preisgeben würden – auch die Gesetzmäßigkeiten menschlichen Verhaltens.42 Von wesentlicher Bedeutung war für ihn dabei, »dass die Außenwelt etwas von uns Unabhängiges, Absolutes darstellt, dem wir gegenüberstehen, und das Suchen nach den Gesetzen, die für dieses Absolute gelten«, ihm »als die schönste wissenschaftliche Lebensaufgabe« erschien.43 Meyer übernahm Plancks Lehren für seine eigene Suche nach den Prinzipien, die schließlich dem Studium des menschlichen Verhaltens zu wissenschaftlichem Rang verhelfen sollten. Skinners Ansicht nach war Meyer insofern der Durchbruch gelungen, als er der Psychologie endlich ihren rechtmäßigen Platz neben den Disziplinen der Physik, Chemie und Biologie einzunehmen erlaubte.44 Warum pries Skinner Meyer, den man selbst in seiner Zeit als Hochschullehrer größtenteils ignoriert hatte? Was doppelt für den Titel galt, den Skinner besonders herausstellte: ein Lehrbuch von 1921, das den ominösen Titel Psychology of the Other-One trug. Man hatte es zur Zeit seines Erscheinens kaum beachtet – Meyer hatte es hauptsächlich für seine Studenten geschrieben –, und seither war es völlig in Vergessenheit geraten.45 Nichtsdestoweniger pries Skinner das Buch dafür, die theoretischen und methodologischen Grundlagen der modernen Verhaltensforschung zusammengestellt zu haben: Man ziehe »nur solche Tatsachen in Betracht, die sich an dem Verhalten einer Person in bezug auf ihre vorherige Umweltgeschichte objektiv beobachten lassen«.46 Für Skinner stellt Meyers Buch einen Wendepunkt dar, insofern es bei der Suche nach dem Absoluten mutig Psychologie und Physik vereine. Es erkläre das Wesen des behavioristischen Standpunkts, bei dem die »Welt in der Haut des ›Anderen‹ der bevorzugte Status ist«.47 Der Begriff, der die neue Perspektive besonders prägnant einfing, war der bzw. das »Andere« (the Other-One). Menschliches Verhalten würde für die wissenschaftliche Forschung nur dann etwas abwerfen, wenn Psychologen Menschen als das Andere zu sehen lernten. Der »beobachtende Standpunkt« war eine unabdingbare Voraussetzung für eine »objektive Wissenschaft vom menschlichen Verhalten«, die innere Erfahrung nicht weiter mit externem Handeln gleichsetzt.48 Von zentraler Bedeutung für diesen neuen Standpunkt war seine Auffassung vom Menschen als Organismus. Der Mensch bekommt die Rolle eines »es«, eines »anderen«, eines »sie« im

Sinne von Organismen – ein »Organismus unter Organismen«, der von einem Salatkopf, einem Elch oder einer Raupe nur hinsichtlich des Grades an Komplexität zu unterscheiden ist.49 Eine wissenschaftliche Psychologie würde ihr Interesse auf die sozialen und damit sichtbaren Verhaltensweisen dieser »Organismen unter Organismen« beschränken. Das mache sie zum »Studium des Lebens des Anderen – allerdings seines Lebens, insofern es eher von sozialer als von Bedeutung für ihn selbst ist … Wir ziehen das Studium des Anderen dem Studium unserer Selbst vor«.50 Die logischen Folgen des neuen Standpunkts erforderten eine Neuinterpretation der menschlichen Erfahrungen höherer Ordnung, die wir als »Freiheit« oder »Wille« bezeichnen. Aus Meyer spricht Planck, wenn er sagt: »Handlungsfreiheit in der Tierwelt bezeichnet genau das, was wir in der Welt der Physik als Zufälle bezeichnen.«51 Solche Zufälle sind für ihn einfach Erscheinungen, zu deren Erklärung und Verständnis nicht genügend Informationen vorhanden sind. Dasselbe gilt für die Freiheit. Der liberale Gedanke der Freiheit hält sich im umgekehrten Verhältnis zum Wachstum wissenschaftlicher Erkenntnisse, insbesondere auf dem Gebiet der psychologischen Wissenschaft. Wissen und Freiheit sind notwendigerweise Gegner. »Das Verhalten des Anderen«, so schrieb Meyer, »ist frei, unverursacht nur in demselben Sinne, in dem der Ausbruch einer Krankheit, der Ausgang eines Krieges, das Wetter, die Ernte frei und unverursacht sind; das heißt in dem Sinne einer allgemeinen menschlichen Unkenntnis der speziellen Ursachen des besonderen Resultats.«52 Jahrzehnte später sollte diese Weltsicht den Kern der umstrittenen Sozialphilosophie von Jenseits von Freiheit und Würde bilden, in der Skinner die Ansicht vertritt, Wissen mache uns nicht frei, sondern entlasse uns lediglich aus der Illusion der Freiheit. In Wirklichkeit seien Freiheit und Unwissenheit synonym. Die Aneignung von Wissen sei insofern eine heroische Handlung, als sie uns von der Unwissenheit befreie, aber sie sei auch tragisch, enthülle sie uns doch notwendigerweise die Unmöglichkeit der Freiheit. Für Meyer wie für Skinner ist Festhalten an Vorstellungen wie Freiheit, Wille, Autonomie, Absicht und Handeln nur ein Verteidigungsmechanismus, der uns von den unbequemen Fakten menschlicher Unwissenheit schützen soll. Mir fällt dabei Dickens’ Scrooge

ein, als ihm zum ersten Mal der klagende Geist mit der Kette seines verstorbenen Partners Jacob Marley erscheint und er die Erscheinung nicht wahrhaben will: »Ihr könnt, sagt er, »ein unverdautes Stück Rindfleisch, ein Senfklecks, eine Käserinde, ein Stückchen schlechter Kartoffel sein.« Genauso verhält es sich mit der Freiheit: ein unverdautes Stückchen Angst, ein Krümel Nichtwahrhabenwollens, der die Erscheinung verschwinden lassen und uns der Realität anheimgeben wird, ist er erst mal verdaut. Die Umwelt bestimmt das Verhalten, und unsere Unwissenheit, wie genau sie das macht, ist die Leere, die wir mit der Phantasie der Freiheit füllen. Meyer betonte, dass er die Realität menschlicher Innerlichkeit – »Seele«, »Selbst«, »Geist«, »Bewusstsein« – nicht leugnen wolle, er bestand aber auch darauf, dass deren Bedeutung auf das subjektive Leben des Einzelnen beschränkt sei. Sie kann keinen wissenschaftlichen Wert haben, weil sie nicht beobachtet, nicht gemessen werden kann: »Wir bestreiten die Seele nicht, aber wir widmen ihr nicht unsere Zeit. Wir finden beim Studium des Körpers genug, mehr als genug.« Die Seele sei »unsere eigene Sache«, eine intime Erfahrung und ein nicht aufzulösendes Mysterium, die beide formell dem wissenschaftlichen Zugriff entzogen seien: »So kann man menschliche Gesellschaften als von Naturgesetzen herrührend verstehen – jedoch nicht im Sinne von Gruppen von Seelen, sondern im Sinne von Gruppen von Organismen.«53 Die Zukunft der Sozialwissenschaften, ja der Zivilisation an sich, so Meyer, ruhe auf dieser Verlagerung von der Seele hin zum Anderen, von innen nach außen, von gelebter Erfahrung zu beobachtbarem Verhalten. Die »Anderisierung« der Menschheit sollte der Weg zu einer Art politischer Befreiung werden. Die grausige historische Kavalkade von Folter, Unterdrückung, Massaker, Versklavung und Völkermord war eine Folge des Ringens um die Herrschaft über die menschliche Seele um der religiösen und politischen Macht willen. Von Meyers Warte im Missouri der 1920erJahre aus gesehen, musste sich seine Lösung für eine effiziente und rationale Moderne in diesen Jahren nach dem Großen Krieg wie eine Angelegenheit von Leben und Tod ausgenommen haben. Derjenige, dessen Interesse auf die Seele ausgerichtet ist, meint, nachdem er andere gezwungen hat, sein Gebet zu sprechen, seinen Glauben anzunehmen, vor seinem Altar zu knien, ihre Seelen gerettet

zu haben, anstatt sich einzugestehen, dass er nur ihre Körper gezwungen hat … Auch der politische Terrorismus hat seine wesentliche und unerschöpfliche Quelle in der menschlichen Tendenz, andere nicht als Körper zu sehen, die der wissenschaftlichen Untersuchung offenstehen, sondern als Seelen, als mysteriöse Wesen, die entweder durch Magie zu regieren seien, oder, falls diese versagt, und das muss sie zwangsläufig, durch Folter und Tod … Denken Sie an all die Schrecken der Folter … an Gerichte wie die spanische Inquisition oder die Hexenprozesse des 17. Jahrhunderts … Alle diese Gräuel waren darauf zurückzuführen, dass der Richter als Gedankenleser tätig war und man den Angeklagten in erster Linie als Seele sah.54 In Meyers System erklärte der Wechsel der Perspektive vom »Menschen als Seele« zum »Menschen als Organismus« den »Trend der Geschichte in Richtung Demokratie«. Mit der Übernahme der Zivilisation durch die Wissenschaft sah Meyer eine neue weltweite Wertschätzung für Gleichheit und demokratischen Zusammenhalt, deren Basis das Faktum unserer überwältigenden Ähnlichkeit als Organismen war. Die auf Klassen, Wohlstand, Liberalität, Rasse und so weiter fußenden Spaltungen in Gesellschaft, Politik und Wirtschaft wären mit einem Mal lächerlich. »In einem wirklich weltweiten menschlichen Leben gehen die Unterschiede zwischen Individuen völlig unter in ihren Ähnlichkeiten. Für den, der die wissenschaftliche Sicht der menschlichen Gesellschaft als Gruppe von Organismen akzeptiert, ist der Vorschlag, sie in Klassen aufzuteilen, einfach absurd.«55 Jede Sozialwissenschaft, die nach Anerkennung ihrer Wissenschaftlichkeit strebte, musste diese Auffassung vom »Anderen« ansprechen, allen voran die Psychologie, sicher, aber auch Soziologie, Ökonomie, Kriminologie, Geschichte sowie die Religionspsychologie: »Christus wandelt unter seinen Mitmenschen, ein Organismus unter Organismen.«56 Die »Anderisierung« würde den Weg für eine rationale Zukunft ebnen – mit ihren trostlosen Befriedigungen, mit denen die Menschheit sich in die Aufgabe ihrer Freiheit im Tausch gegen das Wissen fügt.

Wider die Freiheit Skinners Überzeugung war unerschütterlich, und die Ausarbeitung seines Standpunkts gibt uns die Möglichkeit, das Wesen instrumentärer Macht zu verstehen. Von der ersten Seite seines 1938 erschienenen ersten Buches The Behavior of Organisms an betet Skinner Meyers (und auch Plancks) Mantra nach: Freiheit ist nichts weiter als Unwissenheit, die auf ihre Eroberung wartet. »Primitive Verhaltenssysteme« weisen die Kausalität »höheren Wesen als dem Menschen« zu. Nicht weniger unzulänglich sind die »fortgeschrittenen Verhaltenssysteme«, die die Kontrolle vagen Fiktionen wie dem »Selbst« oder dem »freien Willen« zuschreiben. »Man mag den inneren Organismus«, so schrieb er, »resigniert als frei bezeichnen, wie etwa im Falle des ›freien Willens‹, wenn man keine weitere Untersuchung für möglich hält.«57 Skinner bezeichnete seine Arbeit als »radikalen Behaviorismus«; das einzige sinnvolle Ziel der Verhaltensforschung, so betonte er, sei die Beobachtung von Handlungen ohne die Beigabe subjektiver Attribute. Genau das machte sie »radikal«. »Verhalten ist«, wie er auf den ersten Seiten seines ersten Buches erklärte, »was ein Organismus tut – oder genauer gesagt, das Tun, das ein anderer Organismus an ihm beobachtet«. Sein Begriff für dieses beobachtbare »Tun« war »operantes« Verhalten. Das Vokabular zur Beschreibung operanten Verhaltens sollte von jeder Innerlichkeit gereinigt werden: so könne man von einem Organismus zum Beispiel nicht sagen, er »sehe«; vielmehr müsse man sagen, er »blicke auf«. Nur solche objektiven Beschreibungen können Verhaltensfakten messbar machen, die wiederum zu Mustern führen und schließlich zur Dokumentation kausaler Beziehungen zwischen Umwelt und Verhalten.58 1951 veröffentlichte Skinner Wissenschaft und menschliches Verhalten, in dem er postuliert, dass jede Beobachtung, selbst die des eigenen Verhaltens, vom Standpunkt des Anderen aus durchzuführen sei. Diese Disziplin ermögliche es, fast alles zum Objekt verhaltenswissenschaftlicher Analyse zu machen, auch abgeleitetes Verhalten wie »das Treffen von Entscheidungen« oder »die Problemlösung«; es war dies genau die Perspektive, die später auch die neue Disziplin der Verhaltensökonomie übernehmen sollte:

Wenn ein Mensch sich selbst kontrolliert, sich zu einer bestimmten Handlungsweise entschließt, die Lösung eines Problems ausarbeitet oder vermehrte Selbstkenntnis anstrebt, verhält er sich. Er kontrolliert und steuert sich selbst, ebenso wie er das Verhalten einer anderen Person kontrollieren und steuern würde – durch die Manipulation von Variablen, deren Funktion das Verhalten ist. Sein »Sich-so-Verhalten« kann durch eine Analyse ohne weiteres erfaßt werden und muß letztlich mit Variablen begründet werden, die außerhalb der Einzelperson liegen.59 In so gut wie jedem seiner Bücher und Artikel predigte Skinner die Wahrheit, die Planck Meyer gelehrt und die Meyer seinen Studenten beigebracht hatte, die Wahrheit, die nur durch den Standpunkt des Anderen zu begreifen ist: Freiheit ist Unwissenheit. Die gefühlte Erfahrung des freien Willens ist nur ein Bissen unverdauten Nichtwahrhabenwollens, den wir einem Mangel an Informationen über die tatsächlichen Determinanten eines Verhaltens verdanken. Wie Meyer und Planck vor ihm sah Skinner Freiheit als »Zufall« und betonte zugleich, die bloße Vorstellung eines »Zufalls« sei eine Illusion, ein Schnappschuss in der Zeit, der eine Lücke enthüllt, die nur darauf wartet, gefüllt und schließlich in die Formel eines gesetzmäßigen, vorhersagbaren Musters verwandelt zu werden. Unter dem betrachtenden Blick des Behavioristen stehen diese Lücken der Unwissenheit, die wir für freien Willen halten, einer Erklärung harrend Schlange – nicht unähnlich denen, die ihre Körper einfrieren lassen in der Hoffnung, irgendwann geweckt zu werden, in einer Zukunft, in der es Heilung für sie gibt. Im kühnsten seiner literarischen Versuche, dem erweiterten philosophischen Essay Jenseits von Freiheit und Würde von 1971, betont er noch einmal die Bedeutungslosigkeit des Zufalls für den Verhaltenswissenschaftler: »Die ›zufällige‹ Natur eines Zufalls zeichnet sich durch nichts Besonderes aus.«60 Das ganze Werk war eine Tirade gegen das, was Skinner nach wie vor als wesentliches Hindernis für den sozialen Fortschritt sah: die Begriffsverwirrung, die unsere Ignoranz mit den heiligen Gewändern von Freiheit und Würde behängt. Skinner zufolge ist unser Beharren auf diesen hehren Idealen nichts weiter als eine Schutzmaßnahme vor den harten Wahrheiten »unerwartet

kontrollierender Bezüge« zwischen Verhalten und Umwelt.61 Sie sind nichts weiter als ein psychologischer »Fluchtweg«, der sich langsam als Sackgasse erweise, »da neue Beweise für die Voraussagbarkeit menschlichen Verhaltens entdeckt werden. Da sich die wissenschaftliche Analyse fortentwickelt, beginnt man … der persönlichen Ausnahme von einem totalen Determinismus abzuschwören … scheinen sich die Leistungen, die der Person selbst angerechnet werden müssen, in nichts aufzulösen … Und was die Bewunderung im Sinne von Bestaunen anbelangt, so ist das Verhalten, das wir bewundern, ja nur das Verhalten, das wir noch nicht erklären können.«62 Richard Herrnstein, eine Koryphäe auf dem Gebiet des radikalen Behaviorismus, einer von Skinners renommiertesten Schülern und später sein Kollege in Harvard, hat mir einmal erklärt, dass jede Handlung, die wir als Ausdruck unseres freien Willens sehen, nur eine solche ist, für die »der Vortex von Stimuli«, der sie hervorgebracht hat, noch nicht angemessen identifiziert werden kann. Es fehlen uns einfach die Mittel zu Beobachtung und Berechnung. Ich habe dieses Gespräch nie vergessen. Ich war damals eine 23-jährige Studentin, und der Begriff war für mich so neu wie bestürzend; er scheint mir einer Definition dessen, was Behavioristen unter Gott verstehen, näher zu kommen als jede andere. Ich erinnere mich, dass im Aufzug zu Skinners Labor im sechsten Stock des Psychologischen Seminars damals eine Zeitlang ein Schild mit der Aufschrift »Gott ist ein VI« hing – ein variables Intervall im Zeitplan, das man bei der Arbeit mit Verstärkern aus dem Vortex, dem Wirbelstrom, zieht. Bei dieser Sichtweise nehmen »Freiheiten« oder »Zufälle« in dem Maße ab, in dem unsere wachsenden Fähigkeiten im Messen und Berechnen neue Informationen über den Vortex der Stimuli liefern. Unsere Unwissenheit hinsichtlich des menschlichen Verhaltens ist wie ein schmelzender Eisberg auf einem sich erwärmenden Planeten, der der Erwärmung wird weichen müssen, da wir unablässig Mittel und Methoden finden, den Vortex der Stimuli, der jede Facette menschlichen Verhaltens formt, erst zu dechiffrieren und dann zu kontrollieren. Skinner verwies einmal auf die Wettervorhersage als Musterbeispiel dieser Umwandlung von Unwissenheit in Gesetzmäßigkeiten.

Man muß sich mit den Problemen, die durch die Komplexität eines Gegenstands aufgeworfen werden, dann befassen, wenn sie entstehen. Die Lösung von offenbar hoffnungslosen Fragen ist häufig eine Frage der Zeit. Es ist noch gar nicht so lange her, daß man gelernt hat, gewissen Gesetzmäßigkeiten folgend das Wetter vorherzusagen … Die Schwierigkeit, die Flugbahn einer Fliege zu errechnen, beweist nicht unberechenbare Willkür, auch wenn es unmöglich sein mag, statt dessen etwas anderes zu beweisen.63

Eine Technologie des menschlichen Verhaltens Über sechs Jahrzehnte lang beharrte Skinner in akademischen wie populärwissenschaftlichen Veröffentlichungen darauf, dass die Forschung immer noch tiefer gehen könne. Gleich auf den ersten Seiten von Jenseits von Freiheit und Würde ruft er nach einer technologischen Lösung für unsere Unwissenheit: »Wir müssen im Verhalten des Menschen weitreichende Veränderungen herbeiführen«, drängte er, »was allerdings unmöglich ist, wenn wir uns dazu nur der Physik oder Biologie bedienen, ganz gleich, wie sehr wir uns auch bemühen … Was wir brauchen, ist eine Technologie des Verhaltens … die in ihrer Wirksamkeit und Präzision der physikalischen und biologischen Technologie vergleichbar wäre.«64 Skinner dachte an Technologien für eine umfassende Institutionalisierung des Standpunkts des Anderen, Technologien, die Verhalten beobachteten, berechneten, analysierten und automatisch verstärkten, um die »weitreichenden Veränderungen« herbeizuführen, die seiner Ansicht nach nötig waren. Auf diese Weise würden die Gesetzmäßigkeiten menschlichen Handelns schließlich ausgeleuchtet, um Verhalten effektiv vorhersagen und formen zu können – so wie andere Technologien der Physik und der Biologie die Veränderung der Welt ermöglicht hatten: »Der Unterschied ist, daß die Instrumente und Methoden, die heute von Physik und Biologie benutzt werden, sich durch eine angemessene Komplexität auszeichnen. Die Tatsache, daß auf dem Gebiet des menschlichen Verhaltens ähnlich wirksame Instrumente und Methoden nicht verfügbar sind, ist keine Erklärung; sie ist nur ein Teil des Problems.«65

Skinner kam zu dem Schluss, die Beschwörung von Freiheit und Würde stehe »weiteren menschlichen Leistungen im Wege«.66 Das fehlende Teil des Puzzles, so argumentierte er, das die Entwicklung der für eine Verhaltenstechnologie dringend benötigten »Instrumente und Methoden« zurückhalte, sei das sture Festhalten an diesen antiquierten Vorstellungen unter Leuten, die fest entschlossen waren, für ihre Handlungen entsprechend gewürdigt zu werden. Der Glaube an den »autonomen Menschen« sei eine rückschrittliche Quelle des Widerstands gegen eine rationale Zukunft, eine »alternative Erklärung von Verhalten«, die der Weiterentwicklung der Gesellschaft im Wege stehen. Skinners Ansicht nach bedurfte die Menschheit dringend eines Plans, und er stellte sich leistungsfähige neue Instrumente vor, die das Verhalten in allen Bereichen ändern könnten. Schon 1953 stellte er sich die heutige digitalisierte Spielcasinoumgebung vor, deren technische Finessen bei der gezielten Ausformung des Spielerverhaltens sie zum Versuchsgelände sowohl für staatliche Sicherheitsdienste als auch für Überwachungskapitalisten gemacht hat:67 Doch mit geeigneter Instrumentierung dürfte es in all diesen Bereichen möglich sein, eingefleischte Praktiken zu verbessern. So könnten – vom Standpunkt des Besitzers aus gesehen – Spieleinrichtungen »verbessert« werden, wenn man Verfahren einführt, die auf einer Basis mit variablem Zeitintervall Gewinne abwerfen – allerdings nur, wenn die Spielrate ungewöhnlich hoch ist.68 Technologien zur behavioristischen Konditionierung sollten sich nicht auf »Geräte« beschränken, sondern auch Organisationssysteme und Prozeduren umfassen, um Verhalten mit bestimmten Zielen auszuformen. 1953 bereits sah Skinner Innovationen voraus wie etwa Michael Jensens Incentive-Systeme zur Maximierung von Shareholder-Value und die »Entscheidungsarchitekturen« der Verhaltensökonomien, die Verhalten auf einen bevorzugten Weg »stupsen« sollen: »Auch Lohnsysteme in der Industrie, Vergütungspläne im Verkauf und in freien Berufen, sowie der Einsatz von Prämien, Leistungszulagen usw., könnten verbessert werden, wenn man vom Standpunkt der Förderung einer maximalen Produktivität ausgeht.«69 Skinner verstand sehr wohl, dass man mit Behavioral Engineering gewisse Empfindlichkeiten und soziale Normen zu verletzen drohte, vor

allem Bedenken hinsichtlich der Privatsphäre. Um diese Ängste zu beschwichtigen, riet er dazu, die Beobachtung so unauffällig wie nur möglich zu gestalten – vorzugsweise außerhalb des Bewusstseins des betreffenden Organismus: »Doch kann Verhalten durchaus auch bei einer minimalen wechselseitigen Beeinflussung zwischen Gegenstand und Wissenschaftler beobachtet werden, und man sollte natürlich versuchen, überhaupt erst bei diesem Ausgangspunkt anzusetzen.«70 Selbstverständlich würden sich auch neue Herausforderungen ergeben. Neue Verhaltenstechnologien würden immer bis an die Grenze zwischen privat und öffentlich gehen, um Zugang zu all den Daten zu bekommen, die für die Verhaltensvorhersage und -kontrolle relevant sind. Damit ahnte er bereits die heutigen Grenzgebiete der Rendition voraus, wo man mit neuen Sondierungssystemen die Tiefen von Persönlichkeiten und Emotionen auslotet: »Doch noch haben wir mit Vorgängen zu tun, die auf der privaten Ebene stattfinden, und die für den Organismus auch ohne instrumentelle Amplifizierung wichtig sind. Wie der Organismus auf diese Vorgänge reagiert, bleibt eine wichtige Frage, auch dann, wenn diese Vorgänge eines Tages jedem zugänglich gemacht werden können.«71 Solche Konflikte, so Skinners Kalkül, ließen sich durch das allmähliche Zurückweichen der Privatsphäre unter dem Vormarsch des Wissens lösen: »Die Grenze zwischen öffentlich und privat ist nicht fest gezogen.« Wie die heutigen Überwachungskapitalisten war er zuversichtlich, dass die unablässige Zunahme des technologischen Arsenals die Privatsphäre nach und nach an den Rand menschlicher Erfahrung drängen würde – zur »Freiheit« und anderen lästigen Illusionen. All dies würde ersetzt durch den Standpunkt des Anderen, der in neuen Instrumenten und Methoden verkörpert war: »Die Grenzen zwischen publik und privat sind nicht fest. Sie verschieben sich mit jeder neuen Entdeckung eines Verfahrens, das private Vorgänge publik macht … Daher läßt sich das Problem der Privatheit schließlich vielleicht durch technische Fortschritte lösen.«72 So gern die Verfechter der Privatsphäre und andere Kritiker des Überwachungskapitalismus auf der Suche nach Sinn und Metaphern für die neuen Gefahren Orwells Vokabular aufgreifen, lässt instrumentäre Macht sich tatsächlich als Antithese zum orwellschen Big Brother begreifen. So richten wir im folgenden und letzten Teil des Kapitels unser Augenmerk auf

diesen scharfen Kontrast, der sich besonders lebhaft in den unterschiedlichen Begriffen von Utopie darstellt, die mit jeder dieser beiden Arten von Macht gekoppelt sind.

Utopia I und II Nach dem Blutbad des Zweiten Weltkriegs begegnete Skinner wie Orwell den durch ein unfassbares Maß von Gewalt getrübten Aussichten der Moderne mit heilenden »Utopien«. Aus der Ferne betrachtet hatten Skinners Walden Two und Orwells 1984 vieles gemein. Beide Romane erarbeiteten ihre Visionen auf der Basis einer bestimmten Logik von Macht; beide stellten sich eine Gesellschaft vor, in der diese Macht zur Blüte gelangt war; vom Standpunkt der geschilderten Macht aus betrachtet, handelte es sich in beiden Fällen um Utopien.73 Ihre Aufnahme in der Öffentlichkeit freilich hätte unterschiedlicher nicht sein können: Walden Two wurde, als dystopischer Alptraum abgetan, von der breiten Öffentlichkeit über ein Jahrzehnt lang so gut wie ignoriert.74 Orwells 1984 dagegen erklärte man als Ausdruck der schlimmsten Befürchtungen des 20. Jahrhunderts auf der Stelle zum dystopischen Meisterwerk. Hinsichtlich Inhalt und Zielsetzung der beiden Romane kam es hier und da zu Irrtümern und Verwechslungen. In einer Titelstory von Time hieß es 1971, Skinners Walden Two beschwöre »das Schreckgespenst einer orwellschen Gesellschaft, die durchaus Realität werden könnte«. Der große Historiker und Literaturkritiker Lewis Mumford beschrieb Walden Two als »totalitäre Utopie« und Schilderung der »Hölle«. Wie wir gleich sehen werden, liegt bei diesen Charakterisierungen, so zäh sie sich auch halten mögen, eine gefährliche Verwechslung vor. Obwohl beide Bücher als Schilderungen totalitärer Systeme verstanden wurden, sind die darin beschriebenen Formen von Macht zutiefst verschieden; sie sind in vieler Hinsicht das genaue Gegenteil voneinander. Meyers Vorstellung von der Moderne fußte auf der wissenschaftlichen Objektivierung menschlicher Erfahrung und ihrer Reduktion auf beobachtbares und messbares Verhalten. Wenn wir dies zum Richtwert nehmen, handelt es sich bei Orwells Utopie um das »Vorher«; als Alptraum

vom vorwissenschaftlichen Zwang zur Beherrschung der Seele geht sie Meyer voraus. Skinners Utopie ist das »Nachher«; sie folgt auf Meyers Neuentwurf der Moderne unter dem Einfluss des großen Physikers Planck. Walden Two baut auf Meyers wissenschaftlicher Betrachtungsweise des Anderen auf und steht für Meyers voll erblühte Hoffnung auf eine durch die Wissenschaft geschaffene weltweite Harmonie der Organismen, in der man die Freiheit notwendigerweise dem Wissen geopfert hat. Orwell hatte die Krankheit diagnostiziert; Skinner behauptete, das Mittel dagegen zu haben. Die totalitäre Herrschaft, wie 1984 sie schildert, ist etwas ganz und gar Beispielloses; im 20. Jahrhundert aus der Kollision von Industrialismus und Verzweiflung geboren, ist sie eine in der Menschheitsgeschichte ganz und gar neue Form. Orwells Werk war mehr als die Fiktionalisierung seiner Extrapolation des totalitären Projekts. Indem er eine erschreckende Linie von Deutschlands jüngster Vergangenheit über die gegenwärtige Sowjetunion in eine zwar gedachte, aber nur allzu mögliche Zukunft zog, läutete Orwell Sturm. Und sein Geniestreich bestand darin, das Wesen des Totalitarismus zu inszenieren: das skrupellose Bestehen auf die absolute Inbesitznahme des Einzelnen nicht nur als fernen, nur über sein Verhalten bekannten Anderen, sondern von innen heraus. Die Wachsamkeit von Big Brother beschränkt sich nicht auf gewaltige Heere, Staatskunst oder fassbare Massen; Big Brother ist ein panvasives Bewusstsein, das jede einzelne Seele infiziert und in Besitz nimmt und alle herkömmlichen Bindungen, seien sie nun auf Liebe oder Freundschaft gebaut, ersetzt. Das Wesen seiner Operation besteht nicht einfach darin, jeden Gedanken, jedes Gefühl zu kennen, sondern in der skrupellosen Verbissenheit, mit der es innere Erfahrung für verderblich erklärt und sie auszumerzen und zu ersetzen versucht. »Wir geben uns nicht zufrieden mit negativem Gehorsam, auch nicht mit der kriecherischsten Unterwerfung«, erklärt der durchtriebene Handlanger O’Brien dem aufmüpfigen Winston Smith: Wir zermalmen Sie bis zu dem Punkt, von dem es kein Zurück mehr gibt … Wenn Sie sich uns am Schluss beugen, so muss es freiwillig geschehen. Wir vernichten den Ketzer nicht, weil er uns Widerstand leistet: solange er uns Widerstand leistet, vernichten wir ihn niemals. Wir bekehren ihn, bemächtigen uns seiner geheimsten Gedanken,

formen ihn um … wir ziehen ihn auf unsere Seite, nicht nur dem Anschein nach, sondern tatsächlich, mit Herz und Seele. Wir machen ihn zu einem der Unsrigen, ehe wir ihn töten.75 Wie jeder Leser weiß, gelingt dem Regime das »Engineering« von Winstons bockbeiniger Seele letztendlich doch. In Orwells beunruhigenden Schlusspassagen schließt sich der Lebenskreis des trockenen Saatkorns, das – um die Jahrhundertwende in Italiens verarmte Krume geworfen und durch Krieg, Not und Erniedrigung unter Hitlers und Stalins Alptraumregimen zur Blüte gebracht – nun die Früchte von Orwells Phantasie tragen darf. 1984 ist für alle Zeiten ein Testament dessen, was Mussolini als den »unerbittlichen totalitären Willen« bezeichnete, und der Seelen, von denen sich dieser Wille nährt. Winston schwelgt in gelöster Heiterkeit, »seine Seele schneeweiß … Er hatte den Sieg über sich selbst errungen. Er liebte den Großen Bruder.«76 Im Gegensatz zu 1984 war Walden Two nicht als Warnung intendiert, sondern vielmehr als Mittel gegen den Totalitarismus und, im weiteren Sinne, als praktisches Rezept für die Herausforderungen des Wiederaufbaus der westlichen Gesellschaften nach dem Krieg. Nicht nur verstand Skinner sein Utopia als methodologisches Wundermittel gegen den Alptraum zerstörter Seelen, er bestand auch auf dessen Überlegenheit gegenüber allen konventionellen politischen, ökonomischen oder spirituellen Mitteln. Für die Auffassung von der »Demokratie« als Lösung hatte er nichts als Spott; für ihn war sie ein politisches System, das für die Illusion von Freiheit sorgte und dabei der Herrschaft der Wissenschaft im Wege stand. Das Versprechen des »freien Markts« als Kur für die Nachkriegsgesellschaft war seiner Ansicht nach ein nicht weniger leerer Traum, weil er dem destruktiven Wettbewerb zwischen Einzelnen und Klassen Vorschub leiste. Den neuen Humanismus der Existentialisten verwarf er als Brutstätte der Passivität; und das schlechteste aller Heilmittel war ihm die Religion, denn sie lähme nur den Fortschritt der Wissenschaft und baue der Ignoranz einen Schrein. Skinners Heilmittel war nicht nur anders-, sondern einzigartig: ein ganz und gar technisch ausgerichtetes Utopia, das Versprechen einer Zukunft sozialer Gleichheit und leidenschaftsloser Harmonie; Methode und Weg dorthin war die wissenschaftliche Betrachtung des Anderen – des

»Organismus unter Organismen« – als Objekt der »Verhaltenstechnologie«. Skinner schuf damit die von Meyer erträumte Zukunft, in der sein freimütiger Stellvertreter Frazier, Gründer und Oberhaupt des fiktiven Walden Two, die ideale Gemeinschaft als »Super-Organismus« beschreibt, der »so reibungslos und effizient wie eine Spitzenmannschaft im Fußball« geformt und kontrolliert werden könne.77 Skinners Utopia sollte die Möglichkeit einer erfolgreichen Gesellschaftsordnung illustrieren, die den Einsatz von Gewalt transzendiert und die Notwendigkeit der Herrschaft über die menschliche Seele verwirft. Die Gemeinschaft von Walden Two hat nichts als Geringschätzung für demokratische Praktiken und parlamentarische Formen übrig. Ihre Gesetze leiten sich aus einer Wissenschaft vom menschlichen Verhalten ab, insbesondere Skinners eigenem radikalen Behaviorismus, der sich auf das Ideal des Physikers vom Anderen gründete. Darüber hinaus war Skinners Utopia ein Vehikel für weitere Ambitionen, insofern es behavioristische Lösungen zur Verbesserung praktisch aller Bereiche modernen Lebens bot: die nukleare Gefahr, Verschmutzung, Bevölkerungskontrolle, Verstädterung, ökonomische Ungleichheit, Kriminalität, Bildung, Gesundheitsversorgung, Entwicklung des Einzelnen, effektive Freizeitgestaltung. Es zielte ganz auf die Kultivierung eines »guten Lebens«, zugunsten dessen es alle Ideale einer liberalen Gesellschaft – Freiheit, Autonomie, Privatsphäre, Recht auf Selbstbestimmung – aufzugeben galt. Walden Two als Fiktion zu präsentieren, gab Skinner die Möglichkeit, von Meyers methodologischen Überlegungen und seiner eigenen Arbeit mit Tieren auf eine utopische Gemeinschaft zu schließen, in der Verhalten den menschlichen Geist als Lokus der Kontrolle ersetzt. Frazier beklagt, dass Menschen »nicht durch Gewalt von außen in Schach gehalten, sondern viel subtiler durch eine Art Glaubenssystem, das ihnen eingeimpft wurde. Es ist manchmal eine fast hoffnungslose Aufgabe, ihre Seelen von diesen Fesseln zu befreien, aber es ist möglich … Man kann Glück nicht erzwingen. Auf die Dauer kann man überhaupt nichts erzwingen. Wir wenden keinen Zwang an! Alles, was wir brauchen, ist eine angemessene Verhaltenssteuerung.«78

Die beiden Utopien reflektieren zwei unterschiedliche Arten von Macht, die beide danach trachten, die Zukunft von den Alpträumen zu erlösen, die das 20. Jahrhundert der menschlichen Seele bescherte. Orwell konnte dabei auf die jüngste Vergangenheit zurückgreifen; Skinner dagegen stellte sich eine Zukunft vor, die er mit Sicherheit nicht mehr erlebt hätte. Wenn Überwachungskapitalismus und instrumentäre Macht weiterhin so gedeihen wie bisher, dann werden aber wir die Vision von Walden Two sehr wohl erleben, wenn unsere Freiheit dem Wissen anderer weicht – heute eben im Dienste von anderer Leute Profit. Was Skinners Vision heute zum Leben erweckt, ist die unbeirrbare Jagd nach den ökonomischen Imperativen des Überwachungskapitalismus und des allgegenwärtigen digitalen Apparats, den er aufbaut und vor den Karren seiner neuartigen Ziele spannt. Instrumentäre Macht biegt sich den neuen allgegenwärtigen, autonomen, wahrnehmungsfähigen und aktuierenden digitalen Apparat im Sinne des überwachungskapitalistischen Projekts zurecht und erfüllt damit Skinners Ruf nach den »Instrumenten und Methoden« einer »Technologie des Verhaltens, die in ihrer Wirksamkeit und Präzision der physikalischen und biologischen Technologie vergleichbar« ist. Ergebnis ist ein panvasives Mittel zur Verhaltensmodifikation, deren Größen- bzw. Massenvorteile auf die Maximierung von Überwachungserträgen zielen. Vor dem Aufstieg des Überwachungskapitalismus gehörte die Aussicht auf instrumentäre Macht ins Nebelreich der Träume und Wahnideen. Diese neue Art von Macht folgt der Logik von Planck, Meyer und Skinner hinsichtlich der Aufgabe der Freiheit zugunsten des Wissens; was diese Wissenschaftler jedoch nicht ahnen konnten, waren die tatsächlichen Bedingungen dieser Kapitulation: Das Wissen, dem heute unsere Freiheit weicht, ist proprietär; das Wissen gehört denen, während die verlorene Freiheit allein uns gehört. Nachdem wir ihre Genese geklärt haben, widmen wir uns im nächsten Kapitel 13 eingehend der instrumentären Macht und der eklatanten neuen Asymmetrie, die sie der menschlichen Gemeinschaft aufzwingt: Das Wissen, dem wir unsere Freiheit opfern, wird allein zur Förderung der geschäftlichen Interessen der Überwachungskapitalisten zusammengetragen; uns nützt es nicht. Das ist eine scharfe Abweichung von den technischen Ursprüngen des Apparats in Mackays Prinzipien der

Telemetrie, die die Freiheit von Tieren gegen wissenschaftliche Erkenntnisse tauschte, die zum Nutzen der Tiere selbst gedacht waren. Stattdessen stehen dem überwachungskapitalistischen Marktregime endlich die Instrumente und Methoden zur Verfügung, die Skinners Verhaltenstechnologie allen Bereichen des Alltagslebens aufzwingen können – bis hinab in unsere persönlichen Tiefen, in denen das Kapital heute sein globales Laboratorium sieht.

Kapitel 13 Big Other und der Aufstieg der Instrumentären Macht Er war ihr Diener (vielleicht war er blind?), ging um zwischen Gesichtern, unter Dingen: ihr Fühlen überfiel ihn wie ein Wind und sang. Man rief »Hört ihr den Gott nicht singen« – W. H. Auden, Sonette aus China, VII

Eine neue Art Macht Der Überwachungskapitalismus ist der Puppenspieler, der uns durch das Medium des allgegenwärtigen digitalen Apparats seinen Willen aufzwingt. Ich bezeichne diesen Apparat als Big Other – das Große Andere. Ich verstehe darunter die wahrnehmungsfähige, rechnergestützte und vernetzte Marionette, die das menschliche Verhalten rendert, überwacht, berechnet und modifiziert. Big Other kombiniert diese Funktionen des Wissens und Tuns zu einem ebenso umfassenden wie beispiellosen Mittel zur Verhaltensmodifikation. Dirigiert wird die ökonomische Logik des Überwachungskapitalismus durch die immensen Fähigkeiten von Big Other zur Schaffung von instrumentärer Macht, die die Manipulation der Seele durch die Verhaltensmodifikation ersetzt. Instrumentäre Macht kultiviert eine ungewöhnliche »Art zu wissen«, die die »formale Gleichgültigkeit« der neoliberalen Weltsicht mit der beobachtenden Perspektive des radikalen Behaviorismus kombiniert. Dank der Fähigkeiten des Großen Anderen reduziert instrumentäre Macht die

menschliche Erfahrung auf beobachtbares und messbares Verhalten, dessen Sinn und Bedeutung ihr dabei jedoch völlig gleichgültig bleibt. Ich bezeichne die neue Art des Wissens als radikale Gleichgültigkeit. Es handelt sich dabei um eine Art der Beobachtung ohne Zeugen, deren Kehrseite eine gewaltsame politische Religion enthüllt und die unter einem ganz und gar anders gearteten, verheerenden Vorzeichen steht: der distanzierten, abstrahierten Verachtung auf Seiten unergründlich komplexer Systeme und der Interessen, die hinter diesen Interessen stehen. Sie trägt den Einzelnen in einem reißenden Strom der Erfüllung anderer Menschen Ziele entgegen. Was immer dabei als soziale Beziehung und ökonomischer Austausch gilt, wird vermittelt durch diesen roboterisierten Schleier der Abstraktion. Operationalisiert wird die radikale Gleichgültigkeit des Instrumentarismus durch die entmenschlichten Auswertungsmethoden, die Gleichwertigkeit ohne Gleichberechtigung produzieren. All dem zum Trotz, was uns voneinander unterscheidet, reduzieren diese Methoden uns auf den kleinsten gemeinsamen Nenner der Gleichheit – auf den Stellenwert von Organismen unter Organismen. Für Big Other sind wir nichts weiter als das Andere. Big Other kodiert die Betrachtung des Anderen als globale Präsenz. Es gibt hier keinerlei Bruder, weder groß noch klein, weder gut noch böse, ebenso wenig wie es überhaupt Familienbande gibt. Es gibt keinerlei Beziehung zwischen Big Other und seinen anderisierten Objekten; ebenso wenig wie es eine Beziehung zwischen B. F. Skinners Wissenschaftler und dessen Gegenstand der Betrachtung gibt. Es gibt keine Herrschaft über die Seele, die jegliche Intimität und Bindung durch den Terror ersetzt – es ist weit vorteilhafter, die Entfaltung einer Vielzahl von Beziehungen zuzulassen. Big Other ist es egal, was wir denken, fühlen oder tun, solange seine Millionen, Milliarden und Billionen wahrnehmungsfähiger, aktuierender rechnergestützter Augen und Ohren das immense Reservoir an Verhaltensüberschuss beobachten, rendern, verdaten und instrumentalisieren, die der ungeheure Tumult von Konnektivität und Kommunikation generiert. Unter diesem neuen Regime ist Objektivierung das moralische Milieu, in dem unser Leben sich entfaltet. Allen Fertigkeiten von Big Other im Imitieren von Intimität durch die unermüdliche Hingabe an die Große Stimme zum Trotz – denken Sie an Alexas süßliche Dienstfertigkeit oder

die pausenlosen Erinnerungen und das unerschöpfliche Wissen von Googles Assistant –, machen Sie nicht den Fehler, in diesen einlullenden Klängen irgendetwas anderes zu sehen als die Ausbeutung Ihrer Bedürfnisse. Ich denke hier an das ungeheuerliche Abschlachten des majestätischen Elefanten um seines Elfenbeins willen: Big Other jagt unser Verhalten des Überschusses wegen und lässt jegliche Bedeutung in unserem Körper, unserem Hirn, unserem pochenden Herzen zurück. Vergessen Sie das Klischee »Wenn es nichts kostet, sind Sie das Produkt«. Sie sind keineswegs das Produkt, Sie sind der Kadaver, der liegen bleibt. Das »Produkt« ergibt sich aus dem Überschuss, den man Ihrem Leben entreißt. Big Other ermöglicht endlich die universelle Verhaltenstechnologie, die B. F. Skinner, Stuart Mackay, Mark Weiser und Joe Paradiso zufolge ihre Ziele unbemerkt, aber beharrlich zu verfolgen hat; die Methoden, mit denen sie vorsätzlich unser Bewusstsein umgeht, gehen bis zur Unsichtbarkeit in der Welt der Dinge rund um uns auf. Denken Sie an den Aufruhr, für den Eric Schmidt 2015 sorgte, als er in Beantwortung einer Frage nach der Zukunft des Webs sagte: »Das Internet wird verschwinden.« Was er wirklich meinte war: »Das Internet wird in Big Other aufgehen.« Mithilfe der Fähigkeiten von Big Other zielt instrumentäre Macht ab auf eine auf »garantierten Ergebnissen« gebaute Welt der Gewissheit ohne Terror. Und da instrumentäre Macht nicht im Namen eines grotesken Regimes unter Androhung von Folter und Mord unsere Körper fordert, lassen wir in Unterschätzung ihrer Folgen unsere Deckung fallen. Statt Folter, Mord, Umerziehung oder Bekehrung verbannt der Instrumentarismus uns aus unserem eigenen Verhalten. Er trennt unser Inneres von unserem Äußeren, scheidet unsere Subjektivität wie unsere Innerlichkeit von dem, was wir beobachtbar tun. Durch die Vernachlässigung des menschlichen Verstands verleiht er der behavioristischen Hypothese von dessen Schwäche Glaubwürdigkeit, da anderisiertes Verhalten ein Eigenleben annimmt, das unsere Zukunft den Zielen und Interessen des Überwachungskapitalismus anheimgibt. In einem instrumentären Utopia stimuliert Big Other den Vortex der Stimuli, sodass die »natürliche Auslese« zu einer von den Playern des Markts und vom Wettbewerb um Überwachungserträge geschaffenen »unnatürlichen Auslese« wird. Wir mögen Big Other für den behavioristischen Gott des Vortex halten, aber nur weil er so effektiv die

überwachungskapitalistischen Machenschaften, den Zauberer von Oz hinter dem digitalen Vorhang zu verbergen versteht. Die verführerische sanfte Stimme auf der anderen Seite des Schleiers – Google, bist du das? – stupst uns sachte in Richtung eines maximalen Verhaltensüberschusses, der die größtmögliche Annäherung an die Gewissheit garantiert. Es wäre fatal, in diesem Dämmerzustand einzuschlafen, stehen doch hinter der wissenden Stimme die Ziele und Regeln eben des Ortes, dessen kommerzialisierten Ritualen von Wettbewerb, Verachtung und Demütigung wir einst zu entkommen hofften. Nur ein falscher Schritt, eine Abweichung vom Weg der naht- und reibungslosen Vorhersagbarkeit, und dieselbe Stimme wird im Handumdrehen eiskalt Ihrem Wagen die Starterlaubnis entziehen. Unter dem Regime instrumentärer Macht werden unsere geistige Handlungsfähigkeit allmählich ebenso wie unser Recht auf die Zukunft in einer neuen Art von Automatisierung ertrinken: einer gelebten Erfahrung von Reiz, Reaktion und Verstärkung, die nur noch als das aggregierte Kommen und Gehen von Organismen zählen. Unsere Konformität ist für den Erfolg des Instrumentarismus nicht von Belang. Die Unterwerfung der Massen unter gesellschaftliche Normen ist nicht mehr nötig; das Selbst braucht sich nicht mehr unter der Androhung von Zwangsmaßnahmen im Kollektiv zu verlieren; die Gruppe winkt nicht mehr mit der Zugehörigkeit als Belohnung dafür, dass man sich ihr beugt. All das wird abgelöst durch eine digitale Ordnung, die in Dingen und Körpern gedeiht, die Willensäußerung durch behavioristische Verstärkung ersetzt und Handeln durch konditionierte Reaktion. Auf diese Weise produziert instrumentäre Macht unter fortwährender Erneuerung der Herrschaft des Überwachungskapitalismus über die Wissensteilung unaufhörlich auflaufendes Wissen für Überwachungskapitalisten und unaufhörlich schwindende Freiheit für uns. Falsches Bewusstsein entsteht nicht länger durch verborgene Zusammenhänge zwischen Klasse und Produktion, sondern durch verborgene Zusammenhänge zwischen instrumentärer Herrschaft über die Wissensteilung in der Gesellschaft und dem Recht auf eine Antwort auf die wesentlichen Fragen: Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet? Während Macht einst mit dem Besitz der Produktionsmittel gleichgesetzt wurde, muss man sie heute mit dem Besitz der

Verhaltensmodifikationsmittel gleichsetzen, durch den Big Other sich definiert. Zwei Arten von Macht Vergleichselemente

Totalitarismus

Instrumentarismus

Zentrale Metapher

Big Brother

Big Other

Totalistische Vision

Totale Inbesitznahme

Totale Gewissheit

Transzendenter Sinn und Zweck

Perfektion der durch Rasse bzw. Klasse definierten Gesellschaft / Spezies

Automatisierung von Markt /  Gesellschaft um der Gewissheit garantierter Ergebnisse willen

Lokus der Macht

Kontrolle der Gewaltmittel

Kontrolle der Wissensteilung in der Gesellschaft

Machtmittel

Hierarchische Verwaltung des Terrors

Besitz der Verhaltensmodifikationsmittel

Grundmechanismen

Willkürlicher Terror; Mord

Enteignung von Verhaltensüberschuss zur Berechnung, Steuerung, Vorhersage

Theorie und Praxis

Theorie legitimiert Praxis

Praxis verhüllt Theorie

Art von Ideologie

Politische Religion

Radikale Indifferenz

Soziale Strategien

Atomisierung und Spaltung; absolute Gläubige oder absolute Feinde

Anderisierung vorhersagbarer / berechenbarer Organismen

Soziale Kernprozesse

In-Gruppe, Out-Gruppe für Konformität und Gehorsam

Schwarmhirn; sozialer Vergleich für Konfluenz und Vorhersagbarkeit

Soziale Produktionseinheit

Masse (politisch)

Population (statistisch)

Vektor sozialen Einflusses

»Umerziehung« Kontrolle wirkt von innen nach außen

Verhaltensmodifikation Kontrolle wirkt von außen nach Innen

Soziale Modellierung

Radikale Isolation

Radikales Verbundensein

Forderungen an den Einzelnen

Absolute Loyalität durch Unterordnung unter den Staat /  die Spezies

Absolute Transparenz durch Unterordnung an garantierte Ergebnisse

Zwei Arten von Macht Vergleichselemente

Totalitarismus

Instrumentarismus

Primäre Quelle individueller Bindung an die Macht

Blockierte Identität

Blockierte Effektivität

Primäre Form individueller Bindung an die Macht

Identifikation

Abhängigkeit

Ein Marktprojekt der totalen Gewissheit Mit Big Other und der instrumentären Macht, die Big Other ermöglicht, erfüllt sich Skinners Vision für die Menschheit. Bereits 1948 hatte er in Walden Two seine Sehnsucht nach rechnergestützten neuen Messmöglichkeiten zum Ausdruck gebracht, mit denen er die Geheimnisse des Vortex der Stimuli zu enträtseln und die Akte der Unwissenheit auszuleuchten hoffte, die wir seiner Ansicht nach törichterweise als freien Willen interpretieren. »Ich habe nicht behauptet, dass Verhalten immer vorhersagbar ist, ebenso wenig wie das Wetter«, sagt Frazier, der Protagonist des Romans. »Es spielen meist zu viele Faktoren mit. Wir können sie nicht alle exakt messen, und wenn wir die Messgeräte dazu hätten, könnten wir die mathematischen Berechnungen nicht durchführen, die zu einer Vorhersage nötig sind.«1 Es sollte Skinners Schicksal sein, die Möglichkeit instrumentärer Macht und ihre Operationalisierung in Big Other vorauszusehen, bevor man die Werkzeuge zur Umsetzung seiner Vision erfand. Sein Labor war immer eine Phantasiewelt gewesen, in der er Innovationen für seine behavioristischen Experimente ersann: Labyrinthe und Boxen zur Konditionierung von Tieren, Messwerkzeuge und Aufzeichnungsgeräte. Eine wirklich funktionstüchtige Verhaltenstechnologie war der Preis, der ihm zeitlebens versagt bleiben sollte, eine Quelle der Frustration, die bis an sein Lebensende in jedem seiner Vorträge, in jedem Artikel spürbar war. So zuversichtlich er war, dass die Wissenschaft früher oder später die praktischen Herausforderungen der Verhaltenstechnologie überwinden würde, so beunruhigend fand er den Widerstand gegen die

wissenschaftliche Arbeit zur Vorhersage und Kontrolle menschlichen Verhaltens auf der Basis einer Betrachtung des Anderen. Ihn ärgerte das sture Festhalten seiner Mitmenschen an den freiheitlichen Werten und Idealen der Philosophen des 18. Jahrhunderts ebenso, wie er das existentialistische Projekt der Nachkriegsphilosophie verachtete, das die Sehnsüchte der Zweiten Moderne mit Werten wie Authentizität, freier Wille und autonomes Handeln versah. In seinem vorletzten Essay bedauerte er 1990, knapp drei Jahre vor seinem Tod, die Aussichten der Verhaltensvorhersage als Fundament einer neuen Gesellschaft, die auf wissenschaftliche Gewissheit gebaut war: »Die Ansicht, eine Person sei lediglich ein Ort, in dem etwas passiert, scheint gar noch bedrohlicher, wenn sie die Frage aufwirft, was wir aller Wahrscheinlichkeit nach tun werden, anstatt was wir getan haben.«2 In seinen letzten Jahren schien er sich eher abgefunden zu haben mit dem Sand im Getriebe, will sagen der Hartnäckigkeit des Widerstands und dem sturen Beharren des Menschen auf so etwas wie einen freien Willen, jedenfalls äußerte er sich weniger unerhört und aggressiv als der Autor von Jenseits von Freiheit und Würde zwei Jahrzehnte zuvor. Zorn und Verachtung waren der Müdigkeit und Resignation seiner letzten Reflexionen gewichen. Man könnte dies als entmutigende Ansicht über das menschliche Verhalten bezeichnen und behaupten, dass wir eher etwas an der Zukunft ändern, wenn wir an dem Glauben festhalten, dass unser Schicksal in unseren Händen liegt. Immerhin hat dieser Glaube sich über Jahrhunderte hinweg gehalten und zu bemerkenswerten Leistungen geführt, aber die Leistungen sind immer nur die unmittelbaren Konsequenzen unseres Tuns. Wir wissen heute, dass sich daraus andere Konsequenzen ergeben haben und dass diese unsere Zukunft bedrohen. Was wir mit unserem Schicksal gemacht haben, ist womöglich nicht das Testament, das wir der Welt hinterlassen wollen.3 In unserer Zeit des überwachungstechnischen Ausnahmezustands, in der Erstaunen der Hilflosigkeit und Resignation weicht, scheint der Widerstand, den Skinner beklagte, schwächer zu werden. Der Glaube, wir seien die Herren unseres Schicksals, ist unter Beschuss geraten, und der Traum von

einer Technologie zur Vorhersage und Kontrolle von Verhalten – für den man Skinner so viel Hohn entgegenbrachte – ist in einer dramatischen Wende nicht nur wahr geworden, er hat Konjunktur. Die Aussicht auf den Preis hat ungeheures Kapital angezogen, menschliches Genie, wissenschaftliche Arbeit, staatlichen Schutz, Ökosysteme der Institutionalisierung – zu schweigen von dem Glamour, der seit jeher mit der Macht einhergeht. Der Aufstieg des Instrumentarismus folgt dem Weg »erhellender Ereignisse«, in denen sich uns Hannah Arendt zufolge »ein bis dahin verborgener Anfang in der Vergangenheit«4 enthüllt. Es liegt in der Natur instrumentärer Macht, verstohlen aus der Ferne zu wirken. Sie wächst nicht durch Terror, Mord, Massaker, Vertreibung oder die Aufhebung demokratischer Institutionen. Sie wächst stattdessen kraft Deklaration, Selbstermächtigung, rhetorischer Irreführung, Euphemismen und ebenso dreister wie stiller Operationen hinter den Kulissen, mit denen sie sich vorsätzlich unserem Bewusstsein entzieht, während sie die Freiheit des Einzelnen durch das Wissen anderer und die Gesellschaft durch Gewissheit ersetzt. Sie stellt sich der Demokratie nicht entgegen, sondern untergräbt sie von innen heraus, höhlt die Fähigkeiten des Menschen ebenso aus wie sein Selbstverständnis und damit die Voraussetzungen für ein demokratisches Leben an sich. Die Narrative von Facebooks experimentellen Manövern, Pokémon Gos Prototyp einer von Verhaltensterminkontraktmärkten dominierten Gesellschaft, Under Armours Abrutschen in die Enteignung aus Habgier und die zahllosen Beispiele digitaler Innovation, die dem Credo der Überwachung zum Opfer gefallen sind, sind womöglich alles, was wir an öffentlichen Belegen für einen geschichtserhellenden Wandel haben, der das Leben, wie wir es bisher gekannt haben, auf immer verändern wird. Gewalt ist hier nicht im Spiel, es wirkt vielmehr die stete Substitution des Willens zum Wollen, der sich in der Selbstbestimmung verkörpert, der seinen Ausdruck in der Stimme der ersten Person gefunden hat und genau die Art von Freistatt hat nähren können, die von der Möglichkeit eines Privatlebens und des Versprechens öffentlicher Freiheit abhängig ist. Instrumentäre Macht ist, wie Goethes Faust, moralisch agnostisch; ihr einziger moralischer Imperativ ist das dünne Destillat einer vagen,

utopischen Sicht. Wenn es eine Sünde gibt, dann ist es die Sünde der Autonomie: die Dreistigkeit, sich den Herden zu verweigern, in denen man uns in Richtung Vorhersagbarkeit treibt. Für Sand im Getriebe zu sorgen, ist die letzte große Sünde. Der Versuch der Vereitelung durch Gesetz, Tat oder Rhetorik gilt schlicht als reaktionär. Die Norm ist die Unterwerfung unter angeblich eherne Gesetze technologischer Unvermeidlichkeit, die keine Behinderung dulden. Es gilt als vernünftig, zu kapitulieren und sich der neuen Annehmlichkeiten und Harmonien zu erfreuen, sich in den Ersten Text zu ergeben und seinen gewalttätigen Schatten zu ignorieren. Der Totalitarismus war die Transformation des Staats zu einem Projekt der totalen Inbesitznahme; Instrumentarismus und Big Other signalisieren die Transformation des Markts in ein Projekt totaler Gewissheit, ein Unterfangen, das außerhalb des digitalen Milieus ebenso unvorstellbar ist wie außerhalb der Akkumulationslogik, die der Überwachungskapitalismus im Grunde seines Wesens ist. Diese neue Macht ist die Ausgeburt eines beispiellosen Zusammentreffens: der Überwachungs- und Aktuierungsfähigkeiten von Big Other einerseits und andererseits der Entdeckung und Monetarisierung von Verhaltensüberschuss. Einzig im Kontext dieses Zusammentreffens lassen sich ökonomische Prinzipien denken, die menschliche Erfahrung um der systematischen und vorhersagbaren Ausformung von Verhalten und der profitablen Ziele anderer willen instrumentalisieren und kontrollieren. Instrumentäre Macht operiert vom Standpunkt der Betrachtung des Anderen aus, der Menschen auf das bloße animalische, jeder reflektierenden Bedeutung beraubte Verhalten reduziert. Er sieht nur Organismen, die darauf abzielen, den neuen Gesetzen des Kapitals zu dienen, die man jetzt jeglichem Verhalten aufzwingen will. Hannah Arendt hat sich dieser Themen vor Jahrzehnten schon mit großem Weitblick angenommen, als sie die Übertragung unserer Vorstellung von »Denken« auf etwas beklagte, was von einem »Gehirn« zu bewerkstelligen und damit auf »elektronische Instrumente« zu übertragen sei: In ihrem letzten Stadium verwandelt sich die Arbeitsgesellschaft in eine Gesellschaft von Jobholders, und diese verlangt von denen, die ihr zugehören, kaum mehr als ein automatisches Funktionieren, als sei das

Leben des Einzelnen bereits völlig untergetaucht in den Strom des Lebensprozesses, der die Gattung beherrscht, und als bestehe die einzige aktive, individuelle Entscheidung nur noch darin, sich selbst gleichsam loszulassen, seine Individualität aufzugeben, bzw. die Empfindungen zu betäuben, welche noch die Mühe und Not des Lebens registrieren, um dann völlig »beruhigt« desto besser und reibungsloser »funktionieren« zu können. Das Beunruhigende an den modernen Theorien des Behaviorismus ist nicht, daß sie nicht stimmen, sondern daß sie im Gegenteil sich als nur zu richtig erweisen könnten, daß sie vielleicht nur in theoretisch verabsolutierender Form beschreiben, was in der modernen Gesellschaft wirklich vorgeht. Es ist durchaus denkbar, daß die Neuzeit, die mit einer so unerhörten und unerhört vielversprechenden Aktivierung aller menschlichen Vermögen und Tätigkeiten begonnen hat, schließlich in der tödlichsten, sterilsten Passivität enden wird, die die Geschichte je gekannt hat.5 Soll das unsere Heimat werden – die Automatisierung des Selbst als Vorbedingung für die Automatisierung der Gesellschaft, und das alles um anderer garantierter Ergebnisse willen?

Der Fluch dieses Jahrhunderts Ausgangspunkt für unsere Beschäftigung mit dieser Frage sollen Hannah Arendts »Schlußbemerkungen« in der ersten Ausgabe der Elemente und Ursprünge totaler Herrschaft sein, die mir nicht mehr aus dem Kopf gegangen sind, seit ich sie vor vielen Jahren gelesen habe. Sie schrieb sie zu einer Zeit, in der der Totalitarismus in Europa besiegt, aber in Stalins Sowjetunion noch sehr lebendig war. Es war eine Zeit, in der die Welt sich weitgehend einig war in dem Bedürfnis, zu verstehen und sich zu erinnern, nicht nur als Testament, sondern auch als Impfstoff gegen künftige Schrecken. Arendts Reflexionen bringen nicht nur die »Vergeblichkeit« und die »Lächerlichkeit« des Totalitarismus auf den Punkt, sondern auch ihr Gespür für die »beunruhigende Relevanz totalitärer Regime«. Warnend

wies sie darauf hin, dass der Totalitarismus nicht als zufällige Wendung zur Tragödie abzutun, sondern vielmehr als »zutiefst mit der Krise dieses Jahrhunderts verbunden« zu sehen sei. »Tatsache ist«, so ihr Schluss, »dass die wahren Probleme unserer Zeit nicht verstanden, geschweige denn gelöst werden können ohne das Eingeständnis, dass der Totalitarismus nur zum Fluch dieses Jahrhunderts geworden ist, weil er sich auf so entsetzliche Weise seiner Probleme angenommen hat.«6 Stellen Sie sich vor, dass heute – einige Jahrzehnte später – ein anderer Denker über die »beunruhigende Relevanz« instrumentärer Macht reflektierend sagt, »die wahren Probleme unserer Zeit können nicht verstanden, geschweige denn gelöst werden ohne das Eingeständnis, dass der Instrumentarismus nur zum Fluch dieses Jahrhunderts geworden ist, weil er sich auf so entsetzliche Weise seiner Probleme angenommen hat«. Welcher Probleme? Meiner Argumentation zufolge nähren der Überwachungskapitalismus und seine instrumentäre Macht sich von den brisanten »Lebensbedingungen«, die ich unter dem Begriff »Kollision« zusammengefasst habe. Der Überwachungskapitalismus bietet dem Einzelnen Lösungen in Form von sozialem Verbundensein, Zugang zu Informationen, zeitsparenden Annehmlichkeiten und der Illusion von Unterstützung. Es sind dies die Ressourcen des Ersten Texts. Wichtiger noch: Er bietet Lösungen für Institutionen in Form von Allwissenheit, Kontrolle und Gewissheit. Der Gedanke dahinter ist nicht etwa, der Instabilität zu begegnen – der Korrosion sozialen Vertrauens, des Verlusts der Gegenseitigkeit, der extremen Ungleichheit und der Ausgrenzung –, nein, es geht hier vielmehr um die Ausbeutung der Schwächen, die durch diese Bedingungen entstehen. Es lohnt sich hier anzumerken, dass das soziale Vertrauen in den USA trotz der vielgepriesenen sozialen Vorteile ständiger Konnektivität im selben Zeitraum, in dem der Überwachungskapitalismus zur Blüte gelangte, rapide abnahm. Den ständigen Messungen »zwischenmenschlichen Vertrauens« des US General Social Survey zufolge blieb der Prozentsatz der Amerikaner, die der Ansicht sind, »dass man den meisten Leuten vertrauen kann«, zwischen 1972 und 1985 relativ stabil; 1972 hatten 46 % der Amerikaner großes Vertrauen zu ihren Mitmenschen, 1985 waren es fast 50 %. Als die neoliberalen Ideen zu greifen begannen, ging dieser

Prozentsatz bis 1995 stetig auf 34 % zurück. Das war das Jahr, in dem das Internet für die Öffentlichkeit zugänglich wurde. Von Ende der 1990erJahre an bis 2014 ging diese Zahl weiterhin stetig auf 30 % zurück.7 Gesellschaften mit niedrigem zwischenmenschlichem Vertrauensniveau neigen außerdem zu geringem Vertrauen gegenüber legitimer Autorität. Und tatsächlich ist das Vertrauen gegenüber dem Staat in den USA ebenfalls erheblich zurückgegangen, vor allem in den anderthalb Jahrzehnten anwachsender Konnektivität, die von der Ausbreitung des Überwachungskapitalismus begleitet waren. 1958 gaben mehr als 75 % der Amerikaner an, dass sie dem Staat in der Regel vertrauen; 1985 waren das nur noch 45 %, 2015 gerade mal 20 %; bis 2017 sank diese Zahl noch einmal um zwei Prozentpunkte auf 18 %.8 Soziales Vertrauen ist eng verbunden mit der friedlichen kollektiven Entscheidung und bürgerlichem Engagement. Fehlt es daran, geht auch die Autorität gemeinsamer Werte und gegenseitiger Verpflichtungen verloren. Die Leere, die so entsteht, ist ein schrilles Warnsignal für die Verwundbarkeit einer Gesellschaft. Ratlosigkeit, Ungewissheit und Misstrauen ermöglichen es der Macht, diese Leere zu füllen; ja, sie laden sie geradezu dazu ein. Im Zeitalter des Überwachungskapitalismus ist es die instrumentäre Macht, die diese Leere füllt. Und da sie die sozialen Beziehungen durch Maschinen ersetzt, kommt das dem Ersatz der Gesellschaft durch Gewissheit gleich. In dieser gedachten Lebensgemeinschaft wird die Freiheit dem Wissen anderer geopfert, was nur mit den Ressourcen des Schattentexts möglich ist. Wegbereiter dieser ambitionierten Reformation sowohl des Gemeinschaftslebens als auch der individuellen Erfahrung waren zwar die privaten Institutionen des Kapitals, aber sie hatten dabei die nötige Rückendeckung seitens des Staats. Insbesondere die Kriegserklärung gegen den Terror legitimierte auch die letzten Impulse zur Verankerung maschinenproduzierter Gewissheit als Patentlösung für gesellschaftliche Ungewissheit. Angesichts dieser gegenseitigen Affinitäten entwickelte sich die instrumentäre Macht zum gleichberechtigten Partner, ja sogar immer öfter zum Herrn und Meister, auf den der Staat sich bei seinem Bemühen um die totale Überwachung im Dienste totaler Gewissheit verließ. Dass man in der instrumentären Macht die sichere Lösung für gesellschaftliche Unsicherheit sieht, zeigt sich in der Art und Weise, wie der

Staat sie mit ins Spiel bringt. Die ebenso unterschiedlichen wie komplexen institutionellen Muster, die aus diesen Interaktionen entstehen, sind ein wichtiges Grenzgebiet für Studium und demokratische Debatte. Ich möchte hier nur einige Beispiele aufzeigen, die die anhaltenden Forderungen staatlicherseits nach einer forcierten Produktion instrumentärer Macht als bevorzugtes Mittel gegen Misstrauen, Ungewissheit und sozialen Zerfall illustrieren. Wir sind dickfellig geworden gegenüber einem scheinbar endlosen Strom einschlägiger Beispiele. Es ist jedoch wichtig, sich darüber im Klaren zu sein, dass diese Verstrickungen die gemeinsame Festlegung staatlicher und Marktinstitutionen auf einen unbeirrbaren Run auf garantierte Ergebnisse belegen. Derlei gegenseitige Affinitäten können uns bei der Definition des Problems helfen, das die instrumentäre Macht zum Fluch unseres 21. Jahrhunderts zu machen droht. Es überrascht nicht weiter, dass man die instrumentäre Macht immer wieder als Lösung, wenn nicht gar als Patentlösung für die Bedrohung durch den Terrorismus heranzieht. Terroristische Gewalt verwirft die Autorität zivilisatorischer Normen und offenbart die Unmöglichkeit einer Gesellschaft ohne gegenseitiges Vertrauen. Der Staat wendet sich heute der instrumentären Macht als Lösung für diese neue Quelle gesellschaftlicher Ungewissheit zu und verlangt damit ihre Gewissheitsmaschinen als direkte und verlässliche Mittel zu Entdeckung, Vorhersage, ja selbst zur automatischen Auslösung von Gegenmaßnahmen. In den sechzehn Jahren der Regierungen Bush und Obama verstand man »Fortschritte in der Informationstechnologie« als »effektivste Antwort« auf die Bedrohung des Terrors. Peter Swire, der erste Datenschutzbeauftragte der Bundesregierung, bemerkt dazu, der Staat sei sich nun einmal bewusst, »dass der private Sektor zahlreiche neue Techniken zum Sammeln und Verarbeiten von Daten und für Entscheidungsprozesse auf der Basis dieser Daten entwickelt«. Folge davon sei »eine große und anhaltende Hinwendung zu informationsintensiven Strategien«, die sich diese Marktfähigkeiten zunutze machten.9 Eine Störung erfuhr dieser Status quo 2013, als Edward Snowden die versteckte Komplizenschaft zwischen staatlichen Sicherheitsorganen und Tech-Unternehmen enthüllte. Unter dem Druck der öffentlichen Reaktion sahen sich die Überwachungskapitalisten vor ganz neuen PR-Problemen,

bei denen von einem unbehaglichen, ja unfreiwilligen Bündnis zwischen privater Macht und staatlichem Sicherheitsbedürfnis die Rede war. Nichtsdestoweniger pocht der Staat angesichts neuer terroristischer Bedrohungen weiter auf Intensivierung und Einsatz von Big Other und der instrumentären Macht, für die es steht. Problematisch ist dabei seine Kompetenz, was den Zugang zu dieser immensen Macht angeht. Der Staat kann ihr schlicht nichts befehlen, sodass ihm, zumindest teilweise, nichts anderes als die Zusammenarbeit mit den Überwachungskapitalisten bleibt. Nehmen wir als Beispiel die Anschläge vom Dezember 2015 in Paris, als Präsident Obama im Schulterschluss mit amerikanischen Gesetzgebern und Politikern rund um die Welt auf die Tech-Unternehmen, vor allem Google, Facebook und Twitter einwirkte, terroristische Inhalte zu identifizieren und zu entfernen. Wie verlautet, zögerten diese Unternehmen, sich als »Werkzeuge des Staats« zu sehen und als solche gesehen zu werden.10 Journalisten zufolge entwickelten die staatlichen Sicherheitsorgane »Workarounds«, die auf den Zugang zur instrumentären Macht abzielten, ohne das öffentliche Ansehen der Tech-Unternehmen noch mehr zu belasten. So konnte zum Beispiel eine Behörde geltend machen, ein strittiger Online-Inhalt verstoße gegen die Nutzungsvereinbarungen des betreffenden Unternehmens. So ließ sich das anstößige Material »ohne den Papierkrieg entfernen, den ein Gerichtsbeschluss nach sich zieht«. In diesem Sinne erweiterte auch Google sein »Trusted Flagger«-Programm, das es sowohl staatlichen Einrichtungen wie einzelnen Vertrauenspersonen ermöglicht, problematische Inhalte zu identifizieren, was ein rascheres Handeln zulässt.11 Darüber hinaus reagierten die Unternehmen mit eigenen Initiativen. So schlug Eric Schmidt unter anderem eine »Rechtschreibkorrektur für den Hass« vor, der terroristische Accounts aufs Korn nehmen und Inhalte entfernen sollte, noch bevor sie sich ausbreiten könnten; außerdem lasse sich so die Verbreitung gegenteiliger Botschaften beschleunigen.12 Führende Beamte der Regierung Obama unterstützten dieses Unterfangen anlässlich eines Besuchs im Silicon Valley im Januar 2016, als man sich dort mit führenden Tech-Leuten zu einem »Terrorgipfel« traf. Man diskutierte darüber hinaus, wie sich terroristische Aktivitäten im Internet stoppen, wie sich alternativer Inhalt forcieren, Radikalisierung verhindern

und Terroranschlägen zuvorkommen ließen.13 Eine Denkschrift des Weißen Hauses regte die betreffenden Unternehmen zur Entwicklung eines »Radikalismus-Algorithmus« an, der sich soziale Medien und andere Quellen für Verhaltensüberschuss vornehmen sollte, um so etwas wie ein Bewertungssystem für radikale Online-Inhalte zu schaffen.14 Nicht nur in Amerika wendet sich der Staat an die instrumentäre Macht als Mittel gegen die Ungewissheit; der Terrorismus sorgte dafür auch in Europa und überall sonst auf der Welt. Nach dem Anschlag auf einen Berliner Weihnachtsmarkt im Dezember 2016 fasste die Bundesregierung Anfang Februar 2017 die Möglichkeit ins Auge, »islamistische Gefährder« künftig mit einer elektronischen Fußfessel zu überwachen.15 2017 beschlossen die Überwachungskapitalisten, darunter Facebook, Microsoft, Google und Twitter, ein »Global Internet Forum« gegen den Terrorismus einzurichten. Ziel des Projekts war, die Maschen des Netzes instrumentärer Macht enger zu ziehen; man sprach von einer Zusammenarbeit bei Entwicklung und Austausch von »Content-Bewertungstechniken«, »Counterspeech-Initiativen« und einer gemeinsamen Datenbank für »eindeutige digitale Fingerabdrücke« terroristischer Abbildungen.16 Ebenfalls 2017 sprach ein gemeinsamer Bericht von Australien, Großbritannien, Kanada, Neuseeland und den USA von vier Schlüsselvereinbarungen, deren erste darin bestand, sich in Unterstützung des von Google und Facebook geführten Branchenforums gemeinsam mit den Internetunternehmen dem Problem terroristischer Online-Aktivitäten zu stellen.17 Ebenfalls 2017 brachte der Europäische Rat seine Erwartung gegenüber der »Internetbranche« zum Ausdruck, sich endlich ihrer Verantwortung zu stellen und »entschiedene Maßnahmen zu ergreifen, Mittel bereitzustellen und die notwendigen technischen Instrumente zu entwickeln, um schädliches Material schnell erkennen und entfernen zu können«.18 Desgleichen beschlossen die G20-Staaten 2017 in Hamburg die Zusammenarbeit mit den Internetfirmen; man bestand auf die Notwendigkeit besserer Instrumente zur Filterung, Entdeckung und Entfernung einschlägiger Inhalte und regte die Branche an, mehr in Technologie und Humankapital zu investieren, um online gegen terroristische Aktivitäten anzugehen.19

Es kommt aber auch noch zu anderen Konfigurationen von instrumentärer und staatlicher Macht. So sagte der damalige Direktor der nationalen Nachrichtendienste James Clapper 2016 dem amerikanischen Kongress, die Nachrichtendienste müssten das Internet der Dinge zur »Identifizierung, Überwachung, Beobachtung, Lokalisierung und Rekrutierung« nutzen, »um sich Zugang zu Netzwerken oder Nutzerinformationen zu verschaffen«.20 Ein Forschungsbericht des Berkman Center for Internet and Society der Harvard University kam sogar zu dem Schluss, die Welle »smarter« Geräte und Produkte, vernetzter Sponsoren und das Internet der Dinge werde »staatlichen Akteuren zahlreiche Wege eröffnen, Echtzeitzugang zu aufgezeichneter Kommunikation zu verlangen«.21 Dass sich mit »smarten« und »vernetzten« Signalen neue Wege für kommerzielle und staatliche Überwachung auftun, ist weder Mutmaßung, noch beschränkt sich diese Überwachung auf staatliche Nachrichtendienste. 2015 gelang es der Polizei in einem Mordfall anhand der Daten eines »intelligenten« Wasserzählers, eines iPhone 6s Plus und Audioaufzeichnungen eines »smarten Lautsprechers« der Marke Amazon Echo, den Täter ausfindig zu machen.22 2014 halfen Daten eines FitbitArmbands in einem Fall von Körperverletzung, und 2017 konnte die Polizei einen Mann anhand der Daten seines Herzschrittmachers der Brandstiftung und des Versicherungsbetrugs überführen.23 Längst hat sich in den USA die Polizei unter die Institutionen eingereiht, die sich der instrumentären Macht bedienen wollen. Private Überwachungsfirmen dienen sich dem Sheriff an, der eine Abkürzung zur Gewissheit sucht. Ein Start-up namens Geofeedia spezialisiert sich auf das Tracking von Aktivisten und Demonstranten wie Greenpeace-Leuten und Gewerkschaftern; darüber hinaus errechnet man ihren »Bedrohungsfaktor« aus Daten der sozialen Medien. Justizvollzugsbehörden gehören zu den prominentesten Kunden von Geofeedia.24 Als die Bostoner Polizei 2016 ihr Interesse verlauten ließ, sich diesem Kundenkreis anzuschließen, bezeichnete der Polizeichef in einem Interview mit dem Boston Globe die Maschinengewissheit praktisch als Gegenmittel für den gesellschaftlichen Zusammenbruch: »Der Anschlag … auf dem Campus der Ohio State University ist nur der jüngste Beleg dafür, dass die lokalen Polizeibehörden

jedes nur denkbare Werkzeug brauchen, um Terrorismus und andere Gewalttaten zu stoppen, bevor es überhaupt dazu kommt.«25 Ein Anwalt der Amerikanischen Bürgerrechtsvereinigung (ACLU) hielt dem entgegen, dass der Staat Tech-Unternehmen dazu benutze, »massive Dossiers über Leute« anzulegen, und das nur, weil sie von ihrem verbrieften Recht auf freie Meinungsäußerung Gebrauch machen.26 Palantir, ein weiterer prominenter Überwachungsdienstleister, von Bloomberg BusinessWeek einmal als »Geheimwaffe im Krieg gegen den Terror« gepriesen,27 testete insgeheim zusammen mit der Polizei von New Orleans seine »PredicitivePolicing«-Technologie. Palantirs Software identifizierte Gangmitglieder nicht nur, sondern ging ihren Beziehungen zu anderen Gangmitgliedern nach, stellte ihre Vorstrafen zusammen, analysierte soziale Medien und berechnete die Wahrscheinlichkeit, mit der Individuen ein Gewaltverbrechen begehen oder Opfer eines solchen werden würden«.28

Das China-Syndrom Der Trend, Gesellschaft durch Gewissheit zu ersetzen, lässt sich heute durchaus zu Ende denken. So plant etwa China ein umfassendes »SocialCredit-System«, ein System zur Bürgerbewertung, in dem ein chinesischer Wissenschaftler den »Kern« von Chinas Internetagenda sieht. Das Ziel bestehe darin, »die Explosion persönlicher Daten zur Besserung des Bürgerverhaltens zu nutzen … Wir bewerten diverse Aspekte des Verhaltens von Einzelnen und Unternehmen – wo man sich aufhält, was man kauft und wen man kennt –, und diese Punktwertungen kommen in eine umfassende Datenbank, die nicht nur staatliche Informationen koordiniert, sondern auch von privaten Unternehmen gesammelte Daten«.29 Das System trackt »gutes« und »schlechtes« Verhalten über eine ganze Bandbreite finanzieller und sozialer Aktivitäten und weist dabei automatisch Belohnungen und Strafen zu, um für »Aufrichtigkeit« im ökonomischen, sozialen und politischen Leben zu sorgen. »Ziel ist es, über jeden von Chinas Bürgern eine Datei anzulegen, die sich aus öffentlichen

und privaten Quellen zusammensetzt und die nach Fingerabdrücken und anderen biometrischen Charakteristiken zu durchsuchen ist.«30 Auch wenn man Chinas Vision eines Notensystems für seine Bürger durch die Bank als »digitalen Totalitarismus« bezeichnet und oft mit der Welt von Orwells 1984 vergleicht, versteht man es besser als die Apotheose einer vom Staat kontrollierten instrumentären Macht, die sich aus Daten öffentlicher und privater Quellen nährt. Erste Berichte über Pilotprojekte bringen aussagekräftige Beispiele für die Handlungsvorteile des Überwachungskapitalismus und die filigrane Konstruktion von Verhaltensmodifikationsmitteln von ungeheurem Ausmaß. Ziel ist die Automatisierung der Gesellschaft durch Tuning, Herding und Konditionierung der Bürger, um ein vom Staat gewünschtes Verhalten zu erzeugen, der damit der »Instabilität zuvorkommen« will, wie ein Experte für strategische Studien es ausdrückt. 31 Anders gesagt, die Verhaltensmodifikationsmittel des Überwachungskapitalismus, Big Others Instrumente, und die instrumentäre Macht, die den Apparat dirigiert, dienen hier weniger Markt- als sozialen Zielen. Resultat ist ein junges System, das uns einen Blick in eine Zukunft gestattet, die sich durch eine umfassende Fusion von instrumentärer und staatlicher Macht definiert. Chinas Vision versteht sich als Mittel gegen seine ganz spezifische Version sozialer Auflösung. Wie die Journalistin Amy Hawkins in Foreign Policy erklärt, soll das geplante Social-Credit-System das Reich der Mitte von einer Pandemie sozialen Misstrauens heilen helfen: »Chinese zu sein heißt heute, in einer von Misstrauen beherrschten Gesellschaft zu leben, in der jede Gelegenheit ein potenzieller Schwindel ist und in der man mit jedem Akt der Großzügigkeit die Ausbeutung riskiert.«32 Einer faszinierenden empirischen Studie über soziales Vertrauen im heutigen China zufolge herrscht in »Eigengruppen« durchaus ein hohes Vertrauensniveau, das jedoch mit gesundheitlichen Problemen korreliert. Man schließt daraus, dass viele Chinesen nur den Menschen vertrauen, die sie sehr gut kennen; alle anderen Beziehungen betrachten sie mit Argwohn und Angst, mit all den offensichtlichen Folgen für das Wohlergehen des Einzelnen und der Gesellschaft.33 Dieses grassierende Misstrauen, das man gemeinhin mit den Traumata einer rasanten Modernisierung und dem Wechsel zu einer quasikapitalistischen Wirtschaft assoziiert, ist aber auch

ein Erbe des chinesischen Totalitarismus. Die chinesische KP hat erbarmungslos alle traditionellen Bereiche von Bindung, Identität und sozialer Bedeutung – Familie, Religion, Zivilgesellschaft, intellektueller Diskurs, politische Freiheit – zerstört, was an Arendts Beschreibung der »Atomisierung« erinnert, die jegliche Bande des Vertrauens zerstört.34 Amy Hawkins dazu: »Anstatt jedoch die organische Rückkehr zu traditionellen Moralvorstellungen zu fördern, um diese Kluft zu überbrücken, zieht der chinesische Staat es vor, seine Energien auf technologische Lösungen zu konzentrieren … und eine Öffentlichkeit, die es satt hat, keinem mehr trauen zu können, begrüßt das … teils weil es keine Alternativen gibt.«35 Der chinesische Staat bedient sich damit instrumentärer Macht, um eine krankende Gesellschaft mit garantierten Ergebnissen zu heilen. 2015 kündigte die chinesische Zentralbank ein Pilotprojekt an, bei dem die Spitzenriege der E-Commerce-Unternehmen bei der Datenintegration und Softwareentwicklung für ein persönliches Kredit-Scoring vorangehen sollte. Zu den größten Unterfangen dieser Art gehörte »Sesame Credit«, ein System zur persönlichen Kreditbewertung der Alibaba-Tochter Ant Financial. Sesame Credit schuf ein »ganzheitliches« Charakter-Rating mit lernfähigen Algorithmen, das weit über das rechtzeitige Begleichen von Rechnungen und Kreditraten hinausgeht. Algorithmen bewerten Einkäufe (Kinderbücher zählen mehr als Videospiele), Bildungsgrade sowie »Quantität« und »Qualität« von Freunden. Der Erfahrungsbericht einer Reporterin mit Sesame Credit spricht von »Voodoo«, was den Algorithmus angeht; er berücksichtige die Kredit-Ratings ihrer Kontakte in den sozialen Medien, ihr Auto, ihre Arbeit, Schulbildung und eine ganze Reihe nicht näher genannter Variablen, die angeblich »mit der Kreditwürdigkeit korrelieren«. Der Schattentext bleibt außer Reichweite, und die User können selbst überlegen, wie sie ihr Rating verbessern können; so mancher meint, es könnte helfen, einige Freunde mit schlechten Ratings loszuwerden und sich mit Leuten mit höheren Scores anzufreunden.36 Wie der CEO des Unternehmens sich brüstet, wird das Scoring-System »dafür sorgen, dass schlechte Menschen in der Gesellschaft nirgendwo hingehen können, während gute Menschen sich frei und ungehindert bewegen können«. Wer gut abschneidet, wird ausgezeichnet und mit Vergünstigungen von Sesame-Credit-Kunden auf den

Verhaltensterminkontraktmärkten belohnt. So können sie Autos ohne Kaution mieten, erhalten Sonderkonditionen bei Krediten und Wohnungen, Visumgesuche werden beschleunigt bearbeitet usw. – selbst auf DatingApps werden sie besonders herausgestellt. In einem anderen Bericht wird darauf hingewiesen, dass die Privilegien, die mit einem hohen persönlichen Kredit-Score einhergehen, freilich auch sehr schnell verfallen können, und das aus Gründen, die mit dem Konsumverhalten des Betreffenden nichts zu tun haben müssen; es genügt völlig, bei einer Prüfung an der Uni zu schummeln.37 2017 entzog die Zentralbank den privaten Kredit-Scoring-Programmen ihre Unterstützung, womöglich weil sie zu erfolgreich waren, ihre Konzentration von Wissen und Macht zu groß. Sesame Credit hatte es in gerade mal zwei Jahren auf 400 Millionen Nutzer gebracht, womit ein Anspruch auf praktisch jeden Aspekt des Lebens dieser Nutzer einherging.38 Ein Journalist, der ein Buch über Ant Financial geschrieben hat, ahnt die staatliche Übernahme des gesamten Systems: »Die Regierung möchte diese so wichtige Infrastruktur der Kredite eines ganzen Volkes nicht in der Hand einer einzigen großen Firma sehen.« Die chinesische Regierung scheint zu verstehen, dass ihren Besitzern aus Mitteln zur Verhaltensmodifikation Macht erwächst. Denn schließlich sind es die Besitzer, die die Verhaltensparameter bestimmen, die garantierte Ergebnisse definieren. So schreitet die Fusion von instrumentärer und Staatsmacht voran. Ein Gespür für die Art von sozialer Welt, wie sie durch die Verschmelzung von instrumentärer und Staatsmacht entstehen könnte, vermittelt der Economist mit seiner Beschreibung der sogenannten »judgement defaulter’s list«, die er als das Herz des Social-Credit-Systems bezeichnet und die womöglich der beste Indikator größerer Ambitionen ist. Auf dieser Liste stehen unter anderem Schuldner und jeder, der irgendwann einer Gerichtsverfügung nicht nachgekommen ist. Man kann Leute auf dieser Liste daran hindern, Tickets für Flüge oder Erste-Klasse-Fahrten mit dem Zug oder ein Haus zu kaufen, zu verkaufen oder eines zu bauen oder ihre Kinder in Privatschulen unterzubringen. Die Möglichkeit, in die Partei einzutreten oder befördert zu werden, ist beschränkt, dasselbe gilt für das Militär; außerdem gibt es für sie keine Titel

und Ehren. Ist der säumige Zahler eine Firma, darf diese keine Aktien oder Anleihen herausgeben und kein Auslandskapital aufnehmen; auch für Aufträge der öffentlichen Hand sind sie aus dem Spiel.39 Einem Bericht des China Daily zufolge hinderte man Schuldner auf dieser schwarzen Liste seit ihrer Einführung 2013 6,15 Millionen Mal am Fliegen; Personen, die wegen Missachtung des Gerichts auf der Liste stehen, verweigerte man 2,22 Millionen Fahrten mit einem Hochgeschwindigkeitszug. Etwa 71 000 Personen verwehrte man ihrer Schulden wegen leitende Positionen in Großunternehmen. Die Industrial and Commercial Bank of China gibt an, Schuldnern auf dieser Liste Kredite im Wert von mehr als 6,97 Milliarden Yuan (1,01 Milliarden Dollar) verweigert zu haben.40 Niemand sah sich in ein Umerziehungslager gesteckt, aber die Betreffenden dürfen womöglich nie wieder Luxusgüter erstehen. Der Direktor des »Institute of the Chinese Academy of International Trade and Economic Cooperation« beim Handelsministerium sagte dazu: »Angesichts solcher Unannehmlichkeiten begannen 10 % der Leute auf der Liste spontan damit, ihre Schulden zurückzuzahlen. Das zeigt, dass das System zu funktionieren begann.«41 Die Handlungsvorteile funktionierten ganz nach Plan. Für die 400 Millionen Nutzer hat die Fusion von instrumentärer und staatlicher Macht knallharte Konsequenzen; wer immer sich auf dieser schwarzen Liste sieht, wird feststellen müssen, dass das Kreditsystem so eingerichtet ist, ihre Scores unerbittlich in den Keller zu drücken: »Zuerst geht dein Score nach unten. Dann hören deine Freunde, dass du auf der schwarzen Liste bist, und kriegen Angst, dass das ihren Score drücken könnte, also lassen sie dich rasch fallen. Die Algorithmen kriegen das mit, und dein Score geht noch weiter bergab.«42 Mag sein, dass die chinesische Regierung sich mit ihrer ambitionierten Vision übernommen hat: der große Traum von der totalen Kontrolle um der totalen Gewissheit willen, auf Algorithmen gestützt, die eine unablässige Flut von Datenströmen aus privaten und öffentlichen Quellen durchkämmen, menschliche Erfahrung online und offline aus jedem nur denkbaren Lebensbereich – Algorithmen, die jederzeit auf das Leben von 1,5 Milliarden Menschen wirken können, um durch Belohnung oder Strafe soziales Verhalten zu formen. Bislang ist das Projekt fragmentiert, auf

zahlreiche Pilotprojekte aufgeteilt, nicht nur auf Tech-Unternehmen, sondern auch auf Städte und Regionen; es gibt also keinen wirklichen Test in dem Umfang, in dem die Regierung sich das vorstellt. So mancher Experte ist überzeugt, dass ein einziges System dieser Größe und Komplexität schwierig, wenn nicht gar unmöglich zu schaffen ist. Es gibt noch andere Gründe, warum das Social-Credit-System für unsere Geschichte von Relevanz ist. Die chinesische Kultur, um mit dem Offensichtlichen zu beginnen, unterscheidet sich von Grund auf von der westlichen. Yang Wang von der Syracuse University weist darauf hin, dass die chinesische Kultur weniger Wert auf die Privatsphäre legt als die westliche und dass die meisten Chinesen sich damit abgefunden haben, online überwacht und zensiert zu werden. Yinsi, der Begriff, der dem der Privatsphäre am nächsten kommt, tauchte erst Mitte der 1990er-Jahre im volkstümlichen Wortschatz der Chinesen auf.43 Chinesische Bürger haben einen Ausweis mit biometrischen Chips, »Geburtserlaubnis« und mittlerweile auch mit dem Social-Credit-Ranking; sie sind Überwachung und Profilierung seit Jahrzehnten gewohnt. So ist zum Beispiel die »Dang’an« eine Personalakte mit umfassenden Informationen, die Hunderte von Millionen Chinesen von Kindheit an das ganze Leben über begleitet. Dieses System aus der Mao-Ära, das selbst die intimsten Details eines Lebens festhält, wird von Lehrern, Parteikadern und Angestellten gepflegt; die Bürger selbst haben kein Recht auf Einsicht, geschweige denn auf Widerspruch. Diese Akte ist nur eine von vielen Facetten zahlreicher institutionalisierter und umfassender administrativer Systeme zur Verhaltenskontrolle und Überwachung im Alltagsleben; sie dienen dazu, die einen zu belohnen und die anderen zu bestrafen. Mit dem Wachsen des Internets hat man die Überwachungsprogramme erweitert. Das Projekt Goldener Schild ist ein umfassendes System zur Online-Überwachung des Ministeriums für Staatssicherheit; Chinas Cyber-Zensoren können Internetzugänge sperren oder Social-Media-Accounts auflösen, wenn über sie Nachrichten mit sensiblen Begriffen wie »tibetische Unabhängigkeit« oder »Tiananmen-Massaker« verschickt werden.44 So verschieden unsere Kulturen auch sein oder gewesen sein mögen, die chinesischen Social-Credit-Initiativen wiederholen dennoch die Logik des

Überwachungskapitalismus und seiner instrumentären Macht. Und Sesame Credit setzt auf jeden Aspekt der überwachungskapitalistischen Operationen noch einen drauf; Hunderte von Millionen sehen sich gefangen im Räderwerk einer automatisierten Verhaltensmodifikationsmaschine und seiner brummenden Verhaltensterminkontraktmärkte, die im Gegenzug für garantierte Ergebnisse Vergünstigungen und Belohnungen ausgeben wie Pokémon-Sternenstaub. Chinesische Nutzer werden gerendert, klassifiziert und Klick für Klick zur Vorhersage aufgereiht – genauso wie wir. Man verpasst uns ein Ranking bei Uber, eBay, Facebook und vielen anderen Geschäften im Web, und das sind nur die Rankings, die man uns zeigt. Chinesischen Nutzern weist man einen »Charakter«-Score zu, während der amerikanische Staat die Tech-Unternehmen dazu anhält, ihre Algorithmen auf einen »Radikalitäts«-Score hin zu trainieren. Die Aufgabe des Schattentexts besteht darin, unser Verhalten auszuwerten, zu kategorisieren und auf jede nur denkbare Art vorherzusagen. Das sind unsere digitalen Dossiers, doch wir wissen nicht, was sie enthalten, und können uns nicht dagegen wehren. Was das Kredit-Rating angeht, haben amerikanische und britische Banken und Finanzdienstleister Geschäftsmodelle vorgestellt, die auf Erfassung und Analyse von Social-Media-Daten für Kredit-Scores basieren. Facebook selbst hat diesbezüglich Interesse verlauten lassen und sogar ein Patent angemeldet.45 Man ließ von diesen Bemühungen nur deshalb ab, weil die Bundeshandelskommission (FTC) regulierend einzugreifen drohte.46 Rogier Creemers, Experte für chinesisches Recht an der Universität Oxford, der unter anderem einige der ersten Dokumente über das SocialCredit-System übersetzt hat, stellte fest, dass »der Trend zum SocialEngineering und dazu, Leute in Richtung eines ›besseren‹ Verhaltens zu ›stupsen‹, auch Teil des im Silicon Valley gepflegten Ansatzes ist, demzufolge menschliche Probleme durch die disruptive Kraft der Technologie ein für alle Mal gelöst werden können … Unter diesen Vorzeichen ist das schockierendste Element der Geschichte nicht die Agenda der chinesischen Regierung, sondern wie sehr sie dem Weg gleicht, den die Technologie andernorts einschlägt.«47 2017 boten auf einer Messe für Überwachungstechnologie in Shenzhen eine ganze Reihe amerikanischer Unternehmen ihre Produkte feil; der Hit

waren dabei mit künstlicher Intelligenz und Gesichtserkennung ausgestattete Kameras. Unter der Besuchermenge befand sich auch der Chef von CCTV Direct, einem britischen Händler für Überwachungstechnologie. Er beklagte, »wie weit hinten dran die westlichen Nationen« seien im Vergleich zu den aufregenden Fähigkeiten der chinesischen Überwachungsstrukturen, tröstete sich aber mit dem Gedanken: »Was hier seinen Anfang nimmt, landet in Wohnungen, Flughäfen und Geschäften drüben in Amerika.«48 Der Unterschied zwischen dem Überwachungskapitalismus westlicher Prägung und Chinas im Entstehen begriffenem Social-Credit-System liegt in den Mustern von Verwicklung und Bindung zwischen instrumentärer und staatlicher Macht. Es gibt strukturelle Unterschiede. Im Westen haben die Muster, wie wir gesehen haben, viele Formen angenommen. Der Staat begann als nährender Busen und Unterschlupf, wurde dann zum eifrigen Schüler und neidischen Vetter. Der Überwachungskapitalismus und seine Instrumente sind erwachsen geworden; was eine launische, aber notwendige Partnerschaft hervorgebracht hat. Die wesentlichen instrumentären Fähigkeiten gehören den großen überwachungskapitalistischen Unternehmen, deren Dienste der Staat in Anspruch nehmen muss, um Zugang zu der Macht zu bekommen, nach der ihm ist. Im chinesischen Kontext wird der Staat den Apparat beherrschen, und er wird ihm gehören, aber nicht als Marktprojekt, sondern als politisches; eine Maschinenlösung, die eine neue Gesellschaft automatisierten Verhaltens um garantierter politischer und sozialer Ergebnisse willen ausformt: Gewissheit ohne Terror. Sämtliche Pipelines werden diesen neuen komplexen Verhaltensmodifikationsmitteln Verhaltensüberschuss zuführen. Der Staat wird die Rolle des behavioristischen Gottes übernehmen, dem der Schattentext gehört und der über Verstärkungsplan und Verhaltensroutinen entscheidet, die er ausformen soll. Freiheit wird dem Wissen geopfert, aber es wird dem Staat gehören. Der Staat wird dieses Wissen einsetzen, nicht um der Erträge, sondern um seines eigenen Fortbestands willen.

Am Scheideweg

Erinnern Sie sich noch an Carl J. Friedrichs Bemerkung über die Schwierigkeiten, die nackten Fakten des Totalitarismus zu begreifen? »Praktisch niemand ahnte vor 1914 den Lauf der Entwicklung, die die westliche Zivilisation seit damals überrollt hat … Zu diesem Mangel an Voraussicht kommt die Schwierigkeit, ihn zu verstehen.«49 Rufen Sie sich darüber hinaus ein Bild aus dem Jahr 1939 vor Augen: den robust grinsenden »Joe« Stalin zwischen Hollywoodstars auf einer Hochglanzseite des Look-Magazins. Wird es uns genauso an Voraussicht mangeln wie denen, die den Aufstieg des Totalitarismus nicht verstehen konnten, gelähmt von Big Others schierer Macht und dem endlosen Echo seiner Folgen, abgelenkt von unseren Bedürfnissen, verwirrt von seinem Tempo, seinen Heimlichkeiten, seinem Erfolg? Erstaunen ist ein notwendiges Alarmsignal. Nur sollte es uns nicht in Fassungslosigkeit erstarren lassen. Der stete Trommelschlag von Big Others zivilisatorischem Sendungsbewusstsein, sein atemberaubendes Tempo und die Verborgenheit seiner Absichten zielen darauf ab, uns zu entwaffnen, verwirren, desorientieren. Die inevitabilistische Ideologie versucht sich an der Gleichsetzung von Überwachungskapitalismus und seiner instrumentären Macht mit Geschichte, allerdings keiner von Menschenhand gemachten. Sie gleicht vielmehr einem Fluss oder einem Gletscher; man kann nur mitgehen oder man lässt sie über sich ergehen. Umso wichtiger ist es, einige Fragen zu stellen: Könnten die heutigen Deklarationen bei all ihrer Banalität (die Anweisung an das Monitoringsystem eines Fahrzeugs, einfach nicht anzuspringen) sich nicht irgendwann womöglich als die Saat für den größten Alptraum unseres Jahrhunderts erweisen? Was ist mit den Urhebern des instrumentären Projekts? Wie werden wir die robust lächelnden Gesichter der Tech-Titanen einschätzen, wenn wir sie in ferner Zukunft in den Hochglanzpixeln einer Tablet-Version von Look sehen? Der Weg von Shenzhen zu einem amerikanischen oder europäischen Flughafen führt auch zu Roomba, dem Staubsauger, der ihr Wohnzimmer kartiert, und zum Frühstück mit Alexa. Es ist der uns vom Überwachungskapitalismus vorgegebene und von der instrumentären Macht aufgezwungene Weg. Und er ist bei weitem nicht so lang, wie Sie vielleicht denken. Wir stehen an einem Scheideweg.

In der einen Richtung liegt die Möglichkeit einer synthetischen Erklärung zugunsten einer Dritten Moderne auf der Grundlage einer Stärkung demokratischer Institutionen und des kreativen Aufbaus einer Doppelbewegung für unsere Zeit. Auf diesem Weg spannen wir das Digitale vor Spielarten des Informationskapitalismus, die Angebot und Nachfrage wieder zusammenbringen, und das auf eine Art und Weise, die uns ein effektives Leben beschert und mit einer blühenden demokratischen Gesellschaftsordnung in Einklang zu bringen ist. Der erste Schritt auf diesem Weg beginnt mit der Benennung, mit der Orientierung und dem Erwachen sowohl unseres Staunens als auch unseres Abscheus. Folgen wir dagegen dem anderen Weg, dem, der uns mit Shenzhen verbindet, dann gehen wir den Weg der überwachungskapitalistischen Vision einer von instrumentärer Macht geprägten Dritten Moderne. Es ist eine Zukunft gewaltlos geschaffener Gewissheit. Wir bezahlen für diese Zukunft nicht mit unserem Körper, sondern mit unserer Freiheit. Noch ist diese Zukunft nicht da, aber wie bei Dickens’ Scrooge und seinem Traum von einer künftigen Weihnacht sind die Voraussetzungen dafür geschaffen, man braucht sie nur noch zusammenzufügen. Kapitel 14 beschäftigt sich mit der nächsten Station auf einem Weg, dessen erste ein beispielloser Kapitalismus war, dessen zweite eine beispiellose Macht und der uns jetzt zu einer beispiellosen Gesellschaft führt. Theorie und Legitimation dafür liefert ein im Werden begriffenes Ökosystem von Denkern, Forschern und Praktikern. Wie sieht er aus, dieser neue Ort, den wir ihrer Ansicht nach als Heimat, als Zuhause bezeichnen sollen?

Kapitel 14 Eine Utopie der Gewissheit So stürzten aus den Jahren ihre Gaben: sie griffen zu, da es ihr Leben galt; die Biene nahm das Maß für ihre Waben, Hecht schwamm als Hecht und Mohn fand Mohngestalt. Es glückte allen in der ersten Runde. – W. H. Auden, Sonette aus China, I

Gesellschaft als das Andere Auch wenn er sie nicht ausdrücklich benannte, erkannte der Visionär des ubiquitären Computing Mark Weiser die instrumentäre Macht in ihrer ganzen immensen Wirksamkeit als totalisierendes gesellschaftliches Projekt. Die Art, wie er das ausdrückt, suggeriert sowohl Präzedenzlosigkeit als auch die Gefahr, diese neue Macht mit etwas bereits Bekanntem zu verwechseln: »Hunderte von Computern in jedem Raum, jeder einzelne von ihnen in der Lage, Menschen um sich herum wahrzunehmen, alle durch Hochgeschwindigkeitsnetze verbunden – dagegen ist der Totalitarismus, wie wir ihn bis dato kennen, möglicherweise die schiere Anarchie.«1 Genau genommen sind diese Computer jedoch nicht das Mittel zu einem digitalen Hypertotalitarismus; sie sind, und ich glaube, dass Weiser das spürte, das Fundament einer beispiellosen Macht, die die Gesellschaft auf ebenso beispiellose Weise umzugestalten vermag. Wenn instrumentäre Macht es in sich hat, den Totalitarismus wie Anarchie aussehen zu lassen, was könnte sie uns wohl bringen?

Vor siebzig Jahren begegnete man Skinners protoinstrumentärer behavioristischer Utopie Walden Two mit Abscheu. Jetzt, wo sie vor der Tür steht, ist sie der Stoff, aus dem die Träume des Überwachungskapitalismus gemacht sind. Dessen Anführer und Claqueure rühren die Werbetrommel für die Werkzeuge und Visionen, die den Ideen des alten Professors Leben einhauchen und sie damit in unser Leben rufen. Die Prozesse der Normalisierung und Gewöhnung haben begonnen. Wie wir gesehen haben, erfordert der überwachungskapitalistische Run auf die Gewissheit – das Mandat des Vorhersageimperativs – eine fortwährende Annäherung an die totale Information als Idealbedingung für die Maschinenintelligenz. Auf ihrer Suche nach Totalität haben die Überwachungskapitalisten ihre Reichweite von der virtuellen auf die reale Welt ausgedehnt. Das RealityBusiness rendert alles, Menschen wie Dinge, und verarbeitet sie als zu berechnende Objekte in einer endlosen Schlange von Gleichheit ohne Gleichberechtigung. Jetzt, mit der Intensivierung des Reality-Business, führt der Run auf die Totalität notwendigerweise zur Annexion der »Gesellschaft« und der »sozialen Beziehungen« und gesellschaftlichen Schlüsselprozesse als unverbrauchtes Territorium für Rendition, Berechnung, Modifikation und Vorhersage. Big Others Allgegenwart gilt als unvermeidlich, aber das Endspiel ist das noch nicht. Ziel dieser neuen Phase ist Sichtbarkeit, Koordination, Zusammenführung, Kontrolle und Harmonisierung gesellschaftlicher Prozesse unter dem Diktat von Masse, Diversität und Aktion. Auch wenn Instrumentarismus und Totalitarismus unterschiedliche Spezies sind, ist beiden nach Totalität, nur eben auf völlig andere Art. Der Totalitarismus sucht die Totalität als politische Bedingung und verlässt sich auf die Gewalt als Mittel zum Ziel. Der Instrumentarismus sucht die Totalität als Bedingung der Marktbeherrschung; er verlässt sich dabei auf seine Herrschaft über die Wissensteilung in der Gesellschaft, die Big Other sowohl ermöglicht als auch durchsetzen kann. Ergebnis dieser Anwendung von instrumentärer Macht ist die gesellschaftliche Optimierung um überwachungskapitalistischer Marktziele willen: ein Utopia der Gewissheit. So viel sie in mancher Hinsicht mit der instrumentären gesellschaftlichen Vision von Chinas politischer Elite gemein haben, sind die Ziele der Überwachungskapitalisten entschieden anderer Art. Ihrer Ansicht nach ist instrumentäre Macht eine Marktmöglichkeit. Wenn Sie uns Normen und

Werte aufzwingen, dann in erster Linie um der Erfüllung von Marktzielen willen. Wie die menschliche Erfahrung wird die Gesellschaft der Marktdynamik untergeordnet und erfährt eine Wiedergeburt als ein Gefüge objektivierter rechnerischer Verhaltensmetriken, die auf der Jagd nach dem lukrativsten Nachschub an Verhaltensüberschuss im Dienste überwachungskapitalistischer Größen-, Diversifikations- und Aktionsvorteile stehen. Zur Erreichung dieser Ziele beschwören die Überwachungskapitalisten eine schaurige Vision: Sie spekulieren auf die Ausformung einer neuen Gesellschaft, die Maschinenlernen auf dieselbe Art emuliert, wie die Industriegesellschaft sich einst an den Disziplinen und Methoden der Fabrik ausrichtete. In ihrer Vision ersetzt instrumentäre Macht soziales Vertrauen; Big Other ersetzt soziale Beziehungen durch Gewissheit, und die Gesellschaft, wie wir sie kennen, wird nach und nach obsolet.

Das Streben nach Totalität beinhaltet die Gesellschaft Wie Generäle, die mit der Größe ihrer Armeen prahlen, achten die führenden Köpfe des Überwachungskapitalismus sorgsam darauf, ihren Verbündeten ihre Macht zu versichern. Üblicherweise erfolgt das in Form eines Inventars der instrumentären Truppen, die sie an der Grenze massiert haben, bereit für die Rendition von allem und jedem auf der Jagd nach Totalität. Diese Jagd hat, wie allmählich klar wird, nicht nur Konsequenzen für die Gesellschaft. Vielmehr schließt sie die Gesellschaft mit ein. Im Frühjahr 2017 eröffnete Microsofts CEO Satya Nadella die alljährliche Entwicklerkonferenz; forschen Schritts kam er auf die Bühne: schwarze Jeans, trendige schwarze Hightops, das unabdingbare schwarze Polohemd betonte sein schmales Profil. Er blendete sein Publikum mit einer Aufzählung seiner Truppen: 500 Millionen Windows-10-Geräte; Monat für Monat 100 Millionen Nutzer der MS Office-Software; Monat für Monat 140 Millionen Nutzer des digitalen »Assistenten« Cortana; 12 Millionen Organisationen nutzen die Cloud-Dienste des Unternehmens, darunter 90 % der im Fortune-500-Index gelisteten.

Nadella ließ es sich auch nicht nehmen, sein Publikum an die vernichtende Geschwindigkeit zu erinnern, die das instrumentäre Projekt von einem Sieg zum anderen führt, vor allem seit der Überwachungskapitalismus die digitalen Dienste dominiert: Internet-Traffic wuchs von 100 Gigabyte 1990 um das 17,5-Millionenfache; 2017 wurden 90 % dieser Daten in den vorangegangenen beiden Jahren generiert; ein einziges autonomes Fahrzeug wird 100 Gigabyte pro Sekunde generieren; 2020 wird es schätzungsweise 25 Milliarden intelligente Geräte geben.2 »Es ist phantastisch, den Fortschritt über die ganze Tiefe und Breite von Gesellschaft und Wirtschaft zu sehen und dass digitale Technologie heute alles durchdringt … Was man alles mit dieser Technologie tun kann, um eine breite Wirkung zu haben.« Sein Aufruf zum Abschluss – »Verändert die Welt!« – sorgte bei den versammelten Entwicklern für donnernden Applaus. Parallel zu Nadella feierte 2017 Google-CEO Sundar Pichai die Ambitionen seines Unternehmens mit einer Aufzählung seiner Truppenstärke, während seine Bataillone ausschwärmen, um sich jeden Winkel gesellschaftlichen Lebens anzueignen; er demonstrierte die Tiefe und Breite instrumentärer Macht mit einem Eifer, bei dem Professor Skinner ganz warm ums Herz geworden wäre. Pichais Bericht zufolge benutzen Monat für Monat eine Milliarde Nutzer die sieben wesentlichen »Produkte und Plattformen« des Unternehmens, darunter Gmail, Android, Chrome, Maps, Search, YouTube und den Google Play Store; zwei Milliarden aktive Android-Geräte; 800 Millionen aktive Nutzer von Google Drive, die Woche für Woche drei Milliarden Objekte hochladen; 500 Millionen Photos-Nutzer stellen täglich 1,2 Milliarden Fotos ein; 100 Millionen Geräte nutzen Google Assistant. Überhaupt wird jedes Gerät zum Vehikel von Assistant, der »den ganzen Tag über, zu Hause und unterwegs« für jede nur denkbare Art von Aufgabe und sozialer Funktion verfügbar sein wird. Aber Pichai will noch mehr – »wir müssen tiefer gehen«, sagt er seinem Team. Assistant sollte überall dort sein, wo »jemand sich Hilfe wünschen könnte«. In Googles Chefetage teilt man seinen Enthusiasmus. »Technologie ist heute kurz davor, uns in ein magisches Zeitalter zu führen«, schreibt Eric

Schmidt. »Sie löst schon heute Probleme, die wir selbst einfach nicht lösen könnten.«3 Maschinenlernen, schwärmt er, wird alles können: Blindheit heilen, Tiere vor dem Aussterben retten. Vor allem ist es aber Larry Page, der seit langem schon Googles Transformation der Gesellschaft im Auge hat. »Das gesellschaftliche Ziel ist unser primäres Ziel«, sagte Page 2016 der Financial Times.4 »Wir brauchen eine revolutionäre Änderung, keine inkrementelle«, sagte er bei einem anderen Interview im selben Jahr. »Wir könnten wahrscheinlich eine Menge der Probleme lösen, die wir Menschen so haben.«5 Bei einem Gutteil von Pages Zukunftsvisionen handelt es sich um Versatzstücke des utopischen Romans, Themen, die sich seit Jahrtausenden wiederholen. Page spricht von Maschinenintelligenz, die die Menschheit ins Paradies zurückführt und uns, vom Alltagskampf befreit, in ein neues Reich der Muße und der Erfüllung bringt. Er sieht zum Beispiel eine Gesellschaft, die an allem »Überfluss« hat, in der »Arbeit« nichts weiter als eine »verrückte« Erinnerung ist.6 Das Ungewöhnlichste an alledem ist freilich, dass für Page Googles totalistische Ambitionen logische Folge seines Engagements für die Perfektionierung der Gesellschaft sind. Von seinem Standpunkt aus sollten wir die Möglichkeit, uns auf Big Other stützen zu können, willkommen heißen und Wissen und Entscheidungsrechte bereitwillig Googles Plänen unterordnen. Um der geplanten Totalität der Gesellschaft willen muss jede Person, jeder Gegenstand, jeder Prozess in die Nachschubkette eingereiht werden, die die Maschinen füttert, die wiederum die Algorithmen trainieren, die Big Other unsere Schwächen verwalten und lindern lassen: Ihnen sollte daran gelegen sein, dass wir wirklich tolle Produkte herstellen, und dazu müssen wir Apps verstehen, müssen wir Dinge verstehen, die Sie kaufen können, wir müssen Flugzeugtickets verstehen. Wir müssen alles verstehen, wonach Sie nur irgendwie suchen könnten. Und Leute sind mit das Erste, wonach Sie suchen könnten … Wir werden also Leute als First-Class-Objekte in der Suche haben … Wenn wir wirklich gut dabei sein sollen, Ihrem Informationsbedarf nachzukommen, dann müssen wir eben Dinge verstehen und das ziemlich tief.7

Totales Wissen wird als Voraussetzung für die »präventiven« Dienste verkauft, die von der künstlichen Intelligenz des allwissenden »Google Assistant« zur Lösung von Lösungen führt. Er versucht wirklich alles auf der Welt zu verstehen und Sinn hineinzubringen … In einer Menge Anfragen geht es um Orte, also müssen wir Orte verstehen … In einer Menge Anfragen geht es um Content, den wir nicht finden können. Wir haben die Büchersuche gemacht und so weiter … Also haben wir das allmählich ausgebaut … vielleicht wollen Sie ja gar keine Frage stellen. Vielleicht wollen Sie ja einfach nur eine Antwort, b e v o r Sie sie stellen. Das wäre besser.8 Google hatte seinen Ursprung in der Aussicht darauf, die Informationen unserer Welt zu organisieren, aber Page möchte, dass das Unternehmen die Gesellschaft selbst organisiert: »In meiner sehr langfristigen Weltsicht«, sagte er 2011, »versteht unsere Software bis ins Detail, worin Sie sich auskennen und worin nicht, und wie man die Welt so organisiert, dass die Welt wichtige Probleme lösen kann.«9 Facebooks CEO Mark Zuckerberg teilt diese totalistischen Ambitionen und äußert sich zunehmend freimütig darüber, dass für ihn die »Gesellschaft« in Facebooks Umklammerung gehört – nicht nur die Individuen in ihr. Seine »drei großen Unternehmensziele« sind »alle miteinander verbinden, die Welt verstehen und der Aufbau der Wissenswirtschaft, damit jeder User ›noch mehr Tools‹ hat, um ›unterschiedliche Arten von Content‹ zu teilen.«10 Der Motor seiner Zuversicht ist wie für Googles Chefökonom Hal Varian Zuckerbergs scharfsichtige Einschätzung der Instabilitäten der Zweiten Moderne – und die Sehnsucht nach Unterstützung und Verbundenheit, die mit ihre auffallendsten Merkmale sind. Das Unternehmen sollte jedes Buch, jeden Film, jeden Song kennen, den eine Person je gelesen, gesehen oder gehört hat. Vorhersagemodelle werden es dem Unternehmen ermöglichen, »einem zu sagen, in welche Bar man gehen soll«, wenn man in einer fremden Stadt ankommt. Die Vision ist sehr detailliert: Wenn Sie in der Bar ankommen, hat der Barkeeper schon Ihren Lieblingsdrink bereitstehen, und Sie können sich umsehen und Leute identifizieren, die genauso sind wie Sie.

Zuckerberg zufolge wächst der Fluss von Verhaltensüberschuss »in einem exponentiellen Maß … das uns in die Zukunft projizieren lässt … in zwei Jahren werden die Leute zweimal so viel teilen … in vier Jahren achtmal so viel«. Und mit einer Verneigung vor dem bereits heute erdrückenden Wettbewerb um Totalität sieht Zuckerberg, dass Facebooks Social-Graph »eine bessere Karte für Ihre Navigation durchs Web zu werden beginnt, als die traditionelle Link-Struktur«.11 Dieses Ziel, so sagte der CEO seinen Investoren, würde Facebook »jedem auf der ganzen Welt« zu einem erschwinglichen Internetzugang verhelfen, damit jeder Nutzer »noch mehr Tools« hat, »unterschiedliche Arten von Content zu teilen«.12 Nichts und niemand würde den Fortschritt des Unternehmens an der gesellschaftlichen Front im Wege stehen, versicherte er, da »Menschen von einem so tiefen Wunsch nach Ausdruck erfüllt« seien.13 2017 sprach Zuckerberg seine gesellschaftlichen Ambitionen noch deutlicher aus, und diesmal zielte er mitten ins Herz der Ängste der Zweiten Moderne: »Die Leute haben keinen Halt mehr. Eine Menge von dem, was ihnen früher Halt gegeben hat, existiert nicht mehr.« Zuckerberg glaubt, dass er und seine Firma für eine Zukunft sorgen können, »die allen etwas bringt«, und »persönliche, emotionelle und spirituelle Bedürfnisse« zu erfüllen, mit anderen Worten »Sinn und Hoffnung«, »moralische Bestätigung« sowie den »Trost, nicht allein zu sein«, zu geben vermag. »Fortschritt erfordert heute, dass die Menschheit nicht mehr nur in Form von Städten oder Nationen zusammenkommt«, drängte Zuckerberg, »sondern auch als globale Gemeinschaft … das Wichtigste, was wir bei Facebook tun können, ist die Entwicklung der sozialen Infrastruktur … um eine globale Gemeinschaft aufzubauen.« In einer Anspielung auf Abraham Lincoln verortete Facebooks Gründer die Mission seines Unternehmens auf der Zeitachse der Zivilisation: Die Menschheit organisierte sich zuerst in Stämmen, dann in Städten, dann in Nationen. Die nächste Phase der Evolution wäre dann die »globale Gemeinschaft«, und Facebook sollte dabei vorangehen, die Mittel dazu aufzubauen, um dann über die Durchführung zu wachen.14 Auf Facebooks Entwicklerkonferenz 2017 verband Zuckerberg seine Vision von der historischen Rolle des Unternehmens beim Aufbau einer »globalen

Gemeinschaft« mit dem Standardmythos der modernen Utopie, indem er seinen Anhängern versicherte, »in Zukunft wird uns die Technologie die Freiheit geben, mehr Zeit auf die Dinge zu verwenden, an denen uns etwas liegt, zum Beispiel die Interaktion miteinander und uns auf andere, neue Arten auszudrücken … Eine Menge mehr von uns werden sich dem widmen, was wir heute unter Kunst verstehen, was zur Basis vieler Gemeinschaften werden wird«.15 Was die Überwachungskapitalisten beim Spinnen ihrer utopischen Träume geflissentlich übersehen, ist, dass das »magische Zeitalter«, das sie sich vorstellen, seinen Preis hat: Big Other muss in Richtung Totalität expandieren, löscht dabei alle Grenzen aus und schafft im Dienste ökonomischer Imperative jegliche Reibungsverluste aus dem Weg. Jede Art von Macht sehnt sich nach Totalität, und im Weg steht einzig Autorität: demokratische Institutionen; Gesetze; Regelungen; Rechte und Verpflichtungen; private Richtlinien zu Governance und Vertrag; die üblichen Marktzwänge, wie sie Kunden, Konkurrenten und Angestellte ausüben; die Zivilgesellschaft; die politische Autorität des Volks; und die moralische Autorität der Einzelnen, die wissen, wer und wo sie sind. Goethe hat das in seinem Gedicht vom Zauberlehrling zum Ausdruck gebracht: Dieser verwandelt den Besen in Abwesenheit des Hexenmeisters, dessen Autorität allein den Besen zu kontrollieren versteht, in eine dämonische Kraft schierer, unerbittlicher Macht: Ach, das Wort, worauf am Ende er das wird, was er gewesen. Ach, er läuft und bringt behende! Wärst du doch der alte Besen! Immer neue Güsse bringt er schnell herein, Ach! und hundert Flüsse stürzen auf mich ein.16

Angewandte Utopistik

Wie der Besen des Zauberlehrlings floriert die instrumentäre Macht in Abwesenheit einer Autorität, die sie zügeln könnte, und der Appetit der Überwachungskapitalisten auf Totalität ist mit seinem Erfolg noch gewachsen. Die utopische Rhetorik eines magischen Zeitalters ist kritisch für diesen Fortschritt. Die Ansicht, Big Other würde unter Befähigung des Individuums die Probleme der Menschheit lösen, wird für gewöhnlich als bloßer »Techno-Utopismus« abgetan, aber es wäre ein Fehler, diese Rhetorik zu ignorieren, ohne sich die Absichten dahinter anzusehen. Solche Äußerungen sind nie bloßer Blödsinn; sie sind der Minensucher, der den Infanteristen vorausgeht, sie sind der gewiefte Diplomat, den man vorausschickt, um den Feind zu entwaffnen und den Weg für eine stille Kapitulation zu ebnen. Das Versprechen eines magischen Zeitalters spielt eine kritische strategische Rolle, insofern es uns von den totalistischen Ambitionen des Überwachungskapitalismus, die notwendigerweise »Leute« als »First-Class-Objekte« einschließen, ablenkt und sie gleichzeitig legitimiert. Recht betrachtet fügen sich die von den führenden Überwachungskapitalisten artikulierten »gesellschaftlichen Ziele« nahtlos ein in die Vorstellung vom grenzenlosen technischen Fortschritt, der das utopische Denken vom Ende des 18. bis Ende des 19. Jahrhunderts beherrscht und in Marx seinen Höhepunkt findet.17 Bei genauer Betrachtung finden sich bei Überwachungskapitalisten wie Nadella, Page und Zuckerberg fünf der sechs Elemente, durch die sich für Frank und Fritzie Manuel das klassische Profil der ambitioniertesten modernen Utopien definiert: 1) eine Tendenz zum hochfokussierten Tunnelblick, der die utopische Herausforderung simplifiziert, 2) das tiefere Erfassen eines neuen »Seinszustands« vor anderen Zeitgenossen, 3) die obsessive Beschäftigung mit einer fixen Idee und deren Verteidigung, 4) ein unerschütterlicher Glaube an die Unvermeidbarkeit der Verwirklichung der eigenen Ideen und 5) das Streben nach einer totalen Reformation auf der elementaren Ebene der Spezies und des Weltsystems. Es gibt jedoch einen wesentlichen Unterschied beim Vergleich zwischen den Überwachungskapitalisten und dem typischen modernen Utopisten, eine Abweichung von der Norm, die wahrhaft historisch ist und damit unserer Aufmerksamkeit bedarf.

Die Manuels konstatieren ein weiteres Charakteristikum der modernen zukunftsorientierten Vision, bei der die Männer und die hier betrachteten Konzerne starke Abweichungen von der Norm darstellen: »Oft sieht ein Utopist die spätere Evolution nebst den Konsequenzen der technologischen Entwicklung als im Embryonalzustand bereits vorhanden; es ist gut möglich, dass er über Antennen für die Zukunft verfügt. Seine Apparate und Vorrichtungen jedoch gehen selten über die mechanischen Möglichkeiten seiner Zeit hinaus. So sehr er sich bemühen mag, etwas gänzlich Neues zu erfinden, er kann keine Welt aus dem Nichts erschaffen.«18 Die Überwachungskapitalisten unserer Zeit jedoch sind in der Lage, eine Welt zu schaffen, und sie tun es auch. Jeder Potentat des klassischen Altertums wäre vor Neid erblasst angesichts des Wissens, der Macht und des Reichtums der Überwachungskapitalisten, im Einzelfall wie im Kollektiv, und heute gilt das für den modernen Staat. Ein Blick auf Microsofts Bilanzen von 2017 zeigt ein Vermögen von 126 Milliarden Dollar in Cash und Effekten, bei Google sind es 92 Milliarden, etwa 30 Milliarden bei Facebook, und die Finanzmärkte standen Mitte 2017 mit über 1,6 Billionen Dollar Marktkapitalisierung hinter ihren unaufhaltsam wachsenden instrumentären Regimen. Das bedeutet, dass diese Utopisten sehr wohl über die Möglichkeiten zur Umsetzung ihrer Phantasien in Fakten verfügen, und das ohne Armeen und Blutvergießen.19 In dieser Hinsicht sind die führenden Köpfe des Überwachungskapitalismus Utopisten sui generis. Marx erfasste die Welt in einem gewichtigen theoretischen Werk, aber ihm stand einzig die Macht seiner Ideen zu Gebote. Es war völlig ausgeschlossen, dass er seine Vision hätte umsetzen können. Erst lange nach der Veröffentlichung seiner Theorien wandten Männer wie Lenin, Stalin und Mao sie auf das wirkliche Leben an. Die Manuels bezeichnen Lenin sogar als einen Spezialisten der »angewandten Utopistik«.20 Im Gegensatz dazu bemächtigen die Überwachungskapitalisten sich der Welt unmittelbar, in der Praxis. Von der Theorie her sind sie eher Leichtgewichte – jedenfalls soweit sie ihre Gedanken mit der Öffentlichkeit teilen. Für ihre Macht gilt das Gegenteil, sie ist monumental und weitgehend unbeschränkt.

Sprechen wir von Theorie und Praxis, so sieht die übliche Abfolge vor, die Theorie erst zu prüfen, zu hinterfragen, zu diskutieren, bevor man sich an die Umsetzung macht. Das gibt uns die Möglichkeit, uns ein Urteil über ihren praktischen Wert zu bilden und uns Gedanken über unvermutete Konsequenzen zu machen; außerdem erlaubt es eine Bewertung ihrer Vereinbarkeit mit dem weiteren theoretischen Kontext, in dem sie entsteht. Die unvermeidliche Lücke zwischen Theorie und Praxis schafft einen Raum für die kritische Hinterfragung. So können wir zum Beispiel hinterfragen, ob ein Gesetz oder eine staatliche Praxis mit der Verfassung, den Grundrechten oder geltenden Vorschriften zu vereinbaren ist, weil wir die entsprechenden Dokumente prüfen, deuten und diskutieren können. Erweist die Lücke sich als zu groß, kann der Bürger eingreifen, um sie zu schließen, indem er etwas gegen das Gesetz oder die fragliche Praxis unternimmt. Die Überwachungskapitalisten stellen die übliche Abfolge von Theorie und Praxis auf den Kopf. Ihre Praktiken preschen mangels einer expliziten und damit anfechtbaren Theorie in rasendem Tempo voran. Sie haben sich auf die dem Instrumentarismus eigenen Shock-and-Awe-Taktiken kapriziert, die beim Betrachter zu Benommenheit, Unsicherheit und Ratlosigkeit führen. Mangels einer klar artikulierten Theorie bleiben uns nur noch die Überlegungen über die praktischen Auswirkungen: das Monitoringsystem, das uns den Motor abstellt; das Ziel, das sich erst zusammen mit der Route ergibt; der vorgeschlagene Erwerb eines Gegenstands, der auf unserem Handy ausgerechnet in dem Augenblick auftaucht, in dem wir in Endorphinen schwimmen; Big Others ständiges Tracking unseres Verbleibs, unseres Verhaltens und unserer Stimmung; der fröhliche Auftrieb der Kundschaft in Geschäfte, die den Überwachungskapitalisten dafür bezahlen. So hauchdünn und unter der Oberfläche verborgen die Theorien der Überwachungskapitalisten auch sein mögen, die instrumentäre Macht, die ihnen zu Gebote steht, kann sie ihre Träume verwirklichen lassen – oder zumindest können sie mit dem bloßen Versuch für einen Tornado von Konsequenzen sorgen. Die einzige Möglichkeit, die Theorie hinter ihrer angewandten Utopistik zu begreifen, ist das Reverse-Engineering, die Nachkonstruktion ihrer Operationen und die Prüfung ihrer Bedeutung. Die angewandte Utopistik ist auf dem Vormarsch: Facebook, Google und Microsoft verschieben die Grenzen der Extraktion von

Verhaltensüberschuss in Lebensbereiche, die traditionell als gesellschaftlich gelten und die sich normalerweise im Zusammenspiel von bürgerlichen Institutionen und politischer Führung entwickeln. Als Zuckerberg 2017 den »Aufbau einer globalen Gemeinschaft« zu einem von Facebooks Zielen deklarierte, läutete er damit eine neue Phase der angewandten Utopistik ein: »Alles in allem ist es wichtig, dass die Führung unserer Gemeinschaft mit der Komplexität und den Ansprüchen ihrer Mitglieder wächst. Wir haben uns der ständigen Verbesserung verschrieben, selbst wenn das den Aufbau eines weltweiten Wahlsystems bedeutet, um Ihnen mehr Mitspracherecht zu geben. Wir hoffen, dass dieses Modell beispielhaft dafür ist, wie der kollektive Entscheidungsprozess bei anderen Aspekten der globalen Gemeinschaft funktionieren könnte.«21 Noch im selben Jahr sagte Zuckerberg einem Publikum aus Softwareentwicklern, dass Facebook »eine ganze Straßenkarte von Produkten« habe, »die beim Aufbau von Gruppen und Gemeinschaft helfen, die beim Aufbau einer informierteren Gesellschaft helfen, die mithelfen, unsere Gemeinschaften sicherer zu machen, und wir haben hier noch viel mehr zu tun«.22 2017 sagte Microsofts Nadella auf besagter Entwicklerkonferenz seinem Publikum: »Ob in der Präzisionsmedizin oder im Präzisionsackerbau, ob bei den digitalen Medien oder beim industriellen Internet, die Gelegenheit für uns Entwickler zu einer breiten, tiefen Wirkung auf alle Teile der Gesellschaft war nie größer.«23 Die Vision, die Nadella an diesem Tag enthüllte, steht sinnbildlich für eine breitere überwachungskapitalistische Schablone für unsere Zukunft. Was glauben sie, wo sie uns hinführen?

Konfluenz als Beziehung zwischen Maschinen Lassen wir, um das wahre Maß einer instrumentären Gesellschaft auszuloten, den Rummel um ein »magisches Zeitalter« mal für einen Augenblick beiseite und konzentrieren uns stattdessen auf die Praktiken der angewandten Utopistik und der gesellschaftlichen Vision, die sie implizieren. Nadella liefert hier einen wertvollen Ansatzpunkt mit seiner Aufzählung praktischer Anwendungen, die eine umfassende neue Vision

von Maschinenbeziehungen als Schablone für die gesellschaftlichen Beziehungen einer neuen Ära implizieren. Die Offenbarung beginnt mit Nadellas Bericht von einer Zusammenarbeit Microsofts mit einem 150 Jahre alten schwedischen Hersteller von Präzisionsmaschinen für die Metallverarbeitung, der sich für das 21. Jahrhundert neu erfunden hat. Das Projekt illustriert auf höchstem technischem Niveau, was Nadella als »fundamentalen Paradigmenwechsel bei den Apps, die wir bauen« beschreibt, »eine Veränderung unserer Weltsicht … von einer Mobilität-über-alles-, Cloud-über-alles-Welt hin zu einer neuen Welt, die sich aus einer intelligenten Cloud und einem intelligenten Rand zusammensetzt. Künstliche Intelligenz, sagt er, »lernt aus Informationen und interagiert mit der physischen Welt«, womit er genau die Fähigkeiten anspricht, die Voraussetzung für Handlungsvorteile sind.24 Zunächst beschreibt Nadella, wie die durch Telemetrie verbundenen Maschinen in der neuen Fabrikumgebung fortwährend Daten an den »IoTHub« in der »Cloud« streamen, wo Microsofts Analytics Anomalien aufspürt, die eine Gefährdung für die Maschinen darstellen könnten. Jede dieser Anomalien wird über den Datenstrom auf ihre Ursache zurückverfolgt, und die Maschinenintelligenz im Hub lernt, die Kausalmuster zu identifizieren, um eine gefährdete Maschine binnen zwei Sekunden präventiv abschalten zu können – noch bevor ein potenziell schädliches Ereignis eintreten kann. Dann beschreibt Nadella die »bahnbrechende Möglichkeit«, einen rechnergestützten Aktuationssensor direkt in die Maschine einzubauen, was die Zeit für einen präventiven Stopp drastisch verkürzt: »Diese Logik läuft mittlerweile vor Ort, womit der Umweg über die Cloud wegfällt.« Der »Rand« weiß auf der Stelle, wann der Maschine ein Ereignis widerfährt, das eine zukünftige Anomalie voraussagt, und vermag sie binnen 100 Millisekunden zu stoppen, was einer »20-fachen Verbesserung« entspricht. Er preist das als die »Macht der Cloud in harmonischer Zusammenarbeit mit einem intelligenten Rand«; Ziel ist es, Abweichungen von der Norm zu antizipieren und ihnen vorzugreifen, »bevor sie passieren«.25 Die Schlagkraft maschinellen Lernens entwickelt sich exponentiell, da jedes Gerät aus den Erfahrungen aller anderen Geräte lernt; alle geben ihre

Daten ab an den Hub und profitieren von dessen Wissen. In diesem Szenarium gilt weniger, dass das Ganze größer ist als die Summe seiner Teile; es ist vielmehr so, dass es keine Teile mehr gibt. Das Ganze ist überall und manifestiert sich in seiner Gänze in jedem der in allen Maschinen eingebauten Geräte. Nadella übersetzt das in die praktischen Anwendungsmöglichkeiten, wenn er sagt, man schaffe damit, dass man irgendwo – »in einer Werkshalle, zu Hause, egal wo« – eine Menge Geräte vernetze, ein »Ad-hoc-Datencenter … Jeder Ort lässt sich in einen sicheren, AI-gesteuerten Ort verwandeln.«26 Diese Aussage setzt »sicher« mit »automatisch frei von Anomalien« gleich, nichts anderes ist hier gemeint. In Nadellas Fabrik ersetzt Maschinenwissen augenblicklich Unwissenheit; jegliches Maschinenverhalten erfährt ein Herding hin zu vorher festgesetzten Normen. Statt sich Sorgen um die Multiplikation des Risikos zu machen und die Ansteckungsgefahr für den Fall, dass das maschinelle Lernen versagen sollte, feiert Nadella Gleichlauf und Universalität garantierter Ergebnisse: Jede Maschine ist dieselbe Maschine und marschiert wie alle anderen Maschinen zur selben Musik. So wie vor gerade mal hundert Jahren die Logik der Massenproduktion und ihre hierarchische Verwaltung das Muster für die Prinzipien der Industriegesellschaft und den breiteren zivilisatorischen Kontext lieferten, so offenbart sich hier Nadellas New-Age-Fabrik als Versuchsgelände für seine – überwachungskapitalistische – Vision einer instrumentären Gesellschaft, die durch eine neue Form kollektiven Handelns ermöglicht wird. Maschinenlernen stellt sich hier als kollektives Bewusstsein – als Schwarmhirn – dar, in dem jedes Element im Einklang mit jedem anderen Element lernend funktioniert. Wir haben es hier mit einem Modell kollektiven Handelns zu tun, bei dem alle Maschinen in einem vernetzten System sich nahtlos auf die Konfluenz zubewegen; alle teilen sie dasselbe Verständnis, alle funktionieren sie im Einklang mit einer maximalen Effizienz um der Erreichung derselben Ergebnisse willen. Die »Freiheit« jeder einzelnen Maschine wird abgetreten an das Wissen, das alle teilen. Ganz so wie die Verhaltenstheoretiker Planck, Meyer und Skinner es vorhergesagt haben, läuft dieses Opfer hinaus auf einen totalen Krieg gegen Zufälle, Fehler und Beliebigkeit überhaupt.

Nadella wendet dieses Muster neuer Maschinenbeziehungen schließlich auf eine komplexere Illustration eines neuen Mensch-Maschine-Systems an, bleibt dabei aber nach wie vor im »ökonomischen Bereich«. Er nimmt das Beispiel einer Baustelle, wo menschliches und Maschinenverhalten auf von den Vorgesetzten festgesetzte – und als »Policies« bezeichnete – Parameter getrimmt werden. Algorithmische Unverträge wenden Regeln an und ersetzen damit soziale Funktionen wie Aufsicht, Verhandlung, Kommunikation und Problemlösung. Jede Person, jedes Werkzeug, jede Maschine nimmt gleichwertig einen Platz als Gegenstand ein; über die ganze Baustelle verteilte AI-Geräte sorgen dafür, dass jeder Gegenstand für »das System erkennbar« ist. So werden zum Beispiel Ausbildung, Qualifikation, Erwerbsverlauf und andere Hintergrundinformationen des Einzelnen dem System angezeigt. So könnte eine »Policy« zum Beispiel lauten: »nur qualifizierte Arbeiter dürfen mit Bohrhämmern arbeiten«. Sollte ein nicht akkreditierter Arbeiter sich einem Bohrhammer nähern, könnte das eine Warnung vor einer bevorstehenden Verletzung der Policy auslösen, der Bohrhammer schlägt Alarm und ist nicht mehr einzuschalten. Bezeichnenderweise richten auf dieser Baustelle nicht nur Dinge ihr vereintes Handeln nach diesen Policies aus. Sie gelten auch für das kollektive Handeln der Personen, da die künstliche Intelligenz zur Vermeidung von Anomalien auch soziale Einflussprozesse auslöst. Im Falle des gefährdeten Bohrhammers etwa werden die Menschen auf der Baustelle in Richtung der Stelle mobilisiert, für die eine künstliche Intelligenz die Anomalie antizipiert, um »das Problem schnell zu lösen«. »Der intelligente Rand«, so sagt Nadella seinen Entwicklern, »ist die Schnittstelle zwischen dem Computer und der realen Welt … man kann die reale Welt nach Leuten, Objekten und Aktivitäten absuchen und Policies auf sie anwenden.«27 Sind Menschen und ihre Beziehungen zueinander erst einmal anderisiert und zu »Dingen in der Cloud« geworden, lassen sich 25 Milliarden rechnergestützte Aktuationsgeräte mobilisieren, um das Verhalten nach den Maßstäben sicherer und harmonischer »Policy«-Parameter zu gestalten. Der »tiefgreifendste Wandel«, so erklärt Nadella, besteht darin, dass »Menschen und ihre Beziehungen zu anderen Menschen jetzt in der Cloud ein First-

Class-Ding sind. Es geht nicht nur um Menschen, sondern um ihre Beziehungen, es geht um ihre Beziehungen zu allen Gebrauchsgegenständen am Arbeitsplatz, ihren Arbeitsplänen, ihren Projektplänen, ihren Papieren – all das ist jetzt in Microsoft Graph zu sehen.« Diese Ströme totaler Information, meint Nadella triumphierend, seien der Schlüssel für eine Optimierung der »Zukunft der Produktivität«.28 In Microsofts instrumentärer Gesellschaft gleichen Fabriken und Arbeitsplätze Skinners Labors, nur dass Maschinen die Tauben und Ratten ersetzt haben. Es ist die Umgebung, in der man Architektur und Tempo instrumentärer Macht für die Umsetzung auf die Gesellschaft vorbereitet – mit anderen Worten für eine digitale Neuauflage von Walden Two, bei der Maschinenbeziehungen das Modell für soziale Beziehungen sind. Nadellas Baustelle steht beispielhaft für die große Konfluenz, bei der man Maschinen und Menschen als Objekte in der Cloud vereint, wo man sie entsprechenden »Policies« gemäß instrumentiert und orchestriert. Das Großartige an »Policies« ist, dass sie als garantierte Ergebnisse auf den Plan treten, die sich vom »System« automatisch aufzwingen, überwachen und warten lassen. Sie sind untrennbar verbunden mit Big Others Operationen, einer Unzahl von Unverträgen, losgelöst von all den sozialen Prozessen, die wir mit privater oder politischer Führung verbinden: Konflikt und Verhandlung, Versprechen und Kompromiss, Vereinbarungen und gemeinsame Werte, demokratischer Wettbewerb, Legitimation und Autorität. All das macht »Policies« zum funktionellen Gegenstück zu Plänen, da das Handeln von Mensch und Maschine von Big Other dirigiert wird. Es garantiert, dass Türen verschlossen oder unverschlossen sind, Automotoren springen an oder nicht, der Bohrhammer verweigert sich, der Arbeiter wird sich an die Normen halten, die Gruppe kommt im Schwarm, um Anomalien zu korrigieren – auf einen anomalen Streit nach dem Frühstück hin wird das Gesundheitsamt gerufen, weil die Dezibel unserer Stimme die vom Krankenversicherer vorgeschriebene Norm übersteigt. Wir werden alle sicher sein, da jeder Organismus im Einklang mit jedem anderen Organismus summt; wir werden weniger eine Gesellschaft sein als eine Population, die in perfekter reibungsloser Konfluenz ruht und schwärmt; die Ausformung übernehmen Mittel zur Verhaltensveränderung, die sich

unserem Bewusstsein entziehen, wir können sie also weder bedauern, noch können wir uns ihnen entziehen. So wie die Arbeitsteilung aus der ökonomischen Sphäre im 20. Jahrhundert in die Gesellschaft migrierte, so ist Nadellas Baustelle die ökonomische Petrischale, in der eine neue Wissensteilung für die Anwendung auf die Gesellschaft mutiert. Im 20. Jahrhundert hat man die kritischen Erfolgsfaktoren des Industriekapitalismus – Effizienz, Produktivität, Standardisierung, Austauschbarkeit, Arbeitsteilung, Disziplin, Aufmerksamkeit, Planung, Konformität, hierarchische Verwaltung, die Trennung von Wissen und Tun etc. – am Arbeitsplatz entdeckt, vervollkommnet und dann auf die Gesellschaft umgesetzt und dort in Schule, Familie und Persönlichkeit institutionalisiert. Wie Generationen von Wissenschaftlern dokumentiert haben, wurde die Gesellschaft mehr und mehr zur Fabrik, um bereits den Jüngsten so trainieren und sozialisieren zu können, dass er den neuen Anforderungen der Massenproduktionsordnung entsprach. Wir haben diesen Zyklus von Neuem begonnen, nur besteht das Ziel diesmal darin, die Gesellschaft des 21. Jahrhunderts zum »First-ClassObjekt« zu machen, das man um anderer Leute Gewissheit willen nach dem Vorbild des Maschinenschwarms organisiert. Das Verbundensein, nach dem uns einst um eines effektiven Lebens willen war, wird jetzt zum Medium für eine neue gesellschaftliche Konfluenz, die sich in kollektivem Handeln äußert, das auf garantierte Ergebnisse gerichtet ist.

Konfluenz als Gesellschaft Microsofts Wissenschaftler arbeiten seit Jahren daran, die Logik automatisierter Präventivkontrolle am Rand des Netzes auf soziale Beziehungen zu transponieren. Wie Nadella 2017 sagte: Wenn »wir« das an einem »physischen Ort« machen können, dann lässt sich das »überall« machen. Er riet seinem Publikum: »Man könnte auch über Leute reden, ihre Beziehung mit anderen Leuten, die Dinge um sie herum …«29 Die spekulative Bandbreite des neuen Denkens zeigt ein Patentantrag Microsofts von 2013, der 2016 auf den neuesten Stand gebracht wurde und

einen neuen Titel bekam: »Monitoring von Nutzerverhalten auf einem computerisierten Gerät«.30 Mit auffallend dünner Theorie, aber dafür umso massiverem praktischem Wert zielt das patentierte Gerät auf die Überwachung von Nutzern mit dem Ziel, präventiv »jede Abweichung von normalem oder akzeptablem Verhalten« zu erkennen, »die sich auf den Geisteszustand des Nutzers auswirken könnte. Ein Vorhersagemodell, das auf der Basis von Charakteristiken eines oder mehrerer geistiger Zustände den Abgleich mit Charakteristiken des gegenwärtigen Nutzerverhaltens erlaubt.« Die Wissenschaftler sprechen hier von einer Anwendung, die überall – in Servern, Browsern, Telefonen oder Wearables – unterzubringen ist, um dort unablässig das Verhalten einer Person zu überwachen: ihre Interaktion mit anderen Menschen oder Computern, Postings in sozialen Medien, Suchanfragen, Online-Aktivitäten. Die App vermag Bewegungen zu erfassen und Sensoren zur Aufnahme von Audio- bzw. Videosignalen oder Bildern zu aktivieren. So könnte sie etwa erkennen, »wenn der User übermäßig schreit, indem sie die Anrufe des Users untersucht und mit entsprechenden Charakteristiken des Vorhersagemodells vergleicht«. Zur ständigen Verbesserung des Vorhersagemodells werden alle diese Verhaltensdaten für künftige Analysen gespeichert. Wenn der Nutzer für gewöhnlich zurückhaltend spricht, könnte sein plötzliches Lautwerden auf ein »psychosoziales Ereignis« hindeuten. Alternativ ließe sich das Verhalten aber auch anders beurteilen, nämlich im Verhältnis zu einer »Merkmalverteilung, die für das normale und / oder akzeptable Verhalten des durchschnittlichen Angehörigen einer Bevölkerungsgruppe steht … eine statistisch signifikante Abweichung von diesem Baseline-Verhalten weist auf eine Reihe möglicher psychosozialer Events.« Zunächst sieht das Patent vor, dass das Gerät im Falle einer Anomalie eine »vertraute Person« – einen Familienangehörigen, Arzt oder Pflegepersonal – alarmiert. Dann jedoch erweitert man die Spezifikationen; die Wissenschaftler verweisen auf die Nützlichkeit solcher Signale für Gesundheitsämter, Versicherungen und Vollzugsbehörden. Es ergibt sich hier eine neue Möglichkeit für Überwachungsdienstleister, mit der sich präventiv jedem Verhalten zuvorkommen lässt, das der jeweilige Kunde zu verhindern wünscht.

Microsofts Patent geht auf Planck, Meyer und Skinner zurück und auf deren Standpunkt der Betrachtung des Anderen. In ihrer aus der Physik übernommenen Darstellung des menschlichen Verhaltens sind Anomalien die »Zufälle«, die sie Freiheit nannten, die aber in Wirklichkeit für Unwissenheit stehen; sie sind einfach noch nicht durch Fakten zu erklären. Planck, Meyer und Skinner glaubten, die Aufgabe dieser Freiheit sei der unabdingbare Preis für die »Sicherheit« und »Harmonie« einer Gesellschaft, die frei von Anomalien ist und in der alle Prozesse für das übergeordnete Wohl optimiert sind. Mit der richtigen Verhaltenstechnologie, so stellte sich Skinner vor, ließen sich mittels Wissen Anomalien präventiv ausmerzen; so könnte man Verhalten auf vorher festgelegte Parameter dirigieren, die im Einklang mit den sozialen Normen und Zielen stehen. »Wenn sich herausstellt, dass unsere Mitglieder das Leben in Walden 2 trotz erheblicher konträrer Beeinflussung vorziehen, wäre das der bestmögliche Beweis dafür, dass wir eine sichere und produktive Sozialstruktur erreicht haben.«31 In diesem Muster sozialer Beziehungen wirkt die Verhaltensmodifikation gerade mal so außerhalb der Bewusstseinsschwelle, um mit »korrekten Policies« konformes Verhalten zu verstärken und abweichendes zu bestrafen. So kam Facebook darauf, dass sich Emotionen ebenso wunschgemäß beeinflussen lassen wie Wahlen oder was immer dem Unternehmen sonst noch einfallen sollte. Niantic Labs und Google kamen dahinter, dass sich – mit garantiertem Erfolg – McDonald’s oder die Taschen eines beliebigen anderen Kunden füllen ließen. In jedem Fall definieren die Zielsetzungen von Konzernen die »Policies«, auf die das kollektive Verhalten harmonisch zuströmt. Der Maschinenschwarm – das durch Maschinenlernen geschaffene kollektive Gehirn – ist das materielle Mittel für die endgültige Eliminierung chaotischer Elemente, die garantierten Ergebnissen sowie Eric Schmidt und Sebastian Thrun im Wege stehen, dem Guru der Maschinenintelligenz, der früher Googles X Lab leitete und bei der Entwicklung von Street View und Googles Roboterauto mitwirkte. »Machen wir Schluss mit der Angst vor der künstlichen Intelligenz«, schreiben sie. Schmidt und Thrun streichen den wesentlichen Unterschied zwischen künstlicher Intelligenz und der menschlichen Art zu lernen heraus.32 Statt

der üblichen Versicherungen, man könne Maschinen menschlichere Züge geben, um sie weniger bedrohlich wirken zu lassen, machen Schmidt und Thrun sich für das Gegenteil stark: Die Menschen müssen mehr wie Maschinen werden. Maschinenintelligenz wird bei ihnen zur Apotheose kollektiven Handelns, bei dem sich sämtliche Maschinen in einem vernetzten System nahtlos auf die Konfluenz zubewegen. Alle teilen sie ein und dasselbe Verständnis, also funktionieren sie alle einstimmig und mit maximaler Effizienz um derselben Ergebnisse willen. Die Bohrhämmer schätzen ihre Situation nicht unabhängig voneinander ein; jeder einzelne lernt, was alle lernen; alle reagieren auf ein und dieselbe Art auf den unqualifizierten Zugriff, ihre Gehirne funktionieren vereint im Dienste der »Policy«. Die Maschinen stehen und fallen gemeinsam, machen gemeinsam etwas richtig oder falsch. Schmidt und Thrun sehen das folgendermaßen: Beim Fahren lernen die Leute größtenteils aus eigenen Fehlern, selten aus den Fehlern anderer. Die Leute machen kollektiv immer wieder dieselben Fehler. Als Folge davon kommen jährlich weltweit Hunderttausende bei Verkehrsunfällen um. Künstliche Intelligenz entwickelt sich anders. Wenn eines von den selbstfahrenden Autos einen Fehler macht, lernen alle davon. Neue selbstfahrende Autos kommen, wenn man so will, mit sämtlichen Fähigkeiten ihrer Vorfahren und Kollegen zur Welt. Kollektiv lernen diese Autos also schneller als Menschen. Mit all dem Durchblick reihten sich selbstfahrende Autos auf unseren Straßen in kürzester Zeit neben menschlichen Fahrern ein, weil sie ständig von den Fehlern der anderen lernten … Hochentwickelte AI-gesteuerte Tools werden es uns ermöglichen, besser von den Erfahrungen anderer zu lernen … Die Lektion selbstfahrender Autos ist, dass wir kollektiv mehr lernen und tun können.33 Hier wird das maschinelle Muster für die sozialen Beziehungen einer instrumentären Gesellschaft so prägnant wie außergewöhnlich erklärt. Im Wesentlichen heißt dies erstens, dass Maschinen keine Individuen sind, und zweitens, dass wir mehr wie Maschinen sein sollten. Die Maschinen ahmen einander nach, also sollen wir das auch so halten. Die Maschinen bewegen sich gemeinsam, nicht wie viele Flüsse, sondern wie einer, also sollen wir

das auch. Die Maschinen werden alle durch ein und dasselbe Denken strukturiert und fließen ein und demselben Ziel entgegen, also muss man auch uns strukturieren. Die instrumentäre Zukunft integriert diese symbiotische Vision, in der die Maschinen- und die soziale Welt in Harmonie operieren, und das sowohl innerhalb der »Spezies« als auch, insofern Menschen die Prozesse der smarten Maschinen lernen, über die Grenze Mensch-Maschine hinweg. Dieses Nacheifern ist nicht als Rückfall in den Taylorismus der Massenproduktion oder in Chaplins Moderne Zeiten gedacht, wo der Arbeiter zum Opfer einer mechanischen Ordnung wird. Dieses Rezept für eine Symbiose schlägt einen anderen Weg ein, einen, in dem menschliche Interaktion die Beziehungen intelligenter Maschinen wiederspiegelt, da Individuen denken und handeln lernen, indem sie einander nachahmen – ganz so wie selbstfahrende Autos und policytreue Bohrhämmer. Auf diese Weise wird der Maschinenschwarm zum Vorbild für einen neuen Menschenschwarm, der in friedlichem Einklang dem Aufbau einer fehler- und zufallsfreien Welt entgegenmarschiert, alle im Rhythmus ein und derselben »korrekten« Einsicht. In dieser Welt sind die »korrekten« Ergebnisse im Voraus bekannt und garantiert. Dieselbe ubiquitäre Instrumentierung nebst Transparenz, die das Maschinensystem definiert, muss auch das Gesellschaftssystem definieren. Was letztlich nur eine andere Definition der Ground-Truth einer instrumentären Gesellschaft ist. In diesem menschlichen Schwarm opfert man die individuelle Freiheit dem kollektiven Wissen und Handeln. Nicht harmonierende Elemente nimmt man präventiv und unter Einsatz der geballten Kraft sozialer Überredung und Beeinflussung mit hohen Dosen von Tuning, Herding und Konditionierung aufs Korn. So marschieren wir wie smarte Maschinen der Gewissheit entgegen. Wir lernen unsere Freiheit dem kollektiven Wissen zu opfern, das uns von anderen um ihrer garantierten Ergebnisse willen aufgedrängt wird. Das ist die Signatur der Dritten Moderne, wie sie uns das Überwachungskapital als Antwort auf unsere Suche nach einem gemeinsamen effektiven Leben zu bieten hat.

Kapitel 15 Das instrumentäre Kollektiv Denn es ist durchaus denkbar, daß eines Tages ein bis ins letzte durchorganisiertes, mechanisiertes Menschengeschlecht entscheidet, daß es für die Menschheit im ganzen besser ist, gewisse Teile derselben zu liquidieren. – Hannah Arendt, Elemente und Ursprünge totaler Herrschaft

Die Priester instrumentärer Macht Führende Köpfe der angewandten Utopistik wie Page, Nadella und Zuckerberg äußern sich nicht groß über ihre Theorien. Ihre sporadischen Aussagen diesbezüglich sind günstigstenfalls seicht. Dafür sind ein Kader von Datenwissenschaftlern und eine ganze »Computational Social Science« in die Bresche gesprungen, die der zunehmend an Fahrt gewinnenden instrumentären Macht experimentell und theoretisch beizukommen versuchen. Ihre Einsichten in die sozialen Prinzipien einer instrumentären Gesellschaft sind denn auch von besonderem Wert. Ein herausragendes Beispiel ist hier Alex Pentland, Direktor des Human Dynamics Lab am MIT. Professor Pentland ist insofern eine seltene Ausnahme auf dem Gebiet der Angewandten Utopistik, als er neben seinen zahlreichen technischen Innovationen und praktischen Anwendungen in Zusammenarbeit mit seinen Studenten und Kollegen tatsächlich eine Theorie der instrumentären Gesellschaft erarbeitet hat. Ihre Forschung setzt ein Zeichen innerhalb einer Datenwissenschaft, deren einschlägige Theorien und Innovationen in dynamischer Interaktion mit dem Fortschritt des Überwachungskapitalismus stehen; ich erinnere an Rosalind Picards

Affective Computing und Joe Paradisos digitale Allwissenheit. Nur wenige Wissenschaftler kümmern sich mit Pentlands Einsicht und Überzeugung um die sozialen Auswirkungen ihrer Arbeit. Er liefert uns eine Gelegenheit zur kritischen Betrachtung der Bestandteile einer instrumentären Gesellschaft, ihrer Annahmen zur Governance sowie ihrer sozialen Prinzipien und Prozesse. Ich möchte mich hier daran versuchen, auf die Theorie hinter der überwachungskapitalistischen Praxis zu schließen, die »Gesellschaft« als »First-Class-Objekt« für Rendition, Berechnung, Modifikation und Monetisierung zu integrieren. Pentland ist ein äußerst produktiver Autor, der allein oder in Zusammenarbeit mit anderen Hunderte von Artikeln und Studien veröffentlicht hat. Außerdem ist er der rührige Berater einer ganzen Reihe von Organisationen und Unternehmen, vom Weltwirtschaftsforum über die Data-Pop-Alliance, Google, Nissan und Telefónica bis hin zum Generalsekretär der Vereinten Nationen.1 Pentlands Labor wird von einem Who’s Who globaler Konzerne und Consultingfirmen finanziert: Google, Cisco, IBM, Deloitte, Twitter, Verizon und viele andere mit Interesse am überwachungskapitalistischen Projekt. Auch wenn Pentland nicht allein ist, so ist er doch so etwas wie ein Hohepriester in der exklusiven Enklave von Priestern auf dem Gebiet. Im Gegensatz zu Hal Varian spricht Pentland nicht von »wir«, wenn er auf Google zu sprechen kommt, dennoch hat seine Arbeit einen prominenten Platz in den überwachungskapitalistischen Enklaven, wo sie die Art von materieller und intellektueller Unterstützung liefert, die bei der Legitimation instrumentärer Praktiken so hilfreich ist. Anlässlich einer Präsentation bei Google, wo Pentland im Beirat der Advanced Technology and Projects Group sitzt, stellte Executive Brad Horowitz seinen ehemaligen Doktorvater und Mentor als »inspirierenden Lehrer« mit Qualifikationen über eine ganze Reihe von Disziplinen hinweg vor, dessen ehemalige Studenten führend auf dem Gebiet der Computerwissenschaften seien. Pentland gilt unter anderem als »Pate der Wearables«, vor allem von Google Glass. 1998 prophezeite er, Wearables könnten »die Sinne erweitern, das Gedächtnis verbessern, dem Privatleben auf die Sprünge helfen und sogar dabei, ruhig und gefasst zu sein«.2 Thad Starner, der

ebenfalls bei Pentland promovierte, hatte während seiner Zeit am MIT ein primitives »Wearable« entwickelt, als Sergey Brin ihn 2010 einstellte, um seine Arbeit bei Google weiterzuführen; aus diesem Projekt wurde dann Google Glass. Über fünfzig von Pentlands Doktoranden sind ausgezogen, um die instrumentäre Vision an Spitzenuniversitäten, in Forschungsgruppen und dreißig Unternehmen zu verbreiten, bei denen Pentland als Mitgründer, Sponsor oder Berater beteiligt ist. Jeder von ihnen wendete die eine oder andere Facette von Pentlands Theorie, Analytics und Erfindungen auf Menschen in Organisationen und Städten an.3 Pentlands akademische Referenzen und beredte Intelligenz helfen bei der Legitimation einer gesellschaftlichen Vision, die noch vor wenigen Jahrzehnten bei Intellektuellen, Amtsträgern und der Öffentlichkeit ganz allgemein für Abscheu und Entsetzen sorgte. Besonders bemerkenswert ist, dass Pentland Skinners Arbeit zu Ende führt, ohne damit die Aufregung zu verursachen, die einst Harvards freimütiger Behaviorist hervorrief; keine Spur von dem weltweiten Abscheu oder der Bösartigkeit, mit der man Skinner begegnete. Und das, obwohl Pentland zusammen mit anderen renommierten Autoren mittels Big Data, forscher Theorien, ubiquitärer digitaler Instrumentierung, fortgeschrittener Mathematik, institutioneller Legitimation, betuchter Sponsoren und einflussreicher Freunde Skinners Vision von der Gesellschaft erfüllt. Wie Skinner ist auch Pentland ein kühner Designer von Utopien und ein grandioser Denker, der kein Problem damit hat, vom Tier auf die Menschheit zu schließen. Außerdem packt er aktiv mit an bei der praktischen Architektur des Instrumentarismus und deren rechnerischen Herausforderungen. Pentland selbst bezeichnet seine Gesellschaftstheorie als »Sozialphysik«, eine Auffassung, die ihn – im Gefolge von Planck, Meyer und Mackay – als B. F. Skinner des neuen Jahrhunderts ausweist.4 Und auch wenn Pentland selbst den alten Behavioristen nicht erwähnt, so bringt sein Buch Social Physics Skinners gesellschaftliche Vision auf den Stand des 21. Jahrhunderts. Nur verfügt diese »Sozialphysik« über all die Instrumente, die es zu Skinners Zeit nicht gab. Mit seiner Forschung und einem theoretischen Unterbau verhilft Pentland dem instrumentären Impuls zur Geltung. Seine Theorie gründet sich auf Skinners moralischen

Überlegungen und dessen Erkenntnislehre, die im Standpunkt der Betrachtung des Anderen zum Ausdruck kommt. Wie Skinner begann Professor Pentlands intellektuelle Reise mit dem Studium des Verhaltens von Tieren. Während Skinner sein Denken am Detail der Verhaltensweisen von Einzeltieren schärfte, beschäftigte Pentland sich mit dem Verhalten ganzer Tierpopulationen. Als Student half er am Environmental Research Institute der NASA aus, wo er eine Methode zur Einschätzung der Größe kanadischer Biberpopulationen vom Weltraum aus entwickelte, die darin bestand, deren Teiche zu zählen: »Durch die Beobachtung ihrer Lebensweise bekommt man ein indirektes Maß.«5 Diese Erfahrung scheint Pentland eine Vorliebe für die kühl distanzierte Betrachtungsweise mit auf den Weg gegeben zu haben, die er später als »Gottesperspektive« bezeichnete. Gut möglich, dass Sie die Gottesperspektive selbst schon von einem Flugzeug aus erlebt haben, das sich eben über die Stadt erhebt – wenn all die Freuden und Leiden da unten zum lautlosen Gewusel eines Ameisenhaufens werden. In dieser Höhe löst sich jede Wir-Perspektive flugs zugunsten einer Perspektive auf, die nur noch das Andere sieht. Und auf eben dieser Betrachtungsweise gründete Pentland seine wissenschaftliche Arbeit, als er Mackays Prinzipien für die Beobachtung und Stimulation aus der Ferne auf den Menschen anzuwenden begann: »Wenn man Leuten auf der anderen Seite des Raumes bei der Unterhaltung zusieht, kann man eine Menge über sie sagen … Es ist, als betrachte man Biber aus dem Weltall – oder Gorillas wie Jane Goodall. Man beobachtet aus der Ferne.«6 (Was natürlich einer Ohrfeige für Goodall gleichkommt, schließlich bestand ihr genialer Durchbruch darin, die Gorillas, die sie studierte, eben nicht als »die anderen« zu verstehen, sondern als »welche von uns«.) Die Gottesperspektive sollte wesentlich für das Konzept einer instrumentären Gesellschaft werden, als sich aus unsystematischem Herumexperimentieren über die Jahre allmählich ein umfassendes Bild abzuzeichnen begann. Wir wollen im folgenden Abschnitt diese Reise verfolgen, als Pentland und seine Studenten soziales Verhalten rendern, messen und berechnen lernten. Mit dieser Grundlage wenden wir uns dann Pentlands Buch zu, das die Gesellschaft als instrumentäres Schwarmhirn zu interpretieren versucht – ganz im Sinne von Nadellas Maschinen, nur eben

jetzt theoretisch unterfüttert. Das Ganze erinnert stark an Skinners Äußerungen, Werte, Weltsicht und seine Vision von der Zukunft der Menschheit.

Big Other frisst Gesellschaft: Die Rendition der sozialen Beziehungen Skinner bedauerte das Fehlen von »Instrumenten und Methoden« zum Studium menschlichen Verhaltens, die sich mit den Methoden etwa der Physik hätten vergleichen lassen. Wie als Reaktion auf dieses Lamento haben Pentland und seine Studenten die letzten beiden Jahrzehnte verbissen auf die Erfindung von Instrumenten und Methoden verwandt, die jegliches menschliche Verhalten, vor allem unser Sozialverhalten, in hochprädiktive Mathematik zu verwandeln vermögen. Ein früher Meilenstein war 2002 die Zusammenarbeit mit dem damaligen Doktoranden Tanzeem Choudhury. Die beiden Autoren schrieben damals: »Soweit uns bekannt ist, sind gegenwärtig keine Methoden verfügbar, um automatisch Face-to-FaceInteraktionen zu modellieren. Was wahrscheinlich an der Schwierigkeit liegt, verlässliche Messungen aus Real-World-Interaktionen in der Gemeinschaft zu bekommen … Unserer Ansicht nach ist das sensorische Erfassen und Modellieren physischer Interaktionen unter Menschen eine unerschlossene Ressource.« Anders gesagt, Pentland verstand, dass das »soziale« selbst dann noch eine schwer fassbare Domäne war, als Daten und Computer alltäglicher geworden waren. Die Antwort der Forscher bestand in der Einführung eines »Soziometers«, eines tragbaren Sensors, der Mikrofon, Beschleunigungsmesser, Bluetooth-Anbindung, Analyse-Software und Maschinenlerntechniken kombiniert. Aufgabe des Geräts war es, Schlüsse auf »Struktur und dynamische Beziehungen« in Gruppen zu ziehen.7 Damit hatten sie ein durchschlagendes Mittel zur Verhaltensmodifikation im Namen einer totalistischen sozialen Vision an der Hand. Von diesem Augenblick an waren Pentland und sein Team fest entschlossen, den Code der Instrumentierung und Instrumentalisierung sozialer Prozesse zu knacken.

2005 kam das Problem ungenügender Daten über die menschliche Gesellschaft erneut zur Sprache, diesmal im Rahmen einer Zusammenarbeit mit dem Doktoranden Nathan Eagle. Pentland und Eagle sprachen von »Bias, Mangel an Daten und mangelnder Kontinuität« bei der Erforschung menschlichen Verhaltens. Den Sozialwissenschaften fehle es an »dichten kontinuierlichen Daten«, was auch »die mit Maschinenlernverfahrenen und Agent-basierten Modellen befassten Communities am Aufbau umfassenderer Vorhersagemodelle menschlicher Dynamiken hindert«.8 Selbst das relativ junge Gebiet des »Data-Mining«, darauf hatte Pentland bereits hingewiesen, vermöge die »eigentliche Action« von Unterhaltungen und direkter Interaktionen nicht zu erfassen. Und eben die wären nötig für ein präzises und durchgreifendes Verständnis sozialen Verhaltens.9 Er sah aber auch, dass ein rasant wachsendes Spektrum menschlicher Aktivitäten – von Transaktionen bis hin zur Kommunikation – über Computer abgewickelt wurde, was größtenteils eine Folge der zunehmenden Nutzung von Mobiltelefonen war. Das Team erkannte die Möglichkeit, sich die zunehmend »ubiquitäre Infrastruktur« des Mobiltelefons zunutze zu machen und diese Daten mit neuen Informationsströmen aus ihren tragbaren Verhaltensmonitoren zu kombinieren. Ergebnis war eine radikale neue Lösung, der Pentland und Eagle den Namen »Reality-Mining« gaben. Mentor und Schüler demonstrierten, wie Daten aus Mobiltelefonen »genutzt werden können, um Regelmäßigkeiten und Strukturen im Verhalten sowohl von Einzelnen als auch von Organisationen aufzudecken«. Das wiederum forcierte die Fortschritte bei der Erfassung von Verhaltensüberschuss und dessen Analyse und wies den Weg in Richtung des größeren Wandels in der Art der Verhaltensenteignung von der virtuellen hin zur wirklichen, mit anderen Worten, zur eigentlichen sozialen Erfahrung.10 Die Meldung der beiden Forscher war ein technologischer und kultureller Meilenstein. Dass Realität ab sofort erfassbar sei und damit Freiwild für die Erfassung, Suche, Extraktion, Rendition, Verdatung, Analyse, Vorhersage und Modifikation von Verhalten, bereitete mit den Weg zu neuen Praktiken, aus denen schließlich das »Reality-Business« werden sollte. Pentland und Eagle begannen mit 100 MIT-Studenten und Wissenschaftlern rund um das Media Lab, an die Nokia-Handys mit

spezieller Software ausgegeben wurden. Das Projekt wurde schließlich zum Grundstein von Eagles Dissertation. Die beiden Forscher zeigten, was rund um die Uhr erfasste Verhaltensdaten alles enthüllten, wenn man sie mit Informationen aus Befragungen validierte, denen man die Beteiligten unterzog. Ihre Analysen erbrachten detaillierte Porträts sowohl des Lebens Einzelner als auch von Gruppen – des »sozialen Systems«, wie die Forscher es nannten. Sie waren in der Lage, bestimmte zeitliche und räumliche Muster aus Örtlichkeit, Aktivität und Kommunikationsverhalten zu erstellen, deren Kombination es ihnen ermöglichte, mit einer Genauigkeit von bis zu 90 % vorherzusagen, wo jemand sich binnen einer Stunde aufhalten und was diese Person dort tun würde. Ähnlich treffsichere Vorhersagen ließen sich über Kollegen, Bekanntschaften und engere Beziehungen dieser Personen erstellen. Das Team identifizierte Kommunikations- und Interaktionsmuster innerhalb von Arbeitsgruppen sowie die breiteren »organisatorischen Rhythmen und Netzwerkdynamiken« innerhalb des Media Lab. (Eagle ist heute CEO des Mobilwerbeunternehmens Jana, das kostenlosen Internetzugang für Schwellenmärkte bietet – im Austausch für Verhaltensüberschuss, versteht sich.) Mit fortschreitender Entwicklung von Theorie und Praxis des RealityMining in Pentlands Labor und verwandten Projekten kürte die MIT Technology Review »Reality-Mining« zu einer der »10 bahnbrechenden Technologien« von 2008.11 »Meine Studenten und ich haben zwei Plattformen zur Messung von Verhalten geschaffen, um die Entwicklung dieser neuen Wissenschaft zu beschleunigen«, sagte Pentland. »Diese Plattformen produzieren immense Mengen an quantitativen Daten für Hunderte von Forschungsgruppen rund um die Welt.«12 Sich der Geschwindigkeit zu verschreiben, kommt nicht von ungefähr, das wissen wir, sie ist ein Schlüsselelement in der Kunst bzw. der Wissenschaft der angewandten Utopistik. Für Pentland besteht das Ziel dieses rasanten Vordringens von Big Other und instrumentärer Macht in einer »mit Lichtgeschwindigkeit hypervernetzten Welt«, in der sich binnen Minuten eine Masse von Millionen versammeln kann. Er sieht die MITCommunity als Avantgarde: brillante Pioniere der Lichtgeschwindigkeit, die bereits jetzt mit ihren extremen Geschwindigkeiten synchronisiert und

somit ein Modell für die übrige Gesellschaft sind. Über seine Studenten und Kollegen schreibt Pentland: »Ich konnte auch sehen, dass kreative Kulturen sich ändern müssen, um in der hypervernetzten, Warp-Speed-Welt des MIT zu florieren, eines Umfelds, das der Rest der Welt gerade betritt.«13 Für Pentland deutet die Anpassung seiner Versuchsgruppe an die MIT-Norm des rasanten Einsatzes neuer Technologien lediglich an, was uns bevorsteht. Der begeisterte Tribut der MIT Technology Review an das »RealityMining« kam 2008 durchaus auf die noch ebenso neuen wie beunruhigenden Fakten des Verhaltensüberschusses zu sprechen: »So einige sind nervös wegen der Spur digitaler Brotkrümel, die sie hinterlassen. Sandy Pentland dagegen schwelgt darin.« Pentland sähe es gern, wenn Telefone »sogar noch mehr Informationen« über ihre Nutzer sammelten: »Das ist eine interessante Gottesperspektive«, meint er.14 Immer wieder preist er »die prädiktive Macht digitaler Brotkrümel« in seinen Artikeln und ergeht sich dabei in Euphemismen und Rationalisierungen, die auch zum Standardvokabular der Überwachungskapitalisten gehören und zur Normalisierung der Enteignung von Verhaltensüberschuss beitragen. So schreibt er zum Beispiel: Während wir unserem Alltagsleben nachgehen, hinterlassen wir virtuelle Brotkrümel, digitale Aufzeichnungen über die Leute, die wir anrufen, wo wir hingehen, was wir essen und die Produkte, die wir kaufen. Diese Brotkrümel erzählen unser Leben präziser als alles, was wir selbst über uns preisgeben. Digitale Brotkrümel … zeichnen unser Verhalten so auf, wie es tatsächlich passiert ist.15 Pentland war einer der ersten, die die kommerzielle Relevanz von Verhaltensüberschuss erkannten. Obwohl er das nicht explizit diskutiert, scheint er nicht das geringste Problem zu haben mit der Realpolitik des Überwachungskapitalismus als notwendige Voraussetzung für eine instrumentäre Gesellschaft. Pentlands eigene Firmen sind Erweiterungen seiner angewandten Utopistik: Versuchsgelände für instrumentäre Techniken und die Gewöhnung der Bevölkerung an die umfassende Rendition, Überwachung und Modifikation von Verhalten auf der Jagd nach Überwachungserträgen.

Von Anfang an verstand Pentland Reality-Mining als Tor zu einem neuen Universum kommerzieller Möglichkeiten. 2004 erklärte er Mobiltelefone und andere Wearables mit »rechnerischen Pferdestärken« zum »Fundament« einer auf Reality-Mining gebauten »aufregenden neuen Suite von Business-Applikationen«. Der Gedanke dahinter war, dass Geschäfte ihren privilegierten Zugriff auf die »Realität« zur Ausformung von Verhalten im Sinne ihrer geschäftlichen Ziele nutzen könnten. Er spricht von einem neuen experimentellen Projekt, bei dem Spracherkennungstechnologie »Profile von Individuen auf der Basis des von ihnen benutzten Wortschatzes« generieren, was es einem Manager ermöglicht, »ein Team von Angestellten mit harmonisierendem Sozialverhalten und Kompetenzen zusammenzustellen«.16 In ihrem Artikel von 2006 sprachen Pentland und Eagle von einem »erheblichen Wert« ihrer Daten »am Arbeitsplatz«. Gemeinsam reichten die beiden ein Patent für ein »kombiniertes kurzreichweitiges Funk- und Mobiltelefonnetz für die interpersonelle Kommunikation« ein. Dieses sollte das Arsenal an Instrumenten vergrößern, das Geschäften für das RealityMining zur Verfügung steht.17 Eagle sagte im selben Jahr Wired gegenüber, die Studie zum Reality-Mining repräsentiere einen »beispiellosen Datensatz über kontinuierliches menschliches Verhalten«, der das Studium von Gruppen revolutionieren und Möglichkeiten für neue kommerzielle Anwendungen bieten würde. Berichten zufolge stand er »in Gesprächen« mit einem großen Unternehmen, das seine Instrumente und Methoden einzusetzen gedachte.18 Pentland zufolge könnten die von seinen Soziometern – »unauffälligen tragbaren Sensoren« zur Messung von Kommunikation, Tonfall und Körpersprache – erfassten Informationen »Managern verstehen helfen, wer mit wem arbeitete und auf die Beziehungen zwischen Kollegen schließen«. Sie wären mit anderen Worten, »eine effiziente Art herauszufinden, wer gut mit wem zusammenarbeiten würde«.19 Anlässlich eines Kollaborationsprojekts mit mehreren Studenten präsentierte Pentland 2009 Design und Einsatzmöglichkeiten »einer anziehbaren Rechnerplattform« auf der Basis eines Soziometers und seiner künstlichen Intelligenz. Das Ziel, so die Autoren, seien Maschinen, die »soziale Kommunikation überwachen können und eine Echtzeitintervention« erlauben.

Zu diesem Zweck »instrumentierte« man 22 Büroangestellte über den Zeitraum eines Monats hinweg mit einem Soziometer, um »automatisch individuelles und kollektives Verhalten zu messen, menschliches Verhalten aufgrund unbewusster sozialer Signale vorherzusagen, soziale Affinitäten unter den einzelnen Angehörigen eines Teams zu identifizieren sowie soziale Interaktionen durch Feedback an die Nutzer unseres Systems zu verbessern«. Die Studie lieferte glaubwürdige Resultate, insofern sie Kommunikationsmuster und Verhaltensweisen enthüllte, die laut Schluss der Autoren »ohne den Einsatz eines Geräts wie dem Soziometer nicht zur Verfügung stünden. Unsere Resultate …sprechen deutlich für den Einsatz von Tools zur automatischen Erfassung von Sensordaten zum Verständnis sozialer Systeme«. Sie wiesen ausdrücklich darauf hin, dass Organisationen nur dann »wirklich vernünftig« würden, wenn sie »Hunderte oder Tausende Umwelt- und tragbarer Funksensoren« einsetzten, die in der Lage seien, »menschliches Verhalten zu überwachen, aussagefähige Informationen zu extrahieren und Manager mit Metriken über Gruppenleistungen und Arbeitnehmer mit der Bewertung der eigenen Leistungen und Empfehlungen zu beliefern«.20 Man entwickelte die Erfindung von 2002 kontinuierlich weiter und brachte sie schließlich auf den Markt. 2010 gründeten Pentland und seine Coautoren vom Vorjahr mit Sociometric Solutions eine Firma, um die von Skinner so heiß ersehnten »Instrumente und Methoden« für den praktischen Einsatz bereitzustellen. Es war nur eine von vielen Firmen, die Pentland gründen sollte, um die strengen Regeln der Sozialphysik auf wehrlose Büroangestellte anzuwenden.21 Ben Waber, CEO von Sociometric Solutions und einer von Pentlands Doktoranden, nennt seine Operation »People Analytics«, und in seinem Buch gleichen Namens sieht er eine Zukunft des »Verbundenseins, der Zusammenarbeit und der Daten« voraus; das Soziometer oder etwas Ähnliches sei dann »bei Millionen von Individuen überall auf der Welt im Einsatz, und das nicht für Minuten, sondern über Jahre oder Jahrzehnte hinweg … Stellen Sie sich vor, was wir so darüber lernen könnten, Menschen zu einer effektiveren Zusammenarbeit zu verhelfen«.22 Pentland und seine Crew setzen die Entwicklung des Soziometers und seiner Anwendungen fort. 2013 war das Gerät bereits bei Dutzenden von

Forschungsgruppen und Unternehmen im Einsatz, darunter auch solche aus der Fortune 1 000.23 2014 quantifizierte eine Studie von Pentland, Waber und einigen Kollegen von den Universitäten Harvard und Northeastern Geschlechterdifferenzen in Interaktionsmustern.24 Der Erfolg der Analyse veranlasste ihn zu folgender Ankündigung: »Es ist jetzt möglich, menschliches Verhalten aktiv zu instrumentieren, um detaillierte Daten über diverse Dimensionen sozialer Interaktion zu sammeln.« Die Autoren kündigten ihre Absicht an, Mackays Maxime der unaufdringlichen Beobachtung für das effektive Monitoring von Herden, Schwärmen und Rudeln einzusetzen. Ein kontinuierliches umfassendes Sammeln menschlicher Verhaltensdaten, so räumten sie ein, funktioniere nur außerhalb des menschlichen Bewusstseinsbereichs. Nur so ließe sich potenzieller Widerstand umgehen. Wir haben das ja am Beispiel Facebook gesehen. Die Begeisterung der Forscher kannte keine Grenzen: »Elektronische Sensoren können dabei menschliche Beobachter komplementieren oder ganz ersetzen, und selbst wenn der Einzelne sich dabei beobachtet fühlen könnte, so lässt sich das mit immer kleineren und damit weniger aufdringlichen Sensoren mit der Zeit reduzieren.« Ihr Schluss daraus: »Minimal invasive Arten der Instrumentierung menschlichen Verhaltens« ermöglichten die umfassende Datensammlung in »natürlichen Umgebungen«. 2015 entschied die Firma sich im Rahmen einer Umfirmierung für einen neuen Namen: Humanyze. Ihre Technologie beschreibt sie als Plattform, die mit einem smarten »Employee-Badge Verhaltensdaten von Angestellten sammelt, die unter der Maßgabe geschäftlicher Leistungssteigerung mit spezifischen Metriken gekoppelt« seien.25 Waber betrachtet seine Arbeit unter dem »Moneyball«-Prinzip. Sein Produkt erlaubt es Unternehmen, ihre Arbeitnehmer auf der Basis pausenloser Messungen wie ein Football-Team zu managen: ihre Interaktionen, ihr Tonfall, ob sie sich beim Zuhören »vorbeugen«, ihre Stellung im sozialen Netzwerk in einer ganzen Reihe von Bürosituationen und vieles mehr. Insgesamt misst man so vierzig Verhaltensweisen, die dann in einem »Business Metric Dashboard« integriert abrufbar sind. Was die Kundschaft anbelangt, nennt das Unternehmen keine Namen, es gibt aber einen Bericht über die Arbeit mit 10 000 Angestellten in den Servicezentren der Bank of America und eine

Partnerschaft mit der Consultingfirma Deloitte.26 Im Scientific American sagt Pentland über die Macht soziometrischer Daten: »Ich habe den Manager der Callcenters der Bank of America dazu überredet, die Kaffeepausen für alle zur gleichen Zeit anzusetzen. Die Absicht dahinter war, die Kontakte zwischen den Angestellten zu fördern. Diese Änderung allein resultierte in einer Produktivitätssteigerung von 15 Millionen Dollar im Jahr.«27 Unter den neunzehn Firmen, die gegenwärtig in Pentlands MIT-Biografie gelistet sind, befinden sich zahlreiche Überwachungsdienstleister. So ist Pentland zum Beispiel ein Mitgründer von Endor, einem Unternehmen, das sich Geschäftskunden als Lösung für den Vorhersageimperativ andient. Endors Website erklärt das Entstehen der Firma mit der »revolutionären neuen Wissenschaft« der Sozialphysik, die in Kombination mit einer »proprietären Technologie« eine »leistungsfähige Maschine« ergebe, »mit der sich jede Art von menschlichem Verhalten erklären und vorhersagen lässt«. Wie auf der Website erklärt wird, enthält jede menschliche Aktivität (Aufzeichnungen über Anrufe, Einkäufe mit Kreditkarten, Taxifahrten, Webaktivitäten etc.) einen Satz verborgener mathematischer Muster. Analysiert man diese, lassen sich »im Entstehen begriffene Verhaltensmuster« entdecken, bevor sie »durch irgendeine andere Technik« zu beobachten sind. »Wir arbeiten mit einigen der führenden Verbrauchermarken weltweit an der Lösung anspruchsvollster Datenprobleme«.28 2014 verkaufte Pentland ein anderes seiner Unternehmen, Sense Networks, an YP, zwei Buchstaben, die einst für die Gelben Seiten oder »Yellow Pages« standen und heute »Nordamerikas größtes Unternehmen für die lokale Suche, Medien und Werbung« bezeichnen, das »Konsumenten mit lokalen Geschäften zusammenbringt«. YPs Presseerklärung zu dieser Akquisition bietet ein vertrautes Bild, was die Aneignung von Verhaltensüberschuss anbelangt, wenn sie das Unternehmen als »hochentwickelte Plattform zur Verarbeitung von Standortdaten« beschreibt, »mittels der Sie Mobilkunden im großen Stil erreichen. Die Retargeting-Lösung von Sense für Einzelhändler kann Käufer und potenzielle Kundschaft für den Top-Einzelhandel identifizieren und mit

relevanter Werbung erreichen, wenn sie sich in der Nähe des Geschäfts aufhalten … oder zu Hause oder bei der Arbeit«.29 Pentland versteht seine Experimente und bezahlten Interventionen in Arbeitsplatzumgebungen als emblematisch für die größeren Herausforderungen sozialer Beziehungen in einer instrumentären Gesellschaft. Einmal mehr sehen wir die beabsichtigte Migration vom ökonomischen in den sozialen Bereich. Die Büros mit den instrumentierten Angestellten fungieren als »lebende Labore« für die Übertragung instrumentärer Beziehungen auf die Gesellschaft an sich. 2016 trat Pentland auf einer Konferenz der Singularity University auf, ein teilweise von Larry Page finanziertes Zentrum instrumentärer Ideologie im Silicon Valley. Eine Journalistin, die Pentland damals interviewte, schrieb: »Auch wenn Menschen zu den wertvollsten Aktiva einer Organisation gehören, gehen die meisten Unternehmen das Management immer noch mit der Mentalität des 20. Jahrhunderts an … Pentland sah den Faktor, der ständig Unordnung in die Gleichung bringt: der Mensch.«30 Wie Nadella sieht auch Pentland sein Ziel in der Entwicklung sozialer Systeme, die nach denselben Prinzipien funktionieren wie ein Maschinensystem: Ströme von Verhaltensdaten sollen die »Korrektheit« von Handlungsmustern beurteilen und nötigenfalls eingreifen, um »falsches« in »korrektes« Handeln umzuwandeln. »Wenn Menschen nicht korrekt interagieren und Informationen sich nicht korrekt verbreiten«, so warnt Pentland, »treffen Menschen falsche Entscheidungen … Wir versuchen also einen MenschMaschine-Symbionten zu schaffen, bei dem der Mensch mittels Computer mehr über das Netzwerk der Interaktionen weiß und der Computer mehr von der Funktionsweise des Menschen versteht.« Die Journalistin bemerkt dazu: »Pentland fand heraus, dass diese Daten [aus den Soziometern] viel dazu beitragen, den Organisationen bei der Reparatur ›kaputten Verhaltens‹ zur Hand zu gehen.«31 Pentlands Vision einer instrumentären Gesellschaft wuchs im Verhältnis zu seinem Instrumentarium, und als die neuen Tools und Methoden sich mit dem zeitgenössischen Trend zur Computerunterstützung verschränkten, wurden seine Ideen auf dem Weg zu Big Others globaler Einheit immer ambitionierter. Pentland formulierte seine hochfliegenden Ambitionen für die Fähigkeiten und Ziele dieses neuen Milieus zwischen 2011 und 2014 in

einer ganzen Reihe von Aufsätzen, wobei ein Essay von 2011 von ganz besonderem Interesse ist: »Society’s Nervous System: Building Effective Government, Energy, and Public Health Systems«.32 Pentland beginnt seinen Bericht mit einer Aufzählung der institutionellen Referenzen für die vorliegende Arbeit: »Auf der Basis einer einzigartigen, langjährigen Zusammenarbeit mit den Leitern großer IT-, Funknetz-, Hardware-, Gesundheits- und Finanzunternehmen sowie führenden Mitarbeitern amerikanischer, europäischer und anderer Regulierungsbehörden und einer Vielzahl nichtstaatlicher Organisationen [eine Fußnote verweist hier auf das Weltwirtschaftsforum] beschreibe ich hier das Potenzial für eine umfassende mobile rechnergestützte Wahrnehmung für das nächste Jahrzehnt.« Nachdem das geklärt ist, springt seine Argumentation kreuz und quer von einer Folgerung zur anderen in dem Bemühen um eine vernünftige Erklärung für eine totalistische Gesellschaft auf der Basis instrumentärer Macht. Seine Prämisse ist dabei durchaus vertretbar: Die Technologie des Industriezeitalters habe einst die Welt mit verlässlichen Systemen revolutioniert – für Wasserversorgung, Nahrung, Abfall, Energie, Transport, Polizei, Gesundheit, Bildung und so weiter. Nur seien diese Systeme mittlerweile »alt«, »zentralisiert«, »veraltet« und »nicht aufrechtzuerhalten«. Entsprechend brauche es neue digitale Systeme: »integriert«, »ganzheitlich«, »reaktiv«, »dynamisch« und »selbstregulierend«. »Wir müssen alle gesellschaftlichen Systeme radikal überdenken. Wir müssen ein Nervensystem für die Menschheit schaffen, das weltweit für die Stabilität aller gesellschaftlichen Systeme zu sorgen vermag.« Unter Berufung auf die Fortschritte bei der Steuerung komplexer Maschinenprozesse und Informationsflüsse durch ubiquitäre rechnergestützte Wahrnehmung schreibt Pentland, die für dieses Nervensystem nötigen »Sensortechnologien« seien »bereits vorhanden«. Schon 2011 verstand Pentland, dass die Grundstrukturen von Big Other bereits im Einsatz waren. Für ihn waren sie ein »weltumspannender lebender Organismus«, in dem »funkvernetzte Verkehrssysteme, Sicherheitssensoren und vor allem Mobiltelefonnetzwerke sich zu intelligenten reaktiven Systemen mit Augen und Ohren als Sensoren verbinden … Die Evolution wird sich mit

zunehmender Geschwindigkeit fortsetzen … Geräte werden über mehr Sensoren verfügen …«33 Allerdings sah Pentland ein Problem. Auch wenn ubiquitäre Technologien auf dem besten Wege waren, die technischen Herausforderungen eines globalen Nervensystems zu lösen, würde Big Other erst dann vollendet sein, wenn es das menschliche Verhalten auf globaler Ebene verstand: »Was noch fehlt … sind die dynamischen Modelle von Nachfrage und Reaktion« sowie eine Architektur, die »Sicherheit, Stabilität und Effizienz« garantiert. »Die erforderlichen Modelle müssen menschliche Nachfrage und Reaktionen beschreiben können, da Menschen im Zentrum dieser Systeme stehen … bei den benötigten Beobachtungen handelt es sich um Beobachtungen individuellen Verhaltens.«34 Pentland identifiziert jedoch eine gefährliche Leerstelle in seinem Plan zur Rettung der Welt, die den »tiefgreifenden Wandel« ahnen lässt, den Nadella 2017 Microsofts Entwicklern gegenüber hervorhob, als er sagte, dass »Menschen und ihre Beziehungen zu anderen Menschen jetzt in der Cloud ein First-Class-Ding« seien. Will man vermeiden, dass der »Mensch« Opfer eines »inkorrekten« Verhaltens wird, müsste man ihn in den Wirkungsbereich von Big Other integrieren. Hier stehen Sicherheit, Stabilität und Effizienz auf dem Spiel. Zu unserem Glück lässt Pentland uns wissen, dass die Instrumente und Methoden zur Erfassung von Verhaltensüberschuss für das Reality-Mining hier Abhilfe schaffen können: Zum ersten Mal in der Geschichte ist die Menschheit größtenteils miteinander vernetzt … Infolgedessen lässt sich unsere Mobilfunkinfrastruktur für das Reality-Mining dazu nutzen … unsere Umgebung zu beobachten und die Entwicklung unserer Gesellschaft zu planen … Das Reality-Mining der »digitalen Brotkrümel«, die wir im Verlauf unseres Alltagslebens hinterlassen, bietet ein Potenzial für die Schaffung bemerkenswerter und sekundengenauer Modelle von Gruppendynamiken und Reaktionen über ausgedehnte Zeiträume hinweg … Kurz gesagt, wir haben heute die Fähigkeit, Daten über den Menschen in einer Breite und Tiefe zu sammeln, die zuvor unvorstellbar war.35

In einem Stil, der stark an Larry Pages Absage an die »alten« Gesetze erinnert, äußert Pentland sich nicht weniger kritisch über eine Reihe von Konzepten und Rahmenbedingungen, die uns Aufklärung und politische Ökonomie vermacht haben. So besteht er darauf, dass »alte« gesellschaftliche Kategorien wie Status, Klasse, Bildung, Rasse, Geschlecht und Generation veraltet seien und damit so irrelevant wie die Energie-, Nahrungs- und Wassersysteme, die er ersetzen will. Diese Kategorien beschreiben Gesellschaft seiner Ansicht nach durch die Optik von Geschichte, Macht und Politik, während er »Populationen« Gesellschaften vorziehe, »Statistiken« der Bedeutung und Berechnungen dem Gesetz. Er sieht die »Stratifizierung dieser Populationen« nicht durch Rasse, Einkommen, Beruf oder Geschlecht kodiert, sondern eher durch »Verhaltensmuster«, die für »Verhaltenssubgruppen« und eine neue »Verhaltensdemografie« sorgen, anhand derer man Krankheiten, finanzielle Risiken, Verbraucherpräferenzen und politische Ansichten, wie er behauptet, »mit fünf- bis zehnfacher Genauigkeit« der üblichen Messungen vorhersagen kann.36 Schließlich stellt er noch mit einiger Dringlichkeit die Frage, »wie man die Menschen in diesen Systemen dazu bekommen kann, an diesem Plan teilzunehmen«. Er antwortet darauf nicht etwa durch »Überredung« oder »Bildung«, sondern durch Verhaltensmodifikation. Was wir brauchen, so sagt er, seien »neue prädiktive Theorien für den menschlichen Entscheidungsprozess« sowie einen »Plan für Anreizmechanismen«, eine Idee, die sich mit Skinners »Verstärkungsplänen« vergleichen lässt. Im Rahmen der Überlegung, wie man die Menschen für seinen Plan gewinnen könnte, bietet Pentland das Prinzip der »sozialen Beeinflussung« zur Erklärung des Designs der Mechanismen, mittels derer er Millionen von Menschen garantierten Ergebnissen in den Bereichen Sicherheit, Stabilität und Effizienz entgegentreiben kann. Er beruft sich dabei auf seine eigenen Studien, in denen »die Probleme von Industrie und Staat« größtenteils durch Muster der Informationsvermittlung erklärt werden, insbesondere die Frage, wie Menschen einander beeinflussen und nachahmen. Diese Auffassung von sozialer Beeinflussung ist ein wichtiger Teil von Pentlands Puzzle, das bereits einen Großteil des Kommenden antizipiert. Pentland versteht, dass Big Other nicht nur eine Architektur darstellt, die Dinge

überwacht und kontrolliert. Big Others Instrumentierung und Datenströme machen die Menschen füreinander sichtbar, von Updates über unser Frühstück bis hin zu Bevölkerungsflüssen in den Städten. 2011 schrieb Pentland begeistert: »Revolutionäre neue … Infrastrukturen liefern uns eine Gottesperspektive unserer selbst.«37 Ziel ist eine rechnergestützte Gesellschaft, in der unsere gegenseitige Sichtbarkeit zum Biotop wird, in dem wir uns aufeinander abstimmen. Das Resultat sind soziale Muster, die auf der Nachahmung gebaut sind, die um der Konfluenz willen manipuliert werden können, ganz so, wie es die Logik des Maschinenschwarms suggeriert. Was die Anreize anbelangt, so umreißt Pentland ein Prinzip »sozialer Effizienz«, das sowohl dem Einzelnen als auch dem System als Ganzem Wert liefern soll.38 Um dieser Ganzheit willen, so die Annahme dahinter, wird jeder von uns sich willig in ein bis ins Letzte vermessenes Leben instrumentärer Ordnung fügen. Pentland klingt wie Googles Eric Schmidt mit seinem aalglatten Versprechen einer allwissenden präventiven Magie, wenn er von seiner Überzeugung spricht, dass wir für das, was wir verlieren, mehr als reichlich entschädigt werden – zum einen durch die gesellschaftlichen Belohnungen effizienter Unternehmen und Staatsgebilde, zum anderen durch individuelle Belohnungen, an deren Magie kein Zweifel mehr bestehen kann, wenn er auf den Stress der Zweiten Moderne anspielt: Für die Gesellschaft ergibt sich die Hoffnung, dass wir dieses tiefe Verständnis individuellen Verhaltens dazu nutzen können, die Effizienz und Reaktionsfähigkeit von Industrie und Staat zu erhöhen. Für Individuen liegt die Attraktivität in der Möglichkeit einer Welt, in der alles bequem zu haben ist – Ihr Check-up beim Arzt fällt mit dem Einsetzen der Krankheit zusammen, der Bus kommt genau in dem Augenblick, in dem Sie an die Haltestelle kommen, und auf Ämtern brauchen Sie nie wieder Schlange zu stehen. Da diese Fähigkeiten durch den Einsatz immer raffinierterer statistischer Modelle und Sensoren ständig verfeinert werden, könnten wir sehr gut das Entstehen einer quantitativen prädiktiven Wissenschaft menschlicher Organisationen und der menschlichen Gesellschaft erleben.39

Die Prinzipien einer instrumentären Gesellschaft Ihre Blüte erlebte Pentlands Theorie von der instrumentären Gesellschaft 2014 in seinem Buch Social Physics, in dem wir seine Werkzeuge und Methoden in eine ausladende Vision unserer Zukunft in einer datengetriebenen instrumentären, von Rechnern regierten Gesellschaft integriert sehen. Pentland verwandelt Skinners muffig-merkwürdiges Utopia in etwas, was sich mondän anhört, magisch, sogar plausibel, größtenteils weil hier die Wellen angewandter Utopistik anklingen, die heute Tag für Tag über uns hinwegspülen. In Erfüllung von Skinners Traum konstruiert Pentland mehr als das Update einer behavioristischen Utopie. Er umreißt die Prinzipien einer voll entwickelten instrumentären Gesellschaft, die auf der umfassenden Instrumentierung und Vermessung menschlichen Verhaltens zum Zweck der Modifikation und Kontrolle basiert – und im Lichte der überwachungskapitalistischen Herrschaft über die vernetzte Welt eben auch zum Zweck des Profits. Pentland ist der Überzeugung, dass »soziale Phänomene letztlich nur Agglomerationen von Milliarden kleiner Transaktionen zwischen Individuen sind«. Das ist ein entscheidender Punkt, insofern sich herausstellt, dass für die Substituierung der alten Denkart durch die Sozialphysik die absolute Kenntnis dieser Milliarden von kleinen Dingen erforderlich ist. »Big Data gibt uns die Möglichkeit, die Gesellschaft durch die Millionen von Netzwerken interpersonellen Austauschs in all ihrer Komplexität zu sehen. Wenn wir eine ›Gottesperspektive‹ hätten, den totalen Überblick, könnten wir potenziell zu einem wahren Verständnis der Funktionsweise unserer Gesellschaft gelangen und Schritte unternehmen, unsere Probleme zu reparieren.«40 Pentland ist hier guter Dinge, ist doch das totale Wissen zum Greifen nah. »In nur wenigen Jahren werden uns aller Wahrscheinlichkeit nach unglaublich reiche Daten über das Verhalten praktisch der ganzen Menschheit zur Verfügung stehen – und das ununterbrochen. Die Daten gibt es größtenteils bereits.«41 Hier überträgt man das Recht auf die Zukunft – und damit auf soziales Vertrauen, Autorität und Politik – an Big Other und das transzendente Rechnersystem, das die Gesellschaft unter dem wachsamen Auge einer Gruppe beherrscht, die Pentland als »wir«

bezeichnet. Pentland benennt dieses »wir« nicht näher, was der Verordnung einer Wir-sie-Beziehung gleichkommt, mit der die Exklusivität des Schattentexts und der Einwegspiegel einhergehen. Dies ist eine Unterlassung, die wie eine dunkle Wolke über seinem Text steht. Bezieht sich dieses »wir« auf eine Priesterschaft von Datenwissenschaftlern unter Pentlands eigener Führung? Arbeitet diese Priesterschaft mit den Eignern der Verhaltensmodifikationsmittel? Die Theorie zielt darauf ab, den Gesetzen der Physik vergleichbar, Gesetze über soziales Verhalten zu erstellen, und Pentland selbst führt zwei solche Gesetze ein, die ihm zufolge über den Erfolg eines »sozialen Organismus« entscheiden. Das erste ist der »Ideenfluss«, der sich durch »Exploration«, die Suche nach neuen Ideen, sowie die »Verpflichtung« charakterisiert, Verhalten um die besten dieser Ideen herum zu koordinieren. Das zweite ist das »soziale Lernen«, bei dem Menschen einander nachahmen, bis neue Ideen zu populationsweiten Gewohnheiten geworden sind. (Soziales Lernen definiert sich hier als mathematische Beziehung, die sich daraus ableitet, »wie der Zustand einer Wesenheit auf die Zustände anderer Wesenheiten wirkt und umgekehrt«.) Pentland vermerkt dazu, dass soziales Lernen »in der statistischen Physik und im Maschinenlernen verwurzelt« sei.42 Der soziale Schwarm soll den Maschinenschwarm reproduzieren, wozu Pentland einige Methoden empfiehlt, mit denen soziales Lernen »sich beschleunigen und durch sozialen Druck ausformen lässt«. Die wissenschaftlichen Ziele von Pentlands Sozialphysik bauen auf ein eng integriertes Gefüge neuer sozialer Normen und individueller Anpassung, die ich hier in fünf übergreifenden Prinzipien zusammenfasse, welche die sozialen Beziehungen einer instrumentären Gesellschaft beschreiben. In diesen Prinzipien klingt Skinners Sozialtheorie einer behavioristisch kontrollierten Gesellschaft an, in der Wissen Freiheit ersetzt. Bei der näheren Betrachtung der einzelnen Prinzipien vergleiche ich jeweils Pentlands Aussagen mit Skinners eigener Ausformulierung desselben Themas. Wie wir sehen werden, definiert Skinners einst so verabscheutes Denken heute Pentlands – und der Überwachungskapitalisten – neue Grenze der Macht.

1. Verhalten zum höheren Wohl Skinner hatte die dringende Notwendigkeit einer Hinwendung zu einer kollektiven Perspektive und zu kollektiven Werten betont. »Der intentionale Entwurf einer Kultur und die mit ihm gegebene Kontrolle menschlichen Verhaltens sind für die Weiterentwicklung der menschlichen Spezies wesentlich.«43 Der Imperativ, menschliches Verhalten in Richtung zum höheren Wohle zu verändern, war bereits in Walden Two ausgeprägt, wo Frazier, der Protagonist des Romans, erklärt: »Tatsache ist, dass wir das menschliche Verhalten nicht nur lenken können, sondern müssen.«44 Letztendlich verstand Skinner diese Herausforderung als ein Problem der Steuerung. »Und welches sind die Techniken«, so fragt Frazier, »die steuernden Maßnahmen, die das Verhalten von Angehörigen einer Gemeinschaft so formen, dass sie reibungslos zum Nutzen aller funktionieren?«45 Skinner trat, mit Frazier als Mittler, für eine »geplante Gesellschaft« ein, deren Tugend darin bestehe, »die Intelligenz in die richtige Richtung« zu lenken, »mehr zum Wohl der Gesellschaft als zum Nutzen des intelligenten Individuums … Das geschieht, indem wir dafür sorgen, dass der Einzelne nie seinen persönlichen Anteil am Wohlergehen der Gemeinschaft vergisst.«46 Pentland versteht die instrumentäre Gesellschaft als einen Wendepunkt, dessen Tragweite mit dem der Druckerpresse oder dem Internet zu vergleichen ist. Sie bedeutet für ihn, dass wir »die Daten haben werden, die nötig sind, um uns wirklich zu kennen und zu verstehen, wie die Gesellschaft sich entwickelt.«47 Seiner Ansicht nach laufen »kontinuierliche Datenströme über das menschliche Verhalten« darauf hinaus, dass alles, vom Straßenverkehr über Energieverbrauch und Krankheit bis hin zum Verbrechen genau vorhergesagt wird, was eine »Welt ohne Krieg oder Finanzkrisen« ermöglicht, »in der Infektionskrankheiten rasch entdeckt und gestoppt werden, in der Energie, Wasser und andere Ressourcen nicht weiter verschwendet werden und in der Regierungen eher Teil der Lösung sind als Teil des Problems«.48 Diese neue »kollektive Intelligenz« operiert zum höheren Wohl, da wir auf »koordinierte Weise« und auf der Basis »sozialer Universalien« zu handeln lernen.

»Bei Gesundheits- und Transportwesen, Energieversorgung und Sicherheit sind große Sprünge möglich«, schreibt Pentland, beklagt aber gleichzeitig die Hindernisse, die dem im Wege stehen: »Die wesentlichen Barrieren sind Bedenken bezüglich Privatsphäre und Datenschutz und der Umstand, dass wir noch keinen Konsens hinsichtlich der Kompromisse zwischen persönlichen und gesellschaftlichen Werten haben.« Wie Skinner betont er nachdrücklich, dass unser Festhalten an einer vergangenen Ära unvollkommenen Wissens die Aussicht auf eine perfekt gesteuerte künftige Gesellschaft verstellt: »Wir können die Vorteile fürs Gemeinwohl nicht ignorieren, die ein solches Nervensystem bringen könnte.«49 Eine Frage vergisst Pentland geflissentlich: Wessen höheres Wohl? Wie bestimmt man darüber, was so ein höheres Wohl konstituiert, wenn die Maschinen und Mittel zur Verhaltensänderung im Besitz der Überwachungskapitalisten sind? Das »Wohl« ist hier bereits im Interesse der Eigner der Verhaltensmodifikationsmittel und deren Kunden definiert, denen man garantierte Ergebnisse zu bieten versucht. Das Wohl ist also nicht notwendigerweise das unsere, mit Sicherheit jedoch das eines anderen.

2. Pläne statt Politik Zu gern hätte Skinner die nötigen Computer gehabt, die ihn seine Theorien zur Steuerung von Verhalten hätten perfektionieren lassen; sie hätten es ihm ermöglicht, die Politik als Mittel kollektiver Entscheidungen durch das totale Wissen zu ersetzen. Skinner hatte keine Probleme mit der Konzeptualisierung einer »gemeinschaftlichen Wissenschaft« als Voraussetzung für die Rettung der Menschheit. »Wir wissen fast nichts über die speziellen Fähigkeiten der Gruppe«, erklärt Frazier. »Wir alle wissen, dass es Probleme gibt, die nicht von einem Einzelnen gelöst werden können … weil der Einzelne, egal wie außergewöhnlich er ist, nicht … alle Probleme bewältigen kann«.50 In Operationen, die rundlaufen, ist kein Spielraum für unvernünftige oder unbeabsichtigte Ergebnisse; Skinner sah die kreativen, aber eben auch oft vertrackten Konflikte der Politik, insbesondere der demokratischen Politik, als Sand im Getriebe, der die rationale Effizienz der Gemeinschaft als

hochfunktioneller »Superorganismus« bedroht. Er bedauerte unsere Neigung, etwas durch »politisches Handeln« verändern zu wollen, und bejahte den weitverbreiteten Verlust des Glaubens an die Demokratie, den er zu sehen meinte. In Walden Two beteuert Frazier: »Ich hasse den Despotismus der Ignoranz. Ich hasse den Despotismus der Gleichgültigkeit, der Verantwortungslosigkeit, ebenso wie den Despotismus des Zufalls. Und ich hasse den Despotismus der Demokratie!«51 Kapitalismus und Kommunismus leiden seiner Ansicht nach gleichermaßen an der Betonung wirtschaftlichen Wachstums, das nur zu Überkonsum und Verschmutzung führt. Skinner faszinierte das chinesische System, lehnte es jedoch der blutigen Revolution wegen ab, zu der ein Konvertierungsversuch im Westen unweigerlich führen musste. »Glücklicherweise«, so Skinners Schluss im Vorwort zu Walden Two, » gibt es noch eine andere Möglichkeit.« Diese Alternative ist Skinners Version einer behavioristischen Gesellschaft, in der »politische Aktion zu vermeiden ist«. In Walden Two ersetzt ein »Plan« die Politik, um den sich die »Planer« kümmern, eine Gruppe, die so etwas wie »Konkurrenzkampf« nicht kennt und der Macht zugunsten der leidenschaftslosen Verwaltung von Verstärkungsplänen zum höheren Wohl entsagt.52 Planer üben eine Macht aus, »die dem gewöhnlichen Mitglied verwehrt ist«, die aber berechtigt ist, »weil diese Macht-Ausübung zum Funktionieren der Gemeinde nötig ist«.53 Wie Skinner argumentiert auch Pentland, dass rechnerische Wahrheit notwendigerweise die Politik als Basis für instrumentäres Regieren zu ersetzen habe. Wir sehen uns an Nadellas Begeisterung beim Gedanken an Personen und Beziehungen als »Objekte in der Cloud« erinnert, wenn Pentland darauf besteht, frühere Formen des Regierens durch die Gewissheit des Maschinenschwarms zu ersetzen. »Eine mathematische, prädiktive Wissenschaft von der Gesellschaft, die sowohl individuelle Unterschiede als auch Beziehungen zwischen Individuen erfasst«, so schreibt er, »hat es in sich, die Denkweise von Staatsdienern, Wirtschaftsmanagern und Bürgern dramatisch zu verändern.«54 Pentland macht sich Sorgen, dass unsere politisch-ökonomischen Konstrukte wie »Markt« und »Klasse« einer alten, langsamen Welt entstammen. In der neuen, »mit Lichtgeschwindigkeit hypervernetzten

Welt« bleibt keine Zeit für die Art von rationalen Überlegungen, persönlichen Verhandlungen und Kompromissen, die typisch für das soziale Milieu waren, das solche politischen Konzepte hervorgebracht hat: »Wir können uns nicht länger nur als Individuen sehen, die zu sorgfältig abgewogenen Entscheidungen kommen; wir müssen die dynamischen sozialen Folgen miteinbeziehen, die unsere individuellen Entscheidungen beeinflussen und die hinter Wirtschaftsblasen, politischen Revolutionen und der Internetwirtschaft stehen.«55 Die Geschwindigkeit der instrumentären Gesellschaft lässt uns keine Zeit dafür, uns erst mal zu orientieren, und dieses Tempo wird hier zum moralischen Imperativ umfunktioniert; es entsteht so ein permanenter Ausnahmezustand, in dem wir individuelles Handeln automatisierten Systemen zu opfern haben, die hier einzig Schritt halten, etwas bemerken und dann korrigierend zum höheren Wohl eingreifen können. Es bleibt kein Raum mehr für Politik in dieser instrumentären Gesellschaft, weil Politik voraussetzt, dass wir uns orientieren, und das ist eine Quelle für Reibungsverluste, Sand im Getriebe, etwas, was wertvolle Zeit kostet und Verhalten von den Erfordernissen von Konfluenz und Tempo abzieht. Statt Politik, Märkte, Klassen zu betrachten, reduziert Pentland die Gesellschaft auf die Gesetze seiner Sozialphysik, was einem Aufguss von Skinners »gemeinschaftlicher Wissenschaft« entspricht. Pentland sieht seine Arbeit gar als praktische Grundlage für eine neue »rechnerische Theorie des Verhaltens«, die seiner Ansicht nach eine »Kausaltheorie der sozialen Strukturen« hervorbringen kann, »eine mathematische Erklärung dafür, warum die Gesellschaft so und nicht anders reagiert und wie diese Reaktionen menschliche Probleme lösen könnten (oder auch nicht)«. Diese neuen mathematischen Analysen enthüllen nicht nur die tiefen »Mechanismen sozialer Interaktionen« (Skinners »spezielle Fähigkeiten der Gruppe«), sondern lassen sich darüber hinaus auch noch mit »unseren neu erworbenen massiven Mengen an Verhaltensdaten« kombinieren, um die kausalen Muster bloßzulegen, die es uns ermöglichen, auf der Basis »beispielloser Instrumentierung«, wie Pentland schreibt, »bessere soziale Systeme zu konstruieren«.56 Die Berechnung ersetzt hier das politische Leben der Gemeinschaft als Basis für das Regieren. Tiefe und Breite der Instrumentierung machen es

möglich, so schreibt Pentland, den Ideenfluss ebenso zu berechnen wie soziale Netzwerkstrukturen, den Grad gegenseitiger Beeinflussung, ja selbst die »individuelle Empfänglichkeit für neue Ideen«. Das Entscheidende ist jedoch, dass die Instrumentierung das alles nur denjenigen ermöglicht, die mittels ihrer Gottesperspektive das Verhalten aller anderen modifizieren. Die Daten liefern eine »zuverlässige Vorhersage dafür, wie die Veränderung irgendeiner dieser Variablen die Leistung aller im Netzwerk verändern wird«. Und so erreicht man schließlich die optimale Leistung von Skinners Superorganismus. Diese Mathematik des Ideenflusses bildet die Basis für Pentlands Version eines »Plans«, der Zielsetzungen und Soll der Verhaltensmodifikation diktiert. Menschliches Verhalten ist innerhalb der Parameter des Plans zusammen- und in einen Pferch zu treiben – so wie Verhalten auf Nadellas Baustelle kontinuierlich und automatisch den Parametern der Policy angepasst wird. Pentland bezeichnet das als »Tuning des Netzwerks«. »Tuner« erfüllen die Rolle von Pentlands »wir«. So schreibt er zum Beispiel, man könne Städte als »Ideenmaschinen« verstehen, die »wir mithilfe der Gleichungen der Sozialphysik tunen können, damit sie mehr Leistung bringen«.57 Wie Skinners Planer kümmern Pentlands Tuner sich um die lästigen Anomalien, bei denen es sich um Überbleibsel aus der alten Welt der Unwissenheit handelt, die man fälschlicherweise für Freiheit hält. Tuner besorgen die Feinabstimmung von Big Others Operationen, um törichtes Verhalten präventiv zurück in den Schoß harmonischer Konfluenz und optimaler Leistung zu manövrieren. Diese Tuner handeln zum höheren Wohl derer, denen die Maschinen gehören und die sie dafür bezahlen, unser dechiffriertes Verhalten unter ihre Parameter zu zwingen. Dieses mathematische Konzept des Ideenflusses erlaubt es uns, soziale Netzwerke zu »tunen«, um besserer Entscheidungen und besserer Resultate willen … In der digitalen Finanzwelt von eToro haben wir festgestellt, dass wir die Ideenflüsse zwischen Menschen formen können, indem wir Einzelnen kleine Anreize oder Nudges geben, die isolierte Trader dazu brachten, sich mehr einzubringen, und solche, die zu vernetzt waren, dazu, sich nicht gar so stark einzubringen …58

3. Sozialer Druck statt Harmonie In der Gemeinschaft von Walden Two wird Verstärkung präzise orchestriert, um Emotionen auszuschalten, die eine Gefahr für die gemeinschaftliche Arbeit darstellen. Erlaubt sind nur die »schöpferischen und aufbauenden Emotionen wie Freude und Liebe«. Gefühle wie Sorge und Hass »und die explosiven Erregungen von Zorn, Angst und Wut« gelten als »unrentabel und gefährlich« und »den Bedürfnissen des modernen Lebens unangemessen«. Jede Art von Unterschied zwischen den Einzelnen untergräbt die Harmonie des Ganzen und dessen Fähigkeit, sich dem kollektiven Zweck zu beugen. Auf Fraziers Einwand, man könnte Menschen ja wohl nicht zur Harmonie zwingen, erfährt er, dass die Lösung weit subtiler und raffinierter ist. Er sieht sich über die wissenschaftlich kalibrierten Verstärkungspläne aufgeklärt: »Stattdessen muss man Verhaltensprozesse in Gang bringen, die den Einzelnen in die Lage versetzen, sein eigenes ›gutes Verhalten‹ zu entwerfen … Wir nennen das ›Selbstkontrolle‹. Aber damit Sie jetzt keinen falschen Eindruck bekommen – die letzte Kontrolle bleibt stets in der Hand der Gesellschaft.«59 Pentlands Vorstellungen entsprechen Skinners Konzept der »Verstärkung«: »Der Ansatz der Sozialphysik, jeden zur Mitarbeit zu bekommen«, schreibt er, seien »Anreize durch das soziale Netzwerk«. Mit solchen Anreizen, so erklärt er, »konzentrieren wir uns eher darauf, die Beziehungen zwischen Menschen zu verändern, als darauf, eine Verhaltensänderung beim Einzelnen zu bewirken … Mithilfe dieser Interaktionen erreichen wir die Veränderung durch sozialen Druck.« 60 Ein kritischer Faktor beim Aufbau dieser Tuning-Fähigkeiten sind für Pentland die sozialen Medien, da sie seiner Ansicht nach die Umgebung sind, in der sich sozialer Druck am besten kontrollieren, steuern, manipulieren und skalieren lässt.61 Den Beleg für diese Dynamik hat Facebook bereits geliefert. Die Experimente zur »emotionalen Ansteckung« sind ein Hinweis darauf, dass das Unternehmen aktiv an seiner Fähigkeit arbeitet, Empathie und Bindungen mit Tuningtechniken wie Priming und Suggestion zu manipulieren. Es kommt nicht von ungefähr, dass Pentland Facebooks Experimente für besonders erhellend hält und daraus eine

Vielzahl praktischer Einsichten zieht. So sieht er etwa das Wahlexperiment mit immerhin 61 Millionen Beteiligten als Bestätigung dafür, das sich sozialer Druck in solchen Netzwerken effektiv instrumentalisieren lässt, insbesondere bei Menschen mit »starken Bindungen«: »Das Wissen, dass Freunde, deren Gesichter uns bekannt sind, bereits gewählt haben, erzeugte genügend sozialen Druck, um die Leute zum Wählen zu bringen.«62 Mit diesem und weiterem Wissen dieser Art sind Pentlands »wir« – die Tuner – in der Lage, die »richtigen Anreize« zu aktivieren. Dass Pentlands »wir« Veränderungen mittels sozialem Druck herbeiführen dürfen, reflektiert sein Verständnis vom Superorganismus. Die Gottesperspektive bringt ihn zu der Überzeugung, menschliches Handeln sei tatsächlich mit dem Zählen von Bibern vergleichbar: »Wir können Menschen genauso beobachten, wie wir Affen oder Bienen beobachten können, und daraus Regeln über Verhalten, Reaktion und Lernen ableiten.«63 In allen diesen Populationen übt das Kollektiv Druck auf den einzelnen Organismus aus, mitzuspielen, bei der Herde zu bleiben, zum Schwarm zurückzukehren oder sich mit diesem in die Lüfte zu schwingen. Ideenflüsse ahmen die Muster des Maschinenschwarms nach. Der Rand ist mit dem Kern verschmolzen, Identität ist gleichgeschaltet, alle Teile gehen im Ganzen auf: … eine Schwarm- oder kollektive Intelligenz im Fluss durch die Zeit, alle Menschen darin lernen von den Erfahrungen aller anderen, um gemeinsam die Muster der Vorlieben und gewohnheitsmäßigen Handlungen zu entdecken, die für ihre physische und soziale Umgebung am besten geeignet sind. Dies läuft dem Selbstverständnis der meisten Bewohner der westlichen Hemisphäre zuwider, die sich als rationale Individuen sehen, als Leute, die wissen, was sie wollen, und die für sich selbst entscheiden, wie sie ihre Ziele erreichen wollen.64 Der Wechsel von der Gesellschaft zum Schwarm und von Individuen zu Organismen ist ein Eckpfeiler der instrumentären Architektur. Die Rolle der Empathie beim nachahmenden Übernehmen von anderer Leute Verhaltensweisen ignoriert Pentland, weil es sich bei dieser um eine gefühlte Erfahrung handelt, die nicht den beobachtbaren Metriken gehorcht, die es zum rechnerischen Regieren braucht. Er hält es mit dem Label des

Homo imitans, um den Eindruck zu vermitteln, dass es die Mimikry ist und nicht die Empathie und gewiss nicht die Politik, durch die sich die menschliche Existenz definiert. Der Begriff selbst kommt aus der Kinderpsychologie, taugt Pentland aber als passende Erklärung für jegliches menschliche Verhalten zu jeder Zeit; wie Skinner macht er damit geltend, dass es immer die Gesellschaft ist, die Kontrolle ausübt. »Der größte Einzelfaktor bei der Übernahme neuer Verhaltensweisen«, so schreibt er, »ist das Verhalten von Peers.«65 Da wir nun mal geboren seien, um einander zu imitieren, so Pentlands Gedankengang, sei die ganze Spezies auf den sozialen Druck als effizientes Mittel der Verhaltensveränderung abgestimmt. Dieses Modell menschlichen Lernens ist eine Rückkehr zu Affen und Bienen, aber eben auch eine Abkürzung zum Maschinenschwarm. Maschinen lernen nicht durch Empathie; Lernen ist hier ein kontinuierliches Updaten im Gleichschritt des gemeinsamen Vormarschs der kollektiven Intelligenz.

4. Angewandte Utopistik Sowohl Skinner als auch Pentland glauben an die Befugnis des Utopisten zur Durchsetzung seines Plans. Die instrumentäre Gesellschaft ist eine geplante Gesellschaft; hervorgebracht hat sie die totale Kontrolle der Mittel zur Verhaltensmodifikation. Weder Skinners Planer noch Pentlands Tuner scheuen sich vor der Verantwortung, von der Macht zur Ausformung des Superorganismus Gebrauch zu machen. Skinner hat zeitlebens den Glauben an die gesellschaftliche Vision von Walden Two nicht verloren. Er verstand sein Utopia als »totale soziale Umwelt«, in der alle Teile harmonisch auf kollektive Ziele hinarbeiten: »Hier gibt es keine Konflikte zwischen der Familie und der Schule oder dem Leben auf der Straße oder zwischen einer Religion und einer Regierung.«66 Und wenn geplante Wirtschaftssysteme, menschenfreundliche Diktaturen, perfektionistische Gesellschaftssysteme und andere utopische Spekulationen gescheitert sind, sollten wir nicht vergessen, daß auch nicht geplante, nicht diktierte und nicht perfekte Kulturen gescheitert sind. Ein Mißerfolg ist nicht immer einem Fehler

gleichzusetzen; mehr ist unter bestimmten Umständen vielleicht nicht zu erreichen. Der eigentliche Fehler besteht darin, Versuche überhaupt aufzugeben. 67 Ähnlich sieht Pentland seine Sozialphysik als so umfassend wie notwendig. Nur die totale Rendition allen menschlichen Verhaltens und die totale Kontrolle darüber können der Zivilisation in einer hypervernetzten Welt dienlich sein, und es gibt keinerlei Anzeichen dafür, dass er auch nur einen Augenblick zögern würde, die Herrschaft der Rechner im Namen unseres kollektiven Schicksals auf das gesamte Spektrum menschlichen Strebens auszuweiten. Politik und Ökonomie dieser Bestimmung, will sagen die Autorität und Macht, die sie begründen und aufrechterhalten, bedürfen keiner Spezifizierung, da die Maschinen und ihre Algorithmen über derlei fundamentalen Koordinaten des Menschseins stehen. Da die Berechnung die Wahrheit hinter den Daten enthüllt, bestimmt sie, was »korrekt« ist. Über diese Heilung der menschlichen Natur von ihren Schwächen wacht eine neue soziale Klasse von Tunern, die mittels Tuning, Herding und Konditionierung ein Verhalten von maximaler Effizienz produzieren. »Anstatt sich auf das Regulativ von Strafen und den marktlichen Wettbewerb zu verlassen«, sind »Anreize in den sozialen Netzwerken« alles, was es an Werkzeugen braucht, »um neue Verhaltensnormen zu etablieren«:68 »Angesichts der sattsam bekannten Unzulänglichkeiten der menschlichen Natur ist die soziale Effizienz ein wünschenswertes Ziel … Wir sollten uns darauf konzentrieren, den Ideenfluss zu liefern, der erforderlich ist, damit der Einzelne korrekte Entscheidungen treffen und nützliche Verhaltensnormen entwickeln kann.«69 Und schließlich verwirft Pentland wie Skinner die Auffassung, dass die »datengetriebene Gesellschaft«, die er sich vorstellt, nichts weiter sei als eine utopische Phantasie. Sie sei nicht nur praktikabel und machbar, beteuert er, sie sei ein moralischer Imperativ, bei dem der kollektive Nutzen alle anderen Erwägungen überwiegt.

5. Der Tod der Individualität

Individualität stellt für die instrumentäre Gesellschaft eine Bedrohung dar, sie sorgt für Sand im Getriebe, für lästige Reibungsverluste, die dem Wesentlichen – »Zusammenarbeit«, »Harmonie« und »Integration« – unnötig Energie entziehen. In einem Artikel mit dem Titel »Der Tod der Individualität« schreibt Pentland: »Statt von rationalen Individuen scheint unsere Gesellschaft von einer kollektiven Intelligenz regiert zu werden, die aus dem Fluss von Ideen und Beispielen aus der Umgebung kommt … Es wird Zeit, dass wir die Fiktion vom Individuum als Basiseinheit der Rationalität fallen lassen und erkennen, dass unsere Rationalität größtenteils vom sozialen Gefüge um uns herum bestimmt wird«.70 Auch diese Message hatte zum ersten Mal ausgesprochen eloquent der Behaviorist aus Harvard zum Ausdruck gebracht, als er das Andere hervorhob bei gleichzeitiger Diffamierung des Selbst. In Jenseits von Freiheit und Würde macht Skinner keinen Hehl aus seiner Verachtung für dieses transzendenteste aller Ideale von Sartres Ära: der Wille zum Willen, von sich in der ersten Person zu sprechen und zu handeln. Skinner zufolge übertreibt man maßlos hinsichtlich des Unterschieds zwischen dem Menschen und anderen Spezies, und er hätte Pentland völlig recht gegeben in dessen Ablehnung des Individuums zugunsten des vom Rechner vermittelten Blicks aus der Distanz. Biber oder Menschen, die Unterschiede spielen kaum noch eine Rolle, ist die schädliche Fiktion individueller Autonomie erst mal entsorgt. Die Kapitulation des Individuums vor den Manipulationen der Planer ebnet den Weg für eine sichere und blühende Zukunft auf der Basis der Aufgabe der Freiheit zugunsten des Wissens. Skinner war in diesem Punkt unnachgiebig: Was im Begriff ist, abgeschafft zu werden, ist der »autonome Mensch« – der innere Mensch, der Homunkulus, der besitzergreifende Dämon, der Mensch, der von der Literatur der Freiheit und der Würde verteidigt wird. Seine Abschaffung ist seit langem überfällig … Er ist ein Produkt unserer Unwissenheit, und während unser Wissen wächst, löst sich die Substanz, aus der er gemacht ist, immer mehr in Nichts auf. Die Wissenschaft … »dehomunkulisiert« ihn, und es bleibt ihr nichts anderes übrig, wenn sie der Abschaffung der menschlichen Spezies vorbeugen will: Wir können froh sein, wenn wir uns von diesem Menschen im Menschen befreit haben. Nur wenn wir ihn

seiner Rechte entsetzen, können wir … vom Abgeleiteten zum Beobachteten gelangen, vom Wunderbaren zum Natürlichen, vom Unzulänglichen zum Beeinflußbaren.71 Der längst überfällige Tod der Individualität zerstreut schließlich die störenden Fiktionen, die Vorstellungen wie Freiheit und Würde fetischisieren. Der Behaviorist des 20. Jahrhunderts aus Harvard und der Datenwissenschaftler des 21. Jahrhunderts vom MIT sind sich einig darin, dass es sich bei der Vorstellung des freien Willens nur um ein weiteres verkatertes Überbleibsel aus einer finsteren Zeit handelt, in der die Wissenschaft noch nicht demonstriert hatte, dass der Mensch, wie Skinner es ausdrückt, unter der »Kontrolle der sozialen Umwelt« lebt, die »Millionen seinesgleichen im Verlauf der Evolution von Kulturen hervorgebracht und erhalten« haben. Worauf der freimütige Behaviorist zu seiner letzten großen Wahrheit ausholt: »Eine Person wirkt nicht handelnd auf die Welt ein, sondern die Welt wirkt handelnd auf die Person ein.«72 Im Rahmen eines Vortrags bei Google, der begeisterten Applaus erntete, schmeichelte Pentland seinem Publikum, indem er andeutete, dass die digitalen Cognoscenti die Obsoleszenz des Individuums bereitwillig akzeptieren würden, sozusagen als unvermeidliches Schicksal. »Was wird aus dem freien Willen?«, fragte er das Publikum in Mountain View. »Der Gedanke mag Ihnen noch nicht gekommen sein, aber das ist die traditionelle Frage in diesem Fall.« Dann erklärte er, der größte Teil des menschlichen Verhaltens – von politischen Ansichten bis hin zur Musik, die man höre – werde vorherbestimmt: »von dem, was cool ist … weil man es sich von anderen abschaut«. Viele wiesen diesen Gedanken zurück, merkte er an, weil »es in unserer Gesellschaft nicht angesagt ist, so etwas zu sagen«. Dann versicherte er den Google-Leuten: »Ihr seid die letzten, denen ich das sagen muss, schließlich seid ihr mit die besten und smartesten Leute der Welt.« Für solche Leute, so schien Pentland damit zu sagen, sei der Tod des Individuums Schnee von gestern: Ihr habt vom rationalen Individuum gehört, klar. Und dass alle über das Rationale an ihm herziehen. Das habe ich nicht vor. Ich ziehe über das Individuum her, okay? Weil ich nämlich nicht glaube, dass wir Individuen sind. Was wir wollen, die Art, wie wir es zu bekommen

lernen … was wertvoll ist, all das beruht auf Gegenseitigkeit … individuelle Anreize … die gehören zu einem Denken aus dem 18. Jahrhundert … die Musik spielt nicht zwischen unseren Ohren. Die spielt in unseren sozialen Netzwerken, okay? Wir sind eine soziale Spezies.73 Pentlands Vision ist Skinners Vision, die jetzt auf den Schultern von Big Other steht mit seinem Big Data und seiner Big Math. Es sind dies die Ressourcen der smarten Maschinen, die die »korrekten« Antworten vorhersehen sollen. Ohne den Namen des Behavioristen je auszusprechen, steht Pentland derart im Einklang mit Skinners Sozialtheorie, dass ein Abschnitt seines Buches den Titel »Sozialphysik vs. freier Wille und Würde« trägt. Im Gegensatz zu Skinner achtet Pentland jedoch sorgsam darauf, nicht anzuecken – womöglich in der Hoffnung, sich keine vernichtende Rezension von Leuten wie Noam Chomsky zuzuziehen. (In »The Case Against B. F. Skinner«, wie Sie sich vielleicht aus Kapitel 10 erinnern, brandmarkte Chomsky Skinners Arbeit als »geistlos« und »bar jeden wissenschaftlichen Inhalts«; sie strotze nur so vor Denkfehlern, die das »Scheitern praktisch garantieren«.74) Pentland umgeht das Risiko einer solchen Kritik, indem er leisere Töne anschlägt: »Es gibt Leute, die reagieren negativ auf den Begriff ›Sozialphysik‹, weil er ihrer Meinung nach impliziert, dass Menschen Maschinen ohne freien Willen seien, die nicht unabhängig von ihrer Rolle in der Gesellschaft handeln können.«75 Wie Meyer räumt Pentland ein, dass Menschen durchaus über eine »Fähigkeit zum unabhängigen Denken« verfügen, besteht aber gleichzeitig darauf, dass es nicht Sache der Sozialphysik sei, diese Frage zu klären. Pentlands Ansicht nach besteht das Problem nicht darin, »unabhängiges Denken« außen vor zu lassen, für ihn sind »interne, nicht beobachtbare« Gedankenprozesse einfach nur Sand im Getriebe, Reibungsverluste, die »sich gelegentlich ergeben, um unsere besten sozialphysikalischen Modelle zu sabotieren«. Die jedoch glücklicherweise nicht wirklich in Gefahr seien, da »der Prozentsatz an Abweichungen von unseren regulären sozialen Mustern nur einige wenige Prozent beträgt«.76 Das autonome Individuum sei mit anderen Worten nur

eine Fussel, eine Lappalie, über die man auf dem kollektiven Marsch hin zu wessen höherem Wohle auch immer hinwegtreten kann. Wenn wir das Individuum schon als existenzielle Realität, als philosophische Idee und politisches Ideal vernichten, dann hätte es wenigstens die Würde eines altgriechischen Bestattungsrituals verdient. Immerhin handelt es sich dabei um das Resultat einiger Jahrtausende menschlicher Opfer und menschlichen Leids. Pentland jedoch löscht es wie eine fehlerhafte Zeile im menschlichen Code im Rahmen eines dringend benötigten Upgrades der veralteten Software, für welche der Vertreter der angewandten Utopistik die lange Menschheitsgeschichte hält. Es ist dabei nicht etwa so, dass Pentland Probleme wie Privatsphäre und soziales Vertrauen ignorieren würde; nur sind seine Lösungen für sie bereits auf die Intensivierung einer »datengetriebenen« instrumentären Gesellschaft zugeschnitten. Pentlands Ansatz erinnert an die frühe Überzeugung von Rosalind Picard, der zufolge gesellschaftliche Herausforderungen durchaus keine unüberwindlichen Hürden darstellen und mit Technik alle Probleme zu lösen seien. Zwei Jahrzehnte später war Picard nicht mehr so optimistisch; Pentland dagegen lässt nach wie vor kaum die Spur eines Zweifels erkennen. Er arbeitet mit einflussreichen Institutionen wie dem Weltwirtschaftsforum an einem »New Deal für Daten«, der zwar die »Besitzrechte« des Einzelnen bestätigt, aber die ubiquitäre Rendition von persönlichen Informationen an sich nicht in Frage stellt.77 Dateneigentum, so glaubt er, schaffe finanzielle Anreize für die Teilnahme an einer marktorientierten instrumentären Gesellschaft. Pentland geht davon aus, dass die Kombination von Anreizen, ubiquitärem Verbundensein, Monitoring und Tuning ältere Sensibilitäten wie die Sorge um die Privatsphäre aufreiben wird. »Der New Deal beteiligt den Kunden an der neuen Datenökonomie; das bringt zunächst höhere Stabilität und schließlich höhere Profitabilität, wenn die Leute sich erst einmal wohler dabei fühlen, ihre Daten zu teilen.«78 Der Überwachungskapitalismus errang die Vorherrschaft in den Jahren, in denen Pentland sich für seinen »New Deal« stark machte, in denselben Jahren, in denen auch Picards »elektronische Affekterkennung« dem überwachungskapitalistischen Paradigma erlag. Dennoch beharrt Pentland darauf, der Überwachungskapitalismus könne jederzeit von Marktkräften

beiseitegeschoben werden – trotz seiner Konzentration an Wissen, Rechten und Macht, trotz seiner einseitigen Kontrolle des Schattentexts und seiner beherrschenden Position bei der Wissensteilung in der Gesellschaft. »Alles, was es dazu braucht, sind einige kreative Geschäftsleute, die den Willen der Verbraucher dazu einspannen, ein lukrativeres als das gegenwärtige Wirstehlen-euch-alle-eure-Daten-Paradigma zu konstruieren. Wir müssen da einfach durch.«79 Politik, Gesetz und kollektives Handeln kommen in dieser Gleichung nicht vor, wahrscheinlich weil sie bereits obsolet sind in der gesellschaftlichen Vision, an der man hier baut.

Die Dritte Moderne des Schwarms Es überrascht nicht weiter, dass der Kapitalismus soziale Beziehungen formt. Vor einem Jahrhundert waren es Massenproduktion und Fabriken, die die Massengesellschaft nach ihrem Ebenbild formten. Heute hält der Überwachungskapitalismus ein neues Muster für unsere Zukunft parat: den Maschinenschwarm, in dem unsere Freiheit um des Profits anderer Leute willen dem totalen Wissen geopfert wird. Es handelt sich hier um eine sangund klanglose soziale Revolution, die schwierig auszumachen ist im Nebel utopischer Rhetorik, vom Tempo der angewandten Utopistik ganz zu schweigen. Heraufbeschworen haben sie die führenden Überwachungskapitalisten zusammen mit den zahlreichen PraktikerCommunities – von Softwareentwicklern bis hin zu Datenwissenschaftlern –, die die Herrschaft des überwachungskapitalistischen Projekts garantieren. Überwachungskapitalisten arbeiten hart daran, ihre wahren Ziele zu camouflieren, während sie sich im Einsatz instrumentärer Macht üben, um unser Verhalten zu formen, ohne dass wir das mitbekommen. Deshalb versteckt Google seine Operationen, die uns zu den Objekten seiner Suchen machen, und deshalb lenkt Facebook von der Tatsache ab, dass unsere geliebten Connections wesentlich für die Profite und die Macht aus seinen ubiquitären Netzwerken und seinem totalistischen Wissen sind. Pentlands experimentelle Arbeit und theoretische Analysen erfüllen eine wichtige politische und soziale Funktion bei der Durchdringung des Nebels. Sie geben die taktischen und konzeptuellen Routen der instrumentären

Gesellschaft vor, die die Mittel zur Verhaltensmodifikation ins Herz dieses sozialen Systems stellen, das, auf der wissenschaftlichen und technologischen Kontrolle kollektiven Verhaltens gegründet, von einer Klasse von Spezialisten verwaltet wird. In China scheint der Staat auf den »Besitz« dieses Komplexes aus zu sein, im Westen dagegen gehört es größtenteils dem überwachungskapitalistischen Kapital. Die instrumentäre Gesellschaft definiert sich durch die endgültige Institutionalisierung einer pathologischen Wissensteilung: Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet? Auch hier ist der Vergleich mit China nützlich. Sowohl China als auch den Westen kennzeichnet eine anormale Wissensteilung. In China wetteifert der Staat mit seinen Überwachungskapitalisten um die Kontrolle; in den USA und Europa arbeitet der Staat mit den Überwachungskapitalisten und über sie an der Erreichung seiner Ziele. Es sind die privaten Unternehmen, die die Höhen erklommen haben, um von dort aus zu regieren. Sie sitzen auf dem Gipfel der Wissensteilung und haben durch ihre Aneignung unseres Verhaltens einen ebenso beispiellosen wie exklusiven Hort von Reichtum, Informationen und Fachwissen angehäuft. Sie verwirklichen ihre Träume. Sie haben damit etwas erreicht, wovon selbst Skinner bestenfalls hatte träumen können. Die sozialen Prinzipien der instrumentären Dritten Moderne markieren einen jähen Bruch mit dem Erbe und den Idealen der liberalen Ordnung. Die instrumentäre Gesellschaft ist eine verkehrte Welt voller Zerrspiegel, in der alles, was uns lieb und teuer war, auf den Kopf gestellt und von innen nach außen gekehrt ist. Was die Illiberalität der Verhaltensökonomie anbelangt, setzt Pentland noch eins drauf. Bei ihm ist die Ideologie der menschlichen Schwäche nicht nur ein Grund für Verachtung, sondern eine Rechtfertigung für einen regelrechten Mord an der Individualität. Selbstbestimmung und autonomes moralisches Urteil, die gemeinhin als die Bollwerke der Zivilisation gelten, werden mit einem Mal als Bedrohung für das kollektive Wohl dargestellt. Sozialer Druck, den Psychologen vor allem als Ursache gefährlicher Konformität kennen, wird als Mittel zur Ausmerzung der unwägbaren Auswirkungen autonomen Denkens und moralischer Urteile zum höchsten Gut. Diese Architekturen nähren sich von unserem Mitgefühl, um die individuelle Innerlichkeit auszubeuten und zu ersticken, die Quelle sowohl

unserer persönlichen Autonomie als auch des moralischen Urteils ist. Diese Innerlichkeit ist die Stimme der ersten Person, des Willens zum Willen und des Gefühls, ein unveräußerliches Recht auf die Zukunft zu haben. Dass wir im Einklang miteinander voneinander lernen, sollte unserem Leben förderlich sein; diese Dritte Moderne dagegen treibt dieses Einschwingen aufeinander auf eine hysterische Spitze. Im Milieu totaler Instrumentierung gehen wir weniger in der Gegenwart das anderen auf, als dass wir in ihrer Unausweichlichkeit ertrinken. Der Instrumentarismus macht aus der Gesellschaft einen Schwarm, den es um garantierter Ergebnisse willen zu überwachen und zu tunen gilt; über die gelebte Erfahrung seiner Mitglieder sagt das freilich nichts. Wie sehen die Folgen eines Lebens aus, das wir unter dem Joch ihrer Instrumente und Methoden für Überwachungskapitalisten, Designer und Tuner als »das Andere« leben? Wie und wann wird ein jeder von uns zum Organismus unter Organismen? Um Antworten auf diese Fragen zu bekommen, brauchen wir nicht zu rätseln. Es genügt fürs Erste, unsere Kinder zu fragen. Ohne es zu wissen, haben wir die Unfertigsten und Verletzlichsten unter uns als Späher vorgeschickt, um den Schwarm zu erkunden und seine Wildnis zu besiedeln. Jetzt treffen ihre Botschaften aus diesem Grenzgebiet ein.

Kapitel 16 Vom Leben im Schwarm So schnell überwucherte alles sein Leben, bis er vergaß, wofür alles geschaffen war: vielen schloß er sich an, doch war er allein – W. H. Auden, Sonette aus China, VIII

Unsere Kanarienvögel in der Kohlengrube »Ich fühlte mich so einsam … ich konnte irgendwie nicht richtig schlafen, ohne mich einzuloggen und mit anderen auszutauschen«, erinnerte sich ein Mädchen aus China. »Diese Leere«, stöhnte ein Junge in Argentinien, »sie erdrückt einen.« Ein Teenager aus Uganda murmelte: »Ich hatte das Gefühl, dass mit mir was nicht stimmt.« Und an einem amerikanischen College jammerte jemand: »Ich hatte die totale Panik.« Das ist nur eine Handvoll der Lamentos aus einer Medienstudie mit tausend Schülern und Studenten in zehn Ländern auf fünf Kontinenten. Man hatte sie gebeten, für vierundzwanzig Stunden auf alle digitalen Medien zu verzichten – was offensichtlich zu einem weltweiten Heulen und Zähneknirschen führte, das selbst den Leitern der Studie Anlass zur Sorge gab. Auf den Punkt brachten den kollektiven Stoßseufzer die Reflexionen einer slowakischen Studentin: »Vielleicht ist es ja ungesund, dass ich es nicht aushalte, nicht ständig zu wissen, was die Leute denken und fühlen, wo sie sind und was passiert.«1 Die Berichte der Studenten sollten uns als Flaschenpost dienen, als beunruhigende Botschaft aus dem geistigen und emotionalen Milieu einer instrumentären Gesellschaft mit ihren verborgenen Architekturen von

sozialem Druck und Verhaltenssteuerung. Vor allem aber sollten sie uns den emotionalen Tribut des Standpunkts der Betrachtungsweise des Anderen in einem Schwarmleben vor Augen führen, in dem die anderen ein »es« für mich sind und ich mich als »es« für andere erfahre. Ähnlich der Einblicke, die der Geist in Dickens’ Erzählung Scrooge auf ein künftiges Weihnachtsfest gewährt, bieten uns diese Botschaften einen Blick in die instrumentäre Zukunft. Und wie wir wissen, war der alte Geizkragen so erschüttert von dem, was er sah, dass er sein Leben änderte. Fragt sich nur, wie wir reagieren? Diese Frage hängt wie eine dunkle Wolke über diesem Kapitel. Pentland preist Facebook als das perfekte Milieu für Tuning und die effektive Ausübung von sozialem Druck. In den folgenden Abschnitten wollen wir uns die Mechanismen näher ansehen, die für Pentland an Facebook gar so bewundernswert sind. Warum tun die jungen Leute sich so schwer, den Stecker zu ziehen? Welche Folgen hat diese Abhängigkeit für sie und uns alle? Facebook hat die Bedürfnisse der jungen Leute zu nutzen und zu manipulieren gelernt und damit neue Herausforderungen geschaffen für die Entwicklungsprozesse, die für die Herausbildung von Identität und Autonomie des Individuums verantwortlich sind. Zu den Folgen dieser Herausforderungen und dem emotionalen Tribut, den die sozialen Medien bei jungen Leuten fordern, gibt es jetzt bereits eine ganze Reihe von Studien. Wie wir sehen werden, stürzen der Schwarm und seine übergreifende Architektur des Big Other uns in eine Welt, über der in großen roten Lettern »Kein Ausgang« steht. Besagte internationale »Unplug«-Studie ebnete den Weg mit ihrer Enthüllung eines ganzen Spektrums emotionaler Probleme, die sie in sechs Kategorien zusammenfasst: Abhängigkeit, Unfähigkeit abzuschalten, Langeweile, Verwirrung, Verzweiflung und Isolation. Die plötzliche Trennung der Schüler und Studenten vom Netzwerk führte zu der Art von Verlangen, Depressionen und Ängsten, die eigentlich typisch für klinisch diagnostizierte Abhängigkeiten sind. Verstärkt wurden ihre Ängste durch den faustischen Pakt, der uns allen allzu vertraut ist, da die Betroffenen rasch feststellten, dass praktisch ihr ganzer Tagesablauf – ihre gesamte Logistik, ihre Kommunikation, ihr Informationsbedarf – von ihren vernetzten Geräten abhängig war. »Sich mit Freunden zu treffen, wurde schwierig bis unmöglich, irgendwohin zu finden ohne Online-Karte oder

Zugang zum Internet wurde zum Problem, und selbst für den Abend zu Hause was zu organisieren, wurde zur Herausforderung.« Schlimmer noch war die Erkenntnis, dass man sich selbst ein zwangloses Treffen so gut wie unmöglich ohne soziale Medien vorstellen konnte, vor allem nicht ohne Facebook: »Es ist zunehmend so, dass sich junge Menschen, denen nach dem Zusammensein mit anderen ist, es sich nicht leisten können, nicht auf dieser Website aktiv zu sein, und dass auf der Site aktiv zu sein praktisch gleichbedeutend damit ist, auf dieser Site zu leben.« Business- und Tech-Analysten nennen den »Netzwerk-Effekt« als eine der strukturellen Quellen, die Facebooks Vorherrschaft im Bereich der sozialen Medien nähren, aber diese Folgen ergaben sich ursprünglich aus den für Teenager und junge Erwachsene charakteristischen Bedürfnissen; sie reflektieren die Orientierung an der Peergroup, die man als für dieses Alter bzw. das Entwicklungsstadium typisch sieht. Genau genommen ergab sich einer der ersten Vorteile Facebooks in dieser Richtung in nicht geringem Maß aus der schlichten Tatsache, dass seine Gründer und die ersten Designer selbst noch Teenager und junge Erwachsene waren. Entsprechend entwarfen sie Features für ein imaginiertes Universum adoleszenter Nutzer und Collegestudenten, die später für den Rest von uns institutionalisiert wurden. Unterm Strich reduzierten sie das soziale Universum dadurch auf die Aufzählung von »Freunden«, die nicht eigentlich Freunde sind, und den pausenlosen Newsticker der »Likes«, der über den Wert einer Person auf dem sozialen Markt Auskunft gab. So goss man Öl ins Feuer adoleszenter Ängste und antizipierte damit die im wahrsten Sinne des Wortes fesselnden sozialen Disziplinen des Schwarms.2 Die Forscher kamen zu dem Schluss, mit ihrer weltweiten Studie über das Netzerwerkverhalten von Schülern und Studenten den Schleier von der Einsamkeit und der Desorientierung gerissen zu haben, die sich junger Leute bemächtigen, wenn sie sich von den sozialen Medien getrennt sehen. Es war nicht einfach nur so, dass sie mit sich nichts anzufangen wussten, sie hatten vielmehr tatsächlich »Probleme, ihre Gefühle zu artikulieren, ja selbst wer sie sind, wenn sie sich nicht einloggen konnten«. Die Betroffenen hatten das Gefühl, »eines Teils ihrer selbst verlustig gegangen zu sein«.3

Dieses Gefühl der Desorientierung und der Isolation lässt auf eine psychologische Abhängigkeit von »den anderen« schließen. Weitere einschlägige Studien vertiefen unser Verständnis der »Generation Z«, wie die Demografen die Gruppe der 1996 und danach Geborenen nennen, die sich als erste Gruppe von »digitalen Eingeborenen« – Menschen ohne Erinnerung an ein Leben vor dem Aufstieg des Überwachungskapitalismus – defniert. Diese Generation bezieht ihre psychologische Nahrung aus einer ganzen Reihe sozialer Medien, nicht selten auf vier, fünf Plattformen. Eine Studie von 2012 kam zu dem Schluss, dass angehende Erwachsene täglich mehr Zeit auf die Nutzung sozialer Medien verwenden als auf jede andere Aktivität; insgesamt bringen sie täglich fast zwölf Stunden mit dem einen oder anderen digitalen Medium zu.4 2018 stellte eine Studie von Pew Research fest, dass fast 40 % aller jungen Leute zwischen 18 und 29 Jahren »fast ständig« online sind; dasselbe gilt für 36 % der Menschen zwischen 30 und 49.5 Das passt denn auch zu den Ergebnissen einer Erhebung von 2016, der zufolge 42 % der befragten Teenager angaben, soziale Medien wirkten sich auf das Bild »der anderen« über sie aus, was die Forscher von einem Von-außen-nach-innenAnsatz hinsichtlich ihres Selbstausdrucks sprechen ließ. Ihre Abhängigkeit wirkt nachhaltig sowohl auf ihr Wohlbefinden als auch auf ihr Selbstwertgefühl (42 %) und ihre Zufriedenheit (37 %).6 Eine Erhebung unter jungen Britinnen im Alter von 11 bis 21 Jahren im Rahmen einer Folgestudie zu den psychologischen Auswirkungen einer Selbsterfahrung »von außen nach innen« legt den Gedanken nahe, dass die von Pentland ausgearbeiteten und von den Überwachungskapitalisten gebilligten sozialen Prinzipien der instrumentären Gesellschaft außerordentlich gut funktionieren.7 35 % der Frauen sagten, ihr größtes Problem sei, sich online »ständig mit oft idealisierten Versionen von Leben und Körper anderer zu vergleichen«.8 Einer der Leiter des Projekts sagte dazu, dass schon die jüngsten der befragten Mädchen in dieser Gruppe sich dem Druck ausgesetzt sähen, »eine persönliche Note« entwickeln zu müssen. Anders gesagt, das ständige Ausrichten an »Likes« und »Shares« treibt die Selbst-Objektifizierung in ganz neue Höhen. Als der Guardian Mädchen nach der Meinung zu den Ergebnissen dieser Studie befragte, sprachen die Antworten Bände über die

Misere des Organismus unter Organismen. »Ich habe das Gefühl, ich muss perfekt sein und mich ständig mit anderen vergleichen«, sagte eine der Befragten. »Du siehst, wie die anderen leben und was sie machen«, sagte eine andere, »du siehst ihr ›perfektes‹ Leben, und da denkst du dir, da komm ich nicht ran.«9 Im Lichte dieser Erkenntnisse sagte eine britische Ärztin über die jungen Leute in ihrer Praxis: »Die Leute wollen heute zu ›Influencern‹ heranwachsen, für sie ist das ein Job … Ich bin mir nicht sicher, ob die Eltern sich so recht bewusst sind, unter welchem Druck diese jungen Leute stehen.«10 Und tatsächlich waren nur 12 % der Befragten in der Studie von 2017 der Ansicht, ihre Eltern hätten auch nur die geringste Ahnung von diesem Druck. Wie auch immer, diese Ergebnisse bestätigen, dass sozialer Druck als Mittel zur sozialen Beeinflussung online bereits institutionalisiert ist. Im Gegensatz zu Pentlands Ansicht, »Klassen«-Unterschiede würden verschwinden, sorgt das Leben im Schwarm also für ganz neue Klüfte und neue Formen von Stratifizierung: Es heißt hier nicht mehr nur »tunen oder getunt werden«, sondern auch noch »drängen oder gedrängt werden«. Nichts könnte das junge Leben im Schwarm besser auf den Punkt bringen als die Einsichten von Facebooks Marketingchefin für Nordamerika, Michelle Klein, die 2016 begeistert ihr Publikum wissen ließ, im Gegensatz zum durchschnittlichen Erwachsenen, der 30-mal am Tag nach seinem Telefon sehe, checke der durchschnittliche »Millenial« sein Handy 157-mal (!) am Tag. Klein spricht von einer »sensorischen Kommunikationserfahrung, die uns dabei hilft, mit anderen in Verbindung zu bleiben, ohne wegsehen zu müssen«. Was ja wohl ein Segen für das Marketing sei. Klein streicht dabei die Bedeutung des Designs als Narrativ heraus, das für diese hypnotisierende Wirkung sorge: fesselnd, unmittelbar, ausdrucksvoll, eindringlich, anpassungsfähig und dynamisch.11 Wenn Sie über dreißig sind, dann wissen Sie, dass Klein nicht über Ihre Jugend spricht und auch nicht über die Ihrer Eltern, von Ihren Großeltern ganz zu schweigen. Adoleszenz und angehendes Erwachsenenalter im Schwarm sind etwas ganz Neues in der Menschheitsgeschichte: sorgfältig designte Produkte der Verhaltenstechnologie; unter der Aufsicht von Big Other in den Architekturen rechnergestützter Mittel zur Verhaltensmodifikation institutionalisiert, zielen sie auf Größen-,

Diversifikations- und Aktionsvorteile bei der Erfassung von Verhaltensüberschuss; finanziert werden sie vom Überwachungskapital, den Profiten aus einer beispiellosen Konzentration von Wissen und Macht. Unsere Kinder haben in einem Schwarm groß zu werden, der im Namen des Überwachungskapitalismus von den Vertretern der angewandten Utopistik gesteuert wird, überwacht und ausgeformt von den wachsenden Kräften instrumentärer Macht. Ist das das Leben, das wir für die offensten, empfänglichsten, gefügigsten, eifrigsten, unsichersten und vielversprechendsten Mitglieder unserer Gesellschaft wollen?

Die Faust aufs Auge Die magnetische Anziehungskraft, die die sozialen Medien auf junge Leute ausüben, treibt sie zu automatischerem und weniger freiwilligem Verhalten. Allzu viele überschreiten dabei die Grenzen zum Zwanghaften. Nur: Was macht die digitale Welt für die jungen Leute gar so hypnotisch? Warum kommen sie bei all dem mit ihr verbundenen Stress und dem Unbehagen, das sie ihnen verursacht, nicht mehr davon los? Die Antwort liegt in einer Kombination von Verhaltenswissenschaft und brillantem Design, das passgenau auf die Bedürfnisse dieser Alters- und Entwicklungsgruppe zugeschnitten ist; es passt wie die sprichwörtliche Faust aufs Auge. Das Design der sozialen Medien ist darauf angelegt, Leute jeden Alters in seinen Bann zu ziehen, seine optimale Wirkung jedoch hat es auf die psychologische Struktur der Adoleszenz und des angehenden Erwachsenenalters. Gerade hier entfalten die winkenden Belohnungen – Anerkennung seitens der Gruppe, Akzeptanz, Zugehörigkeit und Inklusion – ihre volle Kraft. Dieses maßgeschnittene Design macht die sozialen Medien für viele zum toxischen Milieu. Dieses fordert nicht nur einen hohen psychologischen Zoll, es bedroht auch den Lauf der menschlichen Entwicklung nicht nur für die heutige junge Generation, sondern für alle nachfolgenden. Facebook hat die komplexen Beziehungen technologischer Abhängigkeit nicht erfunden; sie wurden vielmehr in der Spielautomatenindustrie entwickelt, erfolgreich getestet und perfektioniert. In der

Spielautomatenbranche hat man das Abhängigkeitspotenzial und seine Möglichkeiten für grenzenlosen Profit vor allen anderen erkannt. Schon Skinner hatte die Relevanz seiner Methoden für die Casinobranche erkannt; diese hat sie konsequent weiterentwickelt. Es gibt keine deutlichere Illustration für die beunruhigende Macht der Verhaltenstechnologie und ihrer Fähigkeit, individuelle Neigungen in geschlossene Kopplungsschleifen von Obsession und Zwang zu verwandeln. Nirgendwo ist das Casino-Territorium einsichtsvoller kartiert als in Addiction by Design, einer Studie über Spielmaschinen in Las Vegas der Sozialanthropologin Natasha Dow Schüll vom MIT. Von besonderem Interesse für uns hier ist ihr Bericht über die symbiotischen Designprinzipien einer neuen Generation von Spielautomaten, die es darauf abgesehen hat, die psychologische Ausrichtung des Spielers zu manipulieren, sodass sie zunächst nicht wegsehen müssen und schließlich nicht mehr wegsehen können. Schüll stellte fest, dass Spielsüchtigen weder nach Unterhaltung ist noch nach dem Topf voll Gold am Ende des Regenbogens. Vielmehr sind sie auf der Jagd nach etwas, was der Suchtforscher Howard Shaffer von der Harvard Medical School, als »die Fähigkeit der Droge bzw. des Glücksspiels zur Veränderung subjektiver Erfahrung« bezeichnet hat. Der Spieler ist auf der Jagd nach einem Erfahrungszustand, den Schüll die »Maschinen- bzw. Automatenzone« getauft hat. Diesen definiert sie als einen Zustand der Selbstvergessenheit, in dem man sich einer unwiderstehlichen Welle anheimgibt, die das Gefühl mit sich bringt, »von der Maschine gespielt« zu werden.12 Das von Shaffer beschriebene Gefühl, ganz und gar wegzutauchen, das einen in der Maschinenzone überkommt, erinnert an Kleins Beschreibung von Facebooks Designprinzipien – fesselnd, eindringlich, unmittelbar; jeder Selbstbewusstheit verlustig, das Verhalten automatisiert, im Rhythmus des Spiels versunken, sieht man sich fortgetragen von einer Welle inneren Zwangs. Im Lauf der Zeit hat man auch den letzten Aspekt des Casinoautomaten darauf getrimmt, sich dieses Hungers nach dieser subjektiven Zustandsänderung zu bedienen und ihn zu betonen, ohne dass das der Spieler merkt. Schüll schildert diese jahrzehntelange Lernkurve, in deren Verlauf die Casinoleitung eine neue Generation computergesteuerter Spielautomaten zu

schätzen lernte. Nicht nur waren diese in der Lage, besagte zwanghafte Jagd nach der Maschinenzone auszulösen und zu verstärken, sie hielten den Spieler auch länger in dieser Zone fest. Das macht jede dieser Maschinen zu einem »personalisierten Belohnungsgerät«.13 Der Gedanke dahinter ist, alles auszuschalten, was den Spieler vom Verschmelzen mit dem Automaten ablenken könnte; die Spielkonsolen »formen die natürliche Haltung des Spielers«, Touchscreens sorgen für das Schwinden der Distanz zwischen ihm und der Maschine: »Jeder Aspekt einer Slotmachine, ihre mathematische Struktur, die grafische Gestaltung, die Klangdynamik, die Ergonomie von Haltung und Touchscreen, alles ist darauf kalibriert, die ›Zeit am Gerät‹ zu verlängern und den Spieler zum ›Spiel bis zum Aus‹ zu animieren.«14 Ziel ist eine Art manischer Automatensex in der Architektur eines geschlossenen Kreislaufs von Selbstverlust und automatischer Befriedigung. Der Schlüssel, so sagt ein Casino-Executive in Worten, die uns mittlerweile allzu vertraut sind, liege darin, »dahinterzukommen, wie sich mit Technologie die Vorlieben des Kunden ausnutzen lassen und dabei so unsichtbar wie nur möglich – automagisch, wie ich es nenne – zu sein.«15 Die psychologischen Risiken des perfekten Zusammenspiels in der Maschinenzone haben sich weit über die Casinos hinweg ausgebreitet: Lässt man alle Nebensächlichkeiten beiseite, definieren sie den Kern von Facebooks Erfolg. Und das Unternehmen bringt mehr Kapital, Informationen und Wissenschaft in diese parasitische Symbiose ein, als die Spieleindustrie je aufbringen könnte. Seine im Namen überwachungskapitalistischer Erträge erbrachten Leistungen haben den Prototyp einer instrumentären Gesellschaft und deren soziale Prinzipien geschaffen, die vor allem auf unsere Jüngsten zugeschnitten sind. Wir können aus den Herausforderungen, vor die junge Leute sich in diesem neuen, auf die Erzeugung von Zwang ausgerichteten digitalen Milieu gestellt sehen, viel lernen über die gelebte Erfahrung im Schwarm. Facebooks Marketingchefin brüstet sich ungeniert damit, mit Präzisionswerkzeugen ein Medium zu schaffen, in dem die Nutzer »nicht wegsehen müssen«; hinsichtlich der Praktiken, mit denen man dafür sorgt, dass der Nutzer, vor allem der junge Nutzer, irgendwann nicht mehr wegsehen kann, hält sich das Unternehmen eher bedeckt.

Hier und da bietet sich jedoch eine Gelegenheit für einen Einblick. So gestand zum Beispiel Sean Parker, einer der beiden Gründer von Napster und eine Zeitlang President bei Facebook, 2017 ganz offen ein, dass Facebook darauf ausgerichtet sei, den Nutzer sowohl geistig wie zeitlich maximal zu binden. Man bewerkstellige das mit einem »kleinen Schuss Dopamin von Zeit zu Zeit« – sprich mit »variabler Verstärkung« in Form von »Likes« und Kommentaren. Der Gedanke dahinter sei, den Nutzer durch die Jagd nach diesem »Fix« an den Schwarm zu binden.16 Shaffer, der Suchtforscher, hat fünf Elemente herausgearbeitet, die diesen zwanghaften Zustand seiner Ansicht nach definieren: Häufigkeit, Dauer, Wirkung, Verwaltungsweg und Spielerattribute. Wir wissen bereits einiges über die hohe Frequenz und die Dauer, mit denen junge Leute die sozialen Medien nutzen. Was wir hier verstehen müssen, sind 1) die psychologischen Eigenschaften, aus denen sie sich überhaupt von diesem Medium angezogen fühlen, 2) die Praktiken des Designs, mit denen man die Wirkungsschraube anzieht, um die Neigung zu einem nicht mehr zu stillenden Bedürfnis zu machen, und 3) die geistigen und emotionalen Folgen von Facebooks zunehmenden Fähigkeiten, junge Leute auf der Jagd nach dieser neuen Maschinenzone in seinen Bann zu ziehen. Nehmen wir die letzte Szene des Porträts einer Dreizehnjährigen, das die Washington Post 2017 im Rahmen einer Serie unter dem Motto »Aufwachsen im Zeitalter von LOLs, Likes und Träumen« brachte. Das Mädchen hat Geburtstag, aber ob sie sich darüber freuen soll, hängt allein davon ab, ob die Freundinnen Fotos von dem Ereignis auf ihren Seiten posten. Mögen sie sie oder nicht? »Sie scrollt, wartet darauf, dass die kleine Messagebox erscheint.«17 Die Adoleszenz ist seit jeher das Alter, in dem Akzeptanz, Aufnahme und Anerkennung seitens der »anderen« zu einer Frage von Leben und Tod werden können. Die sozialen Medien hätten das nicht zu übernehmen brauchen. Unterscheidet sich die Adoleszenz heute wirklich so sehr von der irgendeiner anderen Zeit? Die Antwort darauf ist ja … und nein. Offiziell »entdeckt« wurde die moderne Version dessen, was wir heute als Adoleszenz bezeichnen, 1904 von G. Stanley Hall. Schon damals verortete Amerikas erster Doktor der Psychologie die Herausforderungen, vor denen die Jugend sich gestellt sah, in dem sich rasant verändernden

Kontext »unseres städtischen Treibhauslebens, das dazu geneigt ist, alles vor seiner Zeit reifen zu lassen«.18 In seiner Arbeit über Teenager konstatierte er bereits um die Jahrhundertwende, die Adoleszenz sei eine Phase extremer Orientierung an der Peergroup: »Einige scheinen eine Zeitlang keinerlei innere Ressource zu finden, vielmehr scheint ihr Glück in geradezu kläglichem Maße von ihren Kameraden abhängig.«19 Außerdem wies er auf das Potenzial von Grausamkeit in der Peergroup, ein Phänomen, das zeitgenössischen Psychologen als relationale oder Beziehungsaggressionen bekannt ist. Jahrzehnte nach Hall bezeichnete der Entwicklungspsychologe Erik Erikson die zentrale Herausforderung der Adoleszenz als »Identitätsbildung«. Erikson leistete mit den größten Beitrag zur Erklärung der Adoleszenz im 20. Jahrhundert. Er betonte das Ringen des jungen Menschen um eine kohärente Identität, die er sich aus der »Gemeinschaftlichkeit« der jugendlichen Clique erarbeiten muss. Er beschrieb die »normative Krise«, in der fundamentale Fragen von »richtig« und »falsch« innerer Ressourcen bedürfen, die mit »Introspektion« und »persönlichem Experimentieren« verbunden seien. Die gesunde Lösung dieses Konflikts zwischen selbst und anderen führe zur Herausbildung eines robusten Identitätsgefühls.20 Heute stimmen die meisten Psychologen darin überein, dass unser längeres Leben in Verbindung mit den Herausforderungen einer informationsintensiven Gesellschaft die Zeit zwischen Kindheit und Erwachsenenalter weiter verlängert hat. Man hat sich mehr oder weniger darauf geeinigt, das »angehende Erwachsenenalter« als neue Lebensphase vom achtzehnten Lebensjahr bis zum Ende der Zwanzigerjahre anzulegen; das angehende Erwachsenenalter ist für das 21. Jahrhundert, was die Adoleszenz für das 20. Jahrhundert war.21 Und auch wenn zeitgenössische Wissenschaftler auf der Basis einer ganzen Reihe von Methoden und Paradigmen arbeiten, gehen doch die meisten davon aus, dass die wesentliche Herausforderung des angehenden Erwachsenenalters in der Unterscheidung zwischen einem »Selbst« und den »anderen« besteht.22 Es herrscht ein breiter Konsens darüber, dass wir im Verlauf unserer verlängerten Lebensspanne mehr als einmal auf die Kernfragen zurückkommen müssen; ganz und gar einig ist man sich jedoch darüber, dass für den erfolgreichen Übergang ins Erwachsenenalter wenigstens

einige der im angehenden Erwachsenenalter anstehenden Identitätsprobleme zu lösen sind. »Eine der wesentlichen Herausforderungen des angehenden Erwachsenenalters«, so heißt es im Oxford Handbook of Emerging Adulthood, »besteht darin, der Autor seines eigenen Lebens zu werden.«23 Wer von uns würde sich darin nicht wiedererkennen? Diese anhaltende existenzielle Herausforderung ist eine Quelle der Kontinuität, die Generationen verbindet. Was sich verändert hat, sind die Umstände, in denen junge Leute sich heute der Herausforderung zu stellen haben.

Lebensbeweis Das angehende Erwachsenenalter ist für die Psychologen Daniel Lapsley and Ryan Woodbury »Ground Zero« im Ringen um die »relationale Autonomie«, die junge Leute auf den Übertritt ins Erwachsenenleben vorbereitet.24 Der Begriff »relationale Autonomie« soll herausstreichen, dass Autonomie über das grobe Klischee vom »Individualismus« hinausgeht, dass es vielmehr darum geht, eine Balance zu schaffen zwischen der Pflege innerer Ressourcen und der Fähigkeit zu Intimität und Beziehungen. Der Aufbau eines Selbst, das sich von anderen unterscheidet und dennoch mit anderen verbunden ist, erfordert »knallhartes Verhandeln«, und die Qualität dieses inneren Abkommens »verleiht dem angehenden Erwachsenenalter ein Gefühl der Erwartung und der Dringlichkeit«, das beim erfolgreichen Übergang ins Erwachsenenalter hilft.25 Selbst mit diesen Einsichten bleibt es schwierig, die gefühlten Erfahrungen junger Leute voll und ganz zu verstehen, die, wie Hall vor mehr als hundert Jahren so treffend sagte, »keinerlei innere Ressource zu finden« scheinen. Die vielleicht am schwierigsten zu greifende Qualität ist womöglich die, dass es in der Phase, die dem harten Verhandeln vorausgeht, ein »inneres« Selbstgefühl schlicht nicht gibt. Wir sprechen hier von einer Phase, in der »ich« bin, was immer die »anderen« über mich denken, und was »ich« fühle eine Funktion der Behandlung ist, die ich durch »andere« erfahre. An die Stelle einer stabilen Identität tritt ein Chamäleon, das sich je nach dem Bild, das es im jeweiligen sozialen

Spiegel sieht, neu erfindet. Unter solchen Bedingungen sind die »anderen« keine Individuen, sondern das Publikum, für das ich mich produziere, und wer »ich« bin, hängt ganz und gar von diesem Publikum ab. Dieses Dasein im Spiegel ist pure »Fusion« und erfasst die Bedeutung eines dreizehnjährigen Mädchens, das nervös auf die kleine Messagebox wartet, die sie als Zeichen ihrer Existenz und ihres Werts sieht. Die junge Person, die sich noch keinen inneren Raum für sich selbst geschaffen hat, existiert für sich nur in der Meinung des anderen. Ohne die »anderen« gehen die Lichter aus. Zorn kommt nicht in Frage – man will die anderen ja nicht vor den Kopf zu stoßen, die unser Spiegel und damit der Lebensbeweis sind. In diesem elementaren Sinn geht es bei der jungen Person, die sich in die sozialen Medien gezwungen fühlt, ums nackte Leben, um die Existenz im Blick der anderen, die das einzig Mögliche ist, auch wenn es schmerzt. Der Entwicklungspsychologe Robert Kegan sagte über die adoleszente Erfahrung lange vor der Erfindung von Facebook, es sei eher so, dass »unabhängig von der ›Zuneigung anderer‹ kein Selbst« existiert.26 Es handelt sich dabei nicht um ein moralisches oder emotionales Defizit, sondern um die harte Wirklichkeit, die bestimmte vorhersagbare Konsequenzen hat: Man neigt dazu, durch den sozialen Vergleich zu funktionieren, was einen zur leichten Beute für Manipulationen macht, schließlich hat man kaum Verteidigungsmechanismen gegen sozialen Druck und andere Formen von sozialer Einflussnahme. Ohne eine gestaltende Arbeit am Selbst füllt das starre Glaubenssystem einer etablierten Gruppe diese innere Leere allzu schnell mit einer von außen herangetragenen Identität.27 Sich von der »Fusion« weg- und weiterzuentwickeln, bedeutet den Übergang von einer Person, die ihre Beziehungen ist, zu einer Person, die ihre Beziehungen hat. Das erfordert eine grundlegende Umgestaltung der Art und Weise, wie wir unsere Erfahrung mit Sinn erfüllen. Bei Kegan bedeutet dies eine Abwendung von einer »Kultur der Gegenseitigkeit« hin zu einer komplexeren »Kultur der Identität oder Selbst-Gestaltung« und der persönlichen Autonomie. Diese Verlagerung basiert darauf, Menschen zu begegnen und Lebenserfahrungen zu machen, die mehr von uns verlangen als die bloße Reflexion im Spiegel. Vielmehr besteht sie darauf, dass wir in

der Stimme der ersten Person sprechen, und zwingt uns zur Erarbeitung unserer ganz eigenen einzigartigen Reaktion auf die Welt. Es handelt sich dabei um einen inneren Akt, der sich jeder Rendition oder Verdatung entzieht, insofern wir uns ein inneres Gefühl für gültige Wahrheiten und moralische Werte zu erarbeiten beginnen. Damit beginnt der Punkt, von dem an wir sagen können: »ich denke«, »ich fühle«, »ich glaube«. Allmählich bekommt dieses »Ich« ein Gespür sowohl für seine Urheberschaft dieser Erfahrungen als auch für deren Besitz. Es kann über sich reflektieren, sich kennen und sich durch bewusste Entscheidungen und zielstrebiges Handeln regulieren. Die Forschung zeigt, dass derlei große Sprünge bei der Selbst-Gestaltung durch Erfahrungen wie etwa strukturierte Reflexion, Konflikte, Unstimmigkeiten, Krisen und Misserfolge stimuliert werden. Besonders hilfreich bei der Auslösung dieser neuen nach innen gerichteten Verbindungen sind Menschen, die sich weigern, unser Spiegel zu sein, Menschen, die der Fusion zugunsten einer echten Gegenseitigkeit widerstehen. »Wer in unser Leben tritt«, schreibt Kegan, »kann als wichtigster Einzelfaktor den Verlauf unseres Lebens bestimmen.«28 Aber was passiert nun, wenn wir es versäumen, eine gesunde Balance zwischen dem Inneren und dem Äußeren, dem Selbst und der Beziehung zu anderen zu entwickeln? Wie sehen die Folgen aus? Klinische Studien haben spezifische Muster herausgearbeitet, die man mit einer solchen stagnierenden Entwicklung verbindet. Es überrascht nicht weiter, dass dazu unter anderem die Unfähigkeit zum Alleinsein gehört, das Gefühl, untrennbar mit anderen verbunden zu sein, ein instabiles Selbstgefühl, ja sogar ein exzessives Bedürfnis, Kontrolle über andere auszuüben, um seinen Spiegel nicht zu verlieren. Der Verlust des Spiegels kommt dem Aus gleich.29 Das Kultivieren innerer Ressourcen ist damit eine kritische Voraussetzung für Intimität und Beziehungen, die mit jeder neuen Phase der Moderne zeitraubender geworden sind. Und auch wenn junge Leute sich der existenziellen Aufgabe der Selbst-Gestaltung wie eh und je nicht entziehen können, so lassen unsere bisherigen Erkenntnisse hier darauf schließen, dass diese Aufgabe heute auf dreierlei Weise mit der Geschichte zusammenfließt und mit den einzigartigen Lebensbedingungen unserer Zeit.

Erstens haben der Verfall der traditionellen Gesellschaft und die Evolution der sozialen Komplexität die Prozesse der Individualisierung beschleunigt. Wir müssen uns also mehr als zu irgendeinem anderen Zeitpunkt in der Menschheitsgeschichte auf unsere Selbst-Gestaltung und auf unsere inneren Ressourcen verlassen. Und wenn diese blockiert werden, kann das zu einem bitteren Gefühl der Entfremdung und der Isolation führen. Zweitens ist das digitale Verbundensein mittlerweile zu einem notwendigen Mittel sozialer Teilhabe geworden, nicht zuletzt aufgrund einer weitverbreiteten institutionellen Unfähigkeit, sich den Bedürfnissen einer neuen Gesellschaft von Individuen anzupassen. Die rechnergestützte soziale Infrastruktur verändert die menschliche Kommunikation und rückt einzelnes wie kollektives Verhalten ins Rampenlicht – wir brauchen uns nur die endlosen Wellen von Tweets, Likes, Klicks, Mobilitätsmustern, Suchanfragen, Posts und Tausender anderer täglicher Handlungen anzusehen. Drittens dominiert und instrumentalisiert der Überwachungskapitalismus das digitale Verbundensein. »Was sich aufgrund der sozialen Medien geändert hat«, schreibt die Sozialforscherin danah boyd in ihrer Studie über das Sozialleben vernetzter Jugendlicher, »ist, dass das ewige Verlangen nach sozialer Verbundenheit und Autonomie sich heute in vernetzten Öffentlichkeiten ausdrückt.«30 Es stimmt natürlich, dass das Verbundensein die Identitätsprobleme einer größeren Gruppe sichtbar macht; die Vorstellung von »vernetzten Öffentlichkeiten« ist allerdings ein Paradox. Genau genommen wird unsere Sichtbarkeit nicht durch die Öffentlichkeit vernetzter Räume vergrößert, sondern durch ihre Privatheit. Adoleszenz und angehendes Erwachsenenalter entfalten sich heute in den Räumen privaten Kapitals. Sie gehören den Überwachungskapitalisten, werden von ihnen unter den Vorzeichen ihrer ökonomischen Orientierung betrieben, und ihre operativen Praktiken sind darauf ausgerichtet, Überwachungserträge zu maximieren. Diese privaten Räume sind die Medien, über die jede Art von sozialer Beeinflussung – Druck, Vergleich, Modellierung, Priming – zum Tuning, Herding und zur Manipulation von Verhalten im Namen der Verhaltenserträge eingesetzt wird. In diesem Umfeld soll heute »Erwachsenenalter« entstehen.

Während Casinomanager und Entwickler von Spielautomaten sich gerne gesprächig bis großspurig geben, verlässt sich das überwachungskapitalistische Projekt auf Verschwiegenheit. Das hat nachgerade eine Wissenschaft auf den Plan gerufen, die es sich zur Aufgabe gemacht hat, die geheime Architektur zu dechiffrieren, die zunächst dafür sorgen soll, dass der Nutzer nicht wegsieht, und später, dass er nicht mehr wegsehen kann. Es gibt Chatgroups und endlose Threads in Foren, in denen die Leute dahinterzukommen versuchen, was Facebook tatsächlich macht. Auch Journalisten diskutieren relevante Praktiken in Magazinen und Büchern wie Teuflisch gutes Webdesign, Hooked und Unwiderstehlich, die jedoch letztlich nur normalisieren helfen, was sie kritisieren. Chris Nodder zum Beispiel, erklärt in seinem Buch Teuflisch gutes Webdesign, dass »böses« Design darauf abziele, menschliche Schwächen auszunutzen, indem es Benutzeroberflächen schaffe, die »die die Nutzer so fesseln, dass der Entwickler davon mehr profitiert als sie selbst«. Auf der anderen Seite zeigt er seinen Lesern, wie man für die psychische Abstumpfung besagter User sorgt. Es gehe hier schließlich »nicht um ein moralisches Dilemma«, sie sollten akzeptieren, dass die »bösen Design-Muster« längst eingesetzt würden; es gehe also eher darum, »sie sowohl als Verbraucher als auch Entwickler … sich zunutze« zu machen.31 Um zu beurteilen, was es heißt, in dieser unserer Zeit erwachsen zu werden, müssen wir die spezifischen Praktiken verstehen lernen, die die soziale Teilhabe um der kommerziellen Interessen anderer willen zu einer Zwangsjacke machen, die vielleicht wärmt, aber dennoch eine Zwangsjacke bleibt. Facebook verlässt sich auf ganz spezifische Praktiken, die die Neigung vor allem junger Nutzer bedienen, sich »von außen nach innen blickend« zu sehen. Besonders kritisch ist dabei, dass die Arbeit der SelbstGestaltung umso schwieriger wird, je mehr man das Bedürfnis nach den »anderen« bedient. Die gestörte Entwicklung eines positiven Gleichgewichts zwischen innerem und äußerem Leben hat so verheerende Folgen, dass sie nach Ansicht von Lapsley und Woodbury eine der wesentlichen Ursachen von Persönlichkeitsstörungen bei Erwachsenen ist.32 So streicht Nodder zum Beispiel Facebooks geradezu unheimliche Meisterschaft der »sozialen Bestätigung« heraus: »Ein guter Teil unseres

Verhaltens wird dadurch bestimmt, was wir für das Richtige halten. Und dies bildet sich aus dem, was wir bei anderen beobachten … Diesen Einfluss nennt man sozialen Beweis.«33 Das Unternehmen instrumentalisiert dieses Merkmal im Wesen des Heranwachsenden, indem es Messages von »Freunden« dazu einsetzt, ein Produkt, eine Dienstleistung oder eine Aktivität »persönlicher und emotionaler« zu gestalten. Diese von Pentland so bewunderte Taktik kam auch in Facebooks Wahlexperiment zum Einsatz. Sie schürt das Bedürfnis junger Leute, sich Bestätigung zu verschaffen, indem sie tun, was andere tun; außerdem lässt sich dadurch der Missbilligung durch andere aus dem Weg gehen. Facebooks folgenreichste Innovation in Sachen Verhaltenstechnologie ist der »Like«-Button, der 2009 ins Spiel kam. Zeitgenössischen Blogeinträgen des langjährigen Facebook-Managers Andrew Bosworth zufolge hatte man den »Like«-Button intern über anderthalb Jahre lang diskutiert, bevor Zuckerberg sich schließlich zur Implementierung entschied. Er hatte die Idee mehrmals verworfen, weil er befürchtete, der »Like«-Button könnte von anderen umsatzfördernden Features – wie etwa Beacon – ablenken. Bezeichnenderweise freundete sich der Gründer mit dem Button erst an, als neue Daten ihn als potente Quelle für Verhaltensüberschuss auswiesen, die der Anziehungskraft von Facebooks Newsfeed auf die Sprünge half, wie aus der schieren Menge der Kommentare hervorging.34 Überhaupt scheint Facebooks Führungsriege erst allmählich erkannt zu haben, dass der Button die Plattform von einem »Buch« in ein Reich der Spiegel verwandelte, von einem passiven Medium in ein tosendes Meer gegenseitiger Reflexionen, die die Nutzer an ihre Newsfeeds fesselten. Auf der Angebotsseite war der »Like«-Button ein weltumspannender Einwegspiegel, der für einen exponentiell wachsenden Nachschub an Rohstoff sorgen konnte. Je mehr eine Nutzerin »likte«, desto mehr gab sie Facebook über sich preis, was es dem Unternehmen ermöglichte, die Zwangsjacke Zug um Zug enger zu schnüren und den Vorhersagewert ihrer Signale zu erhöhen. Die Protokolle des zu Facebook gehörenden Foto- und Videodienstes Instagram liefern ein weiteres gutes Beispiel für diese Prozesse. Hier sieht man die engen Verbindungen: Zwang, innerer wie äußerer, zieht weiteren Verhaltensüberschuss an und dieser nährt weiteren Zwang. Instagram fesselt

seine Nutzer mit Fotos, die ihre Interessen ansprechen. Aber wie wählt man diese Fotos aus den Millionen von verfügbaren aus? Die offensichtliche, aber falsche Antwort wäre, dass man den Inhalt der Fotos analysiert, die den Leuten gefallen, und ihnen mehr davon zeigt. Stattdessen analysiert man den Verhaltensüberschuss: den Schattentext. Ein Manager des Unternehmens beschrieb das mal so: »Man basiert Vorhersagen auf eine Aktion, und um die rum macht man dann was.« Aktionen sind Signale wie »folgen«, »liken« und »teilen«, jetzt und in der Vergangenheit. Von da aus weitet sich der Kreis. Mit wem hast du was geteilt? Wem folgen sie? Wen liken sie? Mit wem teilen sie? »Instagram mint das vielschichtige soziale Netz zwischen Usern.« Dieses »Mining« baut auf beobachtbarem, messbarem Verhalten im Lauf der Zeit: Der dynamische Überschuss des Schattentexts stammt sowohl aus Instagrams eigenen geheimen Schätzen als auch aus denen von Facebook – nicht etwa aus dem Content, der im öffentlichen Text steht.35 Und letztendlich haben die Fotos, die Sie zu sehen bekommen, eine merkwürdige Relevanz für Ihr Leben. Aus mehr wird mehr. Auf der Nachfrageseite waren Facebooks »Likes« rasch ein begehrtes Objekt, Element eines universellen Belohnungssystems oder, wie ein junger App-Designer es ausdrückte, »das Crack-Kokain unserer Generation«. »Likes« wurden zu den unterschiedlich getimten Dopamin-Spritzen, die die Nutzer dazu brachten, ihre Einsätze zu erhöhen, »jedes Mal, wenn sie ein Foto teilten, einen Weblink oder ein Status-Update. Ein Post mit null Likes war für den Betroffenen nicht nur schmerzlich, er kam auch einer öffentlichen Verurteilung gleich.«36 Aber für die meisten Nutzer war die Sehnsucht nach der Belohnung größer als die Furcht vor der Demütigung, und so wurde der »Like«-Button zu Facebooks Markenzeichen. Rasch breitete er sich über das digitale Universum aus und verschweißte die Nutzer in einer neuen Art von gegenseitiger Abhängigkeit, die sich zu einer pastellfarbenen behavioristischen Verstärkungsorgie auswuchs. Der »Like«-Button war nur der Beginn der Arbeit an einem neuen sozialen Universum von historischen Dimensionen, das sich für viele, vor allem jüngere Nutzer durch die Fusion mit dem sozialen Spiegel definiert. So wie Spielern nach der Zone ist, in der sie eins mit der Maschine werden, so ist der junge Mensch, der sich in diese Kultur der Gegenseitigkeit

eingebettet sieht, auf der Jagd nach der Fusion mit dem sozialen Spiegel. Junge Menschen, die ohnehin bereits mit der Entwicklung einer Balance zwischen selbst und anderen ringen, stupst so etwas nach und nach in die Regression. Der kurze Abriss über die Geschichte von Facebooks Newsfeed ist ein weiterer Beleg für die Wirksamkeit der immer engeren Kopplungsschleifen, die diese Fusion formen und aufrechterhalten. Die Einführung des Newsfeeds 2006 war ein Meilenstein: Von jetzt an musste man nicht mehr die Seiten der Freunde besuchen, um das Neueste über sie zu erfahren, man konnte deren Updates praktisch wie im Ticker auf der eigenen Seite sehen. Hunderttausende gingen damals auf die Barrikaden, entsetzt über diesen eigenmächtigen Eingriff in die Privatsphäre. »Niemand war darauf vorbereitet, sein Leben schlagartig zum Futter für die Massen gemacht zu sehen«, erinnerte sich TechCrunch anlässlich des zehnten Geburtstags des Newsfeeds. Die Site bot seinen Lesern den »Ultimativen Guide zum Newsfeed« mit Anweisungen wie »wie Sie dafür sorgen, dass Ihr Content von mehr Leuten gesehen wird«, wie man »auffällt« und wie man sein »Publikum« anspricht.37 Auf dem Höhepunkt der Debatte schrieb die Site aber auch weitblickend: »User, die daran nicht teilnehmen, werden rasch feststellen, dass sie im Aufmerksamkeitsstrom untergehen, und werden, wie ich mal vermute, rasch dafür sorgen, dass sie wieder mitschwimmen.«38 Die Angst vor der Unsichtbarkeit und dem Verlust der Freunde zu bedienen, funktionierte 2006 mit 9,5 Millionen Besuchern, und mittlerweile lässt sie mehr als zwei Milliarden Nutzer die kleinen Tweaks an Facebooks Newsfeed akzeptieren. Die Newsfeeds wurden zum »Epizentrum« der Erträge des Unternehmens und »zur wertvollsten Reklametafel der Welt«, wie Time nur drei Jahre nach Facebooks Börsengang 2015 schrieb.39 Der Newsfeed ist außerdem Dreh- und Angelpunkt des sozialen Spiegels. In den Jahren zwischen Abscheu und Anbetung wurde das Feature wie kein zweites zum Objekt wissenschaftlicher Forschung, während es intern zum Motor umfassender organisatorischer Neuerungen wurde. Letztere betrieb man mit einem Kapitaleinsatz auf einem technologischen Niveau, dass man hätte meinen können, es gehe darum, das Welthungerproblem zu lösen, den Krebs zu heilen oder den Klimawandel umzukehren.

Über Facebooks ohnehin schon komplexe Rechenmaschinerie für die zielgerichtete Werbung hinaus baute Facebook 2016 auf einen der geheimsten Vorhersagealgorithmen der Welt. Entstanden war dieser durch den Blick aus der Gottesperspektive auf die mehr als 100 000 Parameter, anhand derer man den eingehenden Verhaltensüberschuss durchkämmt, um die »persönliche Relevanz« Tausender in Frage kommender Posts zu berechnen. Facebook »scannt und sammelt alles, was die letzte Woche über von Ihren Freunden gepostet wurde«, schreibt Will Oremus in Slate, »von jedem, dem Sie folgen, jeder Gruppe, zu der Sie gehören und jeder Facebook-Seite, die Sie je gelikt haben … Der Post, den Sie oben auf Ihrem Feed zu sehen bekommen, ist der, der Sie unter Tausenden mit der größten Wahrscheinlichkeit lachen lässt, weinen, lächeln, klicken, teilen oder der Sie zu einem Kommentar veranlasst.«40 Jede Kopplungsschleife schnürt die Zwangsjacke enger. Die Gottesperspektive, die das ermöglicht, bevorzugt Posts von Leuten, mit denen Sie bereits interagiert haben, Posts, die reges Interesse bei anderen fanden, und Posts, die denen, die Sie irgendwann mal interessiert haben, ähnlich sind.41 2015 führte man mit See First das erste »Curation Tool« ein. See First erlaubt es, Daten direkt auf der Basis des sozialen Spiegels der Nutzer zu dirigieren, indem man diesen die Möglichkeit zur Angabe von Vorlieben gibt. Facebooks Produktleiter spricht vom Interesse des Unternehmens, Ihnen das zu liefern, was die »größte Bedeutung« für Sie hat: das, was Sie heute von alledem wissen wollen, »was auf der Welt passiert ist … egal, wo es veröffentlicht wurde, egal ob von Freunden oder Angehörigen, egal aus welcher Nachrichtenquelle«.42 Jeder einzelne der Posts im Newsfeed beinhaltet nunmehr eine Reihe ganz expliziter Optionen zum Feedback nach dem Prinzip davon möchte ich mehr und davon lieber weniger. Diese direkten Nachschubrouten für Überschuss sind wichtige Quellen für weitere Innovationen, die das Ziel noch genauer erfassen sollen, die Fusion zwischen Nutzer und Maschine zu perfektionieren und damit die Zwangsjacke noch enger zu schnüren. 2016 sagte Facebooks Produktchef, man verdanke dieser direkten Gewinnung von Verhaltensüberschuss einen »Anstieg hinsichtlich des Gesamtnutzung und der auf der Site verbrachten Zeit«.43

Facebooks Ziel ist ein geschlossener Kreislauf, der sich von den Bedürfnissen und Neigungen seiner Nutzer nährt, diese verstärkt und dann potenziert. Allen voran stehen dabei das Bedürfnis, eins mit der Gruppe zu werden, und die Neigung, zu viel Persönliches von sich preiszugeben. Diese Schwachstellen beschränken sich zwar nicht auf junge Nutzer, sind aber bei ihnen am stärksten ausgeprägt. Die Schwierigkeit, beim »Sharing« privater Gedanken, Gefühle und anderer persönlicher Informationen eine gewisse Disziplin walten zu lassen, ist von der Sozialforschung reichlich dokumentiert. 2015 brachten die Carnegie-Mellon-Professoren Alessandro Acquisti, Laura Brandimarte und George Loewenstein diese Erkenntnisse auf den Punkt. Eine ganze Reihe psychologischer und kontextueller Faktoren, so ihr Schluss, führe dazu, dass die »Leute sich häufig nicht bewusst sind, was sie den anderen so mitteilen. Ihnen ist nicht bewusst, wie diese Informationen verwendet werden können, und selbst in den seltenen Fällen, in denen ihnen die Konsequenzen dieser Mitteilungen völlig klar sind, wissen sie nicht, welche Prioritäten sie setzen sollen«. Warnend wiesen die Forscher darauf hin, dass Menschen »leicht zu beeinflussen sind hinsichtlich dessen, was und wie viel sie enthüllen. Darüber hinaus lässt sich das Mitgeteilte zur Einflussnahme auf ihre Emotionen, Gedanken sowie ihr Verhalten einsetzen«. Das resultiere in einer Verschiebung »der Machtverhältnisse zwischen denen, die die Daten besitzen, und denen, die diesen Daten unterworfen sind«.44 Facebook hat die von Pentland so geschätzte Gottesperspektive auf seiner Seite, eine beispiellose Ressource, mittels derer das Unternehmen aus dem natürlichen Verlangen nach Fusion einen Raum ohne Fluchtweg macht. Wissenschaft und Kapital arbeiten bei diesem langfristigen Projekt Hand in Hand. Gestern war es der »Like«-Button, heute ist es die AugmentedReality, und morgen kommen weitere Innovationen zum Repertoire. Der Zuwachs an Nutzern, Überflussgewinnung und Erträgen sind Beleg dafür, dass diese Innovationen ihren Zweck bestens erfüllen. Junge Menschen sehnen sich nach dem Schwarm, und Facebook bedient diese Sehnsucht. Nur dass dieser Schwarm dem Überwachungskapital gehört, von diesem betrieben und mit wissenschaftlicher Methodik in einer Art Todesspirale auf die totale Fusion hingesteuert wird, die Shaffers fünf Kriterien für die zwanghafte Sucht mehr als erfüllt. Man generiert hier

Macht anhand eines Rezepts aus den versteckten Attributen derer, bei denen die Bestätigung durch die Gruppe die Leere füllen soll, die eigentlich irgendwann ein Selbst füllen sollte. Diese Suchtkonstellation muss keineswegs die einzige Motivation für die gegenwärtig zwei Milliarden Facebook-Nutzer sein, aber sie beschreibt all die Attribute, auf die Facebooks Anreize abzielen. Den harten Aufstieg zur Balance zwischen selbst und anderen müssen wir alle angehen; der Weg auf diesen Berg ist voller Risiken, Konflikte, Ungewissheit und aufregenden Entdeckungen. Aber was, wenn die Kräfte des Überwachungskapitals den Berg in eine Bergkette verwandeln? Schaut uns an! Ja, ihr lebt! Schaut nicht weg! Warum solltet ihr auch? Wie könnt ihr? Womöglich »liken« wir euch ja heute!

Die nächste menschliche Natur Ein wachsender Korpus wissenschaftlicher Arbeiten belegt den Tribut, den das Leben in einem Schwarm fordert, in dem die Kompetenzen des Überwachungskapitalismus bei der Verhaltenssteuerung mit dem jahrhundertealten menschlichen Impuls der Selbst-Gestaltung kollidiert. Die Forschung bietet bereits Antworten auf zwei Schlüsselfragen: Welche psychologischen Prozesse dominieren das Leben im Schwarm? Welcher Art sind die Folgen dieser Prozesse für Individuum und Gesellschaft? Den dreihundert bedeutendsten quantitativen Studien über den Zusammenhang zwischen sozialen Medien und psychischer Gesundheit zufolge45 definiert sich die Facebook-Erfahrung insbesondere durch den Prozess des »sozialen Vergleichs«, wie Psychologen das nennen. Man sieht darin für gewöhnlich einen natürlichen, praktisch automatischen Prozess, der außerhalb unseres Bewusstseins abläuft, der »dem Individuum praktisch durch sein soziales Umfeld aufgezwungen« wird, wenn wir uns durch die unbewusst internalisierten Bewertungskriterien von Gesellschaft, Gruppe, Familie und Freunden sehen.46 Eine Übersichtsarbeit über den Stand der Forschung bringt das folgendermaßen auf den Punkt: »Fast augenblicklich kommt es bei der Begegnung zu einer ersten ganzheitlichen Einschätzung der Ähnlichkeiten zwischen dem Ziel und dem Selbst.«47 Wenn wir auf

unserem Lebensweg anderen begegnen, vergleichen wir uns auf Ähnlichkeiten und Unterschiede hin: Ich bin wie du. Ich bin anders als du. Diese unterschwelligen Wahrnehmungen wandeln wir in Urteile um: Ich bin besser als du. Du bist besser als ich. Die Forschung weiß mittlerweile um die Zusammenhänge dieser automatischen psychologischen Prozesse mit den sich verändernden Bedingungen eines historischen Zeitraums. Den größten Teil der Menschheitsgeschichte über lebten die Menschen in kleinen Enklaven, in denen sie normalerweise von ihnen eher ähnlichen Menschen umgeben waren. Soziale Vergleiche bei kleinen Unterschieden bergen kein großes psychologisches Risiko. Wie die Forschung nahelegt, hat mit der Verbreitung des Fernsehens in der zweiten Hälfte des 20. Jahrhunderts sowohl die Intensität als auch die Negativität des sozialen Vergleichs drastisch zugenommen. Das Fernsehen lieferte den deutlichen Beleg für Lebensweisen, die sich dramatisch von der unseren unterschieden. Und nicht nur lebten andere anders, sie hatten auch mehr als wir. So nahm einer Studie zufolge mit der Verbreitung des Fernsehens über die Gesellschaft hinweg die Zahl der schweren Diebstähle zu; offensichtlich weckte das gesteigerte Bewusstsein der Fülle an Verbrauchsgütern auch den Wunsch, sie zu besitzen.48 Ein damit verwandtes Problem ist, dass der zunehmende Konsum von Sendungen, die Wohlstand zeigten, zur »Überschätzung des Wohlstands anderer und zu einer zunehmenden Unzufriedenheit mit dem eigenen Leben« führte.49 Die sozialen Medien markieren eine neue Ära der Intensität, Dichte und Verbreitung, vor allem für die Jüngsten unter uns, die fast ständig online sind, und das in einem Lebensabschnitt, in dem Identität, Stimme und moralisches Urteil noch in Entwicklung begriffen sind.50 Für Psychologen hat der soziale Vergleich mit den sozialen Medien tsunamihafte Ausmaße angenommen. Wenn das Fernsehen für eine höhere Lebensunzufriedenheit gesorgt hat, was passiert dann in den endlosen Weiten der sozialen Medien? Sowohl das Fernsehen als auch die sozialen Medien berauben uns der Begegnungen mit Menschen aus Fleisch und Blut, bei denen wir die Innerlichkeit des anderen spüren und etwas von unserer eigenen Innerlichkeit mit ihm teilen, wodurch wir gewisse Gemeinsamkeiten etablieren. Im Gegensatz zum Fernsehen jedoch verlangen soziale Medien

die aktive Selbstdarstellung, die durch das inflationäre Profil charakterisiert ist, bei dem man biografische Informationen, Fotos und Updates in Erwartung der Belohnungen an Popularität, Selbstwert und Glück so gestaltet, dass sie von Mal zu Mal fabelhafter ausfallen.51 Da die Leute sich vergleichen, sorgt ein dergestalt geschöntes Profil für eine negative Selbstbewertung bei anderen, was zu einer neuen Inflationsrunde führt. Insbesondere gilt das für die größeren Netzwerke, bei denen man auch »ferne Freunde« hat. Woraus eine Studie folgenden Schluss zog: »Sein soziales Netzwerk dadurch zu erweitern, dass man auf Facebook zahlreiche ferne Freunde hinzufügt, kann schädliche Folgen haben, wenn es bei Usern zu negativen Emotionen führt.«52 Eine Folge der neuen Dichte des sozialen Vergleichs und seiner negativen Kopplungsschleifen ist die »Angst, etwas zu verpassen« oder FOMO (»fear of missing out«). Es handelt sich um »das nagende Gefühl, manchmal auch eine übermächtige Angst, unsere Peers könnten mehr tun, mehr wissen oder mehr oder etwas Besseres besitzen als man selbst«.53 FOMO ist ein Leiden für junge Menschen; man assoziiert damit eine negative Grundstimmung und niedrige Levels an Lebenszufriedenheit. Die Forschung identifiziert FOMO mit zwanghafter Facebook-Nutzung: Wer daran leidet, checkt obsessiv seine Facebook-Feeds – während des Essens, unterwegs, sofort nach dem Aufwachen und als Letztes vor dem Einschlafen. Dieses zwanghafte Verhalten soll Erleichterung in Form von sozialer Bestärkung schaffen, führt aber, wie vorauszusehen, nur zu noch größeren Ängsten und einer noch verzweifelteren Suche nach Bestätigung.54 Der soziale Vergleich kann Leute dazu bringen, Dinge zu tun, die sie sonst nicht tun würden. Facebooks Experimente, Pokémon Gos »augmented reality« und Under Armours soziale Plattform, sie alle beuten die gegenseitige Sichtbarkeit und die durch sie bedingten sozialen Vergleichsprozesse für das erfolgreiche Tuning und Herding aus. Hier zeigt sich, dass einst natürliche psychische Vorgänge einem neuen Zweck zugeführt werden, der darin besteht, die Effektivität von Pentlands hochgepriesenem »sozialem Druck« zu vergrößern. Ziel ist auch hier die skalierte Verhaltensmodifikation. Aktiviert wird der soziale Druck durch das »Ich möchte sein wie du«, da bei negativem sozialem Vergleich die Risiken von Anderssein und Ausgrenzung drohen.

Was wissen wir darüber, wie sich der soziale Vergleich, der sich insbesondere der jungen Facebook-Nutzer bemächtigt, auf die psychische Gesundheit auswirkt? Der größte Teil der Forschung, die sich um ein tieferes Verständnis von Ursache und Wirkung bei der Nutzererfahrung bemüht, arbeitete mit Teilnehmern im Collegealter, und selbst eine kurze Übersicht über einige der wichtigeren Studien erzählt eine bittere Geschichte: Jugendliche und angehende Erwachsene laufen auf der Suche nach einem Lebensbeweis nackt durch diese digitalen Territorien. Einer Studie von 2011 zufolge entwickelten Nutzer sozialer Medien, die Fotos »schöner User« zu sehen bekamen, ein negativeres Selbstbild als solche, denen man weniger attraktive Profilfotos zeigte. Männer, denen man Profile von Karrieremännern zeigte, beurteilten ihre eigenen Bemühungen als inadäquat, im Gegensatz zu anderen, die Profile weniger erfolgreicher Männer zu sehen bekamen.55 2013 stellten Forscher fest, dass sich aus der Art der Facebook-Nutzung der jungen Teilnehmer an ihrer Studie negative Veränderungen sowohl hinsichtlich der Befindlichkeit von Augenblick zu Augenblick als auch ihrer Lebenszufriedenheit ganz allgemein vorhersagen ließen.56 Im selben Jahr konstatierten deutsche Forscher, die »verblüffende« Fülle sozialer Informationen, wie Facebook sie biete, schaffe »eine Grundlage für sozialen Vergleich und Neid in beispiellosem Ausmaß«. Wie ihre Arbeit zeigte, verstärkt »passives Folgen« auf Facebook Neidgefühle und senkt die Lebenszufriedenheit. Mehr als 20 % aller von den Teilnehmern an der Studie angegebenen Neiderfahrungen der letzten Zeit wurden von Erfahrungen auf Facebook ausgelöst.57 2014 fand man im Rahmen einer Drei-Phasen-Studie heraus, dass längeres Browsen von Facebook-Profilen sich negativ auf die Stimmung auswirkte. Nachdem sie dann Zeit zum Überlegen hatten, fühlten die Nutzer sich noch schlechter, weil sie obendrein das Gefühl hatten, ihre Zeit verschwendet zu haben. Aber anstatt den Computer auszuschalten, zogen sie es in der Regel vor, weiter im Netzwerk zu browsen in der Hoffnung, sich danach besser zu fühlen – immer auf der Jagd nach der plötzlichen Schicksalswende, die all den Kummer rechtfertigen würde.58 Dieser Zyklus führt nicht nur zu weiteren sozialen Vergleichen und weiterem Neid, er kann auch als Anzeiger für künftige depressive Symptome stehen.59

Die mit dem sozialen Vergleich assoziierte Selbstobjektifizierung wird noch mit anderen psychologischen Gefahren in Verbindung gebracht. Zuerst präsentieren wir uns als Datenobjekte zur Inspektion, dann erfahren wir uns selbst als das »Es«, das andere sehen. Eine Studie von 2014 belegte die schädlichen Auswirkungen dieser Kopplungsschleifen auf das Körperbewusstsein. Eine Analyse junger Männer und Frauen, die Facebook seit mindestens sechs Jahren nutzten, kam zu dem Schluss, dass zunehmendes Engagement auf Facebook zu einer vermehrten Beobachtung des eigenen Körpers führt. Das Selbstwertgefühl wird abhängig von der äußerlichen Erscheinung und davon, dass andere einen als Sexobjekt sehen. Die Scham über den eigenen Körper führt zu einem Kreislauf, in dem man seine Selbstdarstellung für ein größtenteils unbekanntes Publikum von Followern schönt.60 Das Leben im Schwarm begünstigt die, die von Natur aus eher auf äußerliche Anreize hin reagieren, als auf eigene Gedanken, Gefühle, Werte hin zu handeln, aus einem eigenen Gefühl für die persönliche Identität.61 Von der Warte der Balance zwischen selbst und anderen aus gesehen, sind positive soziale Vergleiche nicht weniger schädlich als negative. Beide sind lediglich Ersatz für das »harte Verhandeln« um ein Selbst, das zur Gegenseitigkeit fähig ist, anstatt im Schwarm aufzugehen. Ob die Nadel nun nach oben oder unten ausschlägt: Der soziale Vergleich ist der Motor der Kopplungsschleife zwischen der Neigung, in den sozialen Spiegel zu sehen, und deren Verstärkung. Sowohl die Befriedigung des Ichs als auch seine Beschädigung beschleunigen die Jagd nach weiteren äußerlichen Anreizen. Die einschlägigen Studien sind mit der Zeit komplexer geworden, insofern sie die Mechanismen, die inneren Zusammenhänge herauszuarbeiten versuchen zwischen dem sozialen Vergleich in den sozialen Medien und Symptomen wie Depressionen und sozialer Isolation.62 Eine besonders bemerkenswerte dreijährige Studie, die 2017 erschien, nahm sich sowohl die Facebook-Daten von mehr als fünftausend Teilnehmern vor als auch deren eigene Angaben über ihre »sozialen Netzwerke in der wirklichen Welt«. Dieser Ansatz erlaubte den direkten Vergleich zwischen Beziehungen in der wirklichen Welt und FacebookKontakten in vier Bereichen selbstberichteten persönlichen Wohlbefindens:

körperliche Gesundheit, psychische Gesundheit, Lebenszufriedenheit und Körpermasse-Index. »Das ›Gefällt mir‹ für die Inhalte anderer und die Klicks auf die Seiten von Freunden«, so der zusammenfassende Schluss der Studie, »stand durchgehend in Bezug zu einem beeinträchtigten Wohlbefinden, wogegen die Zahl der Status-Updates in direktem Bezug zu einer selbstberichteten verminderten psychischen Gesundheit stand.« Diese Bezüge waren so stark, dass »eine Erhöhung der Zahl der ›angeklickten Likes‹ oder ›Status-Updates‹ um eine Standardabweichung mit einer Abnahme um 5 % bis 8 % einer Standardabweichung selbstberichteter psychischer Gesundheit verbunden war«. Dieses Ergebnis hielt selbst einer Kontrolle nach dem »ursprünglichen Stand des Wohlbefindens« stand. Daraus zogen die Wissenschaftler folgenden Schluss: »Die Nutzung von Facebook fördert das Wohlbefinden nicht … Die einzelnen Nutzer von sozialen Medien täten gut daran, ihre Nutzung derselben einzuschränken und sich stattdessen auf Beziehungen in der wirklichen Welt zu konzentrieren.«63

Der Gesellungstrieb Das ist keine Probe. Wir sind hier mitten in der Vorstellung. Facebook ist keine Prophezeiung; Facebook ist der Prototyp einer instrumentären Gesellschaft. Facebook ist die erste Grenze eines neuen sozialen Territoriums, und unsere Jüngsten schicken wir als Vorhut voran. Ihre Erfahrung dort ist die epidemische Ausbreitung des Standpunkts der Betrachtung des Anderen, eine Hyperobjektifizierung der eigenen Persönlichkeit als Ergebnis der unerbittlichen Verstärkung eines durch den Blick von »außen nach innen« bestimmten Lebens. Folge davon ist ein Muster übermächtiger Desorientierung und Angst; schon der simple Akt der digitalen Trennung ist angstbesetzt. Paradoxerweise wird die Erfahrung des Verbundenseins bei allzu vielen von neuen Ängsten beeinträchtigt, die bei allzu vielen zu einem Gefühl der Isolation, zu Minderwertigkeitsgefühlen und Depressionen führen. Natürlich könnte man sagen, dass die Jugend in jeder Epoche schmerzhaft sein kann und dass es einfach das Schicksal der jungen Leute von heute ist, die Arbeit der Selbst-Gestaltung im

Rampenlicht dieses neuen Milieus digitalen Verbundenseins anzugehen. Gibt es ihnen nicht auch fabelhafte Möglichkeiten zu Stimme, Gemeinschaft, Informationen und Entdeckungen, die es früher nicht gab? Und natürlich könnte man sagen, die schaffen das schon, so wie jede andere Generation die Prüfungen der Adoleszenz in ihrer Epoche bewältigt hat. Nur ist das Ganze diesmal eben nicht nur eine Frage des nahrhaften Pausenbrots und des wohlmeinenden Segens, mit dem wir die jungen Leute auf den Schulweg schicken in dem Wissen, dass sie stolpern oder auch mal hinfallen, aber doch letztlich ihre Erfüllung und ihre Gemeinschaft ebenso finden werden wie sich selbst. Diesmal haben wir sie in den gähnenden Schlund eines aus dem Ruder gelaufenen Kapitalismus geschickt, der Macht und Vermögen der Enteignung von Verhalten verdankt und dessen Nutzung zur Verhaltensmodifikation im Dienste garantierter Ergebnisse. Junge Menschen sehnen sich heute nicht weniger nach dem Schwarm als Halls Teenager von 1904, aber der Schwarm, in den unsere Jugend heute hineinwächst, ist eben nicht das unverfälschte Naturprodukt ihres eigenen Wesens und einer auf Gegenseitigkeit gebauten Kultur. Er ist eine vom Überwachungskapital im Verborgenen, jenseits von Konfrontation und Verantwortlichkeit aufgebaute Zone asymmetrischer Macht. Er ist ein einzig und allein im Hinblick auf den höheren Nutzen des Überwachungskapitals entworfenes Kunstprodukt. Junge Leute, die in diesen Schwarm eintauchen, vertrauen sich der Überwachungspriesterschaft an: den besten Datenwissenschaftlern, Experten auf dem Gebiet des Maschinenlernens und Technologie-Designern, die alle zielstrebig allein darauf hinarbeiten, die durch die ökonomischen Imperative des Überwachungskapitals und ihre »Bewegungsgesetze« bedingte Zwangsjacke enger zu schnüren. Selbst die harmlosesten Begegnungen und Unterhaltungen sind eingebettet in ein verhaltenstechnologisches Projekt von globalem Ausmaß, das Big Other in seinen Architekturen ubiquitärer Überwachung, Analyse und Steuerung institutionalisiert hat. Junge Leute beginnen ihre Arbeit an der Balance zwischen selbst und anderen auf einem Spielfeld, das vom Überwachungskapital in eine Schräglage gebracht ist. So laufen sie zwangsläufig gegen den sozialen Spiegel, dessen Reflexionen sie sich nicht mehr entziehen können. Alles ist darauf ausgerichtet, die Algorithmen zu füttern, die sich in ihren Opfern verbeißen und nicht mehr loslassen wollen.

All diese Auslagen an menschlicher Intelligenz und Geld sollen allein dafür sorgen, dass die Nutzer, vor allem die jungen Nutzer, gegen den sozialen Spiegel fliegen und wie Insekten daran kleben bleiben. Die Studien und persönlichen Berichte, die wir uns angesehen haben, enthüllen die durch Zwang gekennzeichnete Kehrseite der vielgelobten Konfluenz des instrumentären Systems, das seine Harmonien auf Kosten der psychischen Integrität seiner Teilnehmer schafft. Es ist dies die Welt von Pentlands »sozialem Lernen«, in der seine Theorie des »Tuning« kaum mehr ist als die systematische Manipulation von Belohnung und Strafe: Aufnahme und Ausschluss. Erfolg garantiert ihm die natürliche menschliche Neigung, psychologischem Schmerz aus dem Weg zu gehen. So wie ganz gewöhnliche Kunden unter den Verhaltenstechnologien der Casinobranche zu zwanghaften Spielern werden können, so sehen sich ganz gewöhnliche junge Leute in den beispiellosen Strudel sozialer Informationen gezogen, der automatisch und in nicht weniger beispiellosem Ausmaß den sozialen Vergleich auslöst. Dieses psychische und soziale Milieu scheint einen Virus der Unsicherheit und der Angst zu produzieren, der junge Menschen auf der Jagd nach der Erleichterung durch die ersehnten Signale der Bestätigung durch die anderen immer tiefer in die Kopplungsschleife eskalierender Zwanghaftigkeit treibt. Dieser Zyklus verstärkt auf unnatürliche Weise die Orientierung an der Gruppe. Verhaltensforscher sprechen hier von Gesellungstrieb, eine Adaption gewisser Spezies, die die »Menge selbst … zum beherrschenden Merkmal der Umwelt« macht – wie etwa »Meeresfische der offenen See, die … in riesigen Schwärmen« leben, in denen »es außer ihnen selbst nichts gibt«.64 In der Konfrontation mit menschlichen Fressfeinden jedoch hat dieser Instinkt sich auch schon als tödlich erwiesen. So schildert der Biologe Bernd Heinrich das Schicksal der Wandertaube, deren Gesellungstrieb so stark war, »dass er den neuen Fressfeind, den technisch hochgerüsteten Menschen, von weither anlockte. Dieser Instinkt machte die Tiere nicht nur zu hilflosen Zielscheiben, sondern auch zu leichten Opfern von Täuschungsmanövern«. Kommerzielle Taubenfänger folgten den riesigen Schwärmen, und wo immer die Vögel landeten, fingen sie sie mit riesigen Netzen zu Tausenden, um sie dann auf den Märkten von St. Louis bis Boston zu verkaufen.

Eine der Methoden der Taubenfänger bestand darin, die überdurchschnittlich ausgeprägte Empathie dieser Tiere auszunutzen. Man fing einige Exemplare, nähte ihnen die Augen zu und band sie an Zweigen fest, »worauf der Schwarm sich niederließ, um ihnen zu helfen. Auf diese Weise wurden sie zu Tausenden gefangen und abgeschlachtet«.65 Die letzte Wandertaube starb 1914 im Zoo von Cincinnati. Diese Tiere »hatten keinen umgrenzten Heimbereich, in dem sie sich hätten einrichten können, sondern orientierten sich stets aneinander, daher waren sie überall daheim, bis zu ihrem Ende … Für die Wandertauben war das einzige ›Heim‹ die Menge der anderen, und das wurde ihnen jetzt zum Verhängnis … der Umstand, dass den menschlichen Fressfeinden keine territorialen Grenzen gesetzt waren«, hatte »dafür gesorgt, dass ihre Adaption zu ihrem Untergang wurde«.66 Facebook, die sozialen Medien, das sind Umgebungen, die dazu entwickelt wurden, diesen Gesellungstrieb im Menschen erst anzusprechen und dann zu verstärken, vor allem unter den Jungen. Man lockt uns vor den sozialen Spiegel, dessen dunkle Magie uns in seinen Bann zieht; es ist uns unmöglich, dem sozialen Vergleich, dem sozialen Druck und dem sozialen Einfluss zu widerstehen. »Den ganzen Tag online«, »fast den ganzen Tag online« – während wir uns auf die Masse konzentrieren, kreisen uns die kommerziellen Taubenfänger lautlos ein und werfen uns ihr Netz über. Diese künstliche Intensivierung des Gesellungstriebs kann nicht anders, als die harten psychischen Verhandlungen um die Balance von selbst und anderen zu komplizieren, hinauszuzögern oder gar zu verhindern. Multiplizieren wir diesen Effekt nun um das Hundertmillionenfache und verbreiten ihn über unser Erdenrund, was bedeutet das für die Aussichten unserer menschlichen und gesellschaftlichen Entwicklung? Facebook ist der Tiegel, in dem diese finstere neue Wissenschaft entsteht. Das soziale Netzwerk zielt darauf ab, die unerbittliche Stimulation des sozialen Vergleichs zu perfektionieren. Unsere natürliche Empathie wird hier manipuliert und instrumentalisiert, um unser Verhalten für die kommerziellen Ziele anderer zu modifizieren. Was die schiere tägliche Effektivität anbelangt – Kontakte, Logistik, Transaktionen, Kommunikation –, sind wir aufgeschmissen, wenn wir uns »abwenden«. Für den, dem lediglich nach der Fusion ist, die in einem gewissen Alter, in einer gewissen

Lebensphase als Lebensbeweis herhalten muss, kommt dieses »Abwenden« der Vernichtung gleich. Das Leben unter dem ständigen Blick der anderen ist ein neues Phänomen; unablässig von Hunderttausenden von Augenpaaren verfolgt zu werden, zu schweigen von Big Others Geräten, Sensoren, Strahlen und Wellen, die uns rendern, aufzeichnen, analysieren und aktuieren. Tempo, Dichte und Volumen des unablässigen Blicks sorgen für einen ständigen Strom wertender Metriken, die den Kurs unserer sozialen Währung mit jedem Klick steigen oder sinken lassen. In China sind diese Rankings öffentliches Territorium, glänzende Ehrenabzeichen oder »scharlachrote Buchstaben«, die einem die Türen öffnen oder verschließen. Im Westen haben wir »Likes«, »Freunde«, »Followers« und Hunderte von geheimen Rankings, die unser Leben mit unsichtbaren Mustern überziehen. Zahl und Dichte der Datenpunkte, die man zu unserer Berechnung heranzieht, nehmen von Tag zu Tag zu; ausgeklammert wird dabei, was in uns verborgen ist, eben weil es sich nicht beobachten und messen lässt. Darunter fällt zum Beispiel ein mögliches Selbst, das auf die Zündung durch den einen Funken wartet, der von der anteilnehmenden Aufmerksamkeit eines real existierenden Mitmenschen kommt. In diesem Aufeinandertreffen von Glut und Sauerstoff lässt sich das Verborgene erkennen, verstehen, kann man ihm zur Existenz verhelfen. Damit haben wir dann das richtige Leben vor uns: fleischig, weich, ungewiss und voll Stille, Risiken und, wenn uns das Glück hold ist, voll aufrichtiger Intimität. Facebook erblickte unter Umgehung althergebrachter institutioneller Einschränkungen das Licht der Welt, bot uns die Freiheit, mit anderen Verbindung aufzunehmen und uns frei von der Leber weg zu äußern. Unmöglich zu sagen, wie das »Facebook-Erlebnis« ausgefallen wäre, hätte sich das Unternehmen für einen Weg entschieden, der nicht auf Überwachungserträgen baut. Stattdessen sehen wir uns vor dieser plötzlichen Anhäufung instrumentärer Macht, die unsere ganze Gesellschaft in eine ungeahnte Richtung zwingt. Facebooks angewandte Utopistik ist der Prototyp einer instrumentären Zukunft, eine Glanzleistung der Verhaltenstechnologie, die ganze Bevölkerungsgruppen für die Unbilden einer instrumentären Zwangsharmonie trimmt. Die Operationen des Unternehmens dienen der Ausbeutung zutiefst menschlicher Neigungen wie Empathie, Zugehörigkeitsbedürfnis und Akzeptanz. Unter den Imperativen

von anderer Leute Profit tunt das System unser Verhalten auf die Belohnungen und Bestrafungen durch sozialen Druck und treibt das menschliche Herz in der Herde in Richtung Konfluenz. Von diesem Blickwinkel aus betrachtet, sehen wir das volle Ausmaß von Facebooks Operation als großangelegtes Experiment in Sachen Verhaltensmodifikation, das nicht nur darauf abzielt, die spezifischen Fähigkeiten seiner Tuning-Mechanismen in seinen offiziellen Experimenten, sondern auf der breitestmöglichen sozialen und psychologischen Leinwand zu testen. Vor allem jedoch können wir die angewandte Utopistik des sozialen Drucks, sein Schwungrad des sozialen Vergleichs und die Kopplungsschleifen, die die Nutzer an das Gruppensystem binden, als anschauliche Bestätigung von Pentlands theoretischem Ansatz sehen. Hier treten instrumentäre soziale Prinzipien nicht mehr nur als Hypothesen, sondern als Fakten zutage, die gegenwärtig die Räume bilden, in denen unsere Kinder »groß werden« sollen. Was wir hier sehen, ist die unumschränkte Verpflichtung an Sozialisation und Normalisierung instrumentärer Macht. Und ganz Alex Pentlands Theorie entsprechend, realisiert man diese Kopplungsschleifen außerhalb von Politik und individueller Willensäußerung. Das Ganze passiert im Verborgenen, wirkt auf der Ebene automatischer psychologischer Reaktionen und kippt die Balance zwischen selbst und anderen in Richtung der Pseudoharmonien des Schwarms. Unter die Räder kommt bei diesem Prozess die Innerlichkeit, die die unabdingbare Quelle sowohl autonomen Handelns als auch des moralischen Urteils ist. Was wir hier sehen, sind die Vorbereitungen für den Tod der Individualität, den Pentland verspricht. Genau genommen verschlingt dieser Tod Jahrhunderte von Individualitäten: 1) das politische Ideal des 18. Jahrhunderts vom Individuum als Träger unveräußerlicher Würde, Rechte und Verpflichtungen; 2) den individualisierten Menschen des frühen 20. Jahrhunderts, der sich, von der Geschichte ins Leben gerufen, auf Machados Weg begibt, weil er – dazu bestimmt, »sich ein eigenes Leben« zu schaffen in einer Welt unaufhaltsam zunehmender Komplexität und schwindender Traditionen – einfach nicht anders kann; und 3) das psychologisch autonome Individuum vom Ende des 20. Jahrhunderts, dessen innere Ressourcen und Fähigkeit zum moralischen Urteil sich, nicht zuletzt als Bollwerk gegen das räuberische Wesen der Macht, den von der

Geschichte gegebenen Herausforderungen der Selbsturheberschaft stellen. Die Selbsturheberschaft, der junge Leute entgegenstreben, trägt diese Historien weiter, stärkt, schützt und verjüngt die Ansprüche jeder Epoche auf die heilige Souveränität der individuellen Person. Facebook bietet ein praktisches Beispiel für die Dritte Moderne, wie die instrumentäre Macht sie uns in Aussicht stellt: einen neuen Kollektivismus im Besitz und unter dem Management des Überwachungskapitals. Die Gottesperspektive treibt die Berechnungen. Die Berechnungen ermöglichen das Tuning. Das Tuning ersetzt sowohl die Governance der Privatwirtschaft als auch die staatliche Politik, ohne die Individualität verkümmern muss. Und so wie der Unvertrag das soziale Misstrauen einfach übergeht, anstatt es zu heilen, verlassen sich die postpolitischen gesellschaftlichen Prozesse zur Bindung des Schwarms um Haltbarkeit und prädiktiver Gewissheit willen auf sozialen Vergleich und sozialen Druck, was die Notwendigkeit von Vertrauen eliminiert. Das Recht auf das Futur, sein Ausdruck im Willen zum Willen und seine Heiligung im Versprechen werden gewaltsam in die Festung des Überwachungskapitals gezerrt. Diese Enteignung erlaubt es den Tunern, die Schrauben anzuziehen, und das System kann gedeihen. Der Industriekapitalismus baute auf die Ausbeutung und Kontrolle der Natur, und das mit Folgen, die uns erst in den letzten Jahrzehnten so recht bewusst geworden sind. Der Überwachungskapitalismus baut, wie ich bereits gesagt habe, auf Ausbeutung und Steuerung des menschlichen Wesens. Der Markt reduziert uns auf unser Verhalten und macht daraus – ganz im Sinne der Warenfiktion – ein Wirtschaftsgut, das der Kunde maßgeschneidert erhält. In den sozialen Prinzipien der instrumentären Gesellschaft, wie wir sie bereits jetzt in die Erfahrungswelt unserer Jugend eingewoben sehen, lässt sich deutlich erkennen, auf welche Weise dieser neue Kapitalismus unser Wesen um seines Erfolgs willen zu formen versucht. Ganz im Sinne von Mackays Herden, Pentlands Bibern und Nadellas Maschinen gilt es, uns zu überwachen und aus der Ferne zu manipulieren. Wir sollen im Schwarm leben. Und so problematisch und schmerzhaft sich unser gewohntes Leben gestalten mag, das Leben im Schwarm ist kein natürliches mehr. Es ist von Menschen gemacht; Überwachungskapitalisten haben es gemacht. Die jungen Leute, mit denen wir uns in diesem Kapitel befasst haben, sind Dickens’ Geister der zukünftigen Weihnacht. Sie leben an der Grenze

zu einer neuen Form von Macht, die das Ende einer menschlichen Zukunft – mit ihren antiquierten Vorstellungen von Individuum, Demokratie und eigenverantwortlichem menschlichem Handeln – erklärt. Wenn wir diese Zukunft noch abwenden wollen, bedarf es jetzt Scrooges Entschlossenheit; wir dürfen uns nicht weiter ablenken lassen, wir müssen aufwachen aus unserer Resignation und uns gegen die aufkommende Dickfelligkeit, gegen die psychische Abstumpfung wehren.

No Exit! Als Samuel Bentham, der Bruder des Philosophen Jeremy Bentham, Ende des 18. Jahrhunderts sein Panopticon entwarf, um die ungebärdigen Leibeigenen des Fürsten Potemkin im Auge behalten zu können, ließ er sich von der Architektur der russisch-orthodoxen Kirchen inspirieren. Diese waren in der Regel um eine zentrale Kuppel gebaut, von der aus ein Bild des allmächtigen »Christus Pantokrator« auf die Gemeinde und damit auf die ganze Menschheit hinunterblickt. Es gehörte zum Konzept, dass von hier aus kein Ausgang zu sehen war. Hier sehen wir im Ansatz die geschlossene Kopplungsschleife, in der sich diese Situation des No Exit! wiederholt. Ging es in diesen Kirchen darum, den Menschen im Banne von Gottes Allmacht und Allwissenheit zu behalten, so geht es heute darum, den anderen nicht entkommen zu können, Big Other und den Überwachungskapitalisten mit ihrer allmächtigen Entscheidungsgewalt. Diese Situation der Ausweglosigkeit kommt auf leisen Sohlen. Zuerst brauchen wir nicht wegzusehen, und später geht es nicht mehr. In den letzten Zeilen von Sartres existenzialistischem Drama Geschlossene Gesellschaft, das in seiner englischen Übersetzung den treffenden Titel No Exit trägt, findet sich die berühmte Erkenntnis des Protagonisten Garcin: »Die Hölle, das sind die anderen.« Das war nicht etwa das Statement eines Misanthropen; es sprach daraus vielmehr die Erkenntnis, dass eine gesunde Balance zwischen selbst und anderen nicht unter dem ständigen Blick der anderen erreicht werden kann. Mitte des 20. Jahrhunderts nahm sich der Sozialpsychologe Erving Goffman dieser Themen in seinem Klassiker Wir alle spielen Theater an. Goffman

entwickelte dabei die Idee der »Hinterbühne« als den Bereich, in den das Selbst sich zurückziehen kann von seiner Inszenierung, die das Zusammenleben mit anderen verlangt. Das vom Theater inspirierte Bild der »Vorder- und Hinterbühne« wurde zur Metapher der universellen Notwendigkeit eines Orts, an den man sich zurückziehen kann, an dem wir »wir selbst« sein können. Die Hinterbühne definiert sich als der Ort, »an dem der durch die Darstellung hervorgerufene Eindruck bewußt … widerlegt« und »Illusionen und Eindrücke offen entwickelt« werden. »Hier sind Vorrichtungen, wie das Telefon, versteckt, damit man sie ›privat‹ benützen kann.« Die Unterhaltung ist »entspannt«, man kann die Wahrheit sagen; es ist ein Ort, an dem »die entscheidenden Geheimnisse des Schauspiels« sichtbar werden dürfen. Goffman zufolge ermöglicht einem die »Kontrolle über die Hinterbühne … sich gegen die deterministischen Ansprüche abzupuffern, von denen man umgeben ist«. Hinter der Bühne baut die Sprache auf Gegenseitigkeit, Vertraulichkeit, Intimität und Humor. Die Hinterbühne bietet die Abgeschiedenheit, in der man »die Maske fallen« lässt; man kann »stolpern und fallen, rülpsen, gähnen, sich versprechen, sich kratzen oder Wind lassen«. Am wichtigsten ist vielleicht, dass sie eine Möglichkeit zur »Regression« bietet; man kann auf viele Artigkeiten verzichten: das »sicherste Zeichen der HinterbühnenSolidarität« ist, »wenn wir uns erlauben, ungesellig, mißmutig und reizbar zu sein«. Fehlt uns diese Verschnaufpause, dieser Zufluchtsort, wo ein »wirkliches« Selbst ausgebrütet und gehegt werden kann, sehen wir uns über kurz oder lang mitten in Sartres Vorstellung von der Hölle.67 Studenten diskutieren im Rahmen eines Seminars ihre Strategien der Selbstdarstellung auf Facebook: die ständige Pflege von Fotos, Kommentaren und Profilen durch Löschen, Ergänzungen und Änderungen, die in ihrer Gesamtheit auf die Maximierung der »Likes« als Signal für den eigenen Wert auf diesem existenziellen Markt zielt. Für die Wissenschaft fallen diese Obsessionen in den Bereich der »abschreckenden Wirkungen« oder »chilling effects«.68 Ich frage meine Studenten, ob diese Selbstdarstellung des 21. Jahrhunderts denn gar so verschieden sei von der, die Goffman Ende der 1950er-Jahre beschrieb, ob wir nicht einfach die reale Welt gegen die virtuelle Welt eingetauscht haben, was Aufbau und Inszenierung unserer Persönlichkeit anbelangt. Es herrscht einen

Augenblick Schweigen, als die Studenten sich meine Frage durch den Kopf gehen lassen. Dann meldet sich eine junge Frau: Der Unterschied besteht darin, dass Goffman von einer Hinterbühne ausgeht, wo wir wirklich wir selbst sein können. Für uns schrumpft diese Hinterbühne. Es gibt fast keinen Ort mehr, an dem ich wirklich ich sein kann. Selbst wenn ich bloß draußen rumlaufe und meiner Ansicht nach hinter der Bühne bin, kann was passieren – Werbung kommt auf mein Handy oder jemand macht ein Foto von mir –, und mir wird bewusst, dass ich eigentlich auf der Bühne bin, was alles verändert.69 Das »Alles«, was sich da ändert, ist die plötzliche Erkenntnis, die Erinnerung daran, das Big Other keine Grenzen kennt. Der Apparat rendert Erfahrung mittlerweile nahtlos über die einst streng gezogenen Grenzen der virtuellen und der realen Welt hinweg. Das nützt zum einen unmittelbar dem Überwachungskapital – »Willkommen bei McDonald’s«, »Kauf diese Jacke!« –, auf der anderen Seite geht diese Erfahrung womöglich auch auf der Stelle an den Schwarm: hier ein Post, dort ein Foto. Ubiquitäres Verbundensein bedeutet, dass das Publikum nie sehr weit weg ist. Dieser Umstand bringt den geballten Druck des Schwarms in die reale physische Welt. Die Forschung beginnt sich diesem beunruhigenden Fakt zu stellen, den ein Team britischer Wissenschaftler als »erweiterte abschreckende Wirkung« bezeichnet hat.70 Der Gedanke dahinter ist, dass Menschen – insbesondere, wenn auch nicht ausschließlich, junge Menschen – heute ihr Verhalten in der wirklichen Welt mit dem Gedanken an ihre OnlineNetzwerke und das Internet überhaupt zensieren und entsprechend inszenieren. Die Wissenschaftler kommen zu dem Schluss, dass die Nutzung der sozialen Medien »eng verwoben ist mit dem Wissen, dass Informationen über unsere Offline-Aktivitäten auch online verbreitet werden können, und dass der Gedanke, einem ›imaginierten Publikum‹ zu missfallen, verändernd auf unser Verhalten im ›richtigen‹ Leben wirkt«. Ich sehe, dass meinen Studenten das digitale Verbundensein im selben Maße zusetzt, wie sie der Gedanke an seinen Verlust verstört. Als ich mich dabei ertappe, sie aufmuntern zu wollen, fällt mir eine persönliche

Erinnerung des Sozialpsychologen Stanley Milgram zum Konzept des No Exit! ein, die »die Macht unmittelbarer Umstände über Gefühle und Verhalten« anschaulich demonstriert.71 Milgram beschäftigte sich im Rahmen eines Seminars mit der Wirkung sozialer Normen auf das Verhalten. Um das Phänomen durch ein Experiment im realen Leben zu untersuchen, hieß er seine Studenten, Leute in der U-Bahn anzusprechen und diese, ohne sich weiter zu rechtfertigen, um ihren Platz zu bitten. Eines Tages stieg Milgram selbst in die U-Bahn, um seinen Beitrag zu leisten. Nach all den Jahren, in denen er sich mit den Verhaltensweisen der Menschen befasst hatte, war er nicht gefasst auf das, was passierte, als er sich selbst mit dieser sozialen Situation konfrontiert sah. In der Annahme, so ein »Streich« müsste doch eine Kleinigkeit sein, ging er auf einen der Fahrgäste zu und wollte eben seinen »Zauberspruch« aufsagen, als »mir die Worte in der Kehle stecken zu bleiben schienen, ich brachte sie einfach nicht heraus. Ich stand da wie erstarrt und zog mich zurück … Ich war vor Hemmungen wie gelähmt.« Der Psychologe konnte sich schließlich zu einem weiteren Versuch aufraffen. Er erzählt, was passierte, als er schließlich »die Worte herausbekam«: »Entschuldigen Sie, Sir, dürfte ich wohl Ihren Platz haben?« Ich hatte einen Anfall von nackter Panik ob dieses Verstoßes gegen die soziale Norm. Der Mann hingegen stand auf der Stelle auf und überließ mir seinen Platz … Kaum hatte ich mich gesetzt, befiel mich ein übermächtiges Bedürfnis, mich auf eine Weise zu verhalten, die meine Bitte rechtfertigen würde. Ich senkte den Kopf zwischen die Knie und spürte, dass ich kreidebleich wurde. Und es war nicht gespielt. Ich hatte tatsächlich das Gefühl, dass es mit mir zu Ende ging. Einige Augenblicke später hielt der Zug an der nächsten Station und Milgram stieg aus. Kaum hatte er dem Zug den Rücken gekehrt, stellte er zu seiner großen Überraschung fest, dass »alle Spannung verflogen« war. Milgram verließ die U-Bahn-Station, wo sein Herz wieder im Einklang mit den Herzen der »anderen« schlug, und dieser »Ausstieg« ermöglichte ihm die Rückkehr zu seinem »Selbst«. Als Milgram und seine Studenten das Experiment besprachen, arbeiteten sie drei Schlüsselthemen heraus. Das erste war ein ganz neues Bewusstsein

für »die Macht der hemmenden Angst, die uns vom Verstoß gegen soziale Normen abhält«. Zweitens handelt es sich bei der Reaktion desjenigen, der gegen die Norm verstößt, nicht etwa um einen individuellen Ausdruck seiner Persönlichkeit, sondern vielmehr um ein »erzwungenes Ausspielen der Logik sozialer Beziehungen«. Die intensiven Ängste, die Milgram und andere beim Verstoß gegen soziale Normen erfuhren, bilden »eine starke Barriere, die überwunden werden muss, ob unsere Handlungsweise nun folgenschwer – der Ungehorsam gegenüber einer Autorität – ist oder banal, wie um einen Sitzplatz in der U-Bahn zu bitten … Peinliches Berührtsein und die Angst, selbst gegen die banalsten Normen zu verstoßen, führen uns nicht selten in unerträgliche Dilemmas … Es handelt sich hier nicht um zu vernachlässigende Regulative, sondern um fundamentale Kräfte des sozialen Lebens«. Drittens schließlich lernte Milgram aus dem Experiment, dass jede Konfrontation mit sozialen Normen ganz wesentlich von der Möglichkeit zur Flucht beeinflusst wird. Der Mann, der an dem Tag in einen New Yorker U-Bahn-Zug stieg, war kein Jugendlicher; Milgram war ein gebildeter Erwachsener und obendrein ein Spezialist für menschliche Verhaltensweisen; er hatte sich eingehend mit den Mechanismen von Gehorsam, Autorität, sozialen Einflüssen und Konformität befasst. Und dann ging es um etwas so Alltägliches wie die U-Bahn, nicht um eine kapitalintensive Architektur zur Überwachung und Modifikation von Verhalten. Und dennoch konnte sich Milgram der Angst, die die Situation in ihm auslöste, schlicht nicht erwehren. Das Einzige, was die Situation erträglich machte, war die Möglichkeit, sich ihr zu entziehen. Im Gegensatz zu Milgram sehen wir uns vor einer unerträglichen Situation. Wie die Spieler in ihrem Maschinenschoß sollen wir mit dem System fusionieren und bis zum Aus spielen; nur dass es hier nicht mehr nur um das finanzielle Aus geht, sondern um das Aus für unser Selbst. Ziel der Tuner ist es, uns in der »Macht der unmittelbaren Umstände«, der Macht der Situation gefangen zu halten. Mittels der »Logik sozialer Beziehungen« im Schwarm zwingen sie uns, dem sozialen Druck nachzugeben. Dies bewerkstelligen sie mittels mathematisch berechneter Muster zur Ausbeutung unserer naturgegebenen Empathie. Das fortwährende Nachziehen der Schrauben an den Kopplungsschleifen schließt nach und nach die Ausgänge und sorgt damit für Ängste, deren

Unerträglichkeit uns weiter in Richtung Konfluenz treiben muss. Was hier abgetötet werden soll, ist der innere Impuls zur Autonomie und zur ebenso anstrengenden wie aufregenden Arbeit an einem autonomen Selbst als Quelle eines moralischen Urteilsvermögens, das in der Lage ist, um einen Sitzplatz zu bitten oder sich gegen eine aus dem Ruder gelaufene Macht zu stellen. Im Schwarm lässt sich leicht vergessen, dass jeder Ausgang auch ein Eingang ist. Den Schwarm zu verlassen, bedeutet den Eintritt in ein Territorium jenseits des Schwarms, in dem ein Refugium vor dem künstlich hochgezüchteten sozialen Druck der anderen winkt. Mit diesem Ausstieg lässt man den Standpunkt der Betrachtung des Anderen hinter sich zugunsten eines Raums, in dem sich unser Blick endlich nach innen richten kann. Mit dem Ausstieg aus dem Schwarm betritt man einen Ort, in dem sich ein Selbst gebären und nähren lässt. Die Geschichte kennt einen Namen für solch einen Ort: Freistatt.

Kapitel 17 Das Recht auf Freistatt Zuflucht und Aussicht sind Gegensätze: Die Zuflucht ist klein und dunkel; die Aussicht ist groß und hell … Wir brauchen sie beide, und wir brauchen sie vereint. – Grant Hildebrand, Origins of Architectural Pleasure

Big Other läuft der Gesellschaft davon An dem Sommerabend, an dem unser Haus durch einen Blitz zerstört wurde, standen wir im strömenden Regen und sahen ohnmächtig zu, wie es mitsamt Giebeln und der Veranda ringsum in Flammen aufging. Binnen Stunden wurde unser Zuhause zu einem schwelenden schwarzen Haufen. Während der folgenden Jahre nahmen meine Erinnerungen an das alte Zuhause ganz unerwartete Formen an: Statt an Räume und Gegenstände erinnerte ich mich an Gerüche, Schatten und Licht. Geradezu kristallklar vermochte ich den Duft meiner Mutter heraufzubeschwören, wenn ich im Schlafzimmer den Schub mit den Kopftüchern öffnete, die ihr so lieb und teuer waren. Ich schloss die Augen und sah die Nachmittagssonne in der samtenen Luft vor dem offenen Kamin mit dem abschüssigen Sims, auf dem unsere Schätze ausgestellt waren: ein Foto von meinem Vater und mir, die Schläfen aneinandergelegt, unsere Locken eine einzige schwarze Pracht; die kleinen bemalten Emaildöschen, die ich auf einem Pariser Flohmarkt fand, lange vor dem ersten Gedanken an eine Mutterschaft, in die dann später die Milchzähne unserer Kinder kamen, sodass sie wie kleine Schatztruhen voll Saatperlen aussahen. Unmöglich, jemandem die Schwermut und die Sehnsucht hinter alledem erklären zu wollen – wie

unser Selbst und das Leben unserer Familie sich symbiotisch mit diesen Räumen entwickelten, die wir unser Zuhause nannten; wie unsere Bindungen sich dort herausbildeten und das Haus in einen geweihten Ort der Liebe, der Bedeutung und der Erinnerung verwandelten. Mein Kummer wurde erträglicher, als ich das Werk eines ganz außergewöhnlichen Mannes zu entdecken begann, der als Postangestellter in Paris angefangen hatte, dann Physiker geworden war und schließlich Philosophie an der Sorbonne lehren sollte: Ist das Haus der Vergangenheit für den, der es zu hören versteht, nicht eine Geometrie aus Echo? Die Stimmen – auch die Stimme der Vergangenheit – klingen anders im großen Saal als in der kleinen Stube … In der Ordnung der schwierigen Erinnerungen, weit über die Geometrie der Pläne hinaus, ist die Tonalität des Lichtes wiederzufinden, dann kommen die milden Gerüche, die in den leeren Zimmern hängengeblieben sind.1 Besonders eines von Gaston Bachelards Werken hilft uns beim Nachdenken über die Aussichten eines Lebens im ausgangs- und damit ausweglosen Schatten von Big Other und seinen Strippenziehern hinter dem Vorhang. In seiner phänomenologischen Abhandlung Poetik des Raumes prägt er den Begriff »Topo-Analyse« für das Studium unserer Beziehungen zwischen dem inneren Selbst und der Außenwelt durch unsere Erfahrung des Raums, vor allem jenes Raums, den wir als »Zuhause« oder »Heim« bezeichnen: … das Haus beschützt die Träumerei, das Haus umhegt den Träumer, das Haus erlaubt uns, in Frieden zu träumen … wir müssen zeigen, daß das Haus für die Gedanken, Erinnerungen und Träume des Menschen eine der großen Integrationsmächte ist … Es ist Körper und Seele. Es ist die erste Welt des menschlichen Seins. Bevor er »in die Welt geworfen« wird … wird der Mensch in die Wiege des Hauses gelegt … Das Leben beginnt gut, es beginnt umschlossen, umhegt, ganz warm im Schoße des Hauses.2 Das Heim ist uns Schule der Intimität; hier lernen wir Menschen zu sein. In seinen Ecken und Winkeln enthüllt sich uns die Süße des Alleinseins; seine

Räume bilden Rahmen für unsere Erfahrungen mit Beziehungen. Die Geborgenheit, die es bietet, seine Stabilität und Sicherheit tragen bei zur Herausbildung unseres einzigartigen Selbstgefühls, einer Identität, die unsere Träume und Träumereien auf immer prägt. Seine Verstecke – Schränke, Truhen, Schubladen – nebst Schlössern und Schlüsseln dazu befriedigen unser Bedürfnis nach Geheimnis und Unabhängigkeit. Türen – geschlossen, abgesperrt, angelehnt oder sperrangelweit offen – nähren unseren Sinn für Verwunderung, Sicherheit, Möglichkeiten und Abenteuer. Bachelard lotet nicht nur die Bildwelt des Hauses aus, sondern auch die von Nestern und Muscheln, den »ursprünglichen Bildern« des Heims, die uns eine Vorstellung von der absoluten »Primitivität« des Bedürfnisses nach einer sicheren Zuflucht vermitteln sollen: So gibt uns das Behagen wieder dem ursprünglichen Erlebnis der Zuflucht zurück. Körperlich drängt sich das Wesen, das die Empfindung der Zuflucht hat, in sich selbst zusammen, zieht sich zurück, kauert sich hin, versteckt sich, rollt sich ein … [zieht sich] mit einem physischen Glücksempfinden … »in seinen Winkel zurück«.3 Die Geborgenheit unseres Heims ist, wie Bachelard feststellt, unsere ursprüngliche Art des Lebens im Raum; sie formt nicht nur den existenziellen Kontrapunkt von »zu Hause« und »auswärts«, sondern auch so manch fundamentale Art und Weise, unsere Erfahrungen mit Sinn zu erfüllen: Haus und Universum, Zuflucht und Welt, innen und außen, konkret und abstrakt, Sein und Nichtsein, dies und das, hier und anderswo, schmal und weit, Tiefe und Weite, privat und öffentlich, intim und distanziert, selbst und anderer. Als es daran ging, sich ein neues Heim vorzustellen, verfolgte meine Familie diese Themen ganz instinktiv. Als wir schließlich so weit waren, unser Projekt anzugehen, suchten wir nach unverwüstlichen Materialien: alte Steine und vernarbte alte Balken, die den Stürmen der Zeit standgehalten hatten. So wurden die Mauern unseres neuen Zuhauses stabil und mit der Isolation entsprechend stark. Dafür bekamen wir genau, was uns vorschwebte: eine wunderbar gesetzte und friedliche Ruhe. Wir wissen, dass nichts auf der Welt absolute Sicherheit und Gewissheit garantieren

kann, aber wir leben in der tröstlichen Heiterkeit dieses Hauses und seiner vielschichtigen Ruhe. Heute entfalten sich unsere Tage innerhalb der großzügigen Mauern dieses Hauses, in dem wir einmal mehr Wurzeln schlagen durften und das sich mit unserem Geist füllen ließ. So werden ein Haus zu einem Heim und ein Heim zu einer Freistatt. Wenn ich abends zu Bett gehe, bin ich mir dessen fast schmerzlich bewusst. Ich lausche auf den Atem meines Mannes und die verhaltenen Seufzer unserer geliebten Hündin, die neben dem Bett auf dem Boden liegend in ekstatischen Träumen schwelgt. Um uns spüre ich die schützende Hülle unserer Schlafzimmerwände; unsere Abgeschiedenheit besingend, wiegen sie mich in den Schlaf. Den Architekten von Big Other zufolge haben diese Wände zu verschwinden. Es darf kein Refugium geben; sie räumen das urzeitliche Verlangen nach Nestern und Muscheln beiseite wie den muffigen Müll einer alten Zeit. Mit Big Other hält das Universum Einzug in unsere vier Wände, die damit nicht mehr Garanten unserer Freistatt sind. Längst sind sie nur die Koordinaten für »smarte« Thermostate, Überwachungskameras, Lautsprecher und Lichtschalter, die unser Verhalten extrahieren und rendern, um es schließlich zu aktuieren. Es spielt dabei keine Rolle mehr, wie solide und stark unsere Wände sind, da die Grenzen an sich ausgelöscht werden sollen, die die fundamentale Erfahrung eines Heims definieren. Es darf keine Winkel und Ecken mehr geben, in denen man sich einrollen und die Freuden stiller Innerlichkeit genießen kann; es darf keine Verstecke mehr geben, weil es keine Geheimnisse mehr geben kann. Big Other verschlingt das Refugium mit Stumpf und Stiel und allen Kategorien der Erkenntnis, die sich aus seinen natürlichen Gegensätzen ergeben: Haus und Universum, Tiefe und unermessliche Weite. Diese zeitlosen Polaritäten, in denen wir unser Selbstgefühl entdecken und entwickeln, werden ihres Kerns und Wesens beraubt, wenn sich die Unermesslichkeit in meinem Kühlschrank breitmacht, wenn die Welt in meiner Zahnbürste zu plappern beginnt, wenn man irgendwo über meinen Kreislauf wacht und das Lüftchen das Windspiel in meinem Garten nur zum Klingen bringt, damit es die ganze Welt hören kann. Schlösser? Die sind verschwunden. Türen? Die stehen sperrangelweit offen.

Auf dem Vormarsch institutioneller Interessen, die Big Other implementiert sehen wollen, wird die älteste aller Zitadellen als erste fallen: das Prinzip der Freistatt. Das Privileg der Freistatt ist seit Anbeginn der Menschheitsgeschichte ein Mittel gegen die Macht. Selbst im Altertum, als die Tyrannei die vorherrschende Ordnung war, galt das Recht auf Freistatt als unantastbar. Es gab einen Ausgang, eine Fluchtmöglichkeit vor der totalisierenden Macht, und dieser Ausgang war der Eingang zu einer Freistatt in Form einer Stadt, einer Gemeinschaft oder eines Tempels.4 Bei den alten Griechen waren Freistätten heilige Orte, die Asyl gewährten und an denen geopfert wurde; das griechische Wort asylon bezeichnet ein »Heiligtum … Selbst bei feindlichen Einfällen wagte nicht leicht jemand sich daran zu vergreifen … Bedrängte und Verfolgte, ja selbst Verbrecher, die in einen Tempel geflohen waren, ohne weiteres vom Altar oder Götterbilde wegzureissen, galt für Frevel«.5 Das Recht auf Asyl hielt sich in vielen Teilen Europas bis ins 18. Jahrhundert; man verband es mit heiligen Stätten, Kirchen und Klöstern. Das Verschwinden des Asylprivilegs war weniger eine Absage an sich als Spiegel einer gesellschaftlichen Entwicklung hin zur Herrschaft des Rechts, eines Wandels, den ein Historiker in der Wendung »Gerechtigkeit als Freistatt« zusammengefasst hat.6 In moderner Zeit erlebten Heiligkeit, Unverletzbarkeit und Ehrerbietung, wie man sie einst mit dem Asylrecht verband, ihre Wiedergeburt im Schutz durch die Verfassung und in den Erklärungen unveräußerlicher Rechte. Das englische Common Law behielt den Gedanken der Burg als unverletzbarer Festung bei und machte daraus im weiteren Sinne das »Heim«, eine Freistatt, in der man vor willkürlichem Eindringen geschützt war. Auch dem amerikanischen Recht ist das Privileg der Freistatt nicht unbekannt. 1995 schrieb die Rechtswissenschaftlerin Linda McClain, die Gleichsetzung von Heim mit Freistatt beruhe weniger auf der Heiligkeit des Eigentumsrechts als auf einer Verpflichtung zu den »privaten Dingen des Lebens«: »Wir erkennen sowohl ein deutliches Motiv eines vor der weiteren Welt verschlossenen oder gar geheimen Bereichs als auch eine Anerkenntnis der wichtigen sozialen Dimension eines solchen geschützten inneren Raums …«7

Dieselben Motive erkennen wir aus der Perspektive der Psychologie. Wer immer die Freistatt ihres Kerns und Wesens berauben möchte, geht dabei gern in die Offensive und versucht uns mit implizierten Schuldgefühlen abzulenken: »Was haben Sie denn zu verstecken?« Aber wie wir gesehen haben, braucht es zur Entwicklung einer gesunden Balance zwischen selbst und anderen nun mal Zeit und Raum ohne die anderen; nur so kann ein innerliches Bewusstsein heranreifen und damit die Möglichkeit, sich selbst zum Gegenstand der Reflexion zu machen. Die psychologischen Implikationen sind nicht von der Hand zu weisen: Wer nichts zu verstecken hat, ist auch nichts. Genau das geht aus einer empirischen Studie von Darhl Pedersen hervor, der Privatsphäre als einen »Prozess der Grenzkontrolle zwischen sich und anderen« definiert. Dieser Prozess bedarf des Rechts auf freie Entscheidung darüber, den Austausch, die Interaktion mit anderen entweder zu suchen oder zu unterbinden.8 Pedersen arbeitet sechs Kategorien von Privatsphäre heraus: Alleinsein, Isolation, Anonymität, Reserviertheit, Intimität mit Freunden und Intimität mit der Familie. Wie seine Studie zeigt, erlauben diese unterschiedlichen Arten von Verhalten ein buntes Spektrum komplexer psychologischer »Funktionen der Privatsphäre«, die er für die psychische und eine erfolgreiche Entwicklung überhaupt für unabdingbar hält: Kontemplation, Autonomie, Verjüngung, Vertrauen, Freiheit, Kreativität, Erholung, Katharsis und Heimlichkeit. Es handelt sich hier um Erfahrungen, ohne die wir weder selbst gedeihen noch einen sinnvollen Beitrag zu Familie, Gemeinschaft und Gesellschaft leisten können. Mit zunehmender Intensivierung der digitalen Ära und der Ausbreitung des Überwachungskapitalismus greift die jahrhundertealte Losung der »Gerechtigkeit als Freistatt« nicht mehr. Mit seiner eigenmächtigen Zerstörung des Rechts auf Freistatt läuft Big Other sowohl der Gesellschaft davon als auch dem Gesetz; Bedenken hinsichtlich der Gerechtigkeit des Unterfangens werden in bewährter Shock-and-Awe-Manier überrannt. Die neue Situation ist gegeben, die Fakten sprechen für sich: die Macht des Überwachungskapitalismus über die Wissensteilung; das ungebremste Drehmoment des Enteignungszyklus; die Institutionalisierung der Mittel zur Verhaltensmodifikation; das Zusammentreffen all dessen mit den Erfordernissen sozialer Teilhabe und die eigenmächtige Legitimierung

seiner Fabrikation von Vorhersageprodukten zum Verkauf auf Verhaltensterminkontraktmärkten. Der Gesetzgeber hat es bisher versäumt, diese Entwicklung an die Kandare zu nehmen. Der Rest dieses Kapitels wird sich mit den Implikationen dieser Unterlassungssünde beschäftigen. Was ist nötig, um die Entwicklung in den Griff zu bekommen? Was wird passieren, wenn uns das nicht gelingt?

Gerechtigkeit an der neuen Grenze der Macht Wenn wir uns das Prinzip der Freistatt bewahren wollen, braucht es synthetische Deklarationen: alternative Wege in eine menschliche Zukunft. Die Mauer muss fallen; sie mit Tunneln zu untergraben, genügt einfach nicht. Bislang haben amerikanische Gesetze es versäumt, mit dem Marsch des Instrumentarismus Schritt zu halten. Analysen des »Eingriffs in die Intimsphäre« fallen der Rechtswissenschaftlerin Anita Allen zufolge unter »eine Handvoll leicht zu beschreibender Kategorien«. So stellt Allen die »physische Intimsphäre« (die wir zuweilen auch als »räumliche Intimsphäre« bezeichnen) der »informationellen Intimsphäre« gegenüber. Ihr zufolge liegt eine Verletzung der physischen Intimsphäre dann vor, »wenn eine Person seine Bemühungen, sich abzusondern oder zu verstecken, konterkariert sieht«. Eine Verletzung der informationellen Intimsphäre liegt vor, »wenn Daten, Fakten oder Gespräche, die eine Person geheim zu halten oder zu anonymisieren wünscht, erworben oder enthüllt werden«.9 In der Epoche von Big Other jedoch sind diese Kategorien brüchig geworden. Heute, wo unser Leben allenthalben als Verhalten gerendert und als Überschuss enteignet wird, sind Verstöße gegen die informationelle Intimsphäre in dinglichen Räumen gang und gäbe – selbst in unserem eigenen Heim. In einigen Fällen tragen wir selbst die Schuld, meist weil wir nicht begreifen, was da hinter den Kulissen passiert. Andere Verletzungen zwingt man uns einfach auf – denken Sie an die sprechende Puppe, den lauschenden Fernseher, die Hunderte von Apps, die wir benutzen, obwohl sie auf heimliche Rendition programmiert sind. Wir haben uns eine ganze Reihe der Geräte und Prozesse angesehen, die das Überwachungskapital

smart, wahrnehmungs- und internetfähig, vernetzt und verhaltensauslösend sehen möchte. Wenn Sie diese Zeilen lesen, werden es bereits mehr sein, und es werden noch viel mehr werden. Wir sehen uns wie Goethes Zauberlehrling im Banne einer unkontrollierten Macht, die den Anspruch auf nicht weniger als alles erhebt. Bei der Einschätzung, wie und in welchem Maß digitale Fähigkeiten gegen geltendes Recht verstoßen, konzentrieren amerikanische Fachleute sich in der Regel auf den Vierten Verfassungszusatz, der die Beziehung zwischen dem Einzelnen und dem Staat umreißt. Natürlich müssen wir dafür sorgen, dass der durch den Vierten Verfassungszusatz garantierte Schutz auch endlich im 21. Jahrhundert greift, indem er uns vor der Durchsuchung und Beschlagnahme unserer Informationen auf eine Art und Weise schützt, die die heutige Realität der Datenproduktion reflektiert.10 Das Problem dabei ist nur, dass uns selbst ein erweiterter Schutz vor dem Staat nicht vor dem Angriff auf die Freistatt schützt, den die instrumentäre Macht unter Maßgabe der ökonomischen Imperative des Überwachungskapitalismus führt.11 Der Vierte Verfassungszusatz hilft uns da in seiner gegenwärtigen Formulierung nichts. Es ist also kein Zauberer in Sicht, der den Überwachungskapitalismus mit einem »Besen, Besen, seids gewesen« wieder in die Ecke stellt. Die Rechtswissenschaft beginnt sich eben erst mit diesen Fakten auseinanderzusetzen. Andrew Guthrie Ferguson, Spezialist für den Vierten Verfassungszusatz, kam 2016 in einem Artikel mit dem Titel »Das Internet der Dinge« zu folgendem Schluss: »Wenn Milliarden von Sensoren voll persönlicher Daten nicht unter den Schutz des Vierten Verfassungszusatzes fallen, besteht ein Großteil eines weitläufigen Überwachungsnetzwerks außerhalb der von der Verfassung gesetzten Grenzen.«12 Auch seine niederländischen Kollegen machen sich Sorgen um die Unzulänglichkeit ihres Rechts, das hinter Big Other zurückbleibt und einfach nicht mehr in der Lage ist, die Rolle des Heims als Freistatt vor Übergriffen von Industrie oder Staat zu garantieren. »Wände vermögen den Einzelnen in seinem Bemühen um ein Privatleben ohne Eingriffe seitens der Außenwelt nicht länger effektiv zu schützen.«13 Große Hoffnungen sind heute an die EU-Datenschutz-Grundverordnung (DSGVO) geknüpft, die am 25. Mai 2018 in Kraft trat. Der europäische

Ansatz unterscheidet sich dabei grundsätzlich vom amerikanischen insofern, dass Unternehmen ihren Umgang mit Daten im Rahmen der DSGVO rechtfertigen müssen. Die Verordnung bringt einige wesentliche Neuerungen: die Bestimmung, die Betroffenen im Falle von Datenunfällen informieren zu müssen; eine Anhebung der Schwelle dessen, was eine »Einwilligung« konstituiert;14 das Verbot der Weitergabe persönlicher Informationen ohne ausdrückliche Einwilligung; die Pflicht, schon beim Aufbau von Systemen den Datenschutz miteinzubeziehen; ein Recht darauf, seine Daten gelöscht zu bekommen; erweiterter Schutz vor automatisierten Entscheidungen, sofern diese der Person gegenüber rechtliche Wirkung entfalten oder sie in ähnlicher Weise »erheblich« beeinträchtigen; das Recht einer Person »auf wirksamen gerichtlichen Rechtsbehelf gegen Verantwortliche oder Auftragsverarbeiter … wenn sie der Ansicht ist, dass die ihr aufgrund dieser Verordnung zustehenden Rechte infolge einer nicht im Einklang mit dieser Verordnung stehenden Verarbeitung ihrer personenbezogenen Daten verletzt wurden«;15 vor allem stellt die neue Regulierung empfindliche Geldbußen bei Verstößen in Aussicht: »bis zu 10  000 000 EUR oder im Fall eines Unternehmens von bis zu 2 % seines gesamten weltweit erzielten Jahresumsatzes des vorangegangenen Geschäftsjahrs«.16 Es handelt sich bei dieser neuen Verordnung um eine so wichtige wie notwendige Leistung, aus der sich für uns die Frage ergibt, ob sie das Sprungbrett für eine Kampfansage an die Legitimation des Überwachungskapitalismus sein kann und damit letztendlich Ausgangspunkt für einen Sieg über die instrumentäre Macht. Wir werden sehen, ob die europäische Datenschutzverordnung Big Other auszubremsen und wieder für eine Wissensteilung zu sorgen vermag, die sich an den Werten und Bestrebungen einer demokratischen Gesellschaft orientiert. Voraussetzung für einen solchen Sieg wäre freilich unsere Zurückweisung einer Marktform, die auf der Enteignung menschlicher Erfahrung als Mittel zur Vorhersage und Steuerung menschlichen Verhaltens zum Profit anderer baut. Forschung und Fachleute debattieren die Folgen einer umfassenden neuen Regulierung, wobei die einen der Unvermeidlichkeit durchschlagender Änderungen das Wort reden und die anderen der

Wahrscheinlichkeit, dass sich eher nichts ändern oder dass es jedenfalls nicht zur großen Kehrtwende kommen wird.17 So einiges lässt sich aber doch jetzt schon sagen. Der Einzelne wird im Ringen mit den zahllosen Komplexitäten des Datenschutzes nichts ausrichten gegen die schwindelerregenden Asymmetrien von Wissen und Macht, die die Balance der Wissensteilung in der Gesellschaft entstellen und hinter der explosionsartigen Ausbreitung instrumentärer Macht stehen. Die letzten beiden Jahrzehnte haben uns gelehrt, dass der Einzelne die Last dieses Kampfs an der neuen Grenze der Macht ebenso wenig allein tragen kann, wie der einzelne Arbeiter zu Beginn des 20. Jahrhunderts den Kampf um bessere Löhne und Arbeitsbedingungen nicht allein führen konnte. Diese Herausforderungen des 20. Jahrhunderts bedurften des kollektiven Handelns. Das gilt jetzt mehr denn je. Kaum etwas könnte das alles besser illustrieren als die Odyssee des belgischen Mathematikers und Datenschützers Paul-Olivier Dehaye, der im Dezember 2016 bei Facebook um Auskunft über die persönlichen Daten bat, die das Unternehmen über Custom Audiences und das Tracking-Pixel erfasst hatte. Dehaye wusste wahrscheinlich mehr über die fragwürdigen Datenoperationen von Cambridge Analytica als sonst jemand, von den Angestellten und den Superhirnen hinter der Firma mal abgesehen. Sein Ziel bestand darin, in einem »Von-unten-nach-oben«-Ansatz investigativ den Geheimnissen illegaler Mittel zu Veränderung politischen Verhaltens auf den Grund zu gehen. Ein erster Schritt bestand darin festzustellen, was Facebook über ihn wusste, wobei es ihm vor allem um Daten ging, die im Kontext einer Wahl relevant sein könnten, weil sie ihn der Art von versteckten Manövern gegenüber anfällig machen würden, wie Cambridge Analytica sie einsetzte. Dehaye wollte in Erfahrung bringen, wie ein ganz normaler Bürger die Daten ermitteln könnte, die, nach dem öffentlichen Aufschrei über die geheimen politischen Online-Manipulationen zu urteilen, eine »erhebliche« Gefahr darstellen. Er dokumentierte seine abenteuerliche Reise in der Hoffnung, seine Erfahrungen möchten Journalisten und Bürgern nutzen, die das Ausmaß und die politische Problematik von Facebooks Praktiken verstehen wollen.

Es ist natürlich extrem schwierig, als Einzelner ein Unternehmen wie Facebook anzusprechen, sodass ich im April 2017 die Angelegenheit schließlich eskalieren musste, indem ich sie dem irischen Datenschutzbeauftragten antrug. Dieser erklärte sich schließlich nach einigem Nachhaken im Oktober 2017 bereit, etwas zu unternehmen hinsichtlich meiner Beschwerde und Facebook um eine Stellungnahme zu bitten. Im Dezember 2017 lag offenbar bereits eine Antwort vor, aber trotz mehrmaliger Erinnerungen war man im März 2018 noch bei der »Einschätzung«. Man tut sich hier wirklich schwer, kein Problem hinsichtlich der Geltendmachung zu sehen.18 Im März 2018 erhielt Dehaye schließlich eine E-Mail von Facebooks Privacy Operations Team. Man schrieb, die von ihm angeforderten Informationen seien »über unsere Self-Service-Tools nicht verfügbar«, da sie im »Hive« – Facebooks Log-Speicher – gelagert seien, wo sie ausschließlich zu Zwecken der Datenanalyse dienten. Man halte sie darüber hinaus streng getrennt von »den Datenbanken, die die Facebook-Site betreiben«. Das Unternehmen versicherte, dass der Zugang zu diesen Daten mit »immensen technischen Schwierigkeiten« verbunden sei. »Außerdem werden diese Daten«, so schrieb die Firma Dehaye, »nicht zum Betrieb der Live-Facebook-Website eingesetzt, die die User erleben.«19 In unserer Sprache ausgedrückt, erforderten die von Dehaye gewünschten Informationen Zugang zum »Schattentext« – er hatte unter anderem ganz spezifisch nach den Targeting-Analysen gefragt, die über die Werbung bestimmten, die er auf Facebook zu sehen bekam. Die Antwort des Unternehmens wies darauf hin, dass die Hive-Daten Teil des exklusiven »zweiten Texts« sind, in dem der Verhaltensüberschuss zur Fabrikation von Vorhersageprodukten gespeichert wird.20 Dieser Prozess ist völlig abgetrennt vom »ersten Text«, den »die User erleben«. Facebook stellt mit seiner Antwort klar, dass der Schattentext seinen Nutzern nicht zugänglich ist, und das trotz der Self-Service-DownloadTools, die den Nutzern Zugang zu den persönlichen Daten versprechen, die das Unternehmen über sie gespeichert hat. Was seine Logik hat, denn schließlich macht die Wettbewerbsdynamik des Überwachungskapitalismus den Schattentext zu einer entscheidenden proprietären Quelle des

geschäftlichen Vorteils. Entsprechend muss jeder Versuch, an seinen Inhalt zu kommen, als existenzielle Bedrohung aufgefasst werden; kein Überwachungskapitalist wird freiwillig Daten aus dem Schattentext herausgeben. Nur der Gesetzgeber kann der pathologischen Wissensteilung die Kampfansage erteilen. Im Gefolge des Skandals um Cambridge Analytica im März 2018 ließ Facebook verlauten, man würde die Bandbreite der Daten zum Download für Nutzer erweitern, aber selbst dabei handelte es sich ausschließlich um Daten aus dem ersten Text, größtenteils um Informationen, die sie selbst preisgegeben hatten, darunter auch solche, die sie längst gelöscht wähnten: Freunde, Fotos, Videos, Werbung, die sie angeklickt hatten, Anstupser, Posts, Standort usw. Verhaltensüberschuss oder Vorhersageprodukte enthalten die Downloads nicht, ganz zu schweigen von Informationen über deren Einkauf, Verkauf und Einsatz zur Verhaltensmodifikation. Wenn Sie Ihre »persönlichen Informationen« herunterladen, dann passiert das auf der Bühne, nicht dahinter – Sie bekommen den Vorhang zu sehen, nicht den Zauberer selbst.21 Facebooks Antwort auf Dehayes Anfrage illustriert eine weitere Folge der extremen Wissensasymmetrien, die hier im Spiel sind. Wie das Unternehmen versicherte, ist der Zugang zu den gewünschten Daten mit der Überwindung »immenser technischer Herausforderungen« verbunden. Das schiere Volumen an Daten und Analysemethoden, das entsteht, wenn die Ströme an Verhaltensüberschuss in den auf Maschinenlernen gestützten Herstellungsoperationen zusammenlaufen, übersteigt jedes menschliche Vorstellungsvermögen. Nehmen wir nur etwas so Banales wie die Auswahl der Bilder, die Instagram einem Nutzer zeigt. Instagrams Maschinen berechnen dazu zunächst unterschiedliche Ströme von Verhaltensüberschuss des Nutzers selbst; dazu kommen weitere Ströme von den Freunden des Nutzers im Netzwerk, dann von den Aktivitäten der Leute, die denselben Accounts folgen wie der Nutzer, und schließlich noch die Daten und Links seiner Facebook-Aktivitäten. Beim abschließenden Ranking schließlich zieht die Maschine dann auch noch Daten über früheres Online-Verhalten des Nutzers in die Berechnung mit ein.22 Instagram überlässt diesen »Lernprozess« Maschinen, denn Menschen schaffen so etwas einfach nicht.23 Wenn es um Berechnungen von größerer

»Tragweite« geht, fallen die Berechnungen womöglich noch komplexer aus. Das erinnert an unsere Beschäftigung mit Facebooks »Vorhersagemaschine« FBLearner Flow, bei der die Maschinen mit Zehntausenden von aus Verhaltensüberschuss abgeleiteten Datenpunkten gefüttert werden – was die bloße Vorstellung eines Rechts auf Anfechtung »automatisierter Entscheidungen« fragwürdig erscheinen lässt. Wenn wir Algorithmen auch nur annähernd sinnvoll anfechten wollen, brauchen wir dazu eine neue Gegenkraft mit entsprechender Autorität nebst den maschinellen Ressourcen und Fachkenntnissen, um in die Kerndisziplinen der Maschinenintelligenz vorzudringen und neue Ansätze zu entwickeln, die ihrerseits der Inspektion, Debatte und Anfechtung offenstehen. Und tatsächlich hat ein Fachmann bereits die Einrichtung einer Behörde vorgeschlagen – eine Art »Lebensmittelbehörde für Algorithmen« –, um Entwicklung, Verteilung, Verkauf und Einsatz komplexer Algorithmen zu überwachen. Er begründete das damit, dass bestehendes Recht »keine Chance haben wird angesichts der Rätsel, vor die uns die Regulierung von Algorithmen stellt«.24 Dehayes Erfahrung ist nur eines von vielen Anschauungsbeispielen für die pathologische Wissensteilung und die untragbare Last, die sie dem Einzelnen aufbürdet, der der Ungerechtigkeit entgegenzutreten versucht. Dehaye ist Aktivist; sein Ziel besteht nicht nur darin, Zugang zu Daten zu bekommen, er versucht auch, die Schwierigkeiten und Absurditäten eines solchen Unterfangens zu dokumentieren. Angesichts dieser Realitäten regt er an, die Regulierung des Datenschutzes, da sie die Möglichkeiten des Einzelnen übersteige, mit den Gesetzen über die Informationsfreiheit zu vergleichen. Die Prozeduren, diesen Gesetzen gemäß an Informationen zu kommen, so meint er, gehörten bei aller Unvollkommenheit und Mühseligkeit, die oft Spezialisten nötig machten, zum Wesen der Demokratie.25 So sehr es bei diesem Kampf den entschlossenen Einzelnen braucht, alleine wird er das, wie gesagt, ebenso wenig stemmen wie der einzelne Arbeiter vor hundert Jahren den Kampf um höhere Löhne und bessere Arbeitsbedingungen. Auch im 21. Jahrhundert gilt, dass wir nur gemeinsam stark sind.26

In ihrer Abhandlung über »das Leben des Rechts« erinnert die Anthropologin Laura Nader uns daran, dass das Recht »Möglichkeiten demokratischer Bemächtigung« projiziere, diese jedoch nur dann realisiert würden, wenn Bürger gegen Ungerechtigkeit vorgingen und das Recht dabei als Mittel zu einem höheren Zweck einsetzten. »Das Leben des Rechts ist der Kläger«, schreibt Nader, eine Wahrheit, die, wie wir sahen, die spanischen Bürger mit Leben erfüllten, als sie ihr Recht, vergessen zu werden, einforderten. »Indem sie gegen die sie betreffende Ungerechtigkeit mit gesetzlichen Mitteln vorgehen«, so Nader, »können Kläger und ihre Anwälte noch immer darüber entscheiden, welchen Platz das Recht bei der Gestaltung unserer Geschichte hat.«27 Diese Kläger stehen nicht alleine; sie stehen für den Schulterschluss aller Bürger als notwendiges Mittel im Kampf gegen kollektive Ungerechtigkeit. Was uns wieder auf die EU-Datenschutz-Grundverordnung und ihre Wirkung bringt. Die einzig mögliche Antwort darauf ist: Es hängt alles davon ab, wie die einzelnen europäischen Gesellschaften das neue Reglement in Gesetzgebung und Rechtsprechung interpretieren. Konkrete Gestalt gibt dem Wortlaut der Verordnung erst der Einzelne gemeinsam mit anderen bei der Basisarbeit vor Ort. So wie vor hundert Jahren die Arbeiter sich zum kollektiven Handeln organisiert haben, um für ausgewogenere Machtverhältnisse zu sorgen, so müssen heute die »User« auf eine Art mobil machen, die die spezifischen »Existenzbedingungen« des 21. Jahrhunderts reflektiert. Wir brauchen synthetische Deklarationen, institutionalisiert in neuen Zentren demokratischer Macht, wo man sich mit Sachkenntnis besagten Asymmetrien stellt. Diese Art von kollektiver Aktion ist unabdingbar, wollen wir die Gesetzlosigkeit durch Gesetze ersetzen, die das Recht auf Freistatt als wesentlich für ein effektives Leben ebenso geltend machen wie das Recht auf die Zukunft. Die ersten Anzeichen für ein neues Erwachen kollektiven Handelns sind, zumindest im Bereich von Datenschutz und Privatsphäre, bereits zu sehen. Ein Beispiel dafür ist None of Your Business (noyb), eine gemeinnützige Organisation unter der Leitung des Datenschutzaktivisten Max Schrems. Nach Jahren rechtlichen Tauziehens machte der österreichische Jurist 2015 Geschichte, als er nach einem eher erfolglosen Kampf gegen Facebook den Europäischen Gerichtshof dazu bewegte, die Praxis des Datentransfers aus

der EU in die USA im Rahmen des Safe-Harbor-Abkommens für rechtswidrig und das Abkommen selbst für ungültig zu erklären. Im November 2017 startete er schließlich noyb, um das »Recht auf Datenschutz kollektiv durchzusetzen«, damit »Datenschutz endlich auch beim Nutzer« ankommt. Die Grundidee ist, dass die Aufsichtsbehörden die Lücke zwischen dem Buchstaben der Verordnung und den Datenschutzpraktiken privater Unternehmen schließen, nicht zuletzt dadurch, dass man sich die empfindlichen Strafen zunutze macht, mit denen die DSGVO droht. Wie es auf der Website der Organisation heißt, arbeitet noyb an »einer stabilen, europäischen Datenschutz-Plattform« und verfolgt die Idee »von zielgerichteten und strategischen Klagen, um die Wirkung eingebrachter Verfahren auf die Zukunft deiner digitalen Rechte und Freiheiten zu maximieren«.28 Wie auch immer dieses Projekt sich entwickeln wird, der wesentliche Punkt für uns ist, dass es uns eine soziale Leere aufzeigt, die es mit kreativen neuen Formen kollektiven Handelns zu füllen gilt, wenn das Recht etwas gegen den Überwachungskapitalismus ausrichten soll. Nur die Zeit kann zeigen, ob die DSGVO wird, was wir uns von ihr erhoffen: Katalysator einer neuen Phase im Kampf um die Zähmung eines illegitimen Markts für Verhaltensterminkontrakte, die Datenoperationen, die sie beliefern, und die instrumentäre Gesellschaft, auf die sie abzielen. Ohne eine neue, von kollektivem Handeln getragene synthetische Deklaration freilich ist es gut möglich, dass uns eine Enttäuschung ins Haus steht ob der Unerschütterlichkeit des Status quo. Sollte sich die Vergangenheit als Auftakt erweisen, werden Privatsphäre, Datenschutz und das Kartellrecht kaum genügen, um den Überwachungskapitalismus zu bremsen. Die Gründe, die wir bei der Beantwortung der Frage »Wie kamen sie damit durch?« zusammengetragen haben, lassen darauf schließen, dass es für die immensen und verwickelten Strukturen des Überwachungskapitalismus und seiner Imperative eine direktere Kampfansage braucht. Das wäre zumindest ein Schluss, der sich aus der Entwicklung des letzten Jahrzehnts ziehen lässt. Trotz der im Vergleich zu den USA strengeren Gesetze hinsichtlich Privatsphäre und Datenschutz in der EU, florieren Google und Facebook auch in Europa. Auch die striktere Durchsetzung des Kartellrechts ändert daran nichts. So betrug zum Beispiel bei Facebook die

kumulierte jährliche Wachstumsrate aktiver täglicher Nutzer zwischen 2010 und 2017 in Europa 15 % im Vergleich zu 9 % in den USA und Kanada.29 Im selben Zeitraum stiegen die Einkünfte des Unternehmens in beiden Regionen um eine kumulierte jährliche Wachstumsrate von 50 %.30 Zwischen 2009 und dem ersten Quartal 2018 sank Googles Anteil am Suchmarkt in Europa um etwa 2 %, während er in den USA um etwa 9 % stieg. (Googles Marktanteil blieb jedoch auch 2018 mit 91,5 % hoch im Vergleich zu 88 % in den USA.) Was seine Android-Mobiltelefone anbelangt, stieg Googles Marktanteil in Europa um 69 % im Vergleich zu 44 % in den USA. Googles Browser Chrome vergrößerte seinen Marktanteil in Europa um 55 % und um 51 % in den USA.31 Wie unsere Liste der Gründe dafür, »wie sie damit durchkamen«, vermuten lässt, kamen diese Wachstumsraten nicht von ungefähr. Dieser Tatsache trug der Europäische Datenschutzbeauftragte Giovanni Buttarelli Rechnung, als er der New York Times gegenüber sagte, über die Wirkung der DSGVO würde von Regulatoren entschieden, die »es mit kapitalkräftigen Teams von Lobbyisten und Anwälten zu tun haben werden«. Und tatsächlich feilten die Konzernanwälte bereits an ihren Strategien zur Erhaltung des Status quo und bereiteten sich auf den bevorstehenden Wettstreit vor. So ruft zum Beispiel ein White Paper einer prominenten internationalen Sozietät die Kollegen mit dem Argument auf die Barrikaden, das juristische Konzept des »berechtigten Interesses« biete eine vielversprechende Möglichkeit, durch neue Regulierungen geschaffene Hindernisse zu umgehen: Berechtigtes Interesse ist möglicherweise in vielen Kontexten die beste Begründung für eine Verarbeitung, da es Einschätzung und Abwägung von Risiken und Nutzen für Organisationen, Personen und die Gesellschaft erfordert. Die berechtigten Interessen des Verantwortlichen oder einer dritten Partei können weitere Rechte und Freiheiten beinhalten. Bei der Abwägung können außerdem … Meinungsfreiheit, das Recht auf Ausübung einer wirtschaftlichen Tätigkeit, Schutzrechte etc. ins Gewicht fallen. Diese Rechte sind bei der Abwägung mit dem Recht des Einzelnen auf Privatsphäre ebenfalls in Erwägung zu ziehen.32

In Erwartung des Inkrafttretens der Datenschutzverordnung im Mai hatten die ökonomischen Imperative des Überwachungskapitalismus bereits Ende April 2018 mobil gemacht. Facebooks CEO hatte schon einige Wochen zuvor bekanntgegeben, das Unternehmen würde die europäische Regelung »ihrem Geist nach« weltweit implementieren. Die Praxis freilich sah anders aus, insofern das Unternehmen für Veränderungen sorgte, die gewährleisten sollten, dass die DSGVO der Mehrheit seiner Operationen eben nicht in die Quere kam. So waren bis dahin die Beziehungen zu 1,5 Milliarden Nutzern – darunter die in Afrika, Asien, Australien und Lateinamerika – durch Nutzungsbestimmungen geregelt, die sie mit Facebooks internationalem Hauptquartier in Irland eingegangen waren, womit sie unter EU-Recht fielen. Ende April änderte Facebook seine Nutzungsbestimmungen klammheimlich dahingehend, dass diese 1,5 Milliarden Nutzer fortan amerikanischem Datenschutzrecht unterstanden, was ihnen die Möglichkeit einer Klage in Irland nahm.33

Jedes Einhorn hat seinen Jäger Aber welche Art von Leben bleibt uns denn nun, sollte uns die Zähmung misslingen? Ohne Schutz vor dem Überwachungskapitalismus und seiner instrumentären Macht – ihren Zielen bezüglich unseres Verhaltens und der Gesellschaft an sich – sehen wir uns in eben der Situation, die wir unter dem Begriff No Exit! zusammengefasst haben. Sicher, es gibt hier Wände. Doch die sind aus Glas. Die natürliche menschliche Sehnsucht nach einem Refugium muss ausgemerzt werden; die alte Institution der Freistatt hat zu verschwinden. Die Ausweglosigkeit des No Exit! ist die Voraussetzung dafür, dass Big Other blüht und gedeiht, und seine Blüte ist die Voraussetzung für alles, was folgen soll: die Ströme von Verhaltensüberschuss und ihre Verwandlung in Erträge; die Gewissheit, die der eigentlichen Kundschaft garantierte Ergebnisse beschert; das Umgehen von Vertrauen zugunsten der radikalen Indifferenz des Unvertrags; das Paradies mühelosen Verbundenseins, das das Leben der Individuen der Zweiten Moderne zum Rohstoff für anderer Leute Profit transformiert; die Gleichgültigkeit gegenüber dem Einzelnen;

die Plünderung des Selbst; die Auslöschung des autonomen moralischen Urteils um der reibungslosen Kontrolle willen; Fernsteuerung und Modifikation, die uns sang- und klanglos um den Willen zum Wollen bringen; das Opfern unserer Stimme in der ersten Person zugunsten anderer Menschen Pläne; die Zerstörung der Politik und der sozialen Beziehungen des alten, langsamen und bis heute unerfüllt gebliebenen Ideals vom selbstbestimmten Bürger unter der legitimen Autorität eines demokratischen Staats. Jedes dieser kostbaren Einhörner hat die Menschheit zum Besten inspiriert, das sie geschaffen hat, so unvollkommen es im Einzelnen ausfallen mochte. Aber jedes Einhorn hat seinen Jäger, und die Ideale, die die liberale Ordnung genährt haben, bilden da keine Ausnahme. Den Bedürfnissen dieses Jägers entsprechend kann es keine Türen geben, keine Schlüssel, keinen Sand im Getriebe, keinen Gegensatz zwischen Intimität und Distanz, Universum und Haus. Eine »Topo-Analyse« braucht es heute nicht mehr; alle Räume sind zu einem einzigen, von Big Other geschaffenen Raum kollabiert. Sinnlos, sich in den dunklen Windungen des Schneckenhauses verkriechen zu wollen, denn das Schneckenhaus ist nur ein weiterer Knotenpunkt im Netzwerk, und unser Tagtraum findet im Trubel dieses gläsernen Lebens bereits ein begieriges Publikum. In Ermangelung synthetischer Deklarationen, die die Straße in eine menschliche Zukunft sichern, treibt uns die Unerträglichkeit des gläsernen Lebens in Richtung eines gesellschaftlichen Wettrüstens von Gegendeklarationen, mittels derer wir auf der Suche nach etwas Ruhe vor den gesetzlosen Maschinen immer komplexere Möglichkeiten suchen, uns in unserem eigenen Leben zu verstecken. Es ist dies die einzige Möglichkeit, unser immerwährendes Bedürfnis nach einer Freistatt zu stillen, und damit ein Akt des Widerstands, ein klares Nein an die instrumentären Disziplinen des Schwarms, seine »erweiterten abschreckenden Wirkungen« und Big Others unerbittliche Gier. Im Kontext staatlicher Überwachung bezeichnet man diese Art des »Versteckens« als »privacy protest«, den Rückzug ins Private als Protest, und es ist kein Geheimnis, dass man damit schnell die Aufmerksamkeit der Ordnungsmächte auf sich ziehen kann.34 Big Other und seine »Marktherren« haben ebenfalls ein Problem mit dem Verstecken; sie richten

sich in unseren Wänden ein, in unseren Körpern, auf unseren Straßen, beanspruchen unsere Gesichter, unsere Gefühle und unsere Angst vor der Ausgrenzung. Ich habe bereits darauf hingewiesen, dass zu viele der Besten und Gescheitesten einer neuen Generation ihr Genie auf die Multiplikation von Klicks verwenden. Noch bezeichnender finde ich die Art und Weise, in der eine neue Generation von Aktivisten, Künstlern und Erfindern sich aufgerufen fühlt, eine Kunst, ja eine Wissenschaft aus dem Verstecken zu machen.35 Die Unerträglichkeit des gläsernen Lebens zwingt diese jungen Künstler in die absurde Situation, ihr Genie auf die Arbeit an der Unsichtbarkeit zu verwenden, wo doch ihre Schöpfungen an sich dazu auffordern, uns aktiv um eine Orientierung zu bemühen. Ihre Provokationen nehmen die unterschiedlichsten Formen an: Es gibt Handyhüllen, die sämtliche Signale blockieren; es gibt Prothesen mit falschen Fingerabdrücken, mit denen sich verhindern lässt, dass Fingerspitzen »zum Schlüssel zu unserem Leben« werden; es gibt AntiGesichtserkennungsbrillen, mit denen sich einschlägige Software austricksen lässt; es gibt eine Steppjacke, die Funkwellen und Trackingsensoren blockiert; es gibt einen Aroma-Diffuser, der einen metallischen Duft verströmt, wenn auf einem Ihrer Geräte eine ungeschützte Website, ein ungeschütztes Netzwerk entdeckt wird; es gibt eine »Serendipitor-App«, die Überwachungsmethoden überlistet, »die sich darauf verlassen, dass das Objekt vorhersehbare Routinen einhält«; es gibt eine ganze Kollektion mit dem bezeichnenden Namen »Glamouflage«, deren T-Shirts zur Verwirrung von Gesichtserkennungssoftware die Konterfeis von Prominenten zieren; es gibt Kopfbedeckungen gegen AntiNeuroimaging, die Sie vor der digitalen Invasion Ihrer Hirnwellen schützen; es gibt einen Anti-Surveillance-Mantel, der invasive Signale blockiert. Auch die 3-D-Kunstharz-Masken von Leo Selvaggio, einem Künstler aus Chicago, sollen die Gesichtserkennung verhindern.36 Er bezeichnet seine Bemühungen als »organisierte künstlerische Intervention«.37 Besonders bezeichnend für diese Entwicklung ist das Backslash Tool Kit:38 »eine Reihe funktioneller Artikel für den modernen Demonstranten«, so etwa ein »smartes« Halstuch zur Gesichtsabdeckung, mit dem sich

computergenerierte Botschaften übermitteln lassen, Wearables, die über unabhängige Netze verbunden sind, persönliche Blackboxes, die Misshandlungen seitens der Polizei registrieren, und Ad-hoc-Router, die bei Bedarf eigene unabhängige Funknetze aufbauen. Backslash entstand als Master-Arbeit an der New York University und steht praktisch als Symbol für die Dritte Moderne, der diese Generation sich ausgesetzt sieht. Für den Entwickler ist »Konnektivität ein Grundrecht«. Dennoch sieht er, der massiven Überwachung wegen, schwarz »für die Zukunft der Technologie bei Demonstrationen«. Sein Toolkit sieht er als Versuch, einen Raum zu schaffen, »in dem sich das massive Spannungsfeld zwischen Demonstration und Technologie erkunden … und … ein Dialog zwischen freier Meinungsäußerung, Aufständen und disruptiver Technologie pflegen lässt«. Studenten der University of Washington entwickelten den Prototyp für »die Am-Körper-Übertragung von Funksignalen mittels Gebrauchsgeräten«. Der Gedanke dahinter ist, dass handelsübliche Geräte – wie Mobiltelefone – dazu eingesetzt werden können, »Informationen ausschließlich an am eigenen Körper getragene Funkempfänger zu übermitteln« – die Grundlage für eine sichere Kommunikation unabhängig der üblichen WLAN-Netze, die leicht zu entdecken sind.39 Wenn Sie durch den Shop des New Museum of Contemporary Art in Manhattan spazieren, kommen sie an einem Ständer mit einem der Bestseller dort vorbei, einem Tischspiegel, dessen reflektierende Oberfläche in oranger Leuchtfarbe folgende Botschaft ziert: »Das Selfie von heute ist das biometrische Profil von morgen«. Das Werk mit dem Titel »Think Privacy Selfie Mirror« ist ein Projekt des in Berlin lebenden Amerikaners Adam Harvey, dessen Arbeiten sich mit dem Problem der Überwachung beschäftigen und damit, wie man den überwachenden Mächten mithilfe von Design einen Strich durch die Rechnung machen kann.40 Harveys Kunst beginnt mit dem »Reverse-Engineering von Erkennungssoftware«, um deren Schwachstellen zu entdecken und durch Camouflage und andere Formen des Versteckens auszunutzen. Bekannt ist er vor allem für seine »Stealth Wear«, eine Kollektion tragbarer Mode, die Drohnen und Gesichtserkennungssoftware im weiteren Sinne verwirren und austricksen soll. So reflektieren etwa silberbeschichtete Gewebe Wärmestrahlung, was es dem Träger erlaube, »thermografischer Beobachtung von oben zu

entgehen«.41 Inspiriert ist Harveys Mode von der traditionellen islamischen Kopfbedeckung, hinter der »der Gedanke steht, dass Kleidung für eine Trennung zwischen Mensch und Gott sorgen kann«. Diesem Gedanken gibt er nun einen neuen Dreh, indem er Kleidung kreiert, die für die Trennung menschlicher Erfahrung von den Mächten der Überwachung sorgt.42 In einem anderen Projekt entwickelte Harvey ein besonderes Make-up nebst Frisur, die dazu angetan sind, Erkennungs- und Überwachungssoftware aus dem Konzept zu bringen: schwarze Fransen oder Dreadlocks mit blauen Federn, die bis über die Nase hängen, Zöpfe, die wie die Tentakel eines Oktopus um Gesicht und Hals baumeln; die Wangenknochen sind mit markanten bunten Keilen bemalt. Harvey ist nur einer aus einer wachsenden Zahl von Künstlern, meist jüngeren Leuten, die sich in ihren Arbeiten den Themen Überwachung und Widerstand widmen. Die »Demetricators« für Facebook und Twitter des Künstlers Benjamin Grosser sind Schnittstellen, die Ihnen jede der von Ihnen besuchten Seiten ohne die Metriken präsentiert: »die Zahl der Likes«, »Freunde«, »Followers«, »Retweets« – alles verschwindet. »Wie verändert eine Schnittstelle, die die Zahl unserer Freunde in den Vordergrund stellt, unsere Vorstellung von Freundschaft?«, fragt er. »Entfernen Sie die Zahlen und finden Sie’s heraus.« Grossers »Go Rando«-Projekt ist eine installierbare Browsererweiterung, die Ihre Gefühle Facebook gegenüber verzerrt, indem sie jedes Mal ein beliebiges Emoji wählt, wenn Sie »Gefällt mir« klicken. Sie unterminieren damit die Überschussanalyse des Unternehmens, die Persönlichkeit und emotionelle Profile errechnet.43 Trevor Paglens üppig orchestrierte Performance-Art kombiniert Musik, Fotografie, Satellitenbilder und künstliche Intelligenz, um so Big Others allgegenwärtiges Wissen und Tun zu enthüllen. Er versuche so, »in die Software hineinzuschauen, die so eine künstliche Intelligenz lenkt«, sagte Paglen, und »in die Architekturen diverser Systeme für das Computersehen hineinzuschauen und zu erfahren, was sie tatsächlich sehen.« Mit seiner Installation Hansel & Gretel verhalf der chinesische Künstler Ai Weiwei 2017 Besucher zu einer beeindruckenden Erfahrung, bei der sich Teilnehmer auf ergreifende Art mit den Implikationen der Überwachung durch ihre eigene arglosen Beiträge in Form von Schnappschüssen, Instagrams, Tweets, Texts, Tags und Posts konfrontiert sahen.

Unsere Künstler sind, wie unsere jungen Leute, die Kanarienvögel in der Kohlengrube. Sie reagieren auf Gefahren, die uns noch nicht bewusst sind. Dass das Bedürfnis, uns unsichtbar zu machen, zum Thema einer brillanten künstlerischen Avantgarde wurde, ist eine weitere Flaschenpost, die man an der Front von Trauer und Abscheu in den Fluss wirft. Das gläserne Leben ist unerträglich, aber nicht weniger unerträglich wäre es, Masken zu tragen oder unseren Körper in strahlungsresistente Gewebe zu hüllen, auf dass uns der allgegenwärtige gesetzlose Apparat nicht erfasst. Wie mit jeder anderen Gegendeklaration auch riskieren wir damit, uns anzupassen und aus dem Verstecken eine Gewohnheit zu machen, wo es doch die Basis für unsere gemeinsame Entrüstung sein sollte. Diese Bedingungen sind inakzeptabel. Tunnel tun es bei dieser Mauer nicht mehr. Die Mauer selbst muss fallen. Die größte Gefahr ist, dass wir uns irgendwann wohlfühlen in dem gläsernen Leben oder in der Aussicht, uns davor zu verstecken. Beide Alternativen berauben uns der in der Freistatt geborenen lebenserhaltenden Innerlichkeit, die uns letztlich von der Maschine unterscheidet. Sie ist die Quelle, aus der wir sowohl die Fähigkeit zum Versprechen als auch zur Liebe ziehen – eine Fähigkeit, ohne die sowohl die privaten Bande der Intimität als auch die öffentlichen Bande der Gesellschaft zum Vertrocknen und schließlich zum Absterben verurteilt sind. Wenn wir jetzt nicht den Kurs ändern, hinterlassen wir künftigen Generationen eine monumentale Aufgabe. Der Industriekapitalismus requirierte die Natur, nur um den kommenden Generationen die Last eines brennenden Planeten aufzubürden. Fügen wir dieser Bürde mit den Übergriffen des Überwachungskapitalismus, seiner Invasion und der Eroberung der menschlichen Natur noch eine weitere hinzu? Werden wir einfach zusehen, wie er uns fast unmerklich das Leben im Schwarm aufzwingt und uns dabei, nur um des Reichtums und der Macht willen, das Recht auf Freistatt und Zukunft nimmt? Joe Paradiso nennt es eine Revolution; Alex Pentland nennt es den Tod der Individualität; Nadella und Schmidt befürworten den Maschinenschwarm als Vorbild für uns, mitsamt der erzwungenen Konfluenz und präventiven Harmonien. Page und Zuckerberg verstehen die Verwandlung der Gesellschaft als Mittel zu ihren kommerziellen Zielen. Sicher, es gibt auch solche, die anders denken, aber bisher hat die Deklaration eines Lebens ohne Wände noch nicht zu einem massenhaften

Rückzug aus der Übereinkunft mit den Überwachungskapitalisten geführt. Was zum Teil an unserer Abhängigkeit liegt, zum Teil aber auch daran, dass wir die ganze Tiefe und Breite dessen noch nicht erkannt haben, was die Architekten für uns auf Lager haben – geschweige denn die Konsequenzen, die diese »Revolution« nach sich ziehen könnte. Big Other entwickelt, testet, schleift und normalisiert seine Elemente, und wir werden dickfellig gegenüber seiner Monstrosität. Wir hören das Schlaflied der Wände nicht mehr. Sich vor den Maschinen und ihren Herren zu verstecken, wird von einer Obsession der Avantgarde zum Alltagsthema des sozialen Diskurses und schließlich zum Tischgespräch. Wir gehen diesen Weg wie im Pulverdampf eines Schlachtfelds; wir sehen verstreute Fragmente, hier und da ein Scharmützel, aber wir nehmen es nicht so recht wahr. Wir haben keine Gelegenheit, die Muster zu erkennen, geschweige denn ihre Ursprünge oder was sie bedeuten. Nichtsdestoweniger hinterlässt die Vernichtung jeder einzelnen Möglichkeit einer Freistatt eine Leere, die die instrumentäre Macht naht- und geräuschlos mit ihren neuen Bedingungen füllt.

SCHLUSSBETRACHTUNG

Kapitel 18 Ein Putsch von oben Von Haß gepackt auf nie gesehene Dinge, nach Liebe ohne Gegenstand sich sehnend, war er bedrückt, wie er noch nie gewesen. – W. H. Auden, Sonette aus China, III

Der Überwachungskapitalismus schert aus der Geschichte des Marktkapitalismus in dreierlei Hinsicht aus: Erstens besteht er auf die Privilegien ungezügelter Freiheit und grenzenlosen Wissens. Zweitens lässt er die althergebrachten organischen Reziprozitäten mit dem Menschen fallen. Drittens verrät das Schreckgespenst des Lebens im Schwarm eine kollektivistische Sicht der Gesellschaft, die auf einer radikalen Indifferenz und deren materiellem Ausdruck in Big Other baut. In diesem letzten Kapitel wollen wir uns diese Abweichungen von den historischen Normen näher ansehen, um uns dann der Frage zu stellen, die sich aus ihnen ergibt: Handelt es sich beim Überwachungskapitalismus lediglich um eine Form von Kapitalismus, oder ist er weit mehr?

Freiheit und Wissen Überwachungskapitalisten unterscheiden sich von anderen Kapitalisten nicht in ihrer Forderung nach Freiheit von jeglichen Zwängen. Sie bestehen auf ihre »Freiheit zu«, will sagen, die Freiheit, jede neue Praxis auf den Markt zu werfen, während sie gleichzeitig aggressiv auf die Notwendigkeit

ihrer »Freiheit von« Gesetz und Regulierung bestehen. Dieses klassische Muster reflektiert die beiden fundamentalen, von seinen eigenen Theoretikern vorgebrachten Annahmen über den Kapitalismus: Die erste davon ist die, dass Märkte von ihrem Wesen her sich unserem Wissen entziehen. Die zweite ist die, dass sich aus dieser aus diesem Mangel an Wissen resultierenden Unwissenheit zwangsläufig die Forderung nach einer weitreichenden Handlungsfreiheit für die Akteure des Markts ergibt. Die Ansicht, dass Unwissenheit und Freiheit wesentliche Charakteristika des Kapitalismus seien, hat ihre Wurzeln in den Lebensbedingungen vor der Heraufkunft der modernen Kommunikations- und Transportsysteme, geschweige denn der digitalen Netzwerke, des Internets oder Big Others ubiquitärer, rechnergestützter und wahrnehmungsfähiger Aktuierungsarchitektur. Bis in die jüngsten Augenblicke der Menschheitsgeschichte war das Leben lokal und das »Ganze« für den einzelnen Teil zwangsläufig unsichtbar. Adam Smiths berühmte Metapher von der »unsichtbaren Hand« nahm Bezug auf diese althergebrachten Realitäten menschlichen Lebens. Der Einzelne, so Smiths Argumentation, setze sein Kapital lokal zur Befriedigung unmittelbarer Bedürfnisse ein. Jeder sei auf »die eigene Sicherheit« bedacht, strebe »lediglich nach dem eigenen Gewinn«, und er werde »in diesem wie auch in vielen anderen Fällen von einer unsichtbaren Hand geleitet, um einen Zweck zu fördern, den zu erfüllen er in keiner Weise beabsichtigt hat«. Obwohl es ihm nur um den effizienten Einsatz seines Kapitals auf dem Markt gehe, fördere er damit häufig das Interesse der Gesellschaft, insofern er für den Wohlstand der Nation sorge. Die Handlungen, mit denen Einzelne effiziente Märkte schaffen, schaukelten sich auf zu Mustern von schwindelerregender Komplexität, und eben darin liege das Mysterium, das kein Mensch je zu verstehen, geschweige denn zu dirigieren hoffen könne: »Ein Staatsmann, der es versuchen sollte, Privatleuten vorzuschreiben, auf welche Weise sie ihr Kapital investieren sollten«, so schrieb Smith, »würde sich damit … eine Autorität anmaßen, die man nicht einmal einem Staatsrat oder Senat, geschweige denn einer einzelnen Person getrost anvertrauen könnte«.1 Der neoliberale Ökonom Friedrich Hayek, dessen Werk wir in Kapitel 2 als Grundlage für die marktorientierte Wirtschaftspolitik der letzten fünfzig

Jahre gestreift haben, bezog die wesentlichen Grundsätze seiner Argumentation aus Smiths Annahmen über das Ganze und den Teil. »Adam Smith«, so schrieb Hayek, »erkannte als erster, daß wir zufällig auf Methoden der Ordnung wirtschaftlicher Zusammenarbeit der Menschen stießen, die die Grenzen unseres Wissens und unserer Wahrnehmungsfähigkeit überschreiten. Seine ›unsichtbare Hand‹ hätte vielleicht besser als unsichtbares oder unüberbrückbares Muster bezeichnet werden sollen.«2 Wie Planck, Meyer und Skinner sieht Hayek mit Smith einen Zusammenhang zwischen Freiheit und Unwissenheit. In Hayeks System besteht das Mysterium des Markts darin, dass Menschen in großer Zahl effektiv agieren können, ohne eine Ahnung vom großen Ganzen zu haben. Der Einzelne kann sich hinsichtlich seines Trachtens nicht nur frei entscheiden, er muss es tun, weil es keine Alternativen gibt, keine Quelle umfassenden Wissens oder bewusster Kontrolle, die ihn dabei anleiten könnte. Für Hayek ist der Markt »kein Produkt einer bewussten Überlegung«; er hält dies für unmöglich, da für ihn der Fluss einschlägiger Informationen den geistigen Horizont eines Einzelnen übersteigt. Die Marktdynamik ermögliche es den Menschen, in Unwissenheit zu agieren, »ohne dass ihnen jemand sagen muss, was zu tun ist«.3 Hayek gab dem Markt den Vorrang über die Demokratie. Das Marktsystem, so sein Argument, ermögliche nicht nur die Arbeitsteilung, »sondern auch eine koordinierte Verwendung von Ressourcen, basierend auf gleichmäßig aufgeteiltem Wissen«. Es sei das einzige System, das mit Freiheit vereinbar sei. Gewiss hätte der Mensch »eine völlig andere Art von Zivilisation« schaffen können, überlegte er, eine Zivilisation »ähnlich einem ›Termitenstaat‹ «, zum Beispiel, aber Tatsache sei nun mal, dass »bis heute« niemand ein alternatives freiheitliches System geschaffen habe.4 Allerdings stimmt da etwas nicht mehr. Viele Kapitalisten – auch Überwachungskapitalisten – verschanzen sich hinter diesen jahrhundertealten Argumenten zur Rechtfertigung ihres Freiheitsanspruchs gegen jede Form von staatlicher Einmischung in ihre Methoden. Das Problem ist nur, dass Big Other und die konsequente Anwendung instrumentärer Macht heute das klassische Quidproquo von Freiheit für Unwissenheit in Frage stellen.

In dem Augenblick, in dem wir von überwachungskapitalistischen Operationen sprechen, ist der »Markt« eben nicht mehr unsichtbar, jedenfalls nicht im Sinne von Hayek und Smith. Der Konkurrenzkampf unter Überwachungskapitalisten zwingt sie in Richtung Totalität. Totale Information tendiert zur Gewissheit und zum Versprechen auf garantierte Ergebnisse. Diese Operationen bedeuten, dass Angebot und Nachfrage der Verhaltensterminkontraktmärkte unendlich detailliert wiedergegeben werden. Der Überwachungskapitalismus ersetzt, indem er das alte »unüberschaubare Muster« gegen Rendition, Verhaltensmodifikation und Vorhersage austauscht, das marktwirtschaftliche Mysterium durch Gewissheit. Das ist eine fundamentale Umkehr des klassischen Ideals von einem essenziell unverständlichen Markt. Denken Sie an Mark Zuckerbergs großspurige Prophezeiung, Facebook würde jedes Buch kennen, jeden Film, jeden Song, den eine Person je konsumiert hat, und seine Vorhersagemodelle würden Ihnen sagen, in welche Bar Sie gehen sollen, wenn Sie in einer fremden Stadt aufschlagen, und dass der Barkeeper dort bereits Ihren Lieblingsdrink kennt.5 Der Chef von Facebooks Datenwissenschaftlern fasste das kurz und bündig zusammen: »Die Welt sieht zum ersten Mal eine derartige Masse von Daten über menschliche Kommunikation in derartiger Qualität … Zum ersten Mal verfügen wir über ein Mikroskop, das … uns soziales Verhalten kleinteiliger untersuchen lässt, als uns das je möglich war.«6 Oder, wie es ein Top-Entwickler bei Facebook auf den Punkt brachte: »Wir versuchen, die Diagramme für alles auf der ganzen Welt zu kartieren und in welcher Beziehung das alles zueinander steht.«7 Dieselben Ziele hat man sich bei den anderen überwachungskapitalistischen Unternehmen gesteckt. Googles Eric Schmidt sagte dazu 2010: »Sie geben uns mehr Informationen über Sie, Ihre Freunde, und wir können die Qualität unserer Suchen verbessern. Sie brauchen noch nicht mal zu tippen. Wir wissen, wo Sie sind. Wir wissen, wo Sie gewesen sind. Wir wissen mehr oder weniger, was Sie im Augenblick denken.«8 Satya Nadella von Microsoft versteht alle physischen und institutionellen Räume, Menschen und sozialen Beziehungen als indexierbar und suchbar und damit als Futter für Maschinenlernen,

Mustererkennung, Vorhersage, Prävention, Unterbrechung und Modifikation.9 Der Überwachungskapitalismus ist nicht mehr der Kapitalismus alter Prägung, und seine führenden Vertreter sind nicht mehr die Kapitalisten Smiths oder Hayeks. Unter dem neuen Regime sind Freiheit und Unwissenheit keine Zwillinge mehr; sie sind nicht mehr zwei Seiten ein und derselben Medaille, des Mysteriums, als das seine Vordenker den Kapitalismus sahen. Der Überwachungskapitalismus definiert sich vielmehr durch eine beispiellose Konvergenz von Freiheit und Wissen; und das Maß dieser Konvergenz entspricht exakt dem Ausmaß instrumentärer Macht. Die ungehinderte Akkumulation von Macht sorgt für nichts anderes als die Annexion der Wissensteilung in der Gesellschaft, womit die Dynamiken von Inklusion und Ausgrenzung eingeführt werden, von denen die Überwachungserträge abhängig sind. Überwachungskapitalisten beanspruchen die Freiheit, Wissen zu ordnen, und setzen diesen Wissensvorteil dann zu Schutz und Ausweitung eben dieser Freiheit ein. Auch wenn es keineswegs ungewöhnlich ist, dass kapitalistische Unternehmen sich in einem wettbewerbsorientierten Markt jede nur erdenkliche Art von Wissensvorteil zu sichern versuchen, dürfen wir hier die beispiellosen Fähigkeiten des Überwachungskapitals, Unwissenheit in Wissen zu verwandeln, nicht übersehen – beispiellos deshalb, weil sie auf eine überwachungskapitalistische Ressource bauen, die den traditionellen Utopisten nicht zur Verfügung stand: das finanzielle und intellektuelle Kapital, das ihnen faktisch die Verwandlung der Welt gestattet. Diese Verwandlung ist längst im Gange; wir erleben ihre Materialisierung in Gestalt von Big Others unablässig expandierenden Architekturen. Noch erstaunlicher ist, dass das Überwachungskapital sich aus der Enteignung menschlicher Erfahrung ableitet, die in seinen ebenso einseitigen wie tiefgreifenden Programmen der Rendition in die operative Praxis umgesetzt ist: Unser Leben wird ausgewrungen und das Produkt daraus zur Finanzierung unserer Unterjochung verkauft. Diese neue Situation führt zur Auflösung der neoliberalen Argumente für das Ausweiden der Doppelbewegung und den Triumph des ungezügelten Kapitals: seiner freien Märkte, freien Marktakteure und der sich selbst regulierenden Unternehmung. Die Überwachungskapitalisten, so der

naheliegende Schluss, machen sich vordergründig ihre Beherrschung der Rhetorik und der ideologischen Apologie des Neoliberalismus politisch zunutze, während sie hintergründig eine neue Logik der Akkumulation verfolgen, die bei genauer Hinsicht die fundamentalsten Postulate der kapitalistischen Weltsicht widerlegt. Hier wurden nicht nur die Karten neu gemischt; hier wurden die Spielregeln geändert. Das neue Spiel ist sowohl beispiellos als auch unvorstellbar außerhalb des digitalen Milieus und der immensen Ressourcen an Reichtum und wissenschaftlicher Tüchtigkeit, mit denen wir die Vertreter des angewandten Utopismus gegürtet sehen. Wir haben die Grundmechanismen des Überwachungskapitalismus unter die Lupe genommen, seine ökonomischen Imperative, seine gesellschaftlichen Ziele, seine zunehmende Macht. Einer der Schlüsse, die sich daraus ziehen lassen, ist, dass die überwachungskapitalistische Herrschaft über die Wissensteilung in der Gesellschaft das eine wesentliche Merkmal ist, das mit den alten Rechtfertigungen einer unsichtbaren Hand und der sich daraus ergebenden moralischen Ansprüche bricht. Die Kombination von Wissen und Freiheit trägt zur Beschleunigung der Machtasymmetrie zwischen Überwachungskapitalisten und den Gesellschaften bei, in denen sie operieren. Unterbrechen lässt sich dieser Kreislauf nur, wenn wir als Bürger, als Gesellschaft, ja als Zivilisation der Tatsache Rechnung tragen, dass Überwachungskapitalisten zu viel wissen, um in den Genuss der Freiheit zu kommen, die sie für sich beanspruchen.

Jenseits der Gegenseitigkeit In einem weiteren entscheidenden Bruch mit der Geschichte des Kapitalismus kündigen die Überwachungskapitalisten die organischen Reziprozitäten mit den Menschen auf, die stets ein Zeichen für Stehvermögen und Anpassungsfähigkeit des Kapitalismus waren. Diese Reziprozitäten, die ihr Symbol in Fords Fünf-Dollar-Tag fanden, gehen zurück auf Adams Smiths ursprüngliche Einsichten in die produktiven sozialen Beziehungen des Kapitalismus, bei denen Firmen auf Menschen als Angestellte und Kunden bauen. Preiserhöhungen hatten für Smith durch Lohnerhöhungen ausgeglichen zu werden, »damit der Arbeiter auch

weiterhin in der Lage ist, soviel von diesen Waren zu kaufen, wie er erhalten sollte aufgrund des Entwicklungstrends der Nachfrage nach Arbeitskräften«.10 Shareholder-Value-Bewegung und Globalisierung haben erheblich dazu beigetragen, diesen jahrhundertealten Sozialvertrag zwischen dem Kapitalismus und den Gemeinschaften, in denen er wirtschaftet, zu zerstören, indem sie die Gegenseitigkeit durch formelle Indifferenz ersetzten. Der Überwachungskapitalismus setzt hier noch eins drauf. Nicht nur wirft er Smith über Bord, er kündigt auch formell alle verbliebenen Reziprozitäten mit der Gesellschaft auf. Zunächst einmal sind Überwachungskapitalisten nicht mehr von Menschen als Konsumenten abhängig. Stattdessen richtet die Achse von Angebot und Nachfrage überwachungskapitalistische Unternehmen auf Geschäfte aus, die auf die Vorhersage des Verhaltens von Populationen, Gruppen und Individuen bedacht sind. Resultat dieser Entwicklung ist, wie wir gesehen haben, dass die »Nutzer« zu bloßen Rohstoffquellen für digitale Produktionsprozesse werden, die auf eine neue Art von Geschäftskunden abzielen. Es gibt zwar auch bei überwachungskapitalistischen Operationen weiterhin Einzelkunden – schließlich will man seine Saugroboter, Schnüffelpuppen oder verhaltensbasierten Versicherungspolicen verkaufen –, nur dass diese Beziehungen nicht mehr auf Gegenseitigkeit gegründet sind, da in diesen und vielen anderen Beispielen Produkte und Dienstleistungen lediglich »Wirte« für die parasitären Operationen des Überwachungskapitals sind. Zweitens beschäftigen die großen Überwachungskapitalisten in historischer Perspektive eine relativ geringe Zahl von Arbeitskräften, gemessen an ihren beispiellosen rechnerischen Ressourcen. Dieses Muster, bei dem eine kleine Zahl hochqualifizierter Angestellter die Rechenkraft einer massiven kapitalintensiven Infrastruktur in Profit umsetzt, bezeichnet man als »Hyperscale«. Welch massiven historischen Bruch kommerzielle Hyperscale-Operationen markieren, wird deutlich, wenn man die Daten von Google und Facebook seit ihrem Börsengang mit den Beschäftigungsniveaus und der Marktkapitalisierung von General Motors während der letzten siebzig Jahre vergleicht. (Ich beschränke mich hier auf Google und Facebook, weil sie schon vor ihrem Börsengang rein überwachungskapitalistische Unternehmungen waren.)

Von ihrem Börsengang bis 2016 kletterte der Börsenwert von Google und Facebook unaufhaltsam: Google verfügte Ende 2016 über eine Marktkapitalisierung von 532 Milliarden Dollar, Facebook war 332 Milliarden wert; Google hatte dabei nie mehr als 75 000 Angestellte, Facebook nie mehr als 18 000. General Motors brauchte vierzig Jahre, um 1965 seine höchste Marktkapitalisierung von 225,15 Milliarden zu erreichen; in jenem Jahr beschäftigte das Unternehmen 735 000 Frauen und Männer.11 Geradezu alarmierend ist, dass GM selbst auf dem Höhepunkt der Wirtschaftskrise der 1930er-Jahre mehr Menschen beschäftigte als Google oder Facebook auf dem Höhepunkt ihrer Marktkapitalisierung. Das Muster von General Motors erzählt eine für die USA des 20. Jahrhunderts nachgerade emblematische Geschichte, bevor Globalisierung, Neoliberalismus, Shareholder-Value und Plutokratie sowohl die Aktiengesellschaft als auch die Institutionen der Doppelbewegung zu untergraben begannen. Letztere sorgten, durch die Gewerkschaften umgesetzt, für eine faire Beschäftigungspolitik; gerade die Tarifverhandlungen waren emblematisch für die stabilen Reziprozitäten in den Jahrzehnten vor der Globalisierung. So bezeichneten zum Beispiel in den 1950er-Jahren 80 % der Erwachsenen »Big Business« als gut für das Land; 66 % waren der Ansicht, die Wirtschaft bedürfte keiner oder bestenfalls geringfügiger Verbesserungen; und 60 % pflichteten der Aussage bei, dass »die Profite großer Unternehmen zur Verbesserung der Lebensumstände aller beitrugen, die ihre Produkte oder Dienstleistungen kauften«.12 Einige Kritiker machten diese Reziprozitäten für General Motors’ Mangel an Anpassungsfähigkeit an die weltweite Konkurrenz Ende der 1980er-Jahre verantwortlich, der schließlich 2009 zum Konkurs des Unternehmens führte. Analysen haben jedoch gezeigt, dass die chronische Selbstgefälligkeit des Managements im Verein mit verfehlten Finanzstrategien die Hauptverantwortung am legendären Niedergang des Unternehmens trug. Bekräftigt wurde das durch den Erfolg der deutschen Autobauer im 21. Jahrhundert, wo eine starke Arbeitnehmervertretung formell an den Unternehmensentscheidungen beteiligt ist.13 Hyperscale-Unternehmen sind mittlerweile emblematisch für den modernen digitalen Kapitalismus, und als kapitalistische Erfindungen

stellen sie erhebliche soziale und ökonomische Herausforderungen dar, so zum Beispiel in ihrer Wirkung auf Beschäftigung und Löhne, wirtschaftliche Konzentration und Monopole.14 2017 betrieben 24 Hyperscale-Firmen 320 Datenzentren mit zwischen Tausenden und mehreren Millionen Servern (Google und Facebook gehören hier zu den größten).15 Es handelt sich jedoch nicht bei allen Hyperscale-Unternehmen um Überwachungskapitalisten, und wir wollen uns hier auf die Konvergenz dieser beiden Domänen konzentrieren. Die Überwachungskapitalisten, die entweder selbst im Hyperscale-Bereich operieren oder an HyperscaleOperationen outsourcen, sorgen damit für eine drastische Verringerung ihrer Abhängigkeit von ihrer jeweiligen Gesellschaft bei der Einstellung von Angestellten. Und die wenigen, um die sie sich bemühen, kommen, wie wir gesehen haben, aus der erlauchten Kaste der Datenwissenschaftler. Von ganz außergewöhnlicher Bedeutung ist das Fehlen organischer Reziprozitäten mit Menschen, sei es als Kundschaft oder als Angestellte, im Lichte der historischen Beziehung zwischen Marktkapitalismus und Demokratie. Recht betrachtet, lassen sich die Demokratien sowohl in Amerika als auch in Großbritannien auf diese Reziprozitäten zurückverfolgen. In Amerika war die Verletzung dieser Reziprozitäten mit dem Verbraucher der auslösende Funke eines unaufhaltsamen Marsches in die Freiheit, als ökonomische sich in politischer Macht niederschlug. Ein halbes Jahrhundert später institutionalisierte sich in Großbritannien die widerwillige, letztlich praktisch motivierte und auf das eigene Interesse bedachte Einsicht in die Notwendigkeit der gegenseitigen Abhängigkeit von Kapital und Arbeit in neuen Mustern politischer Macht, die ihren Ausdruck in der allmählichen Erweiterung des Wahlrechts und dem Wechsel hin zu integrativeren politischen Institutionen fanden. Selbst ein flüchtiger Blick auf diese weltverändernden Entwicklungen führt uns vor Augen, in welchem Ausmaß der Überwachungskapitalismus vom historischen Kapitalismus abweicht. Der amerikanische Unabhängigkeitskrieg ist ein hervorragendes Beispiel dafür, wie die Reziprozitäten des Verbrauchs zum Aufstieg der Demokratie beigetragen haben. Der Historiker T. H. Breen vertritt in seiner bahnbrechenden Studie The Marketplace of Revolution die Ansicht, die

Verletzung eben dieser Reziprozitäten habe die Revolution losgetreten, als sie in ganz Amerika wildfremde Menschen unterschiedlichster Herkunft zu einer radikalen neuen patriotischen Kraft verschmolz. Wie Breen erklärt, waren die amerikanischen Siedler abhängig geworden von dem aus England importierten »Imperium der Güter«, und erst diese Abhängigkeit habe zur Herausbildung eines Gefühls für einen auf Gegenseitigkeit beruhenden Gesellschaftsvertrag geführt. »Unter gewöhnlichen Leuten«, so schreibt Breen, verstärkte »die greifbare Erfahrung, Teil eines expandierenden anglo-amerikanischen Verbrauchermarkts« zu sein, das Gefühl »einer richtigen Partnerschaft« mit England.16 Schließlich unterlief dem britischen Parlament, wie sattsam bekannt, eine grobe Fehleinschätzung hinsichtlich der Rechte und Pflichten dieser Partnerschaft, was zu einer Reihe von Steuern führte, die importierte Güter wie Stoffe und Tee in »Symbole imperialer Unterdrückung« verwandelten. Breen beschreibt den Ursprung einer politischen Bewegung, die aus der gemeinsamen Erfahrung des Verbrauchs geboren wurde, aus der Entrüstung über die Verletzung fundamentaler Wechselbeziehungen und dem Entschluss, »Güter mit der Macht sprechen zu lassen«. Die Verwandlung von Verbrauchererwartungen in eine demokratische Revolution verlief in drei Wellen, deren erste 1765 vom »Stempelgesetz« (Stamp Act) ausgelöst wurde, das zu öffentlichen Protesten, Aufständen und organisiertem Widerstand führte, der seinen Ausdruck schließlich in der »Einfuhrverweigerungsbewegung« fand (wir würden heute von einem Verbraucherboykott sprechen). Breens Schilderung zufolge waren dabei die Einzelheiten der »Stempelsteuer« weniger wichtig als die Erkenntnis der Kolonisten, dass England sie nicht als gleichberechtigte politische oder ökonomische Partner in einer für beide Seiten vorteilhaften Wechselbeziehung sah: »Indem das britische Parlament die Möglichkeit der Amerikaner zum Erwerb der gewünschten Güter kompromittierte, ließ es die Absicht durchblicken, die Kolonisten wie Untertanen zweiter Klasse zu behandeln«; man belegte »das Streben nach materiellem Glück« mit einem hohen Preis.17 Die Kolonisten empfanden das Stempelgesetz als Verletzung ihrer Rechte nicht nur als Untertanen, sondern auch als Konsumenten des Empire. Es war das erste Mal, dass die wirtschaftliche Macht der Verbraucher sich in politischer Macht niederschlug, einer »radikal neuen

Form von Politik«, bei der noch die gewöhnlichsten Angehörigen der kolonialen Gesellschaft »einen erregenden Anflug von Ermächtigung« verspürten.18 Das Parlament nahm die Stempelsteuer zurück, bevor die »Einfuhrverweigerungsbewegung« sich über die Kolonien ausbreiten konnte. Es hatte ganz den Anschein, als hätte das Prinzip »keine Besteuerung ohne Vertretung« obsiegt. Als das britische Parlament zwei Jahre später den Townshend Act verabschiedete, der 1767 eine Reihe von Importgütern wie Glas und Papier mit Steuern belegte, mobilisierte eine neue Welle der Entrüstung die Kolonien. Detaillierte Absprachen darüber, welche Importe man verweigern wollte, machten das Opfer der Verbraucher zur Front des politischen Widerstands. Die gemeinsame Erfahrung verletzter Erwartungen ging über regionale, religiöse und kulturelle Unterschiede hinweg und bildete eine neue Basis für soziale Solidarität.19 1770 hob man denn auch den Townshend Act wieder auf. Einmal mehr hatte es den Anschein, als ließ sich damit eine ausgewachsene Revolte abwehren. Zur nächsten Phase des Widerstands kam es 1773 infolge des Tea Act, der den politischen Fokus von der Einfuhrverweigerung wegrückte, bei der die Kaufleute die Front zu bilden hatten, hin zur Verweigerung des Verbrauchs, bei dem in einem einzigartigen Akt der Solidarität ihres gemeinsamen Status als »Konsumenten« alle mitmachen mussten. In diesem Kontext fiel Samuel Adams’ berühmtes Diktum, die Sache der Freiheit »hinge ab von der Fähigkeit des amerikanischen Volkes, sich von ›Britanniens Tand‹ zu befreien«.20 Britische Güter waren schließlich in einem solchen Maße zu Symbolen von Abhängigkeit und Unterdrückung geworden, dass die verarmte kleine Gemeinde von Harvard, Massachusetts, die teebeladenen Handelsschiffe im Bostoner Hafen »in all ihren Konsequenzen betrachtend, sie für eine Angelegenheit von nicht weniger interessanter und bedeutender Natur, nicht nur für diese Stadt und Provinz, sondern für Amerika allgemein und für kommende Epochen und Generationen erachtete, als irgendeine, über die diese Stadt je zu beraten hatte«.21 Ein Jahr später, 1774, tagte in Philadelphia der First Continental Congress und einigte sich auf einen »großen Plan«, den Handel mit England aufzugeben. »Hier verwirklichte sich eine ebenso brillante wie

originäre Strategie des Verbraucherwiderstands gegen die politische Unterdrückung«, schreibt Breen, eine Strategie, die »die Amerikaner dazu anhielt, sich als solche zu sehen, noch bevor ihnen der Gedanke an die Unabhängigkeit kam.«22 Was Großbritannien anbelangt, so haben Daron Acemoglu und James A. Robinson gezeigt, dass der Aufstieg der Demokratie zu Beginn des 19. Jahrhunderts dort unauflösbar mit der Abhängigkeit des Industriekapitalismus von den »Massen« und deren Beitrag zum Wohlstand verbunden war, der die neue Organisation der Produktion erforderlich machte.23 Der Siegeszug der Serienfertigung und das mit ihm einhergehende Anwachsen der lohnabhängigen Arbeiterschaft begründete die ökonomische Macht der britischen Arbeiter und führte zu einer wachsenden Anerkennung ihrer politischen Legitimität und Macht. Das führte zu einem neuen Gefühl für die gegenseitige Abhängigkeit von Eliten und gewöhnlichem Volk. Acemoglu und Robinson kommen zu dem Schluss, dass das »dynamische positive Feedback« zwischen »inklusiven ökonomischen Institutionen« (d. h. durch Reziprozitäten definierte Industriebetriebe) und politischen Institutionen kritisch war für Großbritanniens gewaltlose wie weitreichende demokratische Reformen. Inklusive ökonomische Institutionen, so ihr Argument, »sorgen für ein ebenes Spielfeld«, vor allem beim Kampf um die Macht. Es erschwere es den Eliten, die »Massen zu zertreten«, anstatt ihren Forderungen nachzugeben. Reziprozitäten bei der Beschäftigung schufen und stützten Reziprozitäten in der Politik. »Die Forderungen der Öffentlichkeit abzuweisen«, schreiben sie, »und einen Putsch gegen die inklusiven politischen Institutionen durchzuführen hätte … die herrschenden Eliten, die eine größere Demokratisierung und Inklusivität ablehnten … möglicherweise um ihr Vermögen gebracht.«24 In scharfem Gegensatz zu den pragmatischen Konzessionen von Englands frühen Industriekapitalisten sorgt die extreme strukturelle Unabhängigkeit vom Mann auf der Straße eher für Ausgrenzung als Inklusion und legt das Fundament für den einzigartigen Ansatz, den wir als »radikale Indifferenz« bezeichnet haben.

Der neue Kollektivismus und seine Herren der radikalen Indifferenz Die Anhäufung von Freiheit und Wissen führt im Verein mit dem Mangel an organischen Reziprozitäten mit der breiteren Öffentlichkeit zu einem dritten ungewöhnlichen Element des Überwachungskapitalismus: einer kollektivistischen Ausrichtung, die nicht nur von den klassischen marktkapitalistischen bzw. marktdemokratischen Werten abweicht, sondern auch von der neoliberalen Weltsicht, in der die Wurzeln des Überwachungskapitalismus liegen. Um seines eigenen geschäftlichen Erfolgs willen manövriert der Überwachungskapitalismus uns ins Kollektiv des Schwarms. Diese privatisierte instrumentäre Gesellschaftsordnung ist eine neue Form des Kollektivismus, bei der nicht der Staat, sondern der Markt sowohl Wissen als auch Freiheit in seiner Sphäre bündelt. Die kollektivistische Ausrichtung ist eine unerwartete Entwicklung, zumal im Lichte der Ursprünge des Überwachungskapitalismus im neoliberalen Credo, das vor sechzig Jahren in Reaktion auf die kollektivistisch-totalitären Alpträume des 20. Jahrhunderts entstanden war. Später dann, nachdem die faschistischen und sozialistischen Bedrohungen gebannt waren, gelang es der neoliberalen Ideologie in einem raffinierten Schachzug, den modernen demokratischen Staat in eine neue Quelle des Kollektivismus umzudefinieren, dem es mit allen Mitteln entgegenzutreten galt. Bei genauerer Hinsicht vollzog man das Ausweiden der Doppelbewegung im Namen des Sieges über die angeblichen kollektivistischen Gefahren von »zu viel Demokratie«.25 Heute ahmt der Schwarm den »Termitenstaat« nach, der selbst für einen Demokratieverächter wie Hayek mit menschlicher Freiheit nicht zu vereinen war. Die Konvergenz von Freiheit und Wissen macht die Überwachungskapitalisten zu Herren und Meistern der Gesellschaft von eigenen Gnaden. In ihrem Namen kultiviert, von ihrer bevorzugten Position in der Wissensteilung aus, eine privilegierte Priesterschaft von »Tunern« den vernetzten Schwarm als unerschöpfliche Rohstoffquelle. So wie man den Managern zu Anfang des 20. Jahrhunderts die »administrative« als die für die hierarchischen Komplexitäten der neuen Großunternehmen

erforderliche Wissensform beigebracht hat, so praktizieren die heutigen Hohepriester die angewandten Künste der radikalen Indifferenz, die in ihrem Wesen eine zutiefst asoziale Wissensform ist. Diese radikale Indifferenz lässt sie Content ausschließlich nach Volumen, Diversität und Tiefe des anfallenden Überschusses beurteilen; gemessen wird dabei mit dem nicht weniger anonymen Maß von Klicks, Likes und Verweilzeiten – und das trotz der offensichtlichen Tatsache, dass er seine zutiefst unterschiedlichen Bedeutungen aus zutiefst unterschiedlichen menschlichen Situationen bezieht. Die radikale Indifferenz ist eine Reaktion auf ökonomische Imperative, und nur gelegentlich ist uns ein unverstellter Blick auf ihre strikte Anwendung als Managementdisziplin gegönnt. Eine dieser seltenen Gelegenheiten bietet sich uns in Form eines internen Facebook-Memos von 2016, das 2018 der Tech-News-Site BuzzFeed in die Hände fiel. Verfasst von Andrew Bosworth, einem so altgedienten wie einflussreichen Topmanager des Unternehmens, gibt die Denkschrift Einblick in die radikale Indifferenz als angewandte Disziplin. »Wir unterhalten uns oft über das Gute und das Böse an unserer Arbeit. Ich möchte mal über das Hässliche daran sprechen«, schreibt Bosworth. Dann erklärt er, dass in einem Weltbild, das von »einem Organismus unter Organismen« ausgeht, die Gleichheit der Äquivalenz unterliegt. Nur sei dieses Weltbild unabdingbar für den Marsch hin zur Totalität und damit dem Wachstum der Überwachungserträge: Wir bringen Menschen zusammen. Das kann gut sein, wenn die das positiv machen. Vielleicht findet jemand Liebe. Vielleicht retten wir jemanden vor dem Selbstmord. Also bringen wir noch mehr Leute zusammen. Das kann schlecht sein, wenn die das negativ machen. Vielleicht kostet es jemanden das Leben, wenn jemand gemobbt wird. Vielleicht stirbt jemand bei einem Terroranschlag, der mit unseren Werkzeugen koordiniert wurde. Trotzdem bringen wir Menschen zusammen. Die hässliche Wahrheit ist, dass … alles, was uns noch mehr Menschen zusammenbringen lässt, unterm Strich gut ist. Das ist vielleicht der einzige Bereich, in dem die Metriken die wahre Geschichte erzählen, was uns anbelangt. Das rechtfertigt unsere Arbeit am Wachstum. All die fragwürdigen Kontakte-importierenden

Praktiken. All die subtile Sprache, die Menschen dabei hilft, von Freunden gefunden zu werden. All die Arbeit, die wir uns machen, noch mehr Kommunikation einzubinden … Nicht die besten Produkte gewinnen, sondern die, die jeder benutzt … Dass sich da keiner täuscht, Wachstumstaktiken haben uns dorthin gebracht, wo wir sind.26 Bosworth macht hier sehr deutlich, dass vom Standpunkt der radikalen Indifferenz aus gesehen Positives und Negatives ungeachtet ihrer entschieden unterschiedlichen moralischen und menschlichen Konsequenzen äquivalent sind. Von dieser Warte aus gesehen, ist das einzig rationale Ziel nicht das Streben nach »den besten Produkten«, sondern nach Produkten, die »alle« einfangen. Eine wesentliche Folge der systematischen Anwendung radikaler Indifferenz ist, dass der dem Publikum zugewandte »erste Text« der Korrumpierung durch Inhalte ausgesetzt ist, die wir normalerweise als abstoßend empfinden würden: Lügen, systematische Desinformation, Betrug, Hass, Gewalt usw. Solange Inhalte zu den »Wachstumstaktiken« beitragen, wird Facebook davon profitieren. Diese Achillesferse kann zu einem brisanten Problem auf der Nachfrage- oder Nutzerseite werden. Eine Bresche in die Bollwerke der radikalen Indifferenz schlägt sie aber nur, wenn sie eine Gefahr für den Fluss von Überschuss in den zweiten, den »Schattentext« zu werden droht – in den Text, der für sie da ist, nicht für uns. Die Regel jedoch ist, dass die Korrumpierung von Informationen nicht als problematisch eingestuft wird, solange sie keine existenzielle Bedrohung für die Nachschuboperation darstellt. Sie ist der Imperativ, unter dem Bosworth »Menschen zusammenbringt«. Man reagiert erst, wenn Nutzer abspringen oder man die Aufmerksamkeit der Regulierungsbehörden auf sich zieht. So sind denn auch alle Bemühungen um die »Moderation von Inhalten« nicht im Sinne von Verantwortungsbewusstsein zu sehen, sondern lediglich als Verteidigungsmaßnahmen. Bislang besteht die einzige Herausforderung an die radikale Indifferenz in Facebooks und Googles überzogenen Ambitionen, den professionellen Journalismus im Internet zu verdrängen. Beide Unternehmen haben sich zwischen die Verleger und deren Kundschaft gestellt, indem sie journalistische »Inhalte« denselben Kategorien von Äquivalenz

unterwerfen, die auch alle anderen Domänen des Überwachungskapitalismus dominieren. In einem formalen Sinn ist professioneller Journalismus das genaue Gegenteil von radikaler Indifferenz. Die Aufgabe des Journalisten besteht darin, Nachrichten und deren Analyse zu liefern, um die Wahrheit von der Unwahrheit zu scheiden. Diese Absage an die Äquivalenz definiert sowohl den Daseinszweck des Journalismus als auch seine organischen Reziprozitäten mit seinen Lesern. Unter dem Überwachungskapitalismus werden diese Reziprozitäten ausgemerzt. Daraus erklärt sich Facebooks Entscheidung, den Content seines Newsfeeds so zu präsentieren, dass »alle Berichte in etwa gleich aussahen … ob es sich nun um investigative Artikel der Washington Post handelte, um Klatsch aus der New York Post oder um glatte Lügen aus dem Denver Guardian, einem frei erfundenen Blatt.«27 Dieser Ausdruck von Äquivalenz ohne Gleichheit machte Facebooks ersten Text in hohem Maße anfällig gegenüber der Korrumpierung durch etwas, was uns mittlerweile als »Fake-News« bekannt ist. Das ist denn auch der Kontext, in dem Facebook und Google im Gefolge der Aufdeckung organisierter politischer Desinformationskampagnen und profitorientierter »Fake-News« 2016 während der USPräsidentschaftswahlen und beim britischen Brexit-Referendum in den Brennpunkt internationaler Aufmerksamkeit gerieten. Die Ökonomen Hunt Allcott und Matthew Gentzkow, die dieses Phänomen kleinteilig unter die Lupe genommen haben, definieren »Fake-News« als »verzerrte Signale ohne Bezug zur Wahrheit«, die uns »private und soziale Kosten« auferlegen, indem sie es uns erschweren … auf den wahren Zustand der Welt zu schließen«. Sie haben festgestellt, dass im Vorfeld der amerikanischen Präsidentschaftswahlen derlei absichtlich in die Welt gesetzte Lügen 760 Millionen Mal gelesen wurden. Mit anderen Worten hat durchschnittlich jeder amerikanische Erwachsene drei solcher Artikel gelesen.28 Allerdings gehören »Fake-News« und andere Formen korrumpierter Informationen im Umfeld von Facebook und Google als zwangsläufige Folgen der radikalen Indifferenz seit langem dazu. Es gibt zahllose Beispiele für Desinformation, die überlebten, ja die erst so richtig gediehen, weil sie ökonomische Imperative erfüllten. Ich möchte hier nur eine

Handvoll aufzählen. 2007 machte sich ein prominenter Finanzanalyst Sorgen, der Kollaps des Subprime-Hypothekenmarkts könnte Googles lukrativem Werbegeschäft schaden. Das mag zuerst weithergeholt wirken, bis man erfährt, dass Google in den Jahren vor der Großen Rezession zwielichtige Hypothekengeber auf seinen Verhaltensterminkontraktmärkten mit offenen Armen empfing, um den Löwenanteil der 200 Millionen Dollar abzuschöpfen, die die Hypothekenbranche monatlich für Online-Werbung ausgab.29 2011 kam ein Bericht der Verbraucherschutzorganisation Consumer Watchdog über Googles Werbepraktiken im Vorfeld und während der Großen Rezession zu dem Schluss, dass »Google einer der großen Nutznießer der amerikanischen Hypotheken- und Zwangsversteigerungswelle war … indem das Unternehmen irreführende Werbung von betrügerischen Akteuren akzeptierte, die arglosen Kunden fälschlicherweise versprachen, ihre Hypotheken- und Kreditprobleme lösen zu können«.30 Obwohl derlei Praktiken bekannt zu werden begannen, bediente Google seine betrügerischen Kunden bis 2011, als das Bundesfinanzministerium das Unternehmen aufforderte, seine Beziehungen zu »über 500 Internetwerbern« auszusetzen, »die man mit 85 mutmaßlichen Formen von Online-Hypothekenbetrug und damit verwandter betrügerischer Werbung in Verbindung brachte«.31 Nur wenige Monate zuvor hatte das US-Justizministerium Google mit einer Buße von 500 Millionen Dollar belegt, »eine der größten Konventionalstrafen der Geschichte«, weil das Unternehmen trotz mehrmaliger Warnung Anzeigen kanadischer Apotheken schaltete, die Google-Nutzer zu illegalen Importen verschreibungspflichtiger Medikamente animierte. Der damalige amerikanische Justizminister Cole sagte dazu der Presse gegenüber: »Das Justizministerium wird auch künftig Unternehmen zur Verantwortung ziehen, die in ihrem Profitstreben gegen Bundesrecht verstoßen und damit Gesundheit und Sicherheit der amerikanischen Verbraucher gefährden.«32 Auch im Facebook-Milieu gehört die verfälschte Information dazu. Man vergaß bei allem Wirbel um die politische Desinformation von Amerikanern und Briten 2016, dass das Problem bereits bekannt war: Es hatte bereits sowohl den sozialen Diskurs als auch Wahlen in Indonesien, den Philippinen, Kolumbien, Deutschland, Spanien, Italien, Tschad,

Uganda, Finnland, Schweden, den Niederlanden, Estland und der Ukraine verzerrt. Wissenschaftler und politische Analysten hatten seit Jahren auf die schädlichen Folgen der Online-Desinformation hingewiesen.33 Ein politischer Analyst in den Philippinen äußerte 2017 die Sorge, das Problem sei womöglich längst nicht mehr zu lösen: »Wir sehen die Menetekel seit Jahren … Stimmen, die früher im Dunkeln lauerten, stehen heute im Zentrum des politischen Diskurses.«34 Die Leitsätze radikaler Indifferenz spiegeln sich in den Operationen von Facebooks schlecht bezahlter – und versteckter – Arbeiterschaft, die mit der Pervertierung des ersten Texts betraut ist. Nirgendwo wird der überproportionale Einfluss auf die Wissensteilung in der Gesellschaft deutlicher als bei diesen Parias der »Content-Moderation«; und nirgendwo liegt die Verbindung von ökonomischen Imperativen und Wissensteilung klarer zutage als in den täglichen Banalitäten dieser rationalisierten Arbeitsflüsse. Hier wird tagtäglich entschieden, ob Hass und Schrecken dieser Welt »leben« dürfen oder zum »Sterben« verurteilt werden – und das in einem Tempo und Umfang, dass für jede einzelne Entscheidung gerade mal ein Augenblick bleibt. Wir verdanken es nur der Entschlossenheit einer Handvoll investigativer Journalisten und Wissenschaftler, dass uns überhaupt ein Blick in diese streng geheimen Prozeduren vergönnt ist, die heute über eine Reihe von Callcenters, Boutique-Unternehmen und Mikrobetriebe über die ganze Welt verteilt sind.35 In einem der einschlägigen Berichte heißt es dazu: »Facebook und Pinterest, aber auch Twitter, Reddit und Google, sie alle lehnten es ab, Kopien ihrer vergangenen oder gegenwärtigen internen Moderationsrichtlinien zur Verfügung zu stellen.«36 Die wenigen anderen Berichte, die von Facebooks Operationen nach außen drangen, bestätigen dies. Diese geheime Belegschaft – einige Schätzungen gehen von mindestens 100 000 »Content-Moderatoren« aus, manche von einer weit höheren Zahl – operiert abseits der Kernfunktionen des Unternehmens; ihre Werkzeuge sind menschliches Urteilsvermögen und Maschinenlern-Tools.37 Hier und da als »Hausmeister« bezeichnet, gehen sie endlose Schlangen von Content durch, die von Usern als problematisch »geflaggt« wurden. Obwohl es einige weltweite Regeln gibt, die überall gelten, wie etwa Pornografie oder Abbildungen von Kindesmissbrauch zu

entfernen, versucht ein detaillierteres Regelwerk auf der Basis von Einschätzungen minimaler lokaler Toleranzschwellen so wenig Content wie möglich zurückzuweisen. Letztlich geht es darum, eine Balance zu finden zwischen der Fähigkeit, Nutzer und ihren Überschuss auf die Site zu ziehen, und dem Risiko sie abzustoßen. Das ist eine Rechnung auf der Basis radikaler Indifferenz; mit der Einschätzung der Wahrheit oder Respekt für die Reziprozitäten mit dem Nutzer hat das nichts zu tun.38 Dieses Spannungsfeld hilft uns bei der Erklärung, warum Desinformation keine Priorität ist. Ein investigativer Bericht zitiert einen Facebook-Insider: »Die haben absolut die Tools, Fake-News abzustellen, total …«39 Dass radikale Indifferenz für Äquivalenz ohne Gleichheit sorgt, wirkt sich auch auf die hohe Wissenschaft zielgerichteter Werbung aus. So haben zum Beispiel die Journalistin Julia Angwin und ihre Kollegen von ProPublica entdeckt, dass Facebook »Werbekunden ermöglichte, ihre Angebote auf die Newsfeeds von fast 2 300 Personen zu dirigieren, die ein Interesse an den Themen ›Judenhasser‹, ›wie man Juden verbrennt‹ oder ›warum die Juden die Welt ruinieren‹ zum Ausdruck brachten«. Dazu die Erklärung der Journalisten: »Facebook handelte lange nach dem Prinzip, sich bei der Werbung nicht einzumischen … Facebook generiert seine Werbekategorien automatisch auf der Basis sowohl dessen, was Nutzer explizit auf Facebook mit anderen teilen, und was sie implizit durch ihre Online-Aktivität vermitteln«.40 Ähnlich stellten Reporter von BuzzFeed fest, dass es Google seinen Werbekunden ermöglicht, gezielt Personen anzusprechen, die rassistische Begriffe in die Suchleiste eingeben, und sogar bestimmte Werbung neben Suchen wie »böse Juden« und »jüdische Kontrolle über die Banken« zu platzieren«.41 Als 2017 im Gefolge der amerikanischen Präsidentschaftswahlen und der Brexit-Abstimmung in Großbritannien »Fake-News« weltweit ins Rampenlicht rückten, entdeckten Journalisten Hunderte von Beispielen, bei denen Vorhersageprodukte Werbeanzeigen renommierter Marken wie Verizon, AT&T oder Walmart auf abscheulichen Sites mit Desinformationsmaterial, Hasspredigten, extremen politischen Inhalten sowie neben terroristische, rassistische und antisemitische Publikationen oder Hassvideos platziert hatten.42

Besonders interessant waren in diesem Zusammenhang die verlogene Entrüstung und die Fassungslosigkeit unter der Kundschaft des Überwachungskapitalismus: den Werbeagenturen und deren Kunden, die nie ein Problem damit gehabt hatten, ihre Seele der radikalen Indifferenz zu verkaufen und Google und Facebook dadurch zum Duopol über den Online-Werbemarkt zu verhelfen – diese Werbeeinnahmen waren der Motor hinter der überwachungskapitalistischen Expansion.43 Es war fast zwei Jahrzehnte her, dass Google die Formel erfunden hatte, die das Platzieren von Werbung an die Äquivalenz-Metriken der Klickraten abgetreten und damit frühere Ansätze ersetzt hatte, Werbung mit Inhalten abzustimmen, die die Werte der beworbenen Marken reflektierten. Die Kundschaft verzichtete auf diese traditionellen Reziprozitäten zugunsten der »Automagie« von Googles geheimen, am Verhaltensüberschuss nichtsahnender Nutzer trainierten Algorithmen. Da Vorhersageprodukte unterschiedslos Inhalte bevorzugen, die Publikum anziehen sollen, sorgte bei genauerer Betrachtung die radikale Indifferenz erst für die Zurschaustellung von Extremismus und Sensationshascherei. Die Wahlskandale warfen ein grelles Licht auf gängige Praktiken, an die die Welt sich längst gewöhnt hatte. In der Hitze der entstehenden Kontroverse setzten viele Topmarken ihre Werbung bei Google und Facebook aus, bis die Unternehmen unverantwortliche Inhalte eliminiert hatten oder wenigstens eine akzeptable Platzierung garantieren konnten. In Europa wie in den Vereinigten Staaten beschuldigten Politiker Google und Facebook, von Hass zu profitieren, zu schweigen von einer durch korrumpierte Informationen geschwächten Demokratie. Anfänglich sah es ganz so aus, als ginge man bei beiden Unternehmen davon aus, der Sturm würde sich bald wieder legen: Mark Zuckerberg erklärte den Gedanken, »Fake-News« hätten die Wahlen beeinflusst, öffentlich für »verrückt«. Google speiste seine Werbekundschaft mit vagen Plattitüden ab; konkrete Veränderungen bot man so gut wie keine. Es war nicht das erste Mal, dass die führenden Überwachungskapitalisten sich von Öffentlichkeit und Presse zur Rechenschaft gezogen sahen.44 Über die Entrüstungszyklen um Street View, Beacon, Gmail, Google Glass, Newsfeed und andere Übergriffe hinaus lösten 2013 Edward Snowdens Enthüllungen über die Zusammenarbeit der Tech-Unternehmen mit

staatlichen Nachrichtendiensten eine weltweite Welle von Abscheu gegen die Überwachungskapitalisten aus. Google und Facebook hatten derlei Stürme mithilfe des »Enteignungszyklus«, wie ich es genannt habe, zu überstehen gelernt, und eine nähere Betrachtung dieser neuen Krise legt den Gedanken nahe, dass hier ein ganz frischer Zyklus in vollem Gange war. Angesichts der zunehmenden Gefahr regulierender Eingriffe hatte die Adaptionsphase eingesetzt. Es kam zu öffentlichen Entschuldigungen, Reuebekenntnissen, Beschwichtigungsversuchen, Auftritten vor dem amerikanischen Kongress und vor dem europäischen Parlament.45 Zuckerberg »bedauerte« seine »abschätzige« Haltung und bat am jüdischen Versöhnungstag Jom Kippur um Vergebung.46 Sheryl Sandberg sagte ProPublica gegenüber, »eine solche Nutzung dieser Funktion war weder so beabsichtigt, noch konnten wir sie ahnen«.47 Facebook räumte ein, mehr gegen extremistische Inhalte online unternehmen zu können.48 Googles Europa-Chef sagte seiner Kundschaft: »Wir entschuldigen uns. Wann immer so etwas passiert, wir wollen das nicht und übernehmen die Verantwortung dafür.«49 Ganz im Sinne der Adaptionsphase schrieb Bloomberg BusinessWeek über Google, das Unternehmen versuche, »gegen Fake-News vorzugehen, ohne durchgreifende Veränderungen vorzunehmen«.50 Die Financial Times schrieb Ende 2017, Google und Facebook teilten sich zum Ende des Jahres 84 % des weltweiten Etats für digitale Werbung (China ausgenommen), und prophezeite dem Duopol einen noch größeren Anteil für 2018.51 Obwohl beide Unternehmen bescheidene operative Anpassungen vornahmen, um die ökonomischen Anreize für die Verbreitung von »Fake-News« zu mindern, und Warnsysteme einrichteten, um die Nutzer auf mögliche korrumpierte Inhalte hinzuweisen, nutzte Zuckerberg seine Rolle als Zünglein an der Waage, um einen Vorschlag der Aktionäre abzubügeln, der das Unternehmen zur Berichterstattung über sein Desinformationsmanagement und die gesellschaftlichen Konsequenzen seiner Praktiken verpflichtet hätte. Googles Führungsspitze schmetterte im selben Jahr einen ähnlichen Vorschlag ab.52 Anfang 2018 hatte man bei Facebook still und leise den Wechsel von der Anpassung zur Neuausrichtung vollzogen. Damit waren alle Vorbereitungen getroffen, die Krise in eine Möglichkeit zu verwandeln. »Trotz der

wichtigen Herausforderungen, vor denen wir uns sehen«, sagte Zuckerberg, »müssen wir weiter an neuen Tools arbeiten, um Menschen zusammenzubringen, unsere Communities zu stärken und die Welt einander näherzubringen.«53 Ein Zuckerberg-Post gefolgt von einem Statement von Facebooks Newsfeed-Chef erklärte, der Newsfeed würde künftig Posts von Freunden und Angehörigen bevorzugen, vor allem Posts, die »Unterhaltungen und die sinnvolle Interaktion zwischen Menschen anregen … Wir werden vorhersagen, welche Posts Sie mit Ihren Freunden interagieren lassen … Das sind Posts, die ein Hin-und-Her inspirieren … ob das der Post eines Freundes ist, der einen um Rat angeht …eine Zeitungsmeldung oder ein Video, das große Diskussionen auslöst … Livevideos führen oft zu Diskussionen unter Nutzern … zu sechsmal so vielen Interaktionen wie normale Videos.«54 Radikale Indifferenz impliziert, dass es keine Rolle spielt, was durch die Pipelines fließt, solange sie nur voll sind. Als Absage an den korrumpierten Text getarnt, verdoppelte die neue Strategie die Bemühungen um Verhaltensüberschuss, vor allem im Bereich der Live-Videos, auf den Zuckerberg schon seit Jahren spekuliert hatte. Einem Bericht der New York Times zufolge kamen die Werbetreibenden rasch dahinter, dass die neuen Regeln Facebooks » ›langgehegten‹ Videoambitionen« entgegenkamen; das Unternehmen habe damit seine Überzeugung kundgetan, dass seine Zukunft in Videos und Videowerbung lag. Eine Führungskraft aus der Werbebranche sagte dazu, Video-Content gehöre zu den »meistgeteilten und kommentierten Inhalten im Web«.55 Jenseits aller Erklärungen für die Geißel der Desinformation im überwachungskapitalistischen Online-Milieu steht kompromisslos ein weit tiefer greifender Fakt: Die radikale Indifferenz ist eine offene Einladung zur Korrumpierung des ersten Texts. Sie sorgt für die Aufrechterhaltung der pathologischen Wissensteilung in der Gesellschaft, indem sie auf die Integrität öffentlichen Wissens um Volumen und Diversität des Schattentexts willen verzichtet. Die radikale Indifferenz sorgt für eine Leere dort, wo einst Gegenseitigkeit florierte. Bei all ihrer Freiheit und all ihrem Wissen ist das die eine Leere, die die Überwachungskapitalisten nicht füllen werden, weil das ihrer eigenen Logik der Akkumulation widersprechen würde. Es ist offensichtlich, dass die aus dem Ruder gelaufenen Kräfte der

Desinformation das besser verstanden haben als Facebooks oder Googles ehrliche Nutzer, insofern sie lernen, die Blindheit der radikalen Indifferenz auszunutzen und die pervertierte Wissensteilung in einer offenen Gesellschaft zu steigern.

Was ist Überwachungskapitalismus? Durch die erfolgreiche Durchsetzung des Anspruchs auf Freiheit und Wissen, auf seine strukturelle Unabhängigkeit vom Menschen sowie auf seine kollektivistischen Ambitionen manövriert uns der Überwachungskapitalismus heute mittels der radikalen Indifferenz, die diese Ansprüche sowohl bedingen als auch ermöglichen und aufrechterhalten, einer Gesellschaft entgegen, in der der Kapitalismus nicht länger als Mittel inklusiver politischer und ökonomischer Institutionen funktioniert. Stattdessen müssen wir den Überwachungskapitalismus als das erkennen, was er ist: eine zutiefst antidemokratische soziale Kraft. Ich stehe mit meiner Argumentation nicht allein; in ihr klingt Thomas Paines unnachgiebige Verteidigung der demokratischen Perspektive in Die Rechte des Menschen an, seinem polemischen Meisterwerk, in dem er Edmund Burkes Verteidigung der Monarchie in dessen Betrachtungen über die französische Revolution aufs Korn nahm. Paine redete damals den Fähigkeiten des gemeinen Mannes gegen die aristokratischen Privilegien das Wort. Unter den Gründen, die er gegen die aristokratische Herrschaft anführt, ist auch der Mangel an Verantwortlichkeit gegenüber den Bedürfnissen des Volkes, »weil einer Corporation, welche Niemand Rechenschaft schuldig zu sein glaubt, auch Niemand sich anvertrauen soll«.56 Der antidemokratische und antiegalitäre Moloch des Überwachungskapitalismus lässt sich am besten als marktorientierter coup d’état von oben beschreiben. Er ist kein Staatsstreich im klassischen Sinne, sondern vielmehr ein coup de gens im Gewand des technologischen trojanischen Pferds, das Big Other in Wirklichkeit ist. Kraft seiner dreisten Annexion menschlicher Erfahrung bringt dieser Putsch es zu exklusiven Konzentrationen von Wissen und Macht, mit denen er seinen privilegierten

Einfluss auf die Wissensteilung in der Gesellschaft aufrechterhält. Damit privatisiert er das zentrale Prinzip sozialer Ordnung im 21. Jahrhundert. Wie die spanischen adelantados und ihre schweigende Beschwörung des Requerimiento operiert der Überwachungskapitalismus in der deklarativen Form, in der er uns die sozialen Beziehungen einer vormodernen absolutistischen Autorität aufoktroyiert. Es handelt sich hier um eine Form der Tyrannei, die sich vom Menschen nährt, aber nicht vom Menschen ist. In einem surrealen Paradoxon feiert man diesen Putsch als »Personalisierung«, obwohl er alles Persönliche an uns besudelt, schändet, aufhebt und verdrängt. Ich benutze das Wort »Tyrannei« hier nicht leichtfertig. Wie der instrumentäre Schwarm ist die Tyrannei die Auslöschung von Politik. Sie gründet sich auf ihre ganz eigene Spielart radikaler Indifferenz, in der jede Person außer dem Tyrannen selbst als Organismus unter Organismen in einer Äquivalenz von Anderen zu verstehen ist. Hannah Arendt schrieb, die Tyrannei sei eine Perversion des Egalitarismus, weil er alle anderen als gleich unbedeutend einstuft: »Der Tyrann herrscht gemäß seinem eigenen Willen und Interesse … der Tyrann herrscht als Einzelner über alle, und diese ›alle‹, die er unterdrückt, sind gleich, das heißt gleich machtlos.«57 In einer Anmerkung dazu weist Arendt darauf hin, dass die klassische politische Theorie den Tyrannen als »gänzlich außerhalb der Menschheit«, als »Wolf in Menschengestalt« sieht.58 Der Überwachungskapitalismus herrscht mittels instrumentärer Macht durch seine Materialisierung in Big Other, das wie der Tyrann außerhalb der Menschheit existiert, während es paradoxerweise menschliche Gestalt annimmt. Die Tyrannei des Überwachungskapitalismus erfordert die Peitsche des Despoten ebenso wenig wie die Konzentrationslager und Gulags des Totalitarismus. Alles, was nötig ist, findet sich in Big Others beruhigenden Messages und Emoticons, im sachten Drängen und Schieben der anderen und dem unwiderstehlichen Ansporn zur Konfluenz, in den Sensoren in Ihrem Hemd und der einlullenden Stimme, die Ihnen Ihre Fragen beantwortet, dem Fernseher, der Sie hört, dem Haus, das Sie kennt, dem Bett, das Ihrem nächtlichen Flüstern lauscht, dem Buch, das Sie liest … Big Other handelt im Namen eines beispiellosen Aggregats kommerzieller Operationen, die menschliches Verhalten modifizieren

müssen, als unabdingbare Voraussetzung für den kommerziellen Erfolg. Big Other ersetzt legitime Verträge, die Herrschaft des Rechts und das soziale Vertrauen durch eine neue Form von Hoheit und sein privat verwaltetes Regime von behavioristischen Verstärkern. Der Überwachungskapitalismus ist eine grenzenlose Marktform, die ältere Unterscheidungen zwischen Markt und Gesellschaft, Markt und Welt oder Markt und Person ignoriert. Er ist eine profitorientierte Form, in der die Produktion der Extraktion untergeordnet ist; Überwachungskapitalisten beanspruchen einseitig die Kontrolle über menschliche, gesellschaftliche und politische Territorien, die weit hinausgehen über das konventionelle institutionelle Territorium der privaten Unternehmung oder des Markts. Betrachten wir den Überwachungskapitalismus durch Karl Polanyis Linse, stellen wir fest, dass er menschliche Erfahrung im Namen der Marktdynamik annektiert, sodass sie, als Verhalten wiedergeboren, zur vierten »Warenfiktion« wird. Polanyis erste drei Warenfiktionen – Boden, Arbeit und Geld – waren dem Gesetz unterworfen. Diese Gesetze mögen im Einzelnen nicht perfekt sein, aber Institutionen wie das Arbeits-, Umweltund Bankenrecht sind Ordnungsrahmen, die die Gesellschaft (sowie Natur, Leben und Geschäftsverkehr) verteidigen sollen gegen die schlimmsten Exzesse der destruktiven Macht eines ungezügelten Kapitalismus. Der Enteignung menschlicher Erfahrung durch den Überwachungskapitalismus waren keine solchen Grenzen gesetzt. Der Erfolg dieses coup de gens steht als bitteres Zeugnis für die frustrierten Bedürfnisse der Zweiten Moderne, die dem Überwachungskapitalismus zur Blüte verhalfen und die heute noch die reichste Ader für Extraktion und Ausbeutung sind. In diesem Kontext ist es unschwer zu verstehen, warum Facebooks Mark Zuckerberg sein soziales Netzwerk als die Lösung für die Probleme der Dritten Moderne anpreist. Er stellt sich eine totalisierte instrumentäre Ordnung vor – er spricht von einer neuen globalen »Kirche« –, die die Menschen der Welt »zu etwas Größerem als wir selbst« zusammenbringen wird. Facebook, so sagt er, werde Probleme angehen, die vom Ausmaß und Spektrum her zivilisatorisch sind. Es baue »die langfristige Infrastruktur, um die Menschen zusammenzubringen«, und arbeite mit »künstlicher Intelligenz«, die sofort versteht, »was in unserer Gemeinschaft passiert«, und damit für deren

Sicherheit sorgen werde.59 Wie Pentland stellt auch Zuckerberg sich eine künstliche Intelligenz vor, die »Risiken identifizieren kann, die sonst niemandem aufgefallen wären, einschließlich Terroristen, die über private Kanäle Anschläge planen, Leute, die jemanden mobben, der sich das selbst nicht zu melden traut, und andere lokale wie globale Probleme«.60 Nach seiner Verantwortung gegenüber den Aktionären gefragt, sagte Zuckerberg auf CNN: »Da hilft es eben, die Kontrolle über die Firma zu haben.«61 Mehr als drei Jahrhunderte lang versuchte die industrielle Zivilisation, zur Verbesserung der menschlichen Lebensbedingungen die Natur in den Griff zu bekommen. Maschinen waren unser Mittel zur Erweiterung und Überwindung des animalischen Körpers, um unseren Anspruch auf die Herrschaft über die Natur durchzusetzen. Die Folgen begannen uns erst viel später aufzugehen: eine überlastete Erde, die in Gefahr geraten ist, seit das empfindliche System, das einst Himmel und Meere definierte, aus dem Ruder zu laufen begann. Im Augenblick befinden wir uns am Fuße eines neuen Bogens, den ich als Informationsgesellschaft bezeichnet habe und in der sich dieselbe gefährliche Arroganz wiederholt. Das Ziel besteht diesmal in der Beherrschung nicht der Natur, sondern des menschlichen Wesens. Der Brennpunkt hat sich verschoben: von Maschinen, die die Grenzen des Körpers überwinden sollten, hin zu Maschinen, die das ubiquitäre Wissen dazu einsetzen, im Dienste von Marktzielen das Verhalten von Einzelnen, Gruppen und Populationen zu verändern. Diese globale Implementierung instrumentärer Macht überwindet und ersetzt die Innerlichkeit des Menschen, die sowohl den Willen zum Wollen als auch unsere Stimme in der ersten Person nährt. Damit trägt sie dazu bei, dass die Demokratie schon an der Wurzel verkümmert. Der Aufstieg der instrumentären Macht ist freilich als unblutiger Putsch geplant; statt gegen unsere Körper gerichteter Gewalt gleicht die instrumentäre Dritte Moderne eher einer Dressur. Ihre Lösung für die immer lauteren Forderungen nach einem effektiven Leben fußt auf dem allmählichen Ausmerzen von Chaos, Ungewissheit, Anomalien und Konflikt zugunsten von Vorhersagbarkeit, automatisierter Regelmäßigkeit, Transparenz, Konfluenz, Überredung und Befriedung. Man erwartet von uns, unsere Autorität abzutreten, uns keine Sorgen zu machen, den Mund zu

halten, uns treiben zu lassen und uns den technologischen Visionären zu beugen, deren Reichtum und Macht als Beweis für ihre überlegene Urteilskraft stehen sollen. Man geht davon aus, dass wir uns einer Zukunft ergeben, in der wir über weniger Kontrolle verfügen und machtloser sind denn je, in der uns neue Quellen der Ungleichheit spalten und unterwerfen, in der einige von uns Herren sind und viele untertan, in der einige Stimulus sind und die vielen nichts weiter als Reaktion. Die Zwänge dieser neuen Vision bedrohen andere empfindliche Systeme, die sich ebenfalls über Jahrtausende herausgebildet haben, Systeme sozialer und psychologischer Art. Ich denke hier an die schwer errungenen Früchte menschlicher Konflikte und menschlichen Leids, die wir als die demokratische Perspektive bezeichnen, sowie an die Leistungen des Einzelnen als Quelle des autonomen moralischen Urteils. Das Mantra technologischer »Unabwendbarkeit«, das man uns einzubläuen versucht, ist nichts weiter als ein existenzielles Narkotikum, das man uns verabreicht, auf dass wir resignieren – hier träumt jemand von unserem geistigen Tod. Man spricht seit geraumer Zeit von einem »Sechsten Aussterbeereignis«, denn Wirbeltiere sterben in rasanterem Tempo aus denn je zuvor. Dieser Kataklysmus ist nicht zuletzt die unbeabsichtigte Folge der ebenso unbesonnenen wie selbstsüchtigen Methoden, die ebenfalls als unumgänglich dargestellt wurden und mit denen die Industrialisierung sich die Natur unterworfen hat. Ihre eigenen Marktformen zogen sie dafür nicht zur Verantwortung. Jetzt kündigt der Aufstieg der instrumentären Macht als wesensmäßiger Ausdruck des Überwachungskapitalismus eine ganze andere Art von Aussterbeereignis an. Das »Siebte Aussterbeereignis« wird sich nicht in der Natur abspielen, sondern im menschlichen Wesen selbst, genauer gesagt in den Bereichen unseres Wesens, die uns die kostbarsten sind: Ich spreche vom Willen zum Wollen, der Heiligkeit des Individuums, vom Band der Intimität, von der Sozialität, die uns im Versprechen verbindet, sowie dem Vertrauen, das daraus entsteht.

Überwachungskapitalismus und Demokratie

Seine Kräfte sammelte die instrumentäre Macht nicht nur außerhalb der Menschheit, sondern auch außerhalb der Demokratie. Es kann kein Gesetz geben, das uns vor dem Beispiellosen schützt, und demokratische Gesellschaften – wie etwa die unschuldige Welt der Taíno – kennzeichnet ein hohes Maß an Schutzlosigkeit gegenüber beispiellosen Formen von Macht. Von dieser Warte aus können wir den Überwachungskapitalismus als Teilbewegung einer alarmierenden globalen Abtrift hin zu einer Aufweichung öffentlicher Ansichten über Notwendigkeit und Unveräußerlichkeit der Demokratie selbst betrachten, die viele Politologen heute beobachten wollen. Zahlreiche Wissenschaftler verweisen auf eine weltweite »Rezession der Demokratie«, speziell auf eine »Dekonsolidierung« der westlichen Demokratien, die man so lange für unempfindlich gegenüber antidemokratischen Bedrohungen hielt.62 Ausmaß und eigentliche Natur dieser Bedrohung sind umstritten; dennoch verweisen viele Experten auf die bittere saudade, die man mit rasantem sozialen Wandel und der Angst vor der Zukunft verbindet, wie sie in einer Aussage wie dieser zum Ausdruck kommt: »Meine Kinder werden das Leben, das ich gelebt habe, nie sehen.«63 Solche Gefühle des Unbehagens und der Entfremdung brachten viele Menschen rund um den Globus zum Ausdruck, als Pew Research sie Ende 2017 in 38 Ländern nach ihrer Haltung zur Demokratie befragte. Die Ergebnisse lassen darauf schließen, dass die demokratischen Ideale nicht länger ein heiliger Imperativ sind – noch nicht einmal für die Bürger reifer Demokratien. Obwohl 78 % der Befragten die »repräsentative Demokratie« für gut befanden, hielten 49 % die »Herrschaft von Experten« für »gut«; 26 % würden sich hinter einen »starken Führer« stellen; 24 % sähen lieber eine »Herrschaft des Militärs«.64 Die schwächelnde Bindung zur Demokratie in den Vereinigten Staaten und zahlreichen europäischen Ländern ist Anlass für ernsthafte Sorge.65 Der Pew-Erhebung zufolge stehen gerade mal 40 % der Amerikaner bei gleichzeitiger Absage an Alternativen zur Demokratie. Ganze 46 % halten sowohl demokratische als auch nichtdemokratische Alternativen für akzeptabel, und 7 % sprechen sich ganz für nichtdemokratische Alternativen aus. Was die Tiefe demokratischen Engagements anbelangt, hinken der Studie zufolge die USA hinter Schweden, Deutschland, den

Niederlanden, Griechenland und Kanada her; aber auch andere westliche Schlüsseldemokratien, so etwa Italien, Großbritannien, Frankreich und Spanien, fallen zusammen mit Polen und Ungarn auf oder unter den Mittelwert von 37 % derer, die in den 38 Ländern keine Alternativen zur Demokratie sehen. Viele haben aus diesem Chaos den Schluss gezogen, dass die Marktdemokratie nicht mehr funktionsfähig ist, und das trotz der Tatsache, dass die Kombination von Märkten und Demokratien der Menschheit beste Dienste geleistet hat; immerhin hat sie die Menschheit aus Jahrtausenden von Unwissenheit, Armut und Schmerz befreit. Für einige derer, die so denken, sind es die Märkte, die weg müssen, für andere ist die Demokratie obsolet. Angewidert von Klimakatastrophe und sozialem Zerfall, die für sie Folgen von fast vier Jahrzehnten neoliberaler Politik und Praxis sind, erklärt eine ebenso wichtige wie diverse Gruppe von Wissenschaftlern und Aktivisten die Ära des Kapitalismus für beendet. Einige schlagen humanere ökonomische Alternativen vor,66 einige sehen eine langen Niedergang voraus,67 wieder andere reden, unter Ablehnung sozialer Komplexitäten, einer Mischung aus elitärer Macht und autoritärer Politik in Anlehnung an den Weg Chinas das Wort.68 Diese Entwicklungen bringen uns eine tiefere Wahrheit zu Bewusstsein: So wie der Kapitalismus roh nicht genießbar ist, so kommen Menschen auch ohne die zumindest gefühlte Möglichkeit einer Heimkehr nicht aus. Hannah Arendt erforschte dieses Gebiet vor über sechzig Jahren in Elemente und Ursprünge totaler Herrschaft, wo sie den Weg von der frustrierten Individualität hin zur totalisierenden Ideologie nachzeichnete. Ihr zufolge war es die Erfahrung von Bedeutungslosigkeit, Verzichtbarkeit, politischer Isolation und Verlassenheit, die die Feuer totalitären Terrors schürte. Solche Ideologien, so schreibt Arendt, erscheinen in einer Welt, in der »jeder von jedem verlassen und auf nichts mehr Verlaß ist … als ein letzter Halt«.69 Jahre später schrieb der Philosoph Theodor W. Adorno in seinem bewegenden Essay »Erziehung nach Auschwitz«, dass »der Faschismus und das Entsetzen, das er bereitete, damit zusammenhängen, dass die alten, etablierten Autoritäten … zerfallen, gestürzt waren, nicht aber die Menschen psychologisch schon bereit, sich selbst zu bestimmen.

Sie zeigten der Freiheit, die ihnen in den Schoß fiel, nicht sich gewachsen.«70 Sollten wir uns tatsächlich, unseres Ringens um Selbstbestimmung müde geworden, den Verführungen von Big Other anheimgeben, tauschen wir unbeabsichtigt eine Zukunft der Heimkehr ein gegen die trocken-dürre Aussicht auf die keimfreie Friedhofsstille der Tyrannei. Eine Dritte Moderne, die unsere Probleme zum Preis der menschlichen Zukunft löst, ist eine grausame Pervertierung des Kapitalismus und seiner digitalen Fähigkeiten. Sie ist auch ein inakzeptabler Affront gegen die Demokratie. Ich schließe mich hier Thomas Pikettys Warnung an, dass eine »Marktwirtschaft, wenn sie sich selbst überlassen bleibt … auch machtvolle Divergenzkräfte [freisetzt], die unsere demokratischen Gesellschaften und jene soziale Gerechtigkeit bedrohen, die zu ihren Legitimationsgrundlagen zählt«.71 Das ist genau der Sturm, den wir unter den Händen des Überwachungskapitalismus ernten werden, eine beispiellose Form von rohem Kapitalismus, der mit Sicherheit zur Schwächung unserer Zusage an die demokratische Perspektive beitragen wird, wenn er die Menschen seinem flüsternden Willen beugt. Er hat viel zu geben, sicher, aber er nimmt uns noch mehr. Die Demokratie hing bereits angeschlagen in den Seilen, als der Überwachungskapitalismus auf den Plan trat, in seinen ersten Lebensjahren geschützt und genährt von den neoliberalen Ansprüchen auf die totale Freiheit, sodass er auf Distanz vom Leben der Menschen aufwuchs. Die Überwachungskapitalisten lernten schnell, die rasch zunehmende Schlagkraft ihrer Erfindung dazu auszunutzen, Biss und Bedeutung der Demokratie zu unterminieren. Trotz des demokratischen Versprechens seiner Rhetorik und seiner Fähigkeiten trug er nicht nur zu einer extremen Ungleichheit des Wohlstands bei, angesichts der man sich um hundert Jahre zurückversetzt wähnte, er schuf auch neue Formen von ökonomischer Exklusivität, die früher unvorstellbar gewesen wären, und neue Quellen sozialer Ungleichheit, die die »Tuner« von den »Getunten« schieden. Zu den zahlreichen Ohrfeigen, die dieser überwachungskapitalistische coup de gens an die Demokratie und ihre Institutionen verteilt, zähle ich: die unbefugte Enteignung menschlicher Erfahrung, die Übernahme der Wissensteilung in der Gesellschaft, die strukturelle Unabhängigkeit vom

Menschen an sich, das Aufoktroyieren des kollektivistischen Schwarms, den Aufstieg der instrumentären Macht und seiner radikalen Indifferenz, auf die seine Extraktionslogik sich stützt, Aufbau, Besitz und Betrieb der Mittel zur Verhaltensmodifikation, die ich als Big Other bezeichnet habe, die Aufhebung des natürlichen Rechts auf die Zukunft und des natürlichen Rechts auf Freistatt, die Unterminierung des selbstbestimmten Individuums als Dreh- und Angelpunkt demokratischen Lebens und das Bestehen auf die psychische Abstumpfung als Antwort auf sein illegitimes Quidproquo. Wie heute deutlich zu sehen ist, hat sich der Überwachungskapitalismus weit eindeutiger für die Übernahme der Herrschaft entschieden, als sein neoliberaler Quellcode vermuten ließe. Denn er macht das Recht sowohl auf die Freiheit als auch auf das Wissen geltend und folgt dabei unbeirrbar seiner kollektivistischen Vision, die auf die gesamte Gesellschaft abzielt. Er mag sich noch anhören wie Hayek, ja selbst wie Smith, aber seine antidemokratischen Ambitionen entlarven ihn als unersättliches Kind, das seine in die Jahre gekommenen Väter verschlingt. Zynismus hat seinen Reiz und kann uns entsprechend blind machen gegenüber der Tatsache, dass die Demokratie unsere einzige Möglichkeit zur Umgestaltung ist und bleibt. Als einzige der vielen Ideen, die aus der langen Geschichte menschlicher Unterdrückung hervorgegangen sind, besteht sie auf das unveräußerliche Recht des Menschen, sich selbst zu regieren. Die Demokratie mag im Belagerungszustand sein, dennoch dürfen uns ihre zahlreichen Blessuren nicht davon abbringen, zu ihrem Versprechen zu stehen. Gerade weil er dieses Dilemma erkannt hat, weigert Piketty sich, die Waffen zu strecken. Seiner Ansicht nach könne selbst eine »anormale« Dynamik der Akkumulation durch demokratische Einrichtungen mit dauerhaften und effektiven Gegenmaßnahmen abgebogen werden; es wäre nicht das erste Mal: »Mir scheint«, schreibt er, »es gibt keine andere Möglichkeit, den Kapitalismus wieder unter Kontrolle zu bringen, als die, alles auf die Demokratie zu setzen.«72 Die Demokratie zeigt grundsätzlich Schwächen gegenüber dem Beispiellosen, aber über Dauer und Schädlichkeit dieser Schwächen bestimmt letztlich die Stärke ihrer Institutionen. In einer demokratischen Gesellschaft vermögen Debatte und Wettbewerb, wie gesunde Institutionen sie ermöglichen, die öffentliche Meinung durchaus umzustimmen gegen

unerwartete Quellen der Unterdrückung oder Ungerechtigkeit; Gesetzgeber und Rechtsprechung werden dann folgen.

Seid Sand im Getriebe Dieses Versprechen der Demokratie reflektiert sich in einer nachhaltigen Lektion, die ich als neunzehnjährige Studentin bei Milton Friedman in einem proppenvollen Seminarraum der University of Chicago gelernt habe. Friedman unterwies damals die Doktoranden aus Chile, die ihr Land kurz darauf unter dem Friedman-Hayek-Banner in die Katastrophe führen sollten. Der Professor war ein unerschütterlicher Optimist und unermüdlicher Lehrer, der fest daran glaubte, dass das Handeln von Legislative und Judikative stets die öffentliche Meinung von vor zwanzig oder dreißig Jahren reflektiert. Es war eine Einsicht, die er und Hayek – die beiden galten als »seelenverwandte Gegner« – erarbeitet und zu einer Reihe systematischer Strategien und Taktiken ausgearbeitet hatten.73 »Ich arbeite an der öffentlichen Meinung«, sagte Hayek Robert Bork 1978 in einem Interview. »Ich glaube noch nicht einmal, dass eine Gesetzesänderung irgendetwas bewirkt, bevor sich nicht zuerst die öffentliche Meinung geändert hat … es gilt zuerst, die öffentliche Meinung zu ändern.«74 Friedmans Überzeugung ließ ihn langfristig denken. Er stürzte sich in das entschieden unwissenschaftliche Projekt, sein neoliberales Evangelium mittels eines unablässigen Stroms von populärwissenschaftlichen Artikeln, Büchern und Fernsehprogrammen unters Volk zu bringen. Ob Schulbücher oder politische Kampagnen an der Basis, er war immer ausgesprochen sensibel gegenüber der Erfahrung vor Ort. Die kritische Rolle der öffentlichen Meinung erklärt, warum selbst die destruktivsten »Epochen« nicht ewig währten. In Kapitel 1 zitierte ich Edison, der vor hundert Jahren die Fehlfunktionen des Kapitalismus beklagt hatte: »alles verkehrt, Leerlauf, wohin man sieht«. Die Instabilität von Edisons Zeit war eine Bedrohung für alles, was die industrielle Zivilisation versprach. Sie würde, da war er sich sicher, einer neuen Synthese Platz machen müssen, die den Kapitalismus und seine Bevölkerung wieder rundlaufen ließ. Edisons Aussage erwies sich als prophetisch. Der

Kapitalismus hat die longue durée weniger einer speziellen Fähigkeit wegen überlebt als wegen seiner Plastizität. Er überlebt und gedeiht, weil er periodisch seine Wurzeln im Sozialen erneuert und neue Mittel und Wege findet, für neuen Wohlstand zu sorgen, indem er sich neuen Bedürfnissen stellt. Seine Evolution kennzeichnet zwar das Aufeinandertreffen grundlegender Prinzipien – Privateigentum, Profitstreben und Wachstum –, das jedoch in jeder Epoche durch neue Formen, Normen und Praktiken.75 Eben das ist die Lehre, die sich aus Fords Entdeckung ziehen lässt, und die Logik hinter den aufeinanderfolgenden Episoden der Revitalisierung im Lauf der Jahrhunderte. »Die Vorstellung«, so schreibt Piketty, »es gebe nur eine mögliche Form des Kapitaleigentums und der Produktionsorganisation, entspricht keineswegs der Realität … zweifellos werden wir … neue Formen der Organisation und des Eigentums erfinden müssen«.76 Auch der Philosoph Roberto Unger von der Harvard University hat sich diesbezüglich Gedanken gemacht. Seiner Ansicht nach können Marktformen eine beliebige Zahl rechtlicher und institutioneller Richtungen einschlagen, »jede mit dramatischen Konsequenzen für jeden Aspekt sozialen Lebens« und »von ungeheurer Bedeutung für die Zukunft der Menschheit«.77 Wenn ich mit meinen Kindern spreche oder vor einem Raum voll junger Leute, versuche ich sie auf die Situationsbedingtheit dessen hinzuweisen, »was uns da in der Hand hat«, indem ich sie auf ganz gewöhnliche Werte und Erwartungen aus der Zeit hinweise, bevor der Überwachungskapitalismus seine Kampagne zu unserer psychischen Abstumpfung begann. »Es ist nicht okay, sich in seinem eigenen Leben verstecken zu müssen; das ist nicht normal«, sage ich ihnen. »Es ist nicht okay, eure Unterhaltung in der Mittagspause mit dem Vergleichen von Software zu verplempern, die euch vor ständigen unerwünschten Übergriffen schützt.« Fünf Tracker blockiert. Vier Tracker blockiert. Neunundfünfzig Tracker blockiert, Gesichtszüge unkenntlich gemacht, Stimme verstellt. Ich versuche ihnen zu erklären, dass das Wort »Suche« einmal eine wagemutige existenzielle Reise bezeichnete und nicht das Ertippen einer Antwort, die längst existiert; dass ein »Freund« ein Gestalt gewordenes Mysterium ist, das sich nur auf eine Weise erschaffen lässt: von Angesicht

zu Angesicht und von Herz zu Herz; dass sie beim Wort »erkennen« nicht an Überwachung denken sollten, sondern an das Gefühl bei der Begegnung mit ihren Lieben. Ich sage ihnen, dass es nicht okay ist, das Beste an uns von einem drakonischen Quidproquo ausgebeutet zu sehen, für das unsere Instinkte und jegliches Wissen über uns nur Faustpfand für eine Leibesvisitation unseres Lebens sind. Es ist nicht okay, jede unserer Bewegungen, Regungen, Äußerungen und Wünsche zu erfassen, katalogisieren und manipulieren, um uns dann um anderer Leute Profit willen wie eine Herde durch die Zukunft zu treiben. »Das ist alles noch ganz neu«, versuche ich ihnen zu sagen. »Es gibt dafür keine Beispiele. Ihr solltet es nicht einfach als gegeben hinnehmen, weil es einfach nicht okay ist.« Wenn wir die Demokratie in den kommenden Jahrzehnten erneuern wollen, brauchen wir dazu das Gefühl der Entrüstung, ein Gespür für den Verlust dessen, was man uns da nimmt. Und ich meine damit nicht nur unsere »persönlichen Daten«. Was hier auf dem Spiel steht, ist die Erwartung seitens des Menschen, Herr über sein eigenes Leben und Urheber seiner eigenen Erfahrung zu sein. Was hier auf dem Spiel steht, ist die innere Erfahrung, aus der wir den Willen zum Wollen formen, und die öffentlichen Räume, in denen sich nach diesem Willen handeln lässt. Was auf dem Spiel steht, ist das herrschende Prinzip sozialer Ordnung in einer Informationszivilisation und unser Recht als Individuen und Gesellschaften, eine Antwort auf die alten Fragen zu finden: Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet? Dass der Überwachungskapitalismus so viele unserer Rechte in diesen Sphären an sich gerissen hat, ist ein skandalöser Missbrauch digitaler Fähigkeiten und ihres einst grandiosen Versprechens, das Wissen zu demokratisieren und auf die Erfüllung unserer frustrierten Bedürfnisse eines effektiven Lebens hinzuarbeiten. Die digitale Zukunft ist nicht aufzuhalten, aber der Mensch und seine Menschlichkeit sollten obenan stehen. Die Behauptung der Unabwendbarkeit weise ich jedoch zurück, und ich hoffe, Sie tun das nach unserer gemeinsamen Reise hier auch. Wir stehen am Beginn dieser Geschichte, nicht am Ende. Wenn wir die ältesten Fragen jetzt angehen, haben wir noch Zeit, die Zügel in die Hand zu nehmen und das Geschehen in Richtung einer menschlichen Zukunft zu lenken, die wir alle als Zuhause bezeichnen können. Ich möchte hier noch einmal Thomas

Paine bemühen, der die Generationen aufrief, ihren Willen geltend zu machen, wenn illegitime Kräfte die Zukunft an sich zu reißen versuchen und wir uns einem Schicksal entgegengeschleudert sehen, das wir nicht gewählt haben: Die Rechte des Menschen, der sich in Gesellschaft begibt, können weder vermacht, noch übertragen, noch vernichtet werden, sondern gehen auf die folgenden Generationen über; und kein Geschlecht hat die Macht, diese Erblinie gewaltsam zu durchschneiden. Wenn die gegenwärtige oder eine andere Generation Lust, hat Sklaven zu sein, so wird das Recht der folgenden Generation zur Freiheit dadurch nicht vermindert. Ein Unrecht kann keine rechtmäßige Abkunft haben.78 Was immer da schiefgelaufen ist, die Verantwortung, es wieder zurechtzurücken, wird mit jeder Generation erneuert. Weh uns und denen, die nach uns kommen, wenn wir eine menschliche Zukunft an mächtige Unternehmen und einen aus dem Ruder gelaufenen Kapitalismus abtreten, die weder unsere Bedürfnisse respektieren, noch unseren eigentlichen Interessen dienen. Schlimmer wäre unsere eigene stumme Kapitulation vor der Botschaft der Unvermeidbarkeit, die nichts weiter ist als die in Samt gehüllte Eisenfaust der Macht. Hannah Arendt schrieb in Bezug auf ihre Arbeit über die Ursprünge totalitärer Herrschaft, die »natürliche menschliche Reaktion hierauf ist eine des Ärgers und der Entrüstung, weil diese Bedingungen die Menschenwürde verletzen. Wenn ich nun diese Bedingungen beschreibe, ohne meiner Entrüstung zu erlauben, sich einzumischen, habe ich dieses besondere Phänomen aus seinem Zusammenhang in der menschlichen Gesellschaft herausgehoben und ihm dabei einen Teil seiner Natur gestohlen, es eines seiner wichtigsten inhärenten Eigenschaften beraubt.«79 So gilt denn für mich und vielleicht auch für Sie: Die bloßen Tatsachen des Überwachungskapitalismus erregen notwendigerweise meinen Unwillen, weil sie dem Menschen die Würde nehmen. Die Zukunft dieses Narrativs wird vom Unwillen der Bürger und Journalisten abhängen, vom Unwillen der Wissenschaftler, die sich von diesem Grenzprojekt angezogen fühlen, vom Unwillen gewählter Volksvertreter und politischer Entscheidungsträger, die verstehen, dass ihre Autorität ihren Ursprung in

den Grundwerten demokratischer Gemeinschaften hat, und ganz besonders vom Unwillen junger Menschen, die in dem Wissen handeln, dass Effektivität ohne Autonomie nicht effektiv, durch Abhängigkeit erzwungene Willfährigkeit kein Gesellschaftsvertrag, ein Schwarm ohne Ausweg nie ein Zuhause sein kann. Erfahrung ohne Freistatt ist nur ein Schatten ihrer selbst; ein Leben, in dem man sich verstecken muss, ist kein Leben; und Freiheit von der Ungewissheit ist keine Freiheit. Kehren wir noch einmal zurück zu George Orwell, wenn auch vielleicht nicht so, wie Sie das jetzt erwartet hätten. In einer zornigen Rezension von James Burnhams Bestseller Das Regime der Manager spricht Orwell 1946 von dessen feigem Verhaftetsein mit der Macht. Burnham vertrat in seinem 1940 erschienenen Buch, dass weder Kapitalismus, Demokratie noch Sozialismus den Zweiten Weltkrieg überleben würden. Sie alle würden einer neuen zentralisierten und nach dem Modell des Totalitarismus geformten Gesellschaft weichen. Eine neue Elite von »Managern« aus leitenden Angestellten, Technikern, Bürokraten und Soldaten würde alle Macht und alle Privilegien an sich reißen: eine Aristokratie des Talents in einer Gesellschaft knapp über der Sklaverei. Sein ganzes Buch hindurch besteht Burnham auf der »Unvermeidbarkeit« dieser Zukunft und lobt die Fähigkeit des Managements, wie es in der politischen Führung Deutschlands und Russlands zum Ausdruck komme. 1940 prophezeite Burnham den deutschen Sieg, dem die »gemanagte« Gesellschaft folgen würde. Später, der Krieg tobte noch und die Rote Armee verzeichnete einen Erfolg nach dem anderen, schrieb Burnham für Neuauflagen eine Reihe ergänzender Anmerkungen, in denen er mit gleicher Überzeugung die Weltherrschaft Russlands prophezeite. Orwells Empörung ist geradezu greifbar: »Wie sich herausstellen wird, prophezeit Burnham eine Fortsetzung dessen, was gerade passiert. Nun, eine solche Tendenz ist nicht nur eine schlechte Angewohnheit, wie die Ungenauigkeit oder die Übertreibung, die sich durch Nachdenken korrigieren lassen. Es handelt sich vielmehr um eine schwere Störung des Geistes, deren Wurzeln teils in der Feigheit liegen, teils in der Verehrung der Macht, die von der Feigheit nie ganz zu trennen ist.« Burnhams »aufsehenerregende« Widersprüche enthüllten sein eigenes Hingerissensein von der Macht und ein völliges Versagen, das kreative Prinzip hinter der Menschheitsgeschichte zu sehen. »In jedem Fall«, so wetterte Orwell,

»gehorchte er demselben Instinkt: dem Instinkt, sich vor dem jeweiligen Eroberer zu ducken, den bestehenden Trend als irreversibel zu akzeptieren.«80 Orwell warf Burnham das Unterlassen jeglicher »moralischer Anstrengung« vor, wie es sich in seinem totalen Verlust des moralischen Kompasses äußere. Unter solchen Bedingungen »kann buchstäblich alles richtig oder falsch werden, wenn die jeweils herrschende Klasse es dazu erklärt«. Burnhams Orientierungsverlust ermöglichte es ihm, »den Nazismus für etwas durchaus Bewunderungswürdiges zu halten, etwas, das eine machbare und dauerhafte soziale Ordnung schaffen könnte, ja wahrscheinlich schaffen würde«.81 Burnhams Feigheit soll uns hier als Moral dienen. Wir leben in einem Augenblick, in dem der Überwachungskapitalismus und seine instrumentäre Macht unbesiegbar erscheinen. Orwells Mut verlangt, dass wir uns weigern, die Zukunft einer illegitimen Macht abzutreten. Er fordert uns auf, uns dem Bann von Faszination, Hilflosigkeit, Resignation und Abstumpfung, unter dem wir stehen, zu entziehen. Orwells Mut stellt uns gegen die gnadenlose Flut der Enteignung, die jede menschliche Erfahrung herabwürdigen muss. Wir müssen Sand im Getriebe sein; Mut und ein moralischer Kompass sind die Ressourcen, die es braucht, um die gemeinsame Arbeit an synthetischen Deklarationen in Angriff zu nehmen, die die digitale Zukunft als einen Ort für die Menschheit beanspruchen, die den digitalen Kapitalismus als integrative Kraft an die Menschen binden, denen er dient, und die die Wissensteilung in der Gesellschaft als Quelle wahrhafter demokratischer Erneuerung verteidigen. Wie Orwell besteht auch Hannah Arendt auf die Möglichkeit eines Neuanfangs, der sich nicht an den sichtbaren Machtkonstellationen orientiert. Sie erinnert uns daran, dass jeder Neuanfang aus der Perspektive des Systems, das er unterbricht, an ein Wunder grenzt. Die Fähigkeit, solche Wunder zu wirken, habe allein der Mensch, sagt sie, sie sei Quell aller Freiheit: »Was für gewöhnlich intakt bleibt in den Epochen der Versteinerung und des vorherbestimmten Untergangs, ist die Fähigkeit zur Freiheit selbst, das schiere Vermögen des Beginnens, das alle menschliche Aktivität belebt und beseelt und das die versteckte Quelle … aller großen und schönen Dinge ist.«82

Die Jahrzehnte ökonomischer Ungerechtigkeit und der Konzentration ungeheuren Reichtums nach dem Bürgerkrieg, die wir Amerikaner unter dem Begriff »Gilded Age« zusammenfassen, haben dem Volk gezeigt, wie es nicht leben wollte. Dieses Wissen hat die Amerikaner in die Lage versetzt, dem Gilded Age ein Ende zu machen und die Waffen einer progressiven Gesetzgebung und des New Deals zu schmieden. Selbst heute noch sprechen wir von »robber barons« – »Raubrittern« – wenn wir an die Kapitalisten des ausgehenden 19. Jahrhunderts denken. Bestimmt wird das Zeitalter des Überwachungskapitalismus dasselbe Schicksal erleiden. Immerhin zeigt es uns bereits jetzt, wie wir nicht leben wollen. Es lehrt uns den Wert unserer größten und unersetzlichen moralischen und politischen Leistungen, indem es sie zu zerstören droht. Es erinnert uns an das Vertrauen, das der einzig wahre Schutz vor der Ungewissheit ist. Es demonstriert, dass Macht, die nicht durch Demokratie gezähmt wird, nur zu Exil und Verzweiflung führen kann. Wir sehen uns mit Friedmans Zyklus von öffentlicher Meinung und dauerhaften Gesetzen konfrontiert: Es ist jetzt an uns, unser Wissen einzusetzen, unsere Orientierung wiederzufinden, andere dazu aufzurütteln, dasselbe zu tun, und für einen neuen Anfang zu sorgen. Als man die Natur eroberte, waren die Opfer stumm; die, die nun unser menschliches Wesen zu erobern versuchen, werden feststellen, dass ihre Opfer sehr stimmgewaltig sind, bereit, die Gefahr beim Namen zu nennen und sie zu besiegen. Dieses Buch ist als Beitrag zu dieser kollektiven Anstrengung gedacht. Die Berliner Mauer fiel aus vielen Gründen, vor allem aber weil die Menschen in Ostberlin sich sagten: »Jetzt reicht’s!« Auch wir können die Urheber vieler »schöner und großartiger« neuer Fakten sein, die die digitale Zukunft als Zuhause der Menschheit einfordert, als unser Heim. Es reicht! Nehmen wir dies als unsere Deklaration.

DANK Die beiden Menschen, die ganz besonders zu diesem Werk beigetragen haben, habe ich leider nicht mehr neben mir, um sie jetzt, wo es fast geschafft ist, mit der gebührenden Dankbarkeit zu überhäufen. Als 2009 nach einem Blitzeinschlag unser Haus abbrannte, wurden binnen weniger Stunden nicht nur Tausende von Büchern ein Raub der Flammen, es verschwand auch jede Spur meiner langen akademischen Laufbahn. Ich dachte damals nicht, dass ich je wieder auch nur ein Wort schreiben würde, aber mein geliebter Mann Jim Maxmin versicherte mir in all seiner Weisheit, meine Wiedergeburt sei nur eine Frage der Zeit. Und so kam es denn auch. Fast dreißig Jahre lang war Jim mein erster, letzter und wichtigster Leser und Gesprächspartner. Während wir aufgeregt die neuen Ideen diskutierten, sah er sich geduldig die ersten Entwürfe und Fassungen dieser Kapitel an. Ich kann es noch immer nicht fassen, dass es uns nicht vergönnt ist, uns der Früchte dieser langen Arbeit gemeinsam zu erfreuen. Jims unendliche Liebe und grenzenlose Begeisterungsfähigkeit gaben mir bei der Arbeit wie im Leben die Kraft für den langen Weg. Sein Geist erfüllt diese Seiten in einem Maß, dem ich mit Worten nicht gerecht werden kann. Frank Schirrmacher, mutiger Intellektueller, Journalist und Mitherausgeber der Frankfurter Allgemeinen Zeitung, war mir sowohl eine ganz außergewöhnliche Stütze als auch eine stete Inspiration, als ich die Puzzleteile meiner Theorien über Überwachungskapitalismus und instrumentäre Macht zusammenzusetzen begann. Frank hielt mich an, für die FAZ zu schreiben, was zu Essays führte, die bei meiner eher mönchischen Art sonst womöglich nie das Licht der Welt erblickt hätten. Ich habe viel gelernt aus unseren endlosen Diskussionen; ihm habe ich es zu verdanken, dass meine Arbeiten über Big Other und den Überwachungskapitalismus schon lange vor der Fertigstellung des vorliegenden Buches zu einem nützlichen Referenzrahmen werden konnten. Obwohl er uns vor vier Jahren viel zu früh verlassen hat, ertappe ich mich

noch heute beim Griff nach dem Telefon, um ihm eine neue Idee mitzuteilen. Frank! Außerdem geht mein Dank an seine Kollegen bei der FAZ, allen voran Edo Reents und Jordan Mejias. Tiefste Dankbarkeit empfinde ich all den Spezialisten für Informationssysteme gegenüber, die mir all die Jahre, in denen ich zu einem tieferen Verständnis des Überwachungskapitalismus, seiner Mechanismen und Imperative zu kommen versuchte, so großzügig Zeit, Wissen und Reflexionen zuteilwerden ließen. Mit Freuden würde ich mich bei jedem dieser ebenso begabten wie klugen Lehrer namentlich bedanken, hätte ich ihnen nicht strikte Vertraulichkeit und Anonymität zugesagt. Zu immensem Dank bin ich auch den Familien in Großbritannien und Spanien verpflichtet, die ich während der schlimmsten Jahre der Großen Rezession interviewen durfte. Sie haben mir viel beigebracht über »die Kollision« und wie sie die Voraussetzungen schuf, unter denen der Überwachungskapitalismus zur Blüte gelangen konnte. Ein besonderes Dankeschön also an die Familie »Montes« für die Erlaubnis, ihre Geschichte beispielhaft zu verarbeiten, auch wenn Namen und Details zum Schutz ihrer Anonymität geändert sind. So manche Kollegen haben unschätzbare Beiträge zu diesem Werk geleistet, als wir im Dienst der Ideen beisammensaßen. Solche Kollegen verkörpern Großmut und Selbstlosigkeit wahren Gelehrtentums, und ich werde ihnen diese Geschenke nie vergessen. Marc Rotenberg, Datenschutzaktivist und intellektuelle Kapazität, die er ist, war mir all die Jahre über ein besonders geschätzter Kollege, der sich unermüdlich meiner Entwürfe annahm und diese detailliert kommentierte; er verhalf mir zu einem tieferen Verständnis bestimmter Schlüsselthemen und ihrer Wirkung auf die Gesetze zum Schutz des Persönlichkeitsrechts. Marcs Hingabe an dieses Werk war wirklich bemerkenswert, und er darf sich meiner ewigen Dankbarkeit gewiss sein. Chris Jay Hoofnagle, der große Rechtswissenschaftler aus Berkeley, war so liebenswürdig, sich einer Version des gesamten Manuskripts anzunehmen, als es besonders darauf ankam; seine Kommentare haben einen erheblichen Beitrag zu diesem Buch geleistet. Immer wieder beantworteten mir sowohl Marc als auch Chris meine Fragen zu rechtlichen und verwandten Problemen, und das nicht nur mit außergewöhnlicher Großzügigkeit und Interesse, sondern auch mit unverwüstlich guter Laune. Der über die Maßen belesene Frank Pasquale nahm sich Teile des Manuskripts im Anfangsstadium vor; ich weiß seinen

klugen Rat, seine Einsichten und seine Begeisterung zu schätzen und beherzigte sie. David Lidsky sah eine frühe Fassung des Manuskripts durch; sein immenses Talent als Lektor, seine Kollegialität, sein scharfer Verstand und sein unvergleichliches handwerkliches Können lieferten entscheidende Beiträge, die mir zur endgültigen Struktur des Buches verhalfen. Eine ganze Reihe von Kollegen war so freundlich, sich die vergangenen fünf Jahre über des einen oder anderen Kapitels im einen oder anderen Stadium anzunehmen und ihre stets scharfsichtigen Ansichten mit mir zu teilen. So geht denn mein aufrichtiger Dank an Paul Schwartz, Artemi Rallo, Mikkel Flyverbom, David Lyon, Martha Poon und Mathias Döpfner. Sowohl Chris Soghian als auch Bruce Schneier haben meine Fragen zu Verschlüsselung und Datenverarbeitung über sich ergehen lassen, die unabdingbar zum Verständnis der Grundmechanismen des Überwachungskapitalismus waren. Karyn Allen und Peter van den Heuvel lasen die Manuskripte in einem kritischen Stadium und standen mir mit Kommentaren und Zuspruch zur Seite. Denken und Schreiben sind einsame Prozesse, und ich möchte mich hier bei all den Kollegen bedanken, die mir Gelegenheit gaben, meine Ideen mit Wissenschaftlern und Studenten zu teilen. So lud Jonathan Zittrain mich in einer kritischen Phase meiner Überlegungen zur Mitarbeit als Gastwissenschaftlerin am Berkman Klein Center für Internet und Gesellschaft der Harvard Law School ein. David Lyon und David Murakami Wood hießen mich gegen Ende des Projekts an der Queen’s University in Kingston, Ontario, willkommen, wo die Diskussion mit Professoren und Studenten der Endphase meiner Arbeit den nötigen Auftrieb gab. Ein besonderes Dankeschön geht an die Studentinnen Helen Kosc und Qianli Chen. Ich hatte viele andere großartige Einladungen, die ich leider meiner Verpflichtung an diese Seiten wegen ablehnen musste, aber ich bin meinen Kolleginnen und Kollegen rund um die Welt zutiefst dankbar für das Interesse an meiner Arbeit. Ich bedanke mich bei Leslie Willcocks von der London School of Economics und Chris Sauer aus Oxford für ihre frühe intellektuelle Unterstützung. Als Mitherausgeber einer Sonderausgabe des Journal of Information Technology zum Thema »Big Data« trug ihre Begeisterung für meine erste akademische Arbeit über den Überwachungskapitalismus »Big Other: Surveillance Capitalism and the Prospects of an Information

Civilization« erheblich zu deren beschleunigter Veröffentlichung bei. Ein besonderes Dankeschön geht an die Senior Scholars der International Conference on Information Systems für die Zuerkennung des Best Paper Award 2016 für »Big Other«. Mein Agent Wayne Kabak stand vom ersten Augenblick an hinter dem Projekt; mit unermüdlichem Zuspruch und Engagement hat er das Werk über all die Jahre hinweg mit zur Welt gebracht. Ich schätze seine Freundschaft und seinen klugen Rat über alles. John Mahaney, mein Lektor bei PublicAffairs in New York, war so leidenschaftlich wie geduldig in seiner Unterstützung des Projekts; er brachte all die Jahre seiner Erfahrung in jede Fassung des Manuskripts ein und sorgte dafür, dass ich das Ziel nicht aus den Augen verlor. Mein Dank auch an Kristina Fazzalaro, Jaime Leifer, Collin Tracy und das ganze Team bei PublicAffairs für ihre Unterstützung und ihr anhaltendes Engagement. In Deutschland bedanke ich mich bei meiner klugen Lektorin Waltraud Berz bei Campus. Ein besonderes Dankeschön geht an den Übersetzer Bernhard Schmid, mit dem ich einige der Feinheiten der Übertragung meiner Gedanken in die komplizierte deutsche Sprache durchging. Ich danke den Redakteuren Joe Paul Kroll und Matthias Michel. Und ich danke Margit Knauer, Inga Hoffmann, Christina Mohr und dem ganzen Team bei Campus für ihren Beitrag zur Veröffentlichung dieses Buches. Ich hätte meine Ambitionen für das vorliegende Werk nicht umsetzen können ohne mein geschätztes Heimteam. William Dickie, der sich um die Zitate kümmerte, stieß 2014 zu mir, ohne auch nur die geringste Ahnung zu haben, worauf er sich da einließ. Aber anstatt das Handtuch zu werfen, krempelte er die Ärmel hoch und wurde zu einem Meister des Fachs. Ich bin aufrichtig dankbar für seine Geduld, seine Herzensgüte, seine durchdachten Beiträge und seine Freundschaft, während er so sorgfältig wie still seinen Aufgaben nachging. Mein Assistent Jordan Keenan feierte Anfang 2015 seinen Einstand im Team mit ganz außergewöhnlichen Beiträgen, deren Qualität im Verlauf seiner Entwicklung zum Profi der Tiefenrecherche immer neue Höhen erklomm. Ich habe mich auf dem gewundenen Weg dieser intellektuellen Reise auf ihn gestützt, und er hat sich jeder neuen Herausforderung so begeistert wie taktvoll gestellt; Lernender wie Lehrer zugleich schärfte er seinen regen Verstand in neuen Sphären sowohl der Recherche als auch der Verwaltung. Er hat es

inzwischen zum Äquivalent mehrerer Doktortitel gebracht. Und dem nicht genug, haben mir seine unerschütterlich gute Laune, sein lockerer Humor und sein stilles Fingerspitzengefühl durch Stürme und Stress von Arbeit und Leben geholfen. Meine Kinder haben meine Arbeit an diesem Buch über all die Jahre hinweg selbstlos unterstützt. Sie haben sich meine Ideen angehört, mir geduldig über meine Frustrationen hinweggeholfen und sich über meine Erfolge mit Liebe und Hingabe zusammen mit mir gefreut. Wann immer der Weg sich gabelte und dringend eine Entscheidung vonnöten war, haben sie sich zusammengefunden, um mir beiseitezustehen. Meine Tochter Chloe Maxmin las jede Fassung von jedem Kapitel und bot mir ungeschminkt die Art von treffendem Kommentar, die alle Autoren so dringend brauchen, aber kaum je bekommen. Mir wurde bald klar, dass ein Kapitel nur dann fertig war, wenn Chloe es abgesegnet hatte. Mein Sohn Jake Maxmin ertrug das Buchprojekt das ganze College hindurch bis hinein ins Studium. Wann immer ich eine schwierige Strecke durchmachte oder eine Abgabefrist drohte, deckte Jake mich mit Textnachrichten und Anrufen ein: »Du machst das schon, Mama. Ich glaub an dich.« Der scharfsichtige Rat und der liebevolle Zuspruch meiner Kinder haben mir noch über jeden Berg geholfen. Ich danke euch, mis vidas, mis corazones. Ohne euch wäre ich nicht hier. Ich bedanke mich in aller Liebe bei meinen Freunden, mit denen ich Festlichkeiten und Feiertage verbringen konnte, wenn ich wieder mal bis über beide Ohren in der Arbeit steckte und jeder Tisch, Stuhl im Haus, ja selbst der Boden mit Büchern und Artikeln bedeckt war: Minda Gold, Jacques Vesery, Isaac Vesery, Jonah Vesery, Lisa Katz, Ed, Theo und Toby Seidel, Mary Dee Choate Grant, Garret Grant, Kathy Leeman, Kerry Altiero. Minda Gold sorgte mit Liebe und Hingabe dafür, dass die Welt sich weiterdrehte, und das trotz ihres vollen Terminkalenders als engagierte Ärztin. Die scharfsichtige Kathy Leeman las das Buch in seiner Gänze, bevor ich die letzte Revision anging; ihr Feedback, ihre Leidenschaft und ihre Freundschaft halfen mir durch das letzte lange Jahr meiner Arbeit daran. Meine liebe Freundin Virginia Alicia Hasenbalg-Corabianu feuerte mich von Paris aus an (»ich bitte dich, bring es endlich hinter dich!«); sie war meinen Kindern eine großzügige Gastgeberin und übersetzte einen meiner veröffentlichten Vorträge über den Überwachungskapitalismus ins

Französische. Mein Freund und »Adoptivsohn« Canyon Woodward, unentwegter Cheerleader, der er ist, gab mir wie immer den nötigen Drive. Und last, but not least wäre diese Danksagung nicht vollständig, ohne Pachi Maxmin zu erwähnen, meine treue liebende Gefährtin. Lassen Sie mich zum Schluss noch etwas sagen, dem jeder Autor beipflichten wird, weil es die Wahrheit ist: Letzten Endes hat man sich der leeren Seite alleine zu stellen. Sollte also etwas in diesem Buch das in mich gesetzte Vertrauen enttäuschen, so habe ich ganz alleine dafür geradezustehen.

ANHANG

ANMERKUNGEN 1. Heimat oder Exil in der digitalen Zukunft 1 Martin Hilbert, »Technological Information Inequality as an Incessantly Moving Target: The Redistribution of Information and Communication Capacities Between 1986 and 2010,« Journal of the American Society for Information Science and Technology 65:4 (2013). S. 821–835, https://doi.org/10.1002/asi.23020. 2

Bereits 2014, nur etwa 20 Jahre nach der Erfindung des World Wide Web, befand eine eingehende Studie von Pew Research, dass 87 % aller Amerikaner das Internet nutzen. Von diesen betrachten 76 % das Internet als »gut für die Gesellschaft« und 90 % als »gut für mich«. (Susannah Fox und Lee Rainie, »The Web at 25 in the U. S.«, PewResearchCenter, 27. Februar 2014. S. 25, http://www.pewinternet.org/2014/02/27/the-web-at-25-in-the-u-s.) Es gibt Leute, die ganz automatisch die Notrufnummer der Polizei wählen, wenn Facebook nicht zugänglich ist. (»911 Calls About Facebook Outage Angers L. A. County Sheriff’s Officials«, Los Angeles Times, 1. August 2014, http://www.latimes.com/local/lanow/la-me-ln-911-calls-aboutfacebook-outage-angers-la-sheriffs-officials-20140801htmlstory.html.) Kaum zwei Jahrzehnte nach dem Auftritt des Mosaic-Browsers, der auch der Öffentlichkeit einen problemlosen Zugang zum WWW ermöglichte, ergab 2010 eine Umfrage der BBC, dass damals 79 % der Menschen in sechsundzwanzig Ländern im Zugang zum Internet ein fundamentales Menschenrecht sahen. 2014 später nahmen die Vereinten Nationen das Recht auf einen Internetzugang in die Menschenrechtscharta auf: »Jede Person hat das gleiche Recht auf Zugang und Nutzung eines sicheren und offenen Internets … Jede Person hat das Recht, frei Informationen im Internet ohne Zensur oder andere Eingriffe zu suchen, zu empfangen und weiterzugeben. Jede Person hat weiters das Recht auf freie Vereinigung durch das und im Internet, sowohl für soziale als auch politische, kulturelle und andere Zwecke … Jede Person muss einen universellen und offenen Zugang zum Inhalt des Internets haben, der frei von diskriminierender Vorzugsbehandlung, Filterung oder Kontrolle des Datenverkehrs aufgrund kommerzieller, politischer oder anderer Gründe ist.« (http://internetrightsandprinciples.org/site/wpcontent/uploads/2017/03/IRPC_booklet_29May2014_German.pdf) 3

João Leal, The Making of Saudade: National Identity and Ethnic Psychology in Portugal. Amsterdam: Het Spinhuis, 2000, https://run.unl.pt/handle/10362/4386. 4 Cory D. Kidd u. a., »The Aware Home: A Living Laboratory for Ubiquitous Computing Research«, in Proceedings of the Second International Workshop on Cooperative Buildings, Integrating Information, Organization, and Architecture, CoBuild ’99. London: Springer, 1999. S. 191–198, http://dl.acm.org/citation.cfm? id=645969.674887. 5 Reuters, »Global Smart Homes Market 2018 by Evolving Technology, Projections & Estimations, Business Competitors, Cost Structure, Key Companies and Forecast to 2023«, 19. Februar 2018, https://www.reuters.com/brandfeatures/venture-capital/article?id=280 96. 6 Ron Amadeo, »Nest Is Done as a Standalone Alphabet Company, Merges with Google«, Ars Technica, 7. Februar 2018, https://arstechnica.com/gadgets/2018/02/nest-is-done-as-astandalone-alphabet-company-merges-with-google/; Leo Kelion, »Google-Nest Merger Raises Privacy Issues«, BBC News, 8. Februar 2018, http://www.bbc.com/news/technology-42989073. 7 Kelion, »Google-Nest Merger Raises Privacy Issues«. 8 »Nest to Join Forces with Google’s Hardware Team«, Google, 7. Februar 2018, https://www.blog.google/topics/hardware/nest-joinforces-googles-hardware-team/. 9 Hernandez, Grant, Orlando Arias, Daniel Buentello, Yier Jin, »Smart nest thermostat: A smart spy in your home«. Black Hat USA, 2014, https://www.blackhat.com/docs/us-14/materials/us-14-Jin-SmartNest-Thermostat-A-Smart-Spy-In-Your-Home-WP.pdf

10 Guido Noto La Diega, »Contracting for the ›Internet of Things‹: Looking into the Nest«, Research Paper, Queen Mary University of London, School of Law, 2016; Robin Kar, Margaret Radin, »PseudoContract & Shared Meaning Analysis«, Legal Studies Research Paper, University of Illinois College of Law, 16. November 2017, https://papers.ssrn.com/abstract=3083129. 11 Hernandez, Grant, Orlando Arias, Daniel Buentello, Yier Jin, »Smart nest thermostat: A smart spy in your home«, Black Hat USA (2014). https://www.blackhat.com/docs/us-14/materials/us-14-Jin-SmartNest-Thermostat-A-Smart-Spy-In-Your-Home-WP.pdf 12 Eine hellsichtige frühe Darstellung dieser Themen findet sich bei Winner, Langdon. »A victory for computer populism«, Technology Review 94:4 (1991). S. 66. Siehe auch Chris Jay Hoofnagle, Jennifer M. Urban, Su Li, »Privacy and Modern Advertising: Most US Internet Users Want ›Do Not Track‹ to Stop Collection of Data about Their Online Activities«, BCLT Research Paper, Rochester, NY: Social Science Research Network, 8. Oktober 2012, https://papers.ssrn.com/abstract=2152135; Joseph Turow u. a., »Americans Reject Tailored Advertising and Three Activities That Enable It«, Annenberg School for Communication, 29. September 2009, http://papers.ssrn.com/abstract=1478214; Chris Jay Hoofnagle, Jan Whittington, »Free: Accounting for the Costs of the Internet’s Most Popular Price«, UCLA Law Review 61 (2014). S. 606; Jan Whittington, Chris Hoofnagle, »Unpacking Privacy’s Price«, North Carolina Law Review 90 (2011). S. 1327; » ›How Different Are Young Adults From Older Adults When It Comes to Info‹ by Chris Jay Hoofnagle, Jennifer King et Al.«, Annenberg School Departmental Papers, 14. April 2010, http://repository.upenn.edu/asc_papers/399/. 13

Die Wendung verdanke ich Roberto Mangabeira Unger, »The Dictatorship of No Alternatives«, in What Should the Left Propose? London, New York: Verso, 2006. S. 1–11. 14 Jared Newman, »Google’s Schmidt Roasted for Privacy Comments«, PCWorld, 11. Dezember 2009, http://www.pcworld.com/article/184446/googles_schmidt_roasted_fo r_privacy_comments.html. 15 Max Weber, Grundriss der Sozialökonomik. III. Abteilung. Wirtschaft und Gesellschaft. Tübingen: J. C. B. Mohr, 1922. S. 33. 16 Edison in einem Brief an Henry Ford, 1912. R. L. Bruckberger, »A Second U. S. Revolution that shook all Mankind«, Life, 13. Juli 1959. S. 96.

2. Bühne frei für den Überwachungskapitalismus 1 Roben Farzad, »Apple’s Earnings Power Befuddles Wall Street«, Bloomberg Businessweek, 7. August 2011, https://www.bloomberg.com/news/articles/2011-07-28/apple-s-earnin gs-power-befuddles-wall-street. 2 »ITunes Music Store Sells Over One Million Songs in First Week«, Apple Newsroom, https://www.apple.com/newsroom/2003/05/05iTunes-Music-StoreSells-Over-One-Million-Songs-in-First-Week/. 3

Jeff Sommer, »The Best Investment Since 1926? Apple«, New York Times, 22. September 2017, https://www.nytimes.com/2017/09/22/business/appleinvestment.html. 4 Shoshana Zuboff, James Maxmin, The Support Economy: How Corporations Are Failing Individuals and the Next Episode of Capitalism. New York: Penguin, 2002. S. 230. 5 Henry Ford, »Mass Production«, Encyclopedia Britannica. New York: Encyclopedia Britannica, 1926. S. 821. 6 Lizabeth Cohen, A Consumers’ Republic: The Politics of Mass Consumption in Postwar America. New York: Knopf, 2003. 7 Martin J. Sklar, The Corporate Reconstruction of American Capitalism: 1890‒1916: The Market, the Law, and Politics. New York: Cambridge University Press, 1988. 8 Émile Durkheim, Über soziale Arbeitsteilung: Studie über die Organisation höherer Gesellschaft. Frankfurt: Suhrkamp, 1992. S.  335. (Hervorhebung von mir.) 9 Ebd. S. 225, 333. 10 Ulrich Beck, Macht und Gegenmacht im Globalen Zeitalter. Frankfurt: Suhrkamp, 2002. S. 16. 11

Lesern, die an einer eingehenderen Analyse des Aufstiegs dieser Phänomene interessiert sind, empfehle ich deren ausführliche Diskussion in meinem Buch The Support Economy. Siehe dazu außerdem Ulrich Beck, Elisabeth Beck-Gernsheim, Individualization: Institutionalized Individualism and Its Social and Political Consequences. London: Sage, 2002; Ulrich Beck, »Why ›Class‹ Is Too Soft a Category to Capture the Explosiveness of Social Inequality at the Beginning of the Twenty-First Century«, British Journal of Sociology 64:1 (2013). S. 63–74; Ulrich Beck, Edgar Grande, »Varieties of Second Modernity: The Cosmopolitan Turn in Social and Political Theory and Research«, British Journal of Sociology 61:3 (2010). S. 409–443. 12 Ulrich Beck, Risikogesellschaft: Auf dem Weg in eine andere Moderne. Frankfurt: Suhrkamp, 1986. 13 Talcott Parsons, Sozialstruktur und Persönlichkeit. Frankfurt: Europäische Verlagsanstalt, 1968. 14 Beck, Beck-Gernsheim, Individualization. 15 Erik H. Erikson, Kindheit und Gesellschaft. Stuttgart: Klett-Cotta, 1971. S. 275. 16

Ronald Inglehart, Christian Welzel, »How We Got Here: How Development Leads to Democracy«, Foreign Affairs 88:2 (2012). S.  48ff.; Ronald Inglehart, Wayne E. Baker, »Modernization, Cultural Change, and the Persistence of Traditional Values«, American Sociological Review 65:1 (2000). S. 19; Mette Halskov Hansen, IChina: The Rise of the Individual in Modern Chinese Society. Kopenhagen: Nordic Institute of Asian Studies, 2010; Yunxiang Yan, The Individualization of Chinese Society. Oxford: Bloomsbury Academic, 2009; Arthur Kleinman u. a., Deep China: The Moral Life of the Person. Berkeley: University of California Press, 2011; Chang Kyung-Sup, Song Min-Young, »The Stranded Individualizer under Compressed Modernity: South Korean Women in Individualization without Individualism«, British Journal of Sociology 61:3 (2010); Chang Kyung-Sup, »The Second Modern Condition? Compressed Modernity as Internalized Reflexive Cosmopolitization«, British Journal of Sociology 61:3 (2010); Munenori Suzuki u. a., »Individualizing Japan: Searching for Its Origin in First Modernity«, British Journal of Sociology 61:3 (2010); Anthony Elliott, Masataka Katagiri, Atsushi Sawai, »The New Individualism and Contemporary Japan: Theoretical Avenues and the Japanese New Individualist Path«, Journal for the Theory of Social Behavior 42:4 (2012); Mitsunori Ishida u. a., »The Individualization of Relationships in Japan«, Soziale Welt 61 (2010). S. 217–235; David Tyfield, John Urry, »Cosmopolitan China?«, Soziale Welt 61 (2010). S. 277–293. 17 Beck, Beck-Gernsheim, Individualization; Ulrich Beck, Der eigene Gott. Von der Friedensfähigkeit und dem Gewaltpotential der Religionen. Frankfurt: Verlag der Weltreligionen, 2008. 18 Thomas M. Franck, The Empowered Self: Law and Society in an Age of Individualism. Oxford, New York: Oxford University Press, 2000. 19 Beck, Beck-Gernsheim, Individualization, xxii. 20

Daniel Stedman Jones, Masters of the Universe: Hayek, Friedman, and the Birth of Neoliberal Politics. Princeton: Princeton University Press, 2012; Terry Flew, »Michel Foucault’s The Birth of Biopolitics and Contemporary Neo-Liberalism Debates«, Thesis Eleven 108:1 (2012). S. 44–65, https://doi.org/10.1177/0725513611421481; Philip Mirowski, Never Let a Serious Crisis Go to Waste: How Neoliberalism Survived the Financial Meltdown. London, New York: Verso, 2013; Gérard Duménil, Dominique Lévy, The Crisis of Neoliberalism. Cambridge, MA: Harvard University Press, 2013; Pierre Dardot, Christian Laval, The new way of the world: on neoliberal society. London, New York: Verso, 2013; António Ferreira, »The Politics of Austerity as Politics of Law«, Oñati SocioLegal Series 6:3 (2016). S. 496–519; David M. Kotz, The Rise and Fall of Neoliberal Capitalism: With a New Preface. Cambridge, MA: Harvard University Press, 2017; Philip Mirowski, Dieter Plehwe (Hg.), The Road from Mont Pelerin: The Making of the Neoliberal Thought Collective. Cambridge, MA: Harvard University Press, 2009; Wendy Brown, Undoing the Demos: Neoliberalism’s Stealth Revolution. New York: Zone Books, 2015; David Jacobs, Lindsey Myers, »Union Strength, Neoliberalism, and Inequality: Contingent Political Analyses of US Income Differences since 1950«, American Sociological Review 79 (2014). S. 752–74; Angus Burgin, The Great Persuasion: Reinventing Free Markets since the Depression. Cambridge, MA: Harvard University Press, 2012; Greta R. Krippner, Capitalizing on Crisis: The Political Origins of the Rise of Finance. Cambridge, MA: Harvard University Press, 2011. 21 Stedman Jones, Masters of the Universe. S. 215. Siehe dazu auch Krippner, Capitalizing on Crisis. 22 Mirowski, Dardot & Laval und Stedman-Jones bieten jeweils detaillierte Schilderungen dieser Entwicklungen. 23

Friedrich A. von Hayek, Die verhängnisvolle Anmaßung: Die Irrtümer des Sozialismus. Tübingen: Mohr Siebeck, 2011. S. 13. 24 Mirowski, Never Let a Serious Crisis Go to Waste, S. 3–67. 25 Michael C. Jensen, William H. Meckling, »Theory of the Firm: Managerial Behavior, Agency Costs and Ownership Structure«, Journal of Financial Economics 3:4 (1976). S. 12. 26 Krippner, Capitalizing on Crisis. 27 Karl Polanyi, The Great Transformation. Politische und ökonomische Ursprünge von Gesellschaften und Wirtschaftssystemen. Frankfurt: Suhrkamp, 1978. S. 112. 28 Martin J. Sklar, The United States as a Developing Country: Studies in U. S. History in the Progressive Era and the 1920s. Cambridge: Cambridge University Press, 1992. 29 Sanford M. Jacoby, Modern Manors: Welfare Capitalism Since the New Deal. Princeton, NJ: Princeton University Press, 1998; Michael Alan Bernstein, The Great Depression: Delayed Recovery and Economic Change in America, 1929‒1939. Cambridge, MA: Harvard University Press, 1987. 30 C. Goldin, R. A. Margo, »The Great Compression: The Wage Structure in the United States at Mid-century«, Quarterly Journal of Economics 107:1 (1992). S. 1–34; Edwin Amenta, »Redefining the New Deal«, in Theda Skocpol, Margaret Weir, Ann Shola Orloff (Hg.), The Politics of Social Policy in the United States. Princeton, NJ: Princeton University Press, 1988. S. 81–122. 31

Ian Gough, Anis Ahmad Dani, Harjan de Haan, »European Welfare States: Explanations and Lessons for Developing Countries«, in Inclusive States: Social Policies and Structural Inequalities. Washington, DC: World Bank, 2008; Peter Baldwin, The Politics of Social Solidarity: Class Bases of the European Welfare State, 1875‒ 1975. Cambridge: Cambridge University Press, 1990; John Kenneth Galbraith, The New Industrial State. Princeton, NJ: Princeton University Press, 1967; Gerald Davis, »The Twilight of the Berle and Means Corporation«, Seattle University Law Review 34:4 (2011). S.  1121–1138; Alfred Dupont Chandler, Essential Alfred Chandler: Essays Toward a Historical Theory of Big Business. Boston: Harvard Business School Press, 1988. 32 Stedman-Jones, Masters of the Universe. S. 217. 33 Siehe zum Beispiel Vivien A. Schmidt, Mark Thatcher (Hg.), Resilient Liberalism in Europe’s Political Economy. Cambridge: Cambridge University Press, 2013; Kathleen Thelen, Varieties of Liberalization and the New Politics of Social Solidarity. Cambridge: Cambridge University Press, 2014; Peter Kingstone, The Political Economy of Latin America: Reflections on Neoliberalism and Development. London, New York: Routledge, 2010; Jeffry Frieden, Manuel Pastor, Jr., Michael Tomz, Modern Political Economy and Latin America: Theory and Policy. Boulder, CO: Westview, 2000; Giuliano Bonoli, David Natali, The Politics of the New Welfare State. Oxford: Oxford University Press, 2012; Richard Münch, Inclusion and Exclusion in the Liberal Competition State: The Cult of the Individual. New York: Routledge, 2012, http://site.ebrary.com/id/10589064; Kyung-Sup Chang, Developmental Politics in Transition: The Neoliberal Era and Beyond. Basingstoke: Palgrave Macmillan, 2012; Zsuzsa Ferge, »The Changed Welfare Paradigm: The Individualization of the Social«, Social Policy & Administration 31:1 (1997). S. 20–44. 34

Gerald F. Davis, Managed by the Markets: How Finance Re-shaped America. Oxford: Oxford University Press, 2011; Davis, »The Twilight of the Berle and Means Corporation«; Özgür Orhangazi, »Financialisation and Capital Accumulation in the Non-financial Corporate Sector: A Theoretical and Empirical Investigation on the US Economy: 1973–2003«, Cambridge Journal of Economics 32:6 (2008). S. 863–886; William Lazonick, »The Financialization of the U. S. Corporation: What Has Been Lost, and How It Can Be Regained«, conference paper, The Future of Financial and Securities Markets (Fourth Annual Symposium of the Adolf A. Berle, Jr. Center for Corporations, Law and Society of the Seattle School of Law, London, 2012); Yuri Biondi, »The Governance and Disclosure of the Firm as an Enterprise Entity«, Seattle University Law Review 36:2 (2013). S. 391–416; Robert Reich, »Obama’s Transition Economic Advisory Board: The Full List«, US News & World Report, 7. November 2008, http://www.usnews.com/news/campaign-20 08/articles/2008/11/07/obamas-transition-economic-advisory-boardthe-full-listn; Robert B. Reich, Beyond Outrage: What Has Gone Wrong with Our Economy and Our Democracy, and How to Fix It. New York: Vintage, 2012. 35 Michael Jensen, »Eclipse of the Public Corporation«, Harvard Business Review, September-Oktober 1989. 36 Michael Jensen, »Value maximization, stakeholder theory, and the corporate objective function«, Business Ethics Quarterly 12:2 (2002). S. 235–256. 37

Thomas I. Palley, »Financialization: What It Is and Why It Matters«, white paper, Levy Economics Insititute of Bard College, 2007, http://www.levyinstitute.org/pubs/wp_525.pdf; Jon Hanson, Ronald Chen, »The Illusion of Law: The Legitimating Schemas of Modern Policy and Corporate Law«, Michigan Law Review, 103:1 (2004). S.  1–149; Henry Hansmann, Reinier Kraakman, »The End of History for Corporate Law« (working paper, Discussion Paper Series, Harvard Law School’s John M. Olin Center for Law, Economics and Business, 2000), https://lsr.nellco.org/cgi/viewcontent.cgi? referer=&httpsredir=1&article=1068&context=harvard_olin. 38 Davis, »The Twilight of the Berle and Means Corporation«, 1131. 39 Gerald F. Davis, »After the Corporation«, Politics & Society 41:2 (2013). S. 41. 40 Juta Kawalerowicz, Michael Biggs, »Anarchy in the UK: Economic Deprivation, Social Disorganization, and Political Grievances in the London Riot of 2011«, Social Forces 94:2 (2015). S. 673–698, https://doi.org/10.1093/sf/sov052. 41 Paul Lewis u. a., »Reading the Riots: Investigating England’s Summer of Disorder«. London School of Economics and Political Science, 2011, http://eprints.lse.ac.uk/46297/. 42 Saskia Sassen, »Why Riot Now?: Malaise among Britain’s Urban Poor Is Nothing New. So Why Did It Finally Tip into Widespread, Terrifying Violence?«, Daily Beast, 15. August 2011, http://www.donestech.net/ca/why_riot_now_by_saskia_sassen_news week. 43 Lewis u. a., »Reading the Riots«, S. 25. 44

Siehe über Lewis u. a., »Reading the Riots« hinaus auch: Kawalerowicz und Biggs, »Anarchy in the UK«; James Treadwell u.  a., »Shopocalypse NowConsumer Culture and the English Riots of 2011«, The British Journal of Criminology 53:1 (2013). S. 1–17, https://doi.org/10.1093/bjc/azs054; Tom Slater, »From ›criminality‹ to marginality: rioting against a broken state«, Human Geography 4:3 (2011). S. 106–115. 45 Thomas Piketty, Das Kapital im 21. Jahrhundert. München: C. H. Beck, 2014. Die akkumulierten Einkommensdaten mehrerer Jahrzehnte brachten Piketty zu der Erkenntnis, dass die Einkommensungleichheit in den USA und Großbritannien ein Ausmaß erreicht hatte wie seit dem 19. Jahrhundert nicht mehr. Das oberste Dezil amerikanischer Lohnempfänger erhöhte seinen Anteil am Nationaleinkommen von 35 % in den 1980er-Jahren auf über 46  % 2010. Der Löwenanteil daran geht auf das Konto der obersten 1 %, deren Anteil von 9 % auf 20 % stieg, und davon wiederum etwa die Hälfte auf die obersten 0,1 %. Piketty zufolge handelt es sich bei 60– 70 % der obersten 0,1 % der Einkommenshierarchie um Manager, denen es dank neuer Anreize für die Wertmaximierung gelingt, »Vergütungen zu erzielen, wie die Geschichte sie nie gekannt hat«. (S. 397) 46 Allgemein zum Thema der herausragenden Rolle demokratisch orientierter sozialer, politischer und wirtschaftlicher Institutionen bei der Linderung ökonomischer Folgen siehe Daron Acemoglus und James Robinsons Monumentalwerk Warum Nationen scheitern: Die Ursprünge von Macht, Wohlstand und Armut. Frankfurt: S. Fischer Verlag, 2013. Mit dem Thema beschäftigt sich auch Robert Reichs Arbeit über Ungleichheit und regressive Wirtschaftspolitik (2011). Siehe darüber hinaus Michael Stolleis, History of Social Law in Germany. Heidelberg: Springer, 2014, https://www.springer.com/de/book/9783642384530; Mark Hendrickson, American Labor and Economic Citizenship: New Capitalism from World War I to the Great Depression. Cambridge:

Cambridge University Press, 2013; Duane Swank, »The Political Sources of Labor Market Dualism in Postindustrial Democracies, 1975–2011« (American Political Science Association Annual Meeting, Chicago, 2013); Emin Dinlersoz, Jeremy Greenwood, »The Rise and Fall of Unions in the U. S.« (NBER working paper, US Census Bureau, 2012), http://www.nber.org/papers/w18079; Basak Kus, »Financialization and Income Inequality in OECD Nations: 1995–2007«, Economic and Social Review 43:4 (2012). S. 477–495; Viki Nellas, Elisabetta Olivieri, »The Change of Job Opportunities: The Role of Computerization and Institutions« (Quaderni DSE Arbeitspapier, University of Bologna & Bank of Italy, 2012), https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1983214; Gough, Dani, de Haan, »European Welfare States: Explanations and Lessons for Developing Countries«; Landon R. Y. Storrs, Civilizing Capitalism: The National Consumers’ League, Women’s Activism, and Labor Standards in the New Deal Era. Chapel Hill, NC: University of North Carolina Press, 2000; Ferge, »The Changed Welfare Paradigm: The Individualization of the Social«; Jacoby, Modern Manors; Sklar, The United States as a Developing Country; J. Bradford De Long, Barry Eichengreen, »The Marshall Plan: History’s Most Successful Structural Adjustment Program«, in Rüdiger Dornbusch Post-World War II Economic Reconstruction and Its Lessons for Eastern Europe Today. Cambridge, MA: MIT Press, 1991; Baldwin, The Politics of Social Solidarity; Skocpol, »Redefining the New Deal«; Robert H. Wiebe, The Search for Order: 1877‒1920. New York: Hill and Wang, 1967; »Economic Possibilities for Our Grandchildren«, in Essays in Persuasion. New York: W. W. Norton, 1930. 2014 kam ein Bericht von Standard & Poor’s zu dem Schluss, dass Einkommensungleichheit das Wirtschaftswachstum behindert und das soziale Gefüge destabilisiert, ein Umstand, dem bereits lange zuvor Henry Ford mit seinem 5Dollar-Tag Rechnung trug. (»How Increasing Income Inequality Is Dampening US Economic Growth, and Possible Ways to Change the Tide«, S&P Capital IQ, Global Credit Portal Report, 5. August 2014). 47 »Die Große Rezession von 2008«, so die Folgerung eines

»Die Große Rezession von 2008«, so die Folgerung eines amerikanischen Ökonomen, »machte endgültig Schluss mit der Illusion wirtschaftlichen Wachstums und legte stattdessen das Wesen der Leistung des Finanzkapitalismus bloß: Eine Einkommensstagnation seit der Mitte der 1970er-Jahre für die Mehrheit steht einer ungeheuren Konzentration von Wohlstand für eine winzige Minderheit gegenüber.« Josh Bivens, »In 2013, Workers’ Share of Income in the Corporate Sector Fell to Its Lowest Point Since 1950«, Economic Policy Institute, 4. September 2014, http://www.epi.org/publication/2013-workers-share-incomecorporate-sector. Studien über die finanzielle Vertiefung – Liberalisierung, Finanzialisierung – sowohl in Entwicklungs- als auch in weniger entwickelten Ländern zeigen, dass sie mit neuen Instabilitäten verbunden ist, so etwa Konkursen, Bankpleiten, extremer Volatilität von Vermögenswerten und Rezessionen in den realen Wirtschaftssektoren. Siehe Malcolm Sawyer, »Financial Development, Financialisation and Economic Growth« (Arbeitspapier, Financialisation, Economy, Society & Sustainable Development Project, 2014), http://fessud.eu/wpcontent/uploads/2013/04/Financialisation-and-growth-Sawyerworking-paper-21.pdf. Siehe auch »How Increasing Income Inequality Is Dampening US Economic Growth, and Possible Ways to Change the Tide – S&P Capital IQ«, Global Credit Portal Report, 5. August 2014 https://www.globalcredit portal.com/ratingsdirect/renderArticle.do? articleId=1351366&SctArtId=255732&fr om=CM&nsl_code=LIME&sourceObjectId=8741033&sourceRevId =1&fee_ind=N&exp_date=20240804-19:41:13; William A. Galston, »The New Challenge to Market Democracies: The Political and Social Costs of Economic Stagnation« (research report, Brookings Institution, 2014), http://www.brookings.edu/research/reports2/2014/10/new-challengemarket-democracies; Joseph E. Stiglitz, The Price of Inequality: How Today’s Divided Society Endangers Our Future. New York: Norton, 2012); James K. Galbraith, Inequality and Instability: A Study of the World Economy Just Before the Great Crisis. New York: Oxford University Press, 2012; Ronald Dore, »Financialization of the Global

University Press, 2012; Ronald Dore, »Financialization of the Global Economy«, Industrial and Corporate Change 17:6 (2008). S. 1097– 1112; Philip Arestis, Howard Stein, »An Institutional Perspective to Finance and Development as an Alternative to Financial Liberalisation«, International Review of Applied Economics 19:4 (2005). S. 381–398; Asli Demirguc-Kunt, Enrica Detragiache, »The Determinants of Banking Crises in Developing and Developed Countries«, Staff Papers – International Monetary Fund 45:1 (1998). S. 81–109. 48 Pavlina R. Tcherneva, »Reorienting Fiscal Policy: A Bottom-Up Approach«, Journal of Post Keynesian Economics 37:1 (2014). S. 57. Siehe dazu außerdem Francisco Rodriguez und Arjun Jayadev, »The Declining Labor Share of Income«, Journal of Globalization and Development 3:2 (2013). S. 1–18; Olivier Giovannoni, »What Do We Know About the Labor Share and the Profit Share? Part III: Measures and Structural Factors« (Arbeitspapier, Levy Economics Institute at Bard College, 2014), http://www.levyinstitute.org/publications/whatdo-we-know-about-the-labor-share-and-the-profit-share-part-3measures-and-structural-factors; Dirk Antonczyk, Thomas DeLeire, Bernd Fitzenberger, »Polarization and Rising Wage Inequality: Comparing the U. S. and Germany« (IZA discussion papers, Institute for the Study of Labor, März 2010), https://ideas.repec.org/p/iza/izadps/dp4842.html; Swank, »The Political Sources of Labor Market Dualism«; David Jacobs, Lindsey Myers, »Union Strength, Neoliberalism, and Inequality: Contingent Political Analyses of US Income Differences Since 1950«, American Sociological Review 79 (2014). S. 752–774; Nellas, Olivieri, »The Change of Job Opportunities«; Gough, Dani, de Haan, »European Welfare States: Explanations and Lessons for Developing Countries«. 49 Jonathan D. Ostry, »Neoliberalism: Oversold?«, Finance & Development 53:2 (2016). S. 38–41. 50

Emanuele Ferragina, Mark Tomlinson, Robert Walker, »Poverty, Participation and Choice«, Joseph Rowntree Foundation, 28. Mai 2013, https://www.jrf.org.uk/report/poverty-participation-and-choice. 51 Helen Kersley u. a., »Raising the Benchmark: The Role of Public Services in Tackling the Squeeze on Pay«, https://www.unison.org.uk/content/uploads/2013/12/On-line-Catalo gue219732.pdf. 52 Sally Gainsbury, Sarah Neville, »Austerity’s £18bn Impact on Local Services«, Financial Times, 19. Juli 2015, https://www.ft.com/content/5fcbd0c4-294811e5-8db8-c033edba8a6e. 53 Carmen DeNavas-Walt, Bernadette D. Proctor, »Income and Poverty in the United States: 2014«, US Census Bureau, September 2015, https://www.census.gov/content/dam/Census/library/publications/201 5/demo/p60-252.pdf; Thomas Gabe, »Poverty in the United States: 2013«, Federal Publications,25. September 2014, http://digitalcommons.ilr.cornell.edu/key_workplace/1329. 54 Alisha Coleman-Jensen, Mark Nord, Anita Singh, »Household Food Security in the United States in 2012« (economic research report, US Department of Agriculture, September 2013), https://www.ers.usda.gov/webdocs/publications/45129/39937_err155.pdf?v=42199. 55 Piketty, Das Kapital im 21. Jahrhundert. S. 46, 468. Siehe dazu auch Theda Skocpol, Vanessa Williamson, The Tea Party and the Remaking of Republican Conservatism. New York: Oxford University Press, 2016; Naomi Oreskes, Erik M. Conway, Merchants of Doubt: How a Handful of Scientists Obscured the Truth on Issues from Tobacco Smoke to Global Warming. London: Bloomsbury, 2010.

56 Nicholas Confessore, »The Families Funding the 2016 Presidential Election«, New York Times, 10. Oktober 2015, https://www.nytimes.com/interactive/2015/10/11/us/politics/2016-pre sidential-election-super-pac-donors.html. 57 Die Historikerin Nancy MacLean und die Journalistin Jane Mayer dokumentieren versteckte Operationen rechtsradikaler Ideologen und ihre milliardenschweren Geldgeber, denen für die Manipulation von Politik und Öffentlichkeit unbegrenzte Mittel zur Verfügung stehen, wobei sie sich auf geheime Netze von Denkfabriken, Spendenorganisationen und Medien stützen, um die Bürger unter Ausnutzung ihrer Ängste dem Rechtsextremismus in die Arme zu treiben. Siehe Nancy MacLean, Democracy in Chains: The Deep History of the Radical Right’s Stealth Plan for America. New York: Viking, 2017; Jane Mayer, Dark Money: The Hidden History of the Billionaires Behind the Rise of the Radical Right. New York: Anchor, 2017. 58 Piketty, Das Kapital im 21. Jahrhundert, S. 785. 59 Milan Zafirovski, » ›Neo-Feudalism‹ in America? Conservatism in Relation to European Feudalism«, International Review of Sociology 17:3 (2007). S. 393–427, https://doi.org/10.1080/03906700701574323; Alain Supiot, »The Public–private Relation in the Context of Today’s Refeudalization«, International Journal of Constitutional Law 11:1 (2013). S. 129–145, https://doi.org/10.1093/icon/mos050; Daniel J. H. Greenwood, »Neofeudalism: The Surprising Foundations of Corporate Constitutional Rights«, University of Illinois Law Review (2017). S.  163. 60 Piketty, Das Kapital im 21. Jahrhundert, S. 229, 500. 61

Eine ebenso prägnante wie überzeugende Studie der Thematik finden Sie in Carol Graham, Happiness for All?: Unequal Hopes and Lives in Pursuit of the American Dream. Princeton, NJ: Princeton University Press, 2017; David G. Blanchflower, Andrew Oswald, »Unhappiness and Pain in Modern America : A Review Essay, and Further Evidence, on Carol Graham’s ›Happiness for All?‹ «, Working Paper (NBER, November 2017). 62 Tim Newburn u. a., »David Cameron, the Queen and the Rioters’ Sense of Injustice«, Guardian, 5. Dezember 2011, http://www.theguardian.com/uk/2011/dec/05/cameron-queeninjustice-english-rioters. 63 Slater, »From ›Criminality‹ to Marginality«. 64 Todd Gitlin, Occupy Nation: The Roots, the Spirit, and the Promise of Occupy Wall Street. Harper Collins, 2012; Zeynep Tufekci, Twitter and Tear Gas: The Power and Fragility of Networked Protest. New Haven, CT: Yale University Press, 2017. Siehe auch Andrew Gavin Marshall, »World of Resistance Report: Davos Class Jittery Amid Growing Warnings of Global Unrest«, Occupy.com, 4. Juli 2014, http://www.occupy.com/article/world-resistance-report-davos-classjittery-amid-growing-warnings-global-unrest. 65 Todd Gitlin, »Occupy’s Predicament: The Moment and the Prospects for the Movement Occupy’s Predicament: The Moment and the Prospects for the Movement«, British Journal of Sociology 64:1 (2013). S. 3–25, https://onlinelibrary.wiley.com/toc/14684446/64/1. 66 https://www.opendemocracy.net/anthony-barnett/long-and-quick-ofrevolution. 67 Zygmunt Bauman, The Individualized Society. Cambridge: Polity Press, 2001.

68 Peter Wells, Paul Nieuwenhuis, »Transition Failure: Understanding Continuity in the Automotive Industry«, Technological Forecasting and Social Change 79:9 (2012). S. 1681–1692, https://doi.org/10.1016/j.techfore.2012.06.008. 69 Steven Levy, Google Inside: Wie Google denkt, arbeitet und unser Leben verändert. Heidelberg: mitp, 2012. S. 224. 70 Bobbie Johnson, »Privacy No Longer a Social Norm, Says Facebook Founder«, Guardian, 10. Januar 2010, https://www.theguardian.com/technology/2010/jan/11/facebookprivacy. 71 Charlene Li, »Close Encounter with Facebook Beacon«, Forrester – The Groundswell, 23. November 2007, https://web.archive.org/web/20071123023712/http://blogs.forrester.co m/charleneli/2007/11/close-encounter.html. 72 Peter Linzer, »Contract as Evil«, Hastings Law Journal 66 (2015). S.  971; Paul M. Schwartz, »Internet Privacy and the State«, Connecticut Law Review 32 (1999). S. 815–859; Daniel J. Solove, »Privacy SelfManagement and the Consent Dilemma«, Harvard Law Review 126:7 (2013). S. 1880–1904. 73

Yannis Bakos, Florencia Marotta-Wurgler, David R. Trossen, »Does Anyone Read the Fine Print? Consumer Attention to Standard-Form Contracts«, Journal of Legal Studies 43:1 (2014). S. 1–35, https://doi.org/10.1086/674424; Steinfeld, » ›I Agree to the Terms and Conditions‹ «; Tess Wilkinson-Ryan, »A Psychological Account of Consent to Fine Print«, Iowa Law Review 99 (2014). S. 1745; Thomas J. Maronick, »Do Consumers Read Terms of Service Agreements When Installing Software? A Two-Study Empirical Analysis«, International Journal of Business and Social Research 4:6 (2014). S.  137–145; Mark A. Lemley, »Terms of Use«, Minnesota Law Review 91 (2006), https://papers.ssrn.com/abstract=917926; Nili Steinfeld, » ›I Agree to the Terms and Conditions‹: (How) Do Users Read Privacy Policies Online? An Eye-Tracking Experiment«, Computers in Human Behavior 55 (Februar 1, 2016). S. 992–1000, https://doi.org/10.1016/j.chb.2015.09.038; Victoria C. Plaut, Robert P. Bartlett, »Blind Consent? A Social Psychological Investigation of Non-Readership of Click-Through Agreements«, Law and Human Behavior 36:4 (2011). S. 1–23, https://www.ncbi.nlm.nih.gov/pubmed/22849415. 74 Ewa Luger, Stuart Moran, Tom Rodden, »Consent for All: Revealing the Hidden Complexity of Terms and Conditions«, in Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, CHI ’13 (New York: ACM, 2013). S. 2687–2696, https://doi.org/10.1145/2470654.2481371. 75 Debra Cassens Weiss, »Chief Justice Roberts Admits He Doesn’t Read the Computer Fine Print«, ABA Journal, 20. Oktober 2010, http://www.abajournal.com/news/article/chief_justice_roberts_admits _he_doesnt_read_the_computer_fine_print/. 76 Margaret Jane Radin, Boilerplate: The Fine Print, Vanishing Rights, and the Rule of Law. Princeton, NJ: Princeton University Press, 2012. S. 14.

77 Ebd. S. 16f. 78 Nancy S. Kim, Wrap Contracts: Foundations and Ramifications. Oxford: Oxford University Press, 2013. S. 50–69. 79 Jon Leibowitz, Introductory Remarks at the FTC Privacy Roundtable, 7. Dezember 2009. https://www.ftc.gov/sites/default/files/documents/public_statements/i ntroductory-remarks-ftc-privacyroundtable/091207privacyremarks.pdf. 80 Aleecia M. McDonald, Lorrie Faith Cranor, »The Cost of Reading Privacy Policies«, 2008, http://hdl.handle.net/1811/72839. 81 Kim, Wrap Contracts. S. 70ff. 82 Ein Beispiel für diese Rhetorik finden Sie bei Tom Hayes, »America Needs a Department of ›Creative Destruction‹ «, Huffington Post, 27. Oktober 2011, https://www.huffingtonpost.com/tom-hayes/americaneeds-a-departmen_b_1033573.html. 83 Joseph A. Schumpeter, Kapitalismus, Sozialismus und Demokratie. Bern: Francke, 1945. S. 115. 84 Ebd. S. 136. 85 Joseph A. Schumpeter, The Economics and Sociology of Capitalism. Princeton: Princeton University Press, 1991. S. 412. 86 Schumpeter, Kapitalismus, Sozialismus und Demokratie, S. 137. 87

Yochai Benkler, The Wealth of Networks: How Social Production Transforms Markets and Freedom. New Haven, CT: Yale University Press, 2006. Yochai Benkler beschreibt hier, auf welche Weise die digitale Welt die Chancen des Einzelnen auf Autonomie und Freiheit vergrößert. Zunächst verbessert sie seine Möglichkeiten, mehr für sich selbst zu tun, dann ermöglicht sie eine »lockere Gemeinschaftlichkeit« mit anderen ohne die Zwänge eines Marktes oder hierarchischer Beziehungen und schließlich erweitert sie die »praktische Freiheit« zu kollektivem Handeln, die wiederum der »praktizierten Erfahrung von Demokratie, Gerechtigkeit und Entwicklung, einer kritischen Kultur und der Gemeinschaft zugute kommt«. Das Neue an der vernetzten Umwelt, so Benklers Schluss, seien »die Effektivität und Zentralität individuellen und kollektiven sozialen Handelns«. S. 8f., 22. (Das Buch liegt im Rahmen einer Creative-Commons-Licence kostenlos unter www.benkler.org/Benkler_Wealth_Of_Networks.pdf zum Download bereit.) 88 Tom Worden, »Spain’s Economic Woes Force a Change in Traditional Holiday Habits«, Guardian, 8. August 2011, http://www.theguardian.com/world/2011/aug/08/spain-debt-crisiseconomy-august-economy. 89 Suzanne Daley, »On Its Own, Europe Backs Web Privacy Fights«, New York Times, 9. August 2011, http://www.nytimes.com/2011/08/10/world/europe/10spain.html. 90 Ankit Singla u. a., »The Internet at the Speed of Light«, Proceedings of the 13th ACM Workshop on Hot Topics in Networks. New York: ACM Press, 2014. S. 1–7, https://doi.org/10.1145/2670518.2673876; Taylor Hatmaker, »There Could Soon Be Wi-Fi That Moves at the Speed of Light«, Daily Dot, 14. Juli 2014, https://www.dailydot.com/debug/sisoft-li-fi-vlc-10gbps/. 91

»Google Spain SL v. Agencia Española de Protección de Datos (Case C-131/12 [13. Mai 2014])«, Harvard Law Review 128:2 (2014). S.  735. 92 https://www.telemedicus.info/urteile/Datenschutzrecht/1473-EuGHAz-C-13112-Google-Spain-..-AEPD.html. 93 Paul M. Schwartz, Karl-Nikolaus Peifer, »Transatlantic Data Privacy«, Georgetown Law Journal 106:115 (2017). S. 131, https://papers.ssrn.com/abstract=3066971. Unter den zahlreichen hervorragenden Analysen des Rechts auf Vergessenwerden sind zu erwähnen: Dawn Nunziato, »Forget About It? Harmonizing European and American Protections for Privacy, Free Speech, and Due Process«, Research Paper, GWU Law School Public Law Research Paper (George Washington University, 1. Januar 2015), http://scho larship.law.gwu.edu/faculty_publications/1295; Jeffrey Rosen, »The Right to Be Forgotten«, Stanford Law Review Online 64 (2012). S.  88; EPIC, »The Right to Be Forgotten (Google v. Spain)«, EPIC.org, 30. Oktober 2016, https://epic.org/privacy/right-to-be-forgotten/; Ambrose Jones, Meg Leta, Jef Ausloos, »The Right to Be Forgotten Across the Pond«, Journal of Information Policy 3 (2012). S. 123; »The Right to Be Forgotten in the Internet Era«, http://www.researchgate.net/publication/256039959_The_Right_to_B e_Forgotten_in_the_Internet_Era; Franz Werro, »The Right to Inform v. The Right to Be Forgotten: A Transatlantic Clash«, in Aurelia Colombi Ciacchi u. a. (Hg.), Liability in the Third Millennium (Baden-Baden: Nomos, 2009). S. 285–300; »Google Spain SL v. Agencia Española de Protección de Datos«. Einen umfassenden Überblick bietet Anita L. Allen, Marc Rotenberg, Privacy Law and Society. St. Paul, MN: West Academic Publishing, 2016. S, 1520– 1552. 94

Gerichtshof der Europäischen Union, Pressemitteilung Nr. 70/14. Luxemburg, den 13. Mai 2014. Urteil in der Rechtssache C-131/12 Google Spain SL, Google Inc. / Agencia Española de Protección de Datos, Mario Costeja González; https://curia.europa.eu/jcms/upload/docs/application/pdf/201405/cp140070en.pdf. 95 Federico Fabbrini, »The EU Charter of Fundamental Rights and the Rights to Data Privacy: The EU Court of Justice as a Human Rights Court«, iCourts – The Danish National Research Foundation’s Center of Excellence for International Courts, Sybe de Vries (Hg.), Five Years of Legally Binding Charter of Fundamental Rights. Oxford: Hart Publishing, 2015. S. 21f. 96 Ausgezeichnete Hintergrundinformationen über die »Redefreiheit« und den Ersten Verfassungszusatz (First Amendment) im »Cyberlaw« finden Sie in Anupam Chander and Uyên Lê, »The Free Speech Foundations of Cyberlaw«, UC Davis Legal Studies Research Paper Series, Research Paper No. 351, September 2013, School of Law, University of California, Davis. 97 Henry Blodget, »Hey, Europe, Forget The ›Right To Be Forgotten‹ – Your New Google Ruling Is Nuts!«, Business Insider, 14. Mai 2014, https://www.businessinsider.com.au/europe-google-ruling-2014-5. 98 Greg Sterling, »Google Co-Founder Sergey Brin: I Wish I Could Forget The ›Right To Be Forgotten‹ «, Search Engine Land, 28. Mai 2014, http://searchengineland.com/google-co-founder-brin-wishforget-right-forgotten-192648. 99 Richard Waters, »Google’s Larry Page Resists Secrecy but Accepts Privacy Concerns«, Financial Times, 30. Mai 2014, https://www.ft.com/content/f3b127ea-e708-11e3-88be-00144feabdc0.

100 James Vincent, »Google Chief Eric Schmidt Says ›Right to Be Forgotten‹ Ruling Has Got the Balance ›Wrong‹ «, Independent, 15. Mai 2014, http://www.independent.co.uk/life-style/gadgets-andtech/google-chief-eric-schmidt-says-right-to-be-forgotten-ruling-hasgot-the-balance-wrong-9377231.html. 101 Pete Brodnitz u. a., »Beyond the Beltway February 26‒27 Voter Poll«, Beyond the Beltway Insights Initiative, 27. Februar 2015. 102 Mary Madden, Lee Rainie, »Americans’ Attitudes About Privacy, Security and Surveillance«, PewResearchCenter, 20. Mai 2015, http://www.pewinternet.org/2015/05/20/americans-attitudes-aboutprivacy-security-and-surveillance. 103

Einer nationalen Umfrage von Software Advice zufolge halten 61 % aller Amerikaner die eine oder andere Version eines Rechts auf Vergessenwerden für nötig, 38 % wünschen sich ein absolutes Recht auf Vergessenwerden nach europäischem Muster, und fast die Hälfte äußert die Sorge, das »unwichtige« Suchergebnisse einer Person schaden könnten. Einer Umfrage von YouGov zufolge würden 55 % aller Amerikaner ein Gesetz nach dem Muster des Rechts auf Vergessenwerden unterstützen – gegenüber 14 %, die das nicht tun würden. Eine amerikanische Umfrage der Benenson Strategy Group und SKDKnickerbocker, die knapp ein Jahr nach der Entscheidung der EU erschien, fand heraus, dass 88 % aller Befragten »irgendwie« (36 %) oder »entschieden« (52 %) für ein amerikanisches Gesetz wären, auf dessen Basis sie Google, Yahoo und Bing auffordern könnten, gewisse persönliche Informationen von ihnen aus den Suchergebnissen zu löschen. Siehe dazu Daniel Humphries, »U. S. Attitudes Toward the ›Right to Be Forgotten‹ «, Software Advice, 5. September 2014, https://www.softwareadvice.com/security/industryview/right-to-beforgotten-2014. Jake Gammon, »Americans Would Support ›Right to Be Forgotten‹ «, YouGov, https://today.yougov.com/topics/lifestyle/articlesreports/2014/06/02/americans-would-support-right-be-forgotten. Mario Trujillo, »Public Wants ›Right to Be Forgotten‹ Online«, The Hill, 19. März 2015, http://thehill.com/policy/technology/236246poll-public-wants-right-to-be-forgotten-online. 104 Dr. Francis Collins, »Vaccine Research: New Tactics for Tackling HIV«, NIH Director’s Blog 30. Juni 2015, https://directorsblog.nih.gov/2015/06/30/vaccine-research-new-tac tics-for-tackling-hiv/; Liz Szabo, »Scientists Making Progress on AIDS Vaccine, but Slowly«, USA Today, 8. August 2012, http://www.thebodypro.com/content/68309/scientists-makingprogress-on-aids-vaccine-but-slo.html. 105 Collins, »Vaccine Research«.

106 Liz Szabo, »Scientists Making Progress on AIDS Vaccine, but Slowly«. 107 Madden, Rainie, »Americans’ Attitudes About Privacy, Security and Surveillance«.

3. Die Entdeckung des Verhaltensüberschusses 1 Siehe dazu David A. Hounshell, From the American System to Mass Production, 1800‒1932: The Development of Manufacturing Technology in the United States, 7. Auflage. Baltimore: Johns Hopkins University Press, 1997. 2 Siehe unter anderem Reinhard Bendix, Work and Authority in Industry: Ideologies of Management in the Course of Industrialization. Berkeley, CA: University of California Press, 1974. 3 David Farber, Sloan Rules: Alfred P. Sloan and the Triumph of General Motors. Chicago: University of Chicago Press, 2005; Henry Ford. Mein Leben und Werk. Leipzig: Paul List Verlag, 1923. 4 Chris Jay Hoofnagle, »Beyond Google and Evil: How policy-makers, journalists, and consumers should talk differently about Google and privacy«, First Monday 14:4 (2009), http://firstmonday.org/article/view/2326/2156. 5

Wie wir das ganze Buch über sehen werden, predigen Googles führende Köpfe ganz öffentlich ihre Annahmen wie ihre Weltsicht, äußern sich zu ihren Ambitionen und Entdeckungen, konzeptualisieren ihre Praktiken und verorten ihr Werk in ihrer eigenen einzigartigen Interpretation von Kapitalismus, Politik und gesellschaftlicher Evolution. Googles Blogs und Newsletters sorgen für einen steten Strom von Informationen über sein stetig wachsendes Universum aus Tools, Praktiken und Leitsätzen. Die Gründer Larry Page und Sergey Brin äußern sich gelegentlich im Rahmen von Vorträgen oder Interviews und geben so Einblicke in ihre Werte und Ambitionen. Am öftesten stellt Eric Schmidt sich der Öffentlichkeit, sei es als Autor von Büchern über Unternehmenspolitik und Visionen des Unternehmens, sei es als gefragter Vortragsredner. Siehe dazu Conor Dougherty, »Try to Interview Google’s Co-Founder. It’s Emasculating«, New York Times, 27. Januar 2016, http://www.nytimes.com/2016/01/27/insider/try-to-interviewgoogles-chief-executive-its-emasculating.html. 6 Reed Albergotti u. a., »Employee Lawsuit Accuses Google of ›Spying Program‹ «, Information, 20. Dezember 2016, https://www.theinformation.com/employee-lawsuit-accuses-googleof-spying-program. 7 Steven Levy, Google Inside. Wie Google denkt, arbeitet und unser Leben verändert. Heidelberg: mitp, 2012; Hal R. Varian, »Biography of Hal R. Varian«, UC Berkeley School of Information Management & Systems, 3. Oktober 2017, http://people.ischool.berkeley.edu/~hal/people/hal/biography.html; »Economics According to Google«, Wall Street Journal, 19. Juli 2007, http://blogs.wsj.com/economics/2007/07/19/economicsaccording-to-google; Steven Levy, »Secret of Googlenomics: DataFueled Recipe Brews Profitability«, Wired, 22. Mai 2009, https://www.wired.com/2009/05/nep-googlenomics/; Hal R. Varian, »Beyond Big Data«, Business Economics 49:1 (2014). S. 27–31. Auch wenn man darauf hinweisen sollte, dass Varian nicht eigentlich

zu den Managern des Unternehmens gehört, so gibt es genügend Hinweise darauf, dass er eine entscheidende Rolle dabei gespielt hat, Googles Führungsriege sowohl beim Verständnis ihrer Operationen und der Implikationen ihrer geschäftlichen Logik als auch bei deren Entwicklung zu helfen. Ich vergleiche Varians Einsichten mit denen von Fords Geschäftsführer James Couzens. Couzens war Investor und Geschäftsmann und lenkte Fords spektakulären Erfolg mit einem klaren Verständnis für die Logik der neuen Massenproduktion und ihrer ökonomischen Bedeutung. Weder war er Theoretiker, noch war er als Autor so produktiv wie Varian, aber seine Korrespondenz und seine Artikel zeigen einen ganz außergewöhnlichen Einblick und sind bis heute eine wichtige Quelle für jeden, der sich wissenschaftlich mit der Massenproduktion beschäftigt. Varian war mehrere Jahre Berater bei Google, bevor er 2007 Chefökonom des Unternehmens wurde. In seinen biografischen Materialien heißt es: »Seit 2002 ist er in zahlreichen Aspekten des Unternehmens involviert, so etwa der Entwicklung des Versteigerungsprinzips, der ökonometrischen Analyse, in den Bereichen Finanzen, Grundsatzplanung und Unternehmenspolitik.« Als das Wall Street Journal 2007 über Varians neuen Posten berichtete, hieß es in der Meldung, seine Position beinhalte den Aufbau »eines Teams von Ökonomen, Statistikern und Analysten, das die Firma in den Bereichen ›Marketing, Personalpolitik, Strategie und bei der Unternehmenspolitik‹ unterstützen« solle. In seinem Buch über Google zitiert Steven Levy Eric Schmidts Überlegungen darüber, wie das Unternehmen seine neue »Klick-Ökonomie« ausbeuten könnte: »Wir haben Hal Varian und wir haben die Physiker.« In der hier von mir zitierten Arbeit illustriert Varian seine Argumente immer wieder mit Beispielen von Google. Immer wieder bedient er sich der ersten Person Plural, so etwa wenn er schreibt »Google war so erfolgreich mit unseren eigenen Experimenten, dass wir sie unseren Werbekunden und Verlegern in zwei Programmen zugänglich gemacht haben.« 8

Hal R. Varian, »Computer Mediated Transactions«, American Economic Review 100:2 (2010). S. 1–10, https://doi.org/10.1257/aer.100.2.1; Varian, »Beyond Big Data«. Beim ersten Artikel handelt es sich um den Text von Varians RichardT.-Ely-Lecture; im zweiten, der sich in weiten Teilen mit der ElyLecture deckt, geht es um rechnergestützte Transaktionen. 9 Varian, »Beyond Big Data«, S. 27. 10 »Machine Intelligence«, Research at Google, 2018. https://research.google.com/pubs/MachineIntelligence.html. 11 Ellen Meiksins Wood, The Origin of Capitalism: A Longer View. London, New York: Verso, 2002. S. 125. 12 Ebd. S. 76, 93. 13 Levy, Google Inside, 46; Jennifer Lee, »Postcards From Planet Google«, New York Times, 28. November 2002, https://www.nytimes.com/2002/11/28/technology/postcards-from-pla net-google.html. 14 Kenneth Cukier, »Data, Data Everywhere«, The Economist, 25. Februar 2010, http://www.economist.com/node/15557443. 15 Levy, Google Inside, S. 46ff. 16 »Google Receives $25 Million in Equity Funding«, Google News, 7. Juli 1999, http://googlepress.blogspot.com/1999/06/google-receives25-million-in-equity.html. 17 Hal R. Varian, »Big Data: New Tricks for Econometrics«, Journal of Economic Perspectives 28:2 (2014). S. 113. 18

Sergey Brin and Lawrence Page, »The Anatomy of a Large-Scale Hypertextual Web Search Engine«, Computer Networks and ISDN Systems 30:1–7 (1998). S. 18, http://snap.stanford.edu/class/cs224wreadings/Brin98Anatomy.pdf. 19 »NEC Selects Google to Provide Search Services on Japan’s Leading BIGLOBE Portal Site«, Google Press, 18. Dezember 2000, http://googlepress.blogspot.com/2000/12/nec-selects-google-toprovide-search.html; »Yahoo! Selects Google as Its Default Search Engine Provider«, Google Press, 26. Juni 2000, http://googlepress.blogspot.com/2000/06/yahoo-selects-google-as-itsdefault.html. 20 Ellen Meiksins Wood, Der Ursprung des Kapitalismus – Eine Spurensuche. Hamburg: Laika, 2015. S. 125. Es zeichneten sich bereits erste Konflikte mit dem Dienst an einer täglich zunehmenden Nutzerschaft und den Bedürfnissen dieser Portale ab. 21 Scarlet Pruitt, »Search Engines Sued over ›Pay-for-Placement‹ «, CNN.com, 4. Februar 2002, http://edition.cnn.com/2002/TECH/internet/02/04/search.engine.laws uit.idg/index.html. 22 Saul Hansell, »Google’s Toughest Search Is for a Business Model«, New York Times, 8. April 2002, http://www.nytimes.com/2002/04/08/business/google-s-toughestsearch-is-for-a-business-model.html. 23 Hansell, »Google’s Toughest Search«. 24 Elliot Zaret, »Can Google’s Search Engine Find Profits?«, ZDNet, 14. Juni 1999, http://www.zdnet.com/article/can-googles-search-enginefind-profits. 25

John Greenwald, »Doom Stalks the Internet«, Time, 17. April 2000. 26 Alex Berenson, Patrick McGeehan, »Amid the Stock Market’s Losses, A Sense the Game Has Changed«. New York Times, 16. April 2000, http://www.nytimes.com/2000/04/16/business/amid-the-stockmarket-s-losses-a-sense-the-game-has-changed.html; Laura Holson, Saul Hansell, »The Maniac Markets: The Making of a Market Bubble«, New York Times, 23. April 2000. 27 Ken Auletta, Googled: The End of the World as We Know It. New York: Penguin, 2010, Kindle-Version, Position 1105–1113. 28 Levy, Google Inside, S. 83. 29 Michael Ferrary, Mark Granovetter, »The Role of Venture Capital Firms in Silicon Valley’s Complex Innovation Network«, Economy and Society 38:2 (2009). S. 347f., https://doi.org/10.1080/03085140902786827. 30 Dave Valliere, Rein Peterson, »Inflating the Bubble: Examining DotCom Investor Behaviour«, Venture Capital 6:1 (2004). S. 1–22, https://doi.org/10.1080/1369106032000152452. 31

Valliere and Peterson, »Inflating the Bubble«. Siehe insbesondere die Schilderung auf S. 17f.. Siehe auch Udayan Gupta (Hg.), Done Deals: Venture Capitalists Tell Their Stories. Boston: Harvard Business School Press, 2000. S. 170f., 190. Junfu Zhang, »Access to Venture Capital and the Performance of Venture-Backed Start-Ups in Silicon Valley«, Economic Development Quarterly 21:2 (2007). S.  124–147. 12,5 % der ersten Generation risikokapitalgestützter Internet-Start-ups aus dem Silicon Valley hatten ihren Börsengang bis Ende 2001 vollzogen im Vergleich zu 7,3 % anderorts in den Staaten; nur 4,2 % der Silicon-Valley-Start-ups brachten es zur Rentabilität, ein signifikant geringerer Anteil als im Rest des Landes. Zhang, »Access«, S. 124–147. 32 Zhang, »Access«, S. 124–147. 33 Patricia Leigh Brown, »Teaching Johnny Values Where Money Is King«, New York Times, 10. März 2000, http://www.nytimes.com/2000/03/10/us/teaching-johnny-valueswhere-money-is-king.html. 34 Kara Swisher, »Dot-Com Bubble Has Burst; Will Things Worsen in 2001?«, Wall Street Journal, 19. Dezember 2000, http://www.wsj.com/articles/SB97709118336535099. 35 Humphreys, »Legalizing«. 36 Levy, Google Inside, S. 83ff. 37 Ebd. S. 86f. (Hervorhebung von mir) 38 Lee, »Postcards«. 39 Ebd. 40 Ebd. 41 Auletta, Googled. 42

Peter Coy. »The Secret To Google’s Success«, Bloomberg.com, 6. März 2006. http://www.bloomberg.com/news/articles/2006-0305/the-secret-to-googles-success (Hervorhebung von mir). 43 Zu einer beispielhaften Auswahl der während dieses Zeitraums von Google angemeldeten Patente siehe: Krishna Bharat, Stephen Lawrence, Mehran Sahami, Generating user information for use in targeted advertising, US9235849 B2, eingereicht am 31. Dezember 2003, erteilt am 12. Januar 2016, http://www.google.com/patents/US9235849; Jacob Samuels Burnim, System and method for targeting advertisements or other information using user geographical information, US7949714 B1, eingereicht am 5. Dezember 2005, erteilt am 24. Mai 2011, http://www.google.com/patents/US7949714; Alexander P. Carobus u.  a., Content-targeted advertising using collected user behavior data, US20140337128 A1, eingereicht am 25. Juli 2014, erteilt am 13. November 2014, http://www.google.com/patents/US20140337128; Jeffrey Dean, Georges Harik, Paul Bucheit, Methods and apparatus for serving relevant advertisements, US20040059708 A1, eingereicht am 6. Dezember 2002, erteilt am 25. März 2004, http://www.google.com/patents/US20040059708; Jeffrey Dean, Georges Harik, Paul Buchheit, Serving advertisements using information associated with e-mail, US20040059712 A1, eingereicht am 2. Juni 2003, erteilt am 25. März 2004, http://www.google.com/patents/US20040059712; Andrew Fikes, Ross Koningstein, John Bauer, System and method for automatically targeting web-based advertisements, US8041601 B2, erteilt am 18. Oktober 2011, http://www.google.com/patents/US8041601; Georges R. Harik, Generating information for online advertisements from internet data and traditional media data, US8438154 B2, eingereicht am 29. September 2003, erteilt am 7. Mai 2013, http://www.google.com/patents/US8438154; Georges R. Harik, Serving advertisements using a search of advertiser web information, US7647299 B2, eingereicht am 30. Juni 2003, erteilt 12. Januar 2010, http://www.google.com/patents/US7647299; Rob Kniaz, Abhinay Sharma Kai Chen Syndicated trackable ad content US7996777 B2

Sharma, Kai Chen, Syndicated trackable ad content, US7996777 B2, eingereicht am 9. August 2011, http://www.google.com/pa tents/US7996777; Method of delivery, targeting, and measuring advertising over networks, USRE44724 E1, eingereicht am 24. Mai 2000, erteilt am 21. Januar 2014, http://www.goo gle.com/patents/USRE44724. 44 Krishna Bharat, Stephen Lawrence, Mehran Sahami, Generating user information for use in targeted advertising. 45 Ebd. 46 Ebd. S. 1f. 47 Ebd. (Hervorhebung von mir). 48 Ebd. S. 10. 49 Ebd. S. 15. 50 Ebd. 51 Ebd. Abs. 4, 0032. 52 Ebd. Abs. 4, 0033 (Hervorhebung von mir). 53 Empirische Forschungen von Brandimarte, Acquisti und Loewenstein legen den Schluss nahe, dass Entscheidungsrechte bei den Einschätzungen der Nutzer die Privatsphäre betreffend ausschlaggebend sind. Siehe Laura Brandimarte, Alessandro Acquisti, George Loewenstein, »Misplaced Confidences: Privacy and the Control Paradox«, Social Psychological and Personality Science 4:3 (2010). S. 340–347. 54 Bharat, Lawrence, Sahami, S. 10, 13 (Hervorhebung von mir). 55

Bharat, Lawrence, Sahami, S. 11. Zur Liste der Attribute gehörten der Content (z. B. Begriffe, Ankertext usw.) vom Nutzer (auch innerhalb bestimmter Zeiträume) besuchter Websites; demografische Informationen; geografische Informationen; psychografische Merkmale; frühere Suchanfragen des Nutzers (und/oder damit verbundene Informationen); Informationen über Werbung, die man dem Nutzer zu einem früheren Zeitpunkt gezeigt, die er angeklickt und/oder bei denen er nach Ansicht Käufe getätigt hat; Informationen über Dokumente (z. B. Textverarbeitung), die der User angefordert, eingesehen und/oder bearbeitet hat; Nutzerinteressen; Browseraktivitäten; früheres Kaufverhalten. 56 Bharat, Lawrence, Sahami, S. 5. 57 Douglas Edwards, I’m Feeling Lucky, Boston: Houghton Mifflin Harcourt, 2011. S. 268. 58 Levy, In the Plex, S. 101. 59 Der Begriff wird in einem Videointerview mit Eric Schmidt und seinem Kollegen und Mitautor Jonathan Rosenberg diskutiert. Siehe Eric Schmidt und Jonathan Rosenberg, »How Google Works«, Interview mit dem Computer History Museum, 15. Oktober 2014, https://youtu.be/3tNpYpcU5s4?t=3287. 60 Siehe z. B. Edwards, I’m Feeling Lucky, S. 264–270. 61 Levy, In the Plex, S. 13, 32, 35, 105f. (Zitat auf S. 13); John Battelle, The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture. New York: Portfolio, 2006. S. 65f., 74, 82; Ken Auletta, Googled, Kindle-Version, Position 581, 696, 846. 62 Levy, In the Plex, S. 94. 63

Stephen Humphreys, »Legalizing Lawlessness: On Giorgio Agamben’s State of Exception«, European Journal of International Law 17:3 (2006). S. 677–687, https://doi.org/10.1093/ejil/chl020. 64 Michael Moritz, »Much Ventured, Much Gained« (interview), Foreign Affairs, Februar 2015, https://www.foreignaffairs.com/interviews/2014-12-15/muchventured-much-gained. 65 Hounshell, From the American System, S. 247f. 66 Ebd. S. 10. 67 Richard S. Tedlow, Giants of Enterprise: Seven Business Innovators and the Empires They Built. New York: HarperBusiness, 2003. S.  159f. 68 Donald Finlay Davis, Conspicuous Production: Automobiles and Elites in Detroit 1899‒1933. Philadelphia: Temple University Press, 1989. S. 122. 69 David M. Kristol, »HTTP Cookies: Standards, Privacy, and Politics«, ArXiv:Cs/0105018, 9. Mai 2001, http://arxiv.org/abs/cs/0105018. 70 Richard M. Smith, »The Web Bug FAQ«, Electronic Frontier Foundation, 11. November 1999, https://w2.eff.org/Privacy/Marketing/web_bug.html. 71 Kristol, »HTTP Cookies«, 9–16; rthieme, »Uncompromising Position: An Interview About Privacy with Richard Smith«, Thiemeworks, 2. Januar 2000, http://www.thiemeworks.com/aninterview-with-richard-smith/. 72 Kristol, »HTTP Cookies«, S. 13ff.

73 Siehe zum Beispiel Yale Robert Brown, Matthew Brown Walker, Online interactive system and method for providing content and advertising information to a targeted set of viewers, US6026368 A, eingereicht am 17. Juli 1995, erteilt am 15. Februar 2000, http://www.google.com/patents/US6026368; Michael J. Freeman, Method for providing targeted profile interactive CATV displays, US4602279 A, eingereicht am 21. März 1984, erteilt am 22. Juli 1986, http://www.google.com/patents/US4602279; Thomas A. Gerace, Method and apparatus for determining behavioral profile of a computer user, US5848396 A, eingereicht am 26. April 1996, erteilt am 8. Dezember 1998, http://www.google.com/patents/US5848396; A. Nathaniel Goldhaber, Gary Fitts, Attention brokerage, US5794210 A, eingereicht am 11. Dezember 1995, erteilt August 11, 1998, http://www.google.com/patents/US5794210; Frederick S. M. Herz, System and method for providing customized electronic newspapers and target advertisements, US6460036 B1, eingereicht am 5. Dezember 1997, erteilt am 1. Oktober 2002, http://www.goo gle.com/patents/US6460036; Ronald D. Keithley, Kevin L. Keithley, Apparatus and method for interactive communication for tracking and viewing data, US5584025 A, eingereicht am 12. April 1995, erteilt am 10. Dezember 1996, http://www.google.com/patents/US5584025; Michael A. Lazarus u.  a., System and method for optimal adaptive matching of users to most relevant entity and information in real-time, US6134532 A, eingereicht am 14. November 1997, erteilt am 17. Oktober 2000, http://www.google.com/patents/US6134532; Merriman, O’Connor, Method of delivery, targeting, and measuring advertising over networks, US5948061 A, eingereicht am 29. Oktober 1996, erteilt am 7. September 1999, https://patents.google.com/patent/US594 8061A/en; Andrew N. G. Saxe, Method and system for selectively targeting advertisements and programming, US5636346, eingereicht am 9. Mai 1994, erteilt am 3. Juni 1997, https://patentimages.storage.googleapis.com/pdfs/US5636346.pdf; David E. Wachob, Method and apparatus for providing demographically targeted television commercials, US5155591 A,

eingereicht am 23. Oktober 1989, erteilt am 13. Oktober 1992, http://www.google.com/patents/US5155591; Jeff K. Wilkins, Communication system and method with demographically or psychographically defined audiences, US5446919 A, eingereicht am 9. Oktober 1991, erteilt am 29. August 1995, http://www.google.com/patents/US5446919. 74 »Amendment No. 9 to Form S-1 Registration Statement Under the Securities Act of 1933 for Google Inc.«, Securities and Exchange Commission, 18. August 2004, https://www.sec.gov/Archives/edgar/data/1288776/000119312512025 336/d260164d10k.htm. 75 Henry Ford, »Mass Production«, Encyclopedia Britannica. New York, NY: Encyclopedia Britannica, 1926. S. 821, http://memory.loc.gov/cgi-bin/query/h?ammem/coolbib:@field( NUMBER+@band(amrlg+lg48)). 76 Levy, Google Inside, S. 91. 77 Edwards, I’m Feeling Lucky, S. 398. 78 John Battelle, Die Suche. Geschäftsleben und Kultur im Banne von Google & Co. Kulmbach: Börsenmedien AG, 2006. 79 Levy, Google Inside, S. 91. 80 Hansell, »Google’s Toughest Search«. 81 Markoff, Zachary. »In Searching the Web, Google Finds Riches«. 82 J. Douglas, »Dissenting Statement of Justice Douglas, J. Regarding Warden v. Hayden, 387 U. S. 294« (US Supreme Court, 12. April 1967), https://www.law.cornell.edu/supremecourt/text/387/294; Nita A. Farahany, »Searching Secrets«, University of Pennsylvania Law Review 160:5 (2012). S. 1271.

83 George Orwell, Politics and the English Language. Peterborough: Broadview Press, 2006. 84 Typisch ist diese Aussage aus dem Economist: »Google nutzt Informationen, die ein Nebenprodukt seiner Nutzerinteraktionen sind, Datenabgase, die automatisch wiederverwertet werden, um das Produkt zu verbessern oder eine gänzlich neue Dienstleistung zu schaffen.« »Clicking for Gold«, The Economist, 25. Februar 2010, http://www.economist.com/node/15557431. 85 Valliere, Peterson, »Inflating the Bubble«, S. 1–22. 86 Lev Grossman, »Exclusive: Inside Facebook’s Plan to Wire the World«, Time.com, Dezember 2015, http://time.com/facebook-worldplan. 87 David Kirkpatrick, The Facebook Effect: The Inside Story of the Company That Is Connecting the World. New York: Simon & Schuster, 2011. S. 257. 88 Ebd. S. 80; Auletta. Googled, S. 86. 89 Ebd. Position 3775–3781. 90 Kirkpatrick, The Facebook Effect, S. 266. 91

»Selected Financial Data for Alphabet Inc.«, Form 10-K, Commission File, United States Securities and Exchange Commission, 31. Dezember 2016, https://www.sec.gov/Archi ves/edgar/data/1652044/000165204417000008/goog10kq42016.htm#s58C60B74D56A630AD6EA2B64F53BD90C. Alphabets Bilanzen zufolge beliefen sich die Einkünfte des Unternehmens 2016 auf $90,272,000,000. Darin eingeschlossen waren »Google-Segment-Erträge von $89,5 Milliarden mit einem Wachstum von 20 % gegenüber dem Vorjahr sowie die Erträge von Other Bets von $0,8 Milliarden mit einem Wachstum von 82 % gegenüber dem Vorjahr«. Die Werbeeinkünfte im Google-Segment beliefen sich auf $79,383,000,000, das entsprach 88,73 % der Erträge des Google-Segments. 92 »Google Search Statistics – Internet Live Stats«, Internet Live Stats, 20. September 2017, http://www.internetlivestats.com/google-searchstatistics; Greg Sterling, »Data: Google Monthly Search Volume Dwarfs Rivals Because of Mobile Advantage«, Search Engine Land, 9. Februar 2017, http://searchengineland.com/data-google-monthlysearch-volume-dwarfs-rivals-mobile-advantage-269120. Was auf 76  % aller Desktopsuchen und 96 % aller Mobilsuchen in den USA hinauslief und entsprechenden Anteilen von 87 % und 95 % weltweit. Siehe »Desktop Search Engine Market Share in United States of America«, StatCounter Global Stats, 20. September 2017, http://gs.statcounter.com/search-engine-market-share/desktop/unitedstates-of-america; »Mobile Search Engine Market Share in United States of America«, StatCounter Global Stats, August 2017, http://gs.statcounter.com/search-engine-market-share/mobile/unitedstates-of-america; »Desktop Search Engine Market Share Worldwide, 8/16 to 8/17«, StatCounter Global Stats, 19. August 2017, http://gs.statcounter.com/search-engine-marketshare/desktop/worldwide; »Mobile Search Engine Market Share Worldwide, 8/16 to 8/17«, StatCounter Global Stats, August 2017, http://gs.statcounter.com/search-engine-marketshare/mobile/worldwide.

93 Roben Farzad, »Google at $400 Billion: A New No. 2 in Market Cap«, Bloomberg.com, 12.  Februar 2014, https://www.bloomberg.com/news/articles/2014-0212/google-at-400-billion-a-new-no-dot-2-in-market-cap. 94 »Largest Companies by Market Cap Today«, Dogs of the Dow, 2017, http://dogsofthedow.com/largest-companies-by-market-cap.htm. 95 Jean-Charles Rochet, Jean Tirole, »Two-Sided Markets: A Progress Report«, RAND Journal of Economics 37:3 (2006). S. 645–667. 96 Eine Diskussion dieses Sachverhalts und seiner Bezüge zur zielgerichteten Online-Werbung findet sich in Katherine J. Strandburg, »Free Fall: The Online Market’s Consumer Preference Disconnect« (working paper, New York University Law and Economics, 1. Oktober 2013). 97

Daniel Solove, »A Taxonomy of Privacy«, University of Pennsylvania Law Review 154:3 (2006). S. 477–560. In diesem bahnbrechenden Artikel bringt der Rechtswissenschaftler und Datenschutzexperte Daniel Solove das Rechtsdenken mit einer umfassenden Klassifizierung von Verletzungen der Privatsphäre auf den Stand des Informationszeitalters. Seiner Analyse zufolge fallen diese in vier breite Kategorien: »Informationssammlung« (Überwachung), »Informationsverarbeitung« (Sekundärverwendung, Ausgrenzung), »Informationsverbreitung« (Bloßstellung, Enteignung) und »Verletzungen« (Intimsphäre, Entscheidungsfreiheit). Soloves Ansicht nach ist die »Verletzung der Entscheidungsfreiheit« mit einem Eindringen vergleichbar, da »beide ein Eindringen in Bereiche beinhalten, von denen wir glauben, dass wir dort vor dem Eindringen anderer geschützt sein sollten. Während Eindringen ganz allgemein eine unerwünschte Einmischung in die Aktivitäten eines anderen beinhaltet, umfasst die Verletzung der Selbstbestimmung eine unerwünschte Einmischung« in Entscheidungen, die relevant für unser Privatleben sind. Die Logik des Überwachungskapitalismus durchzieht Soloves ganze Taxonomie; er beschreibt eine eng gestrickte Hierarchie von Schäden, in der jeder Satz von Verletzungen das Fundament für den nächsten legt. Letztendlich basiert diese Aneignung von Entscheidungsrechten auf einem sorgfältig konstruierten System von Verletzungen bei der Sammlung, Verarbeitung und Verbreitung von Daten, die nicht nur zu vereinzelten »Verletzungen der Entscheidungsfreiheit« führen, sondern auch zu einem systematischen Transfer informationeller Selbstbestimmung von den Bevölkerungen an die Überwachungskapitalisten. 98 Kelly, »The Three Breakthroughs«. 99

Xiaoliang Ling u. a., »Model Ensemble for Click Prediction in Bing Search Ads«, in Proceedings of the 26th International Conference on World Wide Web Companion. S. 689–698, https://doi.org/10.1145/3041021.3054192; als PDF abzurufen unter https://www.microsoft.com/en-us/research/publication/modelensemble-click-prediction-bing-search-ads/. 100 Ruoxi Wang u. a., »Deep & Cross Network for Ad Click Predictions«, ArXiv:1708.05123 Computer Science Learning, 16. August 2017, http://arxiv.org/abs/1708.05123.

4. Der Graben um die Burg 1 Steven Levy, »Secret of Googlenomics: Data-Fueled Recipe Brews Profitability«, Wired, 22. Mai 2009, https://www.wired.com/2009/05/nep-googlenomics/. 2 Edwards, I’m Feeling Lucky, S. 339. 3 Polanyi, The Great Transformation. 4 Karl Marx, Das Kapital: Kritik der politischen Ökonomie. Karl Marx, Friedrich Engels, Werke, Bd. 23. Berlin: Dietz, 1962. S. 777ff. 5 Hannah Arendt, Elemente und Ursprünge totaler Herrschaft. München: Piper, 2006. S. 335. 6 Michael J. Sandel, Was man für Geld nicht kaufen kann: Die moralischen Probleme des Marktes. Berlin: Ullstein, 2012. 7 David Harvey, Der neue Imperialismus. Hamburg: VSA, 2005. S.  147f.

8 Ebd. S. 134. 9 Sergey Brin, »2004 Founders’ IPO Letter«, Google, https://abc.xyz/investor/founders-letters/2004. 10 »Eric Schmidt on Surveillance and National Security«, Interview mit Craig Timberg am Cato Insitute, 12. Dezember 2014, https://www.cspan.org/video/?323275-4/eric-schmidt-surveillance-nationalsecurity. 11 Nick Summers, »Why Google Is Issuing a New Kind of Toothless Stock«, Bloomberg.com, 3. April  2014, https://www.bloomberg.com/news/articles/2014-04-03/whygoogle-is-issuing-c-shares-a-new-kind-of-powerless-stock. Als die Aktionäre bei der Jahresversammlung Einspruch gegen das System erhoben, indem sie sich mit 180 Millionen Stimmen für eine Lösung mit einheitlichem Stimmrecht aussprachen, deckten sie die Gründer mit 551 Millionen Gegenstimmen ein. 12 Eric Lam, »New Google Share Classes Issued as Founders Cement Grip«, Bloomberg.com, 3. April 2014, https://www.bloomberg.com/news/articles/2014-04-03/new-googleshares-hit-market-as-founders-cement-grip-with-split. 13 Tess Townsend, »Alphabet Shareholders Want More Voting Rights but Larry and Sergey Don’t Want It That Way«, Recode, 13. Juni 2017, https://www.recode.net/2017/6/13/15788892/alphabetshareholder-proposals-fair-shares-counted-equally-no-supervote. 14

Ronald W. Masulis, Cong Wang, Fei Xie, »Agency Problems at DualClass Companies«, Journal of Finance 64:4 (2009). S. 1697–1727, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1080361; Randall Smith, »One Share, One Vote?«, Wall Street Journal, 28. Oktober 2011, https://www.wsj.com/articles/SB100014240529702039 11804576653591322367506. 15 »Power Play: How Zuckerberg Wrested Control of Facebook from Hi Shareholders«, VentureBeat, 2. Februar 2012, https://venturebeat.com/2012/02/01/zuck-power-play/. 16 Spencer Feldman, »IPOs in 2016 Increasingly Include Dual-Class Shareholder Voting Rights«, Securities Regulation & Law Report, 47 SRLR 1342, 07/04/2016; Ronald Anderson, Ezgi Ottolenghi, David Reeb, The Extreme Control Choice, Paper presented at the Research Workshop on Family Business, Lehigh University (PA), USA, 2017, https://cbe.lehigh.edu/sites/cbe.lehigh.edu/files/documents/R%20And erson%20Extreme%20Cont rol%20Choice_14May2017_with%20Internet%20Appendix.pdf. 17 Adam Hayes, »Facebook’s Most Important Acquisitions«, Investopedia, 11. Februar 2015, http://www.investopedia.com/articles/investing/021115/facebooksmost-important-acquisitions.asp; Rani Molla, »Google Parent Company Alphabet Has Made the Most AI Acquisitions«, Recode, 19. Mai 2017, https://www.recode.net/2017/5/19/15657758/googleartificial-intelligence-ai-investments; »The Race for AI: Google, Baidu, Intel, Apple in a Rush to Grab Artificial Intelligence Startups«, CB Insights Research, 21. Juli 2017, https:// www.cbinsights.com/research/top-acquirers-ai-startups-ma-timeline/. 18 »Schmidt: We Paid $1 Billion Premium for YouTube«, CNET, 6. Oktober 2009, https://www.cnet.com/news/schmidt-we-paid-1billion-premium-for-youtube/.

19 Adrian Covert, »Facebook Buys WhatsApp for $19 Billion«, CNNMoney, 19. Februar 2014, http://money.cnn.com/2014/02/19/technology/social/facebookwhatsapp/index.html. 20 Tim Fernholz, »How Mark Zuckerberg’s Control of Facebook Lets Him Print Money«, Quartz, 27. März  2014, https://qz.com/192779/how-mark-zuckerbergs-control-offacebook-lets-him-print-money/. 21 Duncan Robinson, »Facebook Faces EU Fine over WhatsApp DataSharing«, Financial Times, 20. Dezember 2016, https://www.ft.com/content/f652746c-c6a4-11e6-9043-7e34c07b4 6ef; Tim Adams, »Margrethe Vestager: ›We Are Doing This Because People Are Angry‹ «, Observer, 17. September 2017, http://www.theguardian.com/world/2017/sep/17/margrethe-vestagerpeople-feel-angry-about-tax-avoidance-european-competition-com missioner; WhatsApp, »WhatsApp FAQ – How Do I Choose Not to Share My Account Information with Facebook to Improve My Facebook Ads and Products Experiences?«, WhatsApp.com, 28. August 2016, https://faq.whatsapp.com/en/general/. 22 Eric Schmidt, Jared Cohen, Die Vernetzung der Welt: Ein Blick in unsere Zukunft. Reinbek: Rowohlt, 2013. S. 13f. 23 Arendt, Elemente und Ursprünge totaler Herrschaft. S. 312f. 24 Vinod Khosla, »Fireside Chat with Google Co-Founders, Larry Page and Sergey Brin«, Khosla Ventures, 3. Juli 2014, http://www.khoslaventures.com/fireside-chat-with-google-cofounders-larry-page-and-sergey-brin. 25

Holman W. Jenkins, »Google and the Search for the Future«, Wall Street Journal, 14. August 2010, http://www.wsj.com/articles/SB100014240527487049011045754232 94099527212. 26 Lillian Cunningham, »Google’s Eric Schmidt Expounds on His Senate Testimony«, Washington Post, 30. September 2011, http://www.washingtonpost.com/national/on-leadership/googles-ericschmidt-expounds-on-his-senate-testimony/2011/09/30/gIQAPy VgCL_story.html. 27 Pascal-Emmanuel Gobry, »Eric Schmidt to World Leaders at EG8: Don’t Regulate Us, or Else«, Business Insider, 24. Mai 2011, http://www.businessinsider.com/eric-schmidt-google-eg8-2011-5. 28 Jay Yarow, »Google CEO Larry Page Wants a Totally Separate World Where Tech Companies Can Conduct Experiments on People«, Business Insider, 16.Mai 2013, https://www.businessinsider.com/google-ceo-larry-page-wants-aplace-for-experiments-2013-5?IR=T. 29 Conor Dougherty, »Tech Companies Take Their Legislative Concerns to the States«, New York Times, 27. Mai 2016, http://www.nytimes.com/2016/05/28/technology/tech-companiestake-their-legislative-concerns-to-the-states.html; Tim Bradshaw, »Google Hits Out at Self-Driving Car Rules«, Financial Times, 18. Dezember 2015, https://www.ft.com/content/d4afee02-a517-11e597e1-a754d5d9538c; Jon Brodkin, »Google and Facebook Lobbyists Try to Stop New Online Privacy Protections«, Ars Technica, 24. Mai 2017, https://arstechnica.com/tech-policy/2017/05/google-andfacebook-lobbyists-try-to-stop-new-online-privacy-protections. 30

David Nasaw, »Gilded Age Gospels«, in Steve Fraser, Gary Gerstle (Hg.), Ruling America: A History of Wealth and Power in a Democracy. Cambridge, MA: Harvard University Press, 2005. S.  124f. 31 Robert H. Wiebe, The Search for Order: 1877–1920. New York: Hill and Wang, 1967, S. 135ff. Wiebe umreißt die Weltsicht dieser Millionäre, auf deren Basis sie ihre Bemühungen koordinierten, die Gefahren der Demokratie für das Industriekapital zu bannen. Sie wird jedem vertraut klingen, der die mit Begriffen wie »destruktiv« und »unternehmerisch« getränkten Rechtfertigungen der Silicon-ValleyTycoons gelesen hat. Dem Katechismus des 19. Jahrhunderts zufolge entdeckten »die höchsten Vertreter ihrer Gattung effektivere Möglichkeiten, Land, Arbeit und Kapital zu vereinen, und hoben so die Gesellschaft auf eine höhere Stufe, während alle Übrigen sich hinter ihren Führern neu organisierten«. Die Mehrheit der »gewöhnlich Begabten« konnte sich teilen, was übrig blieb, nachdem die Bedürfnisse des Kapitals befriedigt waren, und die »Schwächsten verschwanden einfach«. Herauskommen sollte dabei »unter Ausmerzung durch den Wettbewerb … eine ständig sich verbessernde Gattung«. Jeder Verstoß gegen diese »Naturgesetze« würde nur einem »Überleben der Untüchtigsten« Vorschub leisten und damit die Evolution der Gattung umkehren. 32 David Nasaw, »Gilded Age Gospels«, S. 132. 33 Ebd. S. 146. 34 Lawrence M. Friedman, American Law in the 20th Century. New Haven: Yale University Press, 2004. S. 15–28. 35 Nasaw, »Gilded Age Gospels«, S. 148. 36

Zwei ganz außergewöhnliche Abhandlungen zu diesem Thema finden Sie in Chris Jay Hoofnagle, Federal Trade Commission: Privacy Law and Policy. New York: Cambridge University Press, 2016, sowie Julie E. Cohen, »The Regulatory State in the Information Age,« Theoretical Inquiries in Law 17:2 (2016), http://www7.tau.ac.il/ojs/index.php/til/article/view/1425. 37 Jodi L. Short, »The Paranoid Style in Regulatory Reform«, Hastings Law Journal 63 (2011). S. 633. 38 Eine wunderbare Anthologie zum Thema findet sich in Steve Fraser, Gary Gerstle (Hg.), The Rise and Fall of the New Deal Order 1930– 1980. Princeton, NJ: Princeton University Press, 1989. 39 Alan Brinkley, Liberalism and Its Discontents. Cambridge, MA: Harvard University Press, 2000. 40 Short, »The Paranoid Style«, S. 44ff. 41

Ebd. S. 52f. Der Wirtschaftshistoriker Philip Mirowski fasst die »Metathesen« zusammen, die seit den 1980er-Jahren dazu beigetragen haben, den Neoliberalismus trotz seiner amorphen, vielseitigen und zuweilen widersprüchlichen Theorien und Praktiken zu einem losen »Paradigma« auszuformen. Einige von diesen werden zu wichtigen Schlupfwinkeln für die kühnen Aktionen der Überwachungskapitalisten, deren geheime Operation und rhetorische Irreführung. 1) Der Demokratie sollten Zügel angelegt werden zugunsten einer aktiven Umstrukturierung des Staats zur ausführenden Hand einer stabilen Marktgesellschaft. 2) Unternehmer und Unternehmen wurden verschmolzen, wodurch eher das Unternehmen als »juristische Person« zum Fokus des gesetzlichen Schutzes wird als die Rechte des Bürgers. 3) Freiheit wurde negativ definiert als »Freiheit von« Einmischung in die naturgegebenen Gesetze des Wettbewerbs. Jegliche Kontrolle außer der Marktkontrolle wurde als Zwang verstanden. 4) Die ungleiche Verteilung von Wohlstand und Rechten wurde akzeptiert, ja gepriesen als notwendiges Charakteristikum eines erfolgreichen Marktsystems und Kraft des Fortschritts. Im Weiteren zementierten der Erfolg des Überwachungskapitalismus, seine aggressive Rhetorik und die Bereitschaft seiner führenden Köpfe, jeder Herausforderung die Stirn zu bieten, diese Richtlinien in Politik, Wirtschaftspolitik und Regulierungsansätzen. Philip Mirowski, Never Let a Serious Crisis Go to Waste: How Neoliberalism Survived the Financial Meltdown. London, New York: Verso, 2013. Siehe auch Brown, Undoing the Demos; David M. Kotz, The Rise and Fall of Neoliberal Capitalism. Cambridge, MA: Harvard University Press, 2015. S. 166–175. 42 Frank A. Pasquale, »Privacy, Antitrust, and Power«, George Mason Law Review 20:4 (2013). S. 1009–1024. 43

Es existiert eine große Bandbreite wissenschaftlicher Abhandlungen zu den Ansprüchen der Internetfirmen, den Schutz des Ersten Verfassungszusatzes als Verteidigung gegen die Regulierung heranzuziehen. Hier nur einige der vielen wichtigen Beiträge zur Diskussion: Andrew Tutt, »The New Speech«, Hastings Constitutional Law Quarterly 41 (2013). S. 235; Richard Hasen, »Cheap Speech and What It Has Done (to American Democracy)«, First Amendment Law Review 16 (2017), http://scholarship.law.uci.edu/faculty_scholarship/660; Dawn Nunziato, »With Great Power Comes Great Responsibility: Proposed Principles of Digital Due Process for ICT Companies« (GWU Law School Public Law Research Paper (George Washington University, 2013), http://scholarship.law.gwu.edu/faculty_publications/1293; Tim Wu, »Machine Speech«, University of Pennsylvania Law Review 161:6 (2013). S. 1495; Dawn Nunziato, »Forget About It? Harmonizing European and American Protections for Privacy, Free Speech, and Due Process« (GWU Law School Public Law research paper, George Washington University, 2015), http://scholarship.law.gwu.edu/faculty_publications/1295; Marvin Ammori, »The ›New‹ New York Times: Free Speech Lawyering in the Age of Google and Twitter«, Harvard Law Review 127 (2014). S.  2259–2295; Jon Hanson, Ronald Chen, »The Illusion of Law: The Legitimating Schemas of Modern Policy and Corporate Law«, Legitimating Schemas of Modern Policy and Corporate Law 103: 1 (2004). S. 1–149. 44 Steven J. Heyman, »The Third Annual C. Edwin Baker Lecture for Liberty, Equality, and Democracy: The Conservative-Libertarian Turn in First Amendment Jurisprudence«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 2014), S. 300, https://papers.ssrn.com/abstract=2497190. 45 Ebd. S. 277; Andrew Tutt, »The New Speech«, Hastings Const. L. Q. 41 (17. Juli 2013). S. 235.

46 Daniel J. H. Greenwood, »Neofederalism: The Suprising Foundations of Corporate Constitutional Rights«, University of Illinois Law Review 163 (2017). S. 166, https://scholarly commons.law.hofstra.edu/cgi/viewcontent.cgi? referer=https://www.google.com/&https redir=1&article=2145&context=faculty_scholarship. 47 Ebd. S. 221. 48 Frank A. Pasquale, »The Automated Public Sphere«, Legal Studies Research Paper (University of Maryland, 10. November 2017). 49 Marvin Ammori, »The ›New‹ New York Times: Free Speech Lawyering in the Age of Google and Twitter«, Harvard Law Review 127 (2014). S. 2259f. 50 Adam Winkler, We The Corporations. New York: Norton, 2018. S. xxi. 51 Christopher Zara, »The Most Important Law in Tech Has a Problem«, Wired, 3. Januar 2017, https://www.wired.com/2017/01/the-mostimportant-law-in-tech-has-a-problem/. 52 David S. Ardia, »Free Speech Savior or Shield for Scoundrels: An Empirical Study of Intermediary Immunity Under Section 230 of the Communications Decency Act«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 16. Juni 2010), https://papers.ssrn.com/abstract=1625820. 53 Paul Ehrlich, »Communications Decency Act 230«, Berkeley Technology Law Journal 17 (2002). S. 404. Siehe auch David S. Ardia, »Free Speech Savior or Shield for Scoundrels«.

54 Zara, »The Most Important Law in Tech Has a Problem«. 55 David Lyon, Surveillance After September 11. Cambridge, Malden, MA: Polity, 2003. S. 7; Jennifer Evans, »Hijacking Civil Liberties: The USA Patriot Act of 2001«, Loyola University Chicago Law Journal 33:4 (2002). S. 933; Paul T. Jaeger, John Carlo Bertot, Charles R. McClure, »The Impact of the USA Patriot Act on Collection and Analysis of Personal Information Under the Foreign Intelligence Surveillance Act«, Government Information Quarterly 20:3 (2003). S. 295–314, https://www.sciencedirect.com/science/article/pii/S07406 24X03000571. 56 Die erste Welle verbraucherorientierter Gesetze zur Intimsphäre in den USA geht zurück auf die 1970er-Jahre, etwa auf bahnbrechende Gesetzesvorlagen im US-Kongress wie den Fair Credit Reporting Act in 1970 (zur Regulierung in Kreditauskünften enthaltener Informationen) und die Fair Information Practices Principles in 1973 (zur Regulierung der in der damals aufkommenden EDV über den Verbraucher gespeicherten Informationen). Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) erarbeitete 1980 ein wirkungsvolles Paket einschlägiger Richtlinien, und die ersten Datenschutzrichtlinien der EU traten 1998 in Kraft. Siehe dazu Peter Swire, »The Second Wave of Global Privacy Protection: Symposium Introduction«, Ohio State Law Journal 74:6 (2013). S. 842f.; Peter P. Swire, »Privacy and Information Sharing in the War on Terrorism«, Villanova Law Review 51:4 (2006). S. 951; Ibrahim Altaweel, Nathaniel Good, Chris Jay Hoofnagle, »Web Privacy Census«, Technology Science, 15. Dezember 2015, https://techscience.org/a/2015121502. 57

Swire, »Privacy and Information Sharing«, S. 951; Swire, »The Second Wave«; Hoofnagle, Federal Trade Commission; Brody Mullins, Rolfe Winkler, Brent Kendall, »FTC Staff Wanted to Sue Google«, Wall Street Journal, 20. März 2015; Daniel J. Solove, Woodrow Hartzog, »The FTC and the New Common Law of Privacy«, Columbia Law Review 114:3 (2014). S. 583–676; Brian Fung, »The FTC Was Built 100 Years Ago to Fight Monopolists. Now, It’s Washington’s Most Powerful Technology Cop«, Washington Post, 25. September 2014, https://www.washingtonpost.com/blogs/theswitch/wp/2014/09/25/the-ftc-was-built-100-years-ago-to-fightmonopolists-now-its-washingtons-most-powerful-technology-cop; Stephen Labaton, »The Regulatory Signals Shift; F. T. C. Serves as Case Study of Differences Under Bush«, New York Times, 12. Juni 2001, http://www.nytimes.com/2001/06/12/business/the-regulatorysignals-shift-ftc-serves-as-case-study-of-differences-under-bush.html; Tanzina Vega, Edward Wyatt, »U. S. Agency Seeks Tougher Consumer Privacy Rules«, New York Times, 26. März 2012, http://www.nytimes.com/2012/03/27/business/ftc-seeks-privacylegislation.html. 58 Robert Pitofsky u. a., »Privacy Online: Fair Information Practices in the Electronic Marketplace: A Federal Trade Commission Report to Congress«, Federal Trade Commission, 1. Mai 2000, S. 35, https://www.ftc.gov/reports/privacy-online-fair-information-practi ces-electronic-marketplace-federal-trade-commission. 59 Ebd. S. 36f. Die Gesetzesvorlage sollte ein Mindestmaß an Schutz der Privatsphäre für alle Besuche verbraucherorientierter kommerzieller Websites sorgen, soweit ein solcher nicht bereits durch das Gesetz zum Schutz von Kindern online (Children’s Online Privacy Protection Act) abgedeckt war. Eine solche Gesetzgebung sollte für grundlegende Richtlinien für Standards hinsichtlich der Datensammlung online sorgen sowie eine speziell eingerichtete Behörde mit der Befugnis, detailliertere Standards gemäß dem

Verwaltungsverfahrensgesetz herauszugeben und diese durchzusetzen. Alle verbraucherorientierten kommerziellen Websites, die von Verbrauchern online persönliche Daten zur Identifizierung Einzelner über das bereits vom Gesetz zum Schutz von Kindern online abgedeckte Maß hinaus sammelten, hätten sich dabei an folgende weitgehende akzeptierte Prinzipien fairer Informationspraktiken (Fair Information Practices Principles) zu halten gehabt: 1) Daten. Websites sollten Verbraucher klar und sichtbar auf ihre Praxis im Umgang mit persönlichen Informationen hinweisen, so die Art der gesammelten Daten, wie sie diese sammeln (z. B. direkt oder durch nicht offensichtliche Methoden wie Cookies), wie sie diese Daten verwenden; sie sollten über Optionsmöglichkeiten, Zugang und Sicherheit der gesammelten Daten informieren müssen sowie darüber, ob die Datensätze Dritten zugänglich wären und ob auch Dritte auf ihrer Site Daten sammelten. 2) Optionsmöglichkeiten. Websites sollten verpflichtet werden, dem Verbraucher Optionen anzubieten hinsichtlich der Verwendung von Daten, mittels derer sie persönlich zu identifizieren wären, was über den offensichtlichen Verwendungszweck (z. B. zur Tätigung eines Einkaufs) hinaus zu passieren hat. Eine solche Option sollte eine interne Sekundärverwertung (wie etwa Werbung für den Verbraucher) ebenso umfassen wie die externe Sekundärverwertung (die Weitergabe von Daten an Dritte). 3) Zugang. Websites sollten den Verbrauchern angemessenen Zugang zu den von einer Website gesammelten Datensätzen bieten sowie eine angemessene Möglichkeit, diese Informationen zu prüfen und gegebenenfalls zu ändern bzw. zu löschen. 4) Sicherheit. Websites hätten angemessene Maßnahmen zu unternehmen, die Sicherheit der von Verbrauchern erfassten Daten zu garantieren. 60 Swire, »The Second Wave«, S. 845. 61

Paul M. Schwartz, »Systematic Government Access to Private-Sector Data in Germany«. International Data Privacy Law 2:4 (2012), S.  289, 296; Ian Brown, »Government Access to Private-Sector Data in the United Kingdom«. International Data Privacy Law 2:4 (2012), S.  230, 235; W. Gregory Voss. »After Google Spain and Charlie Hebdo: The Continuing Evolution of European Union Data Privacy Law in a Time of Change«. Business Lawyer 71:1 (2015). S. 281; Mark Scott, »Europe, Shaken by Paris Attacks, Weighs Security With Privacy Rights«. New York Times, Bits Blog, 18. September 2015; Frank A. Pasquale, »Privacy, Antitrust, and Power«, George Mason Law Review 20:4 (2013). S. 1009–1124; Alissa J. Rubin, »Lawmakers in France Move to Vastly Expand Surveillance«, New York Times, 5.  Mai 2015, http://www.nytimes.com/2015/05/06/world/europe/frenchlegislators-approve-sweeping-intelligence-bill.html; Georgina Prodham, Michael Nienaber, »Merkel Urges Germans to Put aside Fear of Big Data«, Reuters, 9. Juni 2015, https://www.reuters.com/article/us-germany-technologymerkel/merkel-urges-germans-to-put-aside-fear-of-big-dataidUSKBN0OP2EM20150609. 62

Richard A. Clarke u. a., The NSA Report: Liberty and Security in a Changing World. Princeton, NJ: Princeton University Press, 2014. S.  27, 29; Declan McCullagh, »How 9/11 Attacks Reshaped U. S. Privacy Debate«, CNET, 9. September 2011, http://www.cnet.com/news/how-911-attacks-reshaped-u-s-privacydebate. Der von der Expertengruppe des Präsidenten 2013 zusammengestellte NSA Report umreißt das Mandat der Nachrichtendienste, das diese Entwicklung ermöglichte: »Die Anschläge vom 11. September zeigten deutlich die Notwendigkeit detaillierter Informationen über die Aktivitäten potenzieller Terroristen … Behörden versäumten den Austausch von Informationen, die zur Verhinderung der Anschläge hätten beitragen können, andere wurden erst gar nicht erfasst … Eines schien klar: Wenn der Staat in seinen Bemühungen, Terroranschläge im Planungsstadium zu erkennen und zu verhindern, allzu zu behutsam vorgeht, könnten daraus verheerende Folgen für die Nation entstehen.« 63 Andrea Peterson, »Former NSA and CIA Director Says Terrorists Love Using Gmail«, Washington Post, 15. September 2013, https://www.washingtonpost.com/news/the-swit ch/wp/2013/09/15/former-nsa-and-cia-director-says-terrorists-loveusing-gmail. 64 Peter Swire, »The Second Wave of Global Privacy Protection: Symposium Introduction«, Ohio State Law Journal 74:6 (2013). S.  846. 65 Hoofnagle, Federal Trade Commission; siehe Kapitel 6. 66 Lyon, Surveillance After September 11, S. 15. 67 Richard Herbert Howe, »Max Weber’s Elective Affinities: Sociology Within the Bounds of Pure Reason«, American Journal of Sociology 84:2 (1978). S. 366–385.

68 Joe Feuerherd, » ›Total Information Awareness‹ Imperils Civil Rights, Critics Say«, National Catholic Reporter, 29. November 2002, http://natcath.org/NCR_Online/archives2/2002d/112902/112902d.ht m. 69 Mark Williams Pontin, »The Total Information Awareness Project Lives On«, MIT Technology Review, 26. April 2006, https://www.technologyreview.com/s/405707/the-total-informationawareness-project-lives-on/. 70 Matt Marshall, »Spying on Start-Ups«, Mercury News, 17. November 2002, www.siliconbeat.com/entries/SPYING%20ON%20STARTups.doc. 71 Ebd. 72 John Markoff, »Taking Spying to Higher Level, Agencies Look for More Ways to Mine Data«, New York Times, 25. Februar 2006, http://www.nytimes.com/2006/02/25/technology/25data.html. 73 »Lost in the Cloud: Google and the US Government«, Inside Google, Januar 2011, http://insidegoogle.com/wpcontent/uploads/2011/01/GOOGGovfinal012411.pdf. 74 Nafeez Ahmed, »How the CIA Made Google«, Medium, 22. Januar 2015, https://medium.com/insurge-intelligence/how-the-cia-madegoogle-e836451a959e. 75 Verne Kopytoff, »Google Has Lots to Do with Intelligence«, SFGate, 30. März 2008, http://www.sfgate.com/business/article/Google-haslots-to-do-with-intelligence-3221500.php. 76

Noah Shachtman, »Exclusive: Google, CIA Invest in ›Future‹ of Web Monitoring«, Wired, 28. Juli 2010, http://www.wired.com/2010/07/exclusive-google-cia/. 77 Ryan Gallagher, »The Surveillance Engine: How the NSA Built Its Own Secret Google«, Intercept, 25. August 2014, https://firstlook.org/theintercept/2014/08/25/icreach-nsa-cia-secretgoogle-crisscross-proton/. 78 Robyn Winder, Charlie Speight, »Untangling the Web: An Introduction to Internet Research« (National Security Agency Center for Digital Content, März 2013), http://www.governmentattic.org/8docs/UntanglingTheWebNSA_2007.pdf. 79 Richard O’Neill, »Seminar on Intelligence, Command, and Control«. Cambridge, MA: Highlands Forums Press, 2001, http://www.pirp.harvard.edu/pubs_pdf/o%27neill/o%27neill-i013.pdf; Richard P. O’Neill, »The Highlands Forum Process«, interview by Anthony G. Oettinger, Transcript, 5. April 2001, http://www.pirp.harvard.edu/pubs_pdf/o%27neill/o%27neill-i013.pdf. 80 Siehe Mary Anne Franks, »Democratic Surveillance«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 2016), https://papers.ssrn.com/abstract=2863343. 81 Ebd. 82 Stephanie A. DeVos, »The Google-NSA Alliance: Developing Cybersecurity Policy at Internet Speed«, Fordham Intellectual Property, Media and Entertainment Law Journal 21:1 (2011). S. 173– 227. 83

Die Wahlverwandtschaften zwischen dem Staat, Googles Operationen und dem breiteren kommerziellen Überwachungsprojekt sind gerade in dem Jahrzehnt nach 9 / 11 augenfällig, als die NSA sich alle Mühe gab, mehr wie Google zu werden, indem sie Googles Fähigkeiten analysierte und in einer ganzen Reihe von Domänen zu integrieren versucht. Siehe dazu »Lost in the Cloud: Google and the US Government«; Nafeez Ahmed, »How the CIA Made Google«, Medium, 22. Januar 2015, https://medium.com/insurge-intelli gence/how-the-cia-made-google-e836451a959e; Verne Kopytoff, »Google Has Lots to Do with Intelligence«, SFGate, 30. März 2008, http://www.sfgate.com/business/article/Google-has-lots-to-do-withintelligence-3221500.php; »Google Acquires Keyhole Corp – News Announcements«, Google Press, 27. Oktober 2004, http://googlepress.blogspot.com/2004/10/google-acquires-keyholecorp.html; Josh G. Lerner u. a., »In-Q-Tel: Case 804-146«, Harvard Business School Publishing, Februar 2004, S. 1–20; Robyn Winder, Charlie Speight, »Untangling the Web: An Introduction to Internet Research«, National Security Agency Center for Digital Content, März 2013, http://www.governmentattic.or g/8docs/UntanglingTheWeb-NSA_2007.pdf; Ryan Gallagher, »The Surveillance Engine: How the NSA Built Its Own Secret Google«, Intercept, 25. August 2014, https://theintercept.com/2014/ 08/25/icreach-nsa-cia-secret-google-crisscross-proton/; Ellen Nakashima, »Google to Enlist NSA to Help It Ward Off Cyberattacks«, Washington Post, 4. Februar 2010, http://www.washingtonpost.com/wpdyn/content/article/2010/02/03/AR2010020304057.html; Mike Scarcella, »DOJ Asks Court to Keep Secret Any Partnership Between Google, NSA«, BLT: Blog of Legal Times, 9. März 2012, http://legaltimes.typepad.com/blt/2012/03/doj-asks-court-to-keepsecret-any-partnership-between-google-nsa.html; Shane Harris, @WAR: The Rise of the Military-Internet Complex. Boston: Houghton Mifflin Harcourt, 2014. S. 175. 84

Jack Balkin, »The Constitution in the National Surveillance State«, Minnesota Law Review 93:1 (2008), http://digitalcommons.law.yale.edu/fss_papers/225. 85 Michaels, »All the President’s Spies«. 86 Ebd. S. 908; Chris Hoofnagle, »Big Brother’s Little Helpers: How ChoicePoint and Other Commercial Data Brokers Collect and Package Your Data for Law Enforcement«, North Carolina Journal of International Law and Commercial Regulation 29 (2003). S. 595; Semitsu, »From Facebook to Mug Shot«. 87 »Mike McConnell on How to Win the Cyber-War We’re Losing«, Washington Post, 28. Februar 2010, http://www.washingtonpost.com/wp-dyn/content/story/2010/02/25/S T2010022502680.html. 88 Davey Alba, »Pentagon Taps Eric Schmidt to Make Itself More Google-ish«, Wired, 2. März 2016, https://www.wired.com/2016/03/ex-google-ceo-eric-schmidt-headpentagon-innovation-board; Lee Fang, »The CIA Is Investing in Firms That Mine Your Tweets and Instagram Photos«, Intercept, 14. April 2016, https://theintercept.com/2016/04/14/in-undisclosed-ciainvestments-social-media-mining-looms-large. 89 Fred H. Cate, James X. Dempsey (Hg.), Bulk Collection: Systematic Government Access to Private-Sector Data. New York: Oxford University Press, 2017. S. xxv f. 90 Michael Alan Bernstein, The Great Depression: Delayed Recovery and Economic Change in America, 1929–1939. New York: Cambridge University Press, 1987. Siehe dazu die Kapitel 1 und 8. 91

Claire Cain Miller, »How Obama’s Internet Campaign Changed Politics«, New York Times, Bits Blog, 7. November 2008, https://bits.blogs.nytimes.com/2008/11/07/how-obamas-internetcampaign-changed-politics/. 92 Sasha Issenberg, »The Romney Campaign’s Data Strategy«, Slate, 17. Juli 2012, http://www.slate.com/articles/news_and_politics/victory_lab/2012/07 /the_romney_campaign_ s_data_strategy_they_re_outsourcing_.single.html; Siehe außerdem: »A Short History of the Next Campaign«, Politico.com, 2014, http://www.politico.com/magazine/story/2014/02/a-short-history-ofthe-next-campaign-103672.html#ixzz3YQYBPq4y 93 Daniel Kreiss, Philip N. Howard, »New Challenges to Political Privacy: Lessons from the First U. S. Presidential Race in the Web 2.0 Era«, International Journal of Communication 4 (2010). S. 1032– 1050, http://ijoc.org/index.php/ijoc/article/view/870/473. 94 Sasha Issenberg, The Victory Lab. New York: Crown, 2012. S. 271. 95 »Ich erledige das persönlich«, sagte Schmidt gegenüber Journalisten. Für den Wahlkampf selbst gelte: »Google ist offiziell neutral.« Zu einem ersten öffentlichen Auftritt mit Obama kam es bei einer Veranstaltung in Florida, wo sie zusammen eine Podiumsdiskussion über die Wirtschaft moderierten. Schmidt sagte dem Wall Street Journal, die von ihm geplante Unterstützung Obamas sei eine »natürliche Entwicklung« seiner Rolle als inoffizieller Berater; Monica Langley, Jessica E. Vascellaro, »Google CEO Backs Obama«, Wall Street Journal, 20. Oktober 2008, http://www.wsj.com/articles/SB122446734650049199; siehe dazu auch Jeff Zeleny, Elisabeth Bumiller, »Candidates Face Off Over Economic Plans«, New York Times, 21. Oktober 2008, www.nytimes.com/2008/10/22/us/politics/22campaign.html?fta=y.

96 Robert Reich, »Obama’s Transition Economic Advisory Board: the Full List«, US News and World Report, 7. Nobember 2008, www.usnews.com/news/campaign-2008/articles/2008/11/07/obamastransition-economic-advisory-board-the-full-listn. 97 Eamon Javers, »Obama-Google connection scares competitors«, Politico.com, 10. Oktober 2008, www.politico.com/news/stories/1108/15487.html. 98 »Diary of a love affair: Obama and Google«, Fortune.com, 14. November 2007, http://ar chive.fortune.com/galleries/2009/fortune/0910/gallery.obama_google. fortune/2.html. 99 Brody Mullins, »Google Makes Most of Close Ties to White House«, Wall Street Journal, 24. März 2015, https://www.wsj.com/articles/google-makes-most-of-close-ties-towhite-house-1427242076. 100 Jim Rutenberg, »Data You Can Believe In«, New York Times, 20. Juni 2013, https://www.nytimes.com/2013/06/23/magazine/the-obamacampaigns-digital-masterminds-cash-in.html. 101 Ebd. 102 Lillian Cunningham, »Google’s Eric Schmidt expounds on his Senate testimony«, Washington Post, 1. Oktober 2011, http://www.washingtonpost.com/national/on-leadership/googles-ericschmidt-expounds-on-his-senate-testimony/2011/09/30/gIQAPyVg CL_story.html. 103

»Google’s Revolving Door Explorer (US)«, Google Transparency Project, 15. April 2016, http://www.googletransparencyproject.org/googles-revolving-doorexplorer-us. Wie von Schmidt 2011 angedeutet, sorgte die Drehtürpolitik für robuste Netzwerke, in denen private und öffentliche Interessen verschmolzen; die Grenzen waren porös. Dem Google Transparency Project zufolge belegen die Besucherlisten des Weißen Hauses, dass zwischen Januar 2009 und Oktober 2015 427mal Google-Mitarbeiter zu Besuch waren. Google-Manager trafen sich mindestens 21-mal mit Präsident Obama und 20-mal mit Topleuten aus seinem Stab. Angestellte aus den beiden Unternehmen in Schmidts persönlichem Besitz trafen sich 65-mal mit Offiziellen aus dem Weißen Haus. Siehe dazu außerdem Tess VandenDolder, »Is Google the New Revolving Door?«, DC Inno, 9. September 2014, http://dcinno.streetwise.co/2014/09/09/is-google-the-new-revolvingdoor/; Suchergebnisse bei OpenSecrets.org, 23. Februar 2017, https://www.opensecrets.org/revolving/search_result.php? priv=Google+Inc; Yasha Levine, »The Revolving Door between Google and the Department of Defense«, PandoDaily, 23. April 2014, http://pando.com/2014/04/23/the-revolving-door-betweengoogle-and-the-department-of-defense/; Cecilia Kang, Juliet Eilperin, »Why Silicon Valley Is the New Revolving Door for Obama Staffers«, Washington Post, 27. Februar 2015, http://www.wa shingtonpost.com/business/economy/as-obama-nears-close-of-histenure-commitment-to-silicon-valley-is-clear/2015/02/27/3bee8088bc8e-11e4-bdfa-b8e8f594e6ee_story.html. 104 Eric Schmidt, Jonathan Rosenberg, How Google Works. The rules for success in the Internet Century. New York: Grand Central, 2014. S.  255. 105 Deborah D’Souza, »Big Tech Spent Record Amounts on Lobbying Under Trump«, Investopedia, 11. Juli 2017, https://www.investopedia.com/tech/what-are-tech-giants-lobbyingtrump-era/.

106 Jon Brodkin, »Google and Facebook Lobbyists Try to Stop New Online Privacy Protections«, Ars Technica, 24. Mai 2017, https://arstechnica.com/tech-policy/2017/05/google-and-facebooklobbyists-try-to-stop-new-online-privacy-protections/. 107 Natasha Lomas, »Google Among Top Lobbyists Of Senior EC Officials«, TechCrunch, 24. Juni  2015, http://social.techcrunch.com/2015/06/24/google-among-toplobbyists-of-senior-ec-officials/; »Google’s European Revolving Door«, Google Transparency Project, 25. September 2017, http://googletransparencyproject.org/articles/goo gles-european-revolving-door. 108 »Google Enlisted Obama Officials to Lobby States on Driverless Cars«, Google Transparency Project, https://googletransparencyproject.org/articles/google-enlisted-obamaofficials-lobby-states-driverless-cars. 109 »Tech Companies Are Pushing Back Against Biometric Privacy Laws«, Bloomberg.com, 20. Juli 2017, https://www.bloomberg.com/news/articles/2017-07-20/techcompanies-are-pushing-back-against-biometric-privacy-laws; »Biometric Privacy Laws: Illinois and the Fight Against Intrusive Tech«, https://news.law.fordham.edu/jcfl/2018/03/20/biometricprivacy-laws-illinois-and-the-fight-against-intrusive-tech/; April Glaser, »Facebook Is Using an ›NRA Approach‹ to Defend Its Creepy Facial Recognition Programs«, Slate, 4. August 2017, http://www.slate.com/blogs/future_tense/2017/08/04/facebook_is_fig hting_biometric_facial_recognition_privacy_laws.html; Conor Dougherty, »Tech Companies Take Their Legislative Concerns to the States«, New York Times, 27. Mai 2016, http://www.nytimes.com/2016/05/28/technology/tech-companiestake-their-legislative-concerns-to-the-states.html.

110 Schmidt war dem Board der New America Foundation 1999 beigetreten; auch als er 2013 Vorsitzender wurde, hielten sich seine finanziellen Beiträge in der obersten Reihe, nur drei andere Spender gaben so viel wie er: das US-Außenministerium, die Lumina Foundation und die Bill and Melinda Gates Foundation. Zur Spendergruppe gleich dahinter gehört unter anderem auch Google. Siehe hierzu die Angaben unter https://www.newamerica.org/ourfunding/our-funders/ und https://www.newamerica.org/board/. 111 Tom Hamburger, Matea Gold, »Google, Once Disdainful of Lobbying, Now a Master of Washington Influence«, Washington Post, 12. April 2014, https://www.washingtonpost.com/politics/howgoogle-is-transforming-power-and-politicsgoogle-once-disdainful-oflobbying-now-a-master-of-washingtoninfluence/2014/04/12/51648b92-b4d3-11e3-8cb6284052554d74_story.html?utm_term=.5fb1cd60883a. 112 Zusätzliche Quellen dafür finden Sie bei David Dayen, »Google’s Insidious Shadow«, Salon.com, 24. November 2015. 113 Nick Surgey, »The Googlization of the Far Right«, PR Watch, 27. November 2013, http://www.prwatch.org/news/2013/11/12319/google-funding-grovernorquist-heritage-action-alec-and-more. PR Watch ist eine Publikation des Center for Media and Democracy. Ich lege dem interessierten Leser diesen Artikel ans Herz. Er enthält nicht nur die komplette Liste von Googles »staatsfeindlichen« Stipendiaten, sondern auch eine Analyse ihrer Positionen und Forschungsvorhaben. 114

Mike McIntire, »ALEC, a Tax-Exempt Group, Mixes Legislators and Lobbyists«, New York Times, 21. April 2012, https://www.nytimes.com/2012/04/22/us/alec-a-tax-exempt-groupmixes-legislators-and-lobbyists.html; Surgey, »The Googlization of the Far Right«; Center for Media and Democracy, »What Is ALEC?«, Center for Media and Democracy, 22. Februar 2017, http://www.alecexposed.org/wiki/What_is_ALEC%3F; Katie Rucke, »Why Are Tech Companies Partnering With ALEC?«, Mint Press News, 13. Dezember 2013, http://www.mintpressnews.com/techcompanies-partnering-alec/175074/. 115 »2014 Fellows – Policy Fellowship – Google«, Google, 2014, https://www.google.com/policyfellowship/2014fellows.html. 116 Brody Mullins, Jack Nicas, »Paying Professors: Inside Google’s Academic Influence Campaign«, Wall Street Journal, 14. Juli 2017, https://www.wsj.com/articles/paying-professors-inside-googlesacademic-influence-campaign-1499785286. 117 Kenneth P. Vogel, »Google Critic Ousted From Think Tank Funded by the Tech Giant«, New York Times, 30. August 2017, https://www.nytimes.com/2017/08/30/us/politics/eric-schmidtgoogle-new-america.html; Hope Reese, »The Latest Google Controversy Shows How Corporate Funding Stifles Criticism«, Vox.com, 5. September 2017, https://www.vox.com/conversations/2017/9/5/16254910/googlecontroversy-new-america-barry-lynn.

5. Die Ausarbeitung des Überwachungskapitalismus: Annexion, Monopolisierung und Wettbewerb 1

»Google Management Discusses Q3 2011 Results–Earnings Call Transcript About Alphabet Inc. (GOOG)«, Seeking Alpha, 14.  Oktober 2011, http://seekingalpha.com/article/299518-googlemanagement-discusses-q3-2011-results-earnings-calltranscript. (Hervorhebung von mir.) 2 Ken Auletta, Googled, l. Locations in der Kindle-Ausgabe: 3704‒ 3705. 3 Hier eine Auswahl von Edelmans Artikeln und Arbeiten: Benjamin Edelman, »Bias in Search Results? Diagnosis and Response«, Indian Journal of Law and Technology 7 (2011). S. 16–32; Benjamin Edelman and Zhenyu Lai, »Design of Search Engine Services: Channel Interdependence in Search Engine Results«, Journal of Marketing Research (JMR) 53:6 (2016), S. 881–900; Benjamin Edelman, »Leveraging Market Power Through Tying and Bundling: Does Google Behave Anti-competitively?« (working paper, Working Knowledge, Harvard, 28. Mai 2014), https://hbswk.hbs.edu/item/lever aging-market-power-through-tying-and-bundling-does-googlebehave-anti-competitively; Benjamin Edelman u. a. Exclusive Preferential Placement as Search Diversion: Evidence from Flight Search. Social Science Research Network, 2013; Benjamin Edelman, »Google Tying Google Plus and Many More«, Benedelman.org, 12. Januar 2012, http://www.benedelman.org/news-011212/; Benjamin Edelman, »Hard-Coding Bias in Google ›Algorithmic‹ Search Results«, Benedelman.org, 15. November 2010, http://www.benedelman.org/hardcoding. 4 Ashkan Soltani, Andrea Peterson, Barton Gellman, »NSA Uses Google Cookies to Pinpoint Targets for Hacking«, Washington Post, 10. Dezember 2013, https://www.washingtonpost.com/news/theswitch/wp/2013/12/10/nsa-uses-google-cookies-to-pinpoint-targetsfor-hacking. 5

Michael Luca u. a., »Does Google Content Degrade Google Search? Experimental Evidence« (Working Paper, NOM Unit, Harvard Business School, August 2016), http://pa pers.ssrn.com/abstract=2667143. 6 Alistair Barr, »How Google Aims to Delve Deeper into Users’ Lives«, Wall Street Journal, 28. Mai 2015, http://www.wsj.com/articles/how-google-aims-to-delve-deeper-intousers-lives-1432856623. 7 Erick Schonfeld, »Schmidt: ›Android Adoption Is About to Explode‹«, TechCrunch, 15. Oktober 2009, http://social.techcrunch.com/2009/10/15/schmidt-android-adoptionis-about-to-explode. 8 Bill Gurley, »The Freight Train That Is Android«, Above the Crowd, 25. März 2011, http://abovethecrowd.com/2011/03/24/freight-trainthat-is-android. 9 Steve Kovach, »Eric Schmidt: We’ll Have 2 Billion People Using Android Thanks to Cheap Phones«, Business Insider, 16. April 2013, https://www.businessinsider.com/eric-schmidt-on-global-androidgrowth-2013-4?IR=T (Hervorhebung von mir); Ina Fried, »Eric Schmidt on the Future of Android, Motorola, Cars and Humanity (Video)«, AllThingsD, 8. Mai 2013, http://allthingsd.com/20130508/eric-schmidt-on-the-future-ofandroid-motorola-cars-and-humanity-video. 10 Ameet Sachdev, »Skyhook Sues Google After Motorola Stops Using Its Location-Based Software«, Chicago Tribune, 19. August 2011, http://articles.chicagotribune.com/2011-08-19/business/ct-biz-0819chicago-law-20110819_1_google-s-android-google-risks-googlespokesperson.

11 Sachdev, »Skyhook Sues«. Siehe auch die eingehende Analyse der mehr als 750 Seiten verfügbarer Gerichtsakten in Verge, Mai 2011: Nilay Patel, »How Google Controls Android: Digging Deep into the Skyhook Filings«, Verge, 12. Mai 2011, http://www.theverge.com/2011/05/12/google-android-skyhooklawsuit-motorola-samsung. 12 »Complaint of Disconnect, Inc. – Regarding Google’s Infringement of Article 102 TFEU Through Bundling into the Android Platform and the Related Exclusion of Competing Privacy and Security Technology, No. COMP/40099«, Juni 2015, https://assets.docume ntcloud.org/documents/2109044/disconnect-google-antitrustcomplaint.pdf. 13 Eine weitere erwähnenswerte Studie in diesem Zusammenhang erschien 2015. Jinyan Zang, ein Wissenschaftler von der Harvard University testete dafür 110 der beliebtesten kostenlosen Apps für sowohl Android (Google) als auch iOS (Apple). Wie die Forscher feststellten, teilten 73 % der Android-Apps – im Gegensatz zu 16 % der iOS-Apps – eindeutig personenbezogene Informationen mit Dritten. Außerdem stellte man fest, dass viele Mobil-Apps sensible Nutzerinformationen mit nicht beteiligten Parteien teilten, und sie brauchen nicht eigens sichtbar um Erlaubnis zu fragen, um sich Zugang zu diesen Daten zu verschaffen. Eine weitere detaillierte Studie ist die von Luigi Vigneri und seinen Kollegen bei EURECOM. Sie nahmen 2015 die 5000 neuesten und beliebtesten Applikationen im Google-Play-Store an. Wie sie feststellten, wählten 500 dieser Apps mehr als 500 unterschiedliche URLs an, 25 von ihnen gar mehr als 1000. Da mehrere URLs Verbindung mit ein und derselben »Domäne« aufnehmen können, sahen sich die Forscher die Domänen an, die besonders oft für derlei Verbindungen verantwortlich waren. Bei neun der Top 20 dieser Domänen handelte es sich um von Google betriebene Webservices. Von den übrigen elf gehörten drei Google oder hatten geschäftlich mit Google zu tun. Beim den anderen acht

handelte es sich um Konkurrenten von Google auf den Verhaltensterminkontraktmärkten; es fanden sich darunter Facebook, Samsung und Scorecard Research, ein Datenmakler, der Verhaltensüberschuss an seine Kundschaft verkauft. Die Forscher gingen noch einen aufschlussreichen Schritt weiter. Sie charakterisierten jede der von diesen Apps besuchten URLs als entweder »werbebezogen« oder »Nutzer-Tracking-bezogen« und stellten fest, dass 66 % der Apps im Durchschnitt 40 werbebezogene URLs anwählen, in einigen Fällen sogar über 1000. Von den fünf meistangewählten Domänen gehörten drei Google. Was das Tracking angeht, so weisen die Daten darauf hin, dass hier der Wettbewerb um Verhaltensüberschuss gar noch heftiger ist. Von den Apps, die sich die Studie vornahm, nahmen 73 % keine Verbindung zu TrackingSites auf; dafür wählten sich 16 % bei 100 oder mehr Tracking-Sites ein. Google dominiert auch hier; dem Unternehmen gehören 44 % der Tracker-bezogenen Domänen, gefolgt von 32 % von AT Internet, einer privaten Firma für »digitale Informationen«, die sich auf »Verhaltensanalyse« spezialisiert hat. Vier der zehn aufdringlichsten Tracking-Apps bei Google Play hatte Google mit dem »Top Developer Badge« ausgezeichnet. Ein Forscherteam von der University of Washington unter der Führung von Adam Lerner und Anna Simpson nahm sich das Wachstum von Web-Trackern zwischen 1996 und 2016 vor. Es ist von unserem Standpunkt aus nicht weiter überraschend, dass das Web-Tracking gleichzeitig mit dem Aufstieg und der Institutionalisierung des Überwachungskapitalismus zunahm; dasselbe gilt für Verbindungen mit unbeteiligten Dritten. Während frühere Tracker Daten übermittelten, die in erster Linie der Stabilität der Produkte dienten, so die Forscher, werden in jüngerer Zeit immer häufiger Tracker eingesetzt, die persönliche Informationen erfassen und analysieren. Während 2000 nur etwa 5 % der Sites wenigstens fünf unbeteiligte Dritte kontaktierten, schickten 2016 40 % der Sites Dateien an Dritte. Unter den »leistungsfähigsten« Trackern »hinsichtlich der Erfassung von Nutzerprofilen über zahlreiche Sites hinweg« wird google-analytics.com als »bemerkenswerter Sonderfall« eingestuft; diese Domäne sammle mehr Daten von mehr

Sites als jede andere Einrichtung dieser Art. Die Forscher kommen zu dem Schluss, dass trotz all der Datenschutzbedenken, die in jüngsten Jahren so viel Aufmerksamkeit erregten, das Tracking »sowohl an Ausmaß wie an Komplexität« einen deutlichen Aufwärtstrend aufweist. Anders gesagt, es gibt heute mehr Tracking als zu jeder anderen Zeit seit dem Start des Internets, und das trotz aller Bemühungen seitens Bürgern und Staat um den Schutz der Privatsphäre. Siehe dazu Jinyan Zang u. a., »Who Knows What About Me? A Survey of Behind the Scenes Personal Data Sharing to Third Parties by Mobile Apps«, Journal of Technology Science, 30. Oktober 2015, http://techscience.org/a/2015103001; Luigi Vigneri u.  a., »Taming the Android AppStore: Lightweight Characterization of Android Applications«, ArXiv, 23. April 2015, http://arxiv.org/abs/1504.06093; Adam Lerner u. a., »Internet Jones and the Raiders of the Lost Trackers: An Archeological Study of Web Tracking from 1996‒2016«, in Proceedings of the Workshop on Endto-End, Sense-and-Respond Systems, Applications, and Services: (EESR ’05), Juni 5, 2005, Seattle (Berkeley, CA: USENIX Association, 2005), http://portal.acm.org/toc.cfm?id=1072530. 14 Ibrahim Altaweel, Nathan Good, Chris Jay Hoofnagle, »Web Privacy Census« (SSRN scholarly paper, Social Science Research Network, 15. Dezember 2015), https://papers.ssrn.com/abstract=2703814. 15 Timothy Libert, »Exposing the Invisible Web: An Analysis of ThirdParty HTTP Requests on 1 Million Websites«, International Journal of Communication 9 (28. Oktober 2015). S. 18. 16 Altaweel, Good, Hoofnagle, »Web Privacy Census«. 17 Mengwei Xu u. a., »AppHolmes: Detecting and Characterizing App Collusion Among Third-Party Android Markets«, Association for Computing Machinery, 2017, https://www.microsoft.com/enus/research/publication/appholmes-detecting-characterizing-appcollusion-among-third-party-android-markets.

18 Siehe https://privacylab.yale.edu/press and https://exodusprivacy.eu.org. Siehe dazu außerdem Yael Grauer, »Staggering Variety of Clandestine Trackers Found in Popular Android Apps«, Intercept, 24. November 2017, https://theintercept.com/2017/11/24/staggering-variety-ofclandestine-trackers-found-in-popular-android-apps. 19 »Complaint of Disconnect, Inc.« 20 Ebd. S. 3. 21 Vigneri u. a., »Taming the Android AppStore«; »Antitrust/Cartel Cases – 40099 Google Android«, European Union Commission on Competition, 15. April 2015, http://ec.euro pa.eu/competition/elojade/isef/case_details.cfm?proc_code=1_40099. 22 »European Commission – Press Release – Antitrust: Commission Sends Statement of Objections to Google on Android Operating System and Applications«, European Commission, 20. April 2016, http://europa.eu/rapid/press-release_IP-16-1492_de.htm. 23 »Complaint of Disconnect, Inc.«, S. 40. 24 Marc Rotenberg, Telefoninterview mit der Autorin, Juni 2014. 25

Jennifer Howard, »Publishers Settle Long-Running Lawsuit Over Google’s Book-Scanning Project«, Chronicle of Higher Education, 4. Oktober 2012, https://chronicle.com/article/Publishers-Settle-LongRunning/134854; »Google Books Settlement and Privacy«, EPIC.org, 30. Oktober 2016, https://epic.org/privacy/googlebooks; Juan Carlos Perez, »Google Books Settlement Proposal Rejected«, PCWorld, 22. März 2011, http://www.pcworld.com/article/222882/article.html; Eliot Van Buskirk, »Justice Dept. to Google Books: Close, but No Cigar«, Wired, 5. Februar 2010, http://www.wired.com/2010/02/ju stice-dept-to-google-books-close-but-no-cigar; Miguel Helft, »Opposition to Google Books Settlement Jells«, New York Times, Bits Blog, 17. April 2009, https://bits.blogs.nyti mes.com/2009/04/17/opposition-to-google-books-settlement; Brandon Butler, »The Google Books Settlement: Who Is Filing and What Are They Saying?« Association of Research Libraries 28 (2009). S. 9; Ian Chant, »Authors Guild Appeals Dismissal of Google Books Lawsuit«, Library Journal, 16. April 2014. 26 »Investigations of Google Street View«, EPIC.org, 2014, https://epic.org/privacy/streetview; David Kravets, »An Intentional Mistake: The Anatomy of Google’s Wi-Fi Sniffing Debacle«, Wired, 2. Mai 2012, https://www.wired.com/2012/05/google-wifi-fcc-investi gation; Clint Boulton, »Google WiFi Privacy Breach Challenged by 38 States«, eWeek, 21. Juli 2010, http://www.eweek.com/c/a/SearchEngines/Google-WiFi-Privacy-Breach-Challenged-by-38-States196191; Alastair Jamieson, »Google Will Carry On with Camera Cars Despite Privacy Complaints Over Street Views«, Telegraph, 9. April 2009, http://www.telegraph.co.uk/technology/google/5130068/Google-willcarry-on-with-camera-cars-despite-privacy-complaints-over-streetviews.html; Gareth Corfield, » ›At Least I Can Walk Away with My Dignity‹ – Streetmap Founder After Google Lawsuit Loss«, Register, 20. Februar 2017, https://www.theregister.co.uk/2017/02/20/streetmap_founder_kate_su tton_google_lawsuit.

27 Joseph Menn, Daniel Schåfer, Tim Bradshaw, »Google Set for Probes on Data Harvesting«, Financial Times, 17. Mai 2010, https://www.ft.com/content/254ff5b6-61e2-11df-998c-00144feab49a. 28 Julia Angwin, »Google in New Privacy Probes«, Wall Street Journal, 16. März 2012, http://online.wsj.com/articles/SB10001424052702304692804577283 821586827892; Julia Angwin, »Google, FTC Near Settlement on Privacy«, Wall Street Journal, 10. Juli 2012, http://www.wsj.com/articles/SB100014240527023035677045775170 81178553046; Jonathan Owen, »Google in Court Again Over ›Right to Be Above British Law‹ on Alleged Secret Monitoring«, Independent, 8. Dezember 2014, http://www.independent.co.uk/news/uk/crime/google-challengeshigh-court-decision-on-alleged-secret-monitoring-9911411.html. 29 »Testimony of Benjamin Edelman Presented Before the United States House of Representatives Committee on the Judiciary Task Force on Competition Policy and Antitrust Laws«, 27. Juni 2008; Brody Mullins, Rolfe Winkler, Brent Kendall, »Inside the U. S. Antitrust Probe of Google«, Wall Street Journal, 19. März 2015, http://www.wsj.com/articles/inside-the-u-s-antitrust-probe-of-google1426793274. 30

Nate Anderson, »Why Google Keeps Your Data Forever, Tracks You with Ads«, Ars Technica, 8. März 2010, http://arstechnica.com/techpolicy/news/2010/03/google-keeps-your-data-to-learn-from-goodguys-fight-off-bad-guys.ars; Kevin J. O’Brien, Thomas Crampton, »E. U. Probes Google Over Data Retention Policy«, New York Times, 26. Mai 2007, http://www.nytimes.com/2007/05/26/business/26google.html; Mark Bergen, »Google Manipulates Search Results, According to Study from Yelp and Legal Star Tim Wu«, Recode, 29. Juni 2015, http://www.recode.net/2015/6/29/11563936/yelp-teams-with-legalstar-tim-wu-to-trounce-google-in-new-study. 31 David Snelling, »Google Maps Is Tracking You! How Your Smartphone Knows Your Every Move«, Express, 18. August 2014, http://www.express.co.uk/life-style/science-tech nology/500811/Google-Maps-is-tracking-your-every-move; Jason Mick, »ACLU Fights for Answers on Police Phone Location Data Tracking«, Daily Tech, 4. August 2011, http://www.dailytech.com/ACLU+Fights+for+Answers+on+Police+P hone+Location+Data+Tracking/article22352.htm. 32 »Google Glass and Privacy«, EPIC.org, 6. Oktober 2017, https://epic.org/privacy/google/glass. 33 Benjamin Herold, »Google Under Fire for Data-Mining Student Email Messages«, Education Week, 26. März 2014, http://www.edweek.org/ew/articles/2014/03/13/26google.h33.html; Quinten Plummer, »Google Email Tip-Off Draws Privacy Concerns«, Tech Times, 5. August 2014, http://www.techtimes.com/articles/12194/20140805/google-emailtip-off-draws-privacy-concerns.htm. 34

Grant Gross, »French Fine Google Over Change in Privacy Policy«, PCWorld, 8. Januar 2014, http://www.pcworld.com/article/2085920/french-fine-google-overchange-in-privacy-policy.html; Dheepthika Laurent, »Facebook, Twitter and Google Targeted in French Lawsuit«, CNN.com, 26. März 2014, http://www.cnn.com/2014/03/25/world/europe/france-socialmedia-lawsuit/index.html; Mark Milian, »Google to Merge User Data Across Its Services«, CNN.com, 25. Januar 2012, http://www.cnn.com/2012/01/24/tech/web/google-privacypolicy/index.html; Gross, »French Fine Google«; Martin Gijzemijter, »Google’s Privacy Policy Merger ›Against Dutch Law‹ «, ZDNet, 29. November 2013, http://www.zdnet.com/article/googles-privacypolicy-merger-against-dutch-law; Zack Whittaker, »Google Faces EU State Fines Over Privacy Policy Merger«, ZDNet, 2. April  2013, http://www.zdnet.com/article/google-faces-eu-state-fines-overprivacy-policy-merger. 35 Peter Fleischer, »Street View and Privacy«, Google Lat Long, 24. September 2007, https://maps.googleblog.com/2007/09/street-viewand-privacy.html. 36 Stephen Hutcheon, »We’re Not Stalking You or Helping Terrorists, Says Google Earth Boss«, Sydney Morning Herald, 30. Januar 2009, http://www.smh.com.au/news/technology/biztech/were-not-stalkingyou-or-helping-terrorists-says-google-earthboss/ 2009/01/30/1232818692103.html. 37 Jamieson, »Google Will Carry On with Camera Cars«. 38 Kevin J. O’Brien, Claire Cain Miller, »Germany’s Complicated Relationship with Google Street View«, New York Times, Bits Blog, 23. April 2013, http://bits.blogs.nytimes.com/2013/04/23/germanyscomplicated-relationship-with-google-street-view. 39

Peter Fleischer, »Data Collected by Google Cars«, Google Europe, 27. April 2010, https://europe.googleblog.com/2010/04/datacollected-by-google-cars.html. 40 »In the Matter of Google, Inc.: Notice of Apparent Liability for Forfeiture, File No.: EB-10-IH-4055, NAL/Acct. No.: 201232080020, FRNs: 0010119691, 0014720239«, Federal Communications Commission, 13. April 2012, S. 12f. 41 Kevin J. O’Brien, »Google’s Data Collection Angers European Officials«, New York Times, 15. Mai 2010, http://www.nytimes.com/2010/05/16/technology/16google.html; siehe dazu auch https://www.zeit.de/digital/datenschutz/201002/aigner-google-street-view. 42 »Commissioner’s Findings – PIPEDA Report of Findings #2011– 001: Report of Findings: Google Inc. WiFi Data Collection – Office of the Privacy Commissioner of Canada«, 6. Juni 2011, https://www.priv.gc.ca/en/opc-actions-anddecisions/investigations/investigations-into-businesses/2011/pipeda2011-001/; CNIL, »Délibération de La Commission Nationale de l’Informatique et Des Libertés Decision No. 2011-035 of the Restricted Committee Imposing a Financial Penalty on the Company Google Inc.«, 2011-035 § (2011), https://www.legifrance.gouv.fr/affichCnil.do? &id=CNILTEXT000023733987; »Final Findings, Dutch Data Protection Authority Investigation into the Collection of Wifi Data by Google Using Street View Cars – Z2010-00582 – DDPA Decision«, 7. Dezember 2010, http://www.dutchdpa.nl/do wnloads_overig/en_pb_20110811_google_final_findings.pdf. 43

»Investigations of Google Street View«; Kevin J. O’Brien, »Europe Pushes Google to Turn Over Wi-Fi Data«, New York Times, 27. Juni 2010, http://www.nytimes.com/2010/06/28/technology/28google.html. 44 »In the Matter of Google, Inc.: Notice of Apparent Liability for Forfeiture«. 45 O’Brien, »Google’s Data Collection«. 46 EPIC maintained a website charting the time line of Street View events and the outcomes of legal challenges both domestically and internationally. Siehe dazu »Investigations of Google Street View«; »Ben Joffe v. Google«, EPIC.org, 2017, https://epic.org/amicus/goog le-street-view; »FCC Investigation of Google Street View,« EPIC.org, 2017, https://www.epic.org/privacy/google/fcc_investigation_of_google_st. html; Mark A. Chavez, Marc Rotenberg, »Brief for Amicus Curiae: Electronic Privacy Information Center in Support of Plaintiffs – In Re Google Street View Electronic Communications Litigation, Case No. 5:10-Md-02184-J«, U. S. District Court for Northern District of California San Jose Division, April 11, 2011, https://epic.org/privacy/streetview/EPICStreetviewAmicus.pdf. 47 Maija Palmer, Lionel Barber, »Google to Hand Over Intercepted Data«, Financial Times, 3. Juni 2010, https://www.ft.com/content/db664044-6f43-11df-9f43-00144feabdc0. 48 »In the Matter of Google, Inc.: Notice of Apparent Liability for Forfeiture.« 49 Denis Howe, »Wardriving«, Dictionary.com, http://www.dictionary.com/browse/wardriving; siehe zu diesem Begriff auch https://de.wikipedia.org/wiki/Wardriving.

50 »In the Matter of Google, Inc.: Notice of Apparent Liability for Forfeiture«, S. 11. 51 Ebd. S. 11f. 52 David Streitfeld, »Google Concedes That Drive-by Prying Violated Privacy«, New York Times, Bits Blog, 13. März 2013, http://bits.blogs.nytimes.com/2013/03/13/daily-report-googleconcedes-that-drive-by-prying-violated-privacy. 53 Ders., »Google Admits Street View Project Violated Privacy«, New York Times, 13. März 2013, http://www.nytimes.com/2013/03/13/technology/google-pays-fineover-street-view-privacy-breach.html. 54 Ebd. 55 »In the Matter of Google, Inc.: Notice of Apparent Liability for Forfeiture«, S. 11; »Google to Give Governments Street View Data«, New York Times, 3. Juni 2010, https://www.nyti mes.com/2010/06/04/business/global/04google.html. 56 Alan Eustace, »Creating Stronger Privacy Controls inside Google«, Google Public Policy Blog, 22. Oktober 2010, https://publicpolicy.googleblog.com/2010/10/creating-strongerprivacy-controls.html. 57 »Measures (Guidance) Concerning Protection of ›Secrecy of Communication‹ to Google Inc.« Ministry of Internal Affairs and Communications Japan, 11. November 2011, http://www.soumu.go.jp/menu_news/snews/01kiban08_02000056.html. 58

Matt McGee, »Google Street View Debuts in Germany, Blurry Houses Included«, Search Engine Land, 1. November 2010, http://searchengineland.com/google-street-view-germany-blurryhouses-included-54632. 59 Matt McGee, »Google Street View Debuts in Germany, Blurry Houses Included«, Search Engine Land, 1. November 2010, http://searchengineland.com/google-street-view-germany-blurryhouses-included-54632. 60 Arne Gerhards, »Fine Imposed upon Google«, Hamburg Commissioner for Data Protection and Freedom of Information, https://www.heise.de/newsticker/meldung/HamburgsDatenschutzbeauftragter-verhaengt-Bussgeld-gegen-Google1847017.html. 61 Matt McGee, »Google Has Stopped Street View Photography in Germany«, Search Engine Land, 10. April 2011, http://searchengineland.com/google-has-stopped-street-viewphotography-germany-72368. 62

Peter Fleischer, »Street View in Switzerland«, Google Europe, 13. November 2009, https://europe.googleblog.com/2009/11/street-viewin-switzerland.html; Scott Capper, »Google Faces Court Action Over Street View«, Swissinfo.ch, 16. November 2009, http://www.swiss info.ch/eng/business/google-faces-court-action-over-streetview/7656246; Anita Greil, Katharina Bart, »Swiss Court to Rule on Google Street View«, Wall Street Journal, 24. Februar 2011, http://www.wsj.com/articles/SB1000142405274870340 8604576163770758984178; Frank Jordans, »Google Threatens to Shut Down Swiss Street View«, The Seattle Times, 11. Mai 2011, https://www.seattletimes.com/business/googlethreatens-to-shut-down-swiss-street-view/; Kevin J. O’Brien, David Streitfeld, »Swiss Court Orders Modifications to Google Street View«, New York Times, 8. Juni 2012, http://www.nytimes.com/2012/06/09/technology/09ihtgoogle09.html; »Google Beefs Up Restricted Swiss Street View«, swissinfo.ch, 19. Mai 2015, http://www.swissinfo.ch/eng/society/eagle-eye_google-beefs-up-re stricted-swiss-street-view/41439290; https://www.heise.de/news ticker/meldung/Schweizer-Datenschuetzer-fordert-Stopp-vonGoogle-Street-View-Update-752717.html. 63

Indien blockiert Street View nach wie vor, und was Österreich und Deutschland anbelangt, waren Google trotz Aufhebung des Verbots die Kosten zu hoch, den geforderten Maßnahmen nachzukommen. Einzelheiten über das Verbot in Schlüsselländern finden Sie unter »New Developments Regarding Google Street View«, Austrian Data Protection Agency, 4. April 2016, http://web.archive.org/web/20160404072538/https://www.dsb.gv. at/site/6733/default.aspx; Helena Smith Athens, »Google Street View Banned from Greece«, Guardian, 12. Mai 2009, https://www.theguardian.com/technology/2009/may/12/google-streetview-banned-greece; John Ribeiro, »Google Street View in India Faces Challenges«, PCWorld, 26. Mai 2011, http://www.pcworld.com/article/228713/article.html; Danuta Pavilenene, »Google Street View Banned from Lithuanian Streets«, Baltic Course, 23. Mai 2012, http://www.balticcourse.com/eng/Technology/?doc=57649. 64 Liz Gannes, »Ten Years of Google Maps, from Slashdot to Ground Truth«, Recode, 8. Februar 2015, http://www.recode.net/2015/2/8/11558788/ten-years-of-google-mapsfrom-slashdot-to-ground-truth. 65 Kashmir Hill, »Google’s Privacy Director Is Stepping Down«, Forbes, 1. April 2013, https://www.forbes.com/sites/kashmirhill/2013/04/01/googlesprivacy-director-is-steppingdown/#6d33170566f2; https://www.welt.de/wirtschaft/webwelt/articl e114944654/Googles-oberste-Datenschuetzerin-wirft-dasHandtuch.html. 66 ScroogledTruth, Scroogled – Dr. Alma Whitten (Google’s Privacy Engineering Lead) Before Congress, 2013, https://www.youtube.com/watch?v=vTLEJsunCfI. 67

Steve Lohr, David Streitfeld, »Engineer in Google’s Street View Is Identified«, New York Times, 30. April2012, http://www.nytimes.com/2012/05/01/technology/engineer-in-googlesstreet-view-is-identified.html. 68 Farhad Manjoo, »Is It Time to Stop Trusting Google?«, Slate, 1. Mai 2012, http://www.slate.com/articles/technology/technology/2012/05/marius _milner_google_wi_fi_snoo ping_assessing_the_disturbing_fcc_report_on_the_company_s_street _view_program_.html. 69 John V. Hanke u. a., A system and method for transporting virtual objects in a parallel reality game, United States US8968099B1, eingereicht am 1. November 2012, erteilt am 3. März 2015, https://patents.google.com/patent/US8968099B1/en. 70 Alexis C. Madrigal, »How Google Builds Its Maps – and What It Means for the Future of Everything«, Atlantic, 6. September 2012, http://www.theatlantic.com/technology/archive/2012/09/how-googlebuilds-its-maps-and-what-it-means-for-the-future-of-every thing/261913. 71 Brian McClendon, »Building a Better Map of Europe«, Google Maps, 5. Dezember 2012, https://maps.googleblog.com/2012/12/building-better-map-ofeurope.html. 72 »TIGER Geodatabases«, US Census Bureau, 2016, https://www.census.gov/geo/maps-data/data/tiger-geodatabases.html. 73 Madrigal, »How Google Builds Its Maps« (Hervorhebung von mir). 74 Gannes, »Ten Years of Google Maps«.

75 Soufi Esmaeilzadeh, » ›See Inside‹ with Google Maps Business View«, Google Lat Long, 17. Dezember 2014, https://maps.googleblog.com/2014/12/see-inside-with-google-mapsbusiness.html; »Google Street View – What It Takes to Be Trusted«, Google Street View, 10. November 2016, https://www.google.com/streetview/earn; »About – Google Maps«, Google Maps, 10. November 2016, https://www.google.com/maps/about/partners. 76 James Vincent, »Skybox: Google Maps Goes Real-Time – but Would You Want a Spy in the Sky Staring into Your Letter Box?«, Independent, 21. Juni 2014, http://www.independent.co.uk/lifestyle/gadgets-and-tech/news/skybox-google-maps-goes-real-timebut-would-you-want-a-spy-in-the-sky-staring-into-your-letter-box9553934.html; DigitalGlobe, »DigitalGlobe Hosts U. S. Secretary of Commerce Pritzker for a Discussion on Commerce in Colorado«, DigitalGlobe Blog, 25. Juni 2014, http://blog.digitalglobe.com/2014/ 06/25/digitalglobehostsussecretarypritzker; Ellen Huet, »Google Buys Skybox Imaging – Not Just for Its Satellites«, Forbes, 10. Juni 2014, http://www.forbes.com/sites/ellenhuet/2014/06/10/googlebuys-skybox-imaging-not-just-for-its-satellites. 77 Tom Warren, »Google Just Showed Me the Future of Indoor Navigation«, Verge, 23. Februar 2016, http://www.theverge.com/2016/2/23/11094020/google-lenovoproject-tango-indoor-navigation. 78 Sophia Lin, »Making of Maps: The Cornerstones«, Google Maps, 4. September 2014, https://maps.googleblog.com/2014/09/making-ofmaps-cornerstones.html. 79

Alistair Barr, »Google Maps Guesses Where You’re Headed Now«, Wall Street Journal, 13. Januar 2016, http://blogs.wsj.com/digits/2016/01/13/google-maps-guesses-whereyoure-headed-now. 80 Akshay Kannan, »Introducing Nearby: A New Way to Discover the Things Around You«, Official Android Blog, 9. Juni 2016, https://android.googleblog.com/2016/06/introducing-nearby-newway-to-discover.html. 81 Kieren McCarthy, »Delete Google Maps? Go Ahead, Says Google, We’ll Still Track You«, Register, 12. September 2016, http://www.theregister.co.uk/2016/09/12/turn_off_locati on_services_go_ahead_says_google_well_still_track_you. 82 John B. Harley, The New Nature of Maps: Essays in the History of Cartography. Baltimore: Johns Hopkins University Press, 2001. 83 Ebd. 58f. 84 Stephen Graves, »Niantic Labs’ John Hanke on Alternate Reality Games and the Future of Storytelling«, PC&Tech Authority, 13. Oktober 2014. 85 David DiSalvo, »The Banning of Google Glass Begins (And They Aren’t Even Available Yet)«, Forbes, 10. März 2013, http://www.forbes.com/sites/daviddisalvo/2013/03/10/the-ban-ongoogle-glass-begins-and-they-arent-even-available-yet; David Streitfeld, »Google Glass Picks Up Early Signal: Keep Out«, New York Times, 6. Mai 2013, http://www.nytimes.com/2013/05/07/technology/personaltech/google -glass-picks-up-early-signal-keep-out.html. 86

Aaron Smith, »U. S. Views of Technology and the Future«, Pew Research Center: Internet, Science & Tech, 17. April 2014, http://www.pewinternet.org/2014/04/17/us-views-of-technology-andthe-future. 87 Drew FitzGerald, »Now Google Glass Can Turn You into a Live Broadcast«, Wall Street Journal, 24. Juni 2014, http://www.wsj.com/articles/now-google-glass-can-turn-you-into-alive-broadcast-1403653079. 88 Amir Efrati, »Google Glass Privacy Worries Lawmakers«, Wall Street Journal, 17. Mai 2013, http://www.wsj.com/articles/SB100014241278873247670045784876 61143483672. 89 »We’re Graduating from Google[x] Labs«, Google Glass (Public), 15. Januar 2015. 90 »OET Exhibits List«, Federal Communications Commission, 10. November 2016, https://apps.fcc.gov/oetcf/eas/reports/ViewExhibitReport.cfm? mode=Exhibits&RequestTime out=500&calledFromFrame=N&application_id=eDyH1HI%2FRcK9 NnzZ4ggP6w%3D%3D&fcc_id=A4R-GG1. 91 »Looking Ahead for WhatsApp«, WhatsApp, 25. August 2016, https://blog.whatsapp.com/10000627/Looking-ahead-for-WhatsApp. 92 Alistair Barr, »Google’s Tough Search for New Platforms on Display at I/O«, Wall Street Journal, 27. Mai 2015, http://www.wsj.com/articles/googles-tough-search-for-new-plat forms-on-display-at-i-o-1432748457. 93

Jay Kothari, »A New Chapter for Glass«, Team at X, 18. Juli 2017, https://blog.x.company/a-new-chapter-for-glass-c7875d40bf24. 94 Siehe dazu unter anderem Darrell Etherington, »Google Glass Is Back with Hardware Focused on the Enterprise«, TechCrunch, 18.  Juli 2017, http://social.techcrunch.com/2017/07/18/google-glass-isback-with-hardware-focused-on-the-enterprise; Hayley Tsukayama, »Google Will Stop Selling Glass to the General Public, but Google Says the Device Is Not Dead Yet«, Washington Post, 15. Januar 2015, https://www.washingtonpost.com/news/theswitch/wp/2015/01/15/google-will-stop-selling-glass-to-the-generalpublic-but-google-says-the-device-is-not-dead-yet; Brid-Aine Parnell, »NYPD Dons Google Tech Specs: Part Man. Part Machine. All Glasshole«, Register, 10. Februar 2014, http://www.theregister.co.uk/2014/02/10/nypd_tests_google_glass. 95 Kent Matthew Schoen, Gregory Luc Dingle, Timothy Kendall, Communicating information in a social network system about activities from another domain, WO2011097624 A2, eingereicht am 8. Februar 2011, erteilt am 11. August 2011, http://www.google.com/patents/WO2011097624A2. 96 »Facebook Settles FTC Charges That It Deceived Consumers by Failing to Keep Privacy Promises«, Federal Trade Commission, 29. November 2011, https://www.ftc.gov/news-events/pressreleases/2011/11/facebook-settles-ftc-charges-it-deceived-consumersfailing-keep. 97 »FTC Facebook Settlement«, Electronic Privacy Information Center, Dezember 2009, https://epic.org/privacy/ftc/facebook. 98 »Facebook Settles FTC Charges That It Deceived Consumers«. 99

Somini Sengupta, »F. T. C. Settles Privacy Issue at Facebook«, New York Times, 29. November 2011, https://www.nytimes.com/2011/11/30/technology/facebook-agrees-toftc-settlement-on-privacy.html. 100 Emily Steel, April Dembosky, »Facebook Raises Fears with Ad Tracking«, CNN, 23. September 2012, https://edition.cnn.com/2012/09/23/business/facebookdatalogix/index.html. 101 Jon Loomer, »Facebook Target Audiences: Target Facebook Ads by Email List«, Jonloomer.com, 24. September 2012, https://www.jonloomer.com/2012/09/24/facebook-custom-audiences/ 102 Tom Simonite, »Facebook Will Now Target Ads Based on What Its Like Buttons Saw You Do«, MIT Technology Review, 16. September 2015, https://www.technologyreview.com/s/541351/facebooks-likebuttons-will-soon-track-your-web-browsing-to-target-ads/; Cotton Delo, »Facebook to Use Web Browsing History For Ad Targeting«, AdAge, 12. Juni 2014, http://adage.com/article/digital/facebook-webbrowsing-history-ad-targeting/293656/. 103 Julia Angwin, »Google Has Quietly Dropped Ban on Personally Identifiable Web Tracking«, ProPublica, 21. Oktober 2016, https://www.propublica.org/article/google-has-quietly-dropped-banon-personally-identifiable-web-tracking. 104 Jack Nicas, »Privacy Groups Seek Regulatory Review of Google Privacy Policy«, Wall Street Journal, 19. Dezember 2016, http://www.wsj.com/articles/privacy-groups-seek-regulatory-reviewof-google-privacy-policy-1482190366. 105

Ross Hunter, Farhad Zaman, Kennedy Liu, »Global Top 100 Companies by Market Capitalisation«, IPO Center, Price Waterhouse Coopers, 31. März 2017, http://www.pwc.com/gx/en/auditservices/assets/pdf/global-top-100-companies-2017-final.pdf. 106 Deborah Crawford u. a., »Facebook, Inc. (FB) – Fourth Quarter and Full Year 2016 Results Conference Call«, 1. Februar 2017, https://s21.q4cdn.com/399680738/files/doc_financials/2016/Q4/FBQ416-Earnings-Transcript.pdf. 107 Paul Murphy, »It Seems Google and Facebook Really Are Taking ALL the Growth in Ad Revenue«, Financial Times, 26. April 2017, http://ftalphaville.ft.com/2017/04/26/2187891/it-seems-google-andfacebook-really-are-taking-all-the-growth-in-ad-revenue; Julia Kollewe, »Google and Facebook Bring in One-Fifth of Global Ad Revenue«, Guardian, 1. Mai 2017, http://www.theguardian.com/media/2017/may/02/google-andfacebook-bring-in-one-fifth-of-global-ad-revenue; Mathew Ingram, »Google and Facebook Have Taken Over the Digital Ad Industry«, Fortune, 4. Januar 2017, http://fortune.com/2017/01/04/googlefacebook-ad-industry. 108 Kara Swisher, »Microsoft’s Point Man on Search – Satya Nadella – Speaks: ›It’s a Game of Scale‹ «, AllThingsD, 4. August 2009, http://allthingsd.com/20090804/microsofts-point-man-on-searchsatya-nadella-speaks-its-a-game-of-scale. 109 Julie Bort, »Satya Nadella Just Launched Microsoft Into A New $1.6 Trillion Market«, Business Insider, 16. April 2014, https://www.businessinsider.in/Satya-Nadella-Just-LaunchedMicrosoft-Into-A-New-1-6-Trillion-Market/amp_articleshow/337932 55.cms. 110

Satya Nadella, »A Data Culture for Everyone«, Official Microsoft Blog, 15. April 2014, https://blogs.microsoft.com/blog/2014/04/15/adata-culture-for-everyone. 111 Richard Qian, »Understand Your World with Bing«, Bing Blogs, 21. März 2013, http://blogs.bing.com/search/2013/03/21/understandyour-world-with-bing. 112 Dan Farber, »Microsoft’s Bing Seeks Enlightenment with Satori«, CNET, 30. Juli 2013, https://www.cnet.com/news/microsofts-bingseeks-enlightenment-with-satori. 113 Greg Sterling, »Milestone: Bing Now Profitable as Windows 10 Success Boosts Usage«, Search Engine Land, 23. Oktober 2015, http://searchengineland.com/milestone-bing-now-profitable-aswindows-10-success-boosts-usage-234285. 114 Ginny Marvin, »After a Year of Transition, Microsoft Execs Say, ›We’re All in on Search‹ «, Search Engine Land, 23. November 2015, http://searchengineland.com/microsoft-execs-all-in-on-search-bingads-next-236746. 115 »Cortana and Privacy«, Microsoft, 11. November 2016, https://privacy.microsoft.com/en-US/windows-10-cortana-andprivacy. 116 Dan Kedmey, »Here’s What Really Makes Microsoft’s Cortana So Amazing«, Time, 20. Juli 2015, http://time.com/3960670/windows10-cortana. 117 Richard Waters, »Artificial Intelligence: A Virtual Assistant for Life«, Financial Times, 22. Februar 2015, https://www.ft.com/content/4f2f97ea-b8ec-11e4-b8e6-00144feab7de.

118 »Microsoft Outlines Intelligence Vision and Announces New Innovations for Windows 10,« Microsoft News Center, 30. März  2016, https://news.microsoft.com/2016/03/30/microsoft-outlinesintelligence-vision-and-announces-new-innovations-for-windows-10. 119 Chris Messina, »Conversational Commerce: Messaging Apps Bring the Point of Sale to You«, Medium, 16. Januar 2015, https://medium.com/chris-messina/conversational-commerce92e0bccfc3ff#.sdpy3xp3b. 120 Shish Shridhar, »We Don’t Need Yet Another App, Conversations Are the New App«, Microsoft Developer Blogs – the ShiSh List, 21. Mai 2016, https://blogs.msdn.microsoft.com/shishirs/2016/05/21/wedont-need-yet-another-app-conversations-are-the-new-app. 121 Terry Myerson, »Hello World: Windows 10 Available on Juli 29«, Windows Experience Blog, 1. Juni 2015, https://blogs.windows.com/windowsexperience/2015/06/01/hello-wor ld-windows-10-available-on-july-29. 122 David Auerbach, »Broken Windows Theory«, Slate, 3. August 2015, http://www.slate.com/articles/technology/bitwise/2015/08/windows_1 0_privacy_problems_here_s_how_bad_they_are_and_how_to_plug_t hem.html. 123 Peter Bright, »Even When Told Not to, Windows 10 Just Can’t Stop Talking to Microsoft«, Ars Technica, 13. August 2015, https://arstechnica.com/information-technology/2015/08/even-whentold-not-to-windows-10-just-cant-stop-talking-to-microsoft. 124

Amul Kalia, »With Windows 10, Microsoft Blatantly Disregards User Choice and Privacy: A Deep Dive«, Electronic Frontier Foundation, 17. August 2016, https://www.eff.org/deeplinks/2016/08/windows10-microsoft-blatantly-disregards-user-choice-and-privacy-deep-dive; Conner Forrest, »Windows 10 Violates Your Privacy by Default, Here’s How You Can Protect Yourself«, TechRepublic, 4. August 2015, http://www.techrepublic.com/article/windows-10-violatesyour-privacy-by-default-heres-how-you-can-protect-yourself; Alec Meer, »Windows 10 Is Spying on You: Here’s How to Stop It«, Rock, Paper, Shotgun, 30. Juli 2015, https://www.rockpapershotgun.com/2015/07/30/windows-10-privacysettings. 125 »About Us – LinkedIn«, LinkedIn, November 11, 2016, https://press.linkedin.com/about-linkedin. 126 Satya Nadella u. a., »Slides from Microsoft Investors Call Announcing LinkedIn Acquisition – World’s Leading Professional Cloud + Network – Microsoft’s and LinkedIn’s Vision for the Opportunity Ahead«, 13. Juni 2016, https://www.microsoft.com/enus/Investor/events/FY-2016/microsoft-linkedIn.aspx. 127 Satya Nadella u. a., »Slides from Microsoft«. 128 Supantha Mukherjee, »Microsoft’s Market Value Tops $500 Billion Again After 17 Years«, Reuters, 27. Januar 2015, https://www.reuters.com/article/us-microsoft-resultsresearch/microsofts-market-value-tops-500-billion-again-after-17years-idUSKBN15B1L6. 129

Brian Fung, »Internet Providers Want to Know More About You Than Google Does, Privacy Groups Say«, Washington Post, 20. Januar 2016, https://www.washingtonpost.com/news/theswitch/wp/2016/01/20/your-internet-provider-is-turning-into-a-datahungry-tech-company-consumer-groups-warn. 130 Melissa Parietti, »The World’s Top 10 Telecommunications Companies«, Investopedia, 2. März 2016, http://www.investopedia.com/articles/markets/030216/worlds-top-10telecommunications-companies.asp; Eric Griffith, »The Fastest ISPs of 2016«, PCMAG, 31. August 2016, http://www.pcmag.com/article/346232/the-fastest-isps-of-2016. 131 Mark Bergen, Alex Kantrowitz, »Verizon Looks to Target Its Mobile Subscribers with Ads«, Advertising Age, 21. Mai 2014, http://adage.com/article/digital/verizon-target-mobile-subscribersads/293356. 132 Ebd. 133 Julia Angwin, Mike Tigas, »How This Company Is Using Zombie Cookies to Track Verizon Customers«, ProPublica, 14. Januar 2015, https://www.propublica.org/article/zombie-cookie-the-trackingcookie-that-you-cant-kill. 134 Robert McMillan, »Verizon’s ›Perma-Cookie‹ Is a Privacy-Killing Machine«, Wired, Oktober 2014, http://www.wired.com/2014/10/verizons-perma-cookie. 135 Jacob Hoffman-Andrews, »Verizon Injecting Perma-Cookies to Track Mobile Customers, Bypassing Privacy Controls«, Electronic Frontier Foundation, 3. November 2014, https://www.eff.org/deeplinks/2014/11/verizon-x-uidh. 136

Julia Angwin, Jeff Larson, »Somebody’s Already Using Verizon’s ID to Track Users«, ProPublica, 30. Oktober 2014, http://www.propublica.org/article/somebodys-already-using-verizonsid-to-track-users. 137 Jacob Hoffman-Andrews, »How Verizon and Turn Defeat Browser Privacy Protections«, Electronic Frontier Foundation, 14. Januar 2015, https://www.eff.org/deeplinks/2015/01/verizon-and-turn-breakbrowser-privacy-protections. 138 Julia Angwin, »AT&T Stops Using Undeletable Phone Tracking IDs«, ProPublica, 14. November 2014, http://www.propublica.org/article/att-stops-using-undeletable-phonetracking-ids; Angwin, Tigas, »How This Company Is Using Zombie Cookies«. 139 Angwin, Larson, »Somebody’s Already Using Verizon’s ID«. 140 Jonathan Mayer, »The Turn-Verizon Zombie Cookie«, Web Policy, 14. Januar 2015, http://webpolicy.org/2015/01/14/turn-verizonzombie-cookie; Allison Schiff, »Can You Identify Me Now? A Deep Dive on Verizon’s Data Practices«, AdExchanger, 9. Oktober 2014, http://adexchanger.com/data-exchanges/can-you-identify-me-now-adeep-dive-on-verizons-data-practices. 141 Jacob Hoffman-Andrews, »Under Senate Pressure, Verizon Plans Supercookie Opt-Out«, Electronic Frontier Foundation, 2. Februar 2015, https://www.eff.org/deeplinks/2015/02/under-senate-pressureverizon-improves-its-supercookie-opt-out. 142

Bill Nelson u. a., »Letter to Mr. Lowell C. McAdam, Chairman and CEO of Verizon Communications from United States Senate Committee on Commerce, Science, and Transportation«, Senate Committee Letter, 29. Januar 2015, http://thehill.com/sites/default/fi les/nelson-blumenthal-schatzmarkey_letter_to_verizon_re_supercookies.pdf. 143 Brian X. Chen, Natasha Singer, »Verizon Wireless to Allow Complete Opt Out of Mobile ›Supercookies‹ «, New York Times, Bits Blog, 30. Januar 2015, http://bits.blogs.nytimes.com/2015/01/30/verizon-wireless-to-allowcomplete-opt-out-of-mobile-supercookies. 144 Edmund Ingham, »Verizon Had One Thing on Its Mind When It Agreed to Buy AOL: CEO Tim Armstrong«, Forbes, 13. Mai 2015, http://www.forbes.com/sites/edmundingham/2015/05/13/verizon-hadone-thing-on-its-mind-when-it-agreed-to-buy-aol-ceo-tim-armstrong. 145 Ingham, »Verizon Had One Thing«; Alexander Nazaryan, »Marissa Mayer, Tim Armstrong and the Nerd Prom«, Newsweek, 25. Juli 2016, http://www.newsweek.com/marissa-mayer-tim-armstrong-nerdprom-483539. 146 »Advertising Programs Privacy Notice – Oktober 2015«, Verizon, 7. Dezember 2015, http://www.verizon.com/about/privacy/advertisingprograms-privacy-notice; Julia Angwin, Jeff Larson, »Verizon’s Zombie Cookie Gets New Life«, ProPublica, 6. Oktober 2015, https://www.propublica.org/article/verizons-zombie-cookie-gets-newlife. 147

Julia Angwin, »Verizon to Pay $1.35 Million to Settle Zombie Cookie Privacy Charges«, ProPublica, 7. März 2016, https://www.propublica.org/article/verizon-to-pay-1.35-million-tosettle-zombie-cookie-privacy-charges. 148 Mike Shields, Ryan Knutson, »AOL’s Tim Armstrong Aims to Build Digital-Ad Empire at Verizon«, Wall Street Journal, 30. März 2016, http://www.wsj.com/articles/aols-tim-armstrong-aims-to-builddigital-ad-empire-at-verizon-1459330200. 149 Tom Wheeler, »Statement of Chairman Tom Wheeler in Reply to WC Docket No. 16-106, Protecting the Privacy of Customers of Broadband and Other Telecommunications Services«, Federal Communications Commission, 2016. 150 Alina Selyukh, »FCC Votes to Propose New Privacy Rules for Internet Service Providers«, NPR.org, 31. März 2016, http://www.npr.org/sections/thetwo-way/2016/03/31/472528382/fccvotes-to-propose-new-privacy-rules-for-internet-service-providers. 151 »FCC Adopts Broadband Consumer Privacy Rules: FCC Adopts Privacy Rules to Give Broadband Consumers Increased Choice, Transparency and Security for Their Personal Data«, Federal Communications Commission, 27. Oktober 2016, https://www.fcc.gov/document/fcc-adopts-broadband-consumerprivacy-rules; Wendy Davis, »Broadband Providers Push Back Against Tough Privacy Proposal«, MediaPost, 10. März 2016, http://www.mediapost.com/publications/article/270983/broadbandproviders-push-back-against-tough-privac.html; Brian Fung, Craig Timberg, »The FCC Just Passed Sweeping New Rules to Protect Your Online Privacy«, Washington Post, 27. Oktober 2016, https://www.washingtonpost.com/news/theswitch/wp/2016/10/27/the-fcc-just-passed-sweeping-new-rules-toprotect-your-online-privacy.

152 Michelle Castillo, »AOL’s Tim Armstrong: Yahoo Helps Verizon Compete Against Facebook, Google«, CNBC, 25. Juli 2016, http://www.cnbc.com/2016/07/25/aol-ceo-tim-armstrong-yahoo-dealhelps-verizon-against-facebook-google.html. 153 Kara Swisher, »AOL’s Tim Armstrong Says ›Scale Is Imperative‹ in the Verizon-Yahoo Deal«, Recode, 25. Juli 2016, http://www.recode.net/2016/7/25/12269980/aol-tim-armstrong-scaleimperative-yahoo-deal. 154 Ingrid Lunden, »AOL CEO on Yahoo Deal: ›We Want to Get to 2B Users‹ «, TechCrunch, 25. Juli 2016, http://social.techcrunch.com/2016/07/25/aol-ceo-armstrongs-yahoomemo-well-work-closely-with-marissa. 155 Tom Wheeler, »How the Republicans Sold Your Privacy to Internet Providers«, New York Times, 29. März 2017, https://www.nytimes.com/2017/03/29/opinion/how-the-republicanssold-your-privacy-to-internet-providers.html; »Republicans Attack Internet Privacy«, New York Times, 29. März 2017, https://www.nytimes.com/2017/03/29/opinion/republicans-attackinternet-privacy.html; Cecilia Kang, »Congress Moves to Overturn Obama-Era Online Privacy Rules«, New York Times, 28. März 2017, https://www.nytimes.com/2017/03/28/technology/congress-votes-tooverturn-obama-era-online-privacy-rules.html; »The House Just Voted to Wipe Out the FCC’s Landmark Internet Privacy Protections«, Washington Post, 28. März 2017, https://www.washingtonpost.com/news/theswitch/wp/2017/03/28/the-house-just-voted-to-wipe-out-the-fccslandmark-internet-privacy-protections. 156

Brian Fung, »It’s Begun: Internet Providers Are Pushing to Repeal Obama-Era Privacy Rules«, Washington Post, 4. Januar 2017, https://www.washingtonpost.com/news/the-sw itch/wp/2017/01/04/its-begun-cable-companies-are-pushing-torepeal-obama-era-internet-privacy-rules. 157 Jack Marshall, »With Washington’s Blessing, Telecom Giants Can Mine Your Web History«, Wall Street Journal, 30. März 2017, https://www.wsj.com/articles/with-washingtons-blessing-telecomgiants-can-mine-your-web-history-1490869801; Olivia Solon, »What to Know Before Lawmakers Decide if ISPs Can Sell Your Browsing History«, Guardian, 28. März 2017, https://www.theguardian.com/technology/2017/mar/28/internetservice-providers-sell-browsing-history-house-vote? utm_source=esp&utm_medi um=Email&utm_campaign=GU+Today+USA++Collections+2017&utm_term=21 9356&subid=17990030&CMP=GT_US_collection; Bruce Schneier, »Snoops May Soon Be Able to Buy Your Browsing History. Thank the US Congress«, Guardian, 30. März 2017, http://www.theguardian.com/commentisfree/2017/mar/30/snoopsbuy-your-browsing-history-us-congress; Jeremy Gillula, »Five Creepy Things Your ISP Could Do if Congress Repeals the FCC’s Privacy Protections«, Electronic Frontier Foundation, 19. März 2017, https://www.eff.org/deeplinks/2017/03/five-creepy-things-your-ispcould-do-if-congress-repeals-fccs-privacy-protections. 158 Elizabeth Dwoskin, »Lending Startups Look at Borrowers’ Phone Usage to Assess Creditworthiness«, Wall Street Journal, 1. Dezember 2015, http://www.wsj.com/articles/lending-startups-look-atborrowers-phone-usage-to-assess-creditworthiness-1448933308. 159

Daniel Bjorkegren, Darrell Grissen, »Behavior Revealed in Mobile Phone Usage Predicts Loan Repayment« (SSRN scholarly paper, Social Science Research Network, Juli 13, 2015), https://papers.ssrn.com/abstract=2611775. 160 Dwoskin, »Lending Startups Look at Borrowers’ Phone Usage«. 161 Ebd. 162 Ebd. 163 Caitlin Dewey, »Creepy Startup Will Help Landlords, Employers and Online Dates Strip-Mine Intimate Data from Your Facebook Page«, Washington Post, 9. Juni 2016, https://www.washingtonpost.com/news/theintersect/wp/2016/06/09/creepy-startup-will-help-landlordsemployers-and-online-dates-strip-mine-intimate-data-from-yourfacebook-page. 164 Frank Pasquale, »The Dark Market for Personal Data«, New York Times, 16. Oktober 2014, http://www.nytimes.com/2014/10/17/opinion/the-dark-marketfor-personal-data.html. 165 Christopher Ingraham, »Analysis: Politics Really Is Ruining Thanksgiving, According to Data from 10 Million Cellphones«, Washington Post, 15. November 2017, https://www.wa shingtonpost.com/news/wonk/wp/2017/11/15/politics-really-isruining-thanksgiving-according-to-data-from-10-million-cellphones. Der Autor bezieht sich auf folgende Studie: M. Keith Chen, Ryne Rohla, »Politics Gets Personal: Effects of Political Partisanship and Advertising on Family Ties«, ArXiv, 18. November 2017, http://arxiv.org/abs/1711.10602.

6. Die Annexion: Wissensteilung in der Gesellschaft 1 Matthew Restall, Seven Myths of the Spanish Conquest. Oxford: Oxford University Press, 2004. S. 19. 2 Felipe Fernández-Armesto, 1492: The Year the World Began. New York, NY: HarperOne, 2010. S. 196. 3 John R. Searle, Wie wir die soziale Welt machen: Die Struktur der menschlichen Zivilisation. Berlin: Suhrkamp, 2011. S. 118. 4 Ebd. S. 27. 5 Ebd. 6 Matthew Restall, Seven Myths of the Spanish Conquest. New York: Oxford University Press, 2003. S. 65. 7 Ebd. S. 19. 8 Eine faszinierende Analyse des Requerimiento präsentiert Paja Faudree in seinem Artikel »How to Say Things with Wars: Performativity and Discursive Rupture in the Requerimiento of the Spanish Conquest«, Journal of Linguistic Anthropology 22:3 (o.d.). S. 182–200. 9 Bartolomé de Las Casas. Umbständige warhafftige Beschreibung der Indianischen Ländern, so vor diesem von den Spaniern eingenommen und verwüst worden. Erst in lateinischer Sprach außgeben durch Bartholomæum de las Casas, Bischoffen in Hispanien, Jetzt aber in das Teutsche übersetzt, und an vielen Orten verbessert, in dieser neuen und letzteren Edition. Anno M.DC.LXV. S. 20f. https://archive.org/details/umbstndigewarhaf00casa_0. 10 Ebd.

11 David Hart, »On the Origins of Google«, National Science Foundation, 17. August 2004, http://www.nsf.gov/discoveries/disc_summ.jsp? cntn_id=100660&org=NSF. 12 Eric Schmidt, Jared Cohen. Die Vernetzung der Welt: Ein Blick in unsere Zukunft. Reinbek: Rowohlt, 2013. S. 9f. 13 Mark Muro u. a., »Digitalization and the American Workforce«, Metropolitan Policy Program (Brookings Institution, 15. November 2017), https://www.brookings.edu/research/digitalization-and-theamerican-workforce/. In dem Bericht heißt es dazu: »2002 verhieß eine Zunahme von einem Punkt beim Digitalisierungsscore 166,20  Dollar (am Wert von 2016 gemessen) Zuwachs an realem jährlichem Durchschnittseinkommen für Berufe mit denselben Bildungsanforderungen. 2016 hatte sich diese Gehaltsprämie mit 292,80 Dollar fast verdoppelt. Unterm Strich lässt sich sagen, dass Arbeitskräfte mit überlegener digitaler Kompetenz zunehmend höhere Löhne und Gehälter (bei Gleichheit aller anderen Faktoren) mit nach Hause nehmen als Arbeitskräfte mit gleicher Bildung, aber geringerer digitaler Kompetenz. So braucht heute ein erheblicher Prozentsatz der für die Nation so kritischen Arbeitskräfte mittlerer Qualifikation ein gewisses Geschick im Umgang mit IT-Werkzeugen, grundlegender Technologie zum Gesundheitsmonitoring, computergestützter numerischer Steuerung, betrieblicher Verwaltungs- sowie Software für das Kundenbeziehungsmanagement wie Salesforce oder SAP oder Tabellenkalkulationsprogramme wie Microsoft Excel. Insgesamt lässt sich sagen, dass zig Millionen Arbeitsplätze, die die besten Möglichkeiten für eine wirtschaftliche Integration von Arbeitskräften ohne Collegeabschluss bieten, Menschen ohne grundlegende digitale Kompetenz zunehmend verschlossen bleiben.« S. 23f., 33. 14

Philipp Brandes, Roger Wattenhofer, Stefan Schmid, »Which Tasks of a Job Are Susceptible to Computerization?«, Bulletin of EATCS 120 (20. Oktober 2016), http://bulletin.eatcs.org/index.php/beatcs/article/view/467; Carl Benedikt Frey, Michael Osborne, »The Future of Employment: How Susceptible Are Jobs to Computerisation?«, Technological Forecasting and Social Change 114 (17. September 2013). S. 254– 280; Seth G. Benzell u. a., »Robots Are Us: Some Economics of Human Replacement«, National Bureau of Economic Research, 2015, http://www.nber.org/papers/w20941; Carl Benedikt Frey, »Doing Capitalism in the Digital Age«, Financial Times, 1. Oktober 2014, https://www.ft.com/content/293780fc-4245-11e4-981800144feabdc0. 15

Carl Benedikt Frey, Michael Osborne, »The Future of Employment: How Susceptible Are Jobs to Computerisation?«, Technological Forecasting and Social Change 114 (17. September 2013). S. 254– 280; Martin Krzywdzinski, »Automation, Skill Requirements and Labour-Use Strategies: High-Wage and Low-Wage Approaches to High-Tech Manufacturing in the Automotive Industry«, New Technology, Work and Employment 32:3 (November 2017). S. 247– 267, https://doi.org/10.1111/ntwe.12100; Frey, »Doing Capitalism in the Digital Age«; William Lazonick, »Labor in the Twenty-First Century: The Top 0.1 % and the Disappearing Middle-Class«, Working Paper (Institute for New Economic Thinking Februar 2015), https://www.ineteconomics.org/research/research-papers/labor-in-thetwenty-first-century-the-top-0-1-and-the-disappearing-middle-class; Dirk Antonczyk, Thomas DeLeire, Bernd Fitzenberger, »Polarization and Rising Wage Inequality: Comparing the U. S. and Germany«, IZA Discussion Papers, Institute for the Study of Labor (IZA), März 2010, https://ideas.repec.org/p/iza/izadps/dp4842.html; Erik Brynjolfsson, Andrew McAfee, The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies, New York/London: Norton, 2016); Daron Acemoglu, David Autor, »What Does Human Capital Do? A Review of Goldin and Katz’s ›The Race between Education and Technology‹ «, Journal of Economic Literature 50:2 (2012). S. 426–463; Sang Yoon Lee, Yongseok Shin, »Horizontal and Vertical Polarization: Task-Specific Technological Change in a Multi-Sector Economy«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 2017), https://papers.ssrn.com/abstract=2941261. 16

Kathleen Thelen, Varieties of Liberalization and the New Politics of Social Solidarity. Cambridge: Cambridge University Press, 2014; Olivier Giovannoni, »What Do We Know about the Labor Share and the Profit Share? Part III: Measures and Structural Factors«, Working Paper (Levy Economics Institute at Bard College, 2014), http://www.levyinstitute.org/publications/what-do-we-know-aboutthe-labor-share-and-the-profit-share-part-3-measures-and-structuralfactors; Francisco Rodriguez, Arjun Jayadev, »The Declining Labor Share of Income«, Journal of Globalization and Development 3:2 (2013). S. 1–18; Antonczyk, DeLeire, Fitzenberger, »Polarization and Rising Wage Inequality«; Duane Swank, »The Political Sources of Labor Market Dualism in Postindustrial Democracies, 1975–2011« (American Political Science Association Annual Meeting, Chicago, IL: Social Science Research Network, 2013), https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2299566; David Jacobs, Lindsey Myers, »Union Strength, Neoliberalism, and Inequality: Contingent Political Analyses of US Income Differences since 1950«, American Sociological Review 79 (2014). S. 752–774; Viki Nellas, Elisabetta Olivieri, »The Change of Job Opportunities: The Role of Computerization and Institutions«, Quaderni DSE Working Paper (University of Bologna & Bank of Italy, 2012), http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1983214; Ian Gough, Anis Ahmad Dani, Harjan de Haan, »European Welfare States: Explanations and Lessons for Developing Countries«, in Inclusive States: Social Policies and Structural Inequalities. Washington D. C.: World Bank Publications, 2008. 17 Gillings, Hilbert, Kemp, 2016. 18 Émile Durkheim, Über soziale Arbeitsteilung: Studie über die Organisation höherer Gesellschaften. Frankfurt: Suhrkamp, 1996. S.  86. 19 Ebd. S. 107f. 20

John Palfrey, Wirtschaftsprofessor in Harvard, schrieb über den »Read-only«-Charakter der elektronischen Überwachung in einem wunderbaren Essay von 2008: John Palfrey, »The Public and the Private at the United States Border with Cyberspace«, Mississippi Law Journal 78 (2008). S. 241–294; siehe insbesondere S. 249. 21 Frank Pasquale, The Black Box Society. Cambridge, MA: Harvard University Press, 2015. S. 60f. 22 Hilbert, 2012. 23 Martin Hilbert, »Big Data for Development: From Information- to Knowledge Societies«. United Nations ECLAC Report, Social Science Research Network, 2013. S. 4. http://pa pers.ssrn.com/sol3/papers.cfm?abstract_id=2205145 24 Viktor Mayer-Schönberger, Kenneth Cukier, Big Data: A Revolution That Will Transform How We Live, Work, and Think. Boston: Houghton Mifflin Harcourt, 2013. S. 9. 25 Ebd. 26 Ebd. 27 Digital Realty, »What Is Hyperscale?«, Digital Realty, 2. Februar 2018, https://www.digitalrealty.com/blog/what-is-hyperscale/; Paul McNamara, »What Is Hyperscale and Why Is It so Important to Enterprises?«, (o. D.), http://cloudblog.ericsson.com/digital-servi ces/what-is-hyperscale-and-why-is-it-so-important-to-enterprises; James Manyika, Michael Chui, »Digital Era Brings Hyperscale Challenges«, Financial Times, 13. August 2014, https://www.ft.com/content/f30051b2-1e36-11e4-bb6800144feabdc0. 28

Cade Metz, »Building an AI Chip Saved Google From Building a Dozen New Data Centers«, Wired, 5. April 2017, https://www.wired.com/2017/04/building-ai-chip-saved-googlebuilding-dozen-new-data-centers/. 29 Kleinere Unternehmen ohne Hyperscale-Erträge können einige dieser Fähigkeiten mithilfe von Cloud-Computing-Diensten erreichen. (Manyika, Chui 2014; Münstermann u. a. 2014). 30 Catherine Dong, »The Evolution of Machine Learning«, TechCrunch, 8. August 2017, http://social.techcrunch.com/2017/08/08/theevolution-of-machine-learning/. 31 Metz, »Building an AI Chip«; »Google Data Center FAQ«, Data Center Knowledge, 16. März 2017, http://www.datacenterknowledge.com/archives/2017/03/16/googledata-center-faq. 32 ARK Investment Management, »Google: The Full Stack AI Company«, Seeking Alpha, 25. Mai 2017, https://seekingalpha.com/article/4076671-google-full-stack-aicompany. 33 Alon Halevy, Peter Norvig, Fernando Pereira, »The Unreasonable Effectiveness of Data«, Intelligent Systems, IEEE 24 (1. Mai 2009). S. 8–12, https://www.researchgate.net/publica tion/224396640_The_Unreasonable_Effectiveness_of_Data. 34 Tom Krazit, »Google’s Urs Hölzle Still Thinks Its Cloud Revenue Will Catch Its Ad Revenue, but Maybe Not by 2020«, GeekWire, 15. November 2017, https://www.geekwire.com/2017/googles-ursholzle-still-thinks-cloud-revenue-will-catch-ad-revenue-maybe-not2020/.

35 Norm Jouppi, »Google Supercharges Machine Learning Tasks with TPU Custom Chip«, Google Cloud Platform Blog, 18. Mai 2016, https://cloudplatform.googleblog.com/2016/05/Google-superchargesmachine-learning-tasks-with-custom-chip.html; Jeff Dean, Urs Hölzle, »Build and Train Machine Learning Models on Our New Google Cloud TPUs«, Google, 17. Mai 2017, https://blog.google/topics/google-cloud/google-cloud-offer-tpus-m achine-learning/; Yevgeniy Sverdlik, »Google Ramped Up Data Center Spend in 2016«, Data Center Knowledge, 1. Februar 2017, http://www.datacenterknowledge.com/archives/2017/02/01/googleramped-data-center-spend-2016; Courtney Flatt, »Google’s AllRenewable Energy Plan To Include Data Center In Oregon«, Oregon Public Broadcasting, 6. Dezember 2016, http://www.opb.org/news/article/google-says-it-will-consume-only-r enewable-energy/. 36 Michael Feldman, »Market for Artificial Intelligence Projected to Hit $36 Billion by 2025«, Top500, 30. August 2016, https://www.top500.org/news/market-for-artificial-intelligenceprojected-to-hit-36-billion-by-2025/. 37 Kevin McLaughlin, Mike Sullivan, »Google’s Relentless AI Appetite«, Information, 10. Januar 2017, https://www.theinformation.com/googles-relentless-ai-appetite. 38 Cade Metz, »Tech Giants Are Paying Huge Salaries for Scarce A. I. Talent«, New York Times, 22. Oktober 2017, https://www.nytimes.com/2017/10/22/technology/artificial-in telligence-experts-salaries.html. 39 »Artificial Intelligence Is The New Black«, Paysa Blog, 18. April 2017, https://www.paysa.com/blog/2017/04/17/artificial-intelligenceis-the-new-black/.

40 Ian Sample, »Big Tech Firms’ AI Hiring Frenzy Leads to Brain Drain at UK Universities«, Guardian, 2. November 2017, http://www.theguardian.com/science/2017/nov/02/big-tech-firmsgoogle-ai-hiring-frenzy-brain-drain-uk-universities. 41 Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. New York: Basic Books, 2015. S. 12f. 42 Cade Metz, »Why A. I. Researchers at Google Got Desks Next to the Boss«, New York Times, 19. Februar 2018, https://www.nytimes.com/2018/02/19/technology/ai-researchersdesks-boss.html. 43 Spiros Simitis, »Reviewing Privacy in an Information Society«, University of Pennsylvania Law Review 135:3 (1987). S. 710, https://doi.org/10.2307/3312079. 44 Paul M. Schwartz, »The Computer in German and American Constitutional Law: Towards an American Right of Informational Self-Determination«, American Journal of Comparative Law 37 (1989). S. 676.

7. Das Reality-Business 1 Chris Matyszczyk, »The Internet Will Vanish, Says Google’s Eric Schmidt«, CNET, 22. Januar 2015, http://www.cnet.com/news/theinternet-will-vanish-says-googles-schmidt. 2

Mark Weiser, »The Computer for the 21st Century«, Scientific American, Juli 1999. 3 Mark Weiser und John Seely Brown, »The Coming Age of Calm Technology«, in Beyond Calculation. New York: Springer, 1997. S.  75–85, https://link.springer.com/chapter/10.1007/978-1-4612-06859_6. 4 Weiser, »The Computer for the 21st Century«. 5 Janina Bartje, »IoT Analytics the Top 10 IoT Application Areas – Based on Real IoT Projects«, IOT Analytics, 16. August 2016, https://iot-analytics.com/top-10-iot-project-application-areas-q32016/. 6 Kevin D. Werbach und Nicolas Cornell, »Contracts Ex Machina«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 18. März 2017), https://papers.ssrn.com/abstract=2936294. 7 Christy Pettey, »Treating Information as an Asset«, Smarter with Gartner, 17. Februar 2016, www.gartner.com/smarterwithgartner/treating-information-as-anasset. (Hervorhebung von mir.) 8 R. Stuart Mackay, »Bio-medical Telemetry: Sensing and Transmitting Biological Information from Animals and Man«, Quarterly Review of Biology 44:4 (1969). S. 18–23. 9 Ebd. 10 Ebd. 11 Roland Kays u. a., »Terrestrial Animal Tracking as an Eye on Life and Planet«, Science 348:6240 (2015), https://doi.org/10.1126/science.aaa2478.

12 Ebd. 13 P. Ramesh Kumar, Ch. Srikanth, K. L. Sailaja, »Location Identification of the Individual Based on Image Metadata«, Procedia Computer Science 85 (2016). S. 451–454, https://doi.org/10.1016/j.procs.2016.05.191; Anuradha Vishwakarma u. a., »GPS and RFID Based Intelligent Bus Tracking and Management System«, International Research Journal of Engineering and Technology 3:3 (2016); Nirali Panchal, »GPS Based Vehicle Tracking System and Using Analytics to Improve the Performance«, ResearchGate, Juni 2016, https://www.researchgate.net/publication/304129283_GPS_Based_Ve hicle_Tracking_System_and_Using_Analytics_to_Improve_The_Perf ormance. 14 Mark Prigg, »Software That Can Track People as They Walk from Camera to Camera«, Mail Online, 18. November 2014, http://www.dailymail.co.uk/sciencetech/article-2838633/Softwaretrack-people-walk-camera-camera-say-tracked-Boston-bombershours.html. 15 Joseph A. Paradiso, »Our Extended Sensoria: How Humans Will Connect with the Internet of Things«, MIT Technology Review, 1. August 2017, https://www.technologyreview.com/s/608566/ourextended-sensoria-how-humans-will-connect-with-the-internet-ofthings. 16 Gershon Dublon, Edwina Portocarrerro, »ListenTree: Audio-Haptic Display in the Natural Environment«, 2014, https://smartech.gatech.edu/handle/1853/52083. 17

J. Qi, A. Huang,J. Paradiso, »Crafting technology with circuit stickers«, Proceedings of ACM IDC ’15 (14th International Conference on Interaction Design and Children) (2015). S. 438–441. 18 Gershon Dublon u. a., »DoppelLab: Tools for Exploring and Harnessing Multimodal Sensor Network Data«, in IEEE Sensors Proceedings (2011). S. 1612–1615, http://dspace.mit.edu/handle/1721.1/80402. 19 Gershon Dublon, Joseph A. Paradiso, »Extra Sensory Perception«, Scientific American, 17. Juni 2014. 20 Paradiso, »Our Extended Sensoria« (Hervorhebung von mir). 21 Dublon, Paradiso, »Extra Sensory Perception«. 22 Paradiso, »Our Extended Sensoria«. 23 Kevin Ashton kritisiert den Staat für seinen Mangel an einer umfassenden Vision für das Internet der Dinge ebenso wie den Umstand, dass private Unternehmen in diesem Bereich die Führung übernehmen. Der ehemalige Brand-Manager bei Procter & Gamble, ist nicht nur der Pionier des Funkchips, er zeichnet auch für den Begriff »Internet der Dinge« (Internet of things) verantwortlich und trieb die Entwicklung von Funketiketten (RFID) beim MIT voran. Siehe dazu Kevin Ashton, »America Last?«, Politico, 29. Juni 2015, http://www.politico.com/agenda/story/2015/06/kevin-ashton-internetof-things-in-the-us-000102. 24 Nick Statt, »Welcome to the Internet of Paranoia«, Verge, 21.  Oktober 2015, http://www.the verge.com/2015/10/21/9556153/internet-of-things-privacy-paranoiadata-volkswagen-scandal. 25

Matt Weinberger, »Companies Stand to Make a Lot of Money Selling Data from Smart Devices, Says Microsoft«, Business Insider, 6. Dezember 2015, https://www.businessinsider.com.au/microsoftazure-internet-of-things-boss-sam-george-interview-2015-12; »Live on a Screen Near You: IoT Slam, a New Virtual Conference for All Things IoT«, Microsoft IoT Blog, 9. Dezember 2015, https://blogs.microsoft.com/iot/2015/12/09/live-on-a-screen-nearyou-iot-slam-a-new-virtual-conference-for-all-things-iot. 26 IBM Institute for Business Value, »The Economy of Things: Extracting New Value from the Internet of Things«, 2014, http://www-935.ibm.com/services/us/gbs/thoughtleaders hip/economyofthings. 27 Eine überzeugende Darstellung des Themas »unstrukturierte Daten« und ihrer Wurzeln im täglichen Leben findet sich in Ioanna D. Constantiou, Jannis Kallinikos, »New Games, New Rules: Big Data and the Changing Context of Strategy«, Journal of Information Technology, 9. September 2014. S. 1–14. 28 Bryan Glick, »Executive Interview: Harriet Green, IBM’s Internet of Things Chief«, Computer Weekly, 7. April 2016, http://www.computerweekly.com/news/450280673/Executiveinterview-Harriet-Green-IBMs-internet-of-things-chief. 29

»Dark Data«, Gartner IT Glossary, 7. Mai 2013, http://www.gartner.com/it-glossary/dark-data; Isaac Sacolick, »Dark Data – A Business Definition«, Social, Agile, and Transformation, 10. April 2013, http://blogs.starcio.com/2013/04/dark-data-businessdefinition.html; Heather Johnson, »Digging Up Dark Data: What Puts IBM at the Forefront of Insight Economy«, SiliconANGLE, 30. Oktober 2015, https://siliconangle.com/blog/2015/10/30/ibm-is-atthe-forefront-of-insight-economy-ibminsight; Ed Tittel, »The Dangers of Dark Data and How to Minimize Your Exposure«, CIO, 24. September 2014, https://www.cio.com/article/2686755/dataanalytics/the-dangers-of-dark-data-and-how-to-minimize-yourexposure.html; Derek Gascon, »Thwart ›Dark Data‹ Risk with Data Classification Tools«, SearchCompliance, Juli 2014, http://searchcompliance.techtarget.com/answer/Thwart-dark-datarisk-with-data-classification-tools. 30 Glick, »Executive Interview«. 31 Varian, »Computer Mediated Transactions«, American Economic Review 100:2 (2010). S. 1–10, https://doi.org/10.1257/aer.100.2.1. 32 Varian, »Beyond Big Data«. S. 27–31. 33 Ebd. S. 30. 34 Ebd. 35 Dan Kraut, »Allstate Mulls Selling Driver Data«, Bloomberg.com, 28. Mai 2015, https://www.bloomberg.com/news/articles/2015-0528/allstate-seeks-to-follow-google-as-ceo-mulls-selling-driver-data. 36 Rachel Ward, Rebecca Lancaster, »The Contribution of Individual Factors to Driving Behaviour: Implications for Managing WorkRelated Road Safety« (Forschungsbericht, Doherty Innovation Centre, Midlothian, 2002), http://www.hse.gov.uk/research/rrhtm/rr020.htm.

37 Markus Löffler u. a., »Insurers Need to Plug into the Internet of Things – or Risk Falling Behind«, McKinsey & Company, August 2016, http://www.mckinsey.com/industries/financial-services/ourinsights/insurers-need-to-plug-into-the-internet-of-things-or-riskfalling-behind. 38 Sam Friedman, Michelle Canaan, »Overcoming Speed Bumps on the Road to Telematics«, Deloitte University Press, 21. April 2014, https://www2.deloitte.com/insights/us/en/industry/insurance/telematic s-in-auto-insurance.html. 39 Ebd. 40 Ebd. 41 Leslie Scism, »State Farm Is There: As You Drive«, Wall Street Journal, 5. August 2013. 42 »Insurers Need to Plug into the Internet of Things.« 43 Joseph Reifel, Alyssa Pei, Neeti Bhardwaj, Shamik Lala, »The Internet of Things: Opportunity for Insurers«, ATKearney, 2014, https://www.the-digital-insurer.com/wp-con tent/uploads/2015/06/544-Internet-of-Things-Opportunity-forInsurers.pdf. 44 Steve Johansson, »Spireon Reaches 2.4 Million Subscribers, Becoming Industry’s Largest Aftermarket Vehicle Telematics Company«, BusinessWire, 17. August 2015, http://www.businesswire.com/news/home/20150817005365/en/Spire on-Reaches-2.4-Million-Subscribers-Industry%E2%80%99s-Largest. 45

Rebecca Kates, »Geotab Launches a World Leading Driver Safety Telematics Solution That Speaks to the Driver Inside the Vehicle«, Geotab, 10. September 2015, https://www.geotab.com/pressrelease/geotab-launches-driver-safety-telematics-solution-that-spe aks-to-the-driver-inside-the-vehicle. 46 Brad Jarvis u. a., Insurance rate optimization through driver behavior monitoring, eingereicht am 19. September 2014, erteilt am 1. Januar 2015, https://patents.google.com/patent/US20150006207A1/en. 47 Brad Jarvis u. a., Operator benefits and rewards through sensory tracking of a vehicle, US20150019270 A1, eingereicht am 18. September 2014, erteilt am 15. Januar 2015, http://www.google.com/patents/US20150019270. 48 Joao Lima, »Insurers Look beyond Connected Cars for IOT Driven Business Boom«, Computer Business Review, 9. Dezember 2015, http://www.cbronline.com/news/internet-of-things/insurers-lookbeyond-connected-cars-for-iot-driven-business-boom-4748866/. 49 Sam Ramji, »Looking Beyond the Internet of Things Hype: Here’s What’s in Store«, VentureBeat, 28. März 2014, http://venturebeat.com/2014/03/28/looking-beyond-the-internet-ofthings-hype-heres-whats-in-store. 50 »Overcoming Speed Bumps on the Road to Telematics«. 51 Ebd. 52 Corin Nat, »Think Outside the Box – Motivate Drivers Through Gamification«, Spireon, 11. August 2015, https://web.archive.org/web/20150811014300/spireon.com/motivatedrivers-through-gamification; »Triad Isotopes«, 2017, http://www.triadisotopes.com.

53 »Black Box Car Insurance«, Drive Like a Girl, 2. Oktober 2015, https://www.drivelikeagirl.com. 54 »Overcoming Speed Bumps on the Road to Telematics«. 55 Byron Pope, »Experts Examine Auto Telematics’ Pitfalls, Potential«, Wards Auto, 20. Juni 2013, http://wardsauto.com/technology/expertsexamine-auto-telematics-pitfalls-potential. 56 »The Internet of Things – and People, Too«, Werbeanzeige, Deloitte, 2016. 57 »Overcoming Speed Bumps on the Road to Telematics«. 58 Löffler u. a., »Insurers Need to Plug into the Internet of Things – or Risk Falling Behind«, McKinsey & Company, August 2016. https://www.mckinsey.com/industries/financial-services/ourinsights/insurers-need-to-plug-into-the-internet-of-things-or-riskfalling-behind; »Navigating the Challenges and Opportunities in Financial Service«, Sydney: Deloitte Touche Tohmatsu Ltd., 2015. https://www2.deloitte.com/con tent/dam/Deloitte/au/Documents/financial-services/deloitte-au-fs-fsioutlook-focus-2015-090215.pdf. 59 »Dell Services Have Launched a New Internet of Things Insurance Accelerator«, Dell, 17. November 2015, http://www.dell.com/learn/al/en/alcorp1/press-releases/2015-11-17-d ell-services-launch-of-internet-of-things. 60 »Microsoft and American Family Insurance Launch Startup Accelerator Focused on Home Automation«, Microsoft News Center, 17. Juni 2014, https://news.microsoft.com/2014/06/17/microsoft-andamerican-family-insurance-launch-startup-accelerator-focused-onhome-automation.

61 Gabe Nelson, »Who Owns the Dashboard? Apple, Google or the Automakers?« Advertising Age, 15. Dezember 2014, http://adage.com/article/digital/owns-dashboard-apple-googleautomakers/296200. 62 »Google Looks to Partner with Insurance Companies in France«, Fortune, 13. September 2016, http://fortune.com/2016/09/13/googlefrance-insurance-partners. 63 Varian, »Beyond Big Data«. S. 30. (Hervorhebung von mir.) 64 Ebd. 65 Herman Kahn, Anthony J. Wiener, Ihr werdet es erleben: Voraussagen der Wissenschaft bis zum Jahre 2000. Wien: Verlag Fritz Molden, 1967. 66 Ebd. S. 325ff. 67 Ebd. S. 114. 68 Ebd. S. 407. 69 Paul T. David, William R. Ewald, »The Study of the Future«, Public Administration Review 28:2 (1968). S. 187–193, https://doi.org/10.2307/974089. 70 Neil P. Hurley, »The Future and the Nearsighted Faust«, Review of Politics 30:4 (1968). S. 521ff. 71 Langdon Winner, Autonomous Technology: Technics-out-of-Control as a Theme in Political Thought. Cambridge, MA: MIT Press, 1977. 72 Ebd. S. 7f. 73 Dublon, Paradiso, »Extra Sensory Perception«. S. 37–44.

74 Frank E. Manuel, Fritzie P. Manuel, Utopian Thought in the Western World. Cambridge, MA: Belknap Press, 1979. S. 6. 75 Krishan Kumar, Utopia and Anti-utopia in Modern Times. Oxford: Blackwell, 1991; Andrzej Walicki, Marxism and the Leap to the Kingdom of Freedom: The Rise and Fall of the Communist Utopia, Stanford: Stanford University Press, 1997; Gregory Claeys, Searching for Utopia: The History of an Idea. New York: Thames & Hudson, 2011; Roland Schaer, Gregory Claeys, Lyman Tower Sargent, Utopia: The Search for Ideal Society in the Western World. New York: Oxford University Press, 2000; Perry Anderson, Arguments Within English Marxism, 2. Auflage. London: Verso, 1980. 76 Im Vorwort zur ersten Auflage von Das Kapital 1867 findet sich folgende Passage: »An und für sich handelt es sich nicht um den höheren oder niedrigeren Entwicklungsgrad der gesellschaftlichen Antagonismen, welche aus den Naturgesetzen der kapitalistischen Produktion entspringen. Es handelt sich um diese Gesetze selbst, um diese mit eherner Notwendigkeit wirkenden und sich durchsetzenden Tendenzen. Das industriell entwickeltere Land zeigt dem minder entwickelten nur das Bild der eignen Zukunft.« Karl Marx und Friedrich Engels, Das Kapital. Berlin: Dietz Verlag, 1968. Bd. I (Werke, Bd. 23). S. 12. 77 Karl Marx, Friedrich Engels, Manifest der Kommunistischen Partei. In dies., Werke, Bd. 4, 6. Auflage 1972, unveränderter Nachdruck der 1. Auflage 1959. Berlin (Ost): Dietz. S. 459–493. 78 Manuel, Manuel, Utopian Thought. S. 3f. 79 Eric Schmidt, Jared Cohen, Die Vernetzung der Welt. Reinbek: Rowohlt, 2013.

80 Ebd. 81 Eric Schmidt, Jared Cohen, The New Digital Age: Transforming Nations, Businesses, and Our Lives. London: John Murray, 2014. S.  253f. 82 Dublon, Paradiso, »Extra Sensory Perception«. 83 John Steinbeck, Früchte des Zorns. Zürich: Diana Verlag, 1940. 84 Winner, Autonomous Technology. S. 6. 85 Langdon Winner, »Do Artifacts Have Politics?«, Daedalus 109:1 (1980). S. 99. 86 Siehe dazu eine großartige verwandte Diskussion bei Alasdair Morrison, »Uses of Utopia«. In Utopias, hg. von Peter Alexander und Roger Gill. La Salle, IL: Open Court, 1983. S. 139–151, insbes. S.  149f. 87 https://www.cisco.com/c/m/en_us/solutions/industries/smartconnected-communities/digital-transformation-map.html und https://blogs.cisco.com/news/announcing-kinetic-for-cities (Hervorhebung von mir). 88

»Titan and Control Group Become Intersection,« PR Newswire, 16. September 2015, http://www.prnewswire.com/news-releases/titanand-control-group-become-intersection-300144002.html. Zur Einrichtung und Verwaltung der WLAN-Stationen erwarb Sidewalk ein Unternehmen namens Intersection. Intersection selbst kam zustande durch eine Fusion von Control, eines auf das urbane Umfeld spezialisierten Tech-Unternehmens, und der Werbefirma Titan. Intersection selbst sieht sich als »Unternehmen für urbanes Erleben, Technologie und Medien, das in Zusammenarbeit mit Städten modernen Herausforderungen begegnen und die urbane Erfahrung neu erfinden möchte, indem es in höherem Maße vernetzte, bewohnbare und wohlhabende Städte schafft. Das Unternehmen wird sich die bahnbrechenden Fähigkeiten in den Bereichen Ingenieurswesen und Design der [New Yorker Consulting-Firma] Control Group mit ihrer mehr als zehnjährigen Erfahrung bei der Verschmelzung digitaler Technologien mit den Erfahrungen realer User im städtischen Umfeld und von Titan zunutze machen, einer der größten Medienunternehmen im städtischen und Nahverkehrsbereich und einem der Marktführer im digitalen Out-of-Home-Advertising.« 89 Conor Dougherty, »Cities to Untangle Traffic Snarls, with Help from Alphabet Unit«, New York Times, 17. März 2016, http://www.nytimes.com/2016/03/18/technology/cities-to-untangletraffic-snarls-with-help-from-alphabet-unit.html 90 Ebd. 91 »Sidewalk Labs | Team – Alphabet«, Sidewalk Labs, 2. Oktober 2017, https://www.sidewalklabs.com/team. 92 Dougherty, »Cities to Untangle«. 93 Ebd. 94

Diana Budds, »How Google Is Turning Cities Into R&D Labs«, Co.Design, 22. Februar 2016, https://www.fastcodesign.com/3056964/design-moves/how-googleis-turning-cities-into-rd-labs. 95 Mark Harris, »Secretive Alphabet Division Aims to Fix Public Transit in US by Shifting Control to Google«, Guardian, 27. Juni 2016, http://www.theguardian.com/technology/2016/jun/27/googleflow-sidewalk-labs-columbus-ohio-parking-transit. 96 »Google City: How the Tech Juggernaut Is Reimagining Cities – Faster Than You Realize«, 2016, https://www.youtube.com/watch? v=JXN9QHHD8eA. 97 Ebd. 98 Ebd. 99 Budds, »How Google Is Turning Cities«. 100 Jessica E. Lessin, »Alphabet’s Sidewalk Preps Proposal for Digital District«, 14. April 2016, https://www.theinformation.com/sidewalklabs-preps-proposal-for-digital-district. 101 Eliot Brown, »Alphabet’s Next Big Thing: Building a ›Smart‹ City«, Wall Street Journal, 27. April 2016, http://www.wsj.com/articles/alphabets-next-big-thing-building-asmart-city-1461688156. 102 Shane Dingman, »With Toronto, Alphabet looks to revolutionize citybuilding«, Globe and Mail, 17. Oktober 2017, https://beta.theglobeandmail.com/report-on-business/with-torontoalphabet-looks-to-revolutionize-city-building/article36634779.

8. Rendition: Auslieferung und Verdatung unserer Erfahrung Wie aus dem Folgenden hervorgeht, empfiehlt es sich, den Begriff Rendition seiner semantischen Mehrdeutigkeit wegen unübersetzt in seiner englischen Aussprache zu benutzen; das Verb dazu ist in diesem Kontext rendern. 103 Jan Wolfe, »Roomba Vacuum Maker IRobot Betting Big on the ›Smart‹ Home«, Reuters, 28. Juli 2017, https://www.reuters.com/article/irobot-strategy/roomba-vacuummaker-irobot-betting-big-on-the-smart-home-idUSL1N1KJ1BA; Melissa Wen, »IRobot Shares Surge on Strong Sales of Roomba Vacuum Cleaners«, Reuters, 26. Juli 2017, https://www.reuters.com/article/us-irobot-stocks/irobot-shares-surgeon-strong-sales-of-roomba-vacuum-cleaners-idUSKBN1AB2QW. 104 Wolfe, »Roomba Vacuum Maker iRobot Betting Big«. 105 Lance Ulanoff, »iRobot CEO Says the Company Won’t Share Your Roomba Home Mapping Data Without Your OK«, Mashable, 25. Juli 2017, http://mashable.com/2017/07/25/irobot-wants-to-sell-homemapping-data. 106 »Features of the iRobot HOME App«, iRobot, 13. Oktober 2017, https://homesupport.iro bot.com/app/answers/detail/a_id/9129/~/features-of-the-irobot-homeapp; »iRobot Roomba 900 Owner’s Manual«, iRobot, 13. Oktober 2017, https://www.irobotweb.com/~/media/Files/Support/Home/Roomba/90 0/manual.pdf?sc_lang=en. 107

»How It Works | Smart Bed Technology & Sleep Tracking | It Bed«, SleepNumber.com, 6. Oktober 2017, https://itbed.sleepnumber.com/how-it-works. 108 Ebd. 109 Jonathan A. Obar, Anne Oeldorf-Hirsch, »The Biggest Lie on the Internet: Ignoring the Privacy Policies and Terms of Service Policies of Social Networking Services«, in Facebook/Social Media 2 (TPRC 44: The 44th Research Conference on Communication, Information and Internet Policy, Arlington, VA: Social Science Research Network, 2016), https://papers.ssrn.com/abstract=2757465. 110 »Customer Service: Privacy Policy«, SleepNumber.com, 18. September 2017, https://www.sleepnumber.com/sn/en/privacy-policy. 111 Ebd. 112 Für die wichtige Diskussion dieses Themas bei der Nutzung digitaler Produkte siehe Aaron Perzanowski, Chris Hoofnagle, »What We Buy When We ›Buy Now‹ « (SSRN scholarly paper, Social Science Research Network, Mai 13, 2016), https://papers.ssrn.com/abstract=2778072. 113 Michelle Locke, »Ready for Liquor Bottles Smart Enough to Talk Smart Phones?« kcby.com, 21. Mai 2015, https://kcby.com/news/local/ready-for-liquor-bottles-smart-enoughto-talk-to-smart-phones-11-13-2015; Joseph Cox, »This Rectal Thermometer Is the Logical Conclusion of the Internet of Things«, Motherboard, 14. Januar 2016, http://motherboard.vice.com/read/this-rectal-thermometer-is-thelogical-conclusion-of-the-internet-of-things. 114

Shona Ghosh, »How Absolut Vodka Will Use the Internet of Things to Sell More than ›Static Pieces of Glass‹ «, Campaign US, 6. August 2015, http://www.campaignlive.com/article/absolut-vodka-will-useinternet-things-sell-static-pieces-glass/1359074. 115 Locke, »Ready for Liquor Bottles Smart Enough to Talk?« 116 »Sproutling Wearable Baby Monitor«, abgerufen am 8. Dezember 2017, http://fisher-price.mattel.com/shop/en-us/fp/sproutling-sleepwearable-fnf59. 117 Eine wichtige Darstellung dieses Themas im Hinblick auf digitale Produkte findet sich bei Perzanowski, Hoofnagle, »What We Buy«. 118 Amie Thuener, »Letter to SEC from Google Finance Director Re: Google Inc. Form 10-K for the Fiscal Year Ended December 31, 2012«, Securities and Exchange Commission, 29. Januar 2013, https://www.sec.gov/Archives/edgar/data/1288776/000128877613000 074/filename1.htm. 119 Stacey Higginbotham, »Qualcomm Wants Your Smartphone to Have Energy-Efficient Eyes«, MIT Technology Review, 29. März 2017, https://www.technologyreview.com/s/603964/qualcomm-wants-yoursmartphone-to-have-energy-efficient-eyes. 120 Ben S. Cook u. a., »Only Skin Deep,« IEEE Microwave Magazine, Mai 2013. »Smart Skin« wird vorgestellt als eine Innovation, die »das Fundament legen könnte für die erste Generation wahrhaft reichweitenstarker, druckbarer, chiploser, flexibler, kostengünstiger Sensoren zur ubiquitären Anwendung in Smart Skins und dem Internet der Dinge …« 121

J. G. D. Hester, M. M. Tentzeris, »Inkjet-Printed Van-Atta Reflectarray Sensors: A New Paradigm for Long-Range Chipless Low Cost Ubiquitous Smart Skin Sensors of the Internet of Things«, in 2016 IEEE MTT-S International Microwave Symposium (IMS), 2016. S.  1–4, https://doi.org/10.1109/MWSYM.2016.7540412. 122 Ben S. Cook u. a., »Only Skin Deep«. 123 Michael Galvin, »Attract Customers with Beacons, Geotagging & Geofencing«, New Perspective, 21. März 2016, http://www.npws.net/blog/attract-customers-with-beaconsgeotagging-geofencing. 124 Eine besonders gründliche Beschreibung dieser und anderer Überwachungsprozesse, die heute im Einzelhandel zum Einsatz kommen, findet sich in Joseph Turow, The Aisles Have Eyes: How Retailers Track Your Shopping, Strip Your Privacy, and Define Your Power. New Haven, CT: Yale University Press, 2017. 125 Jimm Fox, »Life-Pattern Marketing and Geo Targeting«, One Market Media, 26. März 2009, http://onemarketmedia.com/2009/03/26/lifepattern-marketing-and-geo-targetting. 126 Galvin, »Attract Customers with Beacons«. 127 Monte Zweben, »Life-Pattern Marketing: Intercept People in Their Daily Routines«, SeeSaw Networks, März 2009. 128

Monica Anderson, »6 Facts About Americans and Their Smartphones,« PewResearchCenter, 1. April 2015, http://www.pewresearch.org/fact-tank/2015/04/01/6-facts-about-a mericans-and-their-smartphones; »Most Smartphone Owners Use Location-Based Services«, eMarketer, 22. April 2016, https://www.emarketer.com/Article/Most-Smartphone-Owners-UseLocation-Based-Services/1013863; Chris Smith, »Why Location Data Is One of the Most Coveted Details Apps Collect About You«, BGR, 25. März 2015, http://bgr.com/2015/03/25/smartphone-applocation-data. 129 Hazim Almuhimedi u. a., »Your Location Has Been Shared 5,398 Times! A Field Study on Mobile App Privacy Nudging«, in Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, CHI ’15. New York: ACM, 2015. S. 787–796, https://doi.org/10.1145/2702123.2702210. 130 Tim Moynihan, »Apps Snoop on Your Location Way More Than You Think«, Wired, 25. März 2015, https://www.wired.com/2015/03/appssnoop-location-way-think. 131 Byron Spice, »Study Shows People Act to Protect Privacy When Told How Often Phone Apps Share Personal Information«, Carnegie Mellon University News, 23. März 2015, https://www.cmu.edu/news/stories/archives/2015/march/privacynudge.html. 132 Russell Brandom, »Police Are Filing Warrants for Android’s Vast Store of Location Data«, Verge, 1. Juni 2016, http://www.theverge.com/2016/6/1/11824118/google-android-lo cation-data-police-warrants. 133 Ebd. 134

Keith Collins, »Google Collects Android Users’ Locations Even When Location Services Are Disabled«, Quartz, 21. November 2017, https://qz.com/1131515/google-collects-android-users-locationseven-when-location-services-are-disabled/. 135 Gerard Sans, »Your Timeline: Revisiting the World That You’ve Explored«, Google Lat Long, 21. Juli 2015, https://maps.googleblog.com/2015/07/your-timeline-revisiting-worldthat.html; Nathan Ingraham, »Google Knows Where You’ve Been, and Your Timeline for Maps Shows You«, Verge, 21. Juli 2015, http://www.theverge.com/2015/7/21/9012035/google-your-timelinelocation-history. 136

Hier nur eine Handvoll Beispiele für Arbeiten zur Deanonymisierung. Wie weithin publiziert, demonstrierte 1995 die Datenschutzexpertin Latanya Sweeney, dass sie mithilfe öffentlicher Register (z. B. Wählerlisten) die Krankenakte von William Weld, damals Gouverneur von Massachusetts, re-identifizieren konnte, obwohl bei diesen medizinischen Unterlagen alle expliziten Kennzeichen wie Name, Adresse und Sozialversicherungsnummer entfernt waren. Siehe Latanya Sweeney, »Statement of Latanya Sweeney, PhD Before the Privacy and Integrity Advisory Committee of the Department of Homeland Security – ›Privacy Technologies for Homeland Security‹ «, US Department of Homeland Security, 15. Juni 2005, https://www.dhs.gov/xlibrary/assets/privacy/privacy_adv com_06-2005_testimony_sweeney.pdf; Latanya Sweeney, »Only You, Your Doctor, and Many Others May Know«, Technology Science, 29. September 2015, https://techscience.org/a/2015092903; Latanya Sweeney, »Matching a Person to a Social Security Number«, Data Privacy Lab, 13. Oktober 2017, https://dataprivacylab.org/dataprivacy/projects/ssnwatch/index.html; Sean Hooley, Latanya Sweeney, »Survey of Publicly Available State Health Databases – Data Privacy Lab, IQSS,« Harvard University, 2013; Yves-Alexandre de Montjoye u. a., »Unique in the Shopping Mall: On the Reidentifiability of Credit Card Metadata«, Science 347:6221 (2015). S. 536–539, https://doi.org/10.1126/science.1256297; Jessica Su u. a. »DeAnonymizing Web Browsing Data with Social Networks«, in 26th International Conference on World Wide Web Pages. Perth: ACM Press, 2017. S. 1261–1269, https://doi.org/10.1145/3038912.3052714. 137 Paul Ohm, »Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization«, UCLA Law Review 57 (2010). S. 1701. 138

Yves-Alexandre de Montjoye u. a., »Unique in the Shopping Mall: On the Reidentifiability of Credit Card Metadata«, Science 347:6221 (2015). S. 536–539. https://doi.org/10.1126/science.1256297. Siehe auch Yves-Alexandre de Montjoye, »Computational Privacy: Towards Privacy-Conscientious Uses of Metadata«, Massachusetts Institute of Technology, 2015, http://dspace.mit.edu/handle/1721.1/101850; Nicholas D. Lane u. a., »On the Feasibility of User De-Anonymization from Shared Mobile Sensor Data«, in Proceedings of the Third International Workshop on Sensing Applications on Mobile Phones: PhoneSense ’12, 2012, http://dl.acm.org/citation.cfm?id=2389148. 139 Christina DesMarais, »This Smartphone Tracking Tech Will Give You the Creeps«, PCWorld, 22. Mai 2012, http://www.pcworld.com/article/255802/new_ways_to_track_you_via _your_mobile_devices_big_brother_or_good_business_.html. See also »Smartphones – Diagram of Sensors«, Broadcom.com, 22. Februar 2018. https://www.broadcom.com/applications/wireless/smart-phones. 140 Arvind Narayanan, Edward W. Felten, »No Silver Bullet: Deidentification Still Doesn’t Work«, 9. Juli 2014, http://randomwalker.info/publications/no-silver-bullet-de-identifi cation.pdf. 141 Hal Hodson, »Baidu Uses Millions of Users’ Location Data to Make Predictions«, New Scientist, 20. Juli 2016, https://www.newscientist.com/article/2098206-baidu-uses-millionsof-users-location-data-to-make-predictions/. 142

2015 trugen 29,5 Millionen erwachsene Amerikaner anziehbare Geräte – größtenteils Fitness-Tracker wie die von Under Armour und smarte Armbanduhren –, was einem Anstieg um 57,7 % gegenüber 2014 entspricht. Siehe dazu Mary Ellen Berglund, Julia Duvall, Lucy E Dunne, »A Survey of the Historical Scope and Current Trends of Wearable Technology Applications«, in Proceedings of the 2016 ACM International Symposium on Wearable Computers, ISWC ’16, New York: ACM, 2016. S. 40–43, https://doi.org/10.1145/29 71763.2971796; Kate Kaye, »FTC: Fitness Apps Can Help You Shred Calories – and Privacy«, Advertising Age, 7. Mai 2014, http://adage.com/article/privacy-and-regulation/ftc-signals-focushealth-fitness-data-privacy/293080. 143 Michelle De Mooy, Shelten Yuen, »Towards Privacy-Aware Research and Development in Wearable Health«, Hawaii International Conference on System Sciences 2017 (HICSS-50), 4. Januar 2017, http://aisel.aisnet.org/hicss-50/hc/security_for_healthcare/4. 144 Sarah Perez, »Google and Levi’s ›Connected‹ Jacket That Lets You Answer Calls, Use Maps and More Is Going on Sale«, TechCrunch, 25. September 2017, http://social.techcrunch.com/2017/09/25/googleand-levis-connected-jacket-that-lets-you-answer-calls-use-maps-andmore-goes-on-sale. 145

Um hier nur einige wenige Illustrationen aus der jüngsten Literatur zu erwähnen: Ya-Li Zheng u. a., »Unobtrusive Sensing and Wearable Devices for Health Informatics«, IEEE Transactions on Biomedical Engineering 61:5 (2014). S. 1538–1554, https://doi.org/10.1109/TBME.2014.2309951; Claire Furino u. a., »Synthetic Skin-like Sensing in Wearable Garments«, Rutgers Governor’s School of Engineering and Technology Research Journal, 16. Juli  2016, http://www.soe.rutgers.edu/sites/default/files/imce/pdfs/gset2016/synth%20skin.pdf; Preeti Kumari, Lini Mathew, Poonam Syal, »Increasing Trend of Wearables and Multimodal Interface for Human Activity Monitoring: A Review«, Biosensors and Bioelectronics 90, Supplement C (15. April 2017). S. 298–307, https://doi.org/10.1016/j.bios.2016.12.001; Arpan Pal, Arijit Mukherjee, Swarnava Dey, »Future of Healthcare – Sensor DataDriven Prognosis«, in Wireless World in 2050 and Beyond: A Window into the Future! Cham, CH: Springer, 2016. S. 93–109, https://www.springerprofessional.de/future-of-healthcare-sensor-datadriven-prognosis/10297862. 146 »Ovum Report: The Future of E-Commerce – The Road to 2026«, Criteo, 2015, http://www.criteo.com/it/wpcontent/uploads/sites/9/2018/02/ovum-the-future-of-e-commerce-theroad-to-2026.pdf. 147 C. S. Pattichis u. a., »Wireless Telemedicine Systems: An Overview«, IEEE Antennas and Propagation Magazine 44:2 (2002). S. 143–153. 148 A. Solanas u. a., »Smart Health: A Context-Aware Health Paradigm Within Smart Cities«, IEEE Communications Magazine 52:8 (2014). S. 74–81, https://doi.org/10.1109/MCOM.2014.6871673. 149

Subhas Chandra Mukhopadhyay, »Wearable Sensors for Human Activity Monitoring: A Review«, IEEE Sensors Journal 15:3 (2015). S. 1321–1330, https://doi.org/10.1109/JSEN.2014.2370945. Siehe auch Stephen S. Intille u. a., »New Horizons in Sensor Development«, Medicine & Science in Sports & Exercise 44 (2012). S. 24–31. https://doi.org/10.1249/MSS.0b013e3182399c7d. 150 P. Castillejo, J. F. Martínez, J. Rodríguez-Molina, A. Cuerva, »Integration of Wearable Devices in a Wireless Sensor Network for an E-health Application,« IEEE Wireless Communications 20:4 (2013). S. 38–49. 151 J. Cheng, O. Amft, G. Bahle, P. Lukowicz, »Designing Sensitive Wearable Capacitive Sensors for Activity Recognition«, IEEE Sensors Journal 13:10 (2013). S. 3935–3947. 152 D. De Rossi, P. Veltink, »Wearable Technology for Biomechanics: ETextile or Micromechanical Sensors?«, IEEE Engineering in Medicine and Biology Magazine, 20. Mai 2010. S. 37–43. 153

2012 hieß es in einer Studie von Pew Research, dass 53 % der Amerikaner ein Smartphone besitzen und von diesen 20 % wenigstens eine gesundheitsbezogene App auf dem Telefon haben. 2015 besaßen einer landesweiten Erhebung zufolge bereits 71 % der Amerikaner ein Smartphone oder ein anderes Gerät mit »drahtlosem« Netzanschluss, auf dem 32 % wenigstens eine gesundheitsbezogene App installiert hatten; dies weise auf ein »Bedürfnis der Öffentlichkeit, ›jederzeit und überall‹ überwacht, diagnostiziert und behandelt zu werden«. Siehe dazu Susannah Fox, Maeve Duggan, »Mobile Health 2012«, Pew Research Center: Internet, Science & Tech, 8. November 2012, http://www.pewinternet.org/2012/11/08/mobile-health-2012; Mark Brohan, »Mobile Will Be a Top Health Industry Trend in 2016«, MobileStrategies360, 11. Dezember 2015, https://www.digitalcommerce360.com/2015/12/11/mobile-will-be-atop-health-industry-trend-in-2016-2/. Forbes berichtete, mit welcher Begeisterung die Nachricht in der Branche aufgenommen wurde: »Große Pharmaunternehmen lancieren Hunderte Mobil-Apps … während Unternehmen per Mobilfunk daran arbeiten, die Kosten für Krankenversicherung unter ihren Beschäftigten niedrig zu halten …« Siehe Jennifer Elias, »In 2016, Users Will Trust Health Apps More Than Their Doctors,« Forbes, 31. Dezember 2015, https://www.forbes.com/sites/jenniferelias/2015/12/31/in-2016-userswill-trust-health-apps-more-than-their-doctors/#4e9c16227eb6. 154 Gabrielle Addonizio, »The Privacy Risks Surrounding Consumer Health and Fitness Apps with HIPAA’s Limitations and the FTC’s Guidance«, Health Law Outlook 9: 1 (2016), http://scholarship.shu.edu/health-law-outlook/vol9/iss1/1. 155

Federal Trade Commission, »Mobile Health App Developers: FTC Best Practices«, Federal Trade Commission, April 2016, https://www.ftc.gov/tips-advice/business-center/guidance/mobilehealth-app-developers-ftc-best-practices; »Mobile Privacy Disclosures: Building Trust Through Transparency«, Federal Trade Commission, Februar 2013, https://www.ftc.gov/sites/default/files/documents/reports/mobileprivacy-disclosures-building-trust-through-transparency-federaltrade-commission-staff-report/130201mobileprivacyreport.pdf. 156 Harrison Kaminsky, »FDA States It Will Not Regulate Fitness Trackers and Wellness Apps«, Digital Trends, 31. Juli 2016, http://www.digitaltrends.com/health-fitness/fda-will-not-regulatefitness-wellness-apps. 157 Tobias Dehling u. a., »Exploring the Far Side of Mobile Health: Information Security and Privacy of Mobile Health Apps on IOS and Android«, JMIR MHealth and UHealth 3:1 (2015). S. 1–26, https://doi.org/10.2196/mhealth.3672. 158

2013 wertete eine Analyse des Privacy Rights Clearinghouse eine Reihe von Gesundheits- und Fitness-Apps hinsichtlich ihrer Risiken für den Datenschutz aus, darunter auch die Enteignung persönlicher Informationen, die Sensibilität dieser Informationen und das Maß, in dem man sie an Dritte weitergibt. Siehe »Mobile Health and Fitness Apps: What Are the Privacy Risks?«, Privacy Rights Clearinghouse, 1. Juli 2013, https://www.privacyrights.org/consumer-guides/mobilehealth-and-fitness-apps-what-are-privacy-risks; Bruno M. Silva u. a., »A Data Encryption Solution for Mobile Health Apps in Cooperation Environments«, Journal of Medical Internet Research 15:4 (2013). S. e66, https://doi.org/10.2196/jmir.2498; Miloslava Plachkinova, Steven Andres, Samir Chatterjee, »A Taxonomy of MHealth Apps – Security and Privacy Concerns«, 48th Hawaii International Conference on System Sciences, Hawaii, 2015. S. 3187–3196, https://doi.org/10.1109/HICSS.2015.385; Soumitra S. Bhuyan u. a., »Privacy and Security Issues in Mobile Health: Current Research and Future Directions,« Health Policy and Technology, Januar 2017, https://doi.org/10.1016/j.hlpt.2017.01.004; Borja Martínez-Pérez, Isabel de la Torre-Díez, Miguel López-Coronado, »Privacy and Security in Mobile Health Apps: A Review and Recommendations«, Journal of Medical Systems 39:1 (2015), https://www.researchgate.net/profile/Isabel_De_la_Torre_Diez2/publi cation/269289798_ Privacy_and_Security_in_Mobile_Health_Apps_A_Review_and_Rec ommendations/links/59e88deb458515c363133d6d/Privacy-andSecurity-in-Mobile-Health-Apps-A-Review-andRecommendations.pdf; Dehling u. a., »Exploring the Far Side of Mobile Health«. 159 Andrew Hilts, Christopher Parsons, Jeffrey Knockel, »Every Step You Fake: A Comparative Analysis of Fitness Tracker Privacy and Security«, Open Effect, 2016, https://openeffect.ca/fitness-trackers. 160 Ebd. 161

Sarah R. Blenner u. a., »Privacy Policies of Android Diabetes Apps and Sharing of Health Information«, JAMA 315:10 (2016). S. 1051f., https://doi.org/10.1001/jama.2015.19426. 162 »Biometric Privacy Laws: Illinois and the Fight Against Intrusive Tech«, Zugriff am 29. März 2018, https://news.law.fordham.edu/jcfl/2018/03/20/biometric-privacylaws-illinois-and-the-fight-against-intrusive-tech/. 163 Bennett, »Saving Face: Facebook Wants Access without Limits«, Center for Public Integrity, 31. Juli 2017, https://www.publicintegrity.org/2017/07/31/21027/saving-face-face book-wants-access-without-limits. 164 »Why Mark Zuckerberg’s Senate Hearing Could Mean Little for Facebook’s Privacy Reform«, Center for Public Integrity, 10. April 2018, https://www.publicintegrity.org/2018/04/10/21665/why-markzuckerbergs-senate-hearing-could-mean-little-facebooks-privacyreform. 165 Ebd. 166 Bennett, »Saving Face«. 167 »DeepFace: Closing the Gap to Human-Level Performance in Face Verification«, Facebook Research, Zugriff am 14. April 2018, https://research.fb.com/publications/deepface-closing-the-gap-tohuman-level-performance-in-face-verification. 168 Ebd. 169 »Facebook Can Recognise You in Photos Even If You’re Not Looking«, New Scientist, 22. Juni 2015, https://www.newscientist.com/article/dn27761-facebook-canrecognise-you-in-photos-even-if-youre-not-looking/.

170 Bennett, »Saving Face«. S. 13; April Glaser, »Facebook Is Using an ›NRA Approach‹ to Defend Its Creepy Facial Recognition Programs«, Slate, 4. August 2017, http://www.slate.com/blogs/future_tense/2017/08/04/facebook_is_fig hting_biometric_facial_recognition_privacy_laws.html; »Tech Companies Are Pushing Back Against Biometric Privacy Laws«, Bloomberg.com, 20. Juli 2017, https://www.bloomberg.com/news/articles/2017-07-20/techcompanies-are-pushing-back-against-biometric-privacylaws; Ally Marotti, »Proposed Changes to Illinois’ Biometric Law Concern Privacy Advocates«, chicagotribune.com, 10. April  2018, http://www.chicagotribune.com/business/ct-biz-illinois-biomet rics-bills-20180409-story.html. 171 Kashmir Hill, »You’re Being Secretly Tracked with Facial Recognition, Even in Church«, Splinter, 23. Juni 2015, https://splinternews.com/youre-being-secretly-tracked-with-facialrecognition-e-1793848585. 172 Robinson Meyer, »Who Owns Your Face?«, Atlantic, 2. Juli 2015. 173 »Privacy Best Practice Recommendations for Commercial Facial Recognition Use.« https://www.ntia.doc.gov/files/ntia/publications/privacy_best_practic es_recommendations_for_commercial_use_of_facial_recogntion.pdf 174 Ebd. 175 »Statement on NTIA Privacy Best Practice Recommendations for Commercial Facial Recognition Use«, Consumer Federation of America, 15. Juni 2016, https://consumerfed.org/press_release/statement-ntia-privacy-bestpractice-recommendations-commercial-facial-recognition-use/.

9. Rendition aus den Tiefen 1 Satya Nadella u. a., »Satya Nadella: Microsoft Ignite 2016«, 26. September 2016, https://news.microsoft.com/speeches/satya-nadellamicrosoft-ignite-2016. 2 Varian, »Beyond Big Data«. S. 28f. 3 Neil McKendrick, »The Consumer Revolution of Eighteenth-Century England«, in Birth of a Consumer Society: The Commercialization of Eighteenth-Century England, hg. von John Brewer. J. H. Plumb, Bloomington: Indiana University Press, 1982. S. 11. 4 Nathaniel Forster, An Enquiry into the Causes of the Present High Price of Provisions. London: J. Fletcher, 1767, S. 41. 5 Adam Smith, Der Wohlstand der Nationen: Eine Untersuchung seiner Natur und seiner Ursache. München: C. H. Beck, 1974. S. 760. 6 »Digital Life in 2025«, Pew Research Center: Internet, Science & Tech, 11. März 2014, http://www.pewinternet.org/2014/03/11/digitallife-in-2025. 7 Tom Simonite, »Google’s Answer to Siri Thinks Ahead«, MIT Technology Review, 28. September 2012, https://www.technologyreview.com/s/429345/googles-answer-to-sirithinks-ahead. 8 Dieter Bohn, »Google Now: Behind the Predictive Future of Search«, Verge, 29. Oktober 2012, http://www.theverge.com/2012/10/29/3569684/google-now-android4-2-knowledge-graph-neural-networks.

9 Android, Introducing Google Now, 2012, https://www.youtube.com/watch?v=pPqliPzHYyc. 10 Simonite, »Google’s Answer to Siri«. 11 Drew Olanoff, Josh Constine, »Facebook Is Adding a Personal Assistant Called ›M‹ to Your Messenger App«, TechCrunch, 26.  August 2015, http://social.techcrunch.com/2015/08/26/facebook-isadding-a-personal-assistant-called-m-to-your-messenger-app; Amir Efrati, »Facebook Preps ›Moneypenny‹ Assistant«, Information, 13. Juli 2015, https://www.theinformation.com/coming-soon-tofacebook-messenger-moneypenny-assistant. 12 Jessi Hempel, »Facebook Launches M, Its Bold Answer to Siri and Cortana«, Wired, August 2015, https://www.wired.com/2015/08/facebook-launches-m-new-kindvirtual-assistant. 13 Hempel, »Facebook Launches«. 14 Cory Weinberg, »How Messenger and ›M‹ Are Shifting Gears«, Information, 22. Februar 2017, https://www.theinformation.com/howmessenger-and-m-are-shifting-gears. 15

So stellt zum Beispiel bereits ein Weißbuch der Fed von Kansas City aus dem Jahre 2004 die »Spracherkennung« als Gefahr für den Arbeitsmarkt heraus: »Fortschritte bei Spracherkennungstechnologie, Fachinformationssystemen und künstlicher Intelligenz könnten dazu führen, dass viele Leistungen im Bereich des Kundendienstes und womöglich sogar routinemäßige Röntgenuntersuchungen von Computern erledigt werden.« Siehe C. Alan Garner, »Offshoring in the Service Sector: Economic Impact and Policy Issues«, Economic Review 89:3 (2004). S. 5–37. Frey und Osbornes vielzitierte Studie technologisch bedingter Arbeitslosigkeit aus dem Jahr 2013 stößt ins gleiche Horn: »Außerdem bietet eine Firma mit Namen SmartAction Lösungen für das rechnergestützte Beantworten von Anrufen, die ML-Technologie und fortgeschrittene Spracherkennung einsetzen, womit sich Kostenersparnisse zwischen 60 % und 70 % gegenüber dem Outsourcing an mit menschlichen Arbeitskräften besetzte Callcenter realisieren lassen.« Siehe Carl Benedikt Frey, Michael Osborne, »The Future of Employment: How Susceptible Are Jobs to Computerisation?«, Technological Forecasting and Social Change 114 (2013). S. 254–280. Siehe dazu außerdem eine Folgestudie: Philipp Brandes, Roger Wattenhofer, Stefan Schmid, »Which Tasks of a Job Are Susceptible to Computerization?«, Bulletin of EATCS 3:120 (2016), http://bulletin.eatcs.org/index.php/beatcs/article/view/467. 16 Dave Limp, »The Exec Exec Behind Amazon’s Alexa: Full Transcript of Interview«, Fortune, 14. Juli 2016, http://fortune.com/2016/07/14/amazon-alexa-david-limp-transcript. 17

Matthew Lynley, »Google Unveils Google Assistant, a Virtual Assistant That’s a Big Upgrade to Google Now«, TechCrunch, 18. Mai 2016, http://social.techcrunch.com/2016/05/18/google-unveilsgoogle-assistant-a-big-upgrade-to-google-now. Siehe auch Minda Smiley, »Google I/O Conference: Three Takeaways for Marketers«, Drum, 19. Mai 2016, http://www.thedrum.com/news/2016/05/19/google-io-conferencethree-takeaways-marketers; Sundar Pichai, »Google I/O 2016 Keynote«, Singju Post, 20. Mai 2016, http://singjupost.com/googleio-2016-keynote-full-transcript. 18 Pichai, »Google I/O 2016 Keynote«. 19 Ebd. 20 Jing Cao, Dina Bass, »Why Google, Microsoft and Amazon Love the Sound of Your Voice«, Bloomberg Businessweek, 13. Dezember 2016, https://www.bloomberg.com/news/articles/2016-12-13/whygoogle-microsoft-and-amazon-love-the-sound-of-your-voice. 21 A. J. Dellinger, »I Took a Job Listening to Your Siri Conversations«, Daily Dot, 2. März 2015, https://www.dailydot.com/debug/sirigoogle-now-cortana-conversations. 22 »Global Smart Appliances Market 2016‒2020«, Technavio, 10. April 2017, https://www.technavio.com/report/global-home-kitchen-andlarge-appliances-global-smart-appliances-market-2016-2020. 23 Adi Narayan, »Samsung Wants to Put Your Home on a Remote«, BusinessWeek: Technology, 11. Dezember 2014. 24 Alex Hern, »Samsung Rejects Concern Over ›Orwellian‹ Privacy Policy«, Guardian, 9. Februar 2015, http://www.theguardian.com/technology/2015/feb/09/samsungrejects-concern-over-orwellian-privacy-policy.

25 »EPIC – Samsung ›SmartTV‹ Complaint«, EPIC.org, 9. Mai 2017, https://epic.org/privacy/internet/ftc/samsung. 26 »Samsung Privacy Policy«, Samsung, 10. Februar 2015, http://www.samsung.com/us/common/privacy.html. 27 »Nuance Communications, Inc. Privacy Policy General Information«, Nuance Communications, Dezember 2015, https://www.nuance.com/about-us/company-policies/privacypolicies.html. 28 Committee on Privacy and Consumer Protection, »Connected Televisions«, Pub. L. No. 1116, § 35, 22948.20-2298.25, 2015, https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml? bill_id=201520160AB1116. 29 Megan Wollerton, »Voice Control Comes to the Forefront of the Smart Home«, CNET, 1. Dezember 2014, https://www.cnet.com/news/voice-control-roundup; David Katzmaier, »Think Smart TV Is Dumb? Samsung Aims to Change Your Mind by Controlling Your Gear«, CNET, 14. April 2016, https://www.cnet.com/news/think-smart-tv-is-dumb-samsung-aimsto-change-your-mind-by-controlling-your-gear; David Pierce, »Soon, You’ll Be Able to Control Every Corner of Your Smart Homes with a Single Universal Remote«, Wired, 7. Januar 2016, https://www.wired.com/2016/01/smart-home-universal-remote. https://news.samsung.com/de/naher-betrachtet-3-wie-das-galaxy-s9und-smartthings-den-alltag-der-nutzer-erleichtern. 30

»VIZIO to Pay $2.2 Million to FTC, State of New Jersey to Settle Charges It Collected Viewing Histories on 11 Million Smart Televisions Without Users’ Consent«, Federal Trade Commission, 6.  Februar 2017, https://www.ftc.gov/news-events/press-releases/20 17/02/vizio-pay-22-million-ftc-state-new-jersey-settle-charges-it. 31 Nick Visser, »Vizio to Pay Millions After Secretly Spying on Customers, Selling Viewer Data«, Huffington Post, 7. Februar 2017, https://www.huffingtonpost.com/entry/viziosettlement_us_589962dee4b0c1284f27e534. 32 Lesley Fair, »What Vizio Was Doing Behind the TV Screen«, Federal Trade Commission, 6. Februar 2017, https://www.ftc.gov/newsevents/blogs/business-blog/2017/02/what-vizio-was-doing-behind-tvscreen. 33 Maureen K. Ohlhausen, »Concurring Statement of Acting Chairman Maureen K. Ohlhausen – In the Matter of Vizio, Inc. – Matter No. 1623024«, Federal Trade Commission, 6. Februar 2017, https://www.ftc.gov/system/files/documents/public_statements/10707 73/vizio_concurring_statement_of_chairman_ohlhausen_2-6-17.pdf. 34 Electronic Privacy Information Center, »Federal Trade Commission – In the Matter of Genesis Toys and Nuance Communications – Complaint and Request for Investigation, Injunction and Other Relief«, Federal Trade Commission, 6. Dezember 2016, https://epic.org/privacy/kids/EPIC-IPR-FTC-Genesis-Complaint.pdf; Kate Cox, »These Toys Don’t Just Listen to Your Kid; They Send What They Hear to a Defense Contractor«, Consumerist, 6.  Dezember 2016, https://consumerist.com/2016/12/06/these-toysdont-just-listen-to-your-kid-they-send-what-they-hear-to-a-defensecontractor. 35

Jiri Havelka, Raimo Bakis, Systems and methods for facilitating communication using an interactive communication system, US20170013124 A1, eingereicht am 6. Juli 2015, erteilt am 12. Januar 2017, http://www.google.com/patents/US20170013124. 36 James Vlahos, »Barbie Wants to Get to Know Your Child«, New York Times, 16. September 2015, http://www.nytimes.com/2015/09/20/magazine/barbie-wants-to-getto-know-your-child.html? action=click&pgtype=Homepage&module=photo-spot-region®i on=top-news&WT.nav=top-news; Evie Nagy, »After the Fracas Over Hello Barbie, ToyTalk Responds to Its Critics«, Fast Company, 23. Mai 2015, https://www.fastcompany.com/3045676/after-the-fracasover-hello-barbie-toytalk-responds-to-its-critics; Mike Krieger, »Big Barbie Is Watching You: Meet the WiFi-Connected Doll That Talks to Your Kids & Records Them«, Zero Hedge, 7. Januar 2013, https://www.zerohedge.com/news/2015-02-23/big-barbie-watchingyou-meet-wifi-connected-doll-talks-your-kids-records-them; Issie Lapowsky, »Pixar Vets Reinvent Speech Recognition So It Works for Kids«, Wired, 25. September 2014, https://www.wired.com/2014/09/toytalk; Tim Moynihan, »Barbie Has a New Super-Dope Dreamhouse That’s Voice-Activated and Connected to the Internet«, Wired, 15. September 2016, https://www.wired.com/2016/09/barbies-new-smart-home-crushinghard; Irina D. Manta, David S. Olson, »Hello Barbie: First They Will Monitor You, Then They Will Discriminate Against You. Perfectly«, Alabama Law Review 135:67 (2015), http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2578815. Siehe auch »ToyTalk | Legal | Hello Barbie/Barbie Hello Dreamhouse Privacy Policy«, ToyTalk, 30. März 2017, https://www.toytalk.com/hellobarbie/privacy. 37 Moynihan, »Barbie Has a New Super-Dope Dreamhouse«. 38

Paul Ziobro, Joann S. Lublin, »Mattel Finds Its New CEO at Google«, Wall Street Journal, 18. Januar 2017. 39 https://netzpolitik.org/2017/schnueffelpuppe-my-friend-cayla-indeutschland-verboten/ 40 James Vincent, »German Watchdog Tells Parents to Destroy Wi-FiConnected Doll Over Surveillance Fears«, Verge, 17. Februar 2017, http://www.theverge.com/2017/2/17/14647280/talking-doll-hackcayla-german-government-ban; Thomas Claburn, »Smash Up Your Kid’s Bluetooth-Connected Cayla ›Surveillance‹ Doll, Germany Urges Parents«, Register, 17. Februar 2017, https://www.theregister.co.uk/2017/02/17/cayla_doll_banned_in_ger many. 41 Hayley Tsukayama, »Mattel Has Canceled Plans for a Kid-Focused AI Device That Drew Privacy Concerns«, Washington Post, 4. Oktober 2017, https://www.washingtonpost.com/news/theswitch/wp/2017/10/04/mattel-has-an-ai-device-to-soothe-babiesexperts-are-begging-them-not-to-sell-it. 42 Frank Pasquale, »Will Amazon Take Over the World?«, Boston Review, 20. Juli 2017, https://bostonreview.net/class-inequality/frankpasquale-will-amazon-take-over-world; Lina M. Khan, »Amazon’s Antitrust Paradox«, Yale Law Journal 126:3 (2017), https://www.yalelawjournal.org/note/amazons-antitrust-paradox. 43

Kevin McLaughlin u. a., »Bezos Ordered Alexa App Push«, Information, 16. November 2016, https://www.theinformation.com/bezos-ordered-alexa-app-push; »The Real Reasons That Amazon’s Alexa May Become the Go-to AI for the Home«, Fast Company, 8. April 2016, https://www.fastcompany.com/3058721/app-economy/the-realreasons-that-amazons-alexa-may-become-the-go-to-ai-for-the-home. 44 »Amazon Lex – Build Conversation Bots«, Amazon Web Services, 24. Februar 2017, https://aws.amazon.com/de/lex/. 45 »Dave Limp, Exec Behind Amazon’s Alexa«. 46 Aaron Tilley, Priya Anand, »Apple Loses Ground to Amazon in Smart Home Deals With Builders«, The Information, 16. April 2018, https://www.theinformation.com/articles/apple-loses-ground-toamazon-in-smart-home-deals-with-builders. 47 Ebd. 48 Sapna Maheshwari, »Hey, Alexa, What Can You Hear? And What Will You Do With It?«, New York Times, 31. März 2018, https://www.nytimes.com/2018/03/31/business/media/amazongoogle-privacy-digital-assistants.html. 49

Alex Hern, »Amazon to Release Alexa-Powered Smartglasses, Reports Say«, Guardian, 20. September 2017, http://www.theguardian.com/technology/2017/sep/20/amazon-alexasmartglasses-google-glass-snapchat-spectacles-voice-assistant; Scott Gillum, »Why Amazon Is The New Google For Buying«, MediaInsider, 14. September 2017, https://www.me diapost.com/publications/article/307348/why-amazon-is-the-newgoogle-for-buying.html; Mike Shields, »Amazon Looms Quietly in Digital Ad Landscape«, Wall Street Journal, 6. Oktober 2016, sec. Business, http://www.wsj.com/articles/amazon-looms-quietly-indigital-ad-landscape-1475782113. 50 »Alexa, Take the Wheel: Ford Models to Put Amazon in Driver Seat«, Bloomberg.com, 5. Januar 2017, https://www.bloomberg.com/news/articles/2017-01-05/steeringwheel-shopping-arrives-as-alexa-hitches-ride-with-ford. 51 Ryan Knutson, Laura Stevens, »Amazon and Google Consider Turning Smart Speakers into Home Phones«, Wall Street Journal, 15. Februar 2017, https://www.wsj.com/articles/amazon-google-dial-upplans-to-turn-smart-speakers-into-home-phones-1487154781; Kevin McLaughlin, »AWS Takes Aim at Call Center Industry«, Information, 28. Februar 2017, https://www.theinformation.com/awstakes-aim-at-call-center-industry. 52 https://www.cnet.com/news/google-home-links-phone-number/. 53 Lucas Matney, »Siri-Creator Shows Off First Public Demo of Viv, ›The Intelligent Interface for Everything‹ «, TechCrunch, http://social.techcrunch.com/2016/05/09/siri-creator-shows-off-firstpublic-demo-of-viv-the-intelligent-interface-for-everything. 54

Shoshana Zuboff, In the Age of the Smart Machine: The Future of Work and Power. New York: Basic Books, 1988. S. 381. 55 Ebd. S. 362–386. 56 Ebd. S. 383. 57 Frei nach Dorsch, Lexikon der Psychologie. https://m.portal.hogrefe.com/dorsch/fuenf-faktoren-modell/. 58 Jennifer Golbeck u. a., »Predicting Personality with Social Media«, in CHI ›11 Extended Abstracts on Human Factors in Computing Systems, CHI EA ‹11 (New York: ACM, 2011). S. 253–262, https://doi.org/10.1145/1979742.1979614. 59 Jennifer Golbeck u. a., »Predicting Personality from Twitter«, in 2011 IEEE Third International Conference on Privacy, Security, Risk and Trust and 2011 IEEE Third International Conference on Social Computing (PASSAT-SocialCom 2011), hg. vom Institute of Electrical and Electronics Engineers and Computer Society, Boston: IEEE, 2011. 60 Ebd. 61 Daniele Quercia u. a., »Our Twitter Profiles, Our Selves: Predicting Personality with Twitter«, IEEE, 2011. S. 180–185, https://doi.org/10.1109/PASSAT/SocialCom.2011.26. 62 »Psychometrics Centre Moves to Cambridge Judge Business School – The Psychometrics Centre«, University of Cambridge, 19. Juli 2016, http://www.psychometrics.cam.ac.uk/news/Move_to_JBS; »Dr David Stillwell, Deputy Director – The Psychometrics Centre«, abgerufen am 9. März 2017, http://www.psychometrics.cam.ac.uk/about-us/directory/davidstillwell.

63 Bobbie Johnson, »Privacy No Longer a Social Norm, Says Facebook Founder«, Guardian, 10. Januar 2010, https://www.theguardian.com/technology/2010/jan/11/facebookprivacy. 64 Yoram Bachrach u. a., »Personality and Patterns of Facebook Usage«, Microsoft Research, 1. Januar 2012, https://www.microsoft.com/enus/research/publication/personality-and-patterns-of-facebook-usage. 65 Michal Kosinski, David Stillwell, Thore Graepel, »Private Traits and Attributes Are Predictable from Digital Records of Human Behavior«, Proceedings of the National Academy of Sciences of the United States of America 110:15 (2013). S. 5802–5805. 66 Gregory Park u. a., »Automatic Personality Assessment Through Social Media Language«, Journal of Personality and Social Psychology 108:6 (2015). S. 934–952. 67 Michal Kosinski u. a., »Mining Big Data to Extract Patterns and Predict Real-Life Outcomes«, Stanford Graduate School of Business 21:4 (2016). S. 1; Michal Kosinski, »Dr. Michal Kosinski«, Homepage of Dr. Michal Kosinski, aufgerufen am 28. Februar 2018, http://www.michalkosinski.com/. 68

Park u. a., »Automatic Personality Assessment«; siehe auch, Peter J. Rentfrow u. a., »Divided We Stand: Three Psychological Regions of the United States and Their Political, Economic, Social, and Health Correlates.« Journal of Personality and Social Psychology 105:6 (2013). S. 996–1012; Dejan Markovikj u. a., »Mining Facebook Data for Predictive Personality Modeling«, Association for the Advancement of Artificial Intelligence, 2013. https://www.gsb.stanford.edu/sites/gsb/files/confpresentations/miningfacebook.pdf; H. Andrew Schwartz u. a., »Predicting Individual Well-Being through the Language of Social Media«, in Biocomputing 2016. S. 516–527, https://doi.org/10.1142/9789814749411_0047; H. Andrew Schwartz u. a., »Extracting Human Temporal Orientation from Facebook Language«, Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2015, http://www.aca demia.edu/15692796/Extracting_Human_Temporal_Orientation_fro m_Facebook_Language; David M. Greenberg u. a., »The Song Is You: Preferences for Musical Attribute Dimensions Reflect Personality«, Social Psychological and Personality Science 7:6 (2016). S. 597–605. https://doi.org/10.1177/1948550616641473; Michal Kosinski u. a., »Private Traits and Attributes Are Predictable from Digital Records of Human Behavior«, Proceedings of the National Academy of Sciences of the United States of America 110:15 (2013). S. 5802–5805. 69 Wu Youyou u. a., »Computer-Based Personality Judgments Are More Accurate than Those Made by Humans«, Proceedings of the National Academy of Sciences 112:4 (2015). S. 1036–1040, https://doi.org/10.1073/pnas.1418680112. 70 Tsung-Yi Chen u. a., »A User’s Personality Prediction Approach by Mining Network Interaction Behaviors on Facebook«, Online Information Review 40:7 (2016). S. 913–937.

71 Das Fünf-Faktoren-Modell (FFM-Modell) ist nicht zuletzt deshalb so beliebt, weil es sich der einfachen Einschätzung mittels simpler Protokolle andient. Die Charakterzüge, die es beschreibt, zeichnen sich durch Augenscheinvalidität aus, sind mit anderen Worten sofort einsehbar und eröffnen sich dem gesunden Menschenverstand. Ist zum Beispiel jemand besonders ordentlich, wird er auch beim Punkt Gewissenhaftigkeit gut abschneiden. Jemand, der gern mit seinen Freunden zusammen ist, wird auch beim Punkt Extraversion gut abschneiden usw. So weisen denn auch Kosinski und seine CoAutoren auf die enge Korrelation zwischen Facebook-»Likes« und den fünf Persönlichkeitsmerkmalen: »Teilnehmer mit einem hohen Grad an Offenheit für neue Erfahrungen neigen dazu, auch Salvador Dalì zu ›liken‹, Meditation oder TED-Konferenzen …« Diese Korrelationen sind offensichtlich und entsprechend leicht zu punkten, programmieren und schließlich zu skalieren. Das menschliche Urteil vermag angesichts der Masse nicht mehr mitzuhalten, übertrifft die Maschinen jedoch in Sachen Diversität. Kosinski und seine Kollegen wissen dies und räumen entsprechend ein, dass die menschliche Wahrnehmung »flexibel« ist und »in der Lage, viele unbewusste Zeichen zu erfassen, die Maschinen nicht zugänglich sind«. Wu Youyou u. a., »Computer-Based Personality Judgments Are More Accurate«. 72 Interview mit Michal Kosinski, https://www.youtube.com/watch? v=pJGuWKqwYRk. 73 Leqi Liu u. a., »Analyzing Personality Through Social Media Profile Picture Choice«, Association for the Advancement of Artificial Intelligence, 2016, https://www.aaai.org/ocs/index.php/ICWSM/ICWSM16/paper/view/1 3102/12741. 74

Sharath Chandra Guntuku u. a., »Do Others Perceive You as You Want Them to? Modeling Personality Based on Selfies«, in Proceedings of the 1st International Workshop on Affect & Sentiment in Multimedia, ASM ’15, New York: ACM, 2015. S. 21–26, http://www.ntu.edu.sg/home/linqiu/publications/ACM2015.pdf. 75 Bruce Ferwerda u. a., »Using Instagram Picture Features to Predict Users’ Personality«, in MultiMedia Modeling. Cham: Springer, 2016. S. 850–861, http://www.cp.jku.at/research/ papers/Ferwerda_etal_Miami_2016.pdf. 76 Golbeck u. a., »Predicting Personality with Social Media«. 77 Chen u. a., »A User’s Personality Prediction Approach«. 78 H. Andrew Schwartz u. a., »Predicting Individual Well-Being through the Language of Social Media«, in Biocomputing 2016. S. 516–527. https://doi.org/10.1142/9789814749411_0047. 79 Interview mit Michal Kosinski. 80 »IBM Cloud Makes Hybrid a Reality for the Enterprise«, CTB10, IBM, 23. Februar 2015, https://www03.ibm.com/press/us/en/pressrelease/46136.wss. 81 »IBM Watson Personality Insights«, IBM Watson Developer Cloud, 14. Oktober 2017, https://personality-insightslivedemo.mybluemix.net; »IBM Personality Insights – Needs«, IBM Watson Developer Cloud, 14. Oktober 2017, https://console.bluemix.net/docs/services/personalityinsights/needs.html#needs; »IBM Personality Insights – Values«, IBM Watson Developer Cloud, 14. Oktober 2017, https://console.bluemix.net/docs/services/personalityinsights/values.html#values. 82

»IBM Personality Insights – Use Cases«, IBM Cloud Docs, 8. November 2017, https://con sole.bluemix.net/docs/services/personalityinsights/usecases.html#usecases. 83 Ebd. 84 Ebd. 85

Vibha Sinha, »Personality of Your Agent Matters – An Empirical Study on Twitter Conversations – Watson Dev«, Watson, 3.  November 2016, https://developer.ibm.com/wat son/blog/2016/11/03/personality-of-your-agent-matters-an-empiricalstudy-on-twitter-conversations. In einer gemeinsamen Studie mit dem Datendienstleister Acxiom versuchten die beiden Konzernriesen zu eruieren, ob sich mit IBMs Einsichten in die Persönlichkeit Konsumpräferenzen besser voraussagen lassen als mit herkömmlichen demografischen Informationen, wie die Datendienstleister sie sammeln. Die Ergebnisse bejahten dies. Nach der Untersuchung von 133 Konsumpräferenzen von etwa 785  000 US-Bürgern verbesserte die Hinzunahme von Persönlichkeitsdaten die Genauigkeit der Vorhersagewerte für 115 (86,5 %) dieser Präferenzen. Bei 23 dieser Präferenzen lieferten bereits Persönlichkeitsdaten allein eine bessere Vorhersagegenauigkeit. Begeistert hoben die Forscher heraus, dass in 61 % der Fälle Watsons »Einsichten in die Persönlichkeit« bestimmte Kategorien von Präferenzen (wie etwa Camping/Wandern) »ohne das Einholen von User-Daten« vorherzusagen vermögen. Außerdem räumen sie ein, dass das Einkommen ein signifikanter Prädiktor bei der Vorhersage des Konsumverhaltens spielt, nur seien Informationen über das Einkommen im Gegensatz zu Persönlichkeitsdaten, die »sich den Social-Media-Profilen der Leute entnehmen lassen, »äußerst sensibel« und »schwer zu bekommen«. Siehe IBM-Acxiom, »Improving Consumer Consumption Preference Prediction Accuracy with Personality Insights«, März 2016, https://www.ibm.com/watson/developercloud/doc/personalityinsights/applied.shtml. 86 IBM-Acxiom, »Improving Consumer Consumption Preference Prediction Accuracy«. 87

»Social Media Analytics«, Xerox Research Center Europe, 3. April 2017, http://www.europe.naverlabs.com/NAVER-LABSEurope/History; Amy Webb, »8 Tech Trends to Watch in 2016«, Harvard Business Review, 8. Dezember 2015, https://hbr.org/ 2015/12/8-tech-trends-to-watch-in-2016; Christina Crowell, »Machines That Talk to Us May Soon Sense Our Feelings, Too«, Scientific American, 24. Juni 2016, https://www.scientificameri can.com/article/machines-that-talk-to-us-may-soon-sense-ourfeelings-too; R. G. Conlee, »How Automation and Analytics Are Changing Customer Care«, Conduent Blog, 18. Juli 2016, https://www.blogs.conduent.com/2016/07/18/how-automation-andanalytics-are-changing-customer-care; Ryan Knutson, »Call Centers May Know a Surprising Amount About You«, Wall Street Journal, 6. Januar 2017, http://www.wsj.com/articles/that-anonymous-voice-atthe-call-center-they-may-know-a-lot-about-you-1483698608. 88

Nicholas Confessore, Danny Hakim, »Bold Promises Fade to Doubts for a Trump-Linked Data Firm«, New York Times, 6. März 2017, https://www.nytimes.com/2017/03/06/us/politics/cambridgeanalytica.html; Mary-Ann Russon, »Political Revolution: How Big Data Won the US Presidency for Donald Trump«, International Business Times UK, 20. Januar  2017, http://www.ibtimes.co.uk/political-revolution-how-big-datawon-us-presidency-donald-trump-1602269; Grassegger, Krogerus, »The Data That Turned the World Upside Down«; Carole Cadwalladr, »Revealed: How US Billionaire Helped to Back Brexit«, Guardian, 25. Februar 2017, https://www.theguardian.com/politics/2017/feb/26/us-billionairemercer-helped-back-brexit; Paul-Olivier Dehaye, »The (Dis)Information Mercenaries Now Controlling Trump’s Databases«, Medium, 3. Januar 2017, https://medium.com/personaldata-io/the-disinformation-mercenaries-now-controlling-trumps-databases4f6a20d4f3e7; Harry Davies, »Ted Cruz Using Firm That Harvested Data on Millions of Unwitting Facebook Users«, Guardian, 11. Dezember 2015, https://www.theguardian.com/usnews/2015/dec/11/senator-ted-cruz-president-campaign-facebookuser-data. 89 Concordia, The Power of Big Data and Psychographics, 2016, https://www.youtube.com/watch?v=n8Dd5aVXLCc. 90 »Speak the Customer’s Language with Behavioral Microtargeting«, Dealer Marketing, 1. Dezember 2016, http://www.dealermarketing.com/speak-the-customers-language-wi th-behavioral-microtargeting. 91

Sam Biddle, »Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document«, The Intercept, 13. April 2018, https://theinter cept.com/2018/04/13/facebook-advertising-data-artificialintelligence-ai/. 92 »Introducing FBLearner Flow: Facebook’s AI Backbone«, Facebook Code, abgerufen am 16. April 2018, https://code.facebook.com/posts/1072626246134461/introducingfblearner-flow-facebook-s-ai-backbone/. 93 Ebd. 94 Andy Kroll, »Cloak and Data: The Real Story behind Cambridge Analytica’s Rise and Fall«, Mother Jones, Mai/Juni 2018, https://www.motherjones.com/politics/2018/03/cloak-and-datacambridge-analytica-robert-mercer/. 95 Carole Cadwalladr, » ›I Made Steve Bannon’s Psychological Warfare Tool‹: Meet the Data War Whistleblower«, Guardian, 18. März 2018, http://www.theguardian.com/news/2018/mar/17/data-warwhistleblower-christopher-wylie-faceook-nix-bannon-trump; Kroll, »Cloak and Data«. 96

Matthew Rosenberg u. a., »How Trump Consultants Exploited the Facebook Data of Millions«, New York Times, 17. März 2018, https://www.nytimes.com/2018/03/17/us/politics/cambridgeanalytica-trump-campaign.html; Emma Graham-Harrison, Carole Cadwalladr, »Revealed: 50 Million Facebook Profiles Harvested for Cambridge Analytica in Major Data Breach«, Guardian, 17. März 2018, http://www.theguardian.com/news/2018/mar/17/cambridgeanalytica-facebook-influence-us-election; Julia Carrie Wong, Paul Lewis, »Facebook Gave Data about 57bn Friendships to Academic«, Guardian, 22. März 2018, http://www.theguardian.com/news/2018/mar/22/facebook-gave-dataabout-57bn-friendships-to-academic-aleksandr-kogan; Olivia Solon, »Facebook Says Cambridge Analytica May Have Gained 37 m More Users’ Data«, Guardian, 4. April 2018, http://www.theguardian.com/technology/2018/apr/04/facebookcambridge-analytica-user-data-latest-more-than-thought. 97 Paul Lewis, Julia Carrie Wong, »Facebook Employs Psychologist Whose Firm Sold Data to Cambridge Analytica«, Guardian, 18.  März 2018, http://www.theguardian.com/news/ 2018/mar/18/facebook-cambridge-analytica-joseph-chancellor-gsr. 98 Kroll, »Cloak and Data«. 99 Ebd. 100 Frederik Zuiderveen Borgesius u. a., »Online Political Microtargeting: Promises and Threats for Democracy«, SSRN Scholarly Paper, Rochester, NY: Social Science Research Network, 9. Februar 2018, https://papers.ssrn.com/abstract=3128787. 101 Cadwalladr, » ›I Made Steve Bannon’s Psychological Warfare Tool‹ «. 102

In Deutschland ist an diesem Projekt die Universität Passau beteiligt: »SEWA steht für ›Automatic Sentiment Analysis in the Wild‹ – was übersetzt so viel bedeutet wie automatische Verhaltensanalyse im Alltag. Die Maschinen sollen also die Menschen und ihre Reaktionen in ihrer natürlichen Umgebung verstehen lernen. Das Projekt baut auf bestehende Methoden, Modelle und Algorithmen der maschinellen Verhaltensanalyse aus Gesichtsausdrücken und Sprache auf. Diese werden kombiniert und angepasst, damit Gefühle erkannt und in die Interaktion zwischen Mensch und Maschine sowie in die Computervermittelte Mensch-zu-Mensch-Interaktion eingebaut werden können.« Siehe http://www.fim.uni-passau.de/intelligentsystems/forschung-und-projekte/projektdetails/? tx_importconveris_pi1%5Baction%5D=showSingleProject&tx_impo rtconveris_pi1%5Bid%5D=1204. 103 Charlotte McEleny, »European Commission Issues €3.6 m Grant for Tech That Measures Content ›Likeability‹ «, CampaignLive.co.uk, 20. April 2015, https://www.campaignlive.co.uk/article/europeancommission-issues-%E2%82%AC36m-grant-tech-measures-contentlikeability/1343366. 104 »2016 Innovation Radar Prize Winners«, Digital Single Market, 26. September 2016, https://ec.europa.eu/digital-singlemarket/en/news/2016-innovation-radar-prize-winners. 105 »Affective Computing Market – Global Industry Analysis, Size, Share, Growth, Trends and Forecast 2015‒2023«, Transparency Market Research, 2017, http://www.transparency marketresearch.com/affective-computing-market.html. 106

Patrick Mannion, »Facial-Recognition Sensors Adapt to Track Emotions, Mood, and Stress«, EDN, 3. März 2016, http://www.edn.com/electronics-blogs/sensor-ee-perception/ 4441565/Facial-recognition-sensors-adapt-to-track-emotions--moo-and-stress; »Marketers, Welcome to the World of Emotional Analytics«, MarTech Today, 12. Januar 2016, https://martechtoday.com/marketers-welcome-to-the-world-ofemotional-analytics-159152; Ben Virdee-Chapman, »5 Companies Using Facial Recognition to Change the World«, Kairos, 26. Mai  2016, https://www.kairos.com/blog/5-companies-using-facial-re cognition-to-change-the-world; »Affectiva Announces New Facial Coding Solution for Qualitative Research«, Affectiva, 7. Mai 2014, http://www.prnewswire.co.uk/news-releases/affectiva-announcesnew-facial-coding-solution-for-qualitative-research-258267971.html; Ahmad Jalal, Shaharyar Kamal, Daijin Kim, »Human Depth SensorsBased Activity Recognition Using Spatiotemporal Features and Hidden Markov Model for Smart Environments«, Journal of Computer Networks and Communications 5 (2016), https://doi.org/10.1155/2016/8087545; M. Kakarla, G. R. M. Reddy, »A Real Time Facial Emotion Recognition Using Depth Sensor and Interfacing with Second Life Based Virtual 3D Avatar«, in International Conference on Recent Advances and Innovations in Engineering (ICRAIE-2014), 2014. S. 1–7, https://doi.org/10.1109/ICRAIE.2014.6909153. 107 »Sewa Project: Automatic Sentiment Analysis in the Wild«, SEWA, 25. April 2017, https://sewaproject.eu/description. 108 Mihkel Jäätma, »RealEyes – Emotion Measurement«, Realeyes Data Services, 2016, https://www.realeyesit.com/Media/Default/Whitepaper/Realeyes_Wh itepaper.pdf. 109

Alex Browne, »RealEyes – Play Your Audience Emotions to Stay on Top of the Game«, RealEyes, 21. Februar 2017, https://www.realeyesit.com/blog/play-your-audience-emotions. 110 »Realeyes – Emotions«, RealEyes, 2. April 2017, https://www.realeyesit.com/. 111 »See What Industrial Advisors Think About SEWA«, SEWA, 24. April 2017, https://sewaproject.eu/qa#ElissaMoses. 112 »See What Industrial Advisors Think«. 113 Roland Marchand, Advertising the American Dream: Making Way for Modernity, 1920–1940. Berkeley, CA: University of California Press, 1985. 114 Um nur einige der wichtigsten von seinen frühen Veröffentlichungen zu nennen: Paul Ekman, Wallace V. Friesen, »The Repertoire of Nonverbal Behavior: Categories, Origins, Usage and Coding«, Semiotica 1:1 (1969). S. 49–98; Paul Ekman, Wallace V. Friesen, »Constants Across Cultures in the Face and Emotion«, Journal of Personality and Social Psychology 17:2 (1971). S. 124–129; Paul Ekman, W. V. Friesen, »Nonverbal Leakage and Clues to Deception«, Psychiatry 32:1 (1969). S. 88–106; Paul Ekman, E. Richard Sorenson, Wallace V. Friesen, »Pan-Cultural Elements in Facial Displays of Emotion«, Science 164:3875 (1969). S. 86ff., https://doi.org/10.1126/science.164.3875.86; Paul Ekman, Wallace V. Friesen, Silvan S. Tomkins, »Facial Affect Scoring Technique: A First Validity Study«, Semiotica 3:1 (1971), https://doi.org/10.1515/semi.1971.3.1.37. 115 Ekman, Friesen, »Nonverbal Leakage«. 116 Ekman, Friesen, »The Repertoire of Nonverbal Behavior«. 117

Paul Ekman, »An Argument for Basic Emotions«, Cognition and Emotion 6. S. 3f. (1992). S. 169–200, https://doi.org/10.1080/02699939208411068. 118 Ekman und seine Kollegen beschrieben ihren Zugang zum »automatic facial expression measurement« in einem Artikel, der 1997 erschien, im selben Jahr wie das Buch Picards. 119 Rosalind W. Picard, Affective Computing. Cambridge, MA: MIT Press, 2000. S. 85–111. 120 Ebd. S. 244. 121 Ebd. S. 119, 123, 244. 122 Barak Reuven Naveh, Techniques for emotion detection and content delivery, US20150242679 A1, beantragt am 25. Februar 2014 und erteilt am 27. August 2015, http://www.google.com/patents/US20150242679. 123 Ebd. Abs. 0032. 124 »Affective Computing Market by Technology (Touch-Based and Touchless), Software (Speech Recognition, Gesture Recognition, Facial Feature Extraction, Analytics Software, & Enterprise Software), Hardware, Vertical, and Region – Forecast to 2021«, MarketsandMarkets, März 2017, http://www.marketsandmarkets.com/Market-Reports/affectivecomputing-market-130730395.html. 125 »Affective Computing Market by Technology«. 126 Raffi Khatchadourian, »We Know How You Feel«, New Yorker, 19. Januar 2015, http://www.newyorker.com/magazine/2015/01/19/know-feel.

127 Ebd. 128 Ebd. 129 »Affectiva«, Crunchbase, 22. Oktober 2017, https://www.crunchbase.com/organization/affectiva. 130 Lora Kolodny, »Affectiva Raises $14 Million to Bring Apps, Robots Emotional Intelligence«, TechCrunch, 25. Mai 2016, http://social.techcrunch.com/2016/05/25/affectiva-raises-14-millionto-bring-apps-robots-emotional-intelligence. 131 Rana el Kaliouby, »Emotion Technology Year in Review: Affectiva in 2016«, Affectiva, 29. Dezember 2016, http://blog.affectiva.com/emotion-technology-year-in-review-affec tiva-in-2016. 132 Matthew Hutson, »Our Bots, Ourselves«, Atlantic, März 2017, https://www.theatlantic.com/magazine/archive/2017/03/our-botsourselves/513839. 133 Patrick Levy-Rosenthal, »Emoshape Announces Production of the Emotions Processing Unit II«, Emoshape | Emotions Synthesis, 18.  Januar 2016, http://emoshape.com/emoshape-announces-productionof-the-emotions-processing-unit-ii. 134 Tom Foster, »Ready or Not, Companies Will Soon Be Tracking Your Emotions«, Inc.com, 21. Juni 2016, https://www.inc.com/magazine/201607/tom-foster/lightwavemonitor-customer-emotions.html. 135

»Emotion as a Service«, Affectiva, abgerufen am 30. März 2017, http://www.affectiva.com/product/emotion-as-a-service; »Affectiva Announces Availability of Emotion as a Service, a New Data Solution, and Version 2.0 of Its Emotion-Sensing SDK«, PR Newswire, 8. September 2015, http://www.prnewswire.com/newsreleases/affectiva-announces-availability-of-emotion-as-a-service-anew-data-solution-and-version-20-of-its-emotion-sensing-sdk300139001.html. 136 Khatchadourian, »We Know How You Feel«. 137 Jean-Paul Sartre, Das Sein und das Nichts. Reinbek: Rowohlt, 1976. S. 565, 566. 138 Jean-Paul Sartre, »Von Ratten und Menschen« in ders., Schwarze und weiße Literatur: Aufsätze zur Literatur 1946–1960. Reinbek: Rowohlt, 1984. S. 125. 139 Picard, Affective Computing. S. 119, 123f., 136f., 244. 140 Rosalind Picard, »Towards Machines That Deny Their Maker – Lecture with Rosalind Picard«, VBG, 22. April 2016, http://www.vbg.net/ueber-uns/agenda/termin/3075.html. 141 Joseph Weizenbaum, »Not Without Us«, SIGCAS Computers and Society 16:2–3 (1986). S. 2–7, https://doi.org/10.1145/15483.15484.

10. Lass sie tanzen 1 Richard H. Thaler, Cass R. Sunstein, Nudge: Wie man kluge Entscheidungen anstößt, Düsseldorf: Econ, 2009. S. 15. 2

Elizabeth J. Lyons u. a., »Behavior Change Techniques Implemented in Electronic Lifestyle Activity Monitors: A Systematic Content Analysis«, Journal of Medical Internet Research 16:8 (2014). S.  e192, https://doi.org/10.2196/jmir.3469; Susan Michie u. a., »The Behavior Change Technique Taxonomy (v1) of 93 Hierarchically Clustered Techniques: Building an International Consensus for the Reporting of Behavior Change Interventions«, Annals of Behavioral Medicine 46:1 (2013). S. 81–95, https://doi.org/10.1007/s12160-0139486-6. Theorie wie Praxis kommerziell motivierter Verhaltensmodifikation bauen auf den unentrinnbar vernetzten Menschen mit einem breiten Spektrum digitaler Tools. Ein Team britischer Wissenschaftler befragte 2013 55 Verhaltensexperten, um »in allseitigem Einvernehmen eine hierarchisch strukturierte Taxonomie der bei Verhaltensinterventionen eingesetzten Techniken« zusammenzustellen. Man stellte dabei 93 Techniken zur Verhaltensveränderung zusammen, die man zu 16 methodologischen Clusters gruppierte: »geplante Konsequenzen«, »Belohnung und Bestrafung«, »Wiederholung und Austausch«, »vorausgehende Bedingungen«, »Assoziationen«, »Feedback und Monitoring«, »Ziele und Planung«, »sozialer Rückhalt«, »Verhaltensvergleich«, »Kommunikation natürlicher Folgen«, »Glaube an sich selbst«, »Ergebnisvergleich«, »Wissensformung«, »Regulierung«, »Identität« und »verdecktes Lernen«. Die Wissenschaftler weisen ausdrücklich darauf hin, dass das Gebiet der Verhaltensmodifikation »rasanten Veränderungen« unterworfen ist. Zur Illustration führen sie an, dass die erste derartige Taxonomie, die erst vier Jahre zuvor erschienen war, gerade mal 22 Techniken zur Verhaltensänderung identifiziert hatte, von denen viele auf den Einzelnen ausgerichtet waren und entsprechend die persönliche Interaktion und den Aufbau einer Beziehung voraussetzten. Im Gegensatz dazu zielen die neueren Techniken auf die »Intervention auf Gemeinschafts- und Populationslevel«, eine Tatsache, die auf die Migration verhaltensverändernder Operationen hin zu den neuartigen Fähigkeiten (kontextuelle Kontrolle, automatisierte digitale Nudges, operante Konditionierung im großen Stil) internetfähiger Tools wirkt, auf die Aktionsvorteile bauen.

3 Varian, »Beyond Big Data«. S. 6. 4 Ebd. S. 7. 5 Robert M. Bond u. a., »A 61-Million-Person Experiment in Social Influence and Political Mobilization«, Nature 489:7415 (2012). S.  295–98, https://doi.org/10.1038/nature11421. 6 Ebd. 7 Andrew Ledvina, »10 Ways Facebook Is Actually the Devil«, AndrewLedvina.com, 4. Juli 2017, http://andrewledvina.com/code/2014/07/04/10-ways-facebook-is-thedevil.html. 8

Jonathan Zittrain, »Facebook Could Decide an Election Without Anyone Ever Finding Out«, New Republic, 1. Juni 2014, https://www.newrepublic.com/article/117878/information-fiduciarysolution-facebook-digital-gerrymandering; Jonathan Zittrain, »Engineering an Election«, Harvard Law Review 127 (2014). S. 335; Reed Albergotti, »Facebook Experiments Had Few Limits«, Wall Street Journal, 2. Juli 2014, https://www.wsj.com/articles/facebookexperiments-had-few-limits-1404344378; Charles Arthur, »If Facebook Can Tweak Our Emotions and Make Us Vote, What Else Can It Do?« Guardian, 30. Juni 2014, https://www.theguardian.com/technology/2014/jun/30/if-facebookcan-tweak-our-emotions-and-make-us-vote-what-else-can-it-do; Sam Byford, »Facebook Offers Explanation for Controversial News Feed Psychology Experiment«, Verge, 29. Juni 2014, https://www.theverge.com/2014/6/29/5855710/facebook-responds-topsychology-research-controversy; Chris Chambers, »Facebook Fiasco: Was Cornell’s Study of ›Emotional Contagion‹ an Ethics Breach?« Guardian, 1.Juli 2014, https://www.theguardian.com/science/head-quar ters/2014/jul/01/facebook-cornell-study-emotional-contagion-ethicsbreach. 9 Adam D. I. Kramer, Jamie E. Guillory, Jeffrey T. Hancock, »Experimental Evidence of Massive-Scale Emotional Contagion Through Social Networks«, Proceedings of the National Academy of Sciences 111:24 (2014). S. 8788ff., https://doi.org/10.1073/pnas.1320040111. 10 Ebd. 11

Matthew R. Jordan, Dorsa Amir, Paul Bloom, »Are Empathy and Concern Psychologically Distinct?«, Emotion 16:8 (2016). S. 1107– 1116, https://doi.org/10.1037/emo0000228; Marianne SonnbyBorgström, »Automatic Mimicry Reactions as Related to Differences in Emotional Empathy«, Scandinavian Journal of Psychology 43:5 (2002). S. 433–443, https://doi.org/10.1111/1467-9450.00312; Rami Tolmacz, »Concern and Empathy: Two Concepts or One?« American Journal of Psychoanalysis 68:3 (2008). S. 257–275, https://doi.org/10.1057/ajp.2008.22; Ian E. Wickramasekera, Janet P. Szlyk, »Could Empathy Be a Predictor of Hypnotic Ability?«, International Journal of Clinical and Experimental Hypnosis 51:4 (2003). S. 390–399, https://doi.org/10.1076/iceh.51.4.390.16413; E. B. Tone, E. C. Tully, »Empathy as a ›Risky Strength‹: A Multilevel Examination of Empathy and Risk for Internalizing Disorders«, Development and Psychopathology 26:4 (2014). S. 1547–1565, https://doi.org/10.1017/S0954579414001199; Ulf Dimberg, Monika Thunberg, »Empathy, Emotional Contagion, and Rapid Facial Reactions to Angry and Happy Facial Expressions: Empathy and Rapid Facial Reactions«, PsyCh Journal 1:2 (2012). S. 118–127, https://doi.org/10.1002/pchj.4; Tania Singer, Claus Lamm, »The Social Neuroscience of Empathy«, Annals of the New York Academy of Sciences 1156 (2009). S. 81–96, https://doi.org/10.1111/j.17496632.2009.04418.x; Douglas F. Watt, »Social Bonds and the Nature of Empathy«, Journal of Consciousness Studies 12:8–9 (2005). S.  185–209. 12 Jocelyn Shu u. a., »The Role of Empathy in Experiencing Vicarious Anxiety«, Journal of Experimental Psychology: General 146:8 (2017). S. 1164–1188, https://doi.org/10.1037/xge0000335; Tone, Tully, »Empathy as a ›Risky Strength‹ «. 13

Chambers, »Facebook Fiasco«; Adrienne LaFrance, »Even the Editor of Facebook’s Mood Study Thought It Was Creepy«, Atlantic, 28. Juni 2014, https://www.theatlantic.com/technology/archive/2014/06/even-theeditor-of-facebooks-mood-study-thought-it-was-creepy/373649/ 14 LaFrance, »Even the Editor«. 15 Vindu Goel, »Facebook Tinkers with Users’ Emotions in News Feed Experiment, Stirring Outcry«, New York Times, 29. Juni 2014, https://www.nytimes.com/2014/06/30/technology/facebook-tinkerswith-users-emotions-in-news-feed-experiment-stirring-outcry.html. 16 Albergotti, »Facebook Experiments Had Few Limits«; Chambers, »Facebook Fiasco«. 17 Inder M. Verma, »Editorial Expression of Concern and Correction Regarding ›Experimental Evidence of Massive-Scale Emotional Contagion Through Social Networks‹ «, Proceedings of the National Academy of Sciences 111:29 (2014). S. 8788ff. 18 James Grimmelmann, »Law and Ethics of Experiments on Social Media Users«, Colorado Technology Law Journal 13 (2015). S. 255. 19 Michelle N. Meyer u. a., »Misjudgements Will Drive Social Trials Underground«, Nature 511 (2014). S. 265; Michelle Meyer, »Two Cheers for Corporate Experimentation«, Colorado Technology Law Journal 13 (2015). S. 273. 20 Darren Davidson, »Facebook Targets ›Insecure‹ to Sell Ads«, Australian, 1. Mai 2017. 21

Antonio Garcia-Martinez, »I’m an Ex-Facebook Exec: Don’t Believe What They Tell You About Ads«, Guardian, 2. Mai 2017, https://www.theguardian.com/technology/2017/may/02/facebookexecutive-advertising-data-comment. 22 Dylan D. Wagner, Todd F. Heatherton, »Self-Regulation and Its Failure: The Seven Deadly Threats to Self-Regulation«, in APA Handbook of Personality and Social Psychology, Washington, DC: American Psychological Association, 2015. S. 805–842, http://psycnet.apa.org/record/2013-35881-026 (Hervorhebung von mir); William M. Kelley, Dylan D. Wagner, Todd F. Heatherton, »In Search of a Human Self-Regulation System«, Annual Review of Neuroscience 38:1 (2015). S. 389–411, https://www.annualreviews.org/doi/pdf/10.1146/annurev-neuro071013-014243. 23 David Modic, Ross J. Anderson, »We Will Make You Like Our Research: The Development of a Susceptibility-to-Persuasion Scale« (SSRN scholarly paper, Social Science Research Network, 28. April 2014), https://papers.ssrn.com/abstract=2446971. Siehe dazu außerdem Mahesh Gopinath, Prashanth U. Nyer, »The Influence of Public Commitment on the Attitude Change Process: The Effects of Attitude Certainty, PFC and SNI« (SSRN scholarly paper, Social Science Research Network, 29. August 2007), https://pa pers.ssrn.com/abstract=1010562. 24 Siehe Dyani Sabin, »The Secret History of ›Pokémon Go‹ as Told by the Game’s Creator«, Inverse, 28. Februar 2017, https://www.inverse.com/article/28485-pokemon-go-secret-historygoogle-maps-ingress-john-hanke-updates. 25

Tim Bradshaw, »The Man Who Put ›Pokémon Go‹ on the Map«, Financial Times, 27. Juli 2016, https://www.ft.com/content/7209d7ca-49d3-11e6-8d6872e9211e86ab. 26 Sebastian Weber, John Hanke, »Reality as a Virtual Playground«, Making Games, 22. Januar 2015, http://www.makinggames.biz/feature/reality-as-a-virtualplayground,7286.html. 27 »John Hanke at SXSW 2017: We’ll Announce Some New Products at the Next Event!« Pokemon Go Hub, 10. März 2017, https://pokemongohub.net/post/news/john-hanke-sxsw-2017-wellannounce-new-products-next-event/. 28 Sabin, »The Secret History of ›Pokémon Go‹ «. 29 Weber, Hanke, »Reality as a Virtual Playground«. 30 Hal Hodson, »Why Google’s Ingress Game Is a Data Gold Mine«, New Scientist, 28. September 2012, https://www.newscientist.com/article/mg21628936-200-whygoogles-ingress-game-is-a-data-gold-mine. 31 Sabin, »The Secret History of ›Pokémon Go‹ «. 32 Ryan Wynia, »Behavior Design Bootcamp with Stanford’s Dr. BJ Fogg«, Technori, 19. Oktober 2012, https://technori.com/behaviordesign-bootcamp/2612/; Ryan Wynia, »BJ Fogg’s Behavior Design Bootcamp: Day 2«, Technori, 22. Oktober 2012, https://technori.com/behavior-design-bootcamp-day-2/2613/. In seinem 2003 erschienenen Buch Persuasive Technology hat der Forscher B. J. Fogg von der Stanford University erkannt, dass Computerspiele gestaltet werden, um Verhaltensweisen wie von Skinner beschrieben zu prägen und dass dies zum Spielvergnügen beiträgt

33 Kevin Werbach, »(Re)Defining Gamification: A Process Approach«, in Persuasive Technology, Lecture Notes in Computer Science, International Conference on Persuasive Technology, Cham: Springer, 2014. S. 266–272, http://dx.doi.org/10.1007/978-3-319-07127-5_23; Kevin Werbach, Dan Hunter, For the Win: How Game Thinking Can Revolutionize Your Business, Philadelphia: Wharton Digital Press, 2012. 34 Michael Sailer u. a., »How Gamification Motivates: An Experimental Study of the Effects of Specific Game Design Elements on Psychological Need Satisfaction«, Computers in Human Behavior 69 (2017). S. 371–380, https://doi.org/10.1016/j.chb.2016.12.033; J. Hamari, J. Koivisto, H. Sarsa, »Does Gamification Work? – a Literature Review of Empirical Studies on Gamification«, in 47th Hawaii International Conference on System Sciences, 2014. S. 3025– 3034, https://doi.org/10.1109/HICSS.2014.377; Carina Soledad González, Alberto Mora Carreño, »Methodological Proposal for Gamification in the Computer Engineering Teaching«, 2014 International Symposium on Computers in Education (SIIE), S. 1–34; Dick Schoech u. a., »Gamification for Behavior Change: Lessons from Developing a Social, Multiuser, Web-Tablet Based Prevention Game for Youths«, Journal of Technology in Human Services 31:3 (2013). S. 197–217, https://doi.org/10.1080/15228835.2013.812512. 35 Yu-kai Chou, »A Comprehensive List of 90+ Gamification Cases with ROI Stats«, Gamification & Behavioral Design, 23. Januar 2017, https://yukaichou.com/gamification-examples/gamificationstats-figures. 36

Ian Bogost, »Persuasive Games: Exploitationware«, Gamasutra, 3. Mai 2011, http://www.gamasutra.com/view/feature/134735/persuasive_games_e xploitationware.php; Adam Alter, Irresistible: The Rise of Addictive Technology and the Business of Keeping Us Hooked. New York: Penguin, 2017. 37 Jessica Conditt, »The Pokémon Go Plus Bracelet Is Great for Grinding«, Engadget, 17. September 2016, https://www.engadget.com/2016/09/17/pokemon-go-plus-hands-on/; Sarah E. Needleman, » ›Pokémon Go‹ Wants to Take Monster Battles to the Street«, Wall Street Journal, 10. September 2015, https://blogs.wsj.com/digits/2015/09/10/pokemon-go-wants-to-takemonster-battles-to-the-street/; Patience Haggin, »Alphabet Spinout Scores Funding for Augmented Reality Pokémon Game«, Wall Street Journal, 26. Februar 2016, https://blogs.wsj.com/venturecapital/2016/02/26/alphabet-spinoutscores-funding-for-augmented-reality-pokemon-game/. 38 »5 Charts That Show Pokémon Go’s Growth in the US«, Similarweb Blog, 10. Juli 2016, https://www.similarweb.com/blog/pokemon-go. 39 Nick Wingfield, Mike Isaac, »Pokémon Go Brings Augmented Reality to a Mass Audience«, New York Times, 11. Juli 2016, https://www.nytimes.com/2016/07/12/technology/pokemon-gobrings-augmented-reality-to-a-mass-audience.html. 40

Polly Mosendz, Luke Kawa, »Pokémon Go Brings Real Money to Random Bars and Pizzerias«, Bloomberg.com, 11. Juli 2016, https://www.bloomberg.com/news/articles/2016-07-11/pok-mon-gobrings-real-money-to-random-bars-and-pizzerias; Abigail Gepner, Jazmin Rosa, Sophia Rosenbaum, »There’s a Pokémon in My Restaurant, and Business Is Booming«, New York Post, 12. Juli 2016, https://nypost.com/2016/07/12/pokemania-runs-wild-through-citycausing-crime-accidents/; Jake Whittenberg, »Pokemon Go Saves Struggling Washington Ice Cream Shop«, USA Today, 11. August 2016, https://eu.usatoday.com/story/news/nationnow/2016/08/11/pokemon-go-saves-struggling-washington-icecream-shop/88576816/. 41 Wingfield, Isaac, »Pokémon Go Brings Augmented Reality«. 42 Sabin, »The Secret History of ›Pokémon Go‹ «. 43 Tim Bradshaw, Leo Lewis, »Advertisers Set for a Piece of ›Pokémon Go‹ Action«, Financial Times, 13. Juli 2016, https://www.ft.com/content/75942b12-48ba-11e6-b387-64ab0a6 7014c; Jacky Wong, »Pokémon Mania Makes Mint for Bank of Kyoto«, Wall Street Journal, 12. Juli 2016, https://blogs.wsj.com/moneybeat/2016/07/12/pokemon-maniamakes-mint-for-bank-of-kyoto/. 44 Bradshaw, Lewis, »Advertisers Set for a Piece« (Hervorhebung von mir). 45

Jon Russell, »Pokémon Go Will Launch in Japan Tomorrow with Game’s First Sponsored Location«, TechCrunch, 19. Juli 2016, https://techcrunch.com/2016/07/19/pokemon-go-is-finally-launchingin-japan-tomorrow/; Takashi Mochizuki, »McDonald’s Unit to Sponsor ›Pokémon Go‹ in Japan«, Wall Street Journal, 19. Juli 2016, https://www.wsj.com/articles/mcdonalds-unit-to-sponsor-pokemongo-in-japan-1468936459; Stephen Wilmot, »An Alternative Way to Monetize Pokémon Go«, Wall Street Journal, 29. Juli 2016, https://blogs.wsj.com/moneybeat/2016/07/29/an-alternative-way-tomonetize-pokemon-go; »Discover the Pokémon Go Frappuccino at Starbucks«, Starbucks Newsroom, 8. Dezember 2016, https://news.starbucks.com/news/starbucks-pokemon-go; Megan Farokhmanesh, »Pokémon Go Is Adding 10.5K Gym and Pokéstop Locations at Sprint Stores«, Verge, 7. Dezember 2016, https://www.theverge.com/2016/12/7/13868086/pokemon-go-sprintstore-new-gyms-pokestops; Mike Ayers, »Pokémon Tracks Get a Pokémon Go Bump on Spotify«, Wall Street Journal, 12. Juli 2016, https://blogs.wsj.com/speakeasy/2016/07/12/pokemon-tracks-get-apokemon-go-bump-on-spotify; Josie Cox, »Insurer Offers Pokémon Go Protection (But It’s Really Just Coverage for Your Phone)«, Wall Street Journal, 22. Juli 2016, https://blogs.wsj.com/moneybeat/2016/07/22/insurer-offerspokemon-go-protection-but-its-really-just-coverage-for-your-phone; Ben Fritz, »Disney Looks to Tech Behind Pokemon Go«, Wall Street Journal, 5. August 2016, https://www.wsj.com/articles/disney-looksto-pokemon-go-technology-as-playmation-sales-disappoint1470347143. 46 »Niantic Believes Pokémon Go Has ›Only Just Scratched the Surface‹ of AR Gameplay Mechanics«, Gamnesia, 5. Mai 2017, https://www.gamnesia.com/news/niantic-believes-pokemon-go-hasonly-just-scratched-the-surface-of-ar. 47

Joseph Bernstein, »You Should Probably Check Your Pokémon Go Privacy Settings«, BuzzFeed, 11. Juli 2016, https://www.buzzfeed.com/josephbernstein/heres-all-the-datapokemon-go-is-collecting-from-your-phone. 48 Natasha Lomas, »Pokemon Go Wants to Catch (Almost) All Your App Permissions«, TechCrunch, 16. Juli 2016, https://techcrunch.com/2016/07/11/pokemon-go-wants-to-catchalmost-all-your-permissions/. 49 Marc Rotenberg, Claire Gartland, Natashi Amlani, »EPIC Letter to FTC Chair Edith Ramirez«, 22. Juli 2016, https://epic.org/privacy/ftc/FTC-letter-Pokemon-GO-07-22-2016.pdf. 50 Al Franken, »Letter to John Hanke, CEO of Niantic, Inc. from U. S. Senator Al Franken«, 12. Juli 2016, http://www.businessinsider.com/us-senator-al-franken-writes-topokmon-go-developers-niantic-privacy-full-letter2016-7. 51 Courtney Greene Power, »Letter to U. S. Senator Al Franken from General Counsel for Niantic, Inc. Courtney Greene Power«, 26. August 2016. 52 Tom Foster, »Kevin Plank Is Betting Almost $1 Billion That Under Armour Can Beat Nike«, Inc.com, 6. Januar 2016, https://www.inc.com/magazine/201602/tom-foster/kevin-plankunder-armour-spending-1-billion-to-beat-nike.html. 53 »UA RecordTM Health & Fitness Network«, Under Armour, https://www.underarmour.com/en-us/ua-record. 54 Siehe Foster, »Kevin Plank«. 55 Ebd.

56 »Diese Partnerschaft«, so hieß es in einer Presseerklärung, »erlaubt es uns, dem Verbraucher auf beispiellose Weise Wert zu liefern, indem wir Watson – IBMs Maschinenlerntechnologie – mit den robusten Daten von Under Armours Fitness-Community, der größten digitalen Gesundheits- und Fitness-Community der Welt integrieren.« Siehe »IBM Watson, Under Armour to Transform Health and Fitness«, 6. Januar 2016, https://www03.ibm.com/press/us/en/pressrelease/48764.wss. Siehe auch Lauren Goode, »IBM’s Watson Will Tell You When to Sleep, Exercise, and Eat«, Verge, 7. Januar 2016, https://www.theverge.com/2016/1/7/10726592/ibm-under-armourwatson-ua-record-app-ces-2016; Stacey Higginbotham, »IBM’s Ginni Rometty Finds More Work for Watson at CES«, Fortune, 7. Januar 2016, http://fortune.com/2016/01/07/ibm-watson-at-ces/. 57 Ginni Rometty, »IBM CEO Ginni Rometty’s CES 2016 Keynote (Full Transcript)«, 8. Januar 2016, http://singjupost.com/ibm-ceoginni-romettys-ces-2016-keynote-full-transcript. 58 Bloomberg, »Under Armour CEO Kevin Plank on Why He’s Buying Two Fitness«, 2015, https://www.youtube.com/watch? v=shPF031bXfE. 59 Jonah Comstock, »Digital Health News Briefs for 2/13/2017,« MobiHealthNews, 13. Februar 2017, http://www.mobihealthnews.com/content/digital-health-news-briefs2132017. 60 Siehe »Here’s Why Under Armour’s Stock Is Killing It Today«, Fortune, 2. Februar 2017, http://fortune.com/2016/01/28/underarmour-sales-soar. 61

»Under Armour Launches UA Shop, Expanding Connected Fitness Suite with Personalized Shopping Experience«, Under Armour, http://www.prnewswire.com/news-releases/under-armour-launchesua-shop-expanding-connected-fitness-suite-with-personalizedshopping-experience-300280739.html. 62 Siehe Foster, »Kevin Plank«. 63 Ebd. 64 Ebd. 65 Sara Germano, »Under Armour Turns Ambitions to Electronic Apparel, Monitoring Apps«, Wall Street Journal, 27. Februar 2015, http://www.wsj.com/articles/under-armour-looks-to-get-you-wiredwith-its-apparel-1425061081. 66 Thomas J. Ryan, »NRF Big Show 2017: Under Armour Talks Digital Transformation«, SGB Online, 19. Januar 2017, https://sgbonline.com/nrf-big-show-2017-under-armour-talks-digitaltransformation/. 67 Bradley Seth McNew, »Under Armour’s New Shopping App – Why This Is Important«, Motley Fool, 7. Juni 2016, https://www.fool.com/investing/2016/06/07/under-armours-newshopping-app-why-this-is-importa.aspx. 68 »Under Armour (UA) Q3 2016 Results – Earnings Call Transcript«, Seeking Alpha, 25. Oktober 2016, https://seekingalpha.com/article/4014683-armour-ua-q3-2016-resultsearnings-call-transcript. 69

Christopher Heine, »Under Armour’s CEO Just Hinted at How His Company Can Grow to $7 Billion by 2018«, Adweek, 14. März 2016, http://www.adweek.com/digital/under-armours-ceo-just-hinted-howhis-company-can-grow-7-billion-2018-170207. 70 Foster, »Kevin Plank«. 71 Heine, »Under Armour’s CEO«; Ram Charan, The Attacker’s Advantage: Turning Uncertainty into Breakthrough Opportunities. New York: PublicAffairs, 2015. Der Begriff »math house« stammt von Managementberater Ram Charan, der allen Unternehmen rät, auf Datenunternehmen umzusatteln und mit Algorithmen wettbewerbsfähig zu bleiben. Charan erklärt das folgendermaßen: »Wenn Sie Ihr Unternehmen nicht zu einem »math house« machen, werden Sie ernsthafte Schwierigkeiten kriegen. Über kurz oder lang werden in allen Branchen Daten der Motor sein und die erfolgreichen Unternehmen werden mit Algorithmen oder mathematischen Regeln zur Informationsverarbeitung operieren, um für eine nahtlose Kundenerfahrung zu sorgen. Was immer Sie jetzt an Vorteilen haben, es ist nichts im Vergleich zu einem großartigen Algorithmenset, das bei der Kundenerfahrung den Unterschied macht. Es sind die Algorithmen, die der Unternehmung Wert schaffen werden.« Siehe Ram Charan, »How to Transform a Traditional Giant into a Digital One«, Harvard Business Review, 26. Februar 2016, https://hbr.org/2016/02/how-to-transform-a-traditional-giant-into-adigital-one. 72 McNew, »Under Armour’s New Shopping App«. 73 »Zappos, MapMyFitness Will Tell You When You Need New Running Shoes«, CNET, 15. Februar 2017, https//www.cnet.com/news/zappos-teams-up-with-mapmyfitnesswhen-its-time-new-running-shoes. 74 Ryan, »NRF Big Show 2017«.

75 Ryan, »What Do Amazon, Google, and Under Armour Have in Common?« 76 Ebd. 77 »Engage Our Users to Increase Purchase Intent«, Under Armour Connected Fitness, 17. November 2017, http://advertising.underarmour.com/i-want-to-increasepurchase-intent. 78 Connected Fitness, »I Want to Increase Consumption«, http://advertising.underarmour.com/i-want-to-increase-consumption. 79 Connected Fitness, »I Want to Increase Awareness«, http://advertising.underarmour.com/i-want-to-increase-awareness. 80 »Under Armour – Account and Privacy Center # How We Use Data Collection Tools and Online Advertising«, Under Armour, 17. November 2017, https://account.underarmour.com/privacy#how-weuse-data-collection-tools-and-online-advertising. 81 Rebecca Lemov, World as Laboratory: Experiments with Mice, Mazes, and Men. New York: Hill and Wang, 2005. S. 189. 82 H. Keith Melton, Robert Wallace, The Official CIA Manual of Trickery and Deception. New York: William Morrow, 2010. S. 4. 83 Lemov, World as Laboratory. S. 189; Ellen Herman, The Romance of American Psychology: Political Culture in the Age of Experts. Berkeley: University of California Press, 1995. S. 129. 84 Melton, Wallace, The Official CIA Manual.

85 »Church Committee: Book I – Foreign and Military Intelligence«, Mary Ferrell Foundation, 1975. S. 390, https://www.maryferrell.org/php/showlist.php?docset=1014. 86 Lemov, World as Laboratory. S. 200. 87 Alexandra Rutherford, »The Social Control of Behavior Control: Behavior Modification, Individual Rights, and Research Ethics in America, 1971–1979«, Journal of the History of the Behavioral Sciences 42:3 (2006). S. 206, https://doi.org/10.1002/jhbs.20169. 88 B. F. Skinner, Jenseits von Freiheit und Würde. Reinbek: Rowohlt, 1973. 89 Noam Chomsky, »The Case Against B. F. Skinner«, New York Review of Books, 30. Dezember 1971. Mitte der 1970er-Jahre hieß sein Buch bei vielen Studenten in Harvard, wo ich studierte und wo Skinner lehrte, Auf zu Sklaverei und Erniedrigung. 90 John L. McClellan u. a., »Individual Rights and the Federal Role in Behavior Modification; A Study Prepared by the Staff of the Subcommittee on Constitutional Rights of the Committee on the Judiciary, United States Senate, Ninety-Third Congress, Second Session«, November 1974. S. iii f., https://eric.ed.gov/? id=ED103726. 91 Ebd. iv, S. 21. 92 Ebd. S. 13f. 93 Perry London, »Behavior Technology and Social Control – Turning the Tables«, APA Monitor, April 1974. S. 2 (Hervorhebung von mir); Rutherford, »The Social Control of Behavior Control«. 94 Rutherford, »The Social Control of Behavior Control«. S. 213.

95 »The Belmont Report – Office of the Secretary – Ethical Principles and Guidelines for the Protection of Human Subjects of Research – the National Commission for the Protection of Human Subjects of Biomedical and Behavioral Research«, Regulations & Policy, Office for Human Research Protections, US Department of Health, Education and Welfare, 28. Januar  2010, https://www.hhs.gov/ohrp/regulations-and-policy/belmontreport/index.html; Rutherford, »The Social Control of Behavior Control«. S. 215. 96 Rutherford, »The Social Control of Behavior Control«. S. 217. 97 B. F. Skinner, Was ist Behaviorismus? Reinbek bei Hamburg: Rowohlt, 1978. 98 Daniel W. Bjork, B. F. Skinner: A Life. New York: Basic Books, 1993. S. 220. 99 »Anthropotelemetry: Dr. Schwitzgebel’s Machine«, Harvard Law Review 80:2 (1966). S. 403–421, https://doi.org/10.2307/1339322 (Hervorhebung von mir).

11. Das Recht auf das Futur 1 Hannah Arendt, Vom Leben des Geistes: Das Wollen. München: Piper, 1998. S. 252f. 2 Hannah Arendt, Vita Activa oder Vom tätigen Leben. Stuttgart: Kohlhammer, 1960. S. 232f., 240. 3

Siehe dazu auch die Diskussion in John Searle, Wie wir die soziale Welt machen. Berlin: Suhrkamp, 2012. 4 Ebd. S. 73. 5 Ebd. S. 230. 6 Ebd. S. 328. Auch der Rechtswissenschaftler Alan Dershowitz von der Harvard Law School bietet eine pragmatische Theorie der Menschenrechte mit Relevanz für meine Analyse. Ihm zufolge sind Rechte »jene fundamentalen Präferenzen, die, wie Erfahrung und Geschichte – insbesondere großer Ungerechtigkeiten – uns gelehrt haben, von so wesentlicher Bedeutung sind, dass der Bürger zu der Überzeugung kommt, sie so verankern zu sollen, dass sie nicht so leicht anfällig für Änderungen durch wechselnde Mehrheiten sind«. So gesehen leiten sich Rechte aus Unrecht ab. Es handelt sich hier um einen »von unten nach oben« gerichteten Ansatz, da normalerweise ein weit größerer Konsens darüber herrscht, was ein schreckliches Unrecht konstituiert, als Übereinstimmung über die Bedingungen absoluter Gerechtigkeit. Siehe Alan M. Dershowitz, Rights from Wrongs: A Secular Theory of the Origins of Rights. New York: Basic Books, 2004. S. 81–96. 7 Das Adjektiv panvasive wurde geprägt mit Bezug auf »großangelegte polizeiliche Aktionen, die sich nicht auf einen individuellen Verdacht gründen« und findet vor allem Anwendung im Kontext von Durchsuchung und Überwachung. Siehe dazu Christopher Slobogin, »Panvasive Surveillance, Political Process Theory, and the Nondelegation Doctrine«, The Georgetown Law Journal 102 (2014). S. 1721–1776. 8 Sir Henry Maine, Ancient Law [1861], http://oll.libertyfund.org/titles/maine-ancient-law. 9

Liam B. Murphy, »The Practice of Promise and Contract« (working paper, New York University Public Law and Legal Theory, 2014). S.  2069; Avery W. Katz, »Contract Authority – Who Needs It?« University of Chicago Law Review 81:4 (2014). S. 27; Robin Bradley Kar, »Contract as Empowerment«, University of Chicago Law Review 83:2 (2016). S. 1. 10 Diese vollkommene Information bezeichnen behavioristisch ausgerichtete Ökonomen als »unbegrenzte Rationalität« bzw. »unbegrenzte Erkenntnisfähigkeit«. Siehe dazu Oliver E. Williamson, Die ökonomischen Institutionen des Kapitalismus: Unternehmen, Märkte, Kooperationen. Tübingen: J. C. B. Mohr, 1990. S. 35. 11 Eine eindrückliche Darstellung dieses Problems findet sich in Robin Kar, Margaret Radin, »Pseudo-Contract & Shared Meaning Analysis« (Legal Studies Research Paper, University of Illinois College of Law, 16. November 2017), https://papers.ssrn.com/sol3/papers.cfm? abstract_id=3124018. 12

Webers Ansicht nach führt die »Dezentralisation der Rechtsschöpfung«, wie sie sich in der Privatisierung des Vertrags äußere, nicht notwendigerweise zu »einer Herabsetzung des innerhalb einer Rechtsgemeinschaft geübten Maßes von Zwang«. Warnend wies er darauf hin, dass auch eine »noch so wenig Gebots- und Verbotsnormen enthaltende Rechtsordnung … daher in ihrer faktischen Wirkung einer quantitativ und qualitativ sehr bedeutenden Steigerung, nicht nur des Zwangs überhaupt, sondern auch einer Steigerung des autoritären Charakters der Zwangsgewalten« dienen könne. So erzwangen industrielle Arbeitgeber zu Anfang des 20. Jahrhunderts auf der Basis ihres Rechts auf Vertragsfreiheit Kinderarbeit, Zwölf-Stunden-Tage und gefährliche Arbeitsbedingungen. Und es ist genau die Art und Weise, die uns so dreiste wie unrechtliche »Click-Wrap-Verträge« beschert hat, deren Autoren sich ebenfalls auf die Vertragsfreiheit berufen. Max Weber, Grundriss der Sozialökonomie: Wirtschaft und Gesellschaft. Tübingen: J. C.B. Mohr, 1922. S. 454f. 13 Hal R. Varian, »Economic Scene; If There Was a New Economy, Why Wasn’t There a New Economics?« New York Times, 17. Januar 2002, http://www.nytimes.com/2002/01/17/business/economic-sceneif-there-was-a-new-economy-why-wasn-t-there-a-new-econo mics.html. 14 Williamson, Die ökonomischen Institutionen des Kapitalismus. 15 Oliver E. Williamson, »The Theory of the Firm as Governance Structure: From Choice to Contract«, Journal of Economic Perspectives 16:3 (2002). S. 174. 16 Williamson, Die ökonomischen Institutionen des Kapitalismus. S. 59. 17

»Repo Man Helps Pay Off Bill for Elderly Couple’s Car«, ABC News, 23. November 2016, http://abcnews.go.com/US/repo-manhelps-pays-off-bill-elderly-couples/story?id=43738753; Sarah Larimer, »A Repo Man Didn’t Want to Seize an Elderly Couple’s Car, So He Helped Pay It Off for Them Instead«, Washington Post, 24. November 2016, https://www.washingtonpost.com/news/inspiredlife/wp/2016/11/24/a-repo-man-didnt-want-to-seize-an-elderlycouples-car-so-he-helped-pay-it-off-for-them-instead/?utm_term=. 5ab21c4510ab. 18 Timothy D. Smith, Jeffrey T. Laitman, Kunwar P. Bhatnagar, »The Shrinking Anthropoid Nose, the Human Vomeronasal Organ, and the Language of Anatomical Reduction«, Anatomical Record 297:11 (2014). S. 2196–2204, https://doi.org/10.1002/ar.23035. 19 Chris Jay Hoofnagle, Jennifer King, »Research Report: What Californians Understand About Privacy Offline« (SSRN Scholarly Paper, Rochester, NY: Social Science Research Network, 15. Mai 2008), http://papers.ssrn.com/abstract=1133075. 20 Joseph Turow u. a., »Americans Reject Tailored Advertising and Three Activities That Enable It«, Annenberg School for Communication, 29. September 2009, http://papers.ssrn.com/abstract=1478214; Joseph Turow, Michael Hennessy, Nora Draper, »The Tradeoff Fallacy: How Marketers Are Misrepresenting American Consumers and Opening Them Up to Exploitation«, Annenberg School for Communication, Juni 2015, https://www.asc.upenn.edu/sites/default/files/TradeoffFallacy_1.pdf; Lee Rainie, »Americans’ Complicated Feelings About Social Media in an Era of Privacy Concerns«, Pew Research Center, 27. März 2018, http://www.pewresearch.org/fact-tank/2018/03/27/americanscomplicated-feelings-about-social-media-in-an-era-of-privacyconcerns. 21

Greg Mitchell, The Tunnels: Escapes Under the Berlin Wall and the Historic Films the JFK White House Tried to Kill. New York: Crown, 2016; »Secret Tunnels That Brought Freedom from Berlin’s Wall«, Independent, 18. Oktober 2009, http://www.independent.co.uk/news/world/europe/secret-tunnels-thatbrought-freedom-from-berlins-wall-1804765.html. 22 Mary Elise Sarotte, The Collapse: The Accidental Opening of the Berlin Wall. New York: Basic, 2014. S. 181. 23 Karl Polanyi, The Great Transformation: Politische und ökonomische Ursprünge von Gesellschaften und Wirtschaftssystemen. Frankfurt: Suhrkamp, 1978. S. 183. 24 Ellen Meiksins Wood, Der Ursprung des Kapitalismus – Eine Spurensuche, Hamburg: Laika, 2015.

12. Zwei Arten von Macht 1 Peter S. Menell, »2014: Brand Totalitarianism« (UC Berkeley Public Law Research Paper, University of California, 4. September 2013), http://papers.ssrn.com/abstract=2318492; »Move Over, Big Brother«, The Economist, 2. Dezember 2004, http://www.economist.com/node/3422918; Wojciech Borowicz, »Privacy in the Internet of Things Era«, Next Web, 18. Oktober 2014, http://thenextweb.com/dd/2014/10/18/privacy-internet-things-erawill-nsa-know-whats-fridge; Tom Sorell, Heather Draper, »Telecare, Surveillance, and the Welfare State«, American Journal of Bioethics 12:9 (2012). S. 36–44, https://doi.org/ 10.1080/15265161.2012.699137; Jerome E. Dobson and Peter F. Fisher, »The Panopticon’s Changing Geography«, Geographical Review 97:3 (2007). S. 307–323; Christina DesMarais, »This

Smartphone Tracking Tech Will Give You the Creeps«, PCWorld, 22. Mai 2012, http://www.pcworld.com/article/255802/new_ways_to_track_y ou_via_your_mobile_devices_big_brother_or_good_business_.html; Rhys Blakely, » ›We Thought Google Was the Future but It’s Becoming Big Brother‹ «, The Times, 19. September 2014, http://www.thetimes.co.uk/tto/technology/internet/article4271776.ece ; CPDP Conferences, Technological Totalitarianism, Politics and Democracy, 2016, http://www.internet-history.info/medialibrary/mediaitem/2389-technological-totalitarianism-politics-and-de mocracy.html; Julian Assange, »The Banality of ›Don’t Be Evil‹ «, New York Times, 1. Juni 2013, https://www.nytimes.com/2013/06/02/opinion/sunday/thebanality-of-googles-dont-be-evil.html; Julian Assange, »Julian Assange on Living in a Surveillance Society«, New York Times, 4.  Dezember 2014, https://www.nytimes.com/2014/12/04/opinion/juli an-assange-on-living-in-a-surveillance-society.html; Michael Hirsh, »We Are All Big Brother Now«, Politico, 23. Juli 2015, https://www.politico.com/magazine/story/2015/07/big-brothertechnology-trial-120477.html; »Apple CEO Tim Cook: Apple Pay Is Number One«, CBS News, 28. Oktober 2014, http://www.cbsnews.com/news/apple-ceo-tim-cook-apple-pay-isnumber-one; Mathias Döpfner, »An Open Letter to Eric Schmidt: Why We Fear Google«, FAZ.net, 17. April 2014, http://www.faz.net/1.2900860; Sigmar Gabriel, »Political Consequences of the Google Debate«, Frankfurter Allgemeine Zeitung, 20. Mai 2014, http://www.faz.net/aktuell/feuilleton/debatten/the-digitaldebate/sigmar-gabriel-consequences-of-the-google-debate-12948701p6.html; Richard Eskow, »Silicon Valley Will Destroy Your Job: Amazon, Facebook and Our Sick New Economy«, Salon.com, 24. Oktober 2014, https://web.archive.org/web/20141026134744/http:/www.salon.com/ 2014/10/ 24/silicon_valley_will_destroy_your_job_amazon_facebook_and_our _sick_new_economy; Cory Doctorow, »Unchecked Surveillance

Technology Is Leading Us Towards Totalitarianism«, International Business Times, 5. Mai 2017, http://www.ibtimes.com/unchecked-sur veillance-technology-leading-us-towards-totalitarianism-opinion2535230; Martin Schulz, »Transcript of Keynote Speech at Cpdp2016 on Technological, Totalitarianism, Politics and Democracy«, Scribd, 2016, https://www.scribd.com/document/305093114/KeynoteSpeech-at-Cpdp2016-on-Technological-Totalitarianism-Politics-andDemocracy. 2 Mussolini bestellte Gentile, den er als seinen »Lehrer« bezeichnete, 1922 in seinem ersten Kabinett als Erziehungsminister. Siehe A. James Gregor, Giovanni Gentile: Philosopher of Fascism. New Brunswick, NJ: Routledge, 2004. S. 60. 3 Ebd. S. 30. 4 Ebd. S. 62f. 5 Benito Mussolini, »Die Lehre des Faschismus« in Ernst Nolte (Hg.), Theorien über den Faschismus. Köln: Kiepenheuer & Witsch, 1970. S. 205–220. 6 Waldemar Gurian, »Totalitarianism as Political Religion«, in Carl J. Friedrich (Hg.), Totalitarianism. New York: Grosset & Dunlap, 1964. S. 120. Einige Historiker äußerten die Ansicht, dass Italien nie wirklich ein ganz und gar totalitärer Stadt wurde, und führten zum Beleg dafür Institutionen wie die katholische Kirche und das Fehlen eines organisierten Massenmords an. Deutschland, so meinen einige, sei in der Theorie wie in der Praxis weit konsequenter gewesen, zu schweigen von der Sowjetunion, wo man noch weiter ging, und das über einen weit längeren Zeitraum, auch wenn die sowjetischen Eliten sich keineswegs mit dem Faschismus identifizierten. 7

Frank Westerman, Ingenieure der Seele: Schriftsteller unter Stalin – Eine Erkundungsreise. Berlin: Ch. Links, 2003. S. 40. (Hervorhebung von mir.) 8 Ebd. S. 27ff. 9 Claude Lefort, »The Concept of Totalitarianism«, Democratiya 9 (2007). S. 183f. 10 Zu Duranty siehe Frank Westerman, Engineers of the Soul: The Grandiose Propaganda of Stalin’s Russia. New York: Overlook Press, 2012. S. 32ff. (nicht in der deutschen Ausgabe); Robert Conquest, Der große Terror: Sowjetunion 1934–1938, München: Langen Müller, 1992. S. 468. 11 Jörg Baberowski, Verbrannte Erde: Stalins Herrschaft der Gewalt. München: C. H. Beck, 2017. S. 348. 12 Conquest, Der große Terror. S. 550. 13 Robert Conquest, Stalin: Der totale Wille zur Macht. München: Paul List Verlag, 1991. S. 359f. 14 Walter Duranty, »What’s Going On in Russia?«, Look, 15. August 1939. S. 21. 15 Mit der Wahl Stalins zum Mann des Jahres 1939 dürfte das Magazin der epochemachenden Kühnheit seines Nichtangriffspakts mit Hitler Rechnung getragen haben, der tatsächlich die Wahrscheinlichkeit eines Kriegs in Europa beträchtlich erhöhte. Ein zweites Mal wurde er 1942 Mann des Jahres, nach den hart erkämpften Erfolgen der Roten Armee und des sowjetischen Volks gegen die deutschen Invasoren. 16

Duranty bekam 1932 den Pulitzer-Preis für eine Reihe von Artikeln, die er 1931 für die New York Times aus Moskau geschrieben hatte. Seine Berichterstattung geriet im Folgenden unter den Beschuss antistalinistischer Gruppen, die in ihm ein Werkzeug stalinistischer Propaganda sahen. Das Preiskomitee ging den Anschuldigungen sechs Monate lang nach, entschied sich dann aber dagegen, ihm den Preis zu entziehen. Jahre später kam die New York Times zu dem Schluss, Durantys Artikel gehörten zu den schlechtesten journalistischen Arbeiten in der Geschichte des Blattes. Dies hielt jedoch Look und andere Magazine nicht davon ab, sich weiter auf Durantys Berichte über das Leben in der Sowjetunion zu verlassen, was mit Sicherheit dazu beitrug, dass die Öffentlichkeit lange die einzigartigen Merkmale totalitärer Macht nicht verstand. 17 Conquest, Der große Terror. S. 529f. 18 Ebd. S. 531. 19 Ebd. S. 552. 20 Carl J. Friedrich, »The Problem of Totalitarianism – An Introduction,« in ders. (Hg.), Totalitarianism. New York: Grosset & Dunlap, 1964. S. 1. 21 Ebd. S. 1f. Friedrich war gebürtiger Deutscher und von 1946 bis 1949 Berater der amerikanischen Militärverwaltung Deutschlands. 22 Hannah Arendt, Elemente und Ursprünge totaler Herrschaft: Antisemitismus, Imperialismus, Totalitarismus. München: Piper, 1986. S. 630. 23 Ebd. S. 701. 24 Hannah Arendt, The Origins of Totalitarianism. San Diego: Harcourt, 1973. S. viii. (Dieses Vorwort fiel in der deutschen Ausgabe weg.) 25 Arendt, Elemente und Ursprünge. S. 698.

26 Carl J. Friedrich, Totalitarianism. New York: Grosset & Dunlap, 1964; ders., Zbigniew Brzeziński, Totalitäre Diktatur. Stuttgart: Kohlhammer, 1957; Theodor W. Adorno, »Erziehung nach Auschwitz« (1966) in ders., Kulturkritik und Gesellschaft, Teil 2 (Gesammelte Schriften, Bd. 10.2). Frankfurt: Suhrkamp, 2003; ders., »Das Schema der Massenkultur« in ders., Dialektik der Aufklärung (Gesammelte Schriften, Bd. 3); ders., »Auf die Frage: Was ist deutsch« in ders., Kulturkritik und Gesellschaft, Teil 2; Gurian, »Totalitarianism as Political Religion«; Raymond Aron, Demokratie und Totalitarismus. Hamburg: Wegner, 1970. 27 Gurian, »Totalitarianism as Political Religion«. S. 122–127. 28 Friedrich, Brzeziński, Totalitarian Dictatorship. S. 130–133. 29 Franz L. Neumann, Behemoth. Struktur und Praxis des Nationalsozialismus (1944). Frankfurt: Fischer, 1984. 30

Siehe Raul Hilbergs monumentalen Bericht über die Vernichtung der europäischen Juden, der die Komplexität nationalsozialistischer Massenmobilisierung und orchestrierter Heimlichkeit vermittelt – von den Transport- und Produktionsmitteln über Militär, Ministerien bis hin zur Rekrutierung von Freunden und Nachbarn, die ihre Freunde und Nachbarn terrorisieren sollen. Raul Hilberg, Die Vernichtung der europäischen Juden. Frankfurt: Fischer, 1990. Siehe auch Daniel Jonah Goldhagen, Hitlers willige Vollstrecker: Ganz gewöhnliche Deutsche und der Holocaust. Berlin: Siedler, 1996; Jan T. Gross, Nachbarn. Der Mord an den Juden von Jedwabne. München: C. H. Beck, 2001; Christopher R. Browning, Ganz normale Männer: Das Reserve-Polizeibataillon 101 und die »Endlösung« in Polen. Reinbek: Rowohlt, 1999; Norman M. Naimark, Stalin und der Genozid. Frankfurt: Suhrkamp, 2010. In Russland enthüllte Solschenizyns Bericht über das Konzentrationslagersystem, dass die Parteioffiziellen und die gewöhnlichen Bürger praktisch verpflichtet waren, den permanenten Strom des Terrors zu »füttern«. Siehe Alexander Solschenizyn, Der Archipel GULAG. Frankfurt: Fischer, 2008. 31 Richard Shorten, Modernism and Totalitarianism – Rethinking the Intellectual Sources of Nazism and Stalinism, 1945 to the Present. New York, Palgrave Macmillan, 2012. S. 50. 32 Ebd. Kap. 1. 33 Claude Lefort, The Political Forms of Modern Society: Bureaucracy, Democracy, Totalitarianism. Cambridge, MA: MIT Press, 1986. S 297f. 34 Hannah Arendt, »Essays in Understanding«. New York: Schocken, 1994. S. 343. 35 Arendt, Elemente und Ursprünge. S. 958. 36

»Behavior: Skinner’s Utopia: Panacea, or Path to Hell?« Time, 20. September 1971, http://content.time.com/time/magazine/article/0,9171,909994,00.html . 37 B. F. Skinner, »Current Trends in Experimental Psychology«, in Cumulative Record (www.bfskinner.org: B. F. Skinner Foundation, 1999). S. 319. 38 Ludy T. Benjamin Jr., Elizabeth Nielsen-Gammon, »B. F. Skinner and Psychotechnology: The Case of the Heir Conditioner«, Review of General Psychology 3:3 (1999). S. 155–167, https://doi.org/10.1037/1089-2680.3.3.155. 39 B. F. Skinner, Walden Two. A utopian novel. New York: Macmillan, 1948. Erschien auf Deutsch zunächst unter dem Titel Futurum Zwei: Die Vision einer aggressionsfreien Gesellschaft. Hamburg: Wegner, 1970; eine Neuübersetzung erschien unter dem Titel Walden Two. Die Vision einer besseren Gesellschaftsform. München: Fi-Fa-Verlag, 2002. B. F. Skinner, Jenseits von Freiheit und Würde. Reinbek: Rowohlt, 1973. 40 B. F. Skinner, Was ist Behaviorismus? Reinbek: Rowohlt, 1978. S.  20ff. 41 John B. Watson, »Psychology as the Behaviorist Views It«, Psychological Review 20 (1913). S. 158–177. 42

Lefort, The Political Forms of Modern Society; Hans Kangro, Art. »Max Planck«, Complete Dictionary of Scientific Biography. Detroit, MI: Charles Scribner’s Sons, 2008, http://www.encyclopedia.com/people/science-andtechnology/physics-biographies/max-planck. Dort heißt es: »Planck war ein unermüdlicher Verfechter des absoluten Werts der Naturgesetze, eine Haltung, die ihn in den Mainstream der Suche nach absoluten Konstanten in der zweiten Hälfte des 19. Jahrhunderts stellt. Seine Ansichten in diesen beiden Punkten weisen bereits auf seine späteren Interessen an den philosophischen Grundlagen der Wissenschaft. Nachdem er 1891 einem idealen Prozess ›die Rolle eines Pfadfinders‹ zugeschrieben hatte, ›dessen Aussagen von großer Allgemeingültigkeit‹ seien, auch wenn es ihm an ›Beweiskraft‹ mangele – eine Rolle, wie sie auch W. Wien dem Gedankenexperiment zugeschrieben hatte –, sagte Planck 1894, ›die Zeit, da einer allein sich sowohl mit spezialisiertem Wissen [Physik] als auch mit allgemeinem Wissen [Theorie] befassen kann, ist vorbei.‹ Er nahm jede Gelegenheit wahr, die Rolle des ›Theoretikers des wissenschaftlichen Fortschritts‹ zur Schau zu stellen. Planck war damals überzeugt, dass sich im Prinzip alle natürlichen Phänomene auf mechanische Gesetzmäßigkeiten zurückführen ließen, räumte aber ein, dass die Wärmephänomene nur durch zwei nichtmechanische Gesetze zu beschreiben seien und dass die Verbindung zwischen Elektrodynamik und Optik und vielleicht auch der Wärmestrahlung nicht von mechanischen Gesetzen abhängig sei. Er postulierte ›das Erreichen eines beständigen und unveränderlichen Ziels, das im Aufbau einer einzigen großartigen Verbindung zwischen allen Kräften der Natur besteht‹ – was bereits die ›Einheit des physikalischen Weltbildes‹ ahnen lässt, von der er 1908 in seinem Leidener Vortrag sprach.« 43

Max Planck, Wege zur Physikalischen Erkenntnis: Meine wissenschaftliche Selbstbiographie. Leipzig: Barth, 1948. S. 8. Planck erläutert im Rückblick, was ihn an der Physik so faszinierte: »Was mich zu meiner Wissenschaft führte und von Jugend auf für sie begeisterte, ist die durchaus nicht selbstverständliche Tatsache, daß unsere Denkgesetze übereinstimmen mit den Gesetzmäßigkeiten im Ablauf der Eindrücke, die wir von der Außenwelt empfangen, daß also dem Menschen möglich ist, durch reines Denken Aufschlüsse über jene Gesetzmäßigkeiten zu gewinnen. Dabei ist von wesentlicher Bedeutung, daß die Außenwelt etwas von uns unabhängiges Absolutes darstellt, dem wir gegenüberstehen, und das Suchen nach den Gesetzen, die für dieses Absolute gelten, erschien mir als die schönste wissenschaftliche Lebensaufgabe.« Er entschloss sich also bewusst, sich der theoretischen Physik zu widmen, und das zu einer Zeit, in der diese noch nicht als vollwertige Disziplin anerkannt war. 44 Erwin Esper beschäftigte sich mit den Faktoren, die Meyer in der amerikanischen Psychologie zum Einzelgänger machten und seine Arbeit damit um die verdiente Anerkennung brachte. Siehe dazu besonders Erwin A. Esper, »Max Meyer in America«, Journal of the History of the Behavioral Sciences 3:2 (1967). S. 107–131, https://onlinelibrary.wiley.com/doi/abs/10.1002/15206696%28196704%293%3A2%3C107%3A%3AAID-JHBS23000302 02%3E3.0.CO%3B2-F. 45 Esper, »Max Meyer«. 46 Skinner, Was ist Behaviorismus. S. 20. 47

Brand Blanshard, »The Problem of Consciousness: A Debate with B.  F. Skinner«, Philosophy and Phenomenological Research 27:3 (1967). S. 317–337. Skinner hob die Bedeutung Meyers für den radikalen Behaviorismus noch öfter hervor. Siehe dazu zum Beispiel die Diskussion mit dem Philosophen Brand Blanshard, wo er Folgendes erklärte: »Ein besonderes Problem ergibt sich aus der unvermeidlichen Tatsache, dass in uns, in der Haut eines jeden von uns, ein kleiner Teil des Universums steckt. Er unterscheidet sich von der Art nicht vom Rest des Universums, aber da unser Kontakt mit ihm intim und in gewisser Hinsicht exklusiv ist, erfreut er sich besonderer Aufmerksamkeit. man stellt sich vor, dass er auf ganz gewisse Weise das unmittelbar Gegebene enthält, das Erste, was ein Mensch kennenlernt und einigen zufolge das Einzige, was er je wirklich kennen kann. Philosophen beginnen damit im Gefolge Descartes’ bei ihrer Analyse des Geistes. So gut wie jeder beginnt damit bei der Erklärung seines eigenen Verhaltens. Es gibt jedoch womöglich noch einen anderen Ausgangspunkt – das Verhalten dessen, den Max Meyer als den Anderen bezeichnet hat. Mit zunehmender Effektivität der wissenschaftlichen Analyse erklären wir dieses Verhalten nicht mehr im Sinne von inneren Ereignissen. Die Welt in der Haut des Anderen verliert seinen bevorzugten Status.« 48 Max Meyer, »The Present Status of the Problem of the Relation Between Mind and Body«, Journal of Philosophy, Psychology and Scientific Methods 9:14 (1912). S. 371, https://doi.org/10.2307/2013335. 49

Esper, »Max Meyer«, S. 114. In Meyers Denken war diese Reduktion auf den »Organismus« von Grund auf humanistisch, insofern sie Gemeinsamkeiten von Personen, ja selbst von unterschiedlichen Spezies betont. Wir alle schlafen, wachen auf, essen und trinken, tanzen, lachen, weinen, pflanzen uns fort und sterben. Meyer verbrachte, während er die Themen seines Buches erarbeitete, ein Studienjahr in Marokko, wo er seine Hypothesen informell prüfte. Er habe sich, so schrieb er, »mit der kulturellen Anthropologie einer Rasse vertraut machen wollen, die anders ist als die, wie sie in Europa heimisch sind, einer semitischen«. In Marokko, so fuhr er fort, hatte er »Gelegenheit, sich davon zu überzeugen, dass Araber und ihre Familien nicht weniger menschlich sind als wie Menschen irgendwo sonst auf Welt«. 50

Max Planck, »Phantom Problems in Science«, in ders., Scientific Autobiography and Other Papers. New York: Philosophical Library, 1949. S. 52–79. 1946 fasste Max Planck seine lange gehegten Ansichten über die Einheit von Wissenschaft und wissenschaftlichem Denken in seinem Vortrag über »Scheinprobleme der Wissenschaft« zusammen, zu denen auch das »Leib-Seele-Problem«, das »Problem des Gegensatzes zwischen der Freiheit des Willens und der Gebundenheit durch das Gesetz der Kausalität« gehört. Für Planck war die Leib-Seele-Kontroverse, wie alle Scheinprobleme in Philosophie und Wissenschaft, ein Unvermögen, den »Standpunkt für die Betrachtung ausdrücklich festzulegen und einzuhalten« (Hervorhebung von mir). Ferner äußert er die Ansicht, man würde den »inneren« oder »psychologischen Standpunkt« und den »äußeren« oder »physiologischen Standpunkt« zu oft verwechseln: »Was jemand fühlt, was er denkt, was er will, weiß unmittelbar nur er selber. Andere Menschen können das nur mittelbar aus seinen Äußerungen, Gebärden, Reden. Handlungen schließen. Wenn solche Äußerungen völlig fehlen, mangelt ihnen jeder Anhaltspunkt zur Feststellung seines augenblicklichen Seelenzustandes.« Der äußere Standpunkt war demnach der einzige »für die wissenschaftliche Untersuchung der Gesetzmäßigkeit von Willensvorgängen« geeignete. Für diesen »äußeren Standpunkt« als Basis für das wissenschaftliche Studium menschlichen Verhaltens zu sorgen, ist von kritischer Bedeutung für unsere Geschichte, und Plancks Vortrag lässt den Einfluss seines Denken auf Meyer ahnen (und sogar die Möglichkeit, dass Planck Meyers Buch von 1921 gelesen hatte). In jedem Fall liegt die Resonanz zwischen Plancks Argumentation und der Meyers klar auf der Hand. 51 Max Friedrich Meyer, Psychology of the Other-One. Missouri Book Company, 1921. S. 146, http://archive.org/details/cu31924031214442. 52 Ebd. S. 147. 53 Ebd. S. 406.

54 Ebd. S. 412, 420. 55 Ebd. S. 402. 56 Ebd. S. 404. 57 B. F. Skinner, The Behavior of Organisms: An Experimental Analysis. Acton, MA: Copley, 1991. S. 3. 58 Ebd. S. 4ff. 59 B. F. Skinner, Wissenschaft und menschliches Verhalten. München; Kindler, 1973. S. 214. 60 B. F. Skinner, Jenseits von Freiheit und Würde. Reinbek: Rowohlt, 1973. S. 167. 61 Ebd. S. 27. 62 Ebd. S. 27, 50, 64. 63 Skinner, Wissenschaft und menschliches Verhalten. S. 28. 64 Skinner, Jenseits von Freiheit und Würde. S. 10f. 65 Ebd. S. 12f. 66 Ebd. S. 65. 67

»Gambling Is a Feature of Capitalism – Not a Bug«, Prospect, April 2017, http://www.prospectmagazine.co.uk/magazine/gambling-is-afeature-of-capitalism-not-a-bug; Natasha Dow Schüll, Addiction by Design: Machine Gambling in Las Vegas. Princeton: Princeton University Press, 2014; Howard J. Shaffer, »Internet Gambling & Addiction«, Harvard Medical School: Division on Addictions, Cambridge Health Alliance, 16. Januar 2004; Michael Kaplan, »How Vegas Security Drives Surveillance Tech Everywhere«, Popular Mechanics, 1. Januar 2010, http://www.popularmechanics.com/tech nology/how-to/computer-security/4341499; Adam Tanner, What Stays in Vegas: The World of Personal Data – Lifeblood of Big Business – and the End of Privacy as We Know It. New York: PublicAffairs, 2014; Chris Nodder, Teuflisch gutes Webdesign: Wie Sie Ihre Kunden in Versuchung führen. Weinheim: Wiley-VCH, 2014; Julian Morgans, »Your Addiction to Social Media Is No Accident«, Vice, 18. Mai 2017, https://www.vice.com/en_us/article/vv5jkb/thesecret-ways-social-media-is-built-for-addiction; »Reasons for Playing Slot Machines Rather Than Table Games in the U. S.«, Statista, 2017, https://www.statista.com/statistics/188761/reasons-for-playing-slotmachines-more-than-table-games-in-the-us. 68 Skinner, Wissenschaft und menschliches Verhalten. S. 106. (Hervorhebung von mir). Näheres zur Anwendung von Verhaltenstechnologien in Casinos finden Sie bei Tanner, What Stays in Vegas. 69 Ebd. 70 Ebd. S. 29. 71 Ebd. S. 262. 72 Ebd. S. 261f. 73

George Orwell charakterisierte 1984 seinem Freund Anthony Powell gegenüber als »eine als Roman geschriebene Utopie«. Siehe Robert McCrum, »1984: The Masterpiece That Killed George Orwell«, Observer, 9. Mai 2009, http://www.theguardian.com/books/2009/may/10/1984-georgeorwell. B. F. Skinner charakterisierte Walden Two als einen »Roman über eine utopische Gemeinschaft«. B. F. Skinner, Walden Two. Indianapolis: Hackett, 2005. S. vi. 74 Siehe dazu Skinners Vorwort zur Auflage von 1976: B. F. Skinner, Walden Two. New York: Macmillan, 1976. 75 George Orwell, 1984. Berlin: Ullstein, 1994. S. 305f. 76 Ebd. S. 356. 77 B. F. Skinner, Walden Two. München: FiFa-Verlag, 2002. S. 288. 78 Ebd. S. 149, 161.

13. Big Other und der Aufstieg der instrumentären Macht 1 Skinner, Walden Two. S. 255. 2 B. F. Skinner, »To Know the Future«, Behavior Analyst 13 (1990). S.  104. 3 Ebd. S. 106. 4 Arendt, Essays in Understanding. S. 319. 5 Hannah Arendt, Vita Activa oder Vom tätigen Leben. München: Piper, 1997. S. 410f. 6

Hannah Arendt, The Origins of Totalitarianism. New York: Schocken, 2004. S. 620. 7 »Trust«, Our World in Data, 3. August 2017, https://ourworldindata.org/trust. 8 »Public Trust in Government: 1958‒2017«, Pew Research Center for the People and the Press, 14. Dezember 2017, http://www.peoplepress.org/2017/12/14/public-trust-in-government-1958-2017/. 9 Peter P. Swire, »Privacy and Information Sharing in the War on Terrorism«, Villanova Law Review 51:4 (2006). S. 951. See also Kristen E. Eichensehr, »Public-Private Cybersecurity«, Texas Law Review 95:3 (2017), https://texaslawreview.org/public-private-cyber security. 10 Joseph Menn, »Facebook, Twitter, Google Quietly Step Up Fight Against Terrorist Propaganda«, Sydney Morning Herald, 7. Dezember 2015, http://www.smh.com.au/technology/technologynews/facebook-twitter-google-quietly-step-up-fight-against-terroristpropaganda-20151206-glgvj2.html. 11 Menn, »Facebook, Twitter, Google«. Siehe auch Jim Kerstetter, »Daily Report: Tech Companies Pressured on Terrorist Content«, Bits Blog, 8. Dezember 2015, https://bits.blogs.nytimes.com/2015/12/08/daily-report-techcompanies-pressured-on-terrorist-content; Mark Hosenbell, Patricia Zengerle, »Social Media Terrorist Activity Bill Returning to Senate«, Reuters, 7. Dezember 2015, http://www.reuters.com/article/us-usacongress-socialmedia-idUSKBN0TQ2E520151207. 12

Dave Lee, » ›Spell-Check for Hate‹ Needed, Says Google’s Schmidt«, BBC News, 7. Dezember 2015, http://www.bbc.com/news/technology-35035087. 13 Danny Yadron, »Agenda for White House Summit with Silicon Valley«, Guardian, 7. Januar 2016, http://www.theguardian.com/technology/2016/jan/07/white-housesummit-silicon-valley-tech-summit-agenda-terrorism; Danny Yadron, »Revealed: White House Seeks to Enlist Silicon Valley to ›Disrupt Radicalization‹ «, Guardian, 8. Januar 2016, https://www.theguardian.com/technology/2016/jan/07/white-housesocial-media-terrorism-meeting-facebook-apple-youtube-. 14 Kashmir Hill, »The Government Wants Silicon Valley to Build Terrorist-Spotting Algorithms. But Is It Possible?«, Fusion, 14. Januar 2016, http://fusion.net/story/255180/terrorist-spottingalgorithm. 15 »Kabinett beschließt Fußfessel für islamistische Gefährder«, Focus, 1. Februar 2017, https://www.focus.de/politik/deutschland/massnahmenpaket-nachberlin-anschlag-kabinett-beschliesst-fussfessel-fuer-islamistischegefaehrder_id_6576176.html; »Kabinett beschließt elektronische Fußfessel für Gefährder«, Die Zeit, 1. Februar 2017, https://www.zeit.de/politik/deutschland/2017-02/innere-sicherheitfussfessel-gefaehrder-berlin-anschlag-thomas-de-maiziere. 16

John Mannes, »Facebook, Microsoft, YouTube and Twitter Form Global Internet Forum to Counter Terrorism«, TechCrunch, 26. Juni 2017, http://social.techcrunch.com/2017/06/26/facebook-microsoftyoutube-and-twitter-form-global-internet-forum-to-counter-terrorism; »Partnering to Help Curb the Spread of Terrorist Content Online«, Google, 5. Dezember 2016, http://www.blog.google:443/topics/google-europe/partnering-helpcurb-spread-terrorist-content-online. 17 »Five Country Ministerial 2017: Joint Communiqué«, 28. Juni 2017, http://www.publicsafety.gc.ca/cnt/rsrcs/pblctns/fv-cntry-mnstrl2017/index-en.aspx. 18 »Mitteilung der Kommission an das Europäische Parlament, den Europäischen Rat und den Rat: Auf dem Weg zu einer wirksamen und echten Sicherheitsunion – Elfter Fortschrittsbericht«. Brüssel, den 18.10.2017 COM(2017) 608 final. https://db.eurocrim.org/db/de/doc/2925.pdf. 19 »G20 Leaders’ Statement on Countering Terrorism – European Commission Press Release«, 7. Juli 2017, http://europa.eu/rapid/press-release_STATEMENT-17-1955_en.htm; Jamie Bartlett, »Terrorism Adds the Backdrop to the Fight for Internet Control«, Financial Times, 6. Juni 2017, http://www.ft.com/content/e47782fa-4ac0-11e7-919a-1e14ce4af89b. 20 Spencer Ackerman, Sam Thielman, »US Intelligence Chief: We Might Use the Internet of Things to Spy on You«, Guardian, 9. Februar 2016, http://www.theguardian.com/techno logy/2016/feb/09/internet-of-things-smart-home-devicesgovernment-surveillance-james-clapper. 21

Matt Olsen, Bruce Schneier, Jonathan Zittrain, »Don’t Panic. Making Progress on the ›Going Dark‹ Debate«, Berkman Center for Internet & Society at Harvard, 1. Februar 2016. S. 13. 22 Haley Sweetland Edwards, »Alexa Takes the Stand«, Time, 15. Mai 2017; Tom Dotan, Reed Albergotti, »Amazon Echo and the Hot Tub Murder«, Information, 27. Dezember 2016, http://www.theinformation.com/amazon-echo-and-the-hot-tubmurder. 23 Parmy Olson, »Fitbit Data Now Being Used in the Courtroom«, Forbes, 16. November 2014, http://www.forbes.com/sites/parmyolson/2014/11/16/fitbit-data-courtroom-personal-injury-claim; Kate Crawford, »When Fitbit Is the Expert Witness«, Atlantic, 19. November 2014, http://www.theatlantic.com/technology/archive/2014/11/when-fitbitis-the-expert-witness/382936; »Ms. Smith«, »Cops Use Pacemaker Data to Charge Man with Arson, Insurance Fraud«, Network World, 30. Januar 2017, http://www.networkworld.com/article/3162740/security/cops-usepacemaker-data-as-evidence-to-charge-homeowner-with-arsoninsurance-fraud.html. 24 Jonah Engel Bromwich, Mike Isaac, Daniel Victor, »Police Use Surveillance Tool to Scan Social Media, A. C.L. U. Says«, New York Times, 11. Oktober 2016, http://www.nytimes.com/2016/10/12/technology/aclu-facebooktwitter-instagram-geofeedia.html. 25 Jennifer Levitz, Zusha Elinson, »Boston Plan to Track Web Draws Fire«, Wall Street Journal, 5. Dezember 2016. 26

Lee Fang, »The CIA Is Investing in Firms That Mine Your Tweets and Instagram Photos«, Intercept, 14. April 2016, https://theintercept.com/2016/04/14/in-undisclosed-cia-investmentssocial-media-mining-looms-large. 27 »Palantir, the War on Terror’s Secret Weapon«, Bloomberg.com, 22.  September 2011, http://www.bloomberg.com/news/articles/2011-1122/palantir-the-war-on-terrors-secret-weapon. 28 Ali Winston, »Palantir Has Secretly Been Using New Orleans to Test Its Predictive Policing Technology«, Verge, 27. Februar 2018. 29 Rogier Creemers, »China’s Chilling Plan to Use Social Credit Ratings to Keep Score on Its Citizens«, CNN.com, 27. Oktober 2015, http://www.cnn.com/2015/10/27/opinions/china-social-credit-scorecreemers/index.html. 30 Mara Hvistendahl, »Inside China’s Vast New Experiment in Social Ranking«, Wired, 14. Dezember 2017, http://www.wired.com/story/age-of-social-credit. 31 Hvistendahl, »Inside China’s Vast New Experiment«. 32 Amy Hawkins, »Chinese Citizens Want the Government to Rank Them«, Foreign Policy, 24. Mai 2017, https://foreignpolicy.com/2017/05/24/chinese-citizens-want-thegovernment-to-rank-them. 33 Zhixin Feng u. a., »Social Trust, Interpersonal Trust and Self-Rated Health in China: A Multi-level Study«, International Journal for Equity in Health 15 (2016), https://doi.org/10.1186/s12939-0160469-7. 34

Arthur Kleinman u. a., Deep China: The Moral Life of the Person. Berkeley: University of California Press, 2011; Mette Halskov Hansen, IChina: The Rise of the Individual in Modern Chinese Society, hg. von Rune Svarverud. Kopenhagen: Nordic Institute of Asian Studies, 2010; Yunxiang Yan, The Individualization of Chinese Society. Oxford: Bloomsbury Academic, 2009. 35 Hawkins, »Chinese Citizens Want the Government to Rank Them«. 36 Hvistendahl, »Inside China’s Vast New Experiment«. 37 Ebd. 38 »China’s Social Credit System: AI-Driven Panopticon or Fragmented Foundation for a Sincerity Culture?«, TechNode, 23. August 2017, https://technode.com/2017/08/23/chinas-social-credit-system-aidriven-panopticon-or-fragmented-foundation-for-a-sincerity-culture. 39 »China Invents the Digital Totalitarian State«, Economist, 17.  Dezember 2016, http://www.economist.com/news/briefing/21711902worrying-implications-its-social-credit-project-china-invents-digitaltotalitarian. 40 Shi Xiaofeng, Cao Yin, »Court Blacklist Prevents Millions from Flying, Taking High-Speed Trains«, chinadaily.com, 14. Februar  2017, http://www.chinadaily.com.cn/china/201702/14/content_28195359.htm. 41 »China moving toward fully developed credit systems«, Global Times, 20. Juni 2017, http://www.globaltimes.cn/content/1052634.shtml. 42 Hvistendahl, »Inside China’s Vast New Experiment«. 43

Yaxing Yao, Davide Lo Re, Yang Wang, »Folk Models of Online Behavioral Advertising«, in Proceedings of the 2017 ACM Conference on Computer Supported Cooperative Work and Social Computing, CSCW ’17. New York, NY: ACM, 2017. S. 1957–1969, https://doi.org/10.1145/2998181.2998316. 44 »China Invents the Digital Totalitarian State«. 45 Christopher Lunt, United States Patent: 9100400 – Authorization and authentication based on an individual’s social network, 9100400, erteilt am 4. August 2015, http://patft.uspto.gov/netacgi/nph-Parser? Sect1=PTO1&Sect2=HITOFF&d=PALL&p=1&u=%2Fnet ahtml%2FP TO%2Fsrchnum.htm&r=1&f=G&l=50&s1=9100400.PN.&OS=PN/9 100400&RS=PN/9100400. Die kritische Passage in diesem Patent lautet: »In einer vierten Ausführungsform der Erfindung ist der Serviceprovider ein Verleiher. Wenn eine Person einen Kredit beantragt, untersucht der Verleiher die Kredit-Ratings von Angehörigen des sozialen Netzwerks, die mit dem Betreffenden über autorisierte Knoten verbunden sind. Erfüllt das durchschnittliche Kredit-Rating wenigstens die minimalen Anforderungen für einen Kredit, bearbeitet der Verleiher den Kreditantrag. Andernfalls wird der Kreditantrag abgewiesen.« 46

Christer Holloman, »Your Facebook Updates Now Determine Your Credit Score«, Guardian, 28. August  2014, http://www.theguardian.com/media-network/media-networkblog/2014/aug/28/social-media-facebook-credit-scorebanks; Telis Demos, Deepa Seetharaman, »Facebook Isn’t So Good at Judging Your Credit After All«, Wall Street Journal, 24. Februar 2016, http://www.wsj.com/articles/lenders-dropplans-to-judge-you-by-your-facebook-friends-1456309801; Yanhao Wei u. a., »Credit Scoring with Social Network Data«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 1. Juli 2014), https://papers.ssrn.com/abstract=2475265; Daniel Bjorkegren, Darrell Grissen, »Behavior Revealed in Mobile Phone Usage Predicts Loan Repayment«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 13. Juli 2015), https://papers.ssrn.com/abstract=2611775. 47 Rogier Creemers, »China’s Plans to Use Ratings to Keep Eye on Citizens«, CNN, 27. Oktober 2015, https://www.cnn.com/2015/10/27/opinions/china-social-credit-scorecreemers/index.html. 48 Dan Strumpf, Wenxin Fan, »Who Wants to Supply China’s Surveillance State? The West«, Wall Street Journal, 1. November 2017, https://www.wsj.com/articles/who-wants-to-supply-chinassurveillance-state-the-west-1509540111. 49 Friedrich, »The Problem of Totalitarianism«. S. 1f.

14. Eine Utopie der Gewissheit 1 Mark Weiser, »The Computer for the 21st Century«, Scientific American, Juli 1999. S. 89.

2 Satya Nadella, »Build 2017«, Build Conference 2017, Seattle, 10. Mai 2017, https://news.microsoft.com/uploads/2017/05/Build-2017Satya-Nadella-transcript.pdf. 3 Eric Schmidt, »Alphabet’s Eric Schmidt: We Should Embrace Machine Learning – Not Fear It«, Newsweek, 10. Januar 2017, http://www.newsweek.com/2017/01/20/google-eric-schmidtembrace-machine-learning-not-fear-it-540369.html. 4 Richard Waters, »FT Interview with Google Co-founder and CEO Larry Page«, Financial Times, 31. Oktober 2014, https://www.ft.com/content/3173f19e-5fbc-11e4-8c27-00144feabdc0. 5 Marcus Wohlsen, »Larry Page Lays Out His Plan for Your Future«, Wired, März 2014, https://www.wired.com/2014/03/larry-page-usinggoogle-build-future-well-living. 6 Waters, »FT Interview with Google Co-founder«; Vinod Khosla, »Fireside Chat with Google Co-founders, Larry Page and Sergey Brin«, Khosla Ventures, 3. Juli 2014, http://www.khoslaventures.com/fireside-chat-with-google-cofounders-larry-page-and-sergey-brin. Siehe auch Larry Page, »2013 Google I/O Keynote«, Google I/O, 15. Mai 2013, http://www.pcworld.com/article/2038841/hello-larry-googles-pageon-negativity-laws-and-competitors.html. 7 Miguel Helft, »Fortune Exclusive: Larry Page on Google«, Fortune, 11. Dezember 2012, http://fortune.com/2012/12/11/fortune-exclusivelarry-page-on-google. 8 Khosla, »Fireside Chat«. 9 Page, »2013 Google I/O Keynote«.

10 »Facebook’s (FB) CEO Mark Zuckerberg on Q4 2014 Results – Earnings Call Transcript«, Seeking Alpha, 29. Januar 2015, https://seekingalpha.com/article/2860966-facebooks-fb-ceo-markzuckerberg-on-q4-2014-results-earnings-call-transcript. 11 Ashlee Vance, »Facebook: The Making of 1 Billion Users«, Bloomberg.com, 4. Oktober 2012, http://www.bloomberg.com/news/articles/2012-1004/facebook-the-making-of-1-billion-users. 12 »Facebook’s (FB) CEO Mark Zuckerberg on Q4 2014 Results«. 13 »Facebook (FB) Mark Elliot Zuckerberg on Q1 2016 Results – Earnings Call Transcript,« Seeking Alpha, 28. April 2016, https://seekingalpha.com/article/3968783-facebook-fb-mark-elliotzuckerberg-q1-2016-results-earnings-call-transcript. 14 Mark Zuckerberg, »Building Global Community,« Facebook, 16. Februar 2017, https://www.facebook.com/notes/markzuckerberg/building-global-community/10154544292806634. 15 Mark Zuckerberg, »Facebook CEO Mark Zuckerberg’s Keynote at F8 2017 Conference (Full Transcript)«, 19. April 2017, https://singjupost.com/facebook-ceo-mark-zuckerbergs-keynote-atf8-2017-conference-full-transcript. 16 Johann Wolfgang von Goethe, »Der Zauberlehrling«, https://de.wikipedia.org/wiki/Der_Zauberlehrling. 17 Frank E. Manuel, Fritzie P. Manuel, Utopian Thought in the Western World. Cambridge, MA: Belknap Press, 1979. S. 20. Obwohl Marx das utopische Denken als unwissenschaftlich und ahistorisch

verwirft, stimmen zahlreiche Wissenschaftler überein, dass seine Schriften viele der klassischen Elemente der modernen Utopie enthalten. Siehe dazu Steven Lukes, »Marxism and Utopianism«, in Utopias, hg. von Peter Alexander, Roger Gill. London: Duckworth, 1984. S. 153–168; E. P. Thompson, »Postscript: 1976 from William Morris: Romantic to Revolutionary«, in The Essential E. P. Thompson, hg. von Dorothy Thompson. New York: New Press, 2001. S. 233–267. So argumentiert Marx zum Beispiel – wie Nadella, Page und Zuckerberg –, dass die Maschinenkraft die Arbeiter befreien würde, obwohl er freilich davon ausging, dass diese zunächst die Kontrolle über die Produktionsmittel erlangen müssten. Sein revolutionärer Weg zur Freiheit von der »Notdurft des Lebens« durch Technik unterscheidet sich von dem der Überwachungskapitalisten, deckt sich aber in zwei wichtigen Punkten: In Die Deutsche Ideologie äußern Marx und Engels die Vision, dass die Befreiung von der kapitalistischen Arbeitsteilung es dem Menschen »möglich macht, heute dies, morgen jenes zu tun, morgens zu jagen, nachmittags zu fischen, abends Viehzucht zu treiben, nach dem Essen zu kritisieren, wie ich gerade Lust habe, ohne je Jäger, Fischer, Hirt oder Kritiker zu werden«. In Grundrisse der Kritik der politischen Ökonomie, Marx’ Notizbüchern, in denen er seine Theorie einer gesellschaftlichen Evolution entwickelte, sieht er die Automatisierung als den Schlüssel für den Übergang von der Notwendigkeit zur Freiheit und damit zur vollen Entfaltung der menschlichen Persönlichkeit: »Die Arbeit erscheint nicht mehr so sehr als in den Produktionsprozeß eingeschlossen, als sich der Mensch vielmehr als Wächter und Regulator zum Produktionsprozeß selbst verhält … Er tritt neben den Produktionsprozeß, statt sein Hauptagent zu sein. In dieser Umwandlung ist … in einem Wort die Entwicklung des gesellschaftlichen Individuums, die als der große Grundpfeiler der Produktion und des Reichtums erscheint … Die freie Entwicklung der Individualitäten und daher nicht das Reduzieren der notwendigen Arbeitszeit, um Surplusarbeit zu setzen, sondern überhaupt die Reduktion der notwendigen Arbeit der Gesellschaft zu einem Minimum, der dann die künstlerische, wissenschaftliche etc. Ausbildung der Individuen durch die für sie alle freigewordne Zeit

und geschaffnen Mittel entspricht … Die Produktivkräfte und gesellschaftlichen Beziehungen – beides verschiedne Seiten der Entwicklung des gesellschaftlichen Individuums – erscheinen dem Kapital nur als Mittel und sind für es nur Mittel, um von seiner bornierten Grundlage aus zu produzieren. In fact aber sind sie die materiellen Bedingungen, um sie in die Luft zu sprengen.« Siehe Karl Marx, Friedrich Engels, Die Deutsche Ideologie, in Werke, Bd. 3. Berlin: Dietz Verlag, 1978. S. 33; Karl Marx, Friedrich Engels, Grundrisse der Kritik der politischen Ökonomie, in Werke, Bd. 42. Berlin: Dietz Verlag, 1983. S. 601f.; Siehe dazu außerdem Krishan Kumar, Utopia and Anti-Utopia in Modern Times. Oxford: Blackwell, 1991. Kap. 2; Manuel, Manuel, Utopian Thought in the Western World, S. 56f. 18 Manuel, Manuel, Utopian Thought in the Western World. S. 23. (Hervorhebung von mir.) 19 Todd Bishop, Nat Levy, »With $256 Billion, Apple Has More Cash Than Amazon, Microsoft and Google Combined«, GeekWire, 2. Mai 2017, https://www.geekwire.com/2017/256-billion-apple-cashamazon-microsoft-google-combined. 20 Manuel, Manuel, Utopian Thought in the Western World. S. 9. 21 Zuckerberg, »Building Global Community«. 22 »Facebook CEO Mark Zuckerberg’s Keynote at F8 2017 Conference.« 23 Nadella, »Build 2017«. 24 Satya Nadella, Chen Qiufan, Ken Liu, »The Partnership of the Future«, Slate, 28. Juni 2016, http://www.slate.com/articles/technology/future_tense/2016/06/micro soft_ceo_satya_nadella_humans_and_a_i_can_work_together_to_sol ve_society.html.

25 Nadella, »Build 2017«. 26 Ebd. 27 Ebd. (Hervorhebung von mir). 28 Ebd. (Hervorhebung von mir). 29 Ebd. 30 Elad Yom-Tov u. a., User behavior monitoring on a computerized device, US9427185 B2, eingereicht am 20. Juni 2013, erteilt am 30. August 2016, http://www.google.com/patents/US9427185. 31 B. F. Skinner, Walden Two. München: FiFa-Verlag, 2002. S. 209. 32 Eric Schmidt, Sebastian Thrun, »Let’s Stop Freaking Out About Artificial Intelligence«, Fortune, 28.Juni 2016, http://fortune.com/2016/06/28/artificial-intelligence-potential. 33 Ebd.

15. Das instrumentäre Kollektiv 1 Alex Pentland, »Alex Pentland Homepage – Honest Signals, Reality Mining, and Sensible Organizations«, 2. Februar 2016, https://www.media.mit.edu/people/sandy/overview/; »Alex Pentland – Bio«, World Economic Forum, 28. Februar 2018, https://www.weforum.org/agenda/authors/alex-pentland. 2 Maria Konnikova, »Meet the Godfather of Wearables«, Verge, 6. Mai 2014, http://www.theverge.com/2014/5/6/5661318/the-wizard-alexpentland-father-of-the-wearable-computer. 3

»Alex Pentland«, Wikipedia, 22. Juli 2017, https://en.wikipedia.org/w/index.php?title= Alex_Pentland&oldid=791778066; Konnikova, »Meet the Godfather«; Dave Feinleib, »3 Big Data Insights from the Grandfather of Google Glass«, Forbes, 17. Oktober 2012, http://www.forbes.com/sites/davefeinleib/2012/10/17/3-big-datainsights-from-the-grandfather-of-google-glass. 4 Der Begriff »soziale Physik« geht zurück auf den Positivisten Auguste Comte, der noch vor Planck mit einer programmatischen Vision eines wissenschaftlichen Ansatzes an das Studium der Gesellschaft nach dem Vorbild der Naturwissenschaften auf den Plan trat. Schon in den 30er-Jahren des 19. Jahrhunderts schrieb Comte: »Jetzt, nachdem der menschliche Geist die kosmische und terrestrische Physik, sowohl die Mechanik als die Chemie, und ebenso die organische Physik … geschaffen hat, ist das System der Wissenschaften noch dadurch zur Vollendung zu bringen, dass eine sociale Physik geschaffen wird.« Siehe Auguste Comte, Einleitung in die positive Philosophie, Leipzig: Fues, 1880. S. 15. Fast 200 Jahre später haben Pentlands Theorie und Forschung im Bereich der Sozialphysik ihn zum Gegenstand von Artikeln der New York Times, der Harvard Business Review und dem New Yorker gemacht; darüber hinaus ist er ein weltweit gefragter Gastredner, von der UNO über das Weltwirtschaftsforum und internationalen Tagungen bis hin zu Privatunternehmen. Bei Microsoft und Google wird er als »guter Genius« der »Big-Data-Revolution« präsentiert, dessen »bahnbrechende Experimente« und »bemerkenswerte Entdeckungen« seine Arbeit zum »Fundament einer ganzen neuen Wissenschaft« gemacht haben. Mit der Veröffentlichung seines Buches Social Physics sah Pentland sich auf der beliebten Digital-Life-Design Conference 2014 von dem bekannten Social-Media-Forscher Clay Shirky vorgestellt, dessen Ansicht nach Pentlands Human Dynamics Lab »in den letzten zehn Jahren mehr zur Erklärung menschlichen Gruppenverhaltens beigetragen hat als irgendeine andere Institution auf der Welt.«

5 Konnikova, »Meet the Godfather«. 6 Ebd. 7 Tanzeem Choudhury, Alex Pentland, »The Sociometer: A Wearable Device for Understanding Human Networks« (white paper, Computer Supported Cooperative Work – Workshop on Ad Hoc Communications and Collaboration in Ubiquitous Computing Environments), 2. November 2002. Choudhury leitet heute die People-Aware-Computing-Gruppe an der Cornell University. 8 Nathan Eagle, Alex Pentland, »Reality Mining: Sensing Complex Social Systems«, Personal and Ubiquitous Computing 10:4 (2006). S. 255, https://doi.org/10.1007/s00779-005-0046-3. 9 Alex Pentland, » ›Reality Mining‹ the Organization«, MIT Technology Review, 31. März 2004. 10 Ebd. 11 Kate Greene, »TR10: Reality Mining,« MIT Technology Review, 19. Februar 2008, http://www2.technologyreview.com/news/409598/tr10-realitymining. 12 Alex Pentland, Social Physics: How Good Ideas Spread – the Lessons from a New Science. New Brunswick: Scribe, 2014. S. 217f. 13 Pentland, Social Physics. S. 2f. 14 Greene, »TR10«. 15 Alex Pentland, »The Data-Driven Society«, Scientific American 309 (2013). S. 78–83, https://doi.org/doi:10.1038/scientificamerican101378.

16 Pentland, » ›Reality Mining‹ the Organization«. 17 Nathan Eagle, Alex Pentland, Combined short range radio network and cellular telephone network for interpersonal communications, MIT ID: 10705T, US US7877082B2, eingereicht am 6. Mai 2004, erteilt am 19. September 2014, https://patents.google.com/patent/US20150006207A1/en. 18 Ryan Singel, »When Cell Phones Become Oracles«, Wired, 25. Juli 2005, 19 Pentland, » ›Reality Mining‹ the Organization«. 20 D. O. Olguin u. a., »Sensible Organizations: Technology and Methodology for Automatically Measuring Organizational Behavior«, IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics) 39:1 (2009). S. 43–55, https://doi.org/10.1109/TSMCB.2008.2006638. 21 Taylor Soper, »MIT Spinoff Tenacity Raises $1.5M to Improve Workplace Productivity with ›Social Physics‹ «, GeekWire, 10. Februar 2016, https://www.geekwire.com/2016/tenacity-raises-1-5m; Ron Miller, »Endor Emerges from MIT Research with Unique Predictive Analytics Tech«, TechCrunch, 8. März 2017, http://social.techcrunch.com/2017/03/08/endor-emerges-from-mitresearch-with-unique-predictive-analytics-tech; Rob Matheson, »Watch Your Tone«, MIT News, 20. Januar 2016, http://news.mit.edu/2016/startup-cogito-voice-analytics-call-centersptsd-0120. 22 Ben Waber, People Analytics: How Social Sensing Technology Will Transform Business and What It Tells Us About the Future of Work. Upper Saddle River, NJ: FT Press, 2013. 23 Konnikova, »Meet the Godfather«.

24 Jukka-Pekka Onnela u. a., »Using Sociometers to Quantify Social Interaction Patterns«, Scientific Reports 4 (2014), https://doi.org/10.1038/srep05604. Siehe auch M. Orbach u. a., »Sensing Informal Networks in Organizations«, American Behavioral Scientist 59:4 (2015). S. 508–524, https://doi.org/10.1177/0002764214556810. 25 Ron Miller, »New Firm Combines Wearables and Data to Improve Decision Making«, TechCrunch, 24. Februar 2015, http://social.techcrunch.com/2015/02/24/new-firm-combineswearables-and-data-to-improve-decision-making. 26 Ebd.; Alexandra Bosanac, »How ›People Analytics‹ Is Transforming Human Resources«, Canadian Business, 26. Oktober 2015, http://www.canadianbusiness.com/innovation/how-people-analyticsis-transforming-human-resources. 27 Pentland, »The Data-Driven Society«. 28 Pentland, »Alex Pentland Homepage«; »Endor – Make Your Organization Predictive in Days Using Social Physics«, Endor, 23. Dezember 2017, http://www.endor.com. 29 »Yellow Pages Acquires Sense Networks«, Yellow Pages, 6. Januar 2014, http://corporate.yp.com/yp-acquires-sense-networks. 30 Alison E. Berman, »MIT’s Sandy Pentland: Big Data Can Be a Profoundly Humanizing Force in Industry«, Singularity Hub, 16. Mai 2016, https://singularityhub.com/2016/05/16/mits-sandy-pentlandbig-data-can-be-a-profoundly-humanizing-force-in-industry. 31 Ebd. 32

Alex Pentland, »Society’s Nervous System: Building Effective Government, Energy, and Public Health Systems«, MIT Open Access Articles, Oktober 2011, http://dspace.mit.edu/handle/1721.1/66256. 33 Ebd. S. 3. 34 Ebd. S. 6. 35 Ebd. S. 2ff. 36 Ebd. S. 3. 37 Ebd. S. 10. 38 Ebd. S. 8 (Hervorhebung von mir). 39 Ebd. 40 Ebd. S. 3. 41 Ebd. S. 12 (Hervorhebung von mir). 42 Ebd. S. 245. 43 B. F. Skinner, Jenseits von Freiheit und Würde. Reinbek: Rowohlt, 1973. S. 179. 44 B. F. Skinner, Walden Two. München: FiFa-Verlag, 2002. S. 254. 45 Ebd. S. 175. 46 Ebd. S. 251. 47 Pentland, Social Physics. S. 19. 48 Ebd. S. 143 und S. 18. 49 Pentland, »Society’s Nervous System«, S. 153. 50 B. F. Skinner, Walden Two. S. 288. 51 Ebd. S. 265. 52 Ebd. S. 268f. 53 Ebd. S. 230.

54 Pentland, Social Physics. S. 191. 55 Ebd. S. 2f. 56 Ebd. S. 6f. 57 Ebd. S. 172 (Hervorhebung von mir). 58 Ebd. S. 38. 59 B. F. Skinner, Walden Two. S. 105. 60 Pentland, Social Physics. S. 69. 61 Ebd. S. 184. 62 Ebd. S. 152. 63 Ebd. S. 190. 64 Ebd. S. 46. 65 Alex Pentland, »The Death of Individuality: What Really Governs Your Actions?« New Scientist 222:2963 (2014). S. 30f., https://doi.org/10.1016/S0262-4079(14)60684-9. 66 Skinner, Beyond Freedom. S. 159. 67 Ebd. S. 160f. 68 Pentland, Social Physics. S. 191. 69 Ebd. S. 203f. 70 Pentland, »The Death of Individuality«. 71 Skinner, Walden Two. S. 205f. 72 Ebd. S. 216. 73 Talks at Google, Sandy Pentland: »Social Physics: How Good Ideas Spread«, https://www.youtube.com/watch?v=HMBl0ttu-Ow. 74

Noam Chomsky, »The Case Against B. F. Skinner«, New York Review of Books, 30. Dezember 1971. 75 Pentland, Social Physics. S. 189. 76 Ebd. S. 190. 77 Alex Pentland, »Reality Mining of Mobile Communications: Toward a New Deal on Data«, in Global Information Technology Report, World Economic Forum & INSEAD (World Economic Forum, 2009). S. 75–80. 78 Harvard Business Review Staff, »With Big Data Comes Big Responsibility«, Harvard Business Review, 1. November 2014, https://hbr.org/2014/11/with-big-data-comes-big-responsibility. 79 Staff, »With Big Data Comes Big Responsibility«.

16. Vom Leben im Schwarm 1 »The World UNPLUGGED«, The World UNPLUGGED, https://theworldunplugged.wordpress.com. 2 Aufschlussreich abgehandelt wird dieses Thema in Katherine Losse, The Boy Kings: A Journey into the Heart of the Social Network. New York: Free Press, 2012. 3 »Confusion«, The World UNPLUGGED, 26. Februar 2011, https://theworldunplugged.wordpress.com/emotion/confusion. 4 »College Students Spend 12 Hours/Day with Media, Gadgets«, Marketing Charts, 30. November 2009, https://www.marketingcharts.com/television-11195.

5 Andrew Perrin, Jingjing Jiang, »About a Quarter of U. S. Adults Say They Are ›Almost Constantly‹ Online«, Pew Research Center, 14. März 2018, http://www.pewresearch.org/fact-tank/2018/03/14/abouta-quarter-of-americans-report-going-online-almost-constantly. 6 Jason Dorsey, »Gen Z – Tech Disruption: 2016 National Study on Technology and the Generation After Millennials«, Center for Generational Kinetics, 2016, http://3pur281 4p18t46fuop22hvvu.wpengine.netdna-cdn.com/wpcontent/uploads/2017/01/Research-White-Paper-Gen-Z-TechDisruption-c-2016-Center-for-Generational-Kinetics.pdf. 7 Sarah Marsh, »Girls Suffer Under Pressure of Online ›Perfection‹, Poll Finds«, Guardian, 22. August 2017, http://www.theguardian.com/society/2017/aug/23/girls-suffer-under-p ressure-of-online-perfection-poll-finds. 8 Eine frühe und kluge theoretische Betrachtung des Internets als ein Bereich sozialer Objektifizierung findet sich bei Julie E. Cohen, »Examined Lives: Informational Privacy and the Subject as Object« (SSRN Scholarly Paper, Rochester, NY: Social Science Research Network, 15. August 2000), https://papers.ssrn.com/abstract=233597. 9 Sarah Marsh und Leser des Guardian, »Girls and Social Media: ›You Are Expected to Live Up to an Impossible Standard‹ «, Guardian, 22. August 2017, http://www.theguardian.com/society/2017/aug/23/girlsand-social-media-you-are-expected-to-live-up-to-an-impossiblestandard. 10 Ebd. 11

»Millennials Check Their Phones More Than 157 Times per Day«, New York, 31. Mai 2016, https://socialmediaweek.org/newyork/2016/05/31/millennials-checkphones-157-times-per-day (Hervorhebung von mir). 12 Natasha Dow Schüll, Addiction by Design: Machine Gambling in Las Vegas. Princeton, NJ: Princeton University Press, 2014. S. 166f. 13 Ebd. S. 160. 14 Natasha Dow Schüll, »Beware: ›Machine Zone‹ Ahead«, Washington Post, 6. Juli 2008, http://www.washingtonpost.com/wpdyn/content/article/2008/07/04/AR2008070402134.html (Hervorhebung von mir). 15 Schüll, Addiction, 174. 16 Alex Hern, » ›Never Get High on Your Own Supply‹ – Why Social Media Bosses Don’t Use Social Media«, Guardian, 23. Januar 2018, http://www.theguardian.com/media/2018/jan/23/never-get-high-onyour-own-supply-why-social-media-bosses-dont-use-social-media. 17 Jessica Contrera, »13, Right now – This Is What It’s Like to Grow Up in the Age of Likes, Lols and Longing«, Washington Post, 25. Mai  2016, http://www.washingtonpost.com/sf/style/2016/05/25/13-rightnow-this-is-what-its-like-to-grow-up-in-the-age-of-likes-lols-andlonging. 18 Granville Stanley Hall, Adolescence: Its Psychology and Its Relations to Physiology, Anthropology, Sociology, Sex, Crime, Religion and Education. Memphis, TN: General Books, 2013. S. 1:3. 19 Ebd. S. 1:84. 20

Erik H. Erikson, Identität und Lebenszyklus. Frankfurt: Suhrkamp, 1966. S. 144–147; siehe auch Erik H. Erikson, Jugend und Krise. Stuttgart: Klett-Cotta, 1970. 21 Eine Einführung in diesen Gedanken bietet Jeffrey Jensen Arnett, Emerging Adulthood: The Winding Road from the Late Teens Through the Twenties. Oxford: Oxford University Press, 2006. 22 Siehe dazu Laurence Steinberg, Richard M. Lerner, »The Scientific Study of Adolescence: A Brief History«, Journal of Early Adolescence 24:1 (2004). S. 45–54, https://doi.org/ 10.1177/0272431603260879; Arnett, Emerging Adulthood; Daniel Lapsley, Ryan D. Woodbury, »Social Cognitive Development in Emerging Adulthood«, in The Oxford Handbook of Emerging Adulthood. Oxford: Oxford University Press, 2015; Wim Meeus, »Adolescent Psychosocial Development: A Review of Longitudinal Models and Research«, Developmental Psychology 52:12 (2016). S.  1969–1993, https://doi.org/10.1037/dev0000243; Jeffrey Jensen Arnett u. a., Debating Emerging Adulthood: Stage or Process? Oxford: Oxford University Press, 2011. 23 Dan P. McAdams, »Life Authorship in Emerging Adulthood«, in The Oxford Handbook of Emerging Adulthood. Oxford: Oxford University Press, 2015. S. 438. 24 Lapsley, Woodbury, »Social Cognitive Development«. S. 152. 25

Ebd. S. 155. Bei akademischen Diskussionen um die richtige Balance zwischen Individuation und Bindung geht es häufig um die Kultur. Wie universell sind diese Einsichten in die Entwicklung? Eine Passage aus Lapsleys und Woodburys Arbeit stellt sich dieser Frage auf eine, wie ich finde, ausgewogene und vernünftige Art: »Wie sich die Individuation in unterschiedlichen ethnorassischen Gruppen, unterschiedlichen Nationen oder in länderübergreifenden Stichproben abspielt, ist eine Frage der empirischen Forschung. Das Spannungsfeld zwischen individuellem Handeln und Gemeinschaftlichkeit ist unserer Ansicht nach jedoch eine fundamentale Dualität menschlicher Existenz (Bakan, 1966). Wie es im Einzelnen kalibriert ist, mag in unterschiedlichen Kulturen eine gewisse Variabilität aufweisen. Einige Gesellschaften mögen der Gemeinschaftlichkeit den Vorrang geben, was aber nicht heißt, dass individuelles Handeln vernachlässigt wird. Andere Gesellschaften mögen dem individuellen Handeln den Vorrang geben, was jedoch nicht heißt, dass die Sehnsucht nach Zugehörigkeit, Gemeinschaftlichkeit und Bindung fehlt. Darüber hinaus ändert sich die Balance zwischen individuellem Handeln und Gemeinschaftlichkeit im Verlauf eines individuellen Lebens, je nach Beziehungsstatus, Entwicklungsprioritäten oder Lebensumständen. Aber wie auch immer die Balance zwischen individuellem Handeln und Gemeinschaftlichkeit im Einzelnen ausfällt, das angehende Erwachsenenalter ist die Entwicklungsphase, in der man hart verhandeln muss, weil das Ergebnis wichtige Implikationen für die spätere Anpassung im Erwachsenenleben hat.« Der Verweis auf Bakan bezieht sich auf David Bakan, The Duality of Human Existence: Isolation and Communion in Western Man. Boston: Beacon, 1966. 26 Robert Kegan, Die Entwicklungsstufen des Selbst. München: Peter Kindt Verlag. S. 136. Siehe dazu die Diskussion auf den Seiten 95– 100, 297. 27 Erikson, Identität und Lebenszyklus. S. 130.

28 Robert Kegan, The Evolving Self: Problem and Process in Human Development. Cambridge, MA: Harvard University Press, 1982. S.  19. (Nicht in der deutschen Ausgabe.) 29 Lapsley, Woodbury, »Social Cognitive Development«. S. 152. 30 danah boyd, It’s Complicated: The Social Lives of Networked Teens. New Haven, CT: Yale University Press, 2014. S. 8. 31 Chris Nodder, Teuflisch gutes Webdesign: Wie Sie Ihre Kunden in Versuchung führen. Weinheim: Wiley-VCH, 2014. S. 15. 32 Lapsley, Woodbury, »Social Cognitive Development«. S. 152. 33 Chris Nodder, Teuflisch gutes Webdesign. S. 22. 34 »What’s the History of the Awesome Button (That Eventually Became the Like Button) on Facebook?« Quora, 19. September 2017, https://www.quora.com/Whats-the-history-of-the-AwesomeButton-that-eventually-became-the-Like-button-on-Facebook. 35 John Paul Titlow, »How Instagram Learns from Your Likes to Keep You Hooked«, Fast Company, 7. Juli 2017, https://www.fastcompany.com/40434598/how-instagram-learns-fromyour-likes-to-keep-you-hooked. 36 Adam Alter, Irresistible: The Rise of Addictive Technology and the Business of Keeping Us Hooked. New York: Penguin, 2017. S. 128. 37 Josh Constine, »How Facebook News Feed Works«, TechCrunch, 6. September 2016, http://social.techcrunch.com/2016/09/06/ultimateguide-to-the-news-feed. 38

Michael Arrington, »Facebook Users Revolt, Facebook Replies«, TechCrunch, 6. September  2006, http://social.techcrunch.com/2006/09/06/facebook-users-revoltfacebook-replies. 39 Victor Luckerson, »Here’s How Your Facebook News Feed Actually Works«, Time, 9. Juli 2015, http://time.com/collectionpost/3950525/facebook-news-feed-algorithm. 40 Siehe Constine, »How Facebook News Feed Works«. Das Zitat ist von Will Oremus, »Who Controls Your Facebook Feed«, Slate, 3.  Januar 2016, http://www.slate.com/articles/tech nology/cover_story/2016/01/how_facebook_s_news_feed_algorithm_ works.html. 41 Constine, »How Facebook News Feed Works«. 42 Siehe Luckerson, »Here’s How Your Facebook News Feed Actually Works«. 43 Siehe Oremus, »Who Controls Your Facebook Feed«. 44 Alessandro Acquisti, Laura Brandimarte, George Loewenstein, »Privacy and Human Behavior in the Age of Information«, Science 347:6221 (2015). S. 509–514, https://doi.org/ 10.1126/science.aaa1465. 45 Die meisten davon erschienen seit 2013. 46

Jerry Suls, Ladd Wheeler, »Social Comparison Theory«, in Theories of Social Psychology, hg. von Paul A. M. Van Lange u. a., Bd. 2. Thousand Oaks, CA: Sage, 2012. S. 460–482; David R. Mettee, John Riskind, »Size of Defeat and Liking for Superior and Similar Ability Competitors«, Journal of Experimental Social Psychology 10:4 (1974). S. 333–351; T. Mussweiler, K. Rütter, »What Friends Are For! The Use of Routine Standards in Social Comparison«, Journal of Personality and Social Psychology 85:3 (2003). S. 467–481. 47 Suls, Wheeler, »Social Comparison Theory«. 48 K. Hennigan, L. Heath, »Impact of the Introduction of Television on Crime in the United States: Empirical Findings and Theoretical Implications«, Journal of Personality and Social Psychology 42:3 (1982). S. 461–477. 49 Hyeseung Yang, Mary Beth Oliver, »Exploring the Effects of Television Viewing on Perceived Life Quality: A Combined Perspective of Material Value and Upward Social Comparison«, Mass Communication and Society 13:2 (2010). S. 118–138. 50 Nina Haferkamp, Nicole C. Krämer, »Social Comparison 2.0: Examining the Effects of Online Profiles on Social-Networking Sites«, Cyberpsychology, Behavior and Social Networking 14:5 (2011). S. 309–314, https://doi.org/10.1089/cyber.2010.0120; Helmut Appel, Alexander L. Gerlach, Jan Crusius, »The Interplay Between Facebook Use, Social Comparison, Envy, and Depression«, Current Opinion in Psychology 9 (2016). S. 44–49, https://doi.org/10.1016/j.copsyc.2015.10.006. 51

Amanda L. Forest, Joanne V. Wood, »When Social Networking Is Not Working«, Psychological Science 23:3 (2012). S. 295–302; Lin Qiu u. a., »Putting Their Best Foot Forward: Emotional Disclosure on Facebook«, Cyberpsychology, Behavior, and Social Networking 15:10 (2012). S. 569–572. 52 Jiangmeng Liu u. a., »Do Our Facebook Friends Make Us Feel Worse? A Study of Social Comparison and Emotion«, Human Communication Research 42:4 (2016). S. 619–640, https://doi.org/10.1111/hcre.12090. 53 Andrew K. Przybylski u. a., »Motivational, Emotional, and Behavioral Correlates of Fear of Missing Out«, Computers in Human Behavior 29:4 (2013). S. 1841–1848, https://doi.org/ 10.1016/j.chb.2013.02.014. 54 Qin-Xue Liu u. a., »Need Satisfaction and Adolescent Pathological Internet Use: Comparison of Satisfaction Perceived Online and Offline,« Computers in Human Behavior 55 (2016). S. 695–700, https://doi.org/10.1016/j.chb.2015.09.048; Dorit Alt, »College Students’ Academic Motivation, Media Engagement and Fear of Missing Out«, Computers in Human Behavior 49 (2015). S. 111–119, https://doi.org/10.1016/j.chb.2015.02.057; Roselyn J. Lee-Won u. a., »Hooked on Facebook: The Role of Social Anxiety and Need for Social Assurance in Problematic Use of Facebook«, Cyberpsychology, Behavior, and Social Networking 18:10 (2015). S.  567–574, https://doi.org/10.1089/cyber.2015.0002; Jon D. Elhai u. a., »Fear of Missing Out, Need for Touch, Anxiety and Depression Are Related to Problematic Smartphone Use«, Computers in Human Behavior 63 (2016). S. 509–516, https://doi.org/10.1016/j.chb.2016.05.079. 55 Haferkamp, Krämer, »Social Comparison 2.0«. 56

Ethan Kross u. a., »Facebook Use Predicts Declines in Subjective Well-Being in Young Adults«, PLoS ONE 8:8 (2013). S.  e69841, https://doi.org/10.1371/journal.pone.0069841. 57 Hanna Krasnova u. a., »Envy on Facebook: A Hidden Threat to Users’ Life Satisfaction?«, Wirtschaftsinformatik Proceedings 2013/92 (2013), http://aisel.aisnet.org/wi2013/92. 58 Christina Sagioglou, Tobias Greitemeyer, »Facebook’s Emotional Consequences: Why Facebook Causes a Decrease in Mood and Why People Still Use It«, Computers in Human Behavior 35 (2014). S.  359–363, https://doi.org/10.1016/j.chb.2014.03.003. 59 Edson C. Tandoc Jr., Patrick Ferruci, Margaret Duffy, »Facebook Use, Envy, and Depression Among College Students: Is Facebooking Depressing?«, Computers in Human Behavior 43 (2015). S. 139–146. 60 Adriana M. Manago u. a., »Facebook Involvement, Objectified Body Consciousness, Body Shame, and Sexual Assertiveness in College Women and Men«, Sex Roles 72:1–2 (2014). S. 1–14, https://doi.org/10.1007/s11199-014-0441-1. 61 Jan-Erik Lönnqvist, Fenne große Deters, »Facebook Friends, Subjective Well-Being, Social Support, and Personality«, Computers in Human Behavior 55 (2016). S. 113–120, https://doi.org/10.1016/j.chb.2015.09.002; Daniel C. Feiler, Adam M. Kleinbaum, »Popularity, Similarity, and the Network Extraversion Bias«, Psychological Science 26:5 (2015). S. 593–603, https://doi.org/10.1177/0956797615569580. 62

Brian A. Primack u. a., »Social Media Use and Perceived Social Isolation Among Young Adults in the U. S.«, American Journal of Preventive Medicine 53:1 (2017). S. 1–8, https://doi.org/10.1016/j.amepre.2017.01.010; Taylor Argo, Lisa Lowery, »The Effects of Social Media on Adolescent Health and Well-Being«, Journal of Adolescent Health 60:2 (2017). S. 75f., https://doi.org/10.1016/j.jadohealth.2016.10.331; Elizabeth M. Seabrook u.a, »Social Networking Sites, Depression, and Anxiety: A Systematic Review«, JMIR Mental Health 3:4 (2016). S. e50, https://doi.org/10.2196/mental.5842. 63 Holly B. Shakya, Nicholas A. Christakis, »Association of Facebook Use with Compromised Well-Being: A Longitudinal Study«, American Journal of Epidemiology 185:3 (2017). S. 203–211, https://doi.org/10.1093/aje/kww189. 64 Bernd Heinrich, Der Heimat-Instinkt: Das Geheimnis der Tierwanderung. Berlin: Matthes & Seitz, 2016. S. 268. 65 Ebd. S. 280. 66 Ebd. S. 279ff. 67 Erving Goffman, Wir alle spielen Theater. Die Selbstdarstellung im Alltag. München: Piper, 2003. S. 49, 69f. 68 Unter den zahlreichen Arbeiten zu diesem Thema sind zwei von besonderer Bedeutung, insofern sie sich speziell mit den »chilling effects« in den sozialen Medien befassen: Sauvik Das, Adam Kramer, »Self-Censorship on Facebook«, in Proceedings of the Seventh International AAAI Conference on Weblogs and Social Media, 2013; Alice E. Marwick, danah boyd, »I Tweet Honestly, I Tweet Passionately: Twitter Users, Context Collapse, and the Imagined Audience«, New Media & Society 13:1 (2011). S. 114–133. 69

Shoshana Zuboff, Notiz, 9. November 2017, Queen’s University, Kingston, Ontario. 70 »The Extended ›Chilling‹ Effect of Facebook: The Cold Reality of Ubiquitous Social Networking«, Computers in Human Behavior 60 (2016). S. 582–592, https://doi.org/10.1016/j.chb.2016.02.097. 71 Stanley Milgram, Thomas Blass, The Individual in a Social World: Essays and Experiments, dritte Auflage. London: Pinter & Martin, 2010. S. xxi ff.

17. Das Recht auf Freistatt 1 Gaston Bachelard, Poetik des Raumes. München: Hanser, 1960. S. 90. 2 Ebd. S. 39. 3 Ebd. S. 120. 4 Philip Marfleet, »Understanding ›Sanctuary‹: Faith and Traditions of Asylum«, Journal of Refugee Studies 24:3 (2011). S. 440–455, https://doi.org/10.1093/jrs/fer040. 5 Paulys Realencyclopädie der classischen Altertumswissenschaft. Stuttgart: J. B. Metzler, 1896. Bd. II; Sp. 1881–1886. 6 H. Bianchi, Justice as Sanctuary. Eugene, OR: Wipf & Stock, 2010; Siehe dazu auch Norman Maclaren Trenholme, Frank Thilly, The Right of Sanctuary in England: A Study in Institutional History, Bd. 1. Columbia, MO: University of Missouri, 1903. 7

Linda McClain, »Inviolability and Privacy: The Castle, the Sanctuary, and the Body«, Yale Journal of Law & the Humanities 7:1 (1995). S.  203, http://digitalcommons.law.yale.edu/yjlh/vol7/iss1/9. 8 Darhl M. Pedersen, »Psychological Functions of Privacy«, Journal of Environmental Psychology 17:2 (1997). S. 147–156, https://doi.org/10.1006/jevp.1997.0049. Wertvolle Diskussionsbeiträge von Juristen finden sich u. a. bei Daniel J. Solove, » ›I’ve Got Nothing to Hide‹ and Other Misunderstandings of Privacy«, San Diego Law Review 44 (2007). S. 745; Julie E. Cohen, »What Privacy Is For,« SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 5. November 2012), https://papers.ssrn.com/abstract=2175406. 9 Anita L. Allen, Unpopular Privacy: What Must We Hide? New York: Oxford University Press, 2011. S. 4. 10 Orin S. Kerr, »Searches and Seizures in a Digital World«, Harvard Law Review 119:2 (2005). S. 531–585; Elizabeth B. Wydra, Brianne J. Gorod, Brian R. Frazelle, Timothy Ivory Carpenter v. United States of America – On Writ of Certiorari to the United States Court of Appeals for the Sixth Circuit – Brief of Scholars of the History and Original Meaning of the Fourth Amendment as Amici Curiae in Support of Petitioner (Supreme Court of the United States, 14. August 2017); David Gray, The Fourth Amendment in an Age of Surveillance. New York, NY: Cambridge University Press, 2017; David Gray, »The Fourth Amendment Categorical Imperative«, Michigan Law Review 2017, http://michiganlawreview.org/thefourth-amendment-categorical-imperative/. 11 Siehe zum Beispiel Orin S. Kerr, »Searches and Seizures in a Digital World«; Jennifer Daskal, »The Un-Territoriality of Data«, Yale Law Journal 125:2 (2015). S. 326–559.

12 Andrew Guthrie Ferguson, »The Internet of Things and the Fourth Amendment of Effects«, California Law Review, 3. August 2015. S.  879f., https://papers.ssrn.com/abstract=2577944. 13 Lisa Van Dongen, Tjerk Timan, »Your Smart Coffee Machine Knows What You Did Last Summer: A Legal Analysis of the Limitations of Traditional Privacy of the Home Under Dutch Law in the Era of Smart Technology«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 1. September 2017), https://papers.ssrn.com/abstract=3090340. 14 Eine klare Darstellung der Bedeutung von »Einwilligung« im Rahmen der DSGVO findet sich unter https://unitedkingdom.taylorwessing.com/globaldatahub/article-understandingconsent-under-the-gdpr.html. 15 EU-Datenschutz-Grundverordnung (EU-DSGVO): Art. 79 – EUDSGVO – Recht auf wirksamen gerichtlichen Rechtsbehelf gegen Verantwortliche oder Auftragsverarbeiter https://www.datenschutzgrundverordnung.eu/grundverordnung/art-79-ds-gvo/ 16 EU-Datenschutz-Grundverordnung (EU-DSGVO): Art. 83 – EUDSGVO – Allgemeine Bedingungen für die Verhängung von Geldbußen. https://www.datenschutz-grundver ordnung.eu/grundverordnung/art-83-ds-gvo/. 17

Daphne Keller, »The Right Tools: Europe’s Intermediary Liability Laws and the 2016 General Data Protection Regulation«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 22. März 2017), https://papers.ssrn.com/abstract=2914684; Sandra Wachter, »Normative Challenges of Identification in the Internet of Things: Privacy, Profiling, Discrimination, and the GDPR«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 6. Dezember 2017), https://papers.ssrn.com/abstract=3083554; Tal Zarsky, »Incompatible: The GDPR in the Age of Big Data«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 8. August 2017), https://papers.ssrn.com/abstract=3022646; Anna Rossi, »Respected or Challenged by Technology? The General Data Protection Regulation and Commercial Profiling on the Internet«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 13. Juli 2016), https://papers.ssrn.com/abstract=2852739; Viktor Mayer-Schönberger, Yann Padova, »Regime Change? Enabling Big Data Through Europe’s New Data Protection Regulation«, Columbia Science & Technology Law Review 315 (2016). S. 315–335. 18 »Written Evidence – Paul-Olivier Dehaye«, http://data.parliament.uk/writtenevidence/committeeevidence.svc/evi dencedocument/digital-culture-media-and-sport-committee/fakenews/written/80117.html. 19 Ebd. (Hervorhebung von mir.) 20 Mehr über die Daten im Hive und dessen Architektur finden Sie in einem Facebook-Audit, das 2011 der irische Datenschutzbeauftragte auf Betreiben des österreichischen Datenschutzaktivisten Max Schrems durchführte, der Einspruch gegen Facebooks Datenbanken über EU-Bürger eingelegt hatte. https://www.dataprotection.ie/docs/Facbook-Audit/1290.htm 21

»Help Center«, »How can I download a copy of my Facebook data?«, https://www.facebook.com/help/302796099745838; »What to Look for in Your Facebook Data – and How to Find It«, Wired, https://www.wired.com/story/download-facebook-data-how-to-read/. 22 John Paul Titlow, »How Instagram Learns From Your Likes To Keep You Hooked«, Fast Company, 7. Juli 2017, https://www.fastcompany.com/40434598/how-instagram-learns-fromyour-likes-to-keep-you-hooked. 23 Lilian Edwards, Michael Veale, »Slave to the Algorithm? Why a ›Right to an Explanation‹ Is Probably Not the Remedy You Are Looking For«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 23. Mai 2017), https://papers.ssrn.com/abstract= 2972855; Michael Veale, Reuben Binns, Jef Ausloos, »When Data Protection by Design and Data Subject Rights Clash«, International Data Privacy Law, https://doi.org/10.1093/idpl/ipy002; Dimitra Kamarinou, Christopher Millard, Jatinder Singh, »Machine Learning with Personal Data«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 7. November 2016), https://papers.ssrn.com/abstract=2865811. 24 Andrew Tutt, »An FDA for Algorithms«, Administrative Law Review 69:83 (2017), https://papers.ssrn.com/abstract=2747994. 25 Persönliche Mitteilung an die Autorin. 26 Eine großartige Behandlung dieser Machtdynamiken aus der historischen Perspektive findet sich in Robin Mansell, »Bits of Power: struggling for control of information and communication networks«, The Political Economy of Communication, 5:1 (2017). S.  2–29. Für uns besonders interesssant ist S. 16. 27

Laura Nader, »The Life of the Law – A Moving Story«, Valparaiso University Law Review 36:3, 2002. S. 658. 28 Mehr zu noyb finden Sie auf der informativen Website der Organisation: »Noyb.Eu | My Privacy Is None of Your Business«, https://noyb.eu. Siehe darüber hinaus Hannah Kuchler, »Max Schrems: the man who took on Facebook – and won«, Financial Times, 5. April 2018. 29 2010–2012: https://www.slideshare.net/kitseeborg/fb-q412investordeck/4-Daily_Active_Users_DAUs. 2013–2014: http://files.shareholder.com/downloads/AMDANJ5DZ/3907746207x0x805520/2D74EDCA-E02A-420B-A262BC096264BB93/FB_Q414EarningsSlides20150128.pdf, S. 3. 2015– 2017: https://s21.q4cdn.com/399680738/files/doc_financials/2017/Q4/Q42017-Earnings-Presentation.pdf. S. 2. 30 Für die USA und Kanada: https://www.statista.com/statistics/223280/facebooks-quarterlyrevenue-in-the-us-and-canada-by-segment/#0; für Europa: https://www.statista.com/statistics/223279/facebooks-quarterlyrevenue-in-europe/#0. 31 Angaben laut http://gs.statcounter.com. 32 »Recommendations for Implementing Transparency, Consent and Legitimate Interest under the GDPR«, Centre for Information Policy Leadership, Hunton and Williams LLP, GDPR Implementation Project 19. Mai 2017. 33

»Exclusive: Facebook to Put 1.5 Billion Users out of Reach of New EU Privacy Law«, Reuters, 19. April 2018, https://www.reuters.com/article/us-facebook-privacy-euexclusive/exclusive-facebook-to-change-user-terms-limiting-effectof-eu-privacy-law-idUSKBN1HQ00P. 34 Elizabeth E. Joh, »Privacy Protests: Surveillance Evasion and Fourth Amendment Suspicion«, Arizona Law Review 55:4 (2013). S. 997– 1029; Jeffrey L. Vagle, »Furtive Encryption: Power, Trust, and the Constitutional Cost of Collective Surveillance«, Indiana Law Journal 90:1 (2015), http://papers.ssrn.com/abstract=2550934. 35 »How to Be Invisible: 15 Anti-Surveillance Gadgets & Wearables«, WebUrbanist, 28. November 2016, http://weburbanist.com/2016/11/28/how-to-be-invisible-15-antisurveillance-designs-installations/. Siehe auch Sebastian Kubitschko, »The Role of Hackers in Countering Surveillance and Promoting Democracy«, Media and Communication 3:2 (2015), http://dx.doi.org/10.17645/mac.v3i2.281. 36 Zach Sokol, »Hide From Surveillance By Wearing A Mask Of This Artist’s Face«, Creators, 7. Mai 2014, https://creators.vice.com/en_us/article/pgqp87/hide-fromsurveillance-by-wearing-a-mask-of-this-artists-face. 37 http://www.urmesurveillance.com; Sokol. 38 http://www.backslash.cc/. 39 Mehrdad Hessar u. a., »Enabling on-Body Transmissions with Commodity Devices«, UBICOMP ’16 (Proceedings of the 2016 ACM International Joint Conference on Pervasive and Ubiquitous Computing). S. 1100–1111, https://doi.org/10.1145/2971648.2971682. 40 https://ahprojects.com/projects/

41 https://ahprojects.com/projects/stealth-wear/ 42 Ebd. 43 https://bengrosser.com/projects/

18. Ein Putsch von oben 1 Adam Smith, Der Wohlstand der Nationen: Eine Untersuchung seiner Natur und seiner Ursachen. München: C. H. Beck, 1974. 2 Friedrich A. Hayek. Die verhängnisvolle Anmaßung. Die Irrtümer des Sozialismus, Tübingen; Mohr Siebeck, 1996. S. 10. 3 Friedrich A. von Hayek, »Die Anwendung von Wissen in der Gesellschaft«; erschienen als »The Use of Knowledge in Society« 1945 in The American Economic Review; die Zitate entstammen einer Übersetzung des Artikels auf https://www.misesde.org/? p=13889. 4 Friedrich A. von Hayek, »Die Anwendung von Wissen in der Gesellschaft«. (Hervorhebung von mir.) 5 Ashlee Vance, »Facebook: The Making of 1 Billion Users«, Bloomberg.com, http://www.bloomberg.com/news/articles/2012-1004/facebook-the-making-of-1-billion-users. 6 Tom Simonite, »What Facebook Knows«, MIT Technology Review, 13. Juni 2012, https://www.technologyreview.com/s/428150/whatfacebook-knows/. 7 Vance, »Facebook: The Making of 1 Billion Users«.

8 Derek Thompson, »Google’s CEO: ›The Laws Are Written by Lobbyists‹ «, Atlantic, 1. Oktober 2010, https://www.theatlantic.com/technology/archive/2010/10/googlesceo-the-laws-are-written-by-lobbyists/63908/. 9 Satya Nadella, »Satya Nadella: Build 2017«, News Center, 10. Mai  2017, https://news.microsoft.com/speeches/satya-nadella-build-2017/. 10 Adam Smith, Der Wohlstand der Nationen. 11 Diese Zahlen stammen aus meiner eigenen Zusammenstellung der Marktkapitalisierung von GM und Beschäftigungsdaten von 1926 bis 2008; Googles Zahlen beziehen sich auf den Zeitraum von 2004 bis 2016; Facebooks Zahlen beziehen sich auf den Zeitraum von 2014 bis 2016. Die Zahlen zur Marktkapitalisierung sind inflationskorrigiert nach dem Dollar von 2016; Grundlage dazu war der Verbraucherpreisindex laut Federal Reserve Economic Data, Economic Research Division der Federal Reserve Bank of St. Louis. Die dafür herangezogenen Daten stammen von Standard & Poor’s Capital IQ (Google Market Capitalization and Headcount), Wharton Research Data Services – CRSP (General Motors Market Capitalization), Standard & Poor’s Compustat (General Motors Headcount), Thomas Eikon (Facebook Market Capitalization), Company Annual Reports (General Motors Headcount) und SEC Filings (Facebook Headcount). 12

Opinion Research Corporation, »Is Big Business Essential for the Nation’s Growth and Expansion?«, ORC Public Opinion Index (USA, August 1954); Opinion Research Corporation, »Which of These Comes Closest to Your Impression of the Business Setup in This Country?«, ORC Public Opinion Index (USA, Januar 1955); Opinion Research Corporation, »Now Some Questions about Large Companies. Do You Agree or Disagree on Each of These? … Large Companies Are Essential for the Nation’s Growth and Expansion«, ORC Public Opinion Index (USA, Juni 1959); Louis Harris & Associates, »Which Two or Three Best Describe Most Business Corporation Leaders in the Country?«, Harris Survey (Connecticut, April 1966); Louis Harris & Associates, »Compared with What We Have Produced in the Past in This Country, Do You Feel That Our Present Leadership in the Field of Business Is Better, Worse or about the Same as We Have Produced in the Past?«, Harris Survey (Connecticut, Juni 1968); Louis Galambos, The Public Image of Big Business in America, 1880–1940: A Quantitative Study in Social Change. Baltimore: The Johns Hopkins University Press, 1975. 13 Siehe dazu unter anderem Alfred D. Chandler, »The Enduring Logic of Industrial Success«, Harvard Business Review, 1. März 1990, https://hbr.org/1990/03/the-enduring-logic-of-industrial-success; Susan Helper, Rebecca Henderson, »Management Practices, Relational Contracts, and the Decline of General Motors«, Journal of Economic Perspectives 28:1 (Februar 2014). S. 49–72, https://doi.org/10.1257/jep.28.1.49. 14 David H. Autor u. a., »The Fall of the Labor Share and the Rise of Superstar Firms«, SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, 22. Mai 2017), https://papers.ssrn.com/abstract=2971352. Siehe außerdem Michael Chui, James Manyika, »Competition at the Digital Edge: ›Hyperscale‹ Businesses«, McKinsey Quarterly, März 2015.

15 Bis Ende 2018 sollten weitere 100 Datenzentren online sein. Microsoft investierte allein 2017 20 Milliarden Dollar, Facebook ließ 2018 verlauten, man wolle 20 Milliarden Dollar in ein neues Hyperscale-Datenzentrum in Atlanta investieren. Einem Branchenbericht zufolge sind Hyperscale-Unternehmen auch maßgeblich für den Ausbau der weltweiten Infrastruktur verantwortlich, vor allem was die Verlegung von Seekabeln anbelangt, was nichts anderes bedeutet, als dass »ein Großteil des weltweiten Internet-Traffics heute über private Netzwerke geht und von Hyperscalers betrieben wird«. 2016 taten Facebook und Google sich zur Verlegung eines neuen Seekabels zwischen den USA und Hongkong zusammen; man spricht von einer Transpazifikroute von bislang nie gekannter Bandbreite. Siehe dazu »Hyperscalers Taking Over the World at an Unprecedented Scale«, Data Economy, 11. April 2017, https://data-economy.com/hyperscalers-taking-worldunprecedented-scale; »Facebook, Google Partners in 12,800 Km Transpacific Cable Linking US, China«, Data Economy, 13. Oktober 2016, https://data-economy.com/facebook-google-partners-in12800km-transpacific-cable-linking-us-china; »Facebook Could Invest up to $20bn in a Single Hyperscale Data Centre Campus«, Data Economy, 23. Januar 2018, https://data-economy.com/facebookinvest-20bn-single-hyperscale-data-centre-campus/. 16 T. H. Breen, The Marketplace of Revolution: How Consumer Politics Shaped American Independence. New York: Oxford University Press, 2005. S. 22. 17 Ebd. S. 222. 18 Ebd. S. xvi f. 19 Ebd. S. 235–239. 20 Ebd. S. 20. 21 Ebd. S. 299. 22 Ebd. S. 325.

23 Daron Acemoglu, James A. Robinson, Warum Nationen scheitern: Die Ursprünge von Macht, Wohlstand und Armut. Frankfurt: S. Fischer, 2013. 24 Acemoglu und Robinson, Warum Nationen scheitern. S. 260. Der Historiker Jack Goldstone schreibt, dass das Ausmaß der britischen Parlamentsreformen die Notwendigkeit gewaltsamer Veränderungen entschärfte, was in einer dauerhafteren und wohlhabenderen Demokratie resultierte. Wie Acemoglu und Robinson kam auch er zu dem Schluss, der »nationale Zerfall« sei üblicherweise mit einem sozialen Muster gekoppelt, in dem Eliten ihre Interessen nicht an denen des Volkes ausrichten, was auf die Gefährlichkeit einer strukturellen Unabhängigkeit verweist, wie sie die Überwachungskapitalisten genießen. Siehe Jack A. Goldstone, Revolution and Rebellion in the Early Modern World. Berkeley: University of California Press, 1993. S. 481, 487; siehe außerdem Barrington Moore, Social Origins of Dictatorship and Democracy: Lord and Peasant in the Making of the Modern World. Boston: Beacon, 1993, S. 3–39. 25 Michel Crozier, Samuel P. Huntington, Joji Watanuki, »The Crisis of Democracy: Report on the Governability of Democracies to the Trilateral Commission«, New York, N. Y.: Trilateral Commission, 1975, http://trilateral.org/download/doc/crisis_of_democracy.pdf. 26 Ryan Mac, Charlie Warzel, Alex Kantrowitz, »Growth at Any Cost: Top Facebook Executive Defended Data Collection in 2016 Memo – and Warned That Facebook Could Get People Killed«, Buzzfeed, 29.  März 2018, https://www.buzzfeed.com/ryanmac/growth-at-any-costtop-facebook-executive-defended-data? utm_term=.stWyyGQnb#.cnkEEaN0v; siehe auch http://www.faz.net/aktuell/wirtschaft/diginomics/facebook-memovon-andrew-boz-bosworth-15519814.html.

27 Nicholas Thompson, Fred Vogelstein, »Inside the Two Years That Shook Facebook – and the World«, Wired, 12. Februar 2018, https://www.wired.com/story/inside-facebook-mark-zuckerberg-2years-of-hell. 28 Hunt Allcott, Matthew Gentzkow, »Social Media and Fake News in the 2016 Election«, Journal of Economic Perspectives 31: 2 (2017). S. 211‒236. 29 »Nielsen/Netratings Reports Topline U. S. Data for July 2007«, Nielsen/Netratings, Juli 2007. 30 Consumer Watchdog, »Liars and Loans: How Deceptive Advertisers Use Google«, Februar 2011. 31 Jay Greene, »Feds Shut Down High-Tech Mortgage Scammers«, CBSNews.com, 16. November 2011. 32 »Google Forfeits $500 Million Generated by Online Ads & Prescription Drug Sales by Canadian Online Pharmacies«, https://www.justice.gov/opa/pr/google-forfeits-500-milliongenerated-online-ads-prescription-drug-sales-canadian-online. 33 Michela Del Vicario u. a., »The Spreading of Misinformation Online«, Proceedings of the National Academy of Sciences 113:3 (2016). S. 554–559; Solomon Messing, Sean J. Westwood, »How Social Media Introduces Biases in Selecting and Processing News Content«, Pew Research Center, 8. April 2012. 34

Paul Mozur, Mark Scott, »Fake News in U. S. Election? Elsewhere, That’s Nothing New«, New York Times, 17. November 2016, http://www.nytimes.com/2016/11/18/technology/fake-news-onfacebook-in-foreign-elections-thats-not-new.html. 35 Catherine Buni, »The Secret Rules of the Internet«, Verge, 13. April 2016, https://www.theverge.com/2016/4/13/11387934/internetmoderator-history-youtube-facebook-reddit-censorship-free-speech. 36 Ebd. 37 Madeleine Varner, Julia Angwin, »Facebook Enabled Advertisers to Reach ›Jew Haters‹ «, ProPublica, 14. September 2017, https://www.propublica.org/article/facebook-enabled-advertisers-toreach-jew-haters. 38 Siehe dazu die aufschlussreiche Diskussion des Themas in Buni, »The Secret Rules of the Internet«; Nick Hopkins, »Revealed: Facebook’s Internal Rulebook on Sex, Terrorism and Violence«, Guardian, 21. Mai 2017, https://www.theguardian.com/news/2017/may/21/revealed-facebookinternal-rulebook-sex-terrorism-violence; Nick Hopkins, »Facebook Moderators: A Quick Guide to Their Job and Its Challenges«, Guardian, 21. Mai 2017, https://www.theguardian.com/news/2017/may/21/facebookmoderators-quick-guide-job-challenges; Kate Klonick, »The New Governors: The People, Rules, and Processes Governing Online Speech«, Harvard Law Review 131 (2017), https://papers.ssrn.com/abstract=2937985. 39 Michael Nunez, »Facebook’s Fight Against Fake News Was Undercut by Fear of Conservative Backlash«, Gizmodo, 14.  November 2016, http://gizmodo.com/facebooks-fight-against-fakenews-was-undercut-by-fear-1788808204.

40 Varner, Angwin, »Facebook Enabled Advertisers to Reach ›Jew Haters‹ «. 41 Alex Kantrowitz, »Google Allowed Advertisers To Target ›Jewish Parasite‹, ›Black People Ruin Everything‹ «, BuzzFeed, 15.  September 2017, https://www.buzzfeed.com/alexkantrowitz/googleallowed-advertisers-to-target-jewish-parasite-black. 42 Jack Nicas, »Big Brands Boost Fake News Sites,« Wall Street Journal, 9. Dezember 2016; Olivia Solon, »Google’s Bad Week: YouTube Loses Millions as Advertising Row Reaches US«, Guardian, 25. März 2017, http://www.theguardian.com/technology/2017/mar/25/googleyoutube-advertising-extremist-content-att-verizon; Alexi Mostrous, »YouTube Hate Preachers Share Screens with Household Names«, The Times, 17. März 2017, https://www.thetimes.co.uk/article/youtube-hate-preachers-sharescreens-with-household-names-kdmpmkkjk; Alexi Mostrous, »Advertising Giant Drops Google in Storm Over Extremist Videos«, The Times, 18. März2017, http://www.thetimes.co.uk/article/adverti sing-giant-drops-google-in-storm-over-extremist-videos-2klgvv8d5. 43

Shannon Bond, »Trade Group Warns on Google Ad Backlash ›Crisis‹ «, Financial Times, 24. März  2017, https://www.ft.com/content/0936a49e-b521-369e-9d22c194ed1c0d48; Matthew Garrahan, »AT&T Pulls Some Ads from Google After YouTube Controversy«, Financial Times, 22. März  2017, https://www.ft.com/content/254d330d-f3d1-3ac2-ab8d-76 1083d6976a; Sapna Maheshwari, Daisuke Wakabayashi, »AT&T and Johnson & Johnson Pull Ads from YouTube«, New York Times, 22.  März 2017, https://www.nytimes.com/2017/03/22/business/atamptand-johnson-amp-johnson-pull-ads-from-youtube-amid-hate-speechconcerns.html; Rob Davies, »Google Braces for Questions as More Big-Name Firms Pull Adverts«, Guardian, 19. März 2017, https://www.theguardian.com/technology/2017/mar/19/googlebraces-for-questions-as-more-big-name-firms-pull-adverts. 44

Guy Chazan, »Berlin Looks at Fines for Facebook with Fake News Law«, Financial Times, 16. Dezember 2016; Guy Chazan, »Germany Cracks Down on Social Media Over Fake News«, Financial Times, 14. März 2017, https://www.ft.com/content/c10aa4f8-08a5-11e797d1-5e720a26771b; Jim Pickard, »Amber Rudd Urges Action from Internet Groups on Extremist Content«, Financial Times, 16. März 2017, https://www.ft.com/content/f652c9bc-120d-11e7-80f413e067d5072c; Alexandra Topping, Mark Sweney, Jamie Grierson, »Google Is ›Profiting from Hatred‹ Say MPs in Row Over Adverts«, Guardian, 17. März 2017, http://www.theguardian.com/technology/2017/mar/17/google-isprofiting-from-hatred-say-mps-in-row-over-adverts; Sabrina Siddiqui, » ›From Heroes to Villains‹: Tech Industry Faces Bipartisan Backlash in Washington«, Guardian, 26. September 2017, http://www.theguardian.com/us-news/2017/sep/26/tech-industrywashington-google-amazon-apple-facebook; Nancy Scola, Josh Meyer, »Google, Facebook May Have to Reveal Deepest Secrets«, Politico, 1. Oktober 2017, http://politi.co/2yBtppQ; Paul Lewis, »Senator Warns YouTube Algorithm May Be Open to Manipulation by ›Bad Actors‹ «, Guardian, 5. Februar 2018, http://www.theguardian.com/technology/2018/feb/05/senator-warnsyoutube-algorithm-may-be-open-to-manipulation-by-bad-actors. 45

Madhumita Murgia, David Bond, »Google Apologises to Advertisers for Extremist Content on YouTube«, Financial Times, 20. März 2017; Sam Levin, »Mark Zuckerberg: I Regret Ridiculing Fears Over Facebook’s Effect on Election«, Guardian, 27. September 2017, http://www.theguardian.com/technology/2017/sep/27/markzuckerberg-facebook-2016-election-fake-news; Robert Booth, Alex Hern, »Facebook Admits Industry Could Do More to Combat Online Extremism«, Guardian, 20. September 2017, http://www.theguardian.com/technology/2017/sep/20/facebookadmits-industry-could-do-more-to-combat-online-extremism; Scott Shane, Mike Isaac, »Facebook to Turn Over Russian-Linked Ads to Congress«, New York Times, 21. September 2017, https://www.nytimes.com/2017/09/21/technology/facebook-russianads.html; David Cohen, »Mark Zuckerberg Seeks Forgiveness in Yom Kippur Facebook Post«, Adweek, 2. Oktober 2017, http://www.adweek.com/digital/mark-zuckerberg-yom-kippurfacebook-post; »Exclusive Interview with Facebook’s Sheryl Sandberg«, Axios, 12. Oktober 2017, https://www.axios.com/exclusive-interview-facebook-sherylsandberg-2495538841.html; Kevin Roose, »Facebook’s Frankenstein Moment«, New York Times, 21. September 2017, https://www.nytimes.com/2017/09/21/technology/facebookfrankenstein-sandberg-ads.html. 46 Cohen, »Mark Zuckerberg Seeks Forgiveness«. 47 Roose, »Facebook’s Frankenstein Moment«. 48 Booth, Hern, »Facebook Admits Industry Could Do More«. 49 Murgia, Bond, »Google Apologises to Advertisers«. 50 Mark Bergen, »Google Is Losing to the ›Evil Unicorns‹ «, Bloomberg BusinessWeek, 27. November 2017. 51

Matthew Garrahan, »Google and Facebook Dominance Forecast to Rise«, Financial Times, 4. Dezember 2017, https://www.ft.com/content/cf362186-d840-11e7-a039-c64b1c0 9b482. Siehe auch Daisuke Wakabayashi, »Google’s Parent Company Spends Like It’s Thinking of a Future Beyond Ads«, New York Times, 25. April 2018, https://www.nytimes.com/2018/04/23/technology/alphabet-googlefuture.html; »Facebook Reports First Quarter 2018 Results«, https://investor.fb.com/investor-news/press-release-details/2018/Face book-Reports-First-Quarter-2018-Results/default.aspx. 52

Zu den bescheidenen Anpassungen siehe Mike Isaac, »Facebook and Other Tech Companies Seek to Curb Flow of Terrorist Content«, New York Times, 5. Dezember 2016, http://www.nytimes.com/2016/12/05/technology/facebook-and-othertech-companies-seek-to-curb-flow-of-terrorist-content.html; Daisuke Wakabayashi, »Google Cousin Develops Technology to Flag Toxic Online Comments«, New York Times, 23. Februar 2017, https://www.nytimes.com/2017/02/23/technology/google-jigsawmonitor-toxic-online-comments.html; Sapna Maheshwari, »YouTube Revamped Its Ad System. AT&T Still Hasn’t Returned«, New York Times, 12. Februar 2018, https://www.nytimes.com/2018/02/12/busi ness/media/att-youtube-advertising.html; Madhumita Murgia, »Google Reveals Response to YouTube Ad Backlash«, Financial Times, 21. März 2017, https://www.ft.com/content/46475974-0e3011e7-b030-768954394623; Heather Timmons, »Google Executives Are Floating a Plan to Fight Fake News on Facebook and Twitter«, Quartz, https://qz.com/1195872/google-facebook-twitter-fake-newschrome; Elizabeth Dwoskin, Hamza Shaban, »Facebook Will Now Ask Users to Rank News Organizations They Trust«, Washington Post, 19. Januar 2018, https://www.washingtonpost.com/news/theswitch/wp/2018/01/19/facebook-will-now-ask-its-users-to-ranknews-organizations-they-trust; Hamza Shaban, »Mark Zuckerberg Vows to Remove Violent Threats from Facebook«, Washington Post, 16. August 2017, https://www.washingtonpost.com/news/theswitch/wp/2017/08/16/mark-zuckerberg-vows-to-remove-violentthreats-from-facebook. Über die Bemühungen zur Unterdrückung sinnvoller Reformen siehe »Zuckerberg Votes Against Shareholder Push for Fake News Transparency«, CBS SFBayArea, 2. Juni 2017, http://sanfrancisco.cbslocal.com/2017/06/02/zuckerberg-shareholderfake-news-transparency; Ethan Baron, »Google Parent Alphabet Gender-Pay Proposal Dead on Arrival«, Mercury News, 7. Juni 2017. 53 »Facebook Reports First Quarter 2018 Results«. 54

Adam Mosseri, »News Feed FYI: Bringing People Closer Together«, Facebook Newsroom, 11. Januar 2018, https://newsroom.fb.com/news/2018/01/news-feed-fyi-bringingpeople-closer-together. 55 Sapna Maheshwari, »As Facebook Changes Its Feed, Advertisers See Video Ambitions«, New York Times, 21. Januar 2018, https://www.nytimes.com/2018/01/21/business/media/facebookvideo-advertising.html. 56 Thomas Paine, Die Rechte des Menschen. Leipzig: Arnoldische Buchhandlung, 1851. S. 60. 57 Hannah Arendt, Between Past and Future: Eight Exercises in Political Thought. New York: Penguin, 2006. S. 99. 58 Ebd. S. 99. 59 Mark Zuckerberg, »Building Global Community«, Facebook, 16. Februar 2017, https://www.facebook.com/notes/markzuckerberg/building-global-community/10154544292806634. 60 Karissa Bell, »Zuckerberg Removed a Line About Monitoring Private Messages from His Facebook Manifesto«, Mashable, 16. Februar 2017, http://mashable.com/2017/02/16/mark-zuckerberg-manifestoai. 61 Heather Kelly, »Mark Zuckerberg Explains Why He Just Changed Facebook’s Mission«, CNNMoney, 22. Juni 2017, http://money.cnn.com/2017/06/22/technology/facebook-zuckerberginterview/index.html. 62

Pippa Norris, »Is Western Democracy Backsliding? Diagnosing the Risks«, Harvard Kennedy School, März 2017, https://www.hks.harvard.edu/publications/western-democracybacksliding-diagnosing-risks; Erik Voeten, »Are People Really Turning Away from Democracy?« (SSRN Scholarly Paper, Rochester, NY: Social Science Research Network, 8. Dezember 2016), https://papers.ssrn.com/abstract=2882878; Amy C. Alexander, Christian Welzel, »The Myth of Deconsolidation: Rising Liberalism and the Populist Reaction«, Journal of Democracy, 28. April 2017, https://www.journalofdemocracy.org/si tes/default/files/media/Journal%20of%20Democracy%20Web%20Ex change%20-%20Alexander%20and%20Welzel.pdf; Ronald Inglehart, »The Danger of Deconsolidation: How Much Should We Worry?« Journal of Democracy 27:3 (2016), https://www.journalofde mocracy.org/article/danger-deconsolidation-how-much-should-weworry; Roberto Stefan Foa, Yascha Mounk, »The Signs of Deconsolidation«, Journal of Democracy 28:1 (2017); Ronald Inglehart, Christian Welzel, »Democracy’s Victory Is Not Preordained. Inglehart and Welzel Reply«, Foreign Affairs 88:4 (2009). S. 157ff.; Roberto Stefan Foa, »The End of the Consolidation Paradigm – a Response to Our Critics«, Journal of Democracy, 28. April 2017. 63 Bart Bonikowski, »Three Lessons of Contemporary Populism in Europe and the United States«, Brown Journal of World Affairs 23:1 (2016); Bart Bonikowski, Paul DiMaggio, »Varieties of American Popular Nationalism«, American Sociological Review 81:5 (2016). S. 949–980; Theda Skocpol, Vanessa Williamson, The Tea Party and the Remaking of Republican Conservatism. New York: Oxford University Press, 2016. S. 74f. 64 Richard Wike u. a., »Globally, Broad Support for Representative and Direct Democracy«, Pew Research Center’s Global Attitudes Project, 16. Oktober 2017, http://www.pewglobal.org/2017/10/16/globallybroad-support-for-representative-and-direct-democracy.

65 Larry Diamond, Experte für Demokratie und Urheber der These von der »Rezession der Demokratie« drückt das folgendermaßen aus: »Man kann die Bedeutung von Vitalität und Selbstvertrauen der amerikanischen Demokratie für die weltweite Ausdehnung der Demokratie gar nicht hoch genug bewerten … Apathie und Trägheit in Europa und in den Vereinigten Staaten könnten die Schwelle für eine Umkehr bei jungen Demokratien erheblich senken und in vielen anderen Staaten zur Festigung autoritärer Systeme führen.« Siehe Larry Diamond, »Facing Up to the Democratic Recession«, Journal of Democracy 26:1 (2015). S. 141–155, https://doi.org/10.1353/jod.2015.0009. 66 Naomi Klein, Die Schockstrategie: Der Aufstieg des Katastrophenkapitalismus. Frankfurt: S. Fischer, 2007; Erik Olin Wright, Envisioning Real Utopias. London: Verso, 2010; Wendy Brown, Edgework: Critical Essays on Knowledge and Politics. Princeton, NJ: Princeton University Press, 2005; Gerald F. Davis, Managed by the Markets: How Finance Re-shaped America. New York: Oxford University Press, 2011. 67 Immanuel Wallerstein u. a., Does Capitalism Have a Future? Oxford: Oxford University Press, 2013; Wright, Envisioning Real Utopias; Naomi Klein, This Changes Everything: Capitalism Vs. the Climate. New York: Simon & Schuster, 2015; Brown, Edgework; Davis, Managed by the Markets; Wolfgang Streeck, »On the Dismal Future of Capitalism«, Socio-Economic Review 14:1 (2016). S. 164–170; Craig Calhoun, »The Future of Capitalism«, Socio-Economic Review 14:1 (2016). S. 171–176; Polly Toynbee, »Unfettered Capitalism Eats Itself«, Socio-Economic Review 14:1 (2016). S. 176–179; Amitai Etzioni, »The Next Industrial Revolution Calls for a Different Economic System«, Socio-Economic Review 14:1 (2016). S. 179– 183. 68

Siehe zum Beispiel Nicolas Berggruen, Nathan Gardels, Intelligent Governance for the 21st Century: A Middle Way Between West and East. Cambridge: Polity, 2013. 69 Hannah Arendt, Elemente und Ursprünge totaler Herrschaft: Antisemitismus, Imperialismus, Totalitarismus. München: Piper, 1986. S. 978. 70 Theodor W. Adorno: »Erziehung nach Auschwitz« in ders., Kulturkritik und Gesellschaft, Teil 2 (Gesammelte Schriften, Bd.  10.2). Frankfurt: Suhrkamp 2003. S. 677f. 71 Thomas Piketty, Das Kapital im 21. Jahrhundert. München: C. H. Beck, 2014. S. 785. 72 Ebd. S. 787. 73 Roger W. Garrison, »Hayek and Friedman,« in Elgar Companion to Hayekian Economics, hg. Norman Barry. Northampton, MA: Edward Elgar, 2014. 74 Friedrich Hayek, Interview mit Robert Bork, 4. November 1978, Center for Oral History Research, University of California, Los Angeles, http://oralhistory.library.ucla.edu. 75 Zygmunt Bauman, Liquid Modernity. Cambridge, MA: Polity, 2000; Fernand Braudel, The Structures of Everyday Life. New York: Harper & Row, 1981. Bd. 1, S. 620. 76 Piketty, Das Kapital im 21. Jahrhundert. S. 645. 77 Roberto M. Unger, Free Trade Reimagined: The World Division of Labor and the Method of Economics. Princeton, NJ: Princeton University Press, 2007. S. 8, 41 (Hervorhebung von mir).

78 Thomas Paine, Die Politischen Werke von Thomas Paine. Philadelphia: Verlag von Maaß und Cursch, 1852. S. 66. 79 Hannah Arendt, »Eine Antwort« in Hannah Arendt und Eric Voegelin, Disput über den Totalitarismus. Göttingen: V&R unipress, 2015. S. 55. 80 George Orwell, In Front of Your Nose 1945‒1950: The Collected Essays, Journalism and Letters of George Orwell, Bd. 4, hg. von Sonia Orwell, Ian Angus. New York: Harcourt, Brace, and World, 1968. S. 160–181 (Hervorhebung von mir). 81 Ebd. 82 Hannah Arendt, »What Is Freedom?« in Between Past and Future: Eight Exercises in Political Thought. New York: Penguin, 1993. S.  169.

REGISTER Abhängigkeit 26, 50, 67, 80, 167, 216f., 280, 295, 400, 441, 512–514, 516, 525, 564, 574, 576, 597 Abstumpfung, seelisch-geistige 26, 35, 38, 100, 118, 523, 538, 592, 595, 598 Adorno, Theodor W. 38, 419, 591 AdWords 94, 96, 98, 106, 115, 138, 198 Affective Computing 324, 327–329, 333f. 482 Affektausdruck 327 Akkumulation – Gesetz der 62 – »ursprüngliche« 124 Akkumulationslogik 28f., 38, 73f., 89, 99, 104, 113–115, 117, 129, 131, 140, 177, 195, 225, 227, 240, 275, 286, 362, 395, 405f., 444, 571, 585 Aktienpreis 57, 204, 271 Aktionär 57, 70, 129, 190, 444, 584, 588 Aktions- bzw. Handlungsvorteile 234, 335f., 396, 401, 452 Aktivitätslevel 318 Aktivitätsmuster 422 Akzeptanz 34, 261, 319, 516, 518, 536 Alexa 307f., 438, 458 Algorithmus 31, 91, 250f., 264, 308, 392, 449, 453 Alltagsleben 25, 55, 228, 305, 309, 436, 456, 487, 493 Alphabet 20, 116, 178, 221, 233, 263, 267, 302, 354 Alternativlosigkeit 401 Amazon Echo 308, 450 Amazon Lex 307 Android 157, 160–164, 182f., 221, 281, 285, 288, 293, 302, 354, 358, 464, 558 Anerkennung 208f., 294, 339, 427, 516, 518, 576 Ängste 18f., 24, 95f., 107, 134, 152, 181, 262, 326, 350, 377, 379, 388, 420f., 431, 466, 512f., 530, 533, 542f. Annexion 155, 157, 207, 462, 570, 586, 637 Anpassung 53, 59, 165, 167, 175, 185, 188, 204, 220, 250, 349, 391, 400, 415, 487, 496, 515, 572f., 584f. Ansteckungseffekt, sozialer 342, 350 AOL 94, 198–200, 323 App-Entwickler 27, 252 Apple iOS 285, 293, 638 Apple iPad 136 Apple iPhone 46f., 51, 66, 161, 450 Apple iPod 46–49, 51, 70, 72, 91, 93, 271 Apple iTunes 46–48, 70 Apple Siri 309

Arbeitsteilung 50f., 212, 215–217, 224f., 407, 474f., 569 Arendt, Hannah 38, 124, 129, 166, 291, 387, 418, 420, 443, 445f., 453, 587, 591, 596, 598 Arglist 278 Asymmetrien von Wissen und Macht 217, 219, 256, 278, 322, 393, 553 AT&T 195f., 583 Aufenthaltsort 20, 297 Augenbewegungen 324 Ausbeutung 34, 66, 97, 110, 113, 118, 175, 183, 315, 326, 345, 400, 438, 446, 452, 536, 538, 543, 588 Ausnahmezustand 93, 96f., 99, 104, 107f., 140, 500 – finanzieller 98 – gefühlter 95 – überwachungstechnischer 138, 143, 145f., 153, 220, 226, 322, 399, 443 – zeitbedingter 379 Austausch, marktwirtschaftlicher 104, 125 Authentizität 350, 374, 442 Automatic Sentiment Analysis in the Wild (SEWA) 323–326, 328 Autonomie 224, 341, 351f., 406, 425, 435, 444, 510, 512, 521f., 543, 550, 597 – individuelle 35, 39, 75, 258, 278, 375, 505 – relationale 520 Autorität 17f., 57f., 80, 87, 125, 205, 209, 212–214, 219, 226, 376, 383, 388, 401, 414, 419, 447f., 467f., 474, 496, 504, 542, 555, 560, 568, 586, 589, 591, 597 Aware Home 20f., 30, 271, 284, 401 Baidu 283, 301 »Basisemotionen« 327 Bauman, Zygmunt 65 Beacon 67, 115, 524, 584 Beck, Ulrich 55 Bedrohungen 17, 131, 145, 165, 168, 205, 226, 448, 577, 590 Behavioral Engineering 338, 431 Behavioral Underwriting 248f., 251 Behaviorismus 381, 445 – radikaler 413, 421–423, 427, 429, 435, 437 Beispiellosigkeit 27, 29, 255, 398 Beschaffungsökonomie 30 Beschäftigungspolitik 39, 573 Besitzanspruch 227 »Bewegungsgesetze«, kapitalistische 29, 34, 88f., 126, 204, 219, 224, 235, 262, 279, 389, 403, 534 Bewegungsmuster 280 Bewegungssensoren 21 Bezahlsysteme, globale 220 Bezugssystem 33 Big Other 36, 437–424, 444, 448, 452, 458, 462f., 465, 467f., 470, 474, 484, 486, 492–494, 496, 501, 506, 512, 515, 534, 536, 539f., 545f., 548, 550–552, 559f., 563f., 567–569, 571, 586f., 592, 601, 603 Bing 119, 191f. Bluetooth Media Access Controller (MAC) 287

Browserverhalten 25, 158 Bundesamt für das Fernmeldewesen (FCC) 173f., 178, 185, 197, 199–201 Bundesamt für Nahrungs- und Arzneimittel (FDA) 196, 286 Bundeshandelskommission (FTC) 69, 109, 138, 140, 151, 167, 172, 187, 199, 286, 304, 361, 457 Cambridge Analytica 319–323, 553f. China-Syndrom 451 Cisco Kinetic 263 Click-und-Browse-Wrap-Vereinbarung 69 Click-Wrap-Verträge 68, 134 Co-Marketing 251 »Contagion Experiments« 35 Cry-Freedom-Strategie 127 Daimler 252 »Dark Data« 244f. Das Große Andere 36, 437 siehe auch Big Other Data-Mining 90, 141f., 149, 240, 485 »Datenabgase« 90, 191, 244, 395 Dateneigentümerschaft 263 Datenkleptomanie 175 Datenprotokollierung 97 Datenschutzaktivisten 185, 188, 302, 557 Datenschützer 21, 82, 102, 168, 170, 192, 196–198, 289, 291, 307, 553 Datenschutzerklärung 21, 192, 198 Datenschutzrichtlinien 67, 69, 199, 272f., 287f., 303, 314, 362, 373 Datensysteme 20 Datenunternehmen 39, 252, 304 Datenverschnitt 245 Datenwissenschaft 38, 40, 98, 119, 149, 158, 203, 222f., 241, 258f., 282, 316, 321, 337f., 343, 346, 481, 496, 506, 509, 534, 570, 574 Deklarationen 207–211, 220, 226, 253, 256, 262, 383, 397, 399, 403f., 406, 458, 550, 556, 560, 598 Deregulierung 58f., 63 Desorientierung 513, 533 Dienstleistungen 25, 34, 50, 60, 62, 97, 111, 126, 134, 159, 201, 204, 214, 221, 271, 274f., 285, 294– 296, 299, 305, 370f., 572f. Digitalisierung 18, 48, 166, 212f., 219 Dilemma 18, 112, 212, 214, 315, 523, 542, 593 Disconnect 162, 164f. Diversifikationsvorteile 89, 228, 233, 240, 248, 253, 266, 278, 284, 396, 401 Dotcoms 94–96, 107 Dot-Lautsprecher 307f. »Dritte Moderne« 65f., 227, 262, 407, 409, 459, 479, 508–510, 538, 561, 588f., 592 Dublon, Gershon 242 Dunkeldaten 244, 262 Duopol 40, 198, 583f. Durkheim, Émile 38, 50f., 215–217, 219, 225, 418

Earnings-Calls 40, 192 Echtzeitdaten-Feeds 372 Edison, Thomas 32, 216, 594 Effizienz 60, 113, 134, 186, 211, 226, 251, 336, 473, 475, 477, 493–495, 498, 504 Eigeninteresse 400 Einfachheit 20 Einkommensdivergenz 62 Einwilligungsfunktion 190 Einzelhändler 47, 66, 279f., 287, 291, 298, 359, 367, 400, 491 Electronic Privacy Information Center (EPIC) 166, 171, 188, 197, 361 Emanzipation 24, 55, 63, 65 Emotionsanalyse 324, 329 Endnutzer 21 Enteignungsindustrie 329 Enteignungszyklus 165, 168f., 181, 184, 186–188, 190, 197f., 227, 303, 349, 399, 550, 584 Entfaltung 19, 65, 140, 342, 414, 438 Entwurzelung 19 Erneuerung 18, 25, 393, 415, 440, 598 »Erste Moderne« 51–54, 110, 216f. Ertragsstrom 24 Euphemismus 113, 244, 248, 278 Europäische Union 80, 139, 161, 188 Europäischer Gerichtshof 79–82, 557 Existenz, individualisierte 37 Expansion 29, 178, 186, 204, 220, 228, 252, 253, 284, 296, 407, 583 Extraktionsimperativ 110f., 129, 155, 157, 159, 164, 167, 173–175, 177, 183f., 186, 188, 197–199, 233, 246, 395 Extraktionsoperationen 115, 131, 137, 161, 233, 316 – aggressive 35 Fabbrini, Federico 80 Facebook-Feeds 530 Facebook-Milieu 312, 581 Facebook-Profile 23, 202, 311–314, 321, 531 Faustischer Pakt 25, 201, 397, 512 »FBLearner Flow« 320, 555 Fehlurteile 28 Feindbilder 58 Fernüberwachung 239, 247 Ferrary, Michael 95 Finanzkapitalismus 65, 204 Fließbandarbeiter 50 »Follow«-Raten 318 Follower 532, 536, 562 Ford (Unternehmen) 48, 50f., 85f., 108–110, 120, 295, 308 Ford, Henry 32, 47, 49, 53, 70, 74, 86, 109–111, 224 Ford Model T 47, 51, 109, 224, 295 Freistatt 19,37, 75, 146, 444, 543, 545, 547–552, 557, 559f., 563f., 592, 597

Friedman, Milton 56, 58, 133, 593f., 599 »Full-Stack-AI« 220 Fünf-Faktoren-Modell 311, 317f., 327 Geborgenheit 18, 547 Gefahren 18, 36, 45, 161, 179, 205, 223, 272, 296, 310, 364, 377, 398, 412f., 415, 432, 531, 563, 578 Gegenseitigkeitsprinzip 96 General Motors 24, 47, 85f., 252, 573 Genesis Toys 305, 307 Geolocation 160f. »Geotags« 279 Geotargeting 279 Gerechtigkeit 63f., 292, 549f., 592 Gesellschaftsvertrag 33, 66, 74, 97, 105, 243, 256, 575, 597 – demokratischer 56 – hierarchischer 54 Gesellungstrieb 533–535 Gesetzmäßigkeiten 32, 423, 429f. Gesichtserkennungssoftware 185, 561f. Gestik 329, 353 Gesundheits-Apps 285f. Gewissensbisse 27 Gewöhnungseffekt 185 Gleichgültigkeit 105, 329, 499, 559 – formale 437 – institutionelle 226 – radikale 438 Gleichwertigkeit 438 Google Analytics 273, 639 Google Chrome 464, 558 Google City 181, 263, 266, 359 Google Crawler 93, 179, 242, 297, 311, 316 Google Glass 165, 184, 186, 482, 584 Google Maps 142, 161, 169, 177f., 181, 183, 252, 264f., 354 Google Now 281, 294, 296f., 300 Google Street View 168, 170, 263 Google-Play-App 182 GPS-Locator 280 Granovetter, Mark 95 »Great Society« 59 Größenvorteile 110, 129, 157f., 161, 177, 198, 233f., 248, 420 »Ground Truth« 40, 178f., 478 Gruppendynamik 493 Handeln, moralisches 49 Handlungsvorteile 233f., 335f., 396, 401, 452, 455, 471 Harmonie 312, 317, 433, 435, 444, 476, 478f., 501, 505, 534, 536f., 564 Hayek, Friedrich 56–58, 131, 133f., 213, 568–570, 578, 593f.

Hedonismus 317 Heimautomatisierung 252 Heimfunknetz 21 Heimlichkeiten 219, 291, 458 Heimweh 19 Herding 336f., 341, 357, 393, 396, 402, 411, 452, 479, 504 siehe auch Konditionierung Herrnstein, Richard 429 Hoffnungen 19, 32, 73, 552 »HTML-Renderer« 270 Humansimulation 36 Huntington, Samuel 61, 65 IBM 243, 244f., 252, 317f., 330, 366, 482 Identifikation 204, 401, 441 Ideologie 51, 56–58, 74, 124, 133–135, 137, 402, 421, 441, 458, 491, 509, 577, 591 Illinois Biometric Privacy Act 289 Illusion 23, 388, 425, 428, 432, 539 – technologische 32 – von Freiheit 434 – von Unterstützung 446 Imperativ 31, 140, 170, 174, 189, 204, 235, 260, 262, 395, 405, 497, 557, 579, 590, 602 siehe auch Extraktionsimperativ, Marktimperativ und Vorhersageimperativ – kommerzieller 30, 277f. – moralischer 382, 444, 500, 504 – ökonomischer 25f., 28, 30f., 34, 78, 89, 110, 215f., 228, 237, 240, 245, 256, 259, 275, 277, 286, 291, 303, 352f., 373, 389, 395, 406f., 436, 467, 534, 551, 559, 571, 578, 580, 582 – spiritueller 415 Impulskäufe 279 Indexierung 79, 172, 241 Indifferenz, – formelle 572 – radikale 441, 559, 567, 577–583, 585–587, 592 Individualisierungsprozess 34 Individualismus 51, 520 Individualität 53, 378, 445, 504f., 510, 537f., 564, 591 »Individuation« 51 Industriegesellschaft 36, 38, 52, 132, 215f., 418, 463, 472 Industriekapitalismus 7, 23, 36, 38, 88, 110, 117, 132, 215, 396, 403–405, 407, 475, 538, 563, 576 Industriezivilisation 26, 32, 406f. Inevitabilismus 31, 257f., 262f., 275, 363, 402 Informations- und Kommunikationstechnologien 18 Informationsarbeitsplatz 18 Informationsgesellschaft 18, 31, 170, 211, 219, 223, 588 Informationskapitalismus 27f., 35, 67, 73, 90, 98f., 108, 114, 116, 145, 227, 406f., 459 Informationszivilisation 18, 26, 37, 45f., 87, 227, 406, 595 Inklusion 400, 516, 570, 577 »Innovation, genehmigungsfreie« 70, 81 Instrumentarismus 23, 36, 412f., 421, 438–441, 443f., 446, 462, 470, 483, 510, 550

Integrität 34, 350, 388, 534, 585 Internetfirmen 25, 38, 450 Internet der Dinge 40, 234, 237, 243f., 249, 252, 259f., 263, 274, 276, 313, 335f., 338, 450, 551 Interoperabilität 74 Intervention 371, 396, 488, 491, 561 siehe auch Verhaltensintervention – formende 234 – ubiquitäre 335 Intimität 22, 115, 234, 294, 302, 306, 373, 438, 520, 522, 536, 540, 546, 549, 560, 563, 590 Intimsphäre 34, 550f. Invasion 76, 169, 185, 207, 209–211, 225, 227, 305, 318, 322, 353, 398, 561, 563 Jensen, Michael 57, 59f., 131, 213, 431 Kapitalismus, patrimonialer 63 Kim, Nancy 69 Klick-Ökonomie 620 Klickraten-Modell 105f., 119, 583 Knebelverträge 68 Knechtung 30 Kollektivismus 134, 538, 577, 234, 252, 264 Kommodifizierung – des Verhaltens 125, 383 – von Arbeit, Boden und Geld 405 Kommunikation 54, 163, 166, 184, 188, 299, 309–311, 438, 450, 473, 485, 488, 512, 522, 536, 562, 570, 579 – emotionale 326 Kommunikationserfahrung 515 Kommunikationsereignisse 143 Kommunikationsmuster 156, 202, 486, 488 Kommunikationssysteme 568 Kommunikationstechnologien 18, 139 Kommunikationstools 187 Kommunikationsverhalten 486 Kompass 53, 282, 386, 413 – moralischer 598 Konditionierung 326, 336, 338f., 341, 357, 371, 396, 402, 411, 442, 452, 479, 504 – behavioristische 36, 338, 380, 431 – operante 338, 376, 422 – systematische 376 Konfluenz 441, 471, 473–475, 477, 494, 500, 534, 537, 543, 587, 589 – erzwungene 564 – harmonische 501 – soziale 36 Konnektivität 75, 156, 258, 274, 364, 402, 438, 446f., 561 Konsument 25, 48, 181, 275, 491, 572, 575f. »Kontext-Agglomeration« 242 Kontrollmechanismen 59, 127

Konversionsrate 319 Korrosion sozialen Vertrauens 446 Kosinski, Michael 313–316, 321 Kundennetz, globales 313 Kundenzufriedenheit 157, 318 Künstliche Intelligenz 22, 87, 90, 106f., 118, 220f., 223, 266, 297, 330f., 334, 457, 465, 471, 473, 477, 488, 563, 588 Legitimität 54, 200, 211, 291, 403f., 576 Life-Crawling-Operationen 297 Life-Pattern Marketing 280, 661 »Like«-Button 187, 189, 524f., 528 »Likes« 25, 189, 218, 313–315, 326, 343, 513f., 518, 522, 525, 532, 536, 540, 562, 578, 671 Lizenzvertrag 21 Location-Based Marketing 279 Logik der Akkumulation 28, 38, 73, 89, 99, 104, 131, 140, 177, 195, 225, 227, 240, 362, 395, 571, 585 Loyalitätsvorhersage 320 Lyon, David 138, 140, 603 MAC-Adresse 287 Mach! 352 Machado, Antonio 52, 537 Macht, instrumentäre 7, 23, 26, 36f., 89, 409, 412f., 417, 420f., 427, 432, 436f., 439–459, 461–464, 468–472, 474, 478, 481–484, 486f., 491f., 515, 536–538, 551–553, 559, 564, 569f., 587, 589f., 592, 598, 601 Macht, neue Grenze 497 Machtausübung 23 Mackay, R. Stuart 238–240, 244, 247, 253, 262f., 283f., 291, 344, 359, 421, 436, 439, 483f., 489, 538 Managementkapitalismus 24, 40, 85 Manipulationen 218, 345, 505, 521, 553 Markenbewusstsein 325 Marktdemokratie 59, 591 Marktdynamik 124f., 153, 404, 462, 569, 588 Marktform 7, 30, 40, 50, 58, 66, 70, 73f., 87, 110, 114, 116, 131, 135f., 138, 146, 157, 160, 189, 213, 219, 225f., 291, 398f., 552, 587, 589, 594 Marktimperativ 89 Marktkapitalismus 37, 567, 574 Marktkosmos, aggressiver 298, 309, 363 Marktmetriken 58f. Marktplatz 22, 92, 104, 117, 120, 138, 306, 383 Marktprojekt 23, 73, 117, 277, 382, 411, 421, 442, 457 Marktwert 58, 116, 194f. Marktwirtschaft 58, 63, 592 – neoliberale 34 – radikal freie 56 Marx, Karl 24, 38, 124, 257, 468f. Maschinenemotionen 323

Maschinenintelligenz 31, 87–89, 99, 118f., 128, 220, 243, 245, 264, 296, 298, 305, 311, 317, 322, 325, 395, 412, 462, 464, 472, 477, 555 Maschinenlernsysteme 36 Maschinenprozesse, automatisierte 23, 234, 249, 255f., 266, 297, 390, 396f., 411, 492 Massenfertigung 49, 85 Massenkonsum 47 Massenkonsumenten 48, 50f. Massenproduktion 40, 47, 50, 54, 72, 86, 108, 110, 407, 472, 475, 478, 508, 620 Massenverbraucher 47, 110 Massenverhalten 35 Massenvorteile 87, 105, 110, 167, 228, 395, 436 Mattel 305–307 Maximierung – der »Likes« 540 – des Aktienwerts 213 – des Shareholder-Value 60, 431 – von Überwachungserträgen 436 Mechanismen, konstituierende 34 Meckling, William 57, 59 Medium, automatisiertes 23, 307, 437, 514, 517 Menschenrechte 7, 81, 389 Menschenschwarm 37, 478 Mentalitäten 50 Metadaten 143, 282f., 312, 314f. Microsoft 24, 38, 40, 94, 119, 149, 158, 191–194, 233, 243, 252, 293, 301f., 307, 314–316, 330, 449, 463, 469–471, 474–476, 493, 570 Mid-Level-Metriken 315 Milgram, Stanley 38, 541f. Milieu 492, 510 – digitales 30, 32, 36, 55, 66, 69, 138, 284, 444, 517, 533, 571 – emotionales 512 – moralisches 216, 388, 407, 438 – rechnergestütztes 224, 310 – soziales 216, 224, 499, 534 – toxisches 516 Mimik 327, 329, 345, 503 Miteinander, soziales 18, 153, 263, 467, 493, 510 Modifikation des Massenverhaltens 35 Monetarisierung 146, 192, 194f., 360, 412, 421, 444 Monitoring 87, 181, 238f., 246–251, 253f., 264, 277, 283–285, 296, 339, 348, 365, 392, 458, 470, 475, 489, 508 Monopolisierung 155, 157–159 Monopolvorwurf 39 Moral, immanente 23 Munk School of Global Affairs 286, 373 Nachschubwege 157f., 198 Nadella, Satya 191, 193f., 293, 463f., 468, 471–475, 481, 484, 491, 493, 499f., 538, 564, 570

Napster 46, 518 Naturrechte 26, 75, 146, 389, 394 Neoliberalismus 61f., 571, 573 Nest Labs 20 Nest-Thermostat 272, 274 Netzwerkmilieu 73 Neuausrichtung 100, 138, 165, 177, 180f., 186, 197, 199, 349, 585 Neuorientierung 181, 183, 185, 189, 198 Nihilismus 260 Nuance Communications 303, 305 Nutzerdaten 91, 162, 172–174, 176, 361 Nutzerinformationen 99, 101, 103, 189, 450 Nutzungsbestimmungen 21, 68, 189, 559 Obama, Barack 139, 145, 148–151, 322, 448f. Occupy-Bewegung 61, 64 Ökosysteme 38, 211, 443 Oligarchie 63 Omniszienz, digitale 243 »One Voice« 299, 306–308, 402 »Online Eraser«-Gesetz 81 Online-Einkäufe 67 Online-Milieu 35, 155, 370, 395, 585 Online-Werbung 25, 40, 88, 94, 98f., 104, 183, 189, 233, 359, 361, 397, 581 Open Effect 286 Opt-in-Verfahren 199, 272 Opt-out-Verfahren 198f., 404 Ordnung, marktwirtschaftliche 412 Ordnungsprinzip 212, 216, 225 Orientierung, ökonomische 31, 339, 341, 405, 522 Ortsverbundenheit 19 Orwell, George 113, 171, 371, 412, 432–434, 436, 452, 597f. Overture 94, 99, 107f. Page, Larry 81, 89–91, 94–98, 107, 112, 123, 125, 127, 129–131, 155, 185, 187, 192, 267, 464f., 468, 481, 491, 493, 564 Paid-Search-Modell 191 Paradigma, neoliberales 49, 55, 126 Paradiso, Joe 240–243, 246, 256–259, 262f., 277, 439, 482, 564 Parallel-Reality-Games 354 Parkraumbewirtschaftungssystem 265 Patente 40, 99–104, 106, 111, 152, 164, 178, 188, 246, 250f., 308, 329, 447f., 457, 475f., 488 Pay-Button 234 Peilsender 280 Pentland, Alex 481–509, 512, 514, 524, 527, 530, 534, 537f., 564, 588 »Perma-Cookie« 196 permissionless innovation 70 Personalisierung 35, 87, 125, 246, 293–295, 298, 301, 311, 320, 324, 401, 587

Persönlichkeitsdimensionen 311 Persönlichkeitsmerkmale 313–316, 318 Persönlichkeitspsychologie 311 Piketty, Thomas 62f., 592–594 Planck, Max 423–425, 427f., 433, 436, 473, 476, 483, 569 Pokémon Go 23, 35, 178, 341, 352, 354–356, 358–362, 400, 444, 530 Polanyi, Karl 38, 58f., 124, 404–406, 587f. Predictive-Analytics 87, 239 Preismechanismus 117 Privatisierung der Wissensteilung 35, 223, 225 Privatsphäre 20, 22, 29, 39, 67f., 72, 75, 79f., 109, 113, 119, 131, 134, 138f., 150f., 162, 164, 168– 170, 172, 174f., 177, 181, 185, 187, 189, 187, 197f., 202f., 205, 223f., 227, 243, 250, 263, 281, 286, 288, 314, 321, 328, 362, 371, 373, 378, 380, 397f., 403f., 406, 431f., 435, 455, 498, 507f., 525, 549, 557f. Produktionsmittel 23, 26, 35, 89, 92, 118f., 121, 132, 190f., 311, 336, 352, 363, 395f., 403, 407, 411, 419, 440 Profitmaximierung 89, 395, 405 Proxy-Faktoren 248 Psychometrie 313 Putsch von oben 7, 37, 567 Qualitätspunkte 105 Radin, Margaret 69 Reaktionsrate 318 Reality-Business 35, 231, 234, 263, 462, 486 Realpolitik 153, 243, 266, 487 Recht auf Vergessen 81 Recht auf Vergessenwerden 81 Regulierungsmechanismen 50 Rendering 270, 313 Renditen 47, 62, 93, 96, 201 Rendition 269–272, 274, 276–279, 283, 285, 288–292, 293, 296, 300f., 303, 305f., 309f., 318, 320– 324, 326f., 330, 332, 334, 396, 403, 411, 421, 431, 462f., 482, 484, 486f., 504, 508, 521, 551, 569, 571 Resignation 26, 118, 167, 443, 538, 598 Rhetorik 24, 33, 70f., 97, 114, 167, 244, 257, 259f., 265, 295, 307, 374, 400–402, 421, 444, 468, 508, 571, 592 Risikokapital 93, 95f., 141, 143, 146, 160, 330 Safegraph 203 Safeguard 204 Sammelklagen 171 Sartre, Jean-Paul 38, 332f., 505, 539f. Schattentext 218f., 225, 235, 253, 277, 382f., 403, 412, 447, 453, 456f., 496, 508, 524f., 554, 579, 585 Schmidt, Eric 30, 81, 98, 111f., 123, 127–130, 145, 148–151, 153, 156, 161, 172, 186, 211, 231f., 258, 267, 322, 439, 449, 464, 477, 494, 564, 570

Schumpeter, Joseph 70–72, 74, 96 Schutzlosigkeit 24, 590 Sehnsüchte 19, 226, 293, 326, 442 Selbstbestimmung 34, 49, 53, 55, 65, 104, 108, 126, 139, 170, 223, 226, 258, 260, 296, 341, 350f., 374, 378, 382, 435, 444, 510, 592 Selbstentwicklung 52 Selbstermächtigung 443 Selbstkontrolle 109, 337, 501 Selbstregulierung 134, 137f., 140, 174, 286, 347, 349–351, 367, 399 Selbstwertgefühl 34, 48, 514, 531 Selbstzweck von Technologie 31 Sensordaten 239, 241f., 264, 489 Sensortechnologie 260, 284, 492 Sequoia 91, 95, 107 Shareholder-Value 57, 60, 5431, 572f. Shock-and-Awe-Taktik 470, 550 Sicherheitsrichtlinien 21 Sidewalk Labs 263–267, 359 Signale, physiologische 235, 327 Skinner, Burhuss Frederic (B. F.) 36, 338, 376–378, 380f., 413, 422–425, 427–436, 438f., 442f., 462, 464, 473f., 476, 483f., 489, 494f., 497–501, 503–507, 509, 516, 569 Sloan, Alfred 47f., 53, 70, 74, 86 Smart Cities 263 Smart Health 285 Smart Home 20, 156, 271f., 300, 306f. Smith, Adam 86, 215, 295, 568–570, 572, 593 Social Graph 194, 361, 466 Social-Media-Profile 203 Software as a Service (SaaS) 201 Souverän 17, 135 Souveränität 19f., 26, 37, 55, 75, 537 Soziale Schichten 18, 61, 295 Soziale Überredung 401, 420, 479, 495, 589 Sozialwissenschaften 426, 485 SpyFi-Skandal 171 Standortdaten 166, 193, 266, 279, 281–283, 288, 361f., 373, 491 Standort-Marker 204 Start-ups 27, 40, 95f., 202, 221, 259, 330 Stillwell, David 313–315, 321 Streaming 304, 360 Suchmaschinen 30, 80, 90, 94, 101, 108, 128, 142f., 158, 191, 283, 297, 301 Super-GPS 239 Targeting 103, 105, 113, 115, 189, 194, 279, 304, 315, 319, 321f., 325, 370, 372, 491, 554 Tarnkappe 24 Telekommunikationsgesetz 306 Telemedizin 284 Tensor Processing Unit (TPU) 221

Terrain – des Markts 37, 587 – eines Casinos 516 – erobertes 160 Territorium 543 – für Informationen 367 – für Renditen 462 – leeres 132 – neues 157, 195, 364 – öffentliches 536 – soziales 533 – unzivilisiertes 25 – von Alexa 308 – zum Browsen 309 Top Five der Internetfirmen 38, 221 Totalitarismus 36, 38, 134, 412–415, 417–419, 421, 433f., 441, 444, 446, 452f., 458, 461f., 587, 597 Totalität 119, 307, 412, 414, 462f., 465–468, 569, 578 Tracking-ID 196f. Tracking-Infrastruktur 162 Trägheitssensoren 241 Transformation 36, 61, 89f., 124, 235, 365f., 369, 406, 444, 464 Transparenz 113, 286, 345, 441, 478, 589 Trenn, Jonathan 67 Trojanische Pferde 32, 259, 298, 341, 402, 586 Tweets 218, 313, 318, 522, 562f. Twitter 136, 163, 197, 313, 316, 318, 358, 449, 482, 562, 582 Überschussversorgung 105, 201 »Überwachung als Dienstleistung« 201, 203 siehe auch Software as a Service (SaaS) Überwachungserträge 35, 117, 187, 190, 194f., 201, 204, 220, 222, 225, 228, 233, 242, 245, 247, 251, 271, 275, 278, 284, 289, 291, 307, 329, 332, 339, 351, 364, 366f., 370, 373, 394, 400, 436, 439, 487, 523, 536, 570, 578 Überwachungsökonomie 7, 117 Überwachungsprofite 119, 232, 278 Überwachungswettbewerb 88 Ubiquitäres Computing 20, 232, 234f., 237, 241, 243–245, 256f., 259, 335, 461 Umorientierungsprozess 49 Undechiffrierbarkeit 125, 349, 383 Under Armour 341, 363–368, 370–374, 444, 530 Ungerechtigkeit 64, 217, 556, 593, 598 Unternehmensrhetorik 33 Unvermeidlichkeitsrhetorik 259 »Unvertrag« 253, 255f., 262, 337, 390–393, 411, 473f., 538, 559 Unwissenheit 25f., 118, 291, 322, 399, 402, 421, 425, 427–430, 442, 472, 476, 501, 505, 568–571, 591 User-Experience 91 Utopistik 468–471, 481, 486f., 495, 503, 507f., 515, 536f.

Varian, Hal 86f., 91, 106f., 123, 246f., 249, 253–256, 264, 294–296, 340f., 388, 390, 466, 482 Verdatung 118, 168, 219, 234, 241, 244, 269–271, 278, 290, 486, 521 Verhaltensintervention 340, 368 Verhaltensmodifikationsmittel 23, 26, 35, 235, 246, 255, 322, 336, 352, 363, 368, 374, 379, 381f., 394, 402, 411, 440f., 452, 457, 496, 498 Verhaltensmonitoring 250 Verhaltenssteuerung 249, 342, 435, 512, 528 Verhaltensterminkontraktmarkt 22f., 25f., 105, 121, 125, 157, 181, 183, 243, 251, 253, 277, 308, 319, 322, 355, 360, 362f., 370, 411, 444, 453, 456, 550, 569, 580 Verhaltensüberschuss 22, 69, 85, 96f., 99, 102–108, 110–119, 121, 126, 128, 131, 137f., 143, 146– 151, 155–160, 163, 165–167, 169, 179, 181f., 184, 186f., 190–196, 198, 200–203, 218, 232–234, 236, 247–251, 253, 255, 269, 275f., 279, 281f., 284f., 293f., 297–300, 303–305, 308f., 311f., 315, 320, 322, 324f., 333, 339, 343, 348, 359, 355, 361f., 364f., 367, 372–374, 395f., 403, 411, 421, 438f., 441, 444, 449, 457, 463, 466, 470, 485–487, 491, 493, 515, 524, 526f., 554f., 559, 583, 585 Verhaltenswert-Reinvestitionszyklus 91, 93, 97, 104, 111, 121, 146, 327, 339, 401 Verizon 195–200, 210, 482, 583 Verkehrsleitsystem Flow 265 Verschlüsselung 83, 118, 227, 403 Verstoßalgorithmus 250 Vorhersageimperativ 228, 231–233, 235–237, 243f., 246f., 266, 277, 290–292, 294, 305, 317, 329, 331, 333, 341, 349, 355, 359, 363, 396, 400, 462, 490 Vorhersagemaschinen, automatisierte 314 Vorhersageprodukte 22, 25, 35, 105, 117–120, 156, 160, 190f., 194, 203, 232–234, 250, 253, 256, 264, 297, 300, 311, 313, 319, 322, 340, 348, 362, 364, 367, 373, 383, 389, 395f., 403, 411f., 550, 554f., 583 »Wardriving« 172, 178 Warenfiktion 124f., 405, 538, 588 »Watson« 245, 317, 338, 366, 373, 423 Wearables 20, 166, 185f., 239f., 242, 283f., 476, 482, 487, 561 Webcrawling 311 Weber, Max 31, 38, 140, 339, 390, 405, 418 Wertaustausch 25 Wertschätzung 38, 89, 97, 294, 321, 326, 426 Wertschöpfungsgrenzen 313 Wettbewerbsdruck 23, 25, 187, 307 Wettbewerbsdynamik 22, 157, 204, 395, 554 Wettbewerbsklauseln, illegale 66 Wettbewerbsvorteil 104, 112, 147, 149, 234, 289, 299 WhatsApp 128f. Whitten, Alma 176f. Wireless Body Area Network 285 Wirtschaftsmodell 32 Wissensreservoir, proprietäres 270 Wissensteilung 35, 87, 207, 211f., 214, 217, 219f., 222–225, 227, 256, 262, 271, 283, 291, 317, 323, 370, 382f., 393, 402, 406, 412, 440f., 462, 475, 508f., 550, 552–554, 556, 570f., 578, 581f., 585f., 592, 598 WLAN-Netze 170–172, 184, 263, 281, 320, 562

Wohlstand, ererbter 63 Wohlstandsbildung 47 Yahoo 90, 94, 197, 200 Zerstörungsrhetorik 70 Zetsche, Dieter 252 »Zombie-Cookie« 196f. Zuckerberg, Mark 67, 114f., 128f., 187, 189f., 289, 314, 323, 465–468, 470, 481, 524, 564, 570, 584f., 588 Zukunftsaussichten 38 Zuschnitt, individueller 87, 246, 294 Zwang zur Gewissheit 237 »Zweite Moderne« 24, 51, 53–56, 60f., 65f., 73–75, 90, 153, 217, 220, 226, 285, 294, 296, 301, 400, 442, 466, 495, 559, 588 Zweiter Weltkrieg 59, 134, 415, 418, 422, 432, 597

Anmerkungen

1 Das Fünf-Faktoren-Modell ist spätestens seit den 1980er-Jahren der Standard in der Persönlichkeitspsychologie, vor allem weil es sich der rechnergestützten Analyse andient. Das Modell basiert auf einer Taxonomie fünf grundlegender Persönlichkeitsdimensionen (der Big Five): Extraversion (Tendenz zu Geselligkeit, Dominanz und Frohsinn); soziale Verträglichkeit (Tendenz zu Freundlichkeit und Harmonie); Gewissenhaftigkeit (Tendenz zu langfristigem Planen, Selbstdisziplin und Fleiß); Neurotizismus (Tendenz zu Ängstlichkeit und Nervosität); Offenheit für neue Erfahrungen bzw. Intellekt bzw. Kultur (Tendenz zu Beschäftigung mit tiefsinnigen und schöngeistigen Themen).57 2

Von 2010 an war das Psychometrics Centre ein »strategisches Forschungsnetzwerk« innerhalb der Universität Cambridge, das sich über alle Disziplinen zog. Erwähnenswert ist das hier aus folgendem Grund: Als der wachsende Korpus an Ergebnissen dieser Arbeit ins Magnetfeld überwachungskapitalistischer Versorgungsoperationen geriet, sah sich das Psychometrics Centre eingeladen, an die Judge School of Business umzusiedeln. Die Aufnahme an der Judge School war explizit mit den kommerziellen Aussichten des Centres verknüpft, vor allem mit den Aussichten auf Tiefenüberschuss und Persönlichkeitsvorhersage, da sie die besten Voraussetzungen für die Produktion überwachungskapitalistischer Vorhersageprodukte mitbringen. So sagte der Direktor des Centres anlässlich seiner Integration in den Campus der Judge School und deren Forschungsprogramm: »Die digitalen Spuren, die wir hinterlassen, erlauben heute den Maschinen, unsere Online-Aktivitäten als ›Test‹ zu behandeln. Unsere Facebook-Likes, die Wörter in unseren Tweets und E-Mails und die Bilder, die wir ins Web stellen, all das liefert ›Material‹, aus dem die Maschine lernen kann, wer wir sind, was uns motiviert und antreibt und wie wir uns voneinander unterscheiden. Die Psychometrie steht in der vordersten Linie der Entwicklungen in Sachen Umgebungsintelligenz und Internet der Dinge, sie ist der Motor vernetzter Umgebungen, die wahrnehmungsfähig auf unsere Bedürfnisse reagieren.« Vom Director of Business Development der Judge School war gar noch Prononcierteres hinsichtlich des unmittelbaren kommerziellen Nutzens von Daten zu hören, die einst einzig und allein dem Versprechen eines persönlichen Feedbacks dienten: »Das Know-how bei Einschätzung, Messung und Vorhersage wird die Fähigkeiten der Cambridge Judge Business School bei der Erweiterung der Wertschöpfungsgrenzen ihres globalen Kundennetzes erheblich forcieren. Wir gedenken weltweit führenden Support bei einigen der faszinierenden Herausforderungen modernen Handels zu liefern.«62

Impressum

Die amerikanische Ausgabe The Age of Surveillance Capitalism. The Fight for a Human Future at the New Frontier of Power erscheint im Januar 2019 bei PublicAffairs, New York. Copyright © 2018 by Shoshana Zuboff ISBN 978-3-593-50930-3 Print ISBN 978-3-593-43943-3 E-Book (PDF) ISBN 978-3-593-43963-1 E-Book (EPUB) Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung ist ohne Zustimmung des Verlags unzulässig. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Trotz sorgfältiger inhaltlicher Kontrolle übernehmen wir keine Haftung für die Inhalte externer Links. Für den Inhalt der verlinkten Seiten sind ausschließlich deren Betreiber verantwortlich. Copyright © 2018. Alle deutschsprachigen Rechte bei Campus Verlag GmbH, Frankfurt am Main. Abbildungen © Shoshana Zuboff Der Abdruck der Gedichte von W. H. Auden (mit Ausnahme des Gedichts »We Too Had Known Golden Hours«) aus Anhalten alle Uhren: Gedichte Englisch / Deutsch, Zürich 2002, erfolgt mit freundlicher Genehmigung des Piper Verlags. © der deutschen Übersetzung von Hanno Helbling: 2002 Pendo Verlag in der Piper Verlag GmbH, München. Umschlaggestaltung: total italic, Thierry Wijnberg, Amsterdam/Berlin Umschlagmotiv: © Shutterstock/Macrovector

Konvertierung in EPUB: le-tex publishing services GmbH, Leipzig