217 48 19MB
German Pages 400 [398] Year 2015
Florian Sprenger, Christoph Engemann (Hg.) Internet der Dinge
Digitale Gesellschaft
Florian Sprenger, Christoph Engemann (Hg.)
Internet der Dinge Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt
Inhalt Im Netz der Dinge Zur Einleitung Florian Sprenger/Christoph Engemann | 7
Das kommende Zeitalter der Calm Technology Mark Weiser/John Seely Brown | 59
Die Vergangenheit der Zukunft Kommentar zu »Das kommende Zeitalter der Calm Technology« Florian Sprenger | 73
D ie D inge des I nternets Das Internet der Dinge, die wir nicht brauchen Ian Bogost | 89
Game of Things Michael Seemann | 101
Vom Internet zum Internet der Dinge Die neue Episteme und wir Natascha Adamowsky | 119
Die Welt als Interface Über gestenbasierte Interaktionen mit vernetzten Objekten Timo Kaerlein | 137
E pistemologien der D istribution Die Dinge tragen keine Schuld Technische Handlungsmacht und das Internet der Dinge Mercedes Bunz | 163
Rechtliche Herausforderungen des Internets der Dinge Kai Hofmann/Gerrit Hornung | 181
Gefördert mit Mitteln der DFG-Kollegforschergruppe Medienkulturen der Computersimulation und des Digital Cultures Research Labs der Leuphana Universität Lüneburg.
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2015 transcript Verlag, Bielefeld
Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Kordula Röckenhaus, Bielefeld Umschlagabbildung: Occhiali a realtà aumentata © fusolino - Fotolia Korrektorat: Niels Brockmeyer, Jessica Wawrzyniak Printed in Germany Print-ISBN 978-3-8376-3046-6 PDF-ISBN 978-3-8394-3046-0 EPUB-ISBN 978-3-7328-3046-6 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]
Animal Tagging Zur Ubiquität der smarten Tiere Ina Bolinski | 205
D ie neue A rbeit in der Ö konomie verteilter M aschinen Das Internet der Dinge, die allgemeine Ökologie und ihr Ökonomisch-Unbewusstes Jens Schröter | 225
Industrie 4.0 ante portas Paradigmenwechsel im deutschen Maschinen- und Anlagenbau Sabina Jeschke/Tammo Andersch/Karsten Schulze/Dorothée Fritsch/ Katharina Marquardt/Tobias Meisen/Anja Richert/Max Hoffmann/ Christian Tummel | 241
Sensoren der Cloud Linus Neumann | 281
Geld, Kredit und digitale Zahlung 1971/2014 Von der Kreditkarte zu Apple Pay Sebastian Gießmann | 293
U n /O rdnungen des U rbanen Programmieren von Umgebungen Environmentalität und Citizen Sensing in der smarten Stadt Jennifer Gabrys | 313
Eine geteilte Stadt Affekt, Technologie und Visuelle Kultur in London 2012 Jussi Parikka | 343
Smart Homes Zu einer Medienkultur des Wohnens Stefan Rieger | 363
Ein Internet der Dinge Keller Easterling | 383
Autorinnen und Autoren | 393
Im Netz der Dinge Zur Einleitung Florian Sprenger/Christoph Engemann
Mit der Rede vom Internet der Dinge und von Ubiquitous Computing wurde um die Jahrtausendwende die Zukunft des Computers in zumeist überaus euphorische Worte gefasst.1 Die Vernetzung vieler oder sogar aller Dinge durch Chips und Tags, ihre Ausstattung mit Sensoren und ihre feine Abstimmung aufeinander sowie auf die Bedürfnisse der User sollten dafür sorgen, die damals meist in Gestalt grauer Kisten auftretenden Computer auf eine neue Weise dienlich zu machen: unsichtbar, smart, miniaturisiert, räumlich verteilt und allgegenwärtig. Während die Aussichten dieser Zeit entweder von der New Economy verschluckt wurden oder sich als unrealistisch herausstellten, befinden wir uns heute in einer anderen Lage, die ein erstes Fazit und einen neuen, nicht mehr von Euphorie überlagerten Ausblick auf die Umgestaltung technischer, sozialer und ökonomischer Zusammenhänge möglich macht. Während damals Technikbegeisterung und historisch tradierte Phantasmen die Unzulänglichkeiten der Technik und die Trivialität vieler Anwendungen verdeckten, sind heute die Erwartungen einem technikoptimistischen Pragmatismus gewichen, der darauf abzielt, zu tun, was möglich ist. Eine ganze Reihe der damals visionierten Technologien gehört heute in Form von allgegenwärtigen Smartphones, RFID-Chips, smarten oder weniger smarten Häusern und automatisierten Autos zum Alltag. Selbst wenn manche der Anwendungen in der Tat trivial oder gar überflüssig erscheinen, wie Ian Bogosts Beitrag in diesem Band unterstreicht, ändert dies nichts an der Tatsache, dass die notwendigen technischen Infrastrukturen vorhanden sind und ausgebaut 1 | Eigenen Angaben nach prägte der britische RFID-Spezialist Kevin Ashton den Begriff Internet of Things 1999 im Rahmen einer Präsentation bei der Firma Procter & Gamble: Ashton, Kevin: »That ›Internet of Things‹ Thing«, www.rfidjournal.com/articles/view?4986, vom 20. Juli 2015; Ashton, Kevin/Sarma, Sanjay/Brock, David L.: »Networked Physical World. Proposals for Engineering the Next Generation of Computing, Commerce & Automatic-Identification«, Cambridge: MIT Auto ID Center 2000.
8
Florian Sprenger/Christoph Engemann
werden. Ihre Auswirkungen und Eingriffe in unser Leben und unser Selbstverständnis lassen sich unabhängig von der Übereinstimmung mit Erwartungen und Versprechungen nicht mehr wegdiskutieren. Sie stehen zugleich in einer Kontinuität mit tiefer reichenden Entwicklungslinien, die nicht auf den Computer beschränkt werden sollten. Wir sind konfrontiert mit Technologien, die es uns auf verschiedenen Ebenen nahelegen, Grundbegriffe wie Handlung und Arbeit, Denken und Wahrnehmen, Leben und Menschsein neu zu durchdenken. Diese Einleitung soll das Feld dieser Herausforderungen in einigen groben Zügen skizzieren, die damit verbundenen Erwartungen historisch situieren, sie mit der tatsächlichen Entwicklung kurzschließen und aufzeigen, wo heute noch unerkannte Fragen liegen könnten. Rechenkraft wandert, darin sind sich alle Beobachter einig,2 aus den Black Boxes isolierter Endgeräte zunehmend in Umgebungen aus, um dort vernetzt und kontextabhängig auf der Grundlage massenhaft gesammelter Sensordaten zu operieren: Everyware, wie sie Adam Greenfield treffend genannt hat.3 Dinge werden zu Akteuren, wenn sie im Zuge dieser Neuverteilung von Handlungsmacht beginnen, selbstständig zu agieren, indem sie nicht nur Daten sammeln, sondern auf ihrer Grundlage zukünftige Ereignisse berechnen oder gar Entscheidungen treffen, die zu diesen Ereignissen führen oder sie verhindern sollen. Programmiert und konstruiert wird weiterhin von Menschen, doch unterlaufen die zeitlichen und operativen Prozesse im Internet der Dinge deren Kapazitäten. Dies ist zwar bei jedem zeitgenössischen Computer der Fall, doch basieren die Berechnungen, die die Grundlage des Internets der Dinge sind, auf umgebungsbezogenen Sensordaten, auf der Vernetzung verteilter Bestandteile und auf ausgelagerter Rechenkraft. Deshalb liegt es durchaus nahe, von einem perzeptiven und einem kognitiven Vermögen dieser nicht zufällig smart genannten Technologien auszugehen. Damit verändert sich, so der Tenor der einschlägigen Debatten, der Status der Dinge in der Welt und zugleich die Handlungsperspektive des Menschen. Während auf technischer Ebene das Paradigma des Computers dabei ist, eine neue Relation von Mensch und Maschine anzunehmen, sind die sozialen und epistemologischen Folgen dieses Wandels bislang noch kaum durchdacht. Wir befinden uns, wie es jüngst Mark Hansen ausgedrückt hat, in einem grundlegenden Medienwandel: »From a past-directed recording platform to a data-driven anticipation of 2 | Als Beispiel seien an dieser Stelle zwei von Ulrik Ekman herausgegebene Kompendien zitiert, die das Feld abstecken: Ekman, Ulrik (Hg.): Throughout. Art and culture emerging with ubiquitous computing, Cambridge: MIT Press 2012; sowie Ekman, Ulrik/Bolter, J. D./Søndergård, Morten/Diaz, Lily/Engberg, Maria: Ubiquitous computing, complexity and culture, New York 2015. 3 | Greenfield, Adam: Everyware. The dawning age of ubiquitous computing, Berkeley: New Riders 2006.
Im Net z der Dinge
the future« 4 . Denn mit dem, was Hansen die Medien des 21. Jahrhunderts nennt, geht es nicht mehr darum, Inhalte zu repräsentieren oder an passive User zu verteilen. Vielmehr ist es Zweck der von Hansen beschriebenen Medien, auf der Grundlage von Sensordaten, die direkt in unseren Umgebungen gesammelt werden, Bewegungen, Wissen und Prozesse prädikativ zu extrapolieren, zu überwachen, zu kontrollieren und letztlich bis in die Tiefenschichten zu ökonomisieren. Seit einigen Jahren beginnen diese im Einzelnen sehr unterschiedlichen Technologien, unsere Wohnungen, unsere Häuser, unsere Städte zu durchdringen. Die Räume, die solche Technologien auf bereiten, die sie mit ihren Sensoren kontrollieren und aus denen sie Daten sammeln – seien es Wohnzimmer, Küchen, Büros, Supermärkte, öffentliche Plätze, Fahrzeuge oder Fabrikhallen –, werden als Environments, d.h. als gestaltbare Umgebungen aus Information berechnet, synthetisiert, kontrolliert und moduliert. Viele kleine, vereinzelt leistungsschwache, aber interagierende Computer sind in Alltagsgegenstände integriert, miteinander vernetzt und mit der Cloud sowie ihren Datenbanken zum Internet der Dinge verbunden. Auch wenn keine einzelne Komponente die Fähigkeiten eines Stand-Alone-Rechners erreicht, übertreffen sie in ihrer schieren Masse deren Rechenfähigkeiten um ein Vielfaches – sofern das Computing nicht gänzlich in die Cloud ausgelagert ist. Diese Kombination von Vernetzung und Neuverteilung macht die Gestalt des heutigen Internets der Dinge aus, das sich auf keine einzelne Technologie und auf kein singuläres Gerät beschränken lässt und doch in der Vielfalt von Anwendungen und Techniken eine Kohärenz aufweist. Die unüberschaubare Breite an Projekten, Angeboten und Geräten in diesem Gebiet, von Smart Clothes und Smart Gadgets über Smart Homes bis hin zu Smart Cities, macht deutlich, dass es sich beim Internet der Dinge um kein abgegrenztes Feld technischer Entwicklungen handelt, sondern um ein Zusammenkommen verschiedener Wissenschaften, Technologien, Ingenieurspraktiken, wirtschaftlicher Interessen, Imaginationen und Geschichten, das kaum einen Konsens kennt.5 Wie zur Zeit seiner ersten Imaginationen ruft das Internet der Dinge heute zugleich Begeisterung und Ängste hervor, die von einer neuen Stufe künstlicher Intelligenz über die Eskalation globaler Überwachung bis hin zur Aufhebung der Grenze zwischen Menschen und Nicht-Menschen reichen. Die Befürworter versprechen sich Erleichterungen des Alltags, neue Marktchancen durch Anwendungen im Konsumentenbereich und in der Logistik, aber auch für die Gesundheitsfürsorge. Die Kritiker des Internets der 4 | Hansen, Mark B. N.: Feed-forward. On the future of twenty-first-century media, Chicago: University of Chicago Press 2014, S. 4. 5 | Vgl. als Überblick über die frühen technischen Entwicklungen Want, Roy: »An Intro duction to Ubiquitous Computing«, in: John Krumm (Hg.), Ubiquitous Computing Fundamentals, Boca Raton: Chapman & Hall 2010, S. 1-35.
9
10
Florian Sprenger/Christoph Engemann
Dinge befürchten vor allem, dass diese unsichtbaren und vernetzten Computer eine neue Qualität der Überwachung und Ökonomisierung der Welt mit sich bringen. ›Internet der Dinge‹ dient in diesen Debatten ebenso wie Ubiquitous Computing notwendigerweise als Sammelbegriff für unterschiedliche Ansätze, die jedoch spezifische Vorstellungen von der Zukunft des Computers und seiner Technologien teilen.6 An diesen gemeinsamen Vorstellungen kann in einer ersten Annäherung angesetzt werden, um zu verstehen, worum es mit dem Internet der Dinge geht. Nicht länger als unattraktive Rechenmaschinen, sondern in alle Geräte oder schlicht alle Dinge eingebaut, sollten Computer, so die Visionen der Anfangszeit, unauffällig und effektiv die lästigen, aber notwendigen Aufgaben erledigen, die uns von den wirklich wichtigen Bestandteilen unseres Lebens abhalten. Die berühmten ersten Sätze von Mark Weisers Aufsatz »The Computer for the 21st Century« kündigen dieses Zeitalter an: »The most profound technologies are those that disappear. They weave themselves into the fabric of everyday life until they are indistinguishable from it.« 7 Dabei sollte der Anwendungsbereich des drahtlos vernetzten oder verkabelten Computers ebenso ausgeweitet werden wie die Zahl derjenigen, die für seine Potentiale Verwendung haben. Bereits in den 1990er Jahren wurde offensichtlich, dass der Singular Computer eine kaum noch überschaubare Vielzahl an Erscheinungsformen in sich aufzunehmen begann. Zeitgenössische Beobachter teilten die Erfahrung, dass zunächst ein Computer pro Firma, dann ein Minicomputer genannter Rechner pro Abteilung und schließlich ein Personal Computer pro Schreibtisch angeschafft wurde. Spätestens zu diesem Zeitpunkt wurden Computer auch für Privatpersonen erschwinglich und verließen die Büros, um in die privaten Wohn- und Arbeitszimmer einzuwandern und allgemeine Akzeptanz zu gewinnen. Das Versprechen des PCs wies bereits auf die Person selbst und es wurde absehbar, dass bald nicht nur jeder Angestellte, sondern jeder Haushalt nicht bloß einen persönlichen Computer haben würde, sondern mehrere. Eben hier sollten neue Entwicklungen ansetzen, weil die Beschränkungen des PCParadigmas offensichtlich wurden. Die Geräte waren unhandlich, kompliziert und gerade für den Hausgebrauch oftmals dysfunktional. Die fortschreitende Miniaturisierung von Chips sollte stattdessen die Welt der Dinge mit digitalen 6 | Das Internet der Dinge und Ubiquitous Computing sollten trotz aller Ähnlichkeiten und vergleichbaren Aufladungen mit Erwartungen nicht miteinander verwechselt werden. Während das Internet der Dinge alle Dinge an ein globales Netz anschließen soll, müssen die Dinge des Ubiquitous Computings nicht über lokale Netzwerke hinaus und unter Umständen gar nicht vernetzt sein. 7 | Weiser, Mark: »The Computer for the 21st Century«, in: Scientific American 265/3 (1991), S. 94-104, hier: S. 94. Vgl. auch Alpsancar, Suzana: Das Ding namens Computer. Eine kritische Neulektüre von Vilém Flusser und Mark Weiser. Bielefeld: transcript 2012.
Im Net z der Dinge
Maschinen durchsetzen und somit jedes Ding potentiell ein Computer sein können. Die gleichzeitig einsetzende Vernetzung sowohl lokaler Rechensysteme mittels des Ethernets als auch die Möglichkeiten eines globalen Internets bereiteten den Boden für neuartige Vorstellungen der Relationen von Rechnern und Menschen und Rechnern. Entsprechend hat die smarte Vernetzung, wie wir heute sehen, Auswirkungen auf nahezu alle Bereiche, die mit Computern in Beziehung stehen und wird in den einschlägigen, von diesem Band fortgesetzten Debatten als Transformation des Verhältnisses von Mensch und Welt durch Computer beschrieben. Verschoben oder gar aufgehoben wird damit mehr oder weniger explizit die Grenze von menschlichen und nichtmenschlichen Akteuren hin zu einer »Dingpolitik« 8, wie sie in den letzten Jahren auch in philosophischen Strömungen populär geworden ist. Deshalb ist es notwendig, den heutigen Wandel ubiquitärer Medien und seine vielfältigen Effekte nicht allein auf die Digitalisierung und Vernetzung des Alltags, auf soziale Medien und die Potentiale der Kalkulierbarkeit zu beziehen. Das Internet der Dinge kann, dies wird heute offensichtlich, kaum noch von Endgeräten her verstanden werden, sondern sollte vielmehr in seiner infrastrukturellen, umgebenden und temporalen Dimension durchdacht werden. Doch wir haben es mit mehr als einer Überlagerung der Welt mit den Netzen eines Internets zu tun. Die Welt des Internets der Dinge impliziert eine Ontologie, in der es nur das gibt, was vernetzt ist. Diese Ontologie ist eng verbunden mit der Geschichte des Computers. Die in den 1990er Jahren imaginierte Generation von Computern sollte, durchaus in Reaktion auf den Sachverhalt, dass Informationstechnologien verschiedene Gestalten anzunehmen begannen, keine neue Form hinzufügen, sondern die Definition dessen betreffen, was Computer genannt wurde. Diese Neudefinition ist seitdem um uns herum technisch vollzogen worden, theoretisch aber noch kaum eingeholt. Eine zentrale Herausforderung bei der Betrachtung des Internets der Dinge liegt also auf konzeptueller Ebene: Wovon sprechen wir, wenn wir vom Internet der Dinge sprechen? Ist das Internet der Dinge überhaupt ein Internet? Sind seine Dinge noch Dinge? Die Beschäftigung mit der Vielzahl technischer Gegenstände, die heute smart genannt werden, impliziert zwar keine Abwendung, aber doch eine Re-Zentrierung von Rechnertechnologien, die in Form singulärer Kalkulationsgeräte allzu oft monothematisch für 8 | Vgl. Latour, Bruno: Von der ›Realpolitik‹ zur ›Dingpolitik‹ oder wie man Dinge öffentlich macht, Berlin: Merve 2005. Es böte sich an, in einer weitergehenden Auseinandersetzung die objektorientierten Philosophien der Gegenwart auf die objektorientierten Technologien des Internets der Dinge zu beziehen und nach ihrer historischen Koinzidenz zu fragen. Erste Überlegungen dazu finden sich in Galloway, Alexander: »The Poverty of Philosophy: Realism and Post-Fordism«, in: Critical Inquiry 39 (2013), S. 347-366.
11
12
Florian Sprenger/Christoph Engemann
gegenwärtige Medientechnologien stehen oder aber als soziale Medien ohne technische Infrastrukturen missverstanden werden. Daher gilt es – und diese Offenheit zieht sich durch alle hier versammelten Beiträge –, sich noch einmal und vielleicht immer wieder vom einem aus Dingen bestehenden Internet irritieren zu lassen, seiner Vielgestaltigkeit zu begegnen und die Breite der Fragen, die von ihm aufgeworfen werden, ernstzunehmen. Die Aufsätze dieses Bandes addieren entsprechend verschiedene Perspektiven, Abstraktionsebenen, Herangehensweisen und Traditionen zu einem Panorama. Die Autorinnen und Autoren sind Praktiker wie Theoretiker und kommen aus unterschiedlichen Feldern – der Politik, der Kultur- und Medienwissenschaft, dem Netzaktivismus, dem Journalismus, der Wirtschaft, der Technik, der Soziologie, der Rechtswissenschaft. Wie sich in den letzten Jahren gezeigt hat, können die Phänomene digitaler Kulturen, insofern sie die genannten kategorialen Herausforderungen stellen, nur mit einer Selbstverständlichkeit interdisziplinären Arbeitens angegangen werden. Auch zu diesem Selbstverständnis einer Medienwissenschaft digitaler Kulturen möchte der vorliegende Sammelband einen Beitrag liefern.
M iniaturisierung , A dressierung , V erne t zung – Z ur G eschichte des I nterne ts der D inge Für die Situierung der entsprechenden Technologien und der in diesem Band versammelten Beiträge, ist es sinnvoll, einleitend die Linien zu skizzieren, die zur gegenwärtigen Entwicklung des Internets der Dinge geführt haben. Die Rede vom Internet der Dinge geht auf den Titel einer Präsentation des britischen Unternehmers Kevin Ashton im Jahre 1999 zurück.9 In seinem Vortrag erläuterte Ashton seine Erfahrungen mit der RFID-Technik (Radio Frequency Identification), die er als Manager beim Konsumartikelhersteller Procter & Gamble gesammelt hatte. Inzwischen Mitbegründer des MIT Auto-ID Centers, eines Instituts mit dem sprechenden Namen Zentrum für Selbstidentifikations-Techniken, war Ashton davon überzeugt, dass die Warenströme der Logistik mit funkbasierten Etiketten effizienter zu organisieren wären. Gegenwärtig wird das Internet der Dinge im regelmäßig veröffentlichten Hype-CycleReport der renommierten Unternehmensberatung Gartner auf dem Scheitelpunkt zwischen Hype und langsam einsetzender Desillusionierung verortet.10 Erst nach dieser Enttäuschung setze Gartner zufolge die eigentlich produktive und wertschöpfende Phase einer Technologie ein. 9 | Ashton: »That ›Internet of Things‹ Thing«. 10 | Rivera, Janessa/van der Meulen, Rob: »Gartner’s 2014 Hype Cycle for Emerging Technologies Maps the Journey to Digital Business«, www.gartner.com/newsroom/id/ 2819918, vom 21. Juli 2015.
Im Net z der Dinge
Abbildung 1: Gartner Hype Cycle 2015
Quelle: www.gartner.com/newsroom/id/3114217 vom 18. August 2015
Von Beginn an scheint das Internet der Dinge also auf dem Höhepunkt eines Hypes zu stehen. Es wurde bislang fast ausschließlich als Technologie am Wendepunkt begriffen, als Versprechen auf zukünftige Entwicklungen, als Wette auf Kommendes.11 Daher ist es an der Zeit, sich vom vermeintlichen Status Quo einer unmittelbar bevorstehenden Revolution zu lösen und vielmehr in den Blick zu nehmen, was im Konkreten geschieht und welche politischen, sozialen und kulturellen Folgen heute erkennbar werden. Verstehen wird man diese Entwicklungen aber erst, wenn man die Aufladungen, Erwartungen und Phantasmen berücksichtigt, die mit ihm verbunden sind. Noch haben sich keine Marktführer dieser Technik herausgebildet. Dennoch zeigen Beispiele wie Smart Clothes12, Fitbit, Google Nest, die Apple Watch, die Debatten um auto11 | Entsprechend Dourish, Paul/Bell, Genevieve: Divining a digital future. Mess and mythology in ubiquitous computing, Cambridge, Mass: MIT Press 2011. Vgl. zu den Visionen des Ubiquitous Computings auch Adamowsky, Natascha: »Smarte Götter und magische Maschinen. Zur Virulenz vormoderner Argumentationsmuster in Ubiquitouscomputing-Visionen«, in: Friedemann Mattern (Hg.), Total vernetzt. Szenarien einer informatisierten Welt, Berlin: Springer 2003, S. 231-247; sowie Kinsley, Sam: »Anticipating ubiquitous computing. Logics to forecast technological futures«, in: Geoforum 42 (2012), S. 231-240. 12 | Andrejevic, Mark: »Nothing Comes Between Me and My CPU: Smart Clothes and ›Ubiquitous‹ Computing«, in: Theory, Culture & Society 22 (2005), S. 101-119.
13
14
Florian Sprenger/Christoph Engemann
nome Fahrzeuge ebenso wie die Angriffe auf industrielle SCADA-Steuerungsanlagen13, dass das Internet der Dinge im Jahre 2015 in verschiedenen, nicht immer vorhergesagten Formen Realität geworden ist. In ihr konvergieren drei größere Trends, die sich teilweise unabhängig voneinander entwickelt haben: Ubiquitous Computing, RFID und das Cloud-Computing mit Big Data. Grob können sie mit den drei übergeordneten Entwicklungen der Miniaturisierung, der Adressierung und der Vernetzung identifiziert werden.
Ubiquitous Computing Ubiquitous Computing wurde in den 1990er Jahren am kalifornischen Xerox Palo Alto Research Center (PARC) geprägt und entwickelt. Das Team um den dortigen Computerpionier Mark Weiser verstand darunter eine fundamentale Verlagerung der Computer weg von den Schreibtischen und Serverräumen hin in den umgebenden Hintergrund, wie auch der in diesem Band erstmals in deutscher Übersetzung vorliegende Aufsatz »Das kommende Zeitalter der Calm Technology« von John Seely Brown und Mark Weiser zeigt. Treiber dieser Visionen war die fortschreitende Miniaturisierung der Computerchips. Bereits in den 1980er Jahren wurde absehbar, dass die Moore’s Gesetz14 folgende Steigerung der Rechenleistung und gleichzeitige Verringerung des Energieverbrauchs15 digitaler Bauteile bald gänzliche neue Computer-Formate ermöglichen würde. Nicht nur würden diese klein genug werden, um in der Hand 13 | SCADA steht für Supervisory Control And Data Acquisition und bezeichnet die Kontrollinterfaces für industrielle Steuerungsanlagen. Wie Hacker u.a. des Chaos Computer Clubs wiederholt gezeigt haben, sind diese für kritische Infrastrukturen zentralen Systeme häufig mit dem Internet verbunden und von dort aus einfach manipulierbar. Siehe http://www events.ccc.de/congress/2014/wiki/scadafun, vom 05. August 2015. Zum Zusammenhang von industriellen Steuerungssystemen und SCADA-Interfaces bei den Stuxnet-Angriffen auf iranische Atomanlagen siehe: Langner, Ralph: »To Kill a Centrifuge. A Technical Analysis of What Stuxnet’s Creators Tried to Achieve«, www.langner.com/ en/wp-content/uploads/2013/11/To-kill-a-centrifuge.pdf, vom 11. August 2015. 14 | Vom Intel-Gründer Gordon Moore 1965 aufgestellte und seitdem tatsächlich eingetretene Behauptung, dass sich die Anzahl der Transistoren und damit die Rechenleistung von Computerchips alle 18 Monate verdopple. 15 | Seit 2010 wird dieses Phänomen mit dem Begriff Koomey’s Law belegt: Der amerikanische Informatiker Jonathan Koomey stellte mit seinem Team in einer historischen Analyse fest, dass seit ca. 1955 die Rechenleistung pro Joule Energie sich etwa alle 1,6 Jahre verdoppelt. Pro Dekade nimmt damit die Energieeffizienz von Computern etwa um den Faktor 100 zu. Vgl. Koomey, Jonathan et al.: »Implications of Historical Trends in the Electrical Efficiency of Computing«, IEEE Annals of the History of Computing 33/3 (2010), S. 46-54.
Im Net z der Dinge
gehalten werden zu können. Es wird zu diesem Zeitpunkt auch denkbar, stecknadelkopfgroße Computer in die Dinge der Umgebung zu implementieren. Computer sollten somit, wie Florian Sprengers Kommentar zu Browns und Weisers Text vorführt, sowohl allgegenwärtig und ubiquitär als auch quasi unsichtbar werden. Weiser bezog sich in seinen Beispielen für das Ubiquitous Computing auf zwei Situationen: Büroumgebungen, wie sie beim Bürogerätehersteller Xerox erforscht wurden, und das häusliche Wohnen. Beide, so betont Weiser in seinen Schriften immer wieder, würden sich durch die Vielzahl der im Hintergrund tätigen Assistentensysteme fundamental ändern. Wie an den aktuellen Beispielen der Industrielogistik und der SCADA-Steuerungen sowie der Popularität von Smart Homes deutlich wird, hat Weiser in dieser Hinsicht Recht behalten. Dennoch tragen seine in den 1990er Jahren entstandenen Projekte einen deutlichen Stempel ihrer Zeit. Die Infrastrukturen der Vernetzung ubiquitärer Computer wurden zwar auch als mit dem Internet verbunden gedacht. Weiser ging aber von relativ lokal verbleibenden Datenströmen und Verarbeitungsprozessen aus. Visioniert wurden computerisierte und technisch durchdrungene Häuser, Büroensembles oder einzelne Fabriken, innerhalb derer die Koordination und das Prozessieren der jeweiligen Daten stattfinden sollte. Die Infrastrukturen des Ubiquitous Computings haben in Weisers Vision zwar globalen Anschluss, sind aber fundamental lokal. Wie die Beiträge von Natascha Adamowsky, Linus Neumann und Michael Seemann in diesem Buch zeigen, ist die tatsächliche Entwicklung an dieser Stelle anders verlaufen als zu dieser Zeit geplant. Mit dem Internet der Dinge wird, so diese Autoren, das Lokale zu einer anzuzapfenden Datenquelle. Anders als von Weiser erwartet, werden die entscheidenden Rechenoperationen heute an entfernten Orten getätigt. Für die Genealogie des Internets der Dinge sind die bei PARC erarbeiteten Visionen des ubiquitären Computings dennoch von zentraler Bedeutung. Viele Entwicklungen, von Handhelds bis hin zu Tablets, wurden an diesem Ort nicht nur luzide vorausgesehen, sondern auch patentiert, in prototypischer Form gebaut, mittels eigens entwickelter Protokolle vernetzt und im Büround Lebensalltag erprobt. Bereits 1992, noch bevor das Internet öffentlich wurde, hantierte man hier mit Geräten, die erst zwanzig Jahre später tatsächlich alltäglich sein sollten. So ist es kein Wunder, dass die heutige Produktpalette von Apple exakt die Gerätetypen umfasst, die vor 20 Jahren bei PARC entworfen wurden – zu einer Zeit, als Xerox Aktien von Apple besaß und Apple die Patente von Xerox nutzen durfte.16 Wesentliche Ideen und Konzepte einer smarten Vernetzung der Dinge wurden an diesem Ort auch in ihren 16 | Vgl. Hiltzik, Michael A.: Dealers of lightning. Xerox PARC and the dawn of the computer age, New York: Harper Business 1999.
15
16
Florian Sprenger/Christoph Engemann
philosophischen und sozialen Konsequenzen durchdacht. Die resultierenden Ansätze dienten in den folgenden Jahrzehnten als Bezugspunkt für die Entwicklung von digitalen Medien.
Radio Frequency Identification Neben dem Ubiqitous Computing sind die Entwicklungen der RFID-Technologie der zweite wichtige Bestandteil einer Genealogie des heutigen Internets der Dinge. RFID steht für Radio Frequency Identification und trägt mit dem Begriff ›Identifikation‹ schon einen zentralen Bestandteil des Internets der Dinge im Namen. Die Dinge sollen adressierbar werden, d.h. innerhalb eines Netzwerks unter einer bestimmten und eindeutigen Adresse erreichbar sein. In den frühen 1970er Jahren waren in der Computerisierung des Handels Barcodes eingeführt worden.17 RFID war ursprünglich als Weiterentwicklung des Barcodes gedacht, die zwei wesentliche Nachteile überwinden sollte: erstens seine begrenzte Datenmenge und zweitens das aufwendige Scannen vor einem Laserdetektor durch menschliche Operateure. RFID-Etiketten sollten gänzlich automatisch ausgelesen werden können und darüber hinaus nicht nur einen auf eine Artikelklasse verweisenden Code speichern, sondern für jedes Produkt eine individuelle Adresse ermöglichen.18 Als bekannteste und am stärksten verbreitete Technologie der Adressierbarmachung basieren RFIDChips, wie Christoph Rosols eingehende historische Darstellung gezeigt hat,19 ebenfalls auf der Strukturverkleinerung digitaler Bauteile. Es handelt sich um Kleinstcomputer mit Maßen von weniger als einem Millimeter. Mit einer Antenne ausgestattet, beziehen sie Strom über die Induktion in einem Funkfeld und benötigen keine Batterien. Entscheidend an RFID-Chips ist, dass sie nicht dauerhaft senden, sondern das vom Scanner erzeugte Feld modulieren und durch Induktion Energie für Eigenprozesse erzeugen. In der zweiten Hälfte der 1990er Jahre entstanden im Kontext der ersten praktikablen RFIDImplementierungen Vorstellungen wie die vom anfangs angeführten Urheber des Internet of Things-Begriffs Kevin Ashton: Jedes Ding solle mittels eines RFID-Tags vom Internet aus adressierbar sein und sich in den globalen Logis17 | Vgl.: Sarma, Sanjay: »A History of the EPC«, in: Simon Garfinkel/Henry Holtzman (Hg.): RFID: Applications, Security, and Privacy, Boston: Addison-Wesley 2005, S. 3757, hier S. 41 f. Außerdem: Vinik, Danny: »The Internet of Things: An oral history«, www. politico.com/agenda/story/2015/06/history-of-internet-of-things-000104 vom 27. Juli 2015. 18 | Sarma: »A History of the EPC«, S. 39 f.; Vgl. auch Vinik: »The Internet of Things: An oral history«. 19 | Vgl. Rosol, Christoph: RFID. Vom Ursprung einer (all)gegenwärtigen Kulturtechnologie, Berlin: Kadmos 2007.
Im Net z der Dinge
tikketten nach dem erfolgreichen Vorbild digitaler Packet Switching-Netzwerke selbst seinen Weg suchen. So könnten sich die logistischen Netzwerke im Handel und in der Industrie selbstständig koordinieren und enorme Effizienzgewinne erzielen,20 während zugleich, wie Katherine Hayles betont hat, eine räumliche Verteilung kognitiver Vermögen stattfand.21 Auch in diesen Debatten ist in zweierlei Hinsicht ein spezifischer Zeitindex auszumachen. Erstens wird die Bedeutung von Mesh-Netzwerken22 zwischen den RFID-Systemen betont und eine lokale, spontane und temporäre Form der Koordination visioniert.23 Zweitens, und nicht im Widerspruch dazu, gehen die RFID-Diskurse um das Jahr 2000 von einem weitgehenden Verbleib der Daten in der Enterprise-Ressource-Management-Software des jeweiligen Unternehmens aus. Ein Internet der Dinge ist in dieser Vision vor allem ein entsprechendes SAP-Modul,24 das an entscheidenden Zeitpunkten der Koordination aus RFID-befähigten Logistikketten Daten empfängt bzw. entscheidungskritische Daten zur Verfügung stellt.25 Nach der Jahrtausendwende löste sich diese Idee teilweise von den konkreten RFID-Tags, da konkurrierende und alternative Methoden vor allem auf der Ebene der Protokolle erforscht und implementiert wurden.26 Von der RFID-Technik wird bei diesen Forschungsprojekten vor allem der Fokus auf die Verringerung des Energieverbrauchs bis hin zur passiven Stromversorgung als wichtiges Motiv übernommen. Trotz des zeitlichen Indexes bleibt das Zentralstück dieses Diskurses wichtig: die Idee, dass jedes Ding eine Adresse hat und nur dadurch Teil von Netzen 20 | Vgl. zum historischen Hintergrund dieser Entwicklung Dommann, Monika: »Handling, Flowcharts, Logistik. Zur Wissensgeschichte und Materialkultur von Warenflüssen«, in: Nach Feierabend 7 (2011), S. 75-103; sowie Neubert, Christoph: »Onto-Logistik. Kommunikation und Steuerung im Internet der Dinge«, in: Archiv für Mediengeschichte 8 (2008), S. 119-133. 21 | Vgl, Hayles, N. Katherine: »RFID. Human Agency and Meaning in Information-Intensive Environments«, in: Theory, Culture & Society 26 (2009), S. 47-72. 22 | Mesh-Networking ist der Oberbegriff für Verfahren der spontanen und lokalen Vernetzung von Entitäten, die sich temporär oder dauerhaft in Nachbarschaft befinden. 23 | Haller, Stephan/Hodges, Steve: »The Need for a Universal Smart Sensor Network«, Cambridge: MIT Auto ID Center 2002, S. 10 f. 24 | SAP ist eine markbeherrschende Unternehmensorganisationssoftware, die modular erweitert werden kann. 25 | Roberti, Mark: »Auto-ID Center: Technology Guide«, Cambridge: MIT Auto ID Center 2002, S. 3. 26 | Insbesondere ZigBee, Z-Wave, aber auch BlueTooth, vgl. Vermesan, Ovidiu/Friess, Peter (Hg.): Internet of Things – From Research and Innovation to Market Development, Delft: River Publishers 2014, S. 98; daCosta, Francis: Rethinking the Internet of Things: A Scalable Approach to Connecting Everything, New York: APress Open 2014, S. 53 f.
17
18
Florian Sprenger/Christoph Engemann
werden kann. In dieser Diskursivierung und Verfertigung von Formaten und Methoden der Adressierung von Dingen liegt der essentielle Beitrag der RFIDDebatte zur Entwicklung des Internets der Dinge. In diesem Kontext erlaubt eine eindeutige Adressierung nicht nur ein räumliches und zeitliches Tracking, eine bilanzierende Indexierung der zurückgelegten Wege und damit eine Datenerhebung, die zur Optimierung der Abläufe genutzt werden kann. Darüber hinaus ist mit der Adressierung aller Objekte die bereits erwähnte Ontologie verbunden, für die nur das existiert, was eine Adresse hat und vernetzt ist.
Cloud Computing Der dritte Aspekt der Genealogie des heutigen Internets der Dinge sind die seit etwa 2006 entstandenen Infrastrukturen des Cloud Computings und die damit einhergehende Aggregation und Auswertung großer Datenmengen, die unter dem Schlagwort Big Data verhandelt werden.27 Strukturell ist Big Data durch eine Verschränkung von Verbreitung und Konzentration gekennzeichnet. Auf der einen Seite steht die Quantität von Smartphones und Tablets als alltagstaugliche, allzeit präsente und mit einer Vielzahl von Sensoren bestückte Datenquellen. Victor Mayer-Schönhuber und Kenneth Cukier bezeichnen diesen Prozess, der insbesondere auf den Aufstieg der sozialen Medien und das gleichzeitige Aufkommen von Smartphones ab etwa 2006 zurückgeht, als »Datafication«.28 Auf der anderen Seite stehen Anbieter wie Google, Facebook, Amazon, Microsoft und Apple, deren Angebote weltweit mehr als 80 Prozent des Traffics für diese Endgeräte auf sich vereinen. Dabei ist die Datensammlung in Datencentern integraler Bestandteil der Angebote und Services dieser Firmen. Nicht nur beim Streaming von Audio und Video, auch beim OnlineShopping und in sozialen Medien liegen die relevanten Daten in der Cloud. 27 | Vgl. Brown, John Seely/Hagel, John: »Cloud Computing – Storms on the Horizon«, www.johnseelybrown.com/cloudcomputingdisruption.pdf, vom 11. August 2015. Vgl. für den deutschen Diskurs Schirrmacher, Frank: »Der verwettete Mensch«, in: Geiselberger/Moorstedt (Hg.): Big Data. Das neue Versprechen der Allwissenheit, Berlin: Suhrkamp 2013, S. 273-280.Vgl. auch: Reichert, Ramón; Einführung«, in: ders. (Hg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld: transcript 2014, S. 9-31. 28 | Mayer-Schönberger, Victor/Cukier, Kenneth: Big Data – A Revolution that will change how we live, work and think, London: John Murray Publishers 2013, S. 94 f.; vgl. auch Theo Röhles Darstellung der Datengewinnung im Kontext von Suchmaschinen: Röhle, Theo: Der Google-Komplex. Über Macht im Zeitalter des Internets, Bielefeld: transcript 2010, S. 87 f. & 167 f., sowie Engemann, Christoph: »You cannot not transact. Big Data und Transaktionalität«, in: Ramón Reichert (Hg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld: transcript 2014, S. 365-384.
Im Net z der Dinge
Google könnte ohne eine permanente Speicherung, Indexierung und Auswertung quasi des gesamten Webs ebensowenig eine Suche anbieten wie Facebook die Vernetzung mit einer beliebigen Person ermöglichen. Obwohl also, wie von Mark Weiser in seinen Konzepten des Ubiquitous Computing richtig erahnt, immer mehr Rechenkraft in die Hände der Nutzer gerät und Handhelds oder Tablets inzwischen Realität sind, findet derzeit immer weniger ›Computing at the Edge‹ statt.29 Mit der ›Edge‹ ist der äußere Rand des Internets gemeint, also die Geräte an den anwenderseitigen Internetanschlüssen: die Computer, Handys, Tablets und Dinge des Internets der Dinge, die Anschluss finden sollen. Ihre Rechenleistung steigt nach wie vor stetig. Dennoch findet das wesentliche Computing in Datencentern und nicht an der ›Edge‹ statt. Vielmehr dient das ›Computing at the Edge‹ vor allem zwei Zielen: erstens der Darstellung und Darbietung von an entfernten Orten – nämlich in Datacentern – aus Big Data-Analysen berechneten Inhalten. Zweitens steht die Rechenkraft der Gadgets im Dienst ihrer Sensorik: Smart Clothes, Bewegungstracker, Mikrophone und Kameras weisen immer höhere Auflösungen auf und liefern immer mehr Daten in die Cloud der Datencenter, um dort in weiteren Big Data-Analyseläufen ausgewertet zu werden.
W andlungen der M ärk te Das Geschäftsmodell, Nutzer zu Datengeneratoren zu machen und ihnen im Gegenzug kostenlose Services anzubieten, die just aus dem Verkauf der von ihnen gelieferten Daten finanziert sind, hat sich als überaus erfolgreich erwiesen und bildet die Grundlage für das heutige Internet.30 Bruce Sterling nennt die oben genannten Firmen: Google, Facebook, Amazon, Microsoft und Apple die »Big-Five« und bezeichnet sie als »Stacks« – vertikal integrierte Unternehmen, die Feedbackschleifen aus nutzerbasierter Datengeneration und zentralisierter Aggregation und Auswertung großer Datenmengen aufgebaut haben. »The Internet of Things is basically a recognition by other power-players that the methods of the Big Five have won, and that they should be emulated.«31 Tatsächlich sind diese Firmen inzwischen marktbeherrschende Akteure im Internet der Dinge und sehen darin eine Chance zur weiteren Eskalation ihrer Datenquellen für Big Data-Analysen. Die Apple Watch, Googles 29 | Vgl. kritisch dazu: Spindler, Martin: »The Center and the Edge«, http://mjays.net/ the-center-and-the-edge/, vom 26. Juli 2015. 30 | Vgl. Kaldrack, Irina/Leeker, Martina (Hg.): There is no Software, there are only Services, Lüneburg: Meson Press 2015. 31 | Sterling, Bruce: The Epic Struggle of the Internet of Things, Moskau: Strelka Press 2015, S. 7.
19
20
Florian Sprenger/Christoph Engemann
Nest, Amazons Echo, Microsofts Fitnesstracking-Armband und Facebooks Integration von Bilderkennungssoftware zeigen dies deutlich. Der Nest-Designer Tony Fadell beispielsweise hat deutlich ausgesprochen, das bei einem Objekt wie einem Thermostat, das nur sehr selten ausgetauscht oder gewartet wird, Services der Weg sind, Geld zu verdienen: »We’ll get more and more services revenue because the hardware sits on the wall for a decade.«32 Zugleich ist einschränkend anzumerken, dass beim Wandel vom Minicomputer zum PC, vom PC zum Internet und vom Internet zu mobilen Medien die jeweils marktbeherrschenden Unternehmen von neuen Anbietern verdrängt wurden. Im Zuge der Einführung des PCs trat Microsoft an die Stelle des zuvor jahrzehntelang dominierenden Unternehmens IBM. Microsoft selbst geriet in den 1990er Jahren ins Hintertreffen, da Firmen wie Netscape und Google im Internet erfolgreicher waren. Mit dem Aufkommen der Smartphones schließlich wurden Firmen wie Apple, aber auch Facebook zu den dominierenden Anbietern. Es ist nicht ausgemacht, dass der Wandel zum Internet der Dinge nicht zu neuerlichen Verschiebungen in den Marktverhältnissen führt und die von Sterling als dominant identifizierten Stacks ihre Vormachtstellung einbüßen. Wie in diesem Band der Beitrag von Sebastian Gießmann verdeutlicht, sind die technischen, organisatorischen und juristischen Fragen nach den Monetarisierungsformaten des Internets der Dinge bislang offen. Das gilt umso mehr, als das unter diesem Begriff substanzielle Veränderungen in mindestens fünf sehr unterschiedlichen Märkten erwartet werden: erstens im Konsumentenmarkt mit seinen Fitnesstrackern, Ambient Assisted Living-Systemen, Smart Clothing, Heimautomationssystemen und Mobilitätsservices wie Uber oder iDrive von BMW; zweitens in der industriellen Fertigung und Logistik, die unter den Schlagworten »Industrie 4.0« (Deutschland) oder »Industrial Internet« (USA) zugleich massive Effizienzsteigerungen wie individualisierte Produktion erleben soll; drittens im Bereich der Infrastrukturen wie dem Stromnetz, wo das so genannte Smart Grid und als Smart Meter bezeichnete computerisierte Stromzähler dezentrale und verbrauchsoptimierte Stromversorgung ermöglichen sollen. Für Verkehrswege wie für die Wasserversorgung werden durch Sensornetzwerke neuartige Steuerungslogiken erwartet; viertens in der Gesundheitsversorgung, wo neben den schon genannten Fitnesstrackern vernetzte Medikamentenpumpen oder Insulingeräte bereits Realität sind, während für die Krankenhauslogistik und für die ambulante Versorgung durch das Internet der Dinge sowohl Effizienzgewinne wie auch neuartige Diagnose- und Behandlungsmöglichkeiten erhofft werden; sowie fünftens, und weniger bekannt, in der agrarindustriellen Produktion, die bereits heute, 32 | Olson, Parmy: »The Quantified Other: Nest and Fitbit Chase A Lucrative Side Business«, www.forbes.com/sites/parmyolson/2014/04/17/the-quantified-other-nest-andfitbit-chase-a-lucrative-side-business/, vom 26. Juli 2015.
Im Net z der Dinge
wie der Beitrag von Ina Bolinski zeigt, Schauplatz des intensiven Einsatzes von vernetzenden Technologien in der Tiermast und der Feldbewirtschaftung ist, wo Sensoren Nahrungsaufnahme und Bewegungsprofile der Nutztiere protokollieren und auf den Feldern Bewässerungs- und Düngezeiten dem lokalen Wetter entsprechend organisiert werden.33 Öffentliche Aufmerksamkeit finden vor allem jene Produkte des Internets der Dinge, die auf Konsumenten abzielen. Die Apple Watch, Google Glass oder das Nest-Thermostat sind in die Plattformen von Anbietern wie Apple bzw. Google integriert. Die anderen genannten Bereiche sind jedoch in ihrer wirtschaftlichen Bedeutung und transformativen Potenz ebenso wichtig und könnten sowohl für die Entwicklung der medientechnischen Gestalt des Internets der Dinge Impulse geben wie auch die entscheidenden Monetarisierungsmodelle hervorbringen. Insbesondere öffentliche Infrastrukturen und das Gesundheitswesen sind hochregulierte Bereiche, in denen der Staat als Akteur agiert und regelgebend interveniert. Da das Internet der Dinge die Grenzen zwischen den genannten Bereichen häufig überschreitet und neu definieren wird, ist die Regulationsfrage einerseits offen, kann aber andererseits für den Markterfolg oder das Marktversagen einzelner Anbieter und Projekte entscheidend sein. Zugleich erwarten skeptische Beobachter wie Evgeny Morozov gerade mit dem Internet der Dinge eine weitere Schwächung und schleichende Delegitimierung klassischer staatlicher Interventionspotenz: »Thanks to sensors and internet connectivity, the most banal everyday objects have acquired tremendous power to regulate behaviour.«34 Die Effizienzgewinne solcher auf dem Potential individueller Adressierung basierender »algorithmic regulation« geraten Morozov zufolge in Konkurrenz zu hergebrachten staatlichen Legitimationsformaten: »Why rely on laws when one has sensors and feedback mechanisms?«35 In der »algorithmic regulation« – und hier zitiert Morozov einen unveröffentlichten Vortrag von Giorgio Agamben – trete eine epochale Verkehrung der Formen des Regierens ein: »[C]auses and effects are inverted, so that, instead of governing the causes – a difficult and expensive undertaking – governments simply try to govern the effects.«36 Die Proponenten dieses Wandels verortet Morozov, wie schon in seinem 2013 erschienenen Buch To Save everything click here im technolibertären Umfeld der großen Firmen
33 | Vgl. auch Benson, Etienne: Wired wilderness. Technologies of tracking and the making of modern wildlife, Baltimore: Johns Hopkins University Press 2010. 34 | Morozov, Evgeny: »The rise of data and the death of politics«, in: The Guardian (2014), www.theguardian.com/technology/2014/jul/20/rise-of-data-death-of-politicsevgeny-morozov-algorithmic-regulation, vom 05. Juni 2015. 35 | Ebd. 36 | Ebd.
21
22
Florian Sprenger/Christoph Engemann
des Silicon Valleys.37 Aus wirtschaftlichem Eigeninteresse werde hier das kybernetische Phantasma einer ultrastabilen Regulierung durch Feedback in einer neuen Dimension propagiert, die sich aber zugleich von den klassischen, staatsskeptischen libertären Ideologien signifikant unterscheide: »[I]t’s a mistake to think that Silicon Valley wants to rid us of government institutions. Its dream state is not the small government of libertarians – a small state, after all, needs neither fancy gadgets nor massive servers to process the data – but the data-obsessed and data-obese state of behavioural economists.«38 Der Urheber der von Morozov angeführten Wortschöpfung »algorithmic regulation« ist Tim O’Reilly, ein amerikanischer Verleger und prominenter Stichwortgeber der Internetbranche. Er hat 2014 die These aufgestellt, dass das entscheidende Marktmodell des Internets der Dinge, anders als erwartet, Versicherungen seien. Der Informationszugewinn durch abertausende Sensoren und die damit verbundenen Auswertungsmöglichkeiten würden die Risikoabschätzungen der Versicherungsmathematik revolutionieren können: »You know the way that advertising turned out to be the native business model for the internet? I think that insurance is going to be the native business model for the Internet of Things.«39 Das Beispiel der von der Generali-Versicherung auch in Deutschland beabsichtigen Prämienzahlungen an Kunden, die ihre körperliche Aktivität mittels Fitnesstracker dokumentieren, zeigt, dass O’Reillys und Morozovs Thesen eine mögliche Entwicklung anvisieren könnten. Demgegenüber steht die Erwartung, dass vor allem der Konsumentenmarkt und Produkte, die in sozialen Netzwerken integriert sind, die Entwicklung des Internets der Dinge vorantreiben werden. Amazon führt mit dem Amazon Echo und den Dash Buttons bereits zwei eher unscheinbar und beinahe vulgär anmutende Beispiele des Internets der Dinge. Beide Produkte dienen zu nichts mehr und nichts weniger als der Erleichterung des Einkaufs auf Amazons Website. Amazon Echo ist ein zylinderförmiges Gerät, das im Haushalt platziert auf Spracheingaben des Nutzers wartet und Bestellungen bei Amazon entgegen nehmen kann. Die Dash Buttons reduzieren den Einkauf bei Amazon auf einen bloßen Knopfdruck. Es handelt sich um gebrande37 | Morozov, Evgeny: To save everything click here, London, New York: Allen Lane 2013. Siehe auch Morozov, Evgeny: »Don’t believe the hype, the ›sharing economy‹ masks a failing economy«, The Guardian (2014), www.theguardian.com/commentisfree/2014/ sep/28/sharing-economy-internet-hype-benefits-overstated-evgeny-mor ozov, vom 05. Juni 2015. 38 | Morozov: »The rise of data and the death of politics«, 39 | Myslewski, Rik: »The Internet of Things helps insurance firms reward, punish«, www. theregister.co.uk/2014/05/23/the_internet_of_things_helps_insurance_firms_re ward_punish/, vom 25. Juli 2015.
Im Net z der Dinge
te, mit einem Haftstreifen versehene Druckknöpfe. Ein Amazon Dash Button beispielsweise für Toilettenpapier kann am Verbrauchsort angebracht werden, um auf Knopfdruck via WLAN rechtzeitig Nachschub für die Lieferung am nächsten Tag zu bestellen. Der primitive und triviale Anwendungsfall wird mit dem Bequemlichkeitsgewinn des Kunden begründet, stellt aber zugleich eine Verkaufserleichterung wie auch eine wichtige Datenquelle dar. Ein Beispiel für einen komplexeren Anwendungsfall, der zudem den Marktsektoren übergreifenden Charakter vernetzter Produkte zeigt, ist das Rush Hour Rewards-Programm von Googles smartem Thermostat Nest. Google schließt mit Energieversorgungsunternehmen Verträge ab, bei denen auf Grundlage der über das Nest möglichen Steuerungseingriffe und Datenauswertungen die Klimaanlagen der Kunden in Stoßzeiten großflächig runtereguliert werden.40 Solches Abmildern von Lastspitzen erlaubt es den Energieversorgern, erhebliche Kosteneinsparungen zu erzielen. Google etabliert sich damit als Akteur im lukrativen Energiemarkt und verdient durch Zahlungen der Energieversorgungsunternehmen, während die teilnehmenden Nest-Nutzer kleine Prämien dafür erhalten, dass sie ihr Haus zu einer Datenquelle machen. Besonders bei Googles Nest und Apples Homekit kehren Motive wieder, die in den Arbeiten bei PARC prominent waren: das Wohnen und die häusliche Situation als Schauplätze des Internets der Dinge. Nest ist mit dem Anspruch angetreten, bislang langweilige und unbeachtete Aspekte der Wohntechnik mittels smarter Geräte interessant zu machen. Mit solchen Geräten ausgestattete Smart Homes vernetzen, wie am Modellhaus von Microsoft in Redmond oder am house-N-Home of the Future Consortium des MIT deutlich wird,41 mobile wie immobile Kommunikationsmedien und Einrichtungsgegenstände, passen sich selbsttätig den Bewohnern an und sind von beliebigen Orten außerhalb des Hauses aus permanent erreichbar.42 Wie Stefan Riegers Beitrag zeigt, steht die Altersversorgung durch Ambient Assisted Living und die smarte Haushaltsführung in einer Tradition der Externalisierung von Arbeits- und Dienstleistungen, die heute automatisiert werden. Das Internet der Dinge hat sich also gewandelt. War es bei Mark Weiser und auch im Kontext der RFID-Debatten noch als eine lokal emergierende und jeweils zeitlich beschränkte Form der logistischen Koordination von computerisierten Objekten imaginiert, so ist es heute in größere Kontexte der Entwick40 | Olson: »The Quantified Other«. 41 | Vgl. Zion, Adi Shamir: »New Modern. Architecture in the Age of Digital Technology«, in: Assemblage 35 (1998), S. 62-79; Heckman, Davin: A small world. Smart houses and the dream of the perfect day, Durham: Duke University Press 2008; sowie die Übersicht auf http://web.mit.edu/cron/group/house_n/, vom 15. August 2015. 42 | Spigel, Lynn: »Designing the Smart House. Posthuman Domesticity and Conspicuous Production«, in: European Journal of Cultural Studies, 8/4 (2005), S. 403-426.
23
24
Florian Sprenger/Christoph Engemann
lung der Internetökonomie sowie der kulturellen und sozialen Möglichkeiten der Vernetzung eingebettet. Kennzeichen dieser Entwicklung ist vor allem die Spannung zwischen Zentralisierung und Peripherie, die unter Bedingungen von Cloud Computing und Big Data Asymmetrien aufweist, die weder bei Weiser noch im RFID-Diskurs präsent waren. Die Ungleichheiten dieses rechnenden Raumes sind längst politischer Natur und durchstoßen Unterscheidungen wie die zwischen Privat und Öffentlich, zwischen Eigentum und Gemeingut, zwischen Inland und Ausland, vielleicht auch zwischen Mensch und Technik. Die Ungleichheiten durchdringen, wie Mercedes Bunz’ Beitrag ausführt, auch die Dinge selbst und verkomplizieren die schlichte Frage, was ein Ding ist. Die in diesem Band versammelten Beiträge möchten für diese Verkomplizierung sensibilisieren und zugleich einen Überblick über die wesentlichen Aspekte an die Hand geben.
D ie technologische B edingung der G egenwart Wenn heute oder morgen ubiquitäre Medientechnologien die Grenzen zwischen User und Environment oder privatem und öffentlichem Raum aufzuheben scheinen,43 wenn jeder Ort, an dem sich ein mobil vernetzter Mensch befindet, dank GPS oder RFID zum Ausgangspunkt einer potentiell weltweiten Adressierbarkeit wird,44 wenn eine Lokalisierung von der Distribution von Informations- und Energieströmen abhängt45 und wenn jedes vernetzte Gerät nicht nur um seinen eigenen Ort im Koordinatensystem weltweiter Netze weiß, sondern mit allen anderen angeschlossenen Objekten interagieren kann, dann werden damit klassische Fragen neu aufgeworfen. Sie betreffen das Verhältnis von Mensch und Maschine, von Mensch und Mensch sowie letztlich auch von Maschine und Maschine. In diesem Sinne will der vorliegende Sammelband in den Blick nehmen, was Erich Hörl als gegenwärtige ›technologische Bedingung‹ beschrieben hat: »Unter der technologischen Bedingung haben die überlieferten Kategorien der Bedeutungskultur und das dazugehörige Anschauungsregime, also die prätechnologischen Zeitlichkeits- und Räumlichkeitsbestimmungen bewusster
43 | Vgl. Berry, Chris/Kim, So-yŏng/Spigel, Lynn (Hg.): Electronic elsewheres. Media, technology, and the experience of social space, Minneapolis: University of Minnesota Press 2010. 44 | Vgl. Buschauer, Regine/Willis, Katherine S (Hg.): Locative Media. Medialität und Räumlichkeit, Bielefeld: transcript 2012. 45 | Vgl. de Souza e Silva, Adriana/Sutko, Daniel M.: »Theorizing Locative Technologies Through Philosophies of the Virtual«, in: Communication Theory 11 (2011), S. 23-44.
Im Net z der Dinge
Subjekte, schlicht ihre Beschreibungsmacht und Evidenz eingebüßt.«46 In diesem Rahmen verändern ubiquitäre, smarte und mobile Medien die Kulturen der Übertragung in ihren Tiefenschichten. Informationsflüsse weisen weiterhin exponentiell ansteigende Bandbreiten auf, werden untereinander verschaltet und bleiben trotz restriktiver Zugangsregelungen für ihre Datenbanken von überall aus zugänglich. Vor allem aber verbinden diese Informationsflüsse nicht mehr nur Computer mit Computern und Endgeräte mit Endgeräten. Das Internet der Dinge allein als eine Verbundenheit von Recheneinheiten zu verstehen, würde zu kurz greifen. Vielmehr haben wir es zu tun mit Transformationen auf unterschiedlichen Maßstabsebenen und technischen Kontexten, mit Verschiebungen des Verhältnisses von Menschen zur sie umgebenden Welt und mit einer Herausforderung unseres Verständnisses von Dingen durch aktive, vernetzte, smarte Objekte – einer allgemeinen Transformation von Objekthaftigkeit, wie sie Hörl im Anschluss an Gilbert Simondon beschrieben hat. Drei besonders prominente Stimmen haben sich bereits früh um eine medientheoretische Perspektive auf diese Herausforderungen bemüht und dabei die Verschiebung unseres Fragehorizonts reflektiert. Die Ansätze von Mark Hansen, Katherine Hayles und Nigel Thrift zeigen, dass das Internet der Dinge unsere Fragen nach dem Computer in Frage stellt. Sie stimmen vor allem darin überein, dass sie nicht nur eine Erweiterung der Gegenstandsfelder kultur- und medienwissenschaftlicher Auseinandersetzungen, sondern eine grundsätzliche Reorientierung unseres Nachdenkens über Technik fordern. Das Internet der Dinge kann demnach weder als Werkzeug verstanden werden, das als Zweck intentionalen Mitteln dient, weil seine Dinge keinem instrumentellen Willen Untertan sind, sondern diesen Willen eigenmächtig informieren. Noch kann das Internet der Dinge allein mit dem Instrumentarium eines an Fernsehen, Radio und Kino geschulten Blicks bearbeitet werden, weil es die Instanzen der Wahrnehmung unterläuft, an die sich diese Medien richten. Schließlich würde man das Internet der Dinge aber auch missverstehen, wenn man es lediglich als kontinuierliche Fortentwicklung des Computers oder gar als Supplement oder Extension menschlicher Fakultäten ansehen würde. Vielmehr fordert das Internet der Dinge, wie es Hörl ausdrückt, eine »Reorientierung unserer Erkenntnis- und Seinsweise«47. Ubiquitäre Technologien des Mobilen sammeln gegenwärtig, so Mark Hansen, in Form von GPS-lokalisierten Smartphones oder RFID-Chips »riesige Mengen von Verhaltens- und Umweltdaten ohne aktive Beteiligung, Initiative 46 | Hörl, Erich: »Die technologische Bedingung. Zur Einführung«, in: ders. (Hg.): Die technologische Bedingung. Beiträge zur Beschreibung der technischen Welt, Frankfurt a.M.: Suhrkamp 2011, S. 7-53, hier: S. 25. 47 | Hörl: »Die technologische Bedingung«, S. 25.
25
26
Florian Sprenger/Christoph Engemann
oder auch nur Bewusstsein unsererseits«48. Angesichts dieser Neuverteilung nicht nur von Handlungsmacht, sondern auch von sensorischem Vermögen in einem Dauerzustand medialer Übertragung hat Hansen jüngst gefordert, »unsere objekt- und unsere körperzentrierten Modelle von Medienerfahrung zugunsten eines radikal umweltlichen Ansatzes aufzugeben«49. Hansen sieht in den Netzen von GPS und RFID eine Ausdehnung des Empfindungsvermögens auf Technologien, wodurch mobile Medien in ein ubiquitäres Netzwerk der Distribution von Informations- oder Energieströmen und schließlich auch von Dingen und Menschen eingewoben werden. So würde die Zentralstellung des Menschen als Instanz des Wahrnehmens durch die allgegenwärtige technische Kapazität in Frage gestellt. Die Bedeutung des menschlichen Subjekts als Empfänger medialer Übertragungen sei aufgehoben oder wenigstens fraglich, weil Medien selbst in der Übertragung Daten zur Organisation ihrer Umgebung sammeln, ohne dabei noch auf die Leistungen der Sinneswahrnehmung angewiesen zu sein. Die Medien des 21. Jahrhunderts, von denen Hansen spricht, sind kaum noch von Kapazitäten der Repräsentation von Inhalten gekennzeichnet: »Twenty-first-century media compensate for the loss of conscious mastery over sensibility by introducing machinic access to the data of sensibility that operates less as a surrogate than as a wholly new, properly machinic faculty.«50 Hansen hat den Bruch betont, der in der Situierung der unscheinbaren Arbeitsleistungen von Computern in der Peripherie der Wahrnehmung liegt und der Erweiterung der kognitiven Fähigkeiten von Menschen und Computern durch eine neue Verbindung von Sinnlichkeit und Technik dient: »For what the constitutive and defining invisibility of ubiquitous computing actually foregrounds is the centrality of microtemporal and by definition imperceptible informational flows at the very heart of contemporary sensory experience.«51 Hansen setzt dazu an, eine Neukonfiguration des Menschen und menschlicher Erfahrung als Bestandteil der vernetzten Medien des 21. Jahrhunderts zu durchdenken.
48 | Hansen, Mark B. N.: »Medien des 21. Jahrhunderts, technisches Empfinden und unsere originäre Umweltbedingung«, in: Erich Hörl (Hg.), Die technologische Bedingung. Beiträge zur Beschreibung der technischen Welt, Frankfurt a.M.: Suhrkamp 2011, S. 365409, hier S. 372. 49 | Ebd., S. 374. 50 | Hansen, Feed Forward, S. 53. 51 | Mark B. N. Hansen: »Ubiquitous Sensation. Towards an Atmospheric, Collective, and Microtemporal Model of Media«, in: Ulrik Ekman (Hg.), Throughout. Art and culture emerging with ubiquitous computing, Cambridge: MIT Press 2012, S. 63-88, hier S. 70.
Im Net z der Dinge In our interactions with twenty-first-century atmospheric media, we can no longer conceive of ourselves as separate and quasi-autonomous subjects, facing off against distinct media objects; rather, we are ourselves composed as subjects through the operation of a hist of multi-scalar processes, some of which seem more ›embodied‹ (like neural processing), and others more ›enworlded‹ (like rhythmic synchronization with material events). In today’s media environments, that is, subjectivity is neither set off against a (media) object world, nor different in kind from the microprocesses that inform it. 52
In ähnlicher Richtung argumentiert Katherine Hayles, dass der Verbund der beiden einflussreichen Technologien RFID und GPS eine Neubestimmung der Grenze zwischen Mensch und Technik, eine Kritik ihrer Politik und eine daraus resultierende Modifikation des Konzepts von Mediation nötig machen. In den hier thematisierten distribuierten Netzen dieser Technologien sieht Hayles ein kognitives Vermögen aufziehen, das nicht nur analog zu Kognition des menschlichen Nervensystems zu verstehen sei, sondern dessen Bindung an ein souveränes Subjekt in Frage stelle – hin zu »a more processual, relational and accurate view of embodied human action in complex environments«53. Hayles hat diese Veränderung dessen, was Denken heißt, vor allem am Beispiel der Aufmerksamkeit ausgeführt, die heute durch die Einbindung kybernetischer Rückkopplungsschleifen zu einem technischen Phänomen zwischen Maschine, Subjekt und Environment werde. Der Geograf Nigel Thrift hat in ähnlicher Stoßrichtung betont, dass die neue Geografie der Verteilung eine zweite Welle der Artifizialisierung des Environments anzeige, in der nach mechanischen nun elektronische Objekte wie Bildschirme, Frequenzen oder Kabel den unsichtbaren Hintergrund und die architektonische Infrastruktur bildeten. Thrift hat dazu den Begriff des ›technologisch Unbewussten‹ fruchtbar gemacht, um Medientechnologien zu beschreiben, die räumliche Anordnungen vornehmen, ohne dabei auf das »benefit of any cognitive input«54 zurückzugreifen. Unbewusst seien diese Technologien, weil sie in Zeitspannen operieren, die unterhalb der menschlichen Wahrnehmungsfähigkeit liegen, diese Operationen aber mit dem Menschen verschaltet sind – man denke nur an das prominente Beispiel der körperlichen Selbstoptimierung durch Fitnesstracker. So werde »a prepersonal substrate of guaranteed correlations, assured encounters, and therefore unconsidered anticipations«55 aufgerufen, das Thrift vor allem anhand der technischen Modi 52 | Ebd. S. 3. 53 | Hayles: »RFID«, S. 48. 54 | Thrift, Nigel: »Remembering the technological unconscious by foregrounding knowledges of position«, in: Society and Space 22 (2004), S. 175-190, hier: S. 177. 55 | Ebd.
27
28
Florian Sprenger/Christoph Engemann
der räumlichen Adressierung verfolgt. Das ›technologisch Unbewusste‹, um das es allen drei Autoren geht, meint keine Artikulation eines Begehrens oder Zustands, sondern die Sammlung oder Verteilung von Information ohne Leistung eines menschlichen, bewussten Akteurs: etwa die zahllosen Handlungsketten und automatischen Ereignisse, die in vernetzen und programmierten Umgebungen eines Smart Homes ablaufen, um eine Wohlfühl-Atmosphäre herzustellen. Kein Subjekt übt Kontrolle aus, obwohl die Abläufe in körperliche und mentale Praktiken von Menschen eingelassen sind. Seit den 1960er Jahren, so Thrift, haben sich die Modi der Verteilung mit ›track-and-trace‹-Verfahren jedoch gewandelt, wofür er drei Gründe angibt: erstens neue Verfahren der Positionsbestimmung durch Laser, Netzwerke, GPS oder Sensortechnologien; zweitens Formalisierungen der Logistik und ihrer beiden Pole Speicherung und Distribution, wie sie sich in Flow Charts sowie Verfahren des Scheduling äußern und heute zum integralen Bestandteil von Produktionsprozessen geworden sind; sowie drittens automatisierte Verfahren der zeitkritischen Berechnung von Prozessen mittels Algorithmen. Diese drei Impulse kulminieren in mobilisierten »geographies of calculation«,56 in denen Berechnungen nicht mehr von zentralen Geräten gesteuert werden, sondern in zahlreichen Bestandteilen im Raum verteilt angestellt werden. Diese Transformation beruht auf der beständig fortschreitenden und über die Quantität eine neue Qualität gewinnenden Automatisierung der Verfahren von »position and juxtaposition«57. So ist es nicht verwunderlich, dass die ersten Nutzer von RFID Walmart und das US-Verteidigungsministerium waren. Gemeinsam ist diesen drei Positionen, denen man weitere an die Seite stellen könnte, ein Ungenügen an den Erklärungen, die medienwissenschaftliche Ansätze bis dato für die neuartigen medienräumlichen Phänomene anbieten, welche sich im Unterschied zu häufig untersuchten Medien wie Kino, Fernsehen und Telefon nicht mehr auf die Repräsentation von Bildern und Tönen richten, sondern vielmehr die Übertragung von Daten jenseits ihrer Inhalte zum Dauerzustand unserer Umgebungen bis hin zum Internet der Dinge machen.58 So fordert Hayles eindringlich: »A framework is needed capable of building bridges between human agency and an RFID world without collapsing distinctions between them. Such a framework would allow us to shed the misconception that humans alone are capable of cognition (a proposition already deconstructed with respect to animals and growing shaky with regard to distributed cognitive systems).«59 Während Hayles ihre Überlegungen am kon56 | Ebd., S. 187. 57 | Ebd., S. 177. 58 | Vgl. die Beiträge in Bullinger, Hans-Jörg/ten Hompel, Michael: Internet der Dinge, Berlin: Springer 2007. 59 | Hayles: »RFID «, S. 66.
Im Net z der Dinge
kretem Beispiel von RFID und GPS entwickelt, bleiben bei Hansen und Thrift die technologischen Bezüge eher vage. Auch der geschilderte Verlust von Souveränität entspricht nicht Machtdispositiven, denen wir uns gegenübersehen. Auf der Ebene der konkreten Techniken zeigt sich schnell, dass die genannten Konzepte wie beschriebenen Phänomene strukturell eng mit dem Problem der Kontrolle und der Geschichte der Kybernetik verknüpft sind.
I nfr astruk turen der K ontrolle In den letzten Jahren sind, durchaus in Übereinstimmung mit diesen Forderungen, Infrastrukturen stärker in den Fokus kultur- und medienwissenschaftlicher Debatten gerückt.60 Sie wurden, so haben die Ingenieure Neil Gershenfeld, Raffi Krikorian und Danny Cohen bereits 2004 im ersten Paper zum Internet der Dinge angemerkt, viel zu lange als »afterthoughts of architecture«61 angesehen, könnten nun jedoch smart werden, um sich kostengünstig selbst zu konfigurieren und zu reparieren. Die auftretenden Skalierungsprobleme bei der von Glühbirnen zu Rechenzentren reichenden Vernetzung können demnach nur auf der Ebene der Infrastrukturen gelöst werden. Versteht man als ihr zentrales Charakteristikum die Fähigkeit, zwischen Maßstabsebenen des Mikroskopischen bis zum Makroskopischen durch den Einsatz von Standardisierungen und Modularisierungen zu vermitteln, dann wird der Umfang dieses Vorhabens deutlich: Das Internet der Dinge soll reibungslosen Austausch zwischen allen Skalierungsebenen erlauben, ohne dass der Nutzer etwas davon merken würde. Dafür ist eine massive Aufrüstung der uns umgebenden Infrastrukturen notwendig. Von diesen Infrastrukturen aus ließe sich eine andere Geschichte des Internets der Dinge schreiben, die ihren Anfang weniger vom Computer als von den Verteilungsnetzen für Energie, Materie und Information her nimmt, die ihnen zugrunde liegen. Schließlich besteht auch die von Gershenfeld, Krikorian und Cohen entworfene Vision zunächst darin, das ›dumme‹ Stromnetz durch ein ›intelligentes‹ Informationsnetz zu ergänzen, indem aus dem 60 | Dommann: »Handling, Flowcharts, Logistik«; Parks, Lisa/Starosielski, Nicole (Hg.): Signal traffic. Critical studies of media infrastructures, Urbana: University of Illinois Press 2015; sowie Schabacher, Gabriele: »Medium Infrastruktur«, in: Zeitschrift für Medien- und Kulturforschung 4/2 (2013), S. 129-148. 61 | Gershenfeld, Neil/Krikorian, Raffi/Cohen, Danny: »The Internet of Things«, in: Scientific American 10 (2004), S. 76-81, hier: S. 76. Vgl. auch Friedewald, Michael: »Ubiquitous Computing. Ein neues Konzept der Mensch-Computer-Interaktion und seine Folgen«, in: Hans D. Hellige (Hg.), Mensch-Computer-Interface. Zur Geschichte und Zukunft der Computerbedienung, Bielefeld: transcript 2008, S. 259-280.
29
30
Florian Sprenger/Christoph Engemann
Abbildung 2: Gershenfeld, Neil/Krikorian, Raffi/Cohen, Danny: »The Internet of Things«
Quelle: Scientific American 10 (2004), S. 76-81, hier: S. 79.
Im Net z der Dinge
Stromnetz ein Internet wird.62 Dies wiederum führt im Effekt dazu, dass, wie auf der Abbildung zu sehen, eine Neuverteilung von Rechenkraft stattfindet, die an jedem Ort verfügbar sein soll. Es geht nunmehr um die Distribution von Daten und Dingen im Raum. Inwieweit diese Dezentralisierung auf einer Zentralisierung in externen Datencentern beruht, die zur Überwachung der Räume notwendige Sensortechnik zugleich auch kommerziellen Interessen dient und die Neuverteilung letztlich vor allem eine kapitalistische Umverteilung darstellt, diese bislang viel zu selten geführten Debatten drängen sich den Autoren dieses Bandes geradezu auf. Im Internet der Dinge geht es mithin darum, Personen, Wissen oder Objekte zum richtigen Zeitpunkt am richtigen Ort verfügbar zu machen bzw. sie zu steuern oder um ihren Ort zu wissen. Ein Blick auf die Historie von Infrastrukturen, die immer schon diesen Zwecken dienten, erlaubt es, das Internet der Dinge nicht nur in der Computergeschichte zu verorten, sondern vielmehr in den größeren Bogen der Technikgeschichte der kapitalistischen Industrialisierung einzuordnen. Mit den technischen und ökonomischen Innovationen des 19. Jahrhunderts werden, so hat es James Beniger bereits 1986, also noch vor der Vernetzung von Computern, in The Control Revolution detailliert geschildert, die Kontrollmöglichkeiten prekär. Die Krise der Kontrolle, die die Mitte des Jahrhunderts prägt, weil zwar Güter und Informationen auf den neuen Transportwegen von Eisenbahn und Dampfschiff schnell verschickt, aber ihre Verwendung und Verarbeitung in der Ferne nicht kontrolliert werden können, wird durch die Übertragung elektrischer Signale zunächst der Telegrafie besänftigt.63 Sie stellt die Sicherheit her, an anderen Orten zeitgleich Macht auszuüben, d.h. kontrollierend auch dort einzugreifen, wo der Kontrolleur nicht ist. Die Hand des Staates kann noch weniger als die Hände der Wirtschaft überall intervenieren, wo sie benötigt wird, geschweige denn Schritt halten mit den technischen Neuerungen: »All else being equal, increases in power will always result in increases in speed, which in turn increases the need for control and hence for communication, processing, programming, and decision.«64 Die Notwendigkeit der Kontrolle bezieht sich nicht mehr auf lokale Umgebungen oder die Face-to-face-Absprachen der Fabrikdirektoren und Händler, sondern auf Orte, die räumlich entfernt liegen und deshalb zeitkritische 62 | Entsprechend können wir gegenwärtig Debatten darüber beobachten, wie Stromnetze zu Smart Grids werden können, die es erlauben sollen, nicht nur auf Schwankungen zu reagieren, sondern auch Strom aufzunehmen, der von Verbrauchern etwa mit Solarenergie eingespeist wird. 63 | Vgl. ausführlicher Sprenger, Florian: Medien des Immediaten. Elektrizität, Telegraphie, McLuhan, Berlin: Kadmos 2012. 64 | Beniger, James R.: The Control Revolution. Technological and Economic Origins of the Information Society, Cambridge: Harvard University Press 1986, S. 202.
31
32
Florian Sprenger/Christoph Engemann
Medien benötigen, um ihre unterschiedlichen Zeitebenen aufeinander zu beziehen. Erst dadurch werden die für die Industrialisierung typischen Produktionsketten möglich, in denen an verschiedenen Orten gewonnene Rohstoffe zu Fabriken transportiert, dort in einem überaus zeitkritischen Prozess verarbeitet und an verteilte Populationen verteilt werden. Durch die Industrialisierung der Kontrolltechnologien, der analogen wie später der digitalen Informationsverarbeitung, des Transports, der Kommunikation sowie der bürokratischen Ordnungen, sozialen Geschäftsregeln und des Zeitmanagements kann sich Kontrolle über Produktionsabläufe und Verwaltungsvorgänge zunehmend von ihrer lokalen Gebundenheit lösen. Mit der Elektrizität wird die von Beniger so genannte »Information Society« begründet, die durch Programmierung und rückgekoppelte Kontrolle definiert ist. Telegraf, Dampfschiff und Eisenbahn sowie moderne Brücken, Kanäle und Kabelnetze erlauben im Verbund mit ökonomischen, bürokratischen und politischen Entwicklungen ein Kontingenzmanagement durch die Überwindung räumlicher Distanzen und Zeitbeherrschung, wie es bereits für das Transatlantikkabel angepriesen wurde: »Distance as a ground of uncertainty will be eliminated from the calculation of the statesman and the merchant.«65 Kontrolle als die Fähigkeit, an anderen Orten Macht auszuüben, muss schnell sein und ist in immer stärkerem Maße von Geschwindigkeit abhängig – möglichst schneller als die Eisenbahn oder das Schnellboot, schneller also als der materielle Transport von Waren. Zugleich beginnen Fabriken mit den neuen Transportwegen der Eisenbahn, ›on the fly‹ zu produzieren, also Rohstoffe sofort nach der Lieferung zu verarbeiten, anstatt sie zu lagern. Dafür aber muss die zeitkritische Verteilung dieser Rohstoffe sichergestellt werden, und dazu braucht es Kommunikation, die schneller ist als der Transport: Telegrafie. Die Sicherheit der Kontrolle basiert auf der Geschwindigkeit der Übertragung. Die Herausbildung kommunikativer und logistischer Infrastrukturen ist somit eine Antwort auf die Herausforderungen der Kontrolle, erlauben sie es doch, durch Kommunikation vermittelt Macht an entfernten Orten auszuüben. Während seit der frühen Neuzeit die räumliche Verteilung von Kontrolle vor allem im Handel und in der Kolonialisierung durch menschliche Stellvertreter geregelt wurde, wird diese Funktion, so Beniger, seit der Wende zum 20. Jahrhundert zunehmend auch von technischen Agenten übernommen.66 65 | The London Times, 6. August 1858, zitiert nach Holtorf, Christian: Das erste transatlantische Telegraphenkabel von 1858 und seine Auswirkungen auf die Vorstellungen von Raum und Zeit. Dissertation, Berlin 2009, S. 24. 66 | Vgl. die von Bernhard Siegert aufgemachten Genealogien stellvertretender Kontrolle, die im frühneuzeitlichen Kolonialismus Vorläufer der von Beniger ausgemachten Entwicklungen verorten: Siegert, Bernhard: »Längengradbestimmung und Simultanität in Philosophie, Physik und Imperien«, Zeitschrift für Medien und Kulturforschung 5/2
Im Net z der Dinge
Entsprechend stellt sich, wie Beniger zeigt, die Frage nach der Handlungsmacht von Stellvertretern, seien sie menschlich oder technisch. Sie verfügen zwar über Anweisungen, doch kann deren Einhaltung aus der Ferne nur nachträglich überprüft werden. Ihr Spielraum wird schon zu dieser Zeit unter dem Titel Agency verhandelt. Bereits um 1600 bezeichnet Agency die Funktion des Stellvertretens, um auf ein spezielles Ziel gerichtete Handlungen zu erreichen, aber auch die Institution, Person oder Sache, die dies vermag.67 Vor allem in der Diplomatie, aber auch im Handel wird diese Stellvertretungsfunktion wichtig und ist immer an Übertragungsmedien gebunden, die Stellvertreter und Stellvertretene aneinander binden. Agency bestimmt demnach, inwieweit ein Akteur zwischen autonomem und vorgegebenem Handeln pendeln darf, wenn Kommunikation mit den übergeordneten Instanzen aufgrund räumlicher Entfernung zu lange braucht, um auf lokale Ereignisse adäquat zu reagieren.68 Das Konzept der Agency, das in gegenwärtigen Debatten um die Actor-Network-Theory und in den Science and Technology Studies diskutiert wird, aber auch die jüngste Rückkehr zu den Dingen in objektorientierten Philosophien anleitet,69 hat einen seiner historischen Orte also in diesem Kontrollproblem. Es wird seit der Mitte des 20. Jahrhunderts kybernetisch formuliert, heute mit dem Internet der Dinge und mit Ubiquitous Computing neu bearbeitet und, wie Kai Hofmann und Gerrit Hornung in diesem Band zeigen, auch als juristisches Problem diskutiert: Was bedeutet es, wenn Dinge handeln, und wer trägt dann die Verantwortung? Vor dem Hintergrund dieser Geschichte kann man das Internet der Dinge als Versuch verstehen, Kontrolle auf ungekannte Weise räumlich auszudehnen, indem alle Dinge zu Stellvertretern werden und somit über Agency verfügen. Dass sich dabei das Konzept der Handlungsmacht von menschlichen auf nichtmenschliche Akteure verschiebt und die Dinge im Internet der Dinge selbst aktiv werden, schließt an die historische Krise der Kontrolle an. So zeigt sich eine bislang unterbelichtete Dimension von kontrollierter und kontrollierender Handlungsmacht in industriellen Infrastrukturen. (2014), S. 281-297, sowie: Siegert, Bernhard: »(Nicht) Am Ort. Zum Raster als Kulturtechnik«, Thesis, Wissenschaftliche Zeitschrift der Bauhaus-Universität Weimar 3 (2003), S. 93-104 und ausführlich: Siegert, Bernhard: Passage des Digitalen – Zeichenpraktiken der neuzeitlichen Wissenschaften 1500-1900, Berlin: Brinkmann und Bose 2003, S. 65 f f. 67 | Vgl. den Artikel zu »Agency« im Oxford English Dictionary, www.oed.com vom 10. August 2015. 68 | Beniger: The Control Revolution, S. 135. 69 | Vgl. einschlägig Harman, Graham: Tool-Being. Heidegger and the Metaphysics of Objects, Chicago: Open Court 2002; sowie Bryant, Levi R.: The democracy of objects, Ann Arbor: Open Humanities Press 2011.
33
34
Florian Sprenger/Christoph Engemann
Aus den Rahmenbedingungen dieser Geschichte hat Beniger folgende drei die »Information Society« prägende Dynamiken herausgestellt: erstens eine Abhängigkeit von Kontrolltechnologien, Energieproduktion und Verarbeitungsgeschwindigkeit, die sich in gegenseitiger Beeinflussung entwickeln; zweitens die Verlässlichkeit und Vorhersagbarkeit von Prozessen und Strömen, die wiederum ökonomische Vorteile durch Informationsverarbeitung versprechen; sowie drittens die Tatsache, dass Kontrolle sich im 20. Jahrhundert immer mehr von Materie und Energie hin zu Information gelöst hat, nicht zuletzt weil auch Kontrolle kontrolliert werden muss. Die Beispiele, die Beniger anführt, reichen von den Kontrollmechanismen großer Stromgeneratoren, die zu überaus komplexen Rechenanlagen angeleitet haben, über die Herausbildung von Fahrplänen für den Schiffsverkehr, die durch die Verlässlichkeit von Dampf booten ermöglicht wurden, bis hin zur bürokratischen Kontrolle der Kontrolleure durch Vorarbeiter, die nicht die Produktion von Waren, sondern die erhobene Information über die Produktion kontrollieren. Alle drei Dynamiken können auf das Internet der Dinge extrapoliert werden: Die Energieversorgung computerisierter Dinge ist erstens zwar weiterhin eine zentrale Herausforderung, aber die notwendigen Akkus haben den Energieverbrauch nicht nur temporär von der Energieproduktion unabhängig gemacht, sondern auch von den Infrastrukturen der Energieverteilung, während zugleich das Frequenzspektrum für drahtlose Übertragung kaum noch mit den Ansprüchen Schritt halten kann. Zweitens wird aus der Verlässlichkeit gesammelter Daten mit Big Data in ungekanntem Maß eine Vorhersagbarkeit extrahiert, welche die Planbarkeit logistischer Prozesse auf das Verhalten von Individuen ausweitet.70 Und drittens schließlich wird die Bewegung von Materie heute durch autonome Informationsflüsse kontrollierbar, indem Kontrolle im Kontrollierten implementiert wird. Diese Fortführung des von Beniger beschriebenen Prozesses, der gleichsam die Wurzel der Medienlandschaft des 20. Jahrhunderts bildet, können wir mit dem Internet der Dinge beobachten. Auch hier geht es, wie jüngst die Debatten um die Industrie 4.0 gezeigt haben, um aus der Distanz ausgeübte Kontrolle von Fabrikationsprozessen durch eine Logistik, die von den Dingen, Waren und Produkten selbst geleistet werden soll – nicht nur in der Industrie, sondern auch im zivilen Leben. Das Internet der Dinge antwortet mithin auf 70 | Der Informatiker Jens-Martin Loebel hat 2010 ein experimentelles »Tagebuch eines Selbstaufzeichners« geführt, in dem er alle seine GPS-Bewegungsdaten gespeichert hat. Bereits aus den Daten weniger Wochen lassen sich, so Loebel, überaus exakte Vorhersagen über sein eigenes Verhalten treffen, d.h. seine Anwesenheit an bestimmten Orten zu bestimmten Zeiten. Vgl. Loebel, Jens-Martin: »Aus dem Tagebuch eines Selbstaufzeichners. Interview geführt von Ute Holl und Claus Pias«, in: Zeitschrift für Medienwissenschaft 4 (2011), S. 115-126.
Im Net z der Dinge
diesen Kontrollanspruch durch Erfüllung des kybernetischen Traums, wie ihn das Autorenkollektiv Tiqqun in kritischer Absicht beschrieben hat: »Die ganze Geschichte der Kybernetik ist darauf angelegt, die Unmöglichkeit, gleichzeitig die Position und das Verhalten eines Körpers zu bestimmen, aus dem Weg zu räumen.« 71
L ok alisierung und P ositionierung Die Konsequenzen der Umsetzung und gleichsam Verweltlichung des kybernetischen Traums sind tief in der technischen Gegenwart verankert. Aktuell, so kann man, wie oben bereits angeführt, mit Nigel Thrift festhalten, befinden wir uns mit Technologien des Tracings und des Trackings in einem Übergang von Verfahren der Adressierung zu Verfahren der Positionierung, in dem die Verteilung von Energie und Information von exaktem Wissen um die Position des Adressaten und Imperativen seiner Positionsnahme ersetzt wird.72 RFID und GPS, die paradigmatisch für diesen Umbruch stehen, dienen nicht nur der Bestimmung der Position von Menschen oder Dingen, sondern der Positionierung an bestimmten Orten.73 Sie leisten als adressierende Medien nicht nur die Lokalisierung, sondern auch die Authentisierung – die Entscheidung, ob etwas oder jemand an einem bestimmten Ort sein darf. Daraus wiederum können entsprechende Konsequenzen gezogen werden. In der letzten Dekade wurden dadurch logistische Verfahren in vielerlei Hinsicht revolutioniert, der alltägliche Umgang mit mobilen Medien transformiert und dabei etwa mit der Aufhebung von Öffentlichem und Privatem eine mehrdimensionale Raumpolitik eröffnet, deren Verschiebung der Grenzen von Innen und Außen grundlegende Fragen an unser Verständnis von Umgebungen stellt. Damit geht nicht zuletzt die Notwendigkeit einer Neubestimmung medialer Positionierungsräume einher, in denen Objekte nicht nur in der Übertragung kontinuierlich Adressen zugesprochen bekommen, sondern innerhalb von Netzwerken aus Positionen anderer Objekte lokalisiert sind, die selbst allesamt als Akteure der Vermittlung agieren. Deutlich wird dies bereits an den ersten drei Geräten, die unter dem Label Ubiquitous Computing bei Xerox PARC vom Team um Mark Weiser entwickelt wurden.74 Die ersten Versuche, die Dinge mobil zu machen, sind von drei Problemen geprägt: erstens der Batterielebensdauer, zweitens der Bandbreite der 71 | Tiqqun: Kybernetik und Revolte, Berlin: Diaphanes 2007, S. 22. 72 | Vgl. Thrift: »Remembering the technological unconscious«. 73 | Vgl. Rosol: RFID. 74 | Vgl. Want, Roy: »An Introduction to Ubiquitous Computing«, in: John Krumm (Hg.), Ubiquitous Computing Fundamentals, Boca Raton: Chapman & Hall 2010, S. 1-35.
35
36
Florian Sprenger/Christoph Engemann
verfügbaren drahtlosen Übertragungsmethoden und drittens der Unzulänglichkeit der Protokolle und Standards, die den Austausch zwischen den Geräten regeln sollen. Die drei wichtigsten Innovationen der frühen 1990er Jahre, die mit diesen Problemen umgehen, sind das LiveBoard, eine digitale Wandtafel, das in Buchgröße entworfene ParcPad sowie das handgroße ParcTab. Alle drei Geräte, die als Display, Notebook und Handheld anhand der Größen Yard, Foot und Inch gestaltet werden75 und denen noch die gegenwärtige Produktstrategie von Apple verdächtig ähnelt, wurden bei PARC über Jahre hinweg verwendet und ihre Nachfolger sind noch heute in Gebrauch.76 Alle drei Geräte haben den Raum aufteilende Funktionen: Die fest installierten LiveBoards sollen vernetzt gleiche Inhalte in verschiedenen Konferenzräumen zeigen und so lokale Zusammenkünfte mit entfernten Kollegen ermöglichen. Sie liefern die für solche Übertragungen nötigen Rechen- und Darstellungskapazitäten und erlauben darüber hinaus eine Vernetzung entfernter Orte, an denen identische Inhalte repräsentiert werden. Liest man diese heute trivial erscheinende Innovation vor dem Hintergrund damaliger Technikentwicklung, wird deutlich, welcher Umbruch der Arbeitswelt sich hier ankündigt. Eines der von Xerox vorgegebenen Ziele des Projekts ist naheliegenderweise die Förderung von Heimarbeit und »telecommuting«. Alle drei Geräte sollen es den Mitarbeitern von zu Hause aus erlauben, sich in die »cycles of activity« am Arbeitsplatz einzuklinken, die sich damit tendenziell vom Ort des Büros lösen oder vielmehr auf neue Weise in ihm verankert werden. Während LiveBoards unbeweglich sind, liegen Pads herum und werden nicht ständig am Körper getragen. Sie sind mit Touchscreens ausgestattet und nicht personalisiert, sondern sollen vielmehr ihre User zunächst durch Passwörter, später aber auch durch Fingerabdrücke oder Lokalisierungsverfahren erkennen und entsprechend Zugriff auf deren Daten ermöglichen. Sie sind mittels lizenzfreier Kurzwellenübertragung mit 250 kbps über Transceiver in jedem Raum an drahtlose Netzwerke angeschlossen. Technologien wie RFID, WiFi, ZigBee oder Bluetooth stehen noch nicht bereit. Jeder soll jedes Pad benutzen können. Besitz wird durch Mobilität ersetzt. Ein Tab ist also im Unterschied zu den heutigen Smartphones und Tablets kein hyperpersonalisiertes Objekt. Vielmehr lässt man ein nicht mehr benötigtes Pad vor Ort liegen, bis es vom nächsten Kollegen in Anspruch genommen wird, was selbstredend gerade in einer so offenen Bürolandschaft wie der von PARC sinnvoll ist, wo in den Konferenzräumen Sitzsäcke statt Bürostühle stehen. 75 | Vgl. Dourish, Paul: Where the Action is. The Foundations of Embodied Interaction, Cambridge: MIT Press 2001. 76 | Auch die Ausstattung der Besatzungsmitglieder der USS Enterprise in Star Trek: The Next Generation ähnelt mit Communicators auf der Brust, Tricorders in der Hand und den Screens an der Wand dieser Produktpalette.
Im Net z der Dinge
Abbildung 3: Weiser, Mark: »Some computer science issues in ubiquitous computing«
Quelle: Communications of the ACM 36 (1993), S. 75-84, hier: S. 78.
Die Tabs, mit drei Tasten und ebenfalls einem Touchscreen versehen, in einer einfacheren Variante auch als vernetztes Namensschild gestaltet, werden mit ihrem User identifiziert und dienen zu dessen Lokalisierung innerhalb eines definierten Raums. So können sich die Mitarbeiter untereinander Nachrichten schicken, Daten austauschen, die Klimaanlage bedienen oder Spiele spielen. Tabs kommunizieren auch ohne Wissen des Users untereinander über den Kontext des jeweiligen Ortes und die Umgebung, um so genaue Informationen darüber darstellen zu können, wer bei wem, wo welcher Netzwerkzugang vorhanden oder an welchem Ort es so leise ist, dass ruhiges Arbeiten möglich ist.77 Gerade diese Frage des Kontexts oder des Environments des jeweiligen Geräts ist bis heute eine technische Herausforderung, denn zum einen muss dazu konstant Information zum Gerät übertragen werden, um es bei dessen Bewegung über die veränderten Zustände des Environments auf dem laufenden zu halten, wozu zeitkritische Synchronisationsvorgänge nötig sind. Zum 77 | Vgl. zum Problem des Kontextes Dourish, Paul: »What We Talk About when We Talk About Context«, Personal Ubiquitous Computing 8/1 (2004), S. 19-30.
37
38
Florian Sprenger/Christoph Engemann
anderen stellen das Erkennen der Umgebung und die Definition ihrer Variablen ein großes Hindernis dar. Technisch basieren die Tabs auf schlichter Infrarotübertragung, die eine Übertragungsrate von bis zu 10 kbps erlaubt und eine gewisse Nähe zu Lesegeräten erfordert, also die räumliche Konzentration auf bestimmte Punkte. Tabs geben mittels dieser Überwachung jedem User eine Adresse. Auf einer Karte, die auf LiveBoards und Pads angezeigt werden kann, wird die Position jedes Users innerhalb des Gebäudes durch kleine Icons visualisiert. Diese Lokalisierung dient unter anderem dazu, Anrufe an das nächstgelegene Telefon weiterzuleiten, den Fahrstuhl automatisch auf der richtigen Etage anhalten zu lassen oder anzuzeigen, wer sich noch für das beginnende Football-Match interessiert. Als tauglichste Funktion stellt sich schnell die Möglichkeit heraus, drahtlos im ganzen Gebäude die aktuelle Arbeitslast der Kaffeemaschine überwachen zu können. Sie wird mit einem Tab ausgestattet, über das immer dann, wenn neuer Kaffee gebrüht ist, eine Nachricht an alle Mitarbeiter versandt wird, die daraufhin die Küche aufsuchen – den wichtigsten kommunikativen Umschlagsplatz jedes Büros. Von durchsichtigen Interfaces, wie sie Weiser vorschweben, oder Geräten, die eigenständig operieren, ist man jedoch noch weit entfernt. Stattdessen muss man sich mit altmodischen Stromnetzen beschäftigen und Kabel verlegen. Die an der Decke befestigten Transceiver, die den Raum und die in ihm befindlichen Tabs überwachen, werden per Kabel an das bestehende lokale Netzwerk angeschlossen, wozu lediglich eine Verbindung mit den vorhandenen Workstations nötig ist: »We thus had to string only a small amount of additional phone cable to connect ceiling-mounted transceivers to our UNIX-workstations and, through them, to the Ethernet.« 78 Auch wenn in diesem Aufsatz auf die Frage der Energieversorgung nur am Rande eingegangen wird und diese Aspekte in den Patenten eine bemerkenswert marginale Rolle spielen, sind alle Geräte weiterhin vom Stromnetz abhängig. In einer ersten Annäherung kann man anhand dieser drei Geräte drei Formen eingebauter Mobilität unterscheiden, die einer »automatic production of space«79 dienen, wie sie Nigel Thrift und Shaun French beschrieben haben: die Versammlung und Verschaltung von Versammlungen untereinander und für mehrere User vor einem Gerät, die Bereitstellung lokaler, netzwerkfähiger Pads 78 | Want, Roy/Schilit, Bill N./Adams, Norman/Gold, Rich/Petersen, Karin/Goldberg, David/Ellis, John R./Weiser, Mark: »An Overview of the PARCTAB Ubiquitous Computing Experiment«, in: IEEE Personal Communications 2/6 (1995), S. 28-43, hier: S. 32. 79 | Vgl. Thrift, Nigel/French, Shaun: »The automatic production of space«, in: Transactions of the Institute of British Geographers 27 (2002), S. 303-335; sowie Agre, Philip E.: »Surveillance and capture. Two models of privacy«, in: The Information Society: An International Journal 10 (1994).
Im Net z der Dinge
Abbildung 4: Weiser, Mark: »The Computer for the 21st Century«
Quelle: Scientific American 265/3 (1991), S. 94-104, hier: S. 99.
für beliebige User innerhalb vorgegebener Räume sowie die Lokalisierung durch Tabs, mit denen Individuen koordiniert werden können. Funktional sind diese drei Ebenen eng aneinander gekoppelt und werden mittels eigener Protokolle so aufeinander abgestimmt, dass die PARC-Mitarbeiter fugenlos zwischen ihren Funktionen wechseln können. Sie bilden mithin eine Umgebung, die nicht von einem zentralen Ort definiert ist und keinem cartesischen Koordinatensystem entspricht, sondern in der vielmehr die Position von Objekten von der Position anderer Objekte abhängt. Alle Objekte verfügen über Sensoren oder Netzwerkzugänge, die es ihnen erlauben, die Geräte in ihrer Nähe zu erfassen. Aus den
39
40
Florian Sprenger/Christoph Engemann
gesammelten Daten wird ein relationales Feld berechnet, das die Positionen aller Objekte und ihr Verhältnis zueinander abbildet. Implementiert ist damit eine Konnektivität von Dingen, die untereinander in Verbindung treten, sich als Sender und Empfänger gegenseitig orientieren und ihre Funktionen ergänzend zu einem Kontinuum des Gebrauchs verweben.
Z entrierte D ezentrierung In den Schriften Weisers und seiner Kollegen herrscht implizit eine Vorstellung des weitgehend lokalen Verbleibs der Daten in vergleichsweise kleinen, lokalen Umgebungen vor. Auch sind Weisers visionäre Projekte von einer relativen Symmetrie und Kompatibilität zwischen den Devices gekennzeichnet. Seine Beispiele beziehen sich in der Mehrzahl auf Büroarbeitssituationen und häusliches Wohnen, auf überschaubare Räume, die gleichwohl mit hunderten von größtenteils unsichtbaren Computern bevölkert sein sollen. Die Verlagerung der Rechner in die Peripherie der Wahrnehmung hat zum Ziel, das In-der-WeltSein sowohl nicht zu stören als auch zu erweitern.80 Eine Bedingung dafür ist jedoch auch die Auslagerung von speicher-, rechen- und damit energiehungrigen Prozessen auf entfernte Server. Jenseits von naheliegenden Überlegungen zum Datenschutz81 werden die Rolle von Servern, ihre Potentiale und die möglichen Folgen ihrer Konzentration zu dieser Zeit nicht problematisiert. Die grundlegende räumliche Struktur, in der die Dezentralisierung nur möglich ist, weil sie mit einem massiven Zentralisierungsschub einhergeht, wird auch im Anschluss an die ersten Entwürfe überaus selten thematisiert. An ihr wird jedoch, wie sich heute zeigt, die Geopolitik des Internets der Dinge besonders deutlich. Die zentrale Frage lautet zunächst, wo das Rechenvermögen situiert ist: Ist mit der Distribution smarter Objekte auch das Computing verteilt oder sind die Dinge selbst als vernetzte passive Stellvertreter andernortslokalisierter Mächte? Die Distribution von Energie und Materie, die das Internet der Dinge kennzeichnet, beruht auf einer infrastrukturellen Aufrüstung des umgebenden Raums. Es handelt sich bei der Computerisierung der Dinge jedoch nicht um eine Gleichverteilung. Um die möglichen Szenarien der Verteilung von Rechenkräften, Datenströmen und Analyseoptionen des Internets der Dinge zu 80 | Vgl. Weiser: »The Computer for the 21st Century«. 81 | Etwa Weiser, Mark: »Some Computer Science Issues in Ubiqiutous Computing«, in: Communication of the ACM 36/7 (1993), S. 74-84, hier S. 81; Weiser, Mark: »The Future of Ubiquitous Computing on Campus«, in: Communication of the ACM 41/1 (1998), S. 4142, hier S. 42. Siehe auch den Kommentar von Florian Sprenger zu »The Coming Age of Calm Technology« in diesem Band.
Im Net z der Dinge
situieren, lohnt sich ein Blick auf die unmittelbare Vergangenheit. Mit Smartphones und Tablets, laut Sterling »the most Internetted of our Things«,82 sind in den letzten zehn Jahren enorme leistungsfähige Computer in die Hände der Nutzer gekommen. Aus einem vormals nur mit minimaler Rechenkraft ausgestatteten Objekt wie dem Telefon wurden vollwertige Computer. Schon heute übertreffen die Verkäufe von Smartphones und Tablets diejenigen von Laptops und Computern bei weitem. Insgesamt wird derzeit von etwa 2,5 Milliarden aktiven Nutzern und Objekten im Internet ausgegangen. Die von Marktbeobachtern für das Internet der Dinge bis 2020 vorausgesagten Zahlen liegen zwischen zehn und fünfzig Milliarden vernetzten Objekten mit Trilliarden von Verbindungen.83 Im Zuge dieser Entwicklung kommt es zu neuen Relationen zwischen den Dingen, vor allem aber auch zwischen Individuen und Dingen, die in der Perspektive von Unternehmen neue ökonomische Optionen mit sich bringen. Das Internet der Dinge ist auch ein Wertschöpfungsmechanismus. Der Kauf der Heimautomationsfirma Nest durch Google, die Bereitstellung der Homekit-Entwicklungsumgebung durch Apple sowie die Gerüchte um einen Einstieg beider Firmen in den Automobilmarkt sind besonders prominente Beispiele für die Ausweitung der Vernetzung auf neue Geschäftsfelder. Zugleich findet andernorts eine noch viel größere Eskalation der Rechenkräfte statt. Anders als in den Entwürfen der frühen 1990er Jahre hat die technische Entwicklung zu einer Zentrierung von Rechenkraft anstatt zu ihrer dezentralen Distribution geführt. Viele der Beobachter des Internets der Dinge, und das gilt auch für die Beiträge von Ian Bogost, Sebastian Gießmann, Linus Neumann und Michael Seemann in diesem Band, beschreiben eine Verstärkung der Konzentrationsprozesse in der Fortentwicklung des Internets der Dinge. Materielles Signum der letzten Dekade sind entsprechend weniger Mobilgeräte als vielmehr Datacenter und die mit ihnen einhergehende Aufsplittung von Datensammlung und Datenverarbeitung.84 Den Milliarden von Endgeräten in den Händen der Nutzer stehen vergleichsweise wenige gigantische Serverfarmen gegenüber. Was den Usern als Cloud erscheint und Services wie Google-Search, Spotify, Amazon oder Facebook auf die Endgeräte bringt, ist ein komplexes und kapitalintensives Ensemble aus Millionen mit spezieller Software und immer öfter auch mittels selbstdesignter Hardware verschalte-
82 | Sterling: The Epic Struggle, S. 9. 83 | Vgl. Meeker, Mary: »Key Internet Trends«, www.kpcb.com/partner/mary-meeker, vom 28. Juli 2015; sowie »At-A-Glance: The Internet of Things«, www.cisco.com/web/ solutions/trends/iot/docs/iot-aag.pdf, vom 28. Juli 2015. 84 | Vgl. Rossiter, Ned: »Coded vanilla. Logistical media and the determination of action«, in: South Atlantic Quarterly 114 (2015), S. 119-134.
41
42
Florian Sprenger/Christoph Engemann
ten Servern.85 Facebook kommt für seine über 1,2 Milliarden Nutzer mit fünf solchen Datencentern aus, Apple betreibt bislang zwei, während Google und Amazon als größte Cloudanbieter jeweils über 50 Datencenter mit Serverflotten weit jenseits der Millionenmarke betreiben. Erst solche von Google wegen ihres Flächenbedarfs als »Landhelds« 86 bezeichnete Datencenter machen die Handhelds zu dem, was sie sind. Tatsächlich waren es im Jahr 2013 fünf Unternehmen, deren Landhelds 80 Prozent der weltweiten am häufigsten genutzten Services anboten: Google, Amazon, Facebook, Apple und Microsoft.87 Die Akteure und Gewinner dieses Konzentrationsprozesses bezeichnet Bruce Sterling als »Stacks«: vertikal integrierte Unternehmen, deren Geschäftsmodell auf fortwährender Eskalation der über ihre Infrastrukturen fließenden Datenströme zum Zwecke ihrer ökonomischen Auswertung besteht. Dazu müssen diese Firmen an den Endpunkten der Geräte, Gadgets und Sensoren ebenso über Einfluss verfügen wie im Hintergrund der Cloud Kapazitäten und Knowhow zur Auswertung der Daten konzentrieren. Während die Stacks sich in der jeweiligen Ausprägung dieser Bedingungen unterscheiden – Apples proprietäres iPhone vs. Googles Android – ist ihnen gemein, dass sie möglichst viele Nutzer exklusiv und dauerhaft an ihre Plattformen binden möchten. In den skandalisierenden Worten Sterlings: »Basically, ›Stacks‹ want to corral the Internet’s anonymous ›users‹ – ›nobody knew they were dogs‹ – and turn users into tagged, branded and privatized livestock.«88 Das »ecosystem«89 der Stacks besteht darin, die Nutzer mit unverzichtbaren Services einzukreisen, welche zugleich als unsichtbare Zäune fungieren. Diese Systeme aus Softwareangeboten und Hardware haben sich als ökonomisch äußerst erfolgreich erwiesen und stellen zugleich bislang nicht gekannte Bündelungen von Milliarden von Nutzern und Devices bei wenigen Global Players dar. Diese Konzentration bleibt jedoch für die Nutzer im Hintergrund und wird lediglich dann erfahrbar, wenn eines oder 85 | Tatsächlich wird inzwischen von Kühlsystemen über Netzwerkswitches und Server bis hin zu spezifischen Prozessoren und Beschleunigungskarten, fast jeder Aspekt der Cloud-Infrastrukturen von den Unternehmen selbst mindestens mitgestaltet. Vgl. für Amazon: Hamilton, James: »Perspectives«, http://perspectives.mvdirona.com/, vom 03. November 2014, für Facebook: »Facebook Code«, https://code.facebook.com vom 28. Juli 2015, für Google: »Google Data Center Tech«, www.google.com/about/data centers/, vom 28. Juli 2015. 86 | Barroso, Luiz André/Hölzle, Urs: »Handheld + Landheld = Cloud Computing«, Data Space, New York: Clog 2012, S. 18-20. 87 | Meeker/Wu: »Key Internet Trends«, S. 6. 88 | Sterling, Bruce/Lebkowsky, Jon: »State of the World 2013: Bruce Sterling and Jon Lebkowsky«, www.well.com/conf/inkwell.vue/topics/459/State-of-the-world, vom 01. August 2013. 89 | Ebd.
Im Net z der Dinge
mehrere Datencenter ausfallen und das Smartphone plötzlich wenig intelligent erscheint, weil es nicht mehr vernetzt ist, sondern nur noch ein Ding. Die im Internet der Dinge massenhaft gesammelten Daten bilden die Grundlage für Big Data-Analysen, die nur in Datencentern vorgenommen werden können. Viktor Mayer-Schönberger und Kenneth Cukier haben in ihrem maßgeblichen Buch Big Data – A transformation that will change how we live, work and think das zentrale Mantra von Big Data dargelegt: »more trumps better.«90 Für Big Data ist nicht die Qualität der einzelnen Datensätze ausschlaggebend, sondern deren schiere Quantität. Aus der Masse der Daten ergeben sich in den Analyseläufen teilweise unerwartete Korrelationen, die wiederum Geschäftsideen und Monetarisierungsoptionen bergen sollen.91 Das oben geschilderte Rush Hour Rewards-Programm von Google Nest ist ein Beispiel dafür. Hier besteht das ›More‹ in der Kombination der auf Basis des im Nest eingebauten Bewegungsscanners gleichsam nebenher anfallenden zeitgenauen Präsenzanalysen mit der Auswertungen lokaler Energiepreise, die es Google erlauben, der Energiewirtschaft lukrative Angebote zu machen. Das Internet der Dinge mit seinen aber-milliarden intelligenter Devices verspricht eine weitere Expansion dieses ›More‹. Insbesondere im Kontext von Smart City-Projekten wie von Cisco oder Intel, die die Beiträge von Jennifer Gabrys und Jussi Parikka beschreiben, werden die Verschränkungen von Big Data und dem Internet der Dinge bereits heute deutlich. Städtische Lebensräume erscheinen den börsennotierten Big Data-Protagonisten als neues ökonomisches Betätigungsfeld. Klassische kommunale Infrastrukturleistungen wie Versorgung, Mobilität und Sicherheit versprechen zugleich Zugang zu unausgeschöpften Datenquellen als auch zu neuen Public-Private-Partnerships und damit den Geldströmen der öffentlichen Hand.92 Mit dem Internet der Dinge soll die so genannte ›Smart City‹ von der Straßenlaterne bis zum Gullideckel mit Sensoren durchsetzt werden: »[T]he resulting explosion of digital data combined with clever software to help residents and municipal governments make better decisions.«93 Die bebaute Umgebung wird von passiver zu aktiver Materie, zur »active form«, wie sie Keller Easterlings Beitrag einführt. Diese Aktivierung 90 | Mayer-Schönberger/Cukier: Big Data, S. 33. 91 | Diese Argumentationen sind in der einschlägigen Literatur ausschließlich ökonomischer Natur, vgl. die kritischen Anmerkungen bei Burkhardt, Marcus: Digitale Datenbanken. Eine Medientheorie im Zeitalter von Big Data, Bielefeld: transcript 2015, S. 314. 92 | Vgl. Halpern, Orit/LeCavalier, Jesse/Calvillo, Nerea/Pietsch, Wolfgang: »Test-Bed Urbanism«, in: Public Culture 25 (2013), S. 272-306; sowie Galloway, Anne: »Intimations of everyday life. Ubiquitous computing and the City«, in: Cultural Studies Review 18 (2004), S. 384-408. 93 | Lohr, Steve: »Sidewalk Labs, a Start-Up Created by Google, Has Bold Aims to Improve City Living«, The New York Times (2015), www.nytimes.com/2015/06/11/tech
43
44
Florian Sprenger/Christoph Engemann
des Raums wird mit Google, Intel, Cisco und IBM wesentlich von Akteuren betrieben, die ökonomischen Imperativen gehorchen. Neben der Industrie 4.0 (siehe unten) sind ›Smart Cities‹ am deutlichsten von den ökonomischen Imaginationen des Internets der Dinge geprägt. Städte sind als besonders dichte Ansammlungen von Menschen und Dingen und zugleich als Brennpunkte ökonomischer Aktivität Räume, in denen sowohl die Relationen der Dinge als auch die Relationen zwischen Individuen und Dingen immer auch hinsichtlich ihrer ökonomischen Optionen verhandelt werden.94 Wenn mit dem Internet der Dinge diese Relationen für Datenanalysen zugänglich werden, so können diese nicht nur die Allokation öffentlicher Mittel optimieren, sondern es treten die genannten Firmen als Intermediäre in die Relationen zwischen den Dingen und den Dingen und den Menschen ein. In dieser Funktion aggregieren und analysieren sie Daten, um auf dieser Grundlage steuernd und kontrollierend einzugreifen. Sie monetarisieren diese Eingriffe über den Verkauf von Daten, Werbung oder die Einnahme von Gebühren. Damit treten neue Fragen nach Besitz- und Verfügungsrechten über die fraglichen Daten und Dinge auf, die, wie der Beitrag von Kai Hofmann und Gerrit Hornung in diesem Band zeigt, nicht nur das Statut des Eigentums an einer Sache betreffen, sondern auch für deren Verfügung neue, oft unüberschaubare Bedingungen bedeuten. Die räumliche Distribution von Technologien und die Neuverteilung von Handlungsmacht werden somit Teil einer globalen Geopolitik. Auch unterhalb von Problemen des Datenschutzes, ökonomischer Nutzungsdynamiken und etwaiger Machtasymmetrien, wie sie der Beitrag von Linus Neumann erörtert, stellt sich die Frage nach der Verteilung von Rechenlasten und Auswertungskapazitäten zwischen den ubiquitären Sensoren, Kleinrechnern und Servern in mittelbarer und entfernter Distanz. Sie erzeugen, wie Jennifer Gabrys zeigt, eine Environmentalität, in der biopolitische Maßnahmen im Sinne Michel Foucaults nicht mehr auf Individuen oder Bevölkerungen zielen, sondern auf deren Umgebungen. Die Brisanz der Rede von Environmental Media und Ambient Intelligence konvergiert in diesem Sinne mit der Zentralisierung, die der Dezentralisierung zugrunde liegt. Ist die Intelligenz der Gadgets lokal oder sind die lokalen Gadgets nur Interfaces entfernter und potentiell zentralisierter ›Intelligenz‹? Weiser bleibt hier noch uneindeutig und spricht einerseits von einem Fortbestehen von MainframeStrukturen neben denen des Ubiquitous Computings,95 legt aber andererseits nology/sidewalk-labs-a-start-up-created-by-google-has-bold-aims-to-improve-cityliving.html, vom 16. Juni 2015. 94 | Sassen, Saskia: The global city, New Haven: Princeton University Press 2001. 95 | Weiser, Mark/Brown, John Seely: »The Coming Age of Calm Technology«, in: Peter J. Denning/Robert M. Metcalfe (Hg.): Beyond Calculation. The Next Fifty Years of Computing, New York: Copernicus 1996, S. 75-85, hier S. 77.
Im Net z der Dinge
nahe, dass Ubiquitous Computing der Zunahme von distribuierten Servern und damit Zentralisierungsdynamiken entgegenarbeitet. Beim gegenwärtigen Stand des Internets der Dinge ist die Frage offen, ob die von vielen Beiträgen in diesem Band betonten und eben beschriebenen Zentralisierungsdynamiken medientechnischen Notwendigkeiten entsprechen oder ökonomischen und politischen Imperativen folgen.
G eopolitik des I nterne ts der D inge Die jüngeren Entwicklungen des Internets sind, so kann man aus dem Gesagten schließen, durch enorme Konzentrationsprozesse gekennzeichnet, die den lange prominenten Vorstellungen horizontaler Nivellierung geografischer Unterschiede durch das Netz zuwiderlaufen und die oft propagierte Demokratisierung in anderem Licht erscheinen lassen.96 Die Einführung von Smartphones und Tablets sowie die beschriebene Zentralisierung waren ein wesentlicher Katalysator dieser Entwicklung, deren geopolitische Konsequenzen spätestens seit den Enthüllungen von Edward Snowden immer deutlicher werden. Mit dem Erfolg des iPhones und kurze Zeit später von Googles Android ging eine massive Verlagerung der Datenströme hin zu den Datencentern der amerikanischen Unternehmen einher.97 Nokia, für eine Dekade zwischen 1997 und 2007 Marktführer bei Mobilgeräten, verschwand praktisch über Nacht und europäische Internetangebote gerieten gegenüber amerikanischen Stacks ins Hintertreffen. Gleichzeitig, und von der westlichen Öffentlichkeit wenig beachtet, haben autokratische Länder wie China und Russland auf diese Entwicklungen mit Protektionismus geantwortet und eigene Stacks aufgebaut. Die internationale Mobilität von Usern und ihren Daten wird von diesen Staaten offenbar als Problem angesehen und mit Projekten nationalistischer Internetangebote beantwortet: China isoliert seine Nutzer mittels der Great Firewall und hat mit Baidu und Alibaba Alternativen zu Google und Amazon aufgebaut. Russland betreibt mit Yandex und VK-Kontakte erfolgreiche Gegenmodelle zu Google und Facebook. Es bleibt abzuwarten, ob für das Internet der Dinge ähnliche protektionistische Dynamiken entstehen. Sicher ist jedoch, dass aus der Perspektive von Nationalstaaten eine von smarten Dingen durchsetzte Welt problematische Dimensionen aufweist. Dazu zählen Fragen nach den mit dem Internet der Dinge einhergehenden Überwachungspotentialen sowie nach der souveränitätsrelevanten allzeitigen und alleinigen Kontrolle kritischer Infrastrukturen. 96 | Siehe z.B. die selbstkritische Einschätzung bei Lovink, Geert: »Hermes on the Hudson: Notes on Media Theory after Snowden«, www.e-flux.com/journal/hermes-on-thehudson-notes-on-media-theory-after-snowden/, vom 04. April 2014. 97 | Meeker/Wu: »Key Internet Trends«, S. 7 f.
45
46
Florian Sprenger/Christoph Engemann
Wie groß das Misstrauen gegenüber Dingen, ihrer Intelligenz, Handlungsmacht und Zuverlässigkeit bereits jetzt ist, zeigen die Versuche Russlands98 und Chinas99, sich beispielsweise mittels der Entwicklung eigener Prozessoren von den USA unabhängig zu machen. Die USA selbst unterhalten als Antwort auf die Globalisierung der Chipindustrie seit 2003 das so genannte Trusted FoundryProgramm, das »provides National Security and Defense Programs with access to semiconductor integrated circuits from secure domestic sources«100. In einer Präsentation zur Geschichte und den Leistungen dieses nationalen Programms wird mit Verweis auf das trojanische Pferd das wesentliche erkenntnistheoretische Dilemma von smarten Objekten ausgesprochen: »Things are not always what they seem to be.«101 Einem vernetzten Ding kann man nicht ansehen, mit wem es vernetzt ist. Für sicherheitsrelevante Anwendungen wie GPS-Systeme in Militärgerät sind in den USA entsprechend Schaltkreise aus lokaler Produktion vorgeschrieben. Mit dem Internet der Dinge wird das dem Trusted Foundry-Programm inhärente Misstrauen zwischen der Erscheinung und dem Wesen der Dinge ein sehr viel allgemeineres Problem: Welche Funktionen, Kapazitäten, Hintertüren und Sicherheitslücken ein Objekt hat, ist für die Anwender nur schwer und in vielen Fällen vielleicht überhaupt nicht bestimmbar. Spätestens hier treten Fragen nach der Regulierung und rechtlichen Rahmung des Internets der Dinge auch jenseits von zwischenstaatlichen und gar militärischen Konfliktdynamiken im alltäglichen Bereich auf. Das Internet der Dinge bringt also auch Fragen nach der Regierbarkeit von Dingen und zugleich ihrer politischen Handlungsmacht mit sich. Wie real diese Fragen bereits jetzt sind, hat spätestens die erfolgreiche Sabotage des iranischen Atomprogramms durch den von den USA und Israel entwickelten Trojaner Stuxnet gezeigt.102 Tatsächlich waren dort Dinge nicht das, was sie zu sein 98 | Leemhuis, Thorsten: »Russland entwickelt Prozessoren für staatlich eingesetzte Systeme«, www.heise.de/newsticker/meldung/Russland-entwickelt-Prozessoren-fuerstaatlich-eingesetzte-Systeme-2236338.html, vom 20. Juni 2015. 99 | Hemsoth, Nicole: »China Intercepts U. S. Restrictions with Homegrown Supercomputer Chips«, www.theplatform.net/2015/07/15/china-intercepts-u-s-intel-restric tions-with-homegrown-supercomputer-chips/, vom 20. Juni 2015. 100 | Trusted Access Program Office (TAPO) – NSA/CSS, https://www.nsa.gov/business/ programs/tapo.shtml vom 20.Juli 2015); »DMEA -Trusted IC Supplier«, www.dmea.osd. mil/trustedic.html, vom 20. Juli 2015; McCormack, Richard: »DOD broadens ›trusted‹ foundry program to include microelectronics supply chain«, www.allbusiness.com/govern ment/government-bodies-offices-government/11420190-1.html, vom 28. März 2009. 101 | Maynard, Sonny: »Trusted Integrated Circuits for the Department of Defense«, S. 7, www.trustedfoundryprogram.org, vom 11. August 2015. 102 | Sanger, David E.: Confront and Conceal. Obama’s Secret Wars and Surprising Use of American Power, New York: Crown Publishers 2012, S. 188 f f.
Im Net z der Dinge
vorgaben, sondern in einer Weise vernetzt, die den Interessen des iranischen Staats zuwider lief. Offenbar müssen staatliche Stellen in bestimmten Fällen nicht nur epistemologische Akteure werden und die Dinge einem forschenden und prüfenden Blick unterwerfen, sondern, wie das Trusted Foundry Programm zeigt, zugleich sich selbst in die intelligenten Dinge einschreiben, um ihnen Herr bleiben zu können.103 Die sich damit ergebenden Implikationen für die historisch gewachsenen Formen souveränen Regierens wie auch für politische Philosophien sind noch kaum abzusehen. Neben dem bereits erwähnten und in Deutschland viel diskutierten Evgeny Morozov sind in den letzten zwei Jahren insbesondere zwei amerikanische Autoren mit Beiträgen hervorgetreten, die explizit die geopolitischen und souveränitätsrelevanten Dimensionen von Ubiquitous Computing und dem Internet der Dinge thematisieren. Der Politikwissenschaftler Philip N. Howards von der University of Washington sieht im Internet der Dinge die »last best chance for an open society«104 . Dagegen argumentiert Benjamin Bratton, der ehemalige Direktor der Advanced Strategies Group bei Yahoo und derzeitige Professor am Center for Design and Geopolitics der University of San Diego, unter Rekurs auf Carl Schmitt, dass mit dem Internet der Dinge und dem ihm zufolge damit zusammenhängenden »planetary computing« ein neuer Nomos der Erde einhergehe. Wie diese Beispiele zeigen, politisiert sich die Debatte um das Internet der Dinge in den USA und kommt in der breiteren Öffentlichkeit an. Das im Frühjahr 2015 erschienene Buch Pax Technica – How the Internet of Things May Set Us Free or Lock Us Up von Howard hat unter anderem mit der Princeton-Politikwissenschaftlerin Anne-Marie Slaughter, dem Harvard-Juristen Jonathan Zittrain und bekannten Bloggern wie Rebecca McKinnon und Clay Shirky prominente Fürsprecher gefunden. Howards auf den ersten Blick optimistische Einschätzung einer durch das Internet der Dinge eröffneten neuen Chance für eine offene Gesellschaft figuriert faktisch vor dem Hintergrund einer agonalen Lageanalyse. Mit dem Internet der Dinge und der spätestens seit Stuxnet sichtbar gewordenen Handlungsmacht vernetzter Objekte sieht Howard eine neue Abschreckungsdynamik mit politisch stabilisierenden Effekten einsetzen: »The proliferation of internet devices will result in balance of power akin to when a handful of nuclear states held an uncomfortable balance of power.«105 Die Folge 103 | In Deutschland betreibt die Bundesdruckerei ähnliche Projekte. Vgl.: Engemann, Christoph: »Im Namen des Staates: Der elektronische Personalausweis und die Medien der Regierungskunst«, in: Zeitschrift für Medien- und Kulturforschung 2 (2011), S. 211228; »Innovationscluster Sichere Identität – Projektübersicht«, www.sichere-identitaet. de/de/projektuebersicht, vom 01. Dezember 2010. 104 | Howard, Philip N.: Pax Technica: How the Internet of Things May Set Us Free or Lock Us Up, New Haven: Yale University Press 2015, S. XVII. 105 | Ebd., S. 153.
47
48
Florian Sprenger/Christoph Engemann
sei eine »Pax Technica«: »a political, economic, and cultural arrangement of social institutions and networked devices in which government and industry are tightly bound in mutual defense pacts, design collaborations, standards setting, and data mining.«106 Die Pax Technica sieht Howard quasi als gegenwärtige Form einer langen historischen Reihe von »Pax«-Situationen: »As with the Pax Romana, the Pax Brittania, and the Pax Americana, the pax technica is not about peace. Instead, it is about stability and predictability of political machinations that comes from having such extensivly networked devices.«107 Denn, so seine Analyse, politische Kommunikation sei nicht mehr »simply constituted by citzens and politicians«108, sondern: »Political communication systems are coordinated by network devices that citizens and politicians use with varying degrees of sophistications.«109 Eben darin sieht Howard die neuerliche Chance einer offenen Gesellschaft: eines durch das Internet der Dinge herbeigeführten technischen Waffenstillstands zwischen allen Akteuren auf Skalenniveaus vom Individuum zum Nationalstaat. Voraussetzung sei allerdings, dass in der jetzigen Phase des Ausbaus und der Standardisierung des Internets der Dinge die Grundlage für eine »robust civic infrastructure«110 gelegt würde: »[A] network of devices that produces open source data that is easy for users and contributors to understand, can be locally managed, can be ethically shared, and allows people to opt out.«111 Diese hoffungsvolle Vorstellung einer offenen Gesellschaft ist bemerkenswert: erstens da sie entgegen seiner eigenen pessimistischen Analyse von einer Einwilligung der beteiligten Akteure zum Sharing der Daten ausgeht und zweitens, da die durch Data Sharing geleistete Egalisierung hier letztlich einem durch das Internet der Dinge gesteigerten Jeder-gegen-Jeden dient. Drittens dürfte es auch Howard vor dem Hintergrund seiner eigenen Analyse klar sein, dass seine Forderung nach »locally managed« angesichts der Verschränkungsdynamiken von Lokalem und Globalem im Internet der Dinge fragwürdig anmutet. Die Offenheit der Gesellschaft, die sich Howard vorstellt, ist also wesentlich eine der allgemeinen, allseitigen Konkurrenz, die durch das Internet der Dinge verstärkt werden könne. Erst in dieser Konkurrenz könne seiner Meinung nach eine neue Stabilität, eine den »clash of civilization« überwindende »competition between network devices«112 mitsamt neuer Formen des kollektiven Handelns, kollektiver Sicherheit und gesteigerter Lebensqualität entstehen. 106 | Ebd., S. 146. 107 | Ebd., S. 146 sowie XIf. 108 | Ebd., S. XI. 109 | Ebd. 110 | Ebd., S. 254. 111 | Ebd. 112 | Ebd., S. 162.
Im Net z der Dinge
Im Gegensatz zu Howard weist Brattons ernüchternde Analyse der Dynamiken des Ubiquitous Computing eine konkrete Auseinandersetzung mit den technologischen und medialen Dimensionen dieses Phänomens auf. Bratton spricht von einer zahlreiche verschiedene Technologien umfassenden Metatechnologie namens »Planetary-Scale Computation« und verwehrt sich dagegen, »emergent ubiquitous computing technologies as a haphazard collection of individual processes, devices and standards«113 zu verstehen. Ubiquitäres Computing bezieht sich bei ihm sowohl auf die sozialen Netzwerke als auch auf das emergierende Internet der Dinge. Man könne, so Bratton, »PlanetaryScale Computation« mit einem über Sterlings Fassung hinausgehenden Vorschlag als Stack fassen: »Stack is comprised of 7 interdependent layers: Earth, Cloud, City, Network, Address, Interface, User.«114 Ohne an dieser Stelle auf die einzelnen Schichten dieses Modells einzugehen, ist der wesentliche Punkt von Brattons Argument, dass dieses Stack die Relationen von global und lokal radikal transformiere. Zum einen gewinnen die Lokalitäten des Computings mit Blick auf notwendige energetische, räumliche und konnektive, aber auch juristische Investitionssicherheiten an Bedeutung: »The Cloud is very heavy«115 und braucht entsprechend stabile Fundamente, wie sie nur Nationalstaaten bieten können, um die erläuterten Bedingungen dauerhaft zu garantieren. Zum anderen gelte, dass planetarisches Computing »distorts and deforms traditional Westphalian modes of political geography, jurisdiction and sovereignty, and produces new territories in its image.«116 Das westfälische Modell basiert »pratically«117 auf dem Ort als Bezugspunkt von Souveränität. Es ist diese Entwicklung, die Bratton als eine Herausbildung eines neuen Nomos der Erde begreift: Today, as the nomos defined by the horizontal loop geometry of the Modern state system creaks and groans, and as ›Seeing like a State«118 takes leave of its initial territorial nest — both with and against the demands of planetary-scale computation — we wrestle
113 | Bratton, Benjamin H.: »The Cloud, the State, and the Stack: Metahaven in Conversation with Benjamin Bratton«, http://mthvn.tumblr.com/post/38098461078/thec loud thestateandthestack, vom 14. Juli 2015; Bratton, Benjamin H.: »The Black Stack«, www. bratton.info/projects/texts/the-black-stack/, vom 14. Juli 2015. 114 | Bratton: »The Cloud, the State, and the Stack«. 115 | Ebd. 116 | Ebd. 117 | Ebd. 118 | Bratton spielt hier auf das einschlägige Buch Seeing like a State des Anthrophologen James C. Scott an: Scott, James C.: Seeing Like a State. How Certain Schemes to Improve the Human Condition Have Failed, New Haven: Yale University Press 1998.
49
50
Florian Sprenger/Christoph Engemann with with the irregular abstractions of information, time, and territory and the chaotic de-lamination of (practical) sovereignty from the occupation of place.
Unter Bedingungen von planetarischem Computing jedoch verschwimmt für eine Vielzahl von Interaktionen und Transaktionen der Ort als Bezugsgröße, und jede Schicht des Stacks kann eine andere geograpische Lokalität aufweisen. Vor allem aber stehen die tradierten staatlichen Formate der Stiftung von Adressierung und Identität in Konkurrenz mit Cloud-basierten Adressierungsformaten,119 die neue Erreichbarkeiten und Bezugsoptionen von Dingen und Menschen bereitstellen: […] IPv6 (roughly 1023 addresses per person) or some other massive universal addressing scheme. The quantity and range of »things« that could, in principle, participate in these pluralities includes real and fictional addressable persons, objects, locations, even addressable mass-less relations between things, any of which could be a sub-User in this Internet of Haeccities.120
Zugleich bindet das planetarische Computing die Nutzer über »attention and microeconomic compliance in exchange for global infrastructural services, and it in turn it provides each of them with an active discrete online identity and the license to use its infrastructure.«121 Das Resultat dieser Entwicklung begreift Bratton als »accidential Geopolitics«,122 in der Firmen wie Google, Facebook und Amazon sowie Yandex, Alibaba und Badiou in wechselnde Konstellationen von Einwilligung, Konkurrenz und teilweiser Verdrängung staatlicher Akteure treten, während zugleich Staatlichkeit immer mehr selbst zu einer Cloudbasierten Infrastruktur werde.123 Ähnlich wie Thrift, Hansen und Hayles zeigt Bratton »the multiplication and proliferation of other kinds of non-human Users, including sensors, financial algorithms, robots from nanometric to landscape scale, any of which one of us might enter into some relationship as one part of a composite User«124. Hier wird erneut deutlich, dass mit dem Internet 119 | Vgl. zu diesem Spannungsverhältnis auch: Engemann, Christoph: »Die Adresse des freien Bürgers: Digitale Identitätssysteme Deutschlands und der USA im Vergleich«, in: Leviathan – Berliner Zeitschrift für Sozialwissenschaft, 43/1 (2015), S. 43-63. 120 | Bratton: »The Cloud, the State, and the Stack« – Bratton zieht hier offensichtlich den scholastischen Begriff der ›Haecceitas‹ mit ›Cities‹ zusammen. 121 | Ebd. 122 | Ebd. 123 | Eine ähnliche Perspektive auf außerstaatliche, mit dem Internet der Dinge eine weitere Eskalationsstufe erreichende Machtdispositive entwirft Easterling, Keller: Extrastatecraft. The Power of Infrastructure Space, London: Verso 2014. 124 | Bratton: »The Black Stack«.
Im Net z der Dinge
der Dinge nicht nur eine Relationierung der Dinge, sondern vor allem auch Relationen zwischen Individuen und Dingen eskalieren und diese mindestens für die Unternehmen als ökonomische Optionen wichtig sind. Denn die Unternehmen können sich in diese Relationen einschalten und aus den Interaktionen Geschäftsmodelle entwickeln. Das oben gebrachte profane Beispiel der Amazon Dash Board Buttons illustriert dies bereits eindrücklich. Zugleich rufen Versuche großer Wirtschaftsunternehmen, sich als ökonomischer Intermediär der Beziehungen im Internet der Dinge zu etablieren, die Staatlichkeit auf den Plan. Zunächst, da hier neue Fragen nach der Besteuerung und Bezollung solcher Relationen auftreten, im Weiteren aber auch immer dann, wenn insbesondere biopolitische Motive berührt sind. Ob die Daten aus Apple Watches und von Fitnesstrackern von gesundheitspolitischer Relevanz sind, wird bereits kontrovers diskutiert,125 und mit intelligenten Matratzen, vernetzen Medikamentendöschen und anderen Tools des Ambient Assited Living werden diese Diskussionen noch zunehmen. Evgeny Morozov ist bereits überzeugt: »Silicon Valley is attacking the welfare state«,126 allerdings nicht um ihn abzuschaffen, sondern um »algorithmic regulation« als Alternative anzupreisen und sich zugleich an die riesigen Geldströme des Sozialstaates anzuschließen. Es ist absehbar, dass die Gestaltungen solcher Relationsräume zwischen Menschen und Dingen Teil gouvernementaler Projekte werden, und entsprechend ist eine Intensivierung der oben genannten Auseinandersetzung um die Konstellationen des Miteinanders und Gegeneinanders von Akteuren des Internets der Dinge und staatlicher Stellen zu erwarten. Wie sehr auch der Diskurs in Deutschland unterschwellig von geopolitischen Motiven durchwirkt ist, zeigt das Beispiel Industrie 4.0. Unter diesem Titel betreibt das Bundesministerium für Wirtschaft und Energie in Zusammenarbeit mit der Wirtschaft seit 2011 eine mit 100 Millionen Euro finanzierte Kampagne, die dem deutschen Industriestandort den Weg in das Zeitalter des Internets der Dinge erleichtern soll. In der vom Ministerium mitverantworteten »Digitalen Agenda 2014-2017« heißt es: »Immer mehr Daten (Big Data) werden miteinander verknüpft (Smart Data) und führen zu neuen Dienstleistungen (Smart Services) und Produkten.« Daraus folgern die Autoren: »Die Wirtschaft ist von diesen Veränderungen in ihrem Kern massiv betroffen. Industrie 4.0, die vernetzte Produktion, hat das Potenzial, Wertschöpfungsketten grundle125 | »Krankenkasse: Politiker kritisieren Zuschuss für Apple Watch«, Spiegel Online (2015), www.spiegel.de/gesundheit/ernaehrung/apple-watch-als-kassen-bonus-poli tiker-kritisieren-die-idee-a-1047201.html, vom 10. August 2015. 126 | Morozov: The Rise of Data vom 05. Juni 2015, sowie Morozov, Evgeny: »A dystopian welfare state funded by clicks«, http://evgenymorozov.tumblr.com/post/12603 0163570/a-dystopian-welfare-state-funded-by-clicks, vom 16. August 2015, auch erschienen in der Financial Times Online vom 03. August 2015.
51
52
Florian Sprenger/Christoph Engemann
gend neu zu gestalten und die Geschäftsmodelle der deutschen Leitbranchen wie Anlagen- und Maschinenbau, Automobilbau, Elektro- und Medizintechnik erheblich zu beeinflussen.«127 Die Juxtaposition von »massiv betroffen« und »deutschen Leitbranchen« im selben Satz zeigen die Beunruhigung an, die den gesamten Industrie 4.0-Diskurs durchzieht und die die finanzstarke Intervention der Bundesregierung rechtfertigt. Man fürchtet, dass in diesem Imaginarium einer vollständig vernetzten Kontrolle aller Produktionsprozesse von miteinander kommunizierenden Fabriken, Transport und Handel, smart, interagierenden Produktionsabläufen in denen Maschinen ihren eigenen Nachschub ordern und Kundenwünsche flexibel berücksichtigt werden, Deutschland ins Hintertreffen gerät: »Der globale Wettbewerb in der Produktionstechnik nimmt zu. Neben Deutschland haben auch andere Länder den Trend zur Nutzung des Internets der Dinge und Dienste in der industriellen Produktion erkannt.«128 Um im globalen Wettbewerb zu bestehen, müsse Deutschland verstärkt in industrielle Anwendungen des Internets der Dinge investieren: »Dann kann Deutschland mit Industrie 4.0 seine internationale Wettbewerbsfähigkeit ausbauen und Produktionsvolumen am Standort halten.«129 Diese Standortrhetorik ist zentral für die Industrie 4.0-Kampagne und findet sich in beinahe allen einschlägigen Veröffentlichungen. Allerdings ist der Tonfall vieler Autoren inzwischen wesentlich skeptischer, wie der Beitrag von Sabina Jeschke et al. in diesem Band zeigt. Auch in der von ihr mitverantworteten Studie mit dem Titel »Paradigmenwechsel im deutschen Maschinen- und Anlagenbau« wird von einem »Weckruf für die deutsche Industrie«130 gesprochen: Der Technologievorsprung deutscher Unternehmen schwindet und ein Großteil von ihnen droht bei der notwendigen Anpassung an die neuen Heraus- und Anforderungen der ›Industrie 4.0‹ zurückzufallen. Um seine führende Position nicht zu verlieren und im anziehenden globalen Wettbewerb weiter tonangebend mithalten zu können, besteht für den deutschen Maschinen- und Anlagenbau akuter Handlungsbedarf.131 127 | Bundesministerium für Wirtschaft und Energie: »Die Digitale Agenda 2014-2017«, www.bmwi.de/DE/Themen/Digitale-Welt/digitale-agenda.html, vom 11. August 2015. 128 | Bundesministerium für Forschung und Bildung: Forschungsunion Wirtschaft – Wissenschaft: »Umsetzungsempfehlungen für das Zukunftsprojekt Industrie 4.0. Abschlussbericht des Arbeitskreises Industrie 4.0«, S. 5, www.bmbf.de/pubRD/Umset zungsempfehlungen_Industrie4_0.pdf, vom 12. August 2015. 129 | Ebd., S. 7. 130 | Jeschke, Sabina et al.: »Paradigmenwechsel im deutschen Maschinen- und Anlagenbau«, http://publications.rwth-aachen.de/record/479129?ln=de, vom 11. August 2015. 131 | Ebd., S. 7.
Im Net z der Dinge
Für die deutsche Wirtschaft und Politik ist das Internet der Dinge also längst zu einem geopolitischen Phänomen geworden: Wer die Dinge wo produziert, die dem Internet der Dinge zugrunde liegen und von ihm erzeugt werden, ist die zentrale Frage, die durch die Veröffentlichungen zur Industrie 4.0 geistert. Während dem wirtschaftlichen Erfolg der sozialen Medien mit einer Mischung aus Kulturpessimismus und Arroganz begegnet wurde, erzeugt das Internet der Dinge in Deutschland offenkundig Angst. In seinen praktischen Implikationen benennt eine jüngst veröffentlichte Studie die Zahl von bis zu 18 Millionen Arbeitsplätzen, die durch den Technologiewandel in Gefahr seien.132 Dass das Internet der Dinge eine neuerliche Welle der Automatisierung und Rationalisierung der Arbeit mit sich bringen wird, ist weitgehend unstrittig. Denn »in der neu entstehenden Smart Factory herrscht eine völlig neue Produktionslogik: Die intelligenten Produkte sind eindeutig identifizierbar, jederzeit lokalisierbar und kennen ihre Historie, ihren aktuellen Zustand sowie alternative Wege zum Zielzustand.«133 Noch deutlicher wird die Rhetorik der gesellschaftlichen Umwälzung im Bericht zur Industrie 4.0 der vom Stifterverband der Deutschen Wirtschaft getragenen Forschungsunion Wirtschaft-Wissenschaft: »Nach Mechanisierung, Elektrifizierung und Informatisierung der Industrie läutet der Einzug des Internets der Dinge und Dienste in die Fabrik eine 4. Industrielle Revolution ein.«134 Wie bei den meisten der einschlägigen Berichten zur Industrie 4.0 bleibt offen, ob sich daraus fundamentale Folgen für das Statut der Arbeit und ihrer privilegierten Stellung als Form der Gewinnung des Lebensunterhalts ergeben. Prominente Kommentatoren des digitalen Wandels wie Constanze Kurz und Frank Rieger halten die sozialpolitische Fixierung auf Arbeitsplätze vor dem Hintergrund der mit dem Internet der Dinge zu erwartenden Rationalisierungsdimensionen für überkommen.135 Stattdessen fordern sie den Übergang zu einem gesellschaftlich finanzierten Grundeinkommen. Am Internet der Dinge entzündet sich so neuerlich die philosophische Debatte, ob Arbeit befreiende oder unterwerfende Wirkung habe. Timo Kaerlein zeigt im vorliegenden Band luzide, wie sich die Kontroll- und Befreiungsversprechen von Arbeit in den Interaktionsparadigmen und Interfaces des Internets der Dinge verschränken. Jens Schröters Beitrag situtiert diese Debatten als Teil historisch langlebiger und krisenhafter 132 | www.ing-diba.de/imperia/md/content/pw/content/ueber_uns/presse/pdf/ ing_diba_economic_research_die_roboter_kommen.pdf, vom 03. August 2015. Die Arbeitsplätze von Akademikern seien davon am geringsten betroffen. 133 | Forschungsunion: »Umsetzungsempfehlungen für das Zukunftsprojekt Industrie 4.0 », S. 5. 134 | Ebd. 135 | Kurz, Constanze/Rieger, Frank: Arbeitsfrei. Eine Entdeckungsreise zu den Maschinen, die uns ersetzen, München: Riemann 2013.
53
54
Florian Sprenger/Christoph Engemann
Auseinandersetzungen um das Verhältnis zwischen Arbeit, Automatisierung und Kapitalismus. In der Debatte um die Industrie 4.0 wird evident, dass mit dem Diskurs um das Internet der Dinge Notwendigkeiten der Positionsbestimmung einhergehen, die nicht nur die Positionen und Adresse einzelner Dinge betreffen, sondern Fragen nach der Verortung auf allen Skalenniveaus von Konzepten bis hin zu ganzen Ländern mit sich bringen. Diese Geopolitik wiederum kann, wie Anja Kanngieser gezeigt hat, auf der Mikroebene der räumlichen Verteilung von Arbeit und Arbeitern weiterverfolgt werden. Verfahren des Tracings und Trackings transformieren, insofern sie nicht nur Objekte oder Waren, sondern die Bewegung von Menschen betreffen, die rechtlichen und politischen Grundlagen von Arbeit und Bürgerrechten sowie das Verhältnis von Privat und Öffentlich.136 Ob spezifisch deutsche Standortrhetorik oder wie bei Philip N. Howard und Benjamin Bratton auf globales Niveau ausgemalte Szenarien: Mit dem Internet der Dinge werden offenkundig geopolitische Diskursformationen aktiviert, die einer kritischen Analyse harren. Nils Werbers Studie zur Geopolitik liefert hier einerseits mit ihrer Genealogie geopolitischen Denkens, andererseits mit ihrem Vorschlag, dass »geopolitische Semantik« dem »Raum selbst eine Agency«137 zuspreche, bedenkenswerte Ansatzpunkte. Denn einem einmal solcherart mit Handlungsmacht aufgeladenen Raum werden spezifische Eigenschaften zugeschrieben. Diese wiederrum eignen sich Akteure an und weisen diese Räume als parteiisch aus.138 Mit Blick auf die Geschichte sieht Werber die resultierende wechselseitige Dynamik zwischen Akteuren und Räumen äußerst kritisch: »Diese dem Raum zugeschriebene Handlungsmacht hat sich durchweg als fatal erwiesen.«139
Z usammenfassung und A usblick Die im Aufriss dieser Einleitung vorgeführten Aspekte des Internets der Dinge sind für medien- und kulturwissenschaftliche Debatten in mehrfacher Hinsicht fruchtbar. Offenkundig geht mit dem Auftauchen massenhaft produzierter Dinge, die mit Sensoren ausgestattet und über das Internet adressierbar sind, mehr einher als das bloße Auftauchen einer neuen Produktkategorie. Es handelt sich vielmehr um eine Entwicklung, die insbesondere für die Formen, 136 | Vgl. Kanngieser, Anja: »Tracking and tracing. Geographies of logistical governance and labouring bodies«, in: Environment and Planning D: Society and Space 31 (2013), S. 594-610. 137 | Werber, Niels: Geopolitik – zur Einführung, Hamburg: Junius 2014, S. 149. 138 | Ebd. 139 | Ebd., S. 150.
Im Net z der Dinge
die Erfahrungen und Kategorien des Raumes fundamentale Folgen zeitigt. Wie bereits angedeutet, scheint hier eine Ontologie des Internets der Dinge auf, in der nur existiert, was eine Adresse hat. Der Raum, der durch Infrastrukturen zu einem überwachten wird, kann als Environment gelten, da er von den Relationen zwischen Objekten und ihren Netzen gebildet wird. In eine ähnliche Richtung hat auch Dieter Mersch argumentiert, für den nicht die isolierten Artefakte, sondern ihr »Anschluss an Dingkonstellationen und die Systeme ihrer Verknüpfung« die zentrale Rolle spielt: »Viel entscheidender als die Dinge sind darum ihre Relationen zueinander, ihre Verbindungen und Trennungen.«140 Diese seien vor allem in Diagrammatik, Graphen, Matrizen und Schaltkreisen manifestiert, die wiederum alle auf »die Schrift, das Notationelle«141 verweisen. Das Environment des Internets der Dinge ist entsprechend ein berechneter und berechnender Raum, in dem jedes Objekt eine eindeutige Adresse hat, mit der es lokalisiert und positioniert werden kann. Alle derart vernetzten Objekte müssen immer überwacht werden, um die Funktionalität des Raums aufrecht zu erhalten, in dem sich der User bewegt. Deshalb ist innerhalb dieser Sphäre notwendigerweise der Ort aller Objekte bekannt. Ihr Raum wird relational durch die Information über die Koordinaten seiner Objekte konstituiert. Wenn Objekte mit einem RFID-Chip, einem GPS-Empfänger oder einer Netzwerkadresse ausgestattet sind, und wenn dies schlicht alle Objekte betrifft, wie schon Weiser prophezeit (und wie es derzeit mit IPv6 in Aussicht steht), dann werden diese Objekte trotz der beschränkten Reichweite der Infrastrukturen zu einem Raum verbunden, dessen Innen kein Außen mehr kennt. Als Raum der Verteilung von Daten und der Anordnung von Objekten soll dieser technisch durchdrungene Raum ubiquitär werden: »The crucial issue is not the usual bits per second, but bits per second per cubic meter, where the final divisor is the volume of space over which a given data source can be heard.«142 Dieser Raum wird durch die Übertragung von Daten und mit diesen wiederum über die Position der Objekte relational ihre Verteilung definiert. Wie groß er ist, hängt von der Bandbreite pro Quadratmeter ab, wie Jordan Crandalls Beschäftigung mit diesen Räumen hervorgehoben hat: »[Calculative mobilization] generates an ›enhanced‹ environment in which potentially every entity, defined in terms of its location and its tracked and anticipated movements, can become the subject of its calculative procedures.«143
140 | Mersch, Dieter: Ordo ab chao – Order from Noise, Berlin: Diaphanes 2013, S. 35. 141 | Ebd. 142 | Weiser, Mark: »Ubiquitous computing«, in: IEEE Computer October (1993), S. 7172, hier S. 71. 143 | Crandall, Jordan: »The Geospatialization of Calculative Operations. Tracking, Sensing and Megacities«, in: Theory, Culture & Society 27 (2010), S. 68-90, hier: S. 76.
55
56
Florian Sprenger/Christoph Engemann
Der Raum dieser Berechnungen ist gerade nicht ubiquitär, sondern an konkrete Infrastrukturen und Praktiken gebunden. Innerhalb dieser ist er jedoch durch die technische Überwachung bis ins Feinste gegliedert. In dieser Hinsicht hat Agustin Araya von der San Jose State University, und damit aus dem ökonomischen Herzen des Silicon Valley, Ubiquitous Computing in einer zeitgenössischen, aber kaum gehörten Kritik als »obliterating the otherness of certain aspects of the world by the pervasive penetration of everyday life«144 definiert. Araya spielt durch, was es heißen würde, wenn die damaligen Visionen umgesetzt wären. In diesem Falle würden wir alle Dinge, auch solche, bei denen dies vielleicht gar nicht der Fall ist, als vernetzt und überwacht ansehen. Vernetzung und Überwachung wären das Sein, das wir ihnen zusprechen. Dinge wären, durchaus gemäß dem kybernetischen Paradigma, Dinge-inÜberwachung. Die Frage, die sich damit stellt, lautet, ob in diesem Raum noch Dinge verloren gehen können.145 Was seine Adresse verliert oder aus dem Netz verschwindet, was schlicht unter Strommangel leidet oder sich zwischen zu dicken Mauern befindet, ist außerhalb des berechneten Raums. Wenn etwa ein Buch in einer Bibliothek seinen RFID-Chip oder ein Häftling seine elektronische Fußfessel verliert, verschwindet das Objekt spurlos. Das Internet der Dinge setzt damit um, was Gilles Deleuze 1990 noch als Science Fiction erschienen war: Einen »Kontrollmechanismus […], der in jedem Moment die Position eines Elements in einem offenen Milieu angibt, Tier in einem Reservat, Mensch in einem Unternehmen (elektronisches Halsband). […] Was zählt, ist […] der Computer, der die – erlaubte oder unerlaubte – Position jedes einzelnen erfasst und eine universelle Modulation durchführt.«146 Dieser Raum ist auch mit neuesten RFID-Technologien oder Satellitenüberwachung durch die Grenzen des Empfangs, durch endende Kabel, Stromausfälle und Mauern begrenzt. Nicht zuletzt gibt diese Verortung zugleich Fragen danach auf, wessen Computer diese Leistung vollbringen und wo die konkreten Infrastrukturen und Praktiken der Ortung verortet sind. Die Welt ohne Außen zu organisieren könnte ein Privileg bestimmter Intermediäre werden, denn die Rechenkapazitäten und Verfahren der Lokalisierung unterliegen den angesprochenen Asymmetrien und sind global ungleich verteilt. Es wird sich herausstel144 | Agustin Araya: »Questioning ubiquitous computing«, in: Proceedings of the 1995 ACM 23rd Annual Conference on Computer Science (1995), S. 230-237, hier S. 235. 145 | In einem anderen Kontext wurde diese Frage gestellt von Dodge, Martin/Kitchin, Rob: »Outlines of a world coming into existence. Pervasive computing and the ethics of forgetting«, in: Environment and Planning B: Planning and Design 34 (2007), S. 431-445. 146 | Deleuze, Gilles: »Postskriptum über die Kontrollgesellschaften«, Unterhandlungen 1972 – 1990, Frankfurt a.M.: Suhrkamp 1993, S. 254-262, hier S. 261.
Im Net z der Dinge
len, ob das Internet der Dinge die Geschichte der Cloud mit ihren Rechenzentren auf der einen und den als Sensorplattformen fungierenden Endgeräten auf der anderen Seite fortschreiben oder einen anderen Weg einschlagen wird. Darüber hinaus sind Fragen nach dem Status von Handlungszuordnung und -autonomie zwischen Menschen und Dingen aufgeworfen. Wie Natascha Adamowsky in diesem Band betont, folgen daraus Notwendigkeiten, den Verbleib der Menschen als privilegierten Handlungsträgern neu zu figurieren. Der Verlust oder der Verzicht auf die Souveränität des Menschen, den die einschlägigen Theorien fordern, sollte mit dieser Umgestaltung und Erneuerung von Souveränität zusammengedacht werden. Wenn die Stacks auf die erläuterte Weise immer mehr die Position transdisziplinärer Souveräne erlangen, die über lokalen Gesetzen und Verordnungen stehen, dann geht es ihnen um die Macht von Menschen über Menschen. Die Instrumente dieser Macht sind jedoch mehr und mehr Maschinen, die mit Maschinen interagieren. Sie wandeln weniger Energie in Leistung als in Information um. Es ginge mithin in einer weiterführenden Perspektive nicht darum, den Menschen in einem antihumanistischen Impuls147 aufzugeben oder die Maschine als veraltetes Konzept zurückzuweisen, sondern vielmehr beide, gekoppelt an Konzepte wie Souveränität, Arbeit, Handeln, Wahrnehmen oder Denken unter der gegenwärtigen technologischen Bedingung neu durchzuarbeiten.148 Sie verschwinden nicht, werden aber zu etwas anderem. Im Zuge dieser Veränderungen sind ältere Formationen wie Staaten und Wirtschaftsunternehmen zugleich Objekt und Subjekt der Entwicklung. Die Dynamiken dieser Transformationen sind nicht abzusehen, aber es dürfte deutlich geworden sein, dass sowohl Firmen als auch die Staatlichkeit versuchen, als intermediäre Akteure steuernd, regelnd und regierend in die Relationen des Internets der Dinge einzutreten. Dabei suchen sie diese sowohl zur eigenen Umgebung zu machen als auch die damit entstehenden Umgebungen den eigenen Interessen gemäß zu formieren. Auch im Internet der Dinge lautet die entscheidende Frage, wer mit wem oder was verbunden bzw. wer von wem oder was getrennt ist und wer oder was über diese Verbindung bzw. Trennung entscheidet.149 Für die Medienwissenschaft stellt sich somit die Aufgabe, die Prozesse der Environmentalisierung theoretisch wie empirisch weiter auszuschreiten, und 147 | Vgl. zur Kritik daran Mersch: Ordo ab chao. 148 | Zu den ethischen Implikationen vgl. Hubig, Christoph: »Ubiquitous Computing. Eine neue Herausforderung für die Medienethik«, in: International Review of Information Ethics 8 (2007), S. 28-35. 149 | Vgl. zur gegenwärtigen Politik dieser Mikroentscheidungen Sprenger, Florian: Politik der Mikroentscheidungen. Edward Snowden, Netzneutralität und die Architekturen des Internets, Lüneburg: Meson Press 2015.
57
58
Florian Sprenger/Christoph Engemann
dabei die im eigenen Diskurs entwickelten epistemischen Figurationen von Medialität neu zu befragen. Weiterhin wird im Sinne einer Genealogie des Internets der Dinge nach den Herkünften und historischen Vorläufern von Dingrelationen und ihren intermediären Prozessen zu fragen sein. Untersuchungen zur ökonomischen und politischen Regierbarmachung von Dingen sollten in den Blick nehmen, wie diese beiden Sphären sich jeweils in Abgrenzung, aber auch kodependent entwickelt haben. Wenn das Internet der Dinge tatsächlich fundamentale Verlagerungen der Raumrelationen mit sich bringt, betrifft das auch die Politiken des Raumes und den Ansprüchen auf ihre Kontrolle. Vor diesem Hintergrund ließen sich dann die skizzierten Hinsichten insbesondere der Regierbarmachung und der Geopolitik des Internets der Dinge einer medienwissenschaftlichen Analyse zuführen. Die Totalitätsfigur der Ubiquität und ihres Anspruchs eines totalen Einschlusses in eine Welt der Adressierbarkeit verweist auf historische Formationen von Allwissen150 und Weltschliessung, die in ihren theologischen151, aber auch geschichtsphilosophischen Dimensionen bislang kaum reflektiert wurden. Gegenwärtig nach diesen Dimensionen des Internets der Dinge zu fragen, ist deswegen so dringlich, weil in diesem Kontext über alle technischen Entwicklungen hinaus ein neues Verhältnis von Mensch und Maschine und damit nichts weniger als ein neues Verständnis des Technischen verhandelt oder einfach durchgesetzt wird. Die Herausgeber danken Anna-Lena Wiechern und Lotte Warnshold für ihre wertvolle Hilfe bei den Korrekturarbeiten der Beiträge sowie Jantje Marie Sieling und Samantha Gupta für ihre Unterstützung bei der Realisierung dieses Bandes. Den Übersetzern Regina Wuzella und Michael Schmidt sei für ihre aufmerksamen Übertragungen in die deutsche Sprache gedankt. Philipp von Hilgers und Christine Blättler verdankt die Einleitung wichtige Hinweise. Gero Wierichs und dem Team vom transcript Verlag sei für die tatkräftige Unterstützung bei der Realisierung gedankt.
150 | Vgl. Bergermann, Ulrike: »Das Planetarische. Vom Denken und Abilden des ganzen Globus.«, in: Ulrike Bergermann/Isabell Otto/Gabriele Schabacher (Hg.): Das Planetarische. Kultur – Technik – Medien im postglobalen Zeitalter, München: Wilhelm Fink 2010, S. 17-42, sowie insbesondere zur kolonialen Genealogie des Phantasmas allwissender Bürokratien: Siegert: Passage des Digitalen, S. 65-118; Siegert, Bernhard: Passagiere und Papiere. Schreibakte auf der Schwelle zwischen Spanien und Amerika., München: Wilhelm Fink 2006. 151 | Vgl. Peters, John Durham: The Marvelous Clouds: Toward a Philosophy of Elemental Media, Chicago: University of Chicago Press 2015, S. 315-377.
Das kommende Zeitalter der Calm Technology Mark Weiser/John Seely Brown1
E inleitung Die wichtigen Wellen des technologischen Wandels sind diejenigen, welche die Rolle der Technologie in unserem Leben nachhaltig verändern. Entscheidend ist nicht die Technologie selbst, sondern ihre Beziehung zu uns. Während der letzten fünfzig Jahre der Computerentwicklung gab es in dieser Hinsicht zwei große Trends: die Mainframe-Beziehung und die PC-Beziehung. Heute treibt uns das Internet durch ein Zeitalter des verteilten Computings hin zu einer Beziehung des Ubiquitous Computings, das durch ein tief in die Welt eingebettetes Computing charakterisiert ist. Ubiquitous Computing wird einen neuen Ansatz erfordern, Technologien in unser Leben zu integrieren, einen Ansatz, den wir Calm Technology nennen möchten. Dieser Artikel beschreibt in aller Kürze die eben genannte Veränderung der Beziehung von Mensch und Computer und wendet sich dann dem Design eines calm using zu, das sich sowohl auf das Zentrum als auch auf die Peripherie unserer Aufmerksamkeit für die Welt richtet. Tabelle 1 Die wichtigsten Trends der Computerentwicklung Mainframe
Viele User teilen einen Computer
Personal Computer
Ein Computer, ein User
Internet – Verteiltes Computing
… Übergang zu …
Ubiquitous Computing
Viele Computer, die von vielen von uns verwendet werden
1 | [Dieser Text wurde als Überarbeitung des Aufsatzes »Designing Calm Technology«, erschienen in: PowerGrid Journal 7 (1996), zuerst veröffentlicht in: Peter J. Denning/ Robert M. Metcalfe (Hg.), Beyond Calculation. The Next Fifty Years of Computing, New York: Springer 1997, S. 75-85. Wir danken John Seely Brown für die freundliche Erlaubnis, den Text zu veröffentlichen.]
60
Mark Weiser/John Seely Brown
P hase I – D ie M ainfr ame Ä r a Das erste Zeitalter nennen wir »Mainframe«, um uns jene Beziehung zwischen Mensch und Computer in Erinnerung zu rufen, in der Experten hinter verschlossenen Türen vor riesigen Anlagen saßen. Immer dann, wenn Rechenkraft eine rare Ressource darstellt und mit anderen geteilt werden muss, ist unser Verhältnis zu Computern das der Mainframe-Ära. Es gibt auch heutzutage Mainframe-Computing: Ein gemeinsam verwendeter Office-PC und die umfassenden physikalischen Simulationen von Prozessen wie dem Wetter oder der Virtual Reality basieren auf dem Teilen einer beschränkten Ressource. Wenn also eine Menge von Menschen einen Computer gemeinsam nutzen, spricht man von Mainframe-Computing.
P hase II – D ie PC Ä r a Der zweite große Trend ist der des Personal Computers. 1984 überstieg die Anzahl der Menschen, die einen PC besaßen, die Anzahl der Menschen, die sich Computer in der Nutzung teilten.2 Die PC-Beziehung ist persönlich, vielleicht sogar intim. Man besitzt seinen eigenen Computer, der persönliche Daten speichert und mit dem direkt und tiefgreifend interagiert werden kann. Während der Benutzung des PCs ist man vollständig von diesem eingenommen, man tut sonst nichts anderes. Einige Menschen geben ihren Computern Namen und viele verfluchen den eigenen PC oder beschweren sich bei ihm. Der PC kann in Analogie zum Automobil gesehen werden – einem speziellen, relativ kostenintensiven Gegenstand, der uns, während er uns dorthin befördert, wohin wir wollen, ein nicht zu verachtendes Maß an Aufmerksamkeit abverlangt, um zu funktionieren. Und so wie man mehrere Autos gleichzeitig besitzen kann, kann man auch mehrere PCs sein Eigen nennen: für zu Hause, für die Arbeit, für unterwegs. Jeder Computer, mit dem man eine spezielle Beziehung pflegt oder der bei der Bedienung vollkommene Aufmerksamkeit braucht, ist ein PC. Die meisten Handhelds wie der Zaurus, der Newton oder der Pilot werden heute immer noch als PC verwendet. Selbst ein NetzwerkComputer für 500 Dollar gilt noch als PC.
2 | IDC: »Transition to the Information Highway Era«, in: Information Industry and Technology Update 1995-96, S. 2.
Das kommende Zeitalter der Calm Technology
Ü bergang – D as I nterne t und D istributed C omputing Vieles ist über das Internet geschrieben worden und auch darüber, wohin es uns führt. Wir werden dem nur wenig hinzufügen. Das Internet beeinflusst die Wirtschaft und den Umgang mit Technologie auf umwälzende Weise. Millionen von Menschen und ihre Informationen sind miteinander vernetzt. Spät in der Nacht, gegen 6 Uhr früh beim Einschlafen nach einer 20-StundenSchicht am Keyboard, kann der aufmerksame Technologe manchmal die 35 Millionen Homepages, die 300.000 Knoten und die 90 Millionen User förmlich rufen hören: »Gib fein acht auf mich!« Interessanterweise bringt das Internet Elemente sowohl der MainframeÄra als auch der PC-Ära zusammen. Es handelt sich um Client-Server-Computing in ungeahnter Größenordnung, mit PCs als Web-Clients und Mainframes als Web-Servern (ohne ein Informations-Management-System als steuernde Einheit). Obwohl das Internet noch am Anfang steht, handelt es sich um ein Projekt von kolossalem Ausmaß, das unsere besten Erfinder, unsere innovativsten Financiers und unsere größten multinationalen Konzerne auf den Plan ruft. Innerhalb der nächsten Dekade werden die Ergebnisse der neuen Verbundenheit persönlicher, geschäftlicher und staatlicher Information ein neues Aktionsfeld aufspannen, ein neues Medium, vor dessen Hintergrund die nächste Beziehung zwischen Mensch und Technologie hervortreten wird.
P hase III – D ie Ä r a des U biquitous C omputings Die dritte Welle stellt das Zeitalter des Ubiquitous Computings dar. Der Übergang vom PC wird zwischen 2005 und 2020 geschehen.3 In der UC-Ära werden wir Computer teilen. Einige davon werden die vielen hundert Computer sein, die wir innerhalb weniger Minuten des Browsens aufrufen. Weitere Computer werden in Wände, Sessel, Kleider, Lichtschalter oder Autos eingebettet sein – in alles. Ubiquitous Computing ist charakterisiert durch die Verbindung der Dinge in der Welt durch Rechenkraft. Dies wird nahezu alle Maßstabsebenen betreffen – die Mikroskopische eingeschlossen.4 In diesem Zusammenhang wird heute viel über Thin Client-Technologien nachgedacht. Damit sind mobile Internet-Geräte gemeint, die wenige hundert Dollar kosten. Aber Ubiquitous Computing wird darüber hinaus die Produktion von Thin Servern einleiten, die nur einige Dollar kosten und jedem Haushalt und Büro einen eigenen Internet-Server bereitstellen sollen. Die nächste Gene3 | Ebd. 4 | Gabriel, K.: »Engineering Microscopic Machines«, in: Scientific American 273/3 (1995), S. 118-121.
61
62
Mark Weiser/John Seely Brown
ration des Internet Protokolls IPv6 ist in der Lage, mehr als tausend Geräte für jedes Atom auf der Erdoberfläche zu adressieren.5 Wir werden sie alle benötigen. Die soziale Tragweite der eingebetteten Computer könnte analog zu zwei anderen Technologien verlaufen, die ebenfalls ubiquitär sind. Die erste ist das Schreiben, welches überall zu finden ist – von Kleidungsetiketten bis hin zu Reklameleuchten. Bei der zweiten handelt es sich um Elektrizität, die als unsichtbare Kraft zwischen den Wänden jedes Hauses, Büros und Autos strömt. Schreiben und Elektrizität sind in der Gesellschaft so verbreitet, so unverwechselbar, dass wir ihren großen Einfluss auf das tägliche Leben schnell vergessen. So wird es auch mit Ubiquitous Computing sein. Die bevorstehende Ubiquitous Computing-Ära zeichnet sich bereits in Form von (in Dingen) eingebetteten Mikroprozessoren und dem Internet ab. In einem US-amerikanischen Mittelschicht-Haushalt ist es heutzutage ein leichtes, 40 Mikroprozessoren zu identifizieren. Man findet sie in Alarm-Uhren, der Mikrowelle, der TV-Fernbedienung, der Stereo-Anlage, dem Fernseher oder dem Kinderspielzeug. Sie sind aber aus zwei Gründen nicht Teil des Ubiquitous Computings: sie sind meist nur einzeln und nacheinander in Gebrauch. Sie tarnen sich als wohlbekannte Geräte wie Toaster oder Uhren. Aber miteinander vernetzt werden sie zu einer Technologie des Ubiquitous Computings. An das Internet angeschlossen verbinden sie Millionen von Informationsquellen mit hunderten informationsverteilenden Systemen: Uhren, die nach einem Kurzschluss selbstständig die richtige Zeit anzeigen, Mikrowellen, die neue Rezepte downloaden, Kinderspielzeug, das selbst neue Software generiert und so die neuesten Vokabeln bereitstellen kann, Wandfarbe, die selbstreinigend ist und zudem über Einbrecher Bescheid gibt sowie Wände, die selektiv Geräusche dämmen, sind nur einige der vorstellbaren Möglichkeiten. Ubiquitous Computing wird als Informationstechnologie nicht nur Lösungen für die großen Herausforderungen der Ökonomie und der Schularbeiten in Aussicht stellen, sondern auch für kleinere Unannehmlichkeiten wie ›Wo sind die Autoschlüssel? Gibt es einen freien Parkplatz? Gibt es immer noch das T-Shirt, das ich letzte Woche bei Macy’s im Schaufenster gesehen habe?‹. Viele Forscher arbeiten dieser neuen Epoche entgegen – darunter auch unser Projekt bei Xerox PARC, MITs Things That Think-Programm6, die zahlreichen tragbaren und mobilen Computerentwicklungen7 (viele davon von ARPA be-
5 | Deering, S./Hinden, R.: »RFC: IPv6 Specification«, www.ietf.org/rfc/rfc2460.txt, vom 03. Juli 2015. 6 | MIT Media Lab: »Things That Think«, http://ttt.media.mit.edu, vom 03. Juli 2015. 7 | Watson, Terri: »Mobile and Wireless Computing«, http://snapple.cs.washington. edu:600/mobile/mobile_www.html, nicht mehr online.
Das kommende Zeitalter der Calm Technology
gründet) sowie Konzerne wie Mattel und Disney, die Computer in Alltagsobjekte integrieren. Was macht diese Entwicklung zu einem umwälzenden Trend? Zunächst handelt es sich um Veränderungen der grundlegenden menschlichen Beziehungen und damit dessen, was uns wichtig ist – wir können uns ihnen nicht entziehen. Zweitens bauen die oben beschriebenen Beziehungen aufeinander auf. Es ist offensichtlich, dass die Mainframe-Beziehung niemals vollständig verschwinden wird, auch nicht die PC-Beziehung. Als Grundlage für den nächsten Beziehungsmodus sind beide auch dann enorm wichtig, wenn sie selbst unwichtiger werden. Drittens stellt jede dieser Beziehungen reiche Ressourcen der Innovation dar, die es nötig gemacht haben, althergebrachte Annahmen zu überdenken und alte Technologien in anderen Kontexten neu anzueignen. Es ist oft festgestellt worden, dass die Betriebssysteme von PCs den Betriebssystemen von Mainframes um ungefähr 20 Jahre hinterherhinken – aber dieser Befund missversteht die Logik technologischer Revolutionen. Der radikal neuartige Kontext des PCs – ein unkontrollierter Raum, unregulierter Einsatz der Software und Hardware von Drittanbietern, unkontrollierte Macht, finanziell leicht erschwingliche Ausstattung, regelmäßige Upgrades – bedeutet, dass Mainframe-Technologien einer konzeptuellen Anpassung bedürfen. Die Ära des Ubiquitous Computings führt bereits zu einem umfassenden Hinterfragen des gängigen Computerdesigns. So hat uns beispielsweise unsere Arbeit dazu veranlasst, neue Maßeinheiten wie MIPS/Watt und Bits/Sekunde/ M³ einzuführen. (Nach einer Dekade der Stagnation hat sich das Volumen der MIPS/Watt in den letzten drei Jahren nahezu verhundertfacht.) Forschungen über Radios bis zum User Interface, von Hardware bis zu den theoretischen Grundlagen, sind vom veränderten Kontext des Ubiquitären beeinflusst.8 Der wahrscheinlich interessanteste, herausforderndste und grundlegendste Wandel, der mit der Ubiquitous Computing-Ära eintritt, ist das Hervortreten dessen, was wir Calmness nennen wollen. Wenn Computer allgegenwärtig sind, dann ist es ratsam, sie so unbemerkt wie möglich zum Einsatz kommen zu lassen, und das erfordert, sie so zu designen, dass die Personen, die von Computern geteilt werden, gelassen bleiben und die Kontrolle behalten. Hintergründigkeit oder Calmness ist eine neue Herausforderung des Ubiquitous Computings. Wenn Computer lediglich von Experten hinter verschlossenen Türen benutzt werden, ist Calmness kaum relevant. Computer für den persönlichen Gebrauch haben sich auf die Aufregung der Interaktion konzentriert. Aber wenn Computer allgegenwärtig sind, sodass wir während der Anwendung etwas anderes tun können und mehr Zeit gewinnen, um menschlicher zu sein [to be more fully human], müssen wir radikal unsere Ziele, den Kon8 | Weiser, Mark: »Some Computer Science Problems in Ubiquitous Computing,« in: Communications of the ACM 32/7 (1993), S. 75-84.
63
64
Mark Weiser/John Seely Brown
text und die Technologie des Computers sowie all der anderen Technologie hinterfragen, die unser Leben zu durchdringen beginnen. Calmness ist eine fundamentale Herausforderung für jedwedes technologisches Design in den nächsten fünfzig Jahren. Der zweite Teil dieses Artikels beginnt einen Dialog über die Möglichkeiten, Calm Technologies zu designen.
C alm Technology Design, das gleichzeitig entlastet und informiert, begegnet zwei menschlichen Bedürfnissen, die normalerweise nicht oft gemeinsam angetroffen werden. Denn Informationstechnologien sind oftmals alles andere als calm. Pagers, Handys, neue Dienstleistungen, das World Wide Web, Email, TV und Radio bombardieren uns in frenetischer Manier. Können wir wirklich in der Technologie nach einer Lösung suchen? Manche Technologie führt allerdings geradewegs zu Ruhe und Komfort. Denn in einem gemütlichen Paar Schuhe, einem edlen Füllhalter oder dem Ausliefern der New York Times an die Haustür ist nicht weniger Technologie involviert als in einem Heim-PC. Warum versetzen uns manche Technologien eher in Aufruhr, während andere beruhigen? Wir glauben, dass der Unterschied darin liegt, auf welche Art diese Technologien unsere Aufmerksamkeit auf sich ziehen. Calm Technology adressiert sowohl das Zentrum als auch die Peripherie unserer Aufmerksamkeit und oszilliert sogar zwischen den beiden Polen hin und her.
D ie P eripherie Wir verwenden den Begriff »Peripherie«, um das zu benennen, auf das wir eingestimmt [attuned] sind, ohne bewusst aufmerksam zu sein [attending].9 Normalerweise ist unsere Aufmerksamkeit während des Autofahrens auf die Straße gerichtet, auf das Radio, auf unsere Mitreisenden, nicht jedoch auf das Geräusch des Motors. Ein ungewöhnliches Geräusch wird aber sofort wahrgenommen, was uns zeigt, dass wir unbewusst auf die Peripherie ausgerichtet waren und uns im Notfall umgehend darauf einstellen können. Es sollte klar sein, dass das, was wir mit Peripherie meinen, keineswegs am Rand liegt oder unwichtig ist. Was in einem Moment peripher ist, mag im nächsten Moment im Zentrum unsere Aufmerksamkeit stehen und dadurch 9 | Brown, John Seely/Duguid, P.: »Keeping It Simple: Investigating Resources in the Periphery«, in: E. Terry Winograd (Hg.), Exploring Software Design, Menlo Park: Adison Wesley 1993.
Das kommende Zeitalter der Calm Technology
entscheidend werden. Dieselbe physische Form mag sowohl Elemente im Zentrum als auch in der Peripherie aufweisen. Die Tinte, welche die zentralen Worte eines Textes kommuniziert, navigiert uns auch an der Peripherie des Textes mittels Schrifttypus und Layout durch das Geschriebene. Calm Technology wird uns fugenlos von der Peripherie unserer Aufmerksamkeit zum Zentrum und wieder zurück leiten. Sie wirkt aus zweierlei Gründen fundamental beruhigend [encalming]: Erstens, weil das Platzieren von Dingen an der Peripherie es uns erlaubt, viel mehr gleichzeitig wahrzunehmen, als wir es könnten, wären alle Informationen zentral angeordnet. Wenden wir uns Dingen in der Peripherie zu, wird damit ein großes Zentrum unseres Gehirns angesprochen, welches dem peripheren sinnlichen Prozessieren gewidmet ist. Die Peripherie informiert, ohne zu überwältigen. Zweitens übernehmen wir Kontrolle über das, was wir aus der Peripherie ins Zentrum holen. Peripher mögen wir bemerken, dass etwas nicht mit rechten Dingen zugeht, so wie eigenartig klingende Sätze einen Leser müde und unwohl hinterlassen, ohne dass er den Grund dafür wüsste. Indem wir aber die Satzkonstruktion in das Zentrum unserer Aufmerksamkeit verlagern, sind wir in der Lage, bewusst zu handeln, entweder, indem wir bessere Literatur auswählen oder die Quelle des Unwohlseins akzeptieren und fortfahren. Ohne Zentrierung kann die Peripherie zu einem verzweifelten Versuch werden, einer Mode zu folgen. Mit dem Gegenpol der Zentrierung ermöglicht die Peripherie Ruhe durch gesteigerte Bewusstheit und Kontrolle. Nicht jede Technologie muss unauffällig [calm] sein. Ein lediglich im Hintergrund ablaufendes Videospiel hätte keinen großen Wert, geht es doch darum, aufgeregt zu sein. Aber zu viel Design lenkt die Aufmerksamkeit auf das Objekt selbst und dessen Oberflächen-Beschaffenheit, ohne den Kontext zu berücksichtigen. Wir müssen lernen, die Peripherie zu gestalten, sodass wir Technologie kontrollierend verwenden können, ohne von ihr dominiert zu werden. Unser Konzept von peripher gelagerter Technologie ist eng verbunden mit dem Konzept der affordances, das von Gibson entworfen10 und von Gaver11 und Norman12 auf Technologie angewendet wurde. Der Begriff affordance beschreibt eine Beziehung zwischen einem Objekt in der Welt und den Absichten, Wahrnehmungen und Möglichkeiten einer Person. Die Seite der Tür, die nur nach außen öffnet, leistet [affords] diese Aktion, indem sie eine plane Oberfläche hierfür bietet. Die Idee der affordance, so folgenreich sie auch sein mag, tendiert dazu, die Oberfläche von Designs zu beschreiben. Für uns jedoch reicht 10 | Gibson, James: The Ecological Approach to Visual Perception, New York: Houghton Mifflin 1979. 11 | Gaver, W. W.: »Auditory Icons: Using Sound in Computer Interfaces«, in: Journal of Human-Computer Interaction, 2/2 (1986), S. 167-177. 12 | Norman, D. A.: The Psychology of Everyday Things, New York: Basic Books 1988.
65
66
Mark Weiser/John Seely Brown
der Terminus affordance nicht weit genug in die Peripherie, an der man auf Design eingestimmt ist, sich diesem aber nicht bewusst zuwendet [attuned to but not attended to].
D rei M erkmale der C alm Technology Technologien operieren im Hintergrund, wenn sie unsere Peripherien erreichen. Dies geschieht in zweifacher Weise. Zunächst zeichnet Calming Technology, wie schon erwähnt, ein einfaches Manövrieren vom Zentrum zur Peripherie und zurück aus. Darüber hinaus vermag eine Technologie unsere periphere Reichweite zu erweitern, indem sie mehr Details in die Peripherie bringt. Ein Beispiel dafür ist eine Video-Konferenz, die es uns im Vergleich zu einem Telefongespräch ermöglicht, uns auf Gestik und Mimik einzustimmen, auf die wir andernfalls keinen Zugriff hätten. Dies wirkt hintergründig [encalming], wenn die erweiterte Peripherie unser Wissen und unseren Handlungsspielraum vergrößert, ohne dabei zu einem Informations-Overload zu führen. Der Effekt der Calm Technology besteht darin, dass wir uns zu Hause fühlen, wie an einem vertrauten Ort. Wenn unsere Peripherie gut funktioniert, dann sind wir eingestimmt auf das Geschehen um uns herum, und zwar gleichermaßen auf das, was passieren wird, wie auf das, was soeben geschah. Dies ist eine Schlüsselfunktion der Visualisierung von Information wie dem Cone Tree.13 Solche Technologien sind mit Details angefüllt und adressieren trotzdem unsere vor-aufmerksame [pre-attentive] Peripherie, sodass wir niemals überrascht sind. Die Peripherie verbindet uns hier ohne jede Anstrengung mit einer Myriade bekannter Details. Diese Verbindung zur Welt nennen wir Locatedeness. Sie ist das fundamentale Geschenk, das uns die Peripherie gibt.
B eispiele für C alm Technology Wir werden nun einige weitere Designs beschreiben, an denen uns die Parameter der Bewegung zwischen dem Zentrum und der Peripherie, der peripheren Reichweite und der Locatedeness interessieren. Wir werden uns Büroinnenfenstern, dem Internet Multicast und den Dangling Strings zuwenden.
13 | Robertson, G. G./MacKinlay, J. D./Card, S. K.: »Cone trees: Animated 3D visualizations of hierarchical information«, in: Human-Computer-Interaction 91 (1991), S. 189-194.
Das kommende Zeitalter der Calm Technology
Büroinnenfenster Wir wissen nicht, wer das Konzept der Fenster, die vom Büro in die Gänge reichen, erfunden hat. Aber diese Innenfenster sind ein Beispiel für schönes, einfaches Design, das sowohl die periphere Reichweite als auch die körperliche Verortung [locatedness] fördert. Das Fenster zum Flur erweitert unseren peripheren Radius, indem es einen Zwei-Wege-Kanal für Input aus dem Environment öffnet. Sei es die Bewegung anderer Menschen, die den Gang entlang gehen (es ist Mittagszeit; die Konferenz beginnt), oder sei es dieselbe Person, die zum dritten Mal durchs Fenster hineinblickt, während man telefoniert (sie will mich wirklich sehen; ich habe einen Termin vergessen): Das Fenster verbindet die Person im Inneren und die umgebende Welt. Innenraumfenster verbinden Menschen im Büro ebenfalls mit jenen, die sich außerhalb dieser Räume befinden. Ein kleiner Lichtstrahl, der in den Gang fällt, teilt uns mit, dass jemand spät abends arbeitet; jemand, der gerade etwas aus seinem Büro holt, ist vielleicht zu einem Small Talk bereit. Diese dezenten Signale werden zu einem Teil der Peripherie eines harmonischen und komfortablen Arbeitsklimas. Bürofenster demonstrieren eine grundsätzliche Fähigkeit zur Bewegungen zwischen Zentrum und Peripherie. Man kann sie einer offenen Büroarchitektur gegenüberstellen, bei welcher die Schreibtische nur durch niedrige oder keinerlei Trennwände voneinander abgegliedert sind. Offene Büros drängen zu sehr auf Zentrierung. Wenn beispielsweise eine Person in einer offenen Zelle verweilt, verlangt dies aufgrund sozialer Konventionen der Privatsphäre und der Höflichkeit nach Aufmerksamkeit. Es gibt wenige Möglichkeiten, beim subtilen Blick durch das Fenster Teile einer Konversation mitzuhören. Das Individuum und nicht das Environment muss kontrollieren, wie Dinge vom Zentrum in die Peripherie und zurück verschoben werden.
Internet Multicast Die neue Technologie namens Internet Multicast14 hat das Potential, das nächste Phänomen des World Wide Web zu werden. Manchmal MBone genannt (für Multicast backBONE), wurde Multicasting von einem Absolventen der Stanford University namens Steve Deering erfunden. Während das World Wide Web zu jedem Zeitpunkt der Übertragung nur zwei Computer verbindet, um für einige Momente Daten zu laden, verbindet 14 | Kumar, Vinay: MBone: Interactive Multimedia On The Internet, New York: Macmillan Publishing 1995.
67
68
Mark Weiser/John Seely Brown
MBone konstant mehrere Computer zugleich. Mit der bekannten AutobahnMetapher beschrieben, lässt das WWW für jede Person immer nur ein Auto zur gleichen Zeit auf die Straße. Dieses muss geradewegs auf das Ziel zusteuern, ohne jegliche Zwischenstopps oder Umleitungen zu nehmen. Im Gegensatz dazu öffnet MBone Verkehrsströme zwischen mehreren Personen gleichzeitig und ermöglicht so einen Fluss von Aktivitäten, der eine Nachbarschaft auf baut. Wo ein WWW-Browser scheu von einem Ort zum anderen reist, um nach wenigen Millisekunden zurück zum Ausgangsort zu eilen, unterhält MBone dauerhafte Beziehungen zwischen mehreren Maschinen, Plätzen und Menschen. Multicast dreht sich vor allem um ein wachsendes peripheres Aufmerksamkeitsspektrum, das an der Fähigkeit hängt, kostengünstig mehrere Multimedia-Dienste (Video, Audio etc.) konstant zu verbinden. Kontinuierlich laufendes Video-Streaming von anderen Orten bedeutet nicht länger Fernsehen oder Videokonferenzen, sondern eher ein Tor zur Aufmerksamkeit. Ein kontinuierlicher Videostream bringt Details in die Peripherie: der Raum ist sauber, vielleicht, weil etwas Wichtiges darin passieren wird; an der Ostküste kamen heute alle spät nach Hause, es muss wohl einen langen Stau oder einen Schneesturm gegeben haben. Multicast teilt mit Video-Konferenzen und dem Fernsehen die wachsende Möglichkeit, sich auf die Wahrnehmung bestimmter Details einzustellen. Verglichen mit einem Telefon oder einem Faxgerät bietet der breitere Kanal volle Multimedia-Möglichkeiten, um Personen besser durch das Kabel hindurch zu ›projizieren‹. Die Präsenz wird durch die schnelle Reaktionsfähigkeit erweitert, die eine Zwei-Wege-Verbindung oder gar eine multiple Interaktion mit sich bringt. So wie Innenraumfenster ermöglicht es auch Multicast, dass die Kontrolle über die Peripherie beim Individuum verbleibt und nicht ins Environment übergeht. Eine entsprechend gestaltete Echtzeit-Multicast-Anwendung eröffnet, anstatt einzufordern. MBone gewährleistet die notwendige partielle Trennung, um zwischen Zentrum und Peripherie zu pendeln, was eine Welt hoher Bandbreiten allein nicht zu leisten vermag. Weniger ist mehr, wenn weniger Bandbreite für mehr Calmness sorgt. Zurzeit gestaltet sich die Nutzung von Multicast schwierig, und bis dato sind nur wenige Anwendungen von einigen sehr smarten Menschen entwickelt worden. Dies könnte allerdings auch über den digitalen Computer von 1945 gesagt werden, und ebenfalls vom Internet von 1975. Multicast in unserer Peripherie wird unsere Welt innerhalb der nächsten fünfzig Jahre grundlegend verändern.
Das kommende Zeitalter der Calm Technology
Dangling String Bits, die durch die Kabel eines Computernetzwerkes transportiert werden, sind für gewöhnlich unsichtbar. Aber ein radikal neues Kunstwerk stellt den Datenflow als Bewegung, Sound und sogar Berührung dar. Diese Apparatur kommuniziert sowohl Licht als auch große Mengen an Datenverkehr. Ihr Output ist so einfach und schön in die menschliche Informationsverarbeitung integriert, dass man die Apparatur nicht einmal direkt anzusehen braucht, um mit peripheren Signalen versorgt zu werden. Die Apparatur nimmt keinen Raum auf dem Bildschirm ein und enthält auch selbst keinen Computer. Sie braucht keine Software, kostet nur wenige Dollar und kann von mehreren Personen zur gleichen Zeit verwendet werden. Sie wird Dangling String genannt. Abbildung 1
Der Dangling String, entwickelt von der Künstlerin Natalie Jeremijenko, ist eine ungefähr sieben Meter lange Plastikspaghetti, die von einem kleinen, elektrisch angetriebenen Motor gehalten wird, der von der Decke herabhängt.15 Der Motor ist mit dem nächsten Ethernet-Kabel verbunden, sodass jedes passierende Bit an Information ein kleines Ruckeln des Motors verursacht. Ein sehr stark genutztes Netzwerk erzeugt eine wild wirbelnde Schnur mit einem charakteristischen Geräusch, ein ruhiges Netzwerk verursacht einige kleine Drehungen im Abstand von ein paar Sekunden. In einem ungenutzten Teil des 15 | [Die Künstlerin Natalie Jeremijenko hat dieses Werk im Rahmen von PAIR, dem PARC Artist in Residence-Programm in den Büros von PARC installiert. – Anm. R. W.]
69
70
Mark Weiser/John Seely Brown
Flurs angebracht, ist die lange Schnur von vielen Büros aus sichtbar und hörbar, ohne ablenkend zu sein. Sie macht Spaß und ist nützlich. Zunächst erzeugt sie ein neues Zentrum der Aufmerksamkeit, weil sie so einzigartig ist. Aber dieses Zentrum wird schnell peripher, wenn das sanfte Wirbeln der Schnur in den Hintergrund tritt. Dass die Schnur sowohl gesehen als auch gehört werden kann, hilft dabei, sich auf die periphere Wahrnehmung einzustimmen. Der Dangling String erweitert unseren peripheren Radius um den vormals unzugänglichen Datenverkehr. Obwohl man diesen häufig auf Bildschirmen sehen kann, bedarf es trotzdem an Interpretation und Aufmerksamkeit, um die dargestellten Symbole zu entschlüsseln. An die Peripherie versetzt, eröffnet sich ihr Sinn nicht. Die Schnur bietet hingegen als weltliches Ding eine bessere Voraussetzung, um die peripheren Nervenzentren unseres Gehirns zu treffen. Abbildung 2
Ein großer Anteil des Gebrauchs von Computern ist von Computernetzwerken abhängig, aber während wir das Drehen der Disk hören und der Bildschirm aufleuchtet, bleiben die Bits innerhalb des Netzwerkes unwahrnehmbar. Wie Arbeiter in fensterlosen Bürogebäuden, die sich wundern, warum das Licht ausgeht, da sie nichts vom Gewitter sehen konnten, ist es schier unmöglich für uns, uns auf innerhalb des Netzwerks aufkommenden Schwankungen einzustellen. Der Dangling String ist insofern ein Fenster in das Netzwerk selbst. Er erzeugt einen Kontext für lange, unverständliche Pausen in der Datenübertra-
Das kommende Zeitalter der Calm Technology
gung, für einen langsam arbeitenden Internet-Browser oder den Umfang eines Datentransfers. Der Einsatz dieser Schnur zielt nicht darauf ab, konkrete Informationen zu sammeln, sondern eine Art Hintergrund für das Datenwetter zu schaffen, sodass unser Computergebrauch informierter und weniger überraschend oder ablenkend ist.
C onclusio Es mag widersprüchlich sein, zu behaupten, dass im Angesicht anhaltender Beschwerden über Informations-Überlastung ein Mehr an Information eine beruhigende Eigenschaft in sich bergen könnte. Es scheint nahezu widersinnig, zu behaupten, dass es, um sich auf mehr Information einstimmen zu können, nötig sei, weniger auf sie zu achten. Es liegt an diesen beinah bizarr wirkenden Eigenschaften, dass momentan nur so wenige Designansätze Zentrum und Peripherie ernsthaft einbeziehen, um ein größeres Maß an Verortung [locatedness] zu erreichen. Aber Design wie dieses wird sich im Zeitalter des Ubiquitous Computing als wegweisend erweisen. Wenn wir lernen, Calm Technology zu designen, werden wir nicht nur die Sphäre unsere Artefakte erweitern, sondern auch unsere Möglichkeiten des Zusammenseins. Wenn unsere Welt mit vernetzten, eingebetteten Computern ausgestattet ist, wird Calm Technology eine zentrale Rolle in einem humaneren, selbstgestalteten 21. Jahrhundert spielen.
Übersetzt von Regina Wuzella
71
Die Vergangenheit der Zukunft Kommentar zu »Das kommende Zeitalter der Calm Technology« Florian Sprenger
Der vorliegende Text, der erstmals in deutscher Übersetzung zugänglich gemacht wird, eröffnet die ganze Breite, mit der um die Jahrtausendwende am einflussreichen Xerox Palo Alto Research Center (PARC) im Herzen des Silicon Valley über die vernetzten Technologien des Ubiquitous Computings und ihre philosophischen sowie ontologischen Auswirkungen nachgedacht wird. Gemeinsam mit dem Direktor des Forschungszentrums, John Seely Brown, skizziert Mark Weiser (1952-1999), der früh verstorbene Leiter des dortigen Computer Science Laboratory, eine Geschichte des Computers, eine Epistemologie der Technik und eine Philosophie der Beziehung des Menschen zur Welt. Weiser gilt bis heute als Prophet der Vernetzung der Dinge. Sein technisches Schaffen, manifestiert in zahlreichen Patenten, Produkten und Programmen, umfasst zugleich eine Auslegung menschlicher Existenz unter computertechnischen Bedingungen und ist darin eine Diagnose jener Gegenwart, die bei PARC imaginiert wird. Für Weiser geht der kulturelle Einfluss des Ubiquitous Computings über die Entwicklung neuer Geräte oder die Erschließung neuer Märkte hinaus und betrifft ebenfalls mehr als das bei PARC auch in seinen gesellschaftlichen Auswirkungen betrachtete Verhältnis von Mensch und Computer. Vielmehr entwirft Weiser einen philosophischen Resonanzraum um eine von Martin Heidegger inspirierte Ontologie des In-der-Welt-Seins durch die Zuhandenheit allgegenwärtiger, aber peripherer, unsichtbarer, aber vorausschauender Computer. Angetrieben von einem massiven Miniaturisierungsschub sollen sie die Existenz des Menschen angesichts seiner Infragestellung durch die real existierenden Computer erleichtern und vielleicht sogar auf eine neue Stufe erheben, indem sie auf gestalttheoretische Weise so in die Wahrnehmung des Users integriert werden. Dieser soll nicht mehr abgelenkt werden und sich auf das konzentrieren können, was wirklich wichtig ist. Dass dies vor allem seine Arbeit ist und dass hinter den Überlegungen Weisers nicht nur
74
Florian Sprenger
die kalifornische Ideologie,1 sondern eine Erweiterung kapitalistischer Wertschöpfung durch die Steuerung der Environments menschlicher Wahrnehmung steht, kann an dieser Stelle nur angedeutet werden. Die Konzentration noch der heutigen Debatten auf Weisers Person ist nicht nur dem gerade im Silicon Valley verbreiteten Personenkult geschuldet, sondern der Tatsache, dass er durch sein unabgeschlossenes Philosophiestudium und seine Auseinandersetzung mit Heidegger sowie der Gestalttheorie zwar kein Programm, aber doch einen breiteren Rahmen für Ubiquitous Computing abgesteckt und in einigen bis in die Gegenwart zitierten Texten reflektiert hat. Durch ihren visionären Gestus, den Genevieve Bell und Paul Dourish auf seine Effekte innerhalb der Mythen der New Economy untersucht haben,2 unterscheiden sich Weisers Texte vom üblichen Tonfall von Ingenieuren und Informatikern. Dieser auf die Zukunft gerichtete Blick hat sicherlich zur imaginären Aufladung von Ubiquitous Computing beigetragen – eine Aufladung, die heute angesichts der aktuellen Entwicklungen smarter und vernetzter Technologien mit der damals imaginierten Zukunft kontrastiert werden kann. Zu diesem Punkt, an dem die Beiträge dieses Bandes einsetzen, soll der folgende Kommentar hinführen, indem der Kontext von Weisers Überlegungen dargestellt und auf die technische Entwicklung bezogen wird. Die Arbeit bei PARC ist sicherlich nicht das einzige kommerzielle Projekt auf diesem Gebiet, das die zu dieser Zeit mit dem Erfolg des Internets aufscheinenden Möglichkeiten der Vernetzung in die Welt konkreter Objekte zu übertragen versucht. Auch andere Unternehmen und Institutionen als Xerox, von Intel und Microsoft über das MIT und das Georgia Institute of Technology bis hin zu verschiedenen Regierungen, beschäftigen entsprechende Forschungsabteilungen. Mit dem Internet der Dinge, wie es zur gleichen Zeit vorgestellt wird, sind Ubiquitous Computing und Calm Technology nicht deckungsgleich, weil es weniger darum geht, alle Dinge zu vernetzen und ihnen Adressen zuzuteilen, als vielmehr darum, durch die Rechenleistung vernetzter, miniaturisierter Computer eine unsichtbare Infrastruktur zu schaffen. Parallele Bestrebungen wie content-aware-programming oder pervasive computing, die sich in einigen Details von der Arbeit bei PARC unterscheiden, werden jedoch nicht auf vergleichbare Weise utopisch aufgeladen und philosophisch
1 | Vgl. Barbrook, Richard/Cameron, Andy: »The Californian Ideology«, in: Science as Culture 6 (1996), S. 44-72. 2 | Typischerweise wird Ubiquitous Computing, so Bell und Dourish – erstere: Leiterin des Interaction and Experience-Projekts bei Intel, letzterer: ehemaliger PARC-Mitarbeiter – als etwas Kommendes, Unabwendbares und Evidentes beschrieben: Dourish, Paul/Bell, Genevieve: Divining a digital future. Mess and mythology in ubiquitous computing, Cambridge: MIT Press 2011.
Die Vergangenheit der Zukunf t
grundiert.3 Die technischen Probleme sind nicht immer gleich, die philosophischen Herausforderungen aber ähnlich. Deshalb bietet es sich auch an dieser Stelle an, zur Einführung in den Problemkomplex dieses Buches auf Weiser zurückzukommen. Weiser beginnt bereits im Alter von 15 Jahren mit dem Programmieren und macht dabei, wie er in einer späteren Studienarbeit erläutert, die Erfahrung eines isolierenden Eingriffs des Computers in sein Leben, die er als charakteristisch für seine Generation und ihr Verhältnis zur technischen Durchdringung ansieht: »I was working in another city, lived essentially alone, had no friends there. The computer became what kept me going. A successful program was in many ways what I lived for. But, no, more than that, just using the fancy glittering device, probing its intricacies, was my life, essentially.«4 Dieser Narration, die an zu dieser Zeit (und noch heute) verbreitete Annahmen über die Vereinsamung durch Computer anschließt, wird er noch in seinen späteren Texten folgen. Um sich von dieser Umklammerung zu lösen, beginnt Weiser, sich mit Philosophie zu beschäftigen, ist allerdings kein herausragender, aber ein solider Student. Zunächst studiert er an der New York State University bei dem Phänomenologen Don Ihde und dann bei Douglas Berggren, über den er zu einer Zeit mit Heidegger in Berührung kommt, als dieser an den philosophischen Instituten der USA gemieden wird. Er beschäftigt sich intensiv mit Marcuse und dem Pragmatismus. Obwohl er keinen Universitätsabschluss in Philosophie erreicht, wird Weiser einige Jahre später aufgrund des Erfolgs seiner ersten IT-Start-ups in die Graduate School der University of Michigan aufgenommen, wo er Computer and Communication Sciences studiert. Nach einigen Jahren als Assistant Professor am Department for Computer Science in Maryland beginnt er 1988 seine Arbeit bei PARC als Leiter des prestigeträchtigen Computer Science Laboratory und des neuen Schwerpunkts zu Ubiquitous Computing. Dort trifft er auf John Seely Brown, zu dieser Zeit leitender Forscher bei Xerox und eine Dekade lang bis zum Juni 2000 Direktor von PARC. Beide stehen für die interdisziplinäre, oft unkonventionelle und Technologie, Design und Philosophie verbindende Ausrichtung des Forschungszentrums. »Das kommende Zeitalter der Calm Technology« erscheint erstmals 1996 im PowerGrid-Journal und damit einige Jahre nach Weisers wohl bekanntes3 | Vgl. Friedewald, Michael: »Ubiquitous Computing. Ein neues Konzept der MenschComputer-Interaktion und seine Folgen«, in: Hans D. Hellige (Hg.), Mensch-ComputerInterface. Zur Geschichte und Zukunft der Computerbedienung, Bielefeld: transcript 2008, S. 259-280. 4 | Weiser, Mark: »Final Paper for Intro. to Crit. Phi.« Stanford University Libraries. Department of Special Collections. Mark Weiser Archives. Collection M1069, Box 143, Folder 22.
75
76
Florian Sprenger
tem Text, »The Computer for the 21st Century«, der im Scientific American ein breites Publikum erreicht und bis heute in nahezu allen Veröffentlichungen zu diesem Thema zitiert wird.5 Zahllose Artikel in den einschlägigen technischen Journalen stellen seitdem vor, was kommen wird und erörtern zwar technische Entwicklungen, aber immer vor dem Hintergrund des zu erwartenden Gebrauchs und seiner Folgen. Mit dieser rhetorischen Strategie kann die Verantwortung der jeweiligen Forscher herabgesetzt und die weitere Umsetzung auf andere Schultern verlagert werden, während der dauerhafte Zustand des Kommenden zur Ressource für neue Imaginationen wird. Weil der Begriff Ubiquitous Computing für einige Missverständnisse sorgt, verwenden Weiser und Brown an dieser Stelle einen neuen Überbegriff: Calm Technology. Mit der Ubiquität des Ubiquitous Computings war weniger gemeint, dass Computer in einen umfassenden Modus der Allgegenwart übergehen sollten, sondern vielmehr, dass sie durch ihre Verteilung und vielfältige Gestaltung überall verfügbar sein, dabei aber – dies ist der Einsatz der Calmness, die nun in den Mittelpunkt tritt – unauffällig und im Hintergrund bleiben sollen. Um die Grundlagen für dieses Computerdesign zu schaffen, erarbeiten Weiser und Brown, auf das Konzept der Affordances des amerikanischen Phänomenologen James J. Gibson zurückgreifend, einen ersten Ansatz zu einer gestalttheoretisch fundierten Wahrnehmungstheorie der Computernutzung.6 Calm Technology wird nicht nur als neue Computertechnologie vorgestellt, sondern als Modus des Wahrnehmens und In-der-Welt-Seins. Damit eröffnet der Text eine Perspektive auf die Konsequenzen einer neuen Beziehung zur Welt durch eine neue Beziehung des Menschen zum Computer, die im Folgenden in drei Hinsichten vertieft werden soll: der Selbstverortung innerhalb der Computergeschichte, der Unsichtbarkeit der Technologie und der neuen Beziehung zur Welt durch den Computer.
5 | Google Scholar gibt für diesen Text fast 10.000 Zitate an. 6 | Mit diesen Überlegungen betritt Weiser keineswegs Neuland. Bereits 1985 hatte die damals bei PARC beschäftigte Ethnologin Lucy Suchman zunächst in einem internen Positionspapier und dann zwei Jahre später in ihrem Buch Plans and Situated Actions – The Problem of Human-Machine-Communications ebenfalls mit Bezug auf Heidegger die Darstellung von Handlungen bzw. Handlungsanweisungen in Maschinen und Computern interpretiert (Suchman, Lucy: Plans and situated actions. The Problem of Human-Machine Communication, Cambridge: Cambridge University Press 1987). Suchman, an der Entwicklung früher Benutzeroberflächen für PCs beteiligt, entwirft darin Modelle für Mensch-Computer-Interaktionen, die den Arbeitskontext berücksichtigen, in dem Computer verwendet werden. Sie sollen – 1985 keine Selbstverständlichkeit – so gestaltet werden, dass sie in einen Dialog mit dem User treten und dabei die ›Intentionen‹ des Computers als Angebot an Handlungsoptionen darstellen.
Die Vergangenheit der Zukunf t
V om M ainfr ame zur I mbeddedness Der Text verortet diesen neuen Ansatz vor der Kontrastfolie einer in drei Stadien unterteilten Computergeschichte: auf die Mainframe- und die PC-Ära folge das Zeitalter der Calm Technology. Die damalige Computertechnik des PCs stellt der Text als aufdringlichen Eindringling in das Alltagsleben dar, jedoch nicht wegen ihrer umfangreichen Funktionen, sondern weil diese Funktionen nicht in die Abläufe und die Umgebung des Lebens eingepasst sind. Alles, was Computer für ihre User tun können, spielt sich in dieser Zeit vor dem Bildschirm ab und wird von ihm beherrscht, obwohl die Interfaces und Eingabegeräte diese Arbeit alles andere als erleichtern. Wer vor dem Computer sitzt, muss sich allzu häufig auf den Computer konzentrieren und nicht auf seine Arbeit. Gestalttheoretisch formuliert: der Computer ist die Figur, die Arbeit der Hintergrund. Dies will man bei PARC ändern. Die erstrebte Steigerung der Lebensqualität und der Produktivität ist eng verknüpft mit einem neuen Weltzugang, in dem Computer in den Hintergrund treten und dort ihre Rechenkraft umso mächtiger ausspielen. Das PARC-Projekt versteht sich zunächst als Antwort auf die zu teuren, zu komplexen und benutzerunfreundlichen Auswüchse der Computerindustrie der späten 1980er Jahre und möchte nach Mainframes und PCs eine dritte Phase einleiten. Motiviert ist dieses Vorhaben durch den Aufstieg des Internets, der einerseits Computer in ungekanntem Ausmaß zum Alltagsgegenstand macht und andererseits technische Möglichkeiten der Vernetzung mit sich bringt. Als Research and Development-Abteilung des Bürogeräteherstellers Xerox gegründet, liegt der Schwerpunkt der Arbeit an der Coyote Hill Road in Palo Alto auf Geräten für den Bürogebrauch. Dies hat den Vorteil, dass die Büros von PARC selbst zum Testlabor für neue Entwicklungen werden können. Typisch für PARC und sicherlich auch ein Grund für den anhaltenden Erfolg der dortigen Erfindungen – vom Laserdrucker über das Ethernet bis zur Maus – ist eine Fokussierung auf den Alltag der Mitarbeiter, welche die Geräte beständig verwenden und einer besonderen Beanspruchung unterziehen. Die seit Alan Kay verfolgte Strategie PARCs lautet, die Zukunft vorherzusagen, indem sie in Form von Prototypen gebaut und auf die genannte Art getestet wird.7 Weisers Team entwickelt die bei PARC von einer kleinen Gruppe von Entwicklern um besagten Kay entworfene Idee von aus Rechnern, grafischen Benutzeroberflächen und Eingabegeräten bestehenden Computern weiter. Diese Computer waren für Individuen gedacht, die isoliert vor ihrem Rechner am Schreibtisch sitzen und deren einziges Gegenüber Bildschirme mit aufwändigen Interfaces sein sollte. So weit ist es zu Weisers Zeit schon gekommen, 7 | Vgl. Hiltzik, Michael A.: Dealers of lightning. Xerox PARC and the dawn of the computer age, New York: Harper Business 1999.
77
78
Florian Sprenger
doch das Frustrationspotential der zeitgenössischen Bedienungsformen des PCs ist hoch, weshalb man nun den nächsten Schritt wagen möchte, um vom Computer als Gegenüber zur Welt zurückzukehren und Computer zugleich in einem ungekannten Maß zu vernetzen. Weiser geht davon aus, dass Computer kein Interface zwischen Mensch und Maschine benötigen, sondern Menschen mit Menschen verbinden helfen sollen, wozu die Interfaces und Netzwerke unsichtbar oder lückenlos werden sollen.8 Dazu ist eine Umgestaltung oder gar Aufhebung der Schnittstellen zwischen Mensch und Computer nötig, die auch die Form gänzlich neuer Eingabekonzepte annehmen kann. PCs sieht man allenfalls als einen Zwischenschritt einer größeren Entwicklung, auch wenn sie weiterhin ihre Existenzberechtigung haben: Entwickler und Programmierer werden sie auch in Zukunft als Werkzeuge nutzen. Vielmehr werde die funktionale Ausdifferenzierung zu vielschichtigen Nutzungsweisen führen, in denen verschiedene Etappen nebeneinander stehen, die sich im Modell der drei Stufen vor allem durch ihren Umgang mit Aufmerksamkeitsressourcen unterscheiden. Die neue Welt kann nicht mehr die Welt vor dem Computer sein. Es geht nicht um eine unmittelbare Welt vor aller Technik, weil es ohne Werkzeug keine Welt gäbe. Doch kann Technik die Welt entweder verdecken oder in ihr aufgehen: »The most profound technologies are those that disappear. They weave themselves into the fabric of everyday life until they are indistinguishable from it.«9 Dieser Weisers Artikel einleitende Satz bestimmt den Computer des 21. Jahrhunderts als etwas, das im Vollzug seiner Leistungen unsichtbar wird und damit ein gänzlich anderes Verhältnis zur Welt mit sich bringt als Mainframes oder PCs. War in den zu dieser Zeit populären Vorstellungen einer Virtual Reality noch der Computer bzw. die von ihm erzeugte künstliche Realität das Ziel, entwirft die Calm Technology eine andere Vision: Computer sollen unsere von Technologien immer schon in Anspruch genommene Wahrnehmung nicht länger auf sich ziehen, sondern entlasten, um einen entspannteren Zugang zur Welt zu ermöglichen. Die Anwendungsmöglichkeiten erscheinen grenzenlos: Schon 1993 möchte man in einer Ideensammlung eine Armbanduhr mit folgenden Funktionen ausstatten: Alarm und Terminerinnerung, Lokalisierungsfunktion für Freunde, Benachrichtigung über eingegangene Emails, Anrufweiterleitung, einer ›smartcard authentication‹, die Führerschein, Kreditkarte und Ausweisdokumente ersetzen soll, Fernbedienungen für Auto und Wohnung, Übersicht über Kontostände und Börsenkurse, permanenter Überwachung des eigenen Gesund8 | Popularisiert worden ist diese These von Norman, Donald A.: The invisible computer. Why good products can fail, the personal computer is so complex, and information appliances are the solution, Cambridge: MIT Press 1999. 9 | Weiser, Mark: »The Computer for the 21st Century«, in: Scientific American 265/3 (1991), S. 94-104, hier S. 94.
Die Vergangenheit der Zukunf t
heitszustands sowie einem Routenplaner mit GPS.10 All diese Funktionen sollen in einem einzigen Gerät zusammenfallen, dessen Batterieleistung für ein Jahr reichen soll. Diese Ausrichtung ist intern nicht unumstritten, wie David A. Nichols in einer Sammlung von Positionspapieren zu diesem Thema andeutet: »What’s new? How are you being different from Apple and the ten start-ups that got their VC [venture capital] today?«11 Was in dieser Uhr utopisch zugespitzt wird, nimmt im profanen Büroalltag in der Küche seinen Anfang. Als tauglichste Funktion der Calm Technology stellt sich, anders als die drei Beispiele des Textes vermuten lassen, schnell die Möglichkeit heraus, drahtlos im ganzen Gebäude die aktuelle Arbeitslast der Kaffeemaschine überwachen zu können. Sie wird mit einem kleinen, vernetzten Eingabegerät namens PARC-Tab ausgestattet, über das immer dann, wenn neuer Kaffee gebrüht ist, eine Nachricht an alle Mitarbeiter versandt wird, die daraufhin die Küche aufsuchen – den wichtigsten kommunikativen Umschlagsplatz jeden Büros. Angebrochen sein soll damit, wie die beteiligten Forscher in einem Artikel über die Entstehung des PARC-Tabs beschreiben, eine Konvergenz bestehender Medien hin zur reibungsfreien Kommunikation der Geräte untereinander.12 Diese Konvergenz, die eher auf Datenbanken und Protokollen basiert als auf Interfaces, stellt die technische Voraussetzung für den anstehenden Mobilisierungsschub dar. Erst wenn die je spezifischen Funktionen der Geräte so aufeinander abgestimmt sind, dass man von einem Kontinuum des Gebrauchs wie der Kommunizierenden untereinander sprechen kann und Inhalte auf allen Geräten darstellbar oder Daten austauschbar sind, können Computer derart eingebettet werden, dass Weiser sie mit Heidegger Zeug nennen kann. Die technische Herausforderung der dritten Ära des Computers besteht seitdem darin, die Geräte so aufeinander abzustimmen, dass sie integriert operieren, damit Ubiquitous Computing aus den Büros von PARC in die Welt entlassen werden kann. An diesem Horizont steht von Beginn an eine technische Homogenisierung, die sich in den gemeinsamen Protokollen, Schnittstellen und Übertragungsstandards spiegelt, die mit großen Mengen unterschiedlicher Geräte und ihren Aufgaben umgehen können müssen und die heute als Plattformen diskutiert werden. 10 | Vgl. Ellis, John R.: »Dick Tracy Watch«, in: Ubiquitous Computing Workshop Position Paper. Stanford University Libraries. Department of Special Collections. Mark Weiser Archives. Collection M1069, Box 52, Folder 18. 11 | Nichols, David A.: »Notes from a Sceptic«, in: Ubiquitous Computing Workshop Position Paper. Stanford University Libraries. Department of Special Collections. Mark Weiser Archives. Collection M1069, Box 52, Folder 18. 12 | Vgl. Want, Roy/Schilit, Bill N./Adams, Norman/Gold, Rich/Petersen, Karin/Goldberg, David/Ellis, John R./Weiser, Mark: »An Overview of the PARCTAB Ubiquitous Computing Experiment«, in: IEEE Personal Communications Dezember 2/6 (1995), S. 28-43.
79
80
Florian Sprenger
D ie U nsichtbarkeit der Technologie Folgerichtig erfordert, so Weiser und Brown, das neue Zeitalter nicht nur neue Technologien, sondern auch neue Konzepte. Computer sollen so unsichtbar werden, dass durch sie hindurch unabgelenkt der Griff in die Welt möglich wird – in eine Welt aus neuen Objekten. Die im Unsichtbaren vollzogenen Rechenleistungen gehen, ohne bewusst zu werden, in einem alltäglichen Prozess der Vermittlung auf, der an der Peripherie abläuft. Hier liegt die epistemologische Brisanz von Calm Technology, die sich zunächst darin äußert, dass Computer unmerklich all die unbewussten, kleinen Arbeitsschritte übernehmen sollen, die unseren Alltag prägen: der Toaster soll wissen, wann und wie wir unser Brot wünschen, die Haustür soll registrieren, ob wir etwas vergessen haben und Anrufe sollen im Büro automatisch zum nächstgelegenen Telefon weitergeleitet werden, wenn wir uns in der Küche befinden und den Anruf nicht annehmen können. Diese Entwicklungen führen zu einer Welt »that is richly and invisibly interwoven with sensors, actuators, displays and computational elements, embedded seamlessly in the everyday objects of our lives, and connected through a continuous network.«13 In diesen Überlegungen wird eine Welt vorausgesetzt und zugleich eine Welt durch die vermittelnden Objekte geformt, die Zugang zu ihr verschaffen. Es geht ums Ganze. Es geht um die Welt, wie in einem Essay Weisers für die Linzer Ars Electronica von 1997 deutlich wird. Dort analogisiert er die neue Beziehung zwischen Mensch und Computer mit einem Blindenstock, der keinen Eindruck oder Widerstand vermittelt: »The cane disappears from perception, and the world appears.«14 Diese Vorstellung einer neuen Unsichtbarkeit ubiquitären Computings ist vielfach kritisiert, jedoch selten auf ihre epistemologische Bedeutung hin befragt worden. Charakterisiert wird sie zunächst als Verschiebung und Befreiung der Aufmerksamkeit. Die zur Verwendung von Computern nötigen Arbeitsprozesse sollen peripher und intuitiv ablaufen, um zentrale Konzentrations- und Kontrollkapazitäten zu befreien.15 Anders ausgedrückt: »Just as a good, well-balanced hammer ›disappears‹ in the hands of a carpenter and allows him to concentrate on the big picture, we hope that computers can par13 | Weiser, Mark/Gold, Rich/Brown, John Seely: »The origins of ubiquitous computing research at PARC in the late 1980s«, in: IBM Systems Journal 38 (1999), S. 693-696, hier S. 694. 14 | Weiser, Mark: »Periphery and the FleshFactor«, in: Gerfried Stocker/Christine Schöpf (Hg.), FleshFactor. Informationsmaschine Mensch, Wien: Springer 1997, S. 136147, hier S. 136. 15 | Vgl. Weiser, Mark/Brown, John Seely: »The Coming Age of Calm Technology«, in: Peter J. Denning/Robert M. Metcalfe (Hg.), Beyond Calculation. The Next Fifty Years of Computing, New York: Copernicus, S. 75-85.
Die Vergangenheit der Zukunf t
ticipate in a similar magic disappearing act.«16 Auf diese Weise können Programmbefehle statt durch Eingaben durch die Überwachung der Umgebung oder Rechenaufgaben ohne Bewusstseinsleistung des Users vollzogen und dieser damit vom passiven Beiträger zum aktiven, weil von der Abhängigkeit von Interfaces und Befehlen befreiten Teilnehmer werden. Er tippt nichts mehr ein und beobachtet keinen Bildschirm, weil die Computer selbsttätig das tun, was er gar nicht mehr zu wünschen braucht. Er gewinnt an Autonomie und Selbstbestimmung, wird vielleicht sogar zu einem ganzheitlicheren Menschen. Mit der angestrebten Unsichtbarkeit des Computers ist einerseits eine Ignoranz des Users gegenüber den Rechenvorgängen und Vermittlungsleistungen gemeint, die um ihn herum geschehen. »Perhaps we can learn to operate with what can never become explicit or calculated, but must eventually be surrendered in order to look through it.«17 Andererseits tritt das Werkzeug dadurch zurück und macht Platz für das, wozu es dient. »By invisible, I mean that the tool does not intrude on your consciousness; you focus on the task, not the tool.«18 Unsichtbarkeit ist hier nicht nur im visuellen oder allgemeiner wahrnehmungspsychologischen Sinne zu verstehen. Ihr Maßstab ist nicht Größe, sondern der Kontext des Gebrauchs, in dem Werkzeuge zu Vermittlern werden, die sich im Akt der Vermittlung zurücknehmen und dabei die beiden genannten Ausprägungen zeigen: die unbewusste Nutzung des Users und das Zurücktreten des Werkzeugs im Gebrauch. Nimmt man das bisher Gesagte zusammen und berücksichtigt die Integration der Entwicklungen in die Arbeitsabläufe bei PARC, treten drei Aspekte in den Vordergrund: erstens die Idee einer Konnektivität von Dingen, die untereinander in Verbindung treten, sich als Sender und Empfänger gleichermaßen gegenseitig orientieren und ihre Funktionen ergänzend zu einem Kontinuum des Gebrauchs verweben; zweitens eine von dieser Konnektivität abhängige Verteilung oder Distribution der Dinge im Raum, die auf verschiedenen Ebenen stattfindet: der Versammlung von Menschen an einem Ort, des Mitnehmens von Geräten und der ständigen Überwachung der Position der Kollegen, womit die Lokalisierung der Teilnehmer zum zeitkritischen Faktor wird. Sie benötigt technische Verfahren der Synchronisation und wirkt darin auf die Zeit des Sozialen. Wer sich wann und wo trifft, hängt nunmehr auch von Übertragungsprozessen ab. Es geht mithin nicht nur um direkten Zugriff auf räumlich verteilte Information, sondern auch auf Objekte respektive Kollegen, wozu ein ständiger Zustand der Überwachung nötig ist, unterbrochen nur von Phasen des Protests, Stromausfällen oder den Grenzen des 16 | M. Weiser/R. Gold/J. S. Brown: Origins, S. 695. 17 | M. Weiser, Periphery, S. 146. 18 | Weiser, Mark: »The World is not a Desktop«, in: Interactions 1 (1994), S. 7-8, hier S. 7.
81
82
Florian Sprenger
Empfangs.19 Die Unsichtbarkeit der Technik basiert auf einer massiven infrastrukturellen Aufrüstung des Raums, die wiederum ebenso massive politische Folgen in sich birgt: die Distribution von Rechenkraft hat, wie man an den aktuellen Technologien sehen kann, eher zu einer Zentralisierung als zu einer Demokratisierung geführt.
I n der W elt des C omputers Drittens schließlich, und dieser Aspekt soll abschließend über den kommentierten Text hinaus im Mittelpunkt stehen, übersetzt Weiser, vereinfacht gesagt, die Imbeddedness in Heideggers Konzept des In-der-Welt-Seins und will Computer entwickeln, die auf eine Weise in die Welt eingebettet sind, dass sie unser Verhältnis zu ihr transformieren. Der welterzeugende Seinsmodus unserer Werkzeuge liegt laut Heidegger darin begründet, dass Werkzeuge mehr sind als nützliche, vorhandene Hilfsmittel, weil sie zwar im Gebrauch unsichtbar werden, als Zuhandene aber im Gebrauch unseren Umgang mit der Welt formen.20 Das Vorhandensein ist in der Existenzialontologie Heideggers als Seinsmodus von Objekten ohne Bezug auf den Menschen gedacht. Die Welt entsteht erst durch die Zuhandenheit der Dinge, zu denen Menschen in Beziehung stehen. Weiser teilt Heideggers Auffassung, dass das Sein des Menschen, der in seinen Handlungen mit der Welt umgeht, ohne Berücksichtigung seiner Werkzeuge unverstanden bliebe. Computer sollen, so Weisers Vision, Aspekte des In-der-Welt-Seins des Menschen verkörpern oder in sie eingreifen – in ein Verhältnis zur Welt, das weder instrumentalisiert noch oberflächlich ist. Ein Computer, der in seiner über die Vorhandenheit hinausgehenden Zuhandenheit des Gebrauchs einen Zugang zur Welt erlaubt, anstatt aufsässig alle Aufmerksamkeit auf sich zu ziehen, oder eine Art der Programmierung, die diesem Ziel näherkäme, würde dem Benutzer – auf unbewusste Art – zu einem neuen, smarten Verhältnis zur Welt verhelfen. Er könnte durch Computer intuitiv und ohne Zwischenschritte über technische Benutzeroberflächen mit der Welt umgehen. Auch von Michael Polanyi und dessen Idee des ›tacit knowledge‹ beeinflusst, dem Wissen, das, ohne expliziert zu werden, unser Handeln begleitet,21 wollen Weiser und 19 | Bei PARC hat sich schon früh Protest gegen diese Form der Überwachung artikuliert und zu einem gewissen Grad an Ungehorsam geführt, indem lokalisierende Geräte nur zu bestimmten Zeiten und an bestimmten Orten getragen wurden. Auch die damit verbundenen politischen Gefahren wurden intensiv diskutiert. Persönliche Mitteilung durch Marshall Bern/Xerox PARC, 16. Juni 2012. 20 | Heidegger, Martin: Sein und Zeit, Tübingen: Niemeyer 1979. 21 | Polanyi, Michael: The Tacit Dimension, Chicago: University of Chicago Press 1966.
Die Vergangenheit der Zukunf t
Brown auch praktisch Computertechnik als Zuhandene entwerfen, um einen neuen Bezug zur Welt zu ermöglichen, der sich von dem der bisherigen Computer unterscheidet.22 Zwar betont Weiser, dass das Verschwinden in der Zuhandenheit oder die ›tacit dimension‹ nicht nur in den Werkzeugen, sondern auch in der Psychologie des Nutzers zu verorten sei, aber gestalten könne man diese Ebene nur über die Technik. In dem Moment, in dem die Leistung von Computern in der beständigen Übernahme von Handlungsabläufen besteht, werden sie, so Weiser, zum zuhandenen Zeug und können in der Peripherie der Aufmerksamkeit bzw. im Hintergrund ihre Aufgabe erfüllen – nicht per se außerhalb der Aufmerksamkeit, sondern im Sinne eines spezifischen Modus des Aufmerkens.23 An die Gestalttheorie anlehnend ist die Peripherie für Weiser und Brown die Basis unseres In-der-Welt-Seins. Unsere Werkzeuge schaffen eigene Hintergründe, vor denen etwas zur Figur werden, das heißt in den Fokus der Aufmerksamkeit rücken kann. Doch Weiser vollzieht nicht Heideggers folgenreichen Schritt, dass vor allem das aufsässige Nicht-Funktionieren des Werkzeugs die Welt meldet und erst mit der Störung Seiendes in seinem Sein sich zeigen kann, weil es dann nicht mehr in der gewohnten Weise auf die Welt verweist, wodurch der so genannte Verweisungszusammenhang des Daseins offensichtlich würde. Heideggers Modus der Aufdringlichkeit ersetzt Weiser durch einen Modus der Unaufdringlichkeit, der zwar gelegentlich gestört sein muss, in dem die Störung aber Störung bleibt und nicht weltstiftend wird.24 Versteht – und designt – man Computertechnik auf diese Weise, hilft sie nicht nur bei spezifischen Aufgaben, an denen nunmehr alle Menschen teilhaben können, weil kein Spezialwissen mehr benötigt wird, sondern setzt die Welt auf eine andere Weise dem Menschen gegenüber.
22 | Vgl. Streitz, N. A./Kameas, Achilles/Mavrommati, Irene (Hg.): The disappearing computer. Interaction design, system infrastructures and applications for smart environments, New York: Springer 2007. 23 | Ausführlicher haben sich Weiser und Brown diesem Thema gewidmet in: Weiser, Mark/Brown, John Seely: »Center and Periphery. Balancing the Bias of Digital Technology«, in: Don Tapscott/Alex Lowy/David Ticoll (Hg.), Blueprint to the Digital Economy. Creating Wealth in the Era of E-Business, New York: McGraw-Hill 1998, S. 317-335. 24 | Julian Jochmaring hat argumentiert, dass in dieser Verwendung Störung und Vollzug keine Opposition bilden, sondern eine »für mediale Prozesse unabdingbare Verschränkung beider Modi«. (Julian Jochmaring: »Der stille Computer. Anästhetische Strategien im Interaction Design«, in: Kunsttexte (2012), S. 1-11, hier S. 5; vgl. auch Alpsancar, Suzana: Das Ding namens Computer. Eine kritische Neulektüre von Vilém Flusser und Mark Weiser, Bielefeld: transcript 2012).
83
84
Florian Sprenger
Vivienne Waller und Robert B. Johnston haben in Weisers Betonung der Unsichtbarkeit folgenden Widerspruch aufgezeigt: Die Gegenstände müssen erst zur Hand sein und gebraucht werden, um durch diese Unsichtbarkeit oder Unauffälligkeit einen Umgang mit der Welt zu erlauben, wofür sie aber schon vorausgesetzt werde.25 Weiser dreht Heideggers Gedanken um: Während die Dinge durch Gebrauch unsichtbar werden, möchte er sie durch Design unsichtbar machen, um bestimmte Gebrauchsweisen zu ermöglichen. Um Heideggers Überlegungen gerecht zu werden, müssten Werkzeuge mögliche Handlungsalternativen aufzeigen, um eine Perspektive auf die Zukunft zu öffnen. Doch an dieser Stelle bleibt Weiser wie auch hinsichtlich der philosophischen Konsequenzen seiner Überlegungen vage. Er lässt ebenfalls die Frage unbeantwortet, wie diese Technologien in ihrer Unsichtbarkeit genau aussehen werden, wenn sie in alle Dinge integriert sind. Dennoch ist seine Stoßrichtung klar. Das ständige Bedienen des Computers und die Festlegung bestimmter Verhaltensmuster des Users vor dem Bildschirm sollen abgelöst werden durch smarte Eigenschaften, die in unbewusst verwendeten Tools eingebaut sind. Smartness ist damit kein Charakteristikum des Users, sondern seiner Werkzeuge. Erst wenn die Interfaces, Rechenvorgänge oder Schalter so designt würden, dass sie im Gebrauch nicht aufscheinen, hätten wir die Freiheit, sie zu benutzen, ohne über sie nachzudenken oder uns von ihnen ablenken zu lassen. Erst im Gebrauch kann Werkzeug zuhanden sein. Die Rechner und Benutzeroberflächen sollen die Aufmerksamkeit nicht mehr auf sich lenken, sondern einen Zugang zur Welt um uns herum bieten, gleichsam einen Durchgriff in die Welt, der unvermittelt erscheint, weil er vermittelt ist. In der Mailing-Liste FleshFactor, die ebenfalls im Rahmen der Ars Electronica als Netsymposium ins Leben gerufen wurde, schreibt Weiser folgerichtig: »Everything is mediated. Our bodies, our senses, our brains, our minds, all contribute to the mediation of everything. There is no increase of mediated experience. Experience has always been totally mediated.«26 Erst mit dieser Durchdringung ließen sich neue Ziele ins Auge fassen, die nicht im Werkzeug selbst liegen. Dies ist nicht nur metaphorisch gemeint, weil die Computerisierung von Alltagsgegenständen durch Design verdeckt werden soll. Es geht also nicht nur darum, Computer überallhin tragen zu können und alle Dinge mit Rechenkraft auszustatten. Vielmehr ist diese Unsichtbarkeit im Vollzug der entscheidende Schritt in der Fortentwicklung des Computers hin zu einem neuen In-der-Welt-Sein des Users, das von Autonomie, Freiheit und Sicherheit geprägt sein soll. 25 | Waller, Vivienne/Johnston, Robert B.: »Making Ubiquitous Computing Available«, in: Communications of the ACM 52 (2009), S. 127-130. 26 | www.aec.at/fleshfactor/arch/msg00044.html, Eintrag vom 26. Mai 1997, vom 4. Juli 2015.
Die Vergangenheit der Zukunf t
S chluss Die in aller Kürze erläuterten drei Aspekte – Computergeschichte, Unsichtbarkeit und Zuhandenheit – bilden den Rahmen der Selbstverständigung der PARC-Entwickler über ihre eigene Arbeit. Inwieweit dieses Selbstverständnis einer Gegenwartsdiagnose standhält, wäre an anderer Stelle zu prüfen. In jedem Fall liefern Texte wie »Das kommende Zeitalter der Calm Technology« einen Einblick in die Aushandlungsprozesse, die nicht nur in pragmatischer, sondern auch in philosophischer Hinsicht mit der Einführung neuer Technologien einhergehen. Zugleich werden aber auch einige blinde Flecken solcher Projekte deutlich: die Missachtung politischer und ökonomischer Aspekte der technischen Durchdringung, die Ausblendung der geschlechtsspezifischen Aufladungen dieser Technologien, die Folgen der Überwachung und der Neuverteilung von Handlungsmacht. Damit sind einige Stränge angesprochen, denen von hier aus gefolgt werden kann – und damit ein Ausgangspunkt für die folgende Sammlung von Texten.
85
Die Dinge des Internets
Das Internet der Dinge, die wir nicht brauchen Ian Bogost Atlanta färbt sich im April für zwei Wochen gelb vom Staub der Pollen. Straßen, Auffahrten, Terrassen, Autos – alles ist mit Keimzellen verkrustet. Die schlimmste Ursache sind die Bäume. Pinien, Eichen, Amberbäume, Platanen, Maulbeeren, Zürgelbäume, Birken, Weiden. Die Folge ist anhaltendes Kratzen, Schnäuzen und Autowaschen. Die Grillsaison beginnt, wenn die Pollen nachlassen. Dieses Jahr war es besonders schmerzlich1, weshalb ich darauf aus war, es mit scharf angebratenem Fleisch zu versuchen. Kaum war die zweite Hälfte des Aprils angebrochen, holte ich den Hochdruckreiniger aus dem Keller, verwandelte die Terrasse von gelb in schiefergrau und befreite den Grill der Marke Broil King aus seiner Winterhülle. Bedenkt man meine aufgestaute Lust auf diesen frühlingshaften Ritus, kann man sich die Enttäuschung vorstellen, die mich traf, als ich mit dem vorbereiteten Fleisch zum Grill zurückkehrte und feststellte, dass er nur auf hoffnungslose 90 Grad anstatt auf die zum Grillen angemessenen 260 Grad aufgeheizt war. Der Übeltäter: ein leerer Propangastank, den ich nach der letzten Grillsaison vergessen hatte aufzufüllen. Plan vereitelt. Hätte ich bloß GasWatch genutzt, eine Füllstandsanzeige für Propangastanks, die via Bluetooth mit dem Smartphone verbunden ist.2 Sie wurde jüngst auf der Crowdsourcing-Website Indiegogo mit etwas mehr als den angestrebten 25.000 Dollar finanziert. Sich selbst bewerbend als »sichersten und genausten Weg, den Inhalt eines Propangastanks zu messen«3, bietet das Gerät eine Skala, einen Sensor und eine integrierte App, die vor einem pergamentartigen Hintergrund einen schematisch-stilisierten Gastank zeigt. Wie viele der Geräte mit integrierten Apps, die den Trend kennzeichnen, der als Internet der Dinge bekannt ist, kündigt sich GasWatch selbst als eine Wunderlösung 1 | www.atlantaallergy.com/pollen_counts/index/2015/04/12, vom 05. Juli 2015. 2 | www.indiegogo.com/projects/gaswatch-check-bbq-tank-level-from-your-phone#/ story, vom 05. Juli 2015. 3 | Ebd.
90
Ian Bogost
für ein offensichtlich grauenhaftes Problem an. »Seelenfrieden« verspricht die Indiegogo-Kampange in der Einleitung zu einer Litanei ungenannter Zusatzfunktionen, wie dem folgenden Szenario zu entnehmen ist: Meine Mitbewohner und ich feierten an diesem Abend eine große Party, und ich war einkaufen. Wir hatten eine große Menge Essen zum Grillen, und ich merkte, dass ich keine Ahnung hatte, wieviel Gas noch im Tank war. Keiner meiner Freunde ging ans Telefon, weshalb ich nicht wusste, ob ich einen zusätzlichen Kanister mitbringen sollte oder nicht. Hätte ich die GasWatch-App gehabt, hätte ich einfach nachschauen können, wieviel Gas noch da war, weil die App die letzte Messung auch dann speichert, wenn sie nicht via Bluetooth mit GasWatch verbunden ist. Hätte! Letzten Endes versichert GasWatch, dass man sich nie mehr Sorgen um Gas machen muss! »Du musst nicht während einer Party in einen Laden eilen und einen weiteren Kanister kaufen,« versprechen sie. »Es ist nicht nötig, dringend benötigten Platz mit einem teuren Ersatzkanister vollzustellen«, beschwichtigen sie. Man wundert sich, was wir gemacht haben, bevor uns das Internet der Dinge vor uns selbst gerettet hat.
Nur tut es das nicht. Die Wahrheit lautet, dass an GasWatch kaum etwas neu ist. Seitdem es Propangaskanister gibt, hat man verschiedene Optionen, herauszufinden, wieviel Gas in einem Standardkanister mit zehn Kilogramm Inhalt vorhanden ist. Die einfachste und praktisch kostenlose Option besteht darin, heißes Wasser an der Außenseite des Tanks entlanglaufen zu lassen. Der Teil des Kanisters, der mit Gas angefüllt ist, wird die Hitze des Wassers absorbieren und sich kühl anfühlen. Fängt man am Boden an, spürt man die imaginäre Linie, an der es warm wird. Dort liegt der Gasstand.4 Wer einen weniger aufwändigen und narrensicheren Weg sucht, sein GrillHoroskop zu bestimmen, kann eine Druckanzeige kaufen, die man zwischen Tank und Schlauch schraubt.5 Was tut sie? Sie ist ein Messinstrument, das den Gasstand anzeigt. Die ausgefeilteren Versionen haben mehrere Anzeigen für verschiedene Außentemperaturen (denn die umgebende Hitze kann unterschiedliche Druckintensitäten bewirken). Ein solches Gerät kostet zwischen fünf und zwanzig Dollar. Man kann ebenfalls eine Gaswaage kaufen. Stellt man den Kanister auf die exakt auf den Standardkanister geeichte Waage, zeigt ein analoger oder digitaler Zähler das Gewicht an und rechnet es in die verbleibende Gasmenge bzw. die mögliche Grillzeit um. In der Tat ist GasWatch nichts anderes als eine digitale Gaswaage mit Bluetooth und App. Wie sich herausstellt, fertigt Gas-
4 | www.youtube.com/watch?v=G6U_e7FrC2Y, vom 05. Juli 2015. 5 | www.amazon.com/Camco-59023-Propane-Gauge-Detector/dp/B00192JGY4, vom 05. Juli 2015.
Das Internet der Dinge, die wir nicht brauchen
Watch solche Geräte bereits seit Jahren – allerdings dumme, keine smarten.6 Man kann sie für 25 Dollar nach Hause bestellen. Keine dieser Methoden ist fehlerfrei. Heißes Wasser und die Fühlmethode erfordern, dass man den Füllstand schätzt und in Grillzeit übersetzt. Und die Waage setzt voraus, dass der Kanister dem spezifischen und stabilen Standard entspricht. Ein Kanister mit zehn Kilogramm Gas sollte rund 17 Kilogramm wiegen (das Eigengewicht kann variieren), aber in der Praxis kann ein voller Kanister etwas mehr oder etwas weniger enthalten, abhängig von der Temperatur des Kanisters, der Luft zum Zeitpunkt der Füllung und der Konzentration des menschlichen Akteurs, der die Füllung übernimmt. Apps können dabei nicht helfen. Vielleicht können in Zukunft Roboter unterstützend eingreifen. Bisher musste man, unabhängig vom verwendeten Hilfsmittel, in ein Geschäft gehen und den Kanister befüllen oder austauschen. Und trotz des hoffnungsvollen Versuchs von GasWatch ist es nicht sehr teuer, einen Ersatzkanister bereit zu halten – vielleicht 40 Dollar – bis an den Rand gefüllt. Das ist weniger als man für eine Wette für die Indiegogo-Kampagne von GasWatch ausgeben würde. Ich nenne es eine Wette, weil die ›smarte‹ Propangaswaage von GasWatch noch nicht wirklich existiert, allenfalls als Hoffnung in Form einer Crowdfunding-Kampagne, die das angekündigte Produkt vielleicht liefern wird – vielleicht aber auch nicht. Es ist nicht abwegig, sich das Internet der Dinge eher im Äther als in der Cloud vorzustellen – eine kollektive Halluzination, in welcher wir von möglichen zukünftigen Produkten träumen, anstatt sie zu verwenden oder sie gar zu realisieren. Häufig bleiben die versprochenen Leistungen unerreichbar. Wie auch beim etwas angeseheneren Cousin Kickstarter besagen die Nutzungsbedingungen von Indiegogo, dass die Anbieter von Kampagnen gesetzlich gebunden sind, ihre Versprechungen zu erfüllen. Doch Konsequenzen gibt es praktisch nicht. Wer ein Crowdfunding anstrebt, ist dazu gehalten, eine für beide Seiten zufriedenstellende Lösung anzustreben, wenn etwas schiefgeht. Anstatt des einfachen Entwurfs von Prototypen lassen oft die harte Arbeit und der komplexe Prozess der konkreten Herstellung eine Kampagne über den Kopf ihrer Anbieter hinauswachsen. Dies war etwa der Fall bei der Smartwatch Kreyos, einem berüchtigten Fehlschlag auf Indiegogo, der 2013 nach dem erfolgreichen Einwerben von anderthalb Millionen Dollar nie etwas geliefert hat,7 oder bei der noch berüchtigteren ZPM Espresso-Maschine, die günstig und mit einem PID-Regler ausgestattet sein sollte. Auch sie warb 370.000 Dollar ein und wurde nie hergestellt.8 6 | www.gaswatch.com/product/smart-gaswatch-scale/, vom 05. Juli 2015. 7 | www.pcworld.com/article/2683138/kreyos-smartwatch-were-not-a-scam-just-atrainwreck.html, vom 05. Juli 2015. 8 | www.nytimes.com/2015/05/03/magazine/zpm-espresso-and-the-rage-of-the-jil ted-c rowdfunder.html?_r=0, vom 05. Juli 2015.
91
92
Ian Bogost
Nun ist GasWatch eine wirkliche Firma, die seit langem Gaskanister herstellt und vertreibt. Sie wird sich sicher nicht überschätzen, aber doch wundert man sich, warum sie sich für lediglich 25.000 Dollar mit einer Crowdfunding-Kampagne herumschlägt. Die Antwort auf diese Frage ist eine andere Frage: Warum sind sie nicht zu Kickstarter gegangen? Wenn Crowdfunding eher eine neue Art des Marketings als des Investments oder Vorbestellens ist, dann weiß jeder, dass Indiegogo sozusagen eher Krowd-Mart9 entspräche und Kickstarter Crowd & Source. Selbst vor der Einführung von Produkten für das Internet der Dinge haben wir einige Optionen außerhalb des Marktes. Eine selbstreflektierende Halle aus Spiegeln, die von Spiegeln anstatt von Menschen durchquert werden soll. Dennoch fühlt sich GasWatch irgendwie überzeugend an. Wie die Zukunft. Ja, ja, werden Sie jetzt sagen, ich will den Gasstand in einer App kontrollieren (ungeachtet all der Einwände)! Ich will eine zuverlässige Grillzeituhr (auch wenn Sie bereits eine Uhr auf Ihrem Smartphone haben)! Ich will bei einer Party nicht von einem leeren Gaskanister überrascht werden (auch wenn man vor einem großen Ereignis sowieso noch einmal kontrolliert)! Ungeachtet der Tatsache, dass die beste, günstigste Antwort auf das Problem von GasWatch bereits ohne jeden Computer gelöst wurde, könnten Sie einen Installateur anrufen, um einen dauerhaften Gasanschluss für Ihren Grill anzulegen. Oder sie verwenden Kohle: die Grills und das Brennmaterial sind billiger als Gas und die Resultate schmecken besser. * Bevor wir es Internet der Dinge genannt haben, haben wir den seltsamen Begriff Ubiquitous Computing oder den nicht annähernd so coolen Spitznamen UbiComp verwendet. Adam Greenfield nannte es in seiner Kritik der Smart City ›Everyware‹, ein Begriff, der sich trotz seines subtilen Gleichklangs hätte durchsetzen können.10 Wie die Maus und grafische Benutzeroberflächen nahm Ubiquitous Computing bei Xerox PARC seinen Anfang, etwa eine Dekade nachdem Steve Jobs und sein Team von Xerox’ revolutionärem Alto »inspiriert« wurden, den Apple Lisa und Macintosh zu entwickeln. Wie die meiste Forschung auf diesem Gebiet war Ubiquitous Computing solange hochspekulativ, bis es nichts mehr zu spekulieren gab (die Alternative besteht darin, bis zum Verschwinden hochspekulativ zu sein). Mark Weiser, der den Begriff einführte, stellte sich vor, dass Ubiquitous Computing Computer verschiedener Größe umfassen sollte, von winzigen bis zu wandgroßen Displays. Er imaginierte einen Weg hin zu Unsichtbarkeit, und seine Hoff9 | Anspielung auf die amerikanische Billigsupermarktkette »K-Mart«. 10 | Greenfield, Adam: Everyware. The dawning age of ubiquitous computing, Berkeley: New Riders 2006.
Das Internet der Dinge, die wir nicht brauchen
nung bestand darin, Computer so tief einzubetten, so anzupassen, so natürlich zu machen, dass wir sie verwenden können, ohne darüber nachzudenken. Bei PARC und Georgia Tech, am MIT und in Cornell sowie Irvine wurden wie auch anderswo sensorbasierte und distribuierte Computersysteme als Theorien entworfen, wie wir in Zukunft leben würden. Für das MIT designte Hiroshi Iishi RFID-basierte taktile Interfaces, die er »Things That Think« nannte.11 Und bald darauf wurde RFID gemeinsam mit computerkontrollierten Umgebungsdisplays und mobilem Computing real. Weiser und andere Pioniere zielten vielleicht auf Computer unter Holzvertäfelungen, doch die meisten experimentellen Inkarnationen sahen weder aus wie Computer noch wie normale Gegenstände. Umgebungseinflüsse und Trägheit anstatt Geschwindigkeit und Komfort kennzeichneten die ersten Geräte: Office Plant #1, eine Roboterpflanze für das Büro, die langsam auf die Stimmung eingehender Emails reagierte,12 oder Lumina, ein architektonisches, weiches und morphendes »kinetic organic interface«, dessen Beleuchtung sich der Stimmung und Aktivität im Raum anpasste,13 oder musicBottles, ein Set ›magischer‹, aber ansonsten gewöhnlicher, nicht-technologischer Einweckgläser, die auf einem Tisch zum Musizieren verwendet werden konnten.14 Ubiquitous Computing war zwar nie gute Kunst, aber zumindest haben sie es versucht. Weiser und andere waren von mehr als nur Technologie beeinflusst – Architektur, Anthropologie, Phänomenologie und Soziologie wurden ebenfalls als zentral für das Verständnis dessen angesehen, was es heißen würde, Computer in die Welt zu setzen. Aber die Umsetzung des Ubiquitous Computings stellte sich als viel gewöhnlicher heraus. Heute schuldet das Internet der Dinge seine Existenz einigen nunmehr ubiquitären Computerinfrastrukturen: mobilen Geräten und drahtlosen Netzwerken, vor allem Bluetooth und WiFi. Indem deren Fähigkeiten entweder mit elektronischen Messeinheiten in bestehende Geräte integriert wurden, wie die GasWatch-Skala, oder indem neue, günstige Sensorkapazitäten in neue Geräte wie FitBit verbaut wurden, vereinfachte sich auch das Internet der Dinge: hin zu einer Möglichkeit, größtenteils unprozessierte Informationen an handtaschengroße Computer und zum Speichern durch das Internet zu verschicken. Auf diesem Weg hat sich herausgestellt, dass Ubiquitous Computing und das Internet der Dinge weniger dazu dienen, Rechenprozesse in das Gewebe der alltäglichen Welt zu integrieren oder sie unsichtbar zu machen, wie es sich Weiser vorstellte. Stattdessen sind Computer immer sichtbarer geworden, 11 | http://ttt.media.mit.edu/, vom 05. Juli 2015. 12 | www.realtechsupport.org/repository/office_plant.html, vom 05. Juli 2015. 13 | http://dl.acm.org/citation.cfm?id=2494263&dl=ACM&coll=DL&CFID=5199343 88&CFTOKEN=55685762, vom 05. Juli 2015. 14 | http://tangible.media.mit.edu/project/musicbottles/, vom 05. Juli 2015.
93
94
Ian Bogost
schamlos sichtbar, um genau zu sein. Nichts ist sichtbarer als eine App zu verwenden, um den Stand eines Propangaskanisters zu prüfen – außer vielleicht, auf Indiegogo um Geld zu bitten, um vielleicht eine solche App zu entwickeln. Anstatt Ambiance und Transformationen zu erleben, sind wir im technologischen Äquivalent von Thorstein Veblens Klasse der feinen Leute gelandet. Wir haben ein Theaterschiff aus Computern geentert. Auffallende Computer anstatt auffälliger Konsum. Schau mich an, ich verwende diese App, sie prüft das Gas. Ist das nicht toll? Schau mich an, wie ich dieses Kickstarter-Projekt finanziere. Bin ich nicht toll? Diese Produkte haben eine info-kommerzielle Qualität: »Lass das Raten beim Grillen mit GasWatch. Kaufe jetzt und bekomme nicht nur eine, nicht zwei, sondern vier Bluetooth-fähige GasWatch-Füllstandsanzeigen, bevor die Crowdfunding-Kampagne endet.«15 (Nur damit niemand glaubt, ich wäre höhnisch: die Indiegogo-Kampagne hat tatsächlich diese Optionen angeboten, vermutlich, damit man auch den Gasstand in Ferienwohnungen messen oder sich schämen kann, wenn man eins als Geschenk zu einem Barbecue mitbringt, anstatt etwas normales wie Bier oder Kartoffelsalat.) Und auf ähnliche Weise wird das Internet der Dinge eher als ein Finale denn als eine neue Erfahrung vermarktet. 2015 zählte auf der Consumer Electronics Show in Las Vegas »Bestandteil des Internets der Dinge« als Verkaufsargument in einer GasWatch-Broschüre. Heute muss ein Konsumgegenstand mit überflüssigen Computern ausgestattet sein, um relevant zu werden. Trotz des Anspruchs auf Effizienz und Leichtigkeit sollte das Internet der Dinge besser den Vorgang benennen, das alltägliche Leben in Computergehäuse zu verpacken. Man nimmt am Internet der Dinge nicht teil, um das Leben einfacher oder komfortabler zu machen, sondern um es zu computerisieren. Und auch das ist untertrieben, denn die meisten vernetzten, aber schlecht ausgestatteten Geräte tun nichts weiter als ihre Schlüsselfunktionen an Smartphones oder internetfähige Regler zu koppeln. (Wenn sie überhaupt existieren, also mehr sind als eine Crowdfunding-Reality-Show.16) Nehmen wir das Bügelschloss von Noke, das als das smarteste Gerät der Welt angepriesen wird. Ebenfalls ein Crowdfunding-Erfolg, hat das Projekt 400.000 Dollar auf Kickstarter gesammelt. Wie die meisten Versuche auf diesem Gebiet stellt auch die Werbung von Noke den Anspruch, dass ihr Produkt »den Ärger und die Frustration verlorener Schlüssel und vergessener Kombinationen in Luft aufgehen lässt.«17 Oh, übrigens, das Schloss ist ebenfalls nur 15 | http://www.indiegogo.com/projects/gaswatch-check-bbq-tank-level-from-yourphone#/story, vom 05. Juli 2015. 16 | http://www.fastcompany.com/1843007/kickstarter-crowdfunding-platform-orreality-show, vom 05. Juli 2015. 17 | http://www.kickstar ter.com/projects/fuzdesigns/noke-the-worlds-first-blue tooth-padlock?lang=de, vom 05. Juli 2015.
Das Internet der Dinge, die wir nicht brauchen
vorbestellbar. Es wird im September 2015 verschickt, für 109,99 Dollar, also zehnmal so viel wie für ein normales Fahrradschloss. Es entspricht wohl der Wahrheit, dass es wahrscheinlicher ist, die Kombination eines Fahrradschlosses zu verlieren als das Smartphone. Man könnte zwar die Kombination des Schlosses im Smartphone abspeichern, aber wer bin ich um eine solchen Vorschlag zu unterbreiten. Es ist jedoch nicht nur Noke, das solche Behauptungen aufstellt. Die Firma BitLock bietet ein konkurrierendes Smartlock für 139 Dollar an: »Haben Sie keine Angst mehr, Ihre Schlüssel zu verlieren«, verspricht die Website18 und gelobt, die Nutzer von der Mühe zu befreien, nach den Schlüsseln »in der Brieftasche, Hosentasche oder am Schlüsselring«19 suchen zu müssen; Gott behüte, dass wir mit alltäglichen Objekten ohne das Smartphone Umgang pflegen! Das BitLock-Schloss enthält auch einen Aktivitätstracker und bietet eine App an, mit der man die Position seines Fahrrads teilen kann, »um ein eigenes Bike-Share-System aufzubauen.«20 Natürlich könnte man schlicht die Kombination seines Schlosses mit den eigenen Freunden teilen. Das aber würde an der Sache vorbeigehen: BitLock existiert nicht, um ein Problem zu lösen, sondern um ein Problem als nur durch im Internet vernetzte Computer lösbar darzustellen. Selbst die populärsten Anwendungen des Internets der Dinge scheinen Probleme zu lösen, die bereits gelöst sind, und das oft schon seit Dekaden. Der bekannteste Fall ist sicherlich das vom ehemaligen Apple‑Designer Tony Fadell designte smarte Thermostat Nest. Die Firma sagt über sich selbst, dass sie »ungeliebte, aber wichtige Haushaltprodukte neu erfinde«. Im Vergleich zu den beigefarbenen Kisten, die seit langem unsere Wände pflastern, ist das Nest-Thermostat unbestritten sehr schön. Aber wie intelligent ist ein smartes Thermostat? Sicherlich intelligenter als ein gewöhnliches Thermostat. Man kann es aus der Ferne kontrollieren, aus dem Bett, der Garage oder über einen ganzen Kontinent hinweg. Nest verspricht außerdem, dass es durch das Monitoring der Bewegungen in der Wohnung die Rhythmen der Familie lerne und so die Einstellungen in energieoptimierender (und damit kostensparender) Weise anpassen könne. Die hohen Kosten eines Nest amortisieren sich nach Angaben der Firma durch die Energieersparnis der automatischen Einstellungen sehr schnell. Während das kreisförmige Design des Nest eine Reminiszenz an die klassische Set-and-Hold-Gestaltung von Honeywell aus der Mitte des letzten Jahrhunderts ist, haben heutzutage die meisten von uns an Stelle von Set-and-Forget-Geräten programmierbare elektronische Thermostate. Ein auf einer Serie 18 | https://bitlock.co/, vom 06. Juli 2015. 19 | Ebd. 20 | Ebd.
95
96
Ian Bogost
von Beobachtungsstudien basierendes White-Paper21 von Nest gibt an, dass das Gadget 50 Prozent Energieersparnis im Vergleich zu programmierbaren Thermostaten biete. Gleichwohl gesteht Nest ein, dass dies auf einem optimalen Szenario beruhe – professionelle Installation, kostenlose Testgeräte und die Neuartigkeit des Systems hatten mit Sicherheit Einfluss auf das Ergebnis. Angesichts eines angenommenen Einsparungspotentials von jährlich etwa 130 bis 145 Dollar wird es immer noch einige Jahre in Anspruch nehmen, bis die Kosten allein für das Gerät eingespielt sind. Solange man sein Gerät selbst so programmiert, dass die Temperaturen bei Abwesenheit und während der Nachtstunden angepasst werden, bietet ein programmierbares Thermostat substanzielle Energieeinsparungen. Sicherlich, das geschieht nicht von selbst, und es gibt auch einige Diskussionen um die Genauigkeit der automatisierten Sensoren von Nest. Solange man sein Haus nicht in der Nest gemäßen Weise baut, steht dessen Exaktheit in Frage. Dies ist darauf zurückzuführen, dass die Leitungsführung für Thermostate bei der Bauplanung Bequemlichkeitskriterien folgt, statt an einem zentralen Ort die optimalen Bedingungen für einen Bewegungssensor zu versprechen. Da Nest nicht der Standardform entspricht, fallen zu guter Letzt Flickarbeiten an, wenn man das Gerät schlicht an derselben Stelle installiert, wo früher das Thermostat saß. Das ganze wunderbare Design ist zunichte, da man Nest in ein dummes, primitives Haus einbaut. Aber keine Sorge, in der Hoffnung auf eine Übernahme durch Nest oder Sheetrock 22 wird mit Sicherheit jemand alsbald einen komplementären Service anbieten: »Uber für Gipskarton.« Vielleicht können wir aber auch ganz auf Wohnungen verzichten und als flottierende Wissensarbeiter zwischen AirBnB-artigen, temporären Mikrounterkünften hin- und herziehen, deren klimatische Bedingungen mittels der Daten der Besitzer geregelt werden können. Es ist wirklich besser so: Warum ein smartes Thermostat besitzen, wenn man eines mieten kann?! * Die Attraktivität von Nest erklärt sich teilweise durch sein schönes Design. Wahrscheinlich würde eine von einem Apple-Veteran entworfene Toilettenbürste Verzückung auslösen, und das sogar verdientermaßen. Tatsächlich aber kommen die meisten Geräte des Internets der Dinge ohne anspruchsvolles Design aus. Die Bluetooth-basierte Füllstandsanzeige der Firma GasWatch entspricht in Aussehen und Funktion vergleichbaren digitalen Ablesegeräten. Ebenso Noke und das BitLock, die wie normale Schlösser funktionieren und 21 | https://nest.com/downloads/press/documents/energy-savings-white-paper. pdf, vom 05. Juli 2015. 22 | [US-Amerikanisches äquivalent zur Firma Rigips. – C. E.]
Das Internet der Dinge, die wir nicht brauchen
aussehen. Die von Nest versprochenen Einsparungsgewinne wären wahrscheinlich mit einem zur bewussteren Nutzung einladenden, re-designten dummen Thermostat erreichbar – mit nur einem Bruchteil der an Nest verschwendeten Aufmerksamkeit für dessen User-Interface und äußere Ästhetik. Produkte und Services wie Nest verkaufen sich mit dem großen Silicon Valley-Buzzword »innovativ«. Vielleicht jedoch spielt sich hier auch noch etwas anderes ab. Die Hoffnung des Ubiquitous Computings lag in einer Verschiebung unserer Erfahrung weg vom traditionellen Computing – auf Schreibtischen und in Serverräumen – hin zu einer überraschenden Einbeziehung von Computern in den Alltag. Das Internet der Dinge dagegen lässt schlicht alles beim Alten und offeriert lediglich kleine Zugewinne an Effizienz und Sicherheit. Oder genauer: Es bietet dieselbe Effizienz, die nunmehr durch einen computerisierten Mediator präsentiert wird. Tatsächlich wären richtige Computer gar nicht notwendig, um unser Begehren nach neuartigen Verkopplungen zwischen den bislang noch nicht rechnergestützten Aspekten der Welt und Computern zu erreichen. Sie könnten sich genauso gut einfach der Rhetorik von Computermetaphern bedienen. Selbst der Trick, die Füllhöhe einer Propangasflasche mittels daran herunterlaufendem heißem Wasser zu bestimmen, könnte als »lifehack« bezeichnet und so der Hackerkultur und dem Internet-Clickbait zugeführt werden: »Hacke deinen Grill mit diesem verrückten Trick – Propanflaschenmessgerätehersteller hassen ihn!« Es ist an der Zeit, sich einzugestehen, dass das Internet der Dinge nichts anderes als eine Kolonisierung bisher uncomputerisierter Dinge ist, die keinem anderen Grund dient, als diese in den Bereich des Computings zu integrieren. Das ist etwas anderes, als Computer in anderen Systemen einzusetzen. Automobile, Flugzeuge, Verkehrssteuerungen, Fabrikations- und Logistiksysteme sowie zahllose andere geschäfts- oder sicherheitskritische Systeme basieren auf Computern. Jedoch fungieren hier Computer als Werkzeuge mit spezifischen Zwecken. Dank der Versuche23 von General Motors und John Deere, mittels der Urheberrechte an der verbauten Software Wartungen und Anpassungen durch die Nutzer zu verhindern, tritt offen zutage, dass die Computerisierung vor allem der Kontrolle über Nutzung und Wartung dient. Mit dem Internet der Dinge werden die Verkaufsargumente umgedreht, das Verborgene wird sichtbar und das Verheimlichte offengelegt. Etwaige Nutzungsvorteile müssen gegenüber Kontrolle, Datensammlung und Zentralisierung zurückstehen. Alle diese Dinge gab es bereits einmal. Vor einer Dekade wurden wir Zeugen eines vergleichbaren Kreuzzugs der computerisierten Kolonialisierung, die sich im Rückblick mit dem Wissen um das Internet der Dinge neu verstehen lässt. Google akquirierte und überarbeitete zwischen 2005 und 2007 eine 23 | http://www.wired.com/2015/04/dmca-ownership-john-deere/, vom 05. Juli 2015.
97
98
Ian Bogost
Reihe von webbasierten Office-Programmen. Aus Writleys Textverarbeitungsprogramm, 2Webs Tabellenkalkulation und der Präsentationssoftware von Tonic wurde Google Docs, Google Sheets und Google Slides. GDocs – wie diese Software häufig informell abgekürzt wird – hat im Wesentlichen zwei Vorteile. Erstens ist sie umsonst, was in diesem von Microsofts kostspieligem Office-Paket dominierten Markt bis dahin undenkbar war. Zweitens ermöglicht der Zugang über den Webbrowser kollaboratives Arbeiten. Als dies mit GMail gekoppelt wurde, hatte Google eine vollständige Alternative zum vielgeschmähten Microsoft Office und den sperrigen Open-Source Alternativen wie OpenOffice. Beinahe alle Anwendungen, die auf originärer Soft- oder Hardware für Desktops liefen, basierten nun teilweise oder gänzlich auf dem Web. An die Stelle der Kontoverwaltung Quicken trat Mint, Pandora übernahm iTunes, das zuvor die CD abgelöst hatte, Flashdrives und FTP wurden von Dropbox verdrängt. Für die Kunden machten diese Web-basierten Lösungen geringe (oder keine) Kosten und Bequemlichkeit attraktiv, während für die Start-ups die Kundenbindung via Abonnements und die Datensammlung reizvoll war. Aber hat sich in der Ära der Cloud tatsächlich der Zustand von Software verbessert? Google Docs zumindest ist bis heute für ernsthafte Schreib- oder Präsentationsaufgaben ungeeignet. Kürzlich habe ich beispielsweise versucht, ein Bild direkt in eine Google Sheets-Präsentation einzubinden – vergeblich! Stattdessen musste ich ein Menü aufrufen und das Programm anweisen, das Bild aus einer URL zu importieren bzw. von der Festplatte zu laden. Google Docs ist langsam, renitent und ersetzt alle liebgewonnen Marotten und Fehler von Microsoft Word durch neue und zähe Marotten. Es handelt sich also nicht um Innovation oder Disruption, sondern schlicht um die Re-Kreation von etwas Brauchbarem durch eine neue Version, die wahrscheinlich eine Dekade später ebenso brauchbar sein wird. Das Abfallprodukt des Sisyphosunternehmens, Software webbasiert zu machen, war die Generierung von enormem Reichtum (und enormen Datensammlungen) für einige wenige. Für den Rest von uns fällt ein beschissenes Textverarbeitungsprogramm ab, das wir eigentlich schon besitzen. Dennoch wird diese Wiederkehr des Gleichen als Revolution angepriesen und abgekauft, statt als der ausbeuterische Inkrementalismus, der es tatsächlich ist. Es wird heutzutage zunehmend weniger möglich, Cloud-basierten Software-as-a-Service-Lösungen (SAAS) zu entgehen. Die populäre Buchhaltungssoftware Quickbooks wurde ebenfalls auf eine Web-basierte Lösung umgestellt und ist nur noch via Abonnement erhältlich. Ebenso Adobe, die für leistungshungrige Applikationen Teile der Creative Suite weiterhin als Software zum Download anbieten. Gleichwohl muss jeder Kunde, der auch in Zukunft mit diesen Programmen arbeiten möchte, einen monatlichen Abo-Preis entrichten und online sein. Im Ganzen betrachtet hat sich das Blatt gewendet: Sowohl individuelle Kunden als auch Firmen lieben es, weniger für die Lizenzen zu zahlen. Sobald die Netzwerkeffekte solcher Services einsetzen, wird es
Das Internet der Dinge, die wir nicht brauchen
zunehmend schwieriger, deren Nutzung zu verweigern. So wie es praktisch unmöglich ist, keinen Facebook-Account zu haben, so wenig kann man ohne Google Docs auskommen. Es fällt schwer sich vorzustellen, wie man ohne diesen Service arbeiten würde. Selbst der Backlash gegen das Internet der Dinge ist eigentlich ein Versuch, mit dem Unausweichlichen seinen Frieden zu machen. Als Google im Jahr 2014 für 3,2 Milliarden Dollar Nest aufgekaufte, waren selbst einige Befürworter besorgt. Mit Google Search, Maps und Gmail und so weiter machte Google bereits den Eindruck von Big-Brother. Nimmt man Snowdens Enthüllungen, die NSA und die Datenschutzskandale dazu, so fällt es nicht mehr schwer, die Idee von vernetzen Bewegungs- und Aktivitätssensoren im eigenen Haus merkwürdig zu finden. Dennoch haben sich im selben Jahr die Verkäufe von smarten Thermostaten verdoppelt,24 und die Zentralisierungstendenzen der Heimautomation beschleunigen sich. Auf der Consumer Electronics Show kündigte Nest 2015 an, ihr smartes Thermostat in eine Schaltzentrale und damit eine Art trojanisches Pferd für die Heimautomation zu verwandeln.25 Ebenso Apple, deren Homekit-Entwicklungsumgebung26 ähnliche Funktionen aufweist. Wir haben uns bereits dafür entschieden, dass Offline-Software keine Zukunft hat. Alle Geräte, die wir besitzen, kommunizieren permanent mit Servern, alle privaten Daten liegen in der Cloud – denn es gibt zunehmend schlicht keine andere Option mehr. Letztendlich werden wir keine Dinge ohne Internetanbindung mehr besitzen. Noch kann man Toaster, Kühlschränke und Thermostate ohne Netzanschluss bekommen, aber für Fernseher ist das bereits so gut wie unmöglich – sie nötigen den Käufer sofort, undurchsichtige Softwarelizenzen zu akzeptieren. Es wird nicht mehr lange dauern, bis alle Dinge wie das Nest funktionieren. Wenn sich die letzte Dekade dadurch auszeichnete, dass Software immer konnektiver wurde, wird die nächste daraus bestehen, dies für den ganzen Rest zu erreichen. Warum? Ganz schlicht und einfach, um es zu tun – damit die Dinge zu den Rechnern in den gigantischen, abgesicherten und gut gekühlten Lagerhäusern einiger weniger Technologiekonzerne sprechen. Die Frage ist jedoch: zu welchen Kosten? Welche tatsächlichen Verbesserungen unseres Lebens werden angesichts unserer Konzentration auf »smarte« Dinge ausbleiben? David Graeber beispielsweise hat die Frage gestellt,27 was 24 | http://mobilemarketingmagazine.com/smart-thermostat-sales-double-in-a-year, vom 05. Juli 2015. 25 | http://mashable.com/2015/01/05/nest-developer-partnerships/, vom 05. Juli 2015. 26 | https://developer.apple.com/homekit/, vom 05. Juli 2015. 27 | http://www.thebaffler.com/salvos/of-flying-cars-and-the-declining-rate-of-profit, vom 05. Juli 2015.
99
100
Ian Bogost
mit den früheren Versprechen von fliegenden Autos, Teleportern und Raumkolonien passiert ist? Seine Antwort lautet, dass diese im Sinne des Erhalts von bestehenden Machtstrukturen umfunktioniert worden sind. Das Internet der Dinge existiert, um aus den Gewohnheiten der Grill- und Kühlschranknutzung neue Märkte zu gewinnen und zugleich davon zu überzeugen, dass nicht Eigeninitiative, sondern die smarten Dinge der richtige Weg sind, das Leben besser zu machen. Die Rede von Innovation und Disruption dient zur Ablenkung von der Tatsache, dass die Gegenwart der Vergangenheit erstaunlich ähnelt und man zugleich härter dafür arbeiten muss – tanzen, um still zu stehen! Aber natürlich fühlt sich alles viel besser an – oder? Das automatisierte Fahrradschloss, die Thermostate tragen alle dazu bei, dass man seine Dinge besser hinkriegt. Aber was tatsächlich tut man, wenn man den Füllstand seiner Propangasflasche von der Toilette oder dem Spirituosenladen aus ablesen kann? Mails auf Gmail checken, ein GoogleDoc auf dem Smartphone überarbeiten oder vielleicht in einem glücklichen Moment ein paar Ideen für das Crowfunding des eigenen Internet der Dinge-Start-ups in Evernote ablegen? »Es wird großartig sein«, wirst Du deinen Gästen sagen, während in deinem Nest-temperierten Esszimmer dein Messer durch ein frisch gegrilltes Steak fährt: »Das hier ist die Zukunft!«
Übersetzt aus dem Englischen von Christoph Engemann und Florian Sprenger
Game of Things Michael Seemann
V orrede Mit Friedrich Kittler hielt eine Neuerung innerhalb der Geisteswissenschaften Einzug, die wohl sein wichtigstes Vermächtnis bleibt: Das Interesse und die deutliche Einbeziehung von technischem Sachverstand in eine Disziplin, die bislang mit ihrer Technikferne und ihrer abstinenten und kritischen Haltung gegenüber technischen Neuerungen geradezu kokettierte. Dies war ein wichtiger Schritt, der die Medienwissenschaften in der Tiefe, wie sie heute praktiziert wird, erst ermöglichte. Natürlich würde heute niemand mehr abstreiten, dass technisches Design sowie die Möglichkeiten und Unmöglichkeiten der Apparatur in medientheoretischen Überlegungen mit einfließen müssen. Mit dem kittlerschen Diktum hat sich die Medienwissenschaft aber auch in eine Sackgasse begeben. Die Anschauung des »Geräts« reicht lange nicht mehr aus, um die Entwicklungen der letzten 15 Jahre auch nur annähernd adäquat beschreiben zu können. Das Gerät wurde vernetzt und vor allem in dieser Vernetzung hat es seine ungeheuer weltverändernde Kraft entwickelt, der wir heute gegenüberstehen. Kulturelle Praktiken und soziale Zusammenhänge, historische Konstellationen und die Betrachtung technischer Artefakte allein können den heutigen Stand der Medien nicht mehr erfassen. Sie erklären nicht die Größe von Google oder den Erfolg von Facebook. Sie verstehen die Machtspiele des Silicon Valley nicht und sind nicht kompetent im Erklären der Machtstrukturen. Diese Kompetenz wird stattdessen den Wirtschaftswissenschaften zugeschrieben und das mit einem gewissen Recht. Während sich die Medienwissenschaften dem Gerät zuwendeten, hatten die Wirtschaftswissenschaften zunehmend die Transaktion und die Distribution von Information zu ihrem Gegenstand. Zusätzlich zwangen so genannte »Externe Effekte«, die Wirtschaftswissenschaft immer wieder sich von ihrem ureigensten Thema – dem Markt – zu lösen und die Mechanik von Vernetzungszusammenhängen zu verstehen. So sammelten sich nach und nach Theorien über die Mechanik von zirkulierenden Zeichen in komplexen sozialen Gefügen, die – so meine Über-
102
Michael Seemann
zeugung – auch außerhalb der Wirtschaftswissenschaften ihren Nutzen haben können. Statt sich also nur im Kleinklein technischer Details zu verlieren und historische Zusammenhänge zu suchen, wo doch gerade Neues entsteht, sollten die Medienwissenschaften prüfen, wie Theorien um »Disruption«, »Netzwerkeffekte« und »Transaktionskosten« ihnen helfen können, die aktuellen Medienformationen zu deuten. Doch auch die Wirtschaftswissenschaften alleine tragen nur bis zu einem gewissen Punkt. War der Computer noch mit Müh und Not (auch) als Medium zu begreifen, wird es beim kommenden Internet der Dinge noch enger. Wenn Dinge durch ihre Ausstattung mit Mikrochips anfangen »mediale Eigenschaften« zu implementieren, werden sie nicht zu Medien im klassischen Sinne. Sie sind weit mehr, als die menschlichen Sinnesorgane erweiternden Prothesen, wie McLuhan sie noch sah. Die vernetzten Dinge leihen ihre Sinnesorgane nicht mehr in erster Linie dem Menschen, sondern zunehmend einander. Die Dynamik des dabei entstehenden Netzes einander zuhörender, kommunizierender, regulierender und einander kontrollierender Dinge, ist auch für die anthropozentrische Wirtschaftswissenschaft kaum mehr zugänglich. Es wird also einerseits Zeit, sich im Werkzeugkasten der Wirtschaftswissenschaften zu bedienen. Das geht auch, ohne alle ihre Prämissen zu signieren. Andererseits soll das nicht ohne Rückgriff auf aktuelle sozialwissenschaftliche und kulturwissenschaftliche Theorien geschehen. Zu zeigen, wie wunderbar sich diese ergänzen – dafür gibt die Debatte um das Internet der Dinge hier Anlass.
1. D as S piel um die N e t z werkeffek te »You know nothing, Jon Snow«, ist der Satz, den Ygritte dem »Bastard« und Mitglied der »Nights Watch« Jon Snow immer wieder zuruft. Wir befinden uns bei Game of Thrones (Buch: Song Of Ice and Fire), jener populären Buchund später Fernsehserie, die ihre Fans in Atem hält. Game of Thrones spielt in einem leicht Fantasy-haften Parallelmittelalter. Game of Thrones ist nur oberflächlich gesehen eine Fantasy-Saga. In Wirklichkeit sind trotz Magie, Drachen und Riesen die Machtspiele und politischen Verstrickungen der Menschen die entscheidenden Treiber der Handlung. Das Setting ist wie folgt: Die sieben Adelshäuser auf dem Kontinent Westeros befinden sich im fortwährenden Konflikt um den eisernen Thron. Dieser wird mal als Intrige, zeitweiser Koalition, Verrat oder offenem Krieg ausgetragen. Jede der Familien hat, für sich genommen aus rein subjektiver Perspektive, einen gewissen Anspruch auf den Thron – oder glaubt zumindest, einen zu haben. Die sich in vielen nebeneinander verlaufenden Strängen verwickelnde
Game of Things
Handlung bringt komplexe politische Situationen hervor, die regelmäßig in spektakulären Showdowns zu unerwarteten Wendungen führen. Trotz des erratischen Settings ist diese Erzählung auch gerade deswegen so populär, weil sie mit gelernten narrativen Strukturen bricht. In dem Handlungsgeflecht voller Eitelkeit, Hinterlist und politischem Verrat fallen die Protagonisten sinnbildlich wie die Fliegen. Tragende Figuren, die über viele Episoden mühsam aufgebaut wurden, werden mit der Leichtigkeit eines Fingerstreichs aus der Handlung befördert. Gerade diejenigen, die sich mit ihrer Ritterlichkeit und Reinherzigkeit unsere Sympathien erspielen, sind auch diejenigen, die schnell in den Hinterhalt gelockt und getötet werden. Jon Snow ist so einer dieser ritterlichen Charaktere. Als unehelicher Sohn des Hauses Stark hat er einen relativ unterprivilegierten Status und bewacht als Ritter der »Nights Watch« die nördliche Mauer aus Eis, die Westeros vor den Gefahren aus der vereisten Welt jenseits der Mauer beschützen soll. »You know nothing« kann also als Mahnung verstanden werden, als ein Verweis auf die Naivität desjenigen, der die Regeln des Spiels nicht versteht, das er spielen soll. In einer ähnlichen Situation stehen wir heute. Das Spiel hat sich durch die Digitalisierung und das Internet radikal verändert. Geschäftsmodelle, Lebenskonzepte, politische und soziale Gewissheiten wirken immer seltener tragfähig. Es findet nicht nur eine Anpassung der einen oder anderen Spielregel statt, das gesamte Spiel ist ein anderes,1 und so führt die Interpretation aktueller Ereignisse unter den Prämissen des alten Spiels regelmäßig zu Missverständnissen. Als Facebook 2012 Instagram für insgesamt eine Milliarde Dollar kaufte, waren selbst Silicon-Valley-Kenner geschockt. Eine solche Unternehmensbewertung für ein Unternehmen, das erst zwei Jahre alt war und nur 13 Mitarbeiter hatte, war ein Dammbruch. Natürlich wurde heiß über eine neue Technologie-Blase diskutiert, die sich vermeintlich aufgetan hätte. Rückblickend aber erscheint die Milliarde für Instagram beinahe mickrig, seitdem Facebook nur wenige Monate später WhatsApp für insgesamt 19 Milliarden Dollar gekauft hat. WhatsApp war zum Zeitpunkt des Kaufs noch kleiner als Instagram und hatte noch weniger Mitarbeiter. Hinzu kommt, dass WhatsApp von seinem technologischen Ansatz her viel trivialer ist als ein richtiges Social Network wie Instagram. Unter den herkömmlichen ökonomischen Prämissen ist so eine Investition kaum zu rechtfertigen. Was also hat den als wirtschaftlich kühl agierend bekannten Facebook-CEO Mark Zuckerberg dazu getrieben, in kürzester Zeit so viel Geld für zwei vergleichsweise junge und kleine Start-ups auszugeben? Es war viel davon die Rede, dass es Facebook vermutlich um die Daten gehe und es wurde ausgerechnet, was das Unternehmen faktisch pro User auf den Tisch 1 | Vgl. Seemann, Michael: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Berlin: iRights Media 2014, S. 8.
103
104
Michael Seemann
gelegt hatte. Andere vermuteten eine selten kostbare Belegschaft, die sie sich einverleiben wollten. »You know nothing« würde Ygritte ihnen zurufen. Sie wissen nicht, wie das Spiel funktioniert, sie verstehen nicht, was auf dem Spiel steht. Mark Zuckerberg aber weiß es: es geht nur um die Netzwerkeffekte. Sie sind schlussendlich einer der Gründe, warum Facebook so erfolgreich ist und eben diese Netzwerkeffekte, sind auch der Grund, warum Zuckerberg trotzdem nicht gut schlafen kann. Netzwerkeffekte sind so genannte positive Rückkopplungen, die auf das Wachstum eines Netzwerkes wirken. Der allererste Telefonnutzer hatte nicht viel Freude an seinem Gerät. Ein Telefon stiftet erst Nutzen, wenn es mit anderen Telefonen verbunden wird. Dieser Nutzen steigt mit jedem einzelnen Teilnehmer, der an das Netzwerk angeschlossen wird.2 Die Netzwerkeffekte gelten selbstverständlich auch für alle andere Arten von interaktiven Kommunikationssystemen: für Faxmaschinen, Telefonsysteme oder Netzwerkprotokolle, aber auch für solche Dinge wie Standards in der Computertechnologie. Überall dort, wo unterschiedliche Teilnehmer interagieren und dies auf einer standardisierten Grundlage tun, kommen die Netzwerkeffekte zum Tragen. Das Neue an der Situation von Facebook und anderen Plattformen sind also gar nicht die Netzwerkeffekte. Die Netzwerkeffekte kommen nur heute stärker zum Tragen, denn etwas hatte sie bis jetzt gefesselt. Neben den positiven Rückkopplungen, die alle Tendenzen immer nur verstärken, gibt es auch solche, die alle Tendenzen immer schwächen. Eine solche negative Rückkopplung sind die Kosten, die Vernetzung produziert. Mit Kosten sind nicht nur Kosten gemeint, die tatsächlich Geld kosten, sondern es meint alle Kosten: jeden zusätzlichen Aufwand, jede extra Anstrengung, jede zusätzliche Zeit, aber vor allem auch jede zusätzliche Unsicherheit, die ich in Kauf nehmen muss, um z.B. zu kommunizieren.3 Diese Kosten zur Kommunika2 | Tatsächlich wurden die Netzwerkeffekte zuerst 1908 vom legendären ersten AT&TGeschätfsführer Theodor Vail festgestellt, als er für die Überführung von AT&T zum staatlich kontrollierten Monopol argumentierte (vgl. Wu, Tim: The Master Switch – The Rise and Fall of Information Empires, New York: Knopf 2010, S. 124, S. 6 ff). Wissenschaftlich wurden die Netzwerkeffekte erst viel später bearbeitet. Bekannt ist die Formel von Robert Metcalfe: n (n − 1)/2. Sie besagt, dass der Nutzen des Netzwerks proportional zur Anzahl der Teilnehmer des Netzwerks im Quadrat ist. Die Stichhaltigkeit von Metcalfes Law wird aber auch angezweifelt (Bob Briscoe, »Metcalfes Law is Wrong«, www.cse.unr.edu/~yuksem/teaching/nae/reading/2006-briscoe-metcalfes.pdf, vom 30. Juli 2006). Ich schlage vor, solchen Quantifizierungsversuchen skeptisch gegenüberzutreten. Um den Zusammenhang zwischen Netzwerkteilnehmer und Attraktivität des Netzwerks plausibel zu machen, sind Formeln meines Erachtens auch nicht nötig. 3 | Dass die Kosten von Interaktion eine wesentliche Rolle beim (wirtschaftlichen) Handeln spielen, entdeckte zuerst Ronald Coase. Er zeigte, dass die neoklassische
Game of Things
tion sind es, die die Netzwerkeffekte in ihrem Wirken bislang immer gebremst haben. Und diese Kosten brechen durch das Internet und die Digitalisierung in einem größeren Maßstab weg. Der erste Kommunikationskostenfaktor der wegfiel, waren die Kosten für die Überwindung von Entfernung. Noch bei Telefonbedingungen spielte Entfernung eine große Rolle. Unterschiedliche regionale, später nationale Telefonnetze mussten überbrückt werden und die Telefongesellschaften ließen sich diese Überbrückung gut bezahlen. Vollkommen unterschiedliche und intransparente Tarife für Orts-, Landes- oder internationale Gespräche waren die Folge. Erst im Internet sind Entfernungen nur noch eine Frage von Latenz und unterschiedlichen Zeitzonen. Die Kosten von Kommunikation von einem Internetknoten zum anderen sind fast überall gleich und quasi bei null. Solange die Kosten für Fernkommunikation noch an die Entfernungen gekoppelt waren, bedeutete das, dass mit zunehmender Vernetzung zwar der Nutzen des Netzwerkes für die Teilnehmer stieg, aber dass dieser Nutzen durch die steigenden Kommunikationskosten mit zunehmender Entfernung wieder neutralisiert wurde. Ein zweiter Kommunikationskostenfaktor ist der der sozialen Komplexität. Bei der Einführung der kommerziellen Telefonie um 1848 in den USA wurden alle Telefone noch zu so genannten Party Lines zusammengeschlossen.4 Wenn man den Telefonhörer abnahm, war man mit allen Teilnehmern des Telefonnetzes gleichzeitig verbunden. Ein grandioses Chaos, das zu vielen interessanten sozialen Situationen führte, aber die Nutzer auch schnell überforderte. Erst als die Schalttafeln für Einzelverbindungen der Teilnehmer untereinander 1878 Einzug hielten, wurde diese Komplexität wieder auf ein handhabbares Maß reduziert. Das Internet durchlief in seiner Entwicklung vom Entstehen hin zu seiner jetzigen Form eine ähnliche Entwicklung: Zunächst waren Chatrooms und Foren im Web der Ort, an dem sich Menschen austauschten. Genau wie die Party Lines in der Frühzeit des Telefons, spricht der Nutzer dort in einen Raum hinein und alle, die sich zu diesem Zeitpunkt virtuell in diesem Raum befinden, können mitlesen, antworten und so mit dem ursprünglichen Sender in Kontakt kommen – egal, ob dies ursprünglich von diesem antizipiert worden war oder nicht. Zwar gab es mit Angeboten wie EMail auch bereits eins-zu-eins Kommunikation, die innerhalb kürzester Entwicklungszeit mit Instant Messengern ergänzt wurden, aber nichts davon war wirklich neu: Die bidirektionale Vorstellung vom Funktionieren des Marktes außer Acht lässt, dass das Teilnehmen an einem Markt Kosten verursacht. Die so genannten »Transaktionskosten« sind die Kosten, um Information zu sammeln, Aufwand zu verhandeln und vor allem die Risiken, die ich eingehen muss. Coase, Ronald: »The Nature of the Firm«, in: Economia 4/16 (1937), S. 386-405. 4 | Vgl. Wu: The Master Switch, S. 103.
105
106
Michael Seemann
Kommunikation kennen wir bereits aus der analogen Welt, genauso wie die Kommunikation mit einer Masse von Menschen. Erstere ist denkbar einfach, letztere erreicht schnell ihren Grenznutzen, je mehr Leute am Gewimmel teilnehmen. Wer schon mal in einem Meeting mit mehr als drei Leuten saß, kennt dieses Scheitern an der Komplexität. Doch die eigentliche Komplexitätsrevolution kam erst mit dem so genannten Social Web. Mithilfe von gut skalierbaren relationalen Datenbanken können komplexe soziale Verhältnisse abgebildet werden.5 Relationale Datenbanken speichern Daten in voneinander unabhängigen Tabellen. Zusätzlich kann man die Beziehung der Datensätze untereinander in so genannten Verknüpfungstabellen speichern. Erst mit der Abfrage der Datenbank – die bei relationalen Datenbanken in einer speziellen Abfragesprache (SQL) verfasst wird – können die komplexen Verknüpfungen dann mit aufgerufen werden. Die Freundschaften bei Facebook zum Beispiel oder die Abonnements bei Twitter sind eigentlich nichts anderes, als eine solche Verknüpfungstabelle, die die eigentlichen Profildaten miteinander verknüpfen. Das soziale Netzwerk ist also ein rein virtuelles Netzwerk, gespeichert in den Tiefen der Datenbanktabellen auf den Servern einer zentralen Recheneinheit. Neben dem »Raum«, in dem alle gemeinsam sprechen, und der einfachen bidirektionalen Konversation gibt es nun den Graphen, ein komplexes Geflecht aus den selbstgewählten Beziehungen, die man in einem sozialen Netzwerk knüpfen kann. Diese beiden Entwicklungen, die die Kommunikationskosten kollabieren ließen, entfesselten die Netzwerkeffekte. Das ist der Grund, weshalb Internetplattformen ein so scheinbar unbegrenztes Wachstum feiern. Je größer sie werden, desto größer wird die Attraktion und der soziale Druck, sich ihnen anzuschließen. Man kann deswegen die Netzwerkeffekte als »soziale Gravitation« bezeichnen. Und diese Metapher trägt weiter als man denkt. Als 2006 eine eigens dafür einberufene Kommission den Begriff »Planet« neu fasste, fiel Pluto durch das Raster. Pluto, jahrzehntelang das kleine, abseitige Nesthäkchen in unserem Sonnensystem, wurde von heute auf morgen der Planetenstatus entzogen. Der entscheidende Satz dazu in der neuen Planetendefinition lautet: »[Ein Planet ist ein Objekt, das] das dominierende Objekt seiner Umlauf bahn ist, das heißt, diese über die Zeit durch sein Gravitationsfeld von weiteren Objekten ›geräumt‹ hat.«6 Pluto wurde der Planetenstatus aberkannt, weil sich in seiner Umlauf bahn teilweise größere Gesteinsbrocken als er selbst finden. Pluto hatte im Gegensatz zu Facebook seine Umlauf bahn nicht geräumt, sein Gravitationsfeld wirkte nicht stark genug. 5 | Vgl. Burkhardt, Marcus: Digitale Datenbanken – Eine Medientheorie im Zeitalter von Big Data, Bielefeld: transcript 2015, S. 288. 6 | International Astronomical Union: »iau0603 – News Release«, www.iau.org/news/ pressreleases/detail/iau0603/, vom 24. August 2006.
Game of Things
Und damit sind wir wieder bei Facebook. Wenn Mark Zuckerberg eskalierende Milliardensummen für Start-ups ausgibt, dann tut er dies, um seine Umlauf bahn frei zu räumen. Facebook räumte seine Umlauf bahn frei, als es Myspace aus dem Orbit rammte. Facebook räumt seine Umlauf bahn frei, als es sich Instagram und WhatsApp einfach einverleibte. Alles, was eine hinreichend direkte Konkurrenz zu Facebooks Funktionalität bildet und eine rasant wachsende Nutzerbasis hat, kann Facebook im Handumdrehen brandgefährlich werden. Und Facebook ist nicht alleine. Auch andere große digital agierende Unternehmen gehen diesen Weg, um ihre Marktmacht zu sichern: Ebay räumt seine Umlaufbahn von anderen Auktionsplattformen, Amazon von anderen Onlineversandhäusern etc. Die von Kommunikationskosten befreiten Netzwerkeffekte sind das eigentliche Spiel um den Thron im Internet. Es sind viele Königshäuser da draußen, die ihre Umlauf bahnen freihalten, sie gelegentlich verlassen und kollidieren. Je länger dieses Spiel geht, desto klarer wird, dass es dem Game of Thrones ähnelt: The winner takes it all.
2. A n den G renzen der M enschheit »When you play the Game of Thrones, you either win or die, there is no middleground« heißt es bei Game of Thrones. Wir befinden uns mitten im Spiel um den eisernen Thron. Einige Königshäuser haben bereits beträchtliche Macht akkumuliert, immer wieder kommt es zu Konflikten, Kollisionen und Machtspielen. Und alle kämpfen nicht nur um den Thron, sondern auch um ihr Überleben. Facebook hat ein Problem. Es kann nicht mehr weiter wachsen, denn es ist an die Stratosphäre der Menschheit gelangt. Hier oben ist die Luft dünn. Etwa die Hälfte der ans Internet angeschlossenen Menschheit hat bereits ein FacebookKonto. Die andere Hälfte ist für Mark Zuckerberg nur sehr schwer zu bekommen. Es ist unwahrscheinlich, dass diese Menschen von Facebook noch nichts gehört haben und so muss es andere Gründe haben, warum sie den Dienst nicht nutzen. Entweder haben sie sich bereits bewusst gegen Facebook entschlossen oder aber sie können Facebook nicht nutzen, weil sie zum Beispiel in Ländern wohnen, wo der Dienst geblockt wird. Da dazu neben China auch viele andere sehr bevölkerungsstarke Länder gehören, sind das sehr viele Menschen. Diese Grenze sieht man bereits im Wachstum. Zwar wächst Facebook immer noch, aber immer langsamer. Der Wachstumsgraph wird zur Asymptote, er nähert sich langsam aber sicher einem Null-Wachstum an. Die positiven Netzwerkeffekte versiegen langsam aber sicher an den Grenzen der Menschheit. In den entwickelten Ländern fallen bereits die Nutzer-Zahlen und die Nutzungsdauer stetig. Nur die Wachstumsmärkte halten den Wachstums-
107
108
Michael Seemann
trend aufrecht.7 Eine Studie der Princeton Universität sieht Facebook bereits 2017 auf dem Schrumpfungskurs.8 Das ist gefährlich, denn die positive Rückkopplung, die die Netzwerkeffekte ja bewirken sollen, besagt eben nicht nur, dass ein Dienst, der im Wachstum begriffen ist, dadurch attraktiver wird. Positive Rückkopplung bedeutet auch, dass ein Dienst, der schrumpft, immer unattraktiver wird. Wenn immer weniger Menschen, mit denen ich interagiere, den Dienst nutzen, sinkt auch der Nutzen, den der Dienst mir stiftet. Die positive Rückkopplung hat auch einen Rückwärtsgang. Würde das geschehen, würde Facebook in eine sich selbst beschleunigende Schrumpfungsspirale geraten. Es würde den Berg rückwärts hinunterrollen, den es erklommen hat. Henry Ford hatte nach dem ersten Weltkrieg ein ähnliches Problem. Er war zu erfolgreich. Mithilfe des Fließbandes, strenger Arbeitsteilung und innovativer Managementtechnik hatte er seine Konkurrenz deklassiert. Er konnte schneller, besser und billiger Autos produzieren als alle anderen. Ähnlich wie Zuckerberg ist auch Ford ein Getriebener der positiven Rückkopplung. Der so genannte Skaleneffekt besagt, dass mit steigender Produktionsstückzahl die Grenzkosten pro produziertem Stück sinken. Mit anderen Worten: Je mehr man produziert, desto billiger kann man produzieren und damit auch verkaufen – was in der Theorie die Nachfrage verstärkt, weswegen man mehr produzieren kann. Ford-Autos waren sehr populär und beinahe jede Familie, die es sich leisten konnte, hatte sich bereits eines gekauft. Und das war das Problem: Die vorhandene Nachfrage war erfüllt und der Markt in seiner Form gesättigt. Das Wachstum stagnierte und Ford suchte nach neuen Möglichkeiten, dieser Stagnation entgegenzuwirken, die Nachfrage wieder anzukurbeln und in der Folge wieder mehr Autos zu verkaufen. Im Zuge dieser umsatzgetriebenen Problemstellung kam dem Unternehmer die wesentliche Idee, die den Begriff des »Fordismus« erst allgemein etablieren sollte. Er zahlte seinen Arbeiter einfach Lohnzuschüsse und gab ihnen das Wochenende frei – Konzessionen, die rein betriebswirtschaftlich unsinnig waren, kosteten sie ihn doch einfach Geld. Die Kalkulation war aber eine andere: Mit dem extra Geld und den freien Wochenenden hatten die Arbeiter einen Anreiz, selbst einen Ford zu kaufen. Ford produzierte also neben Autos auch gleichzeitig seine Kunden mit. Facebook und Google müssen sich an Henry Ford ein Beispiel nehmen und jetzt, wo der bestehende Markt gesättigt ist und die Nutzerstruktur längst 7 | Garside, Juliette: Facebook loses millions of users as biggest markets peak, www. theguardian.com/technology/2013/apr/28/facebook-loses-users-biggest-markets, vom 29. April 2013. 8 | Cannarella1, John/Spechler, Joshua A.: Epidemiological modeling of online social network dynamics, http://arxiv.org/pdf/1401.4208v1.pdf vom 17. Januar 2014.
Game of Things
nicht mehr in der Form anwächst, wie es die Unternehmen aus ihren Anfangsjahren gewöhnt sind, neue Nutzer »produzieren«. Praktisch bedeutet das, dass die Konzerne seit einiger Zeit daran arbeiten, das Gesamtvolumen des digitalen Marktes auszubauen. Facebook tut das zum Beispiel mit seinem Projekt Internet.org. Die Domainendung .ORG wird häufig von gemeinnützigen Organisationen wie NGOs benutzt. Internet.org tritt entsprechend als gemeinnützige Aktion auf und verspricht, strukturschwache Regionen an das Internet anzuschließen. Facebook hat dafür mehr als einen Weg vorgesehen, aber die spektakulärste Variante ist wohl, dass Facebook gedenkt Satelliten ins All zu schicken und mit segelfliegenden autonomen Drohnen W-Lan-Zugang anzubieten. Derzeit wird aber die größte Masse an Menschen dadurch erreicht, dass man in Zusammenarbeit mit lokalen Providern Internetzugänge subventioniert. Bereits seit langem konnte man in vielen Ländern der Welt unter der Domain 0.facebook.com Facebook aufrufen, ohne dass dafür Daten abgerechnet wurden. Diese Zusammenarbeit wird unter dem Banner der guten Sache ausgedehnt. Netzaktivisten sehen darin eine Verletzung der Netzneutralität. Spezielle Dienste wie Facebook aus den Bezahltarifen herauszunehmen, kommt einer Bevorzugung gleich. Facebook zementiert damit seine Vormachtstellung gegenüber allen anderen Netzdiensten und macht so jeden Wettbewerb zunichte. Für Google ist so ein Vorgehen nichts wesentlich Neues. Das Motto ›Was gut für das Wachstum des Netzes ist, ist gut für uns‹ war schon ein wesentlicher Baustein von Googles Wachstumsstrategie. Schon immer bot der Konzern mit dieser Begründung Tools und Dienste kostenlos und sogar werbefrei an, nur um mehr Menschen ins Internet zu ziehen – potentielle Kunden. Auch Infrastrukturmaßnahmen stehen dabei vermehrt auf dem Programm. In der westlichen Hemisphäre versucht der Konzern mit Google Fiber Highspeed-Internet einzuführen, das den Namen verdient. In Pilotprojekten wurden Haushalte mit echter Glasfaser mit Gigabit-Anschlüssen versorgt. Zum Vergleich: Die Telekom bietet im Highprice-Segment derzeit höchstens 100 Megabit an. Ein Zehntel. Aber auch in den strukturschwachen Regionen engagiert sich Google. Mit dem Project Loon will der Konzern Heliumballons in die Stratosphäre schicken, so hoch, dass sie aus den wetterbedingten Unkalkulierbarkeiten entfliehen und dennoch genug Auftrieb haben. Diese fliegenden Sendestationen auf halbem Weg ins All können auch große Regionen mit W-Lan oder Mobilfunk versorgen. Die Strukturschwache Region in Game of Thrones liegt jenseits der »Wall« und wird immer nur als »the north« bezeichnet. Die »Wall« ist eine viele hundert Meter hohe Mauer aus Eis, die den gesamten Kontinent Westeros von dem Territorium im Norden abschneidet. Hier tut Jon Snow seinen Dienst, verteidigt Westeros gegen die so genannten »Wildlinge«. Es sind »wilde« in Horden
109
110
Michael Seemann
lebende Menschen, zurückgelassen jenseits der Zivilisation im ewigen Eis. Sie versuchen immer wieder, die Mauer zu überwinden und brandschatzen, plündern und morden, wenn sie es schaffen. »You know nothing, Jon Snow« bezieht sich auch auf die Unwissenheit und den Vorurteilen gegenüber den »Wildlings«, zu denen eben auch Ygritte gehört. Jon überwindet seine Vorurteile und versucht schließlich, einen Pakt mit den Wildlings zu schließen. Er geht diesen schwierigen Schritt, denn er braucht ihre kämpferische Stärke, so wie Google und Facebook die vielen neuen Internetnutzer aus den strukturschwachen Gegenden brauchen.
3. D ie M acht des U nbelebten Jon Snow braucht die Wildlings, um die die Armee der »White Walkers« aufzuhalten. Diese Armee – bestehend aus bereits gestorbenen und zombiefiziert wieder auferstandenen Menschen – marschiert vom Norden auf die »Wall« zu. Während die mächtigen Königshäuser sich gegenseitig in Westeros bekämpfen, sind es die White Walkers, die in überwältigender Anzahl den gesamten Kontinent bedrohen. Und Ygrittes immer dringendere Ermahnung bezog sich eben auch auf diese Armee, die für Snow und seine Mitmenschen unsichtbare Gefahr aus dem Norden, die den Wildlings bereits seit langem ausgeliefert sind. »You know nothing, Jon Snow!« Das Spiel um die Netzwerkeffekte wird in der Wirtschaftswissenschaft meist anthropozentrisch gedacht. Egal ob Telefon, Computer oder Facebook, am Ende sind es immer Menschen, die aus dem Netzwerk einen Nutzen ziehen und am Ende sind es auch immer wir Menschen, die diesen Nutzen stiften. Wer denn auch sonst? »You know nothing, Jon Snow!« In den Sozialwissenschaften und bestimmten Richtungen der Philosophie hat sich eine solche Sichtweise längst überholt. Die Wichtigkeit von nichtmenschlichen Akteuren wird von modernen soziologischen Theorien wie der Akteur-Netzwerk-Theorie von Bruno Latour radikal einbezogen. Die Idee der ANT ist, dass soziale Situationen nicht mehr anhand von Metakonzepten wie Gruppen, Gesellschaft oder Systemen beschrieben werden sollten, sondern von den viel konkreteren Bindungen eines Netzwerkes. Dabei werden Hierarchien und Entfernungen ebenso nivelliert wie der Unterschied zwischen Makro- und Mikro-Ebene. Übrig bleiben nur die zu einem Netzwerk verwobenen Akteure. Bruno Latour erkannte früh, dass diese Akteure eben nicht nur Handelnde im klassischen Sinne sein können, sondern dass Texte, Messapparate, Graphen, Formeln und andere Artefakte einen ebenso wichtigen Einfluss auf eine Akteurskonstellation ausüben können wie Menschen. Je nach analytischer Situation lassen sich so Akteure identifizieren, die Diskurse und Erkenntnisse produzieren und sich gegenseitig Handlungsmacht (Agen-
Game of Things
cy) übertragen. Latour will seinen Netzwerkbegriff allerdings nicht mit technischen Netzwerkbegriffen verwechselt sehen. Und doch kann er nicht anders, als auch technische Netzwerke als Akteurs-Netzwerke zu verstehen, nur eben als verstetigte, statische Varianten.9 2012 legte Ian Bogost einen Vorschlag für eine universelle Phänomenologie der Dinge vor. In seinem Buch Alien Phenomenology, or What It’s Like to Be a Thing 10 geht er über Latour hinaus, indem er den Dingen nicht nur Handlungsmacht, sondern auch Perzeptionsvermögen zuspricht. In seiner auf Graham Harmans objektorientierten Ontologie auf bauenden Phänomenologie11 entwirft er den Blick des Dings auf die Dinge, einen Blick, der vom menschlichen Blick völlig verschieden ist. Anspielend auf die bekannte philosophische Spekulation von Thomas Nagel: What is it Like to Be a Bat? von 1974 versucht er, mithilfe von Metaphorik einer Vorstellung davon nahezukommen, wie Dinge die Welt wahrnehmen.12 Sein Bezug auf technologische und gar digitale Artefakte ist weitaus stärker ausgeprägt als bei Latour. So untersucht Bogost unter anderem die Wahrnehmung von Computerspielen und des Video-Interfaces des Atari-Computers. Auch wenn Netzwerkeffekte weder bei Latour noch bei Bogost eine Rolle spielen, so lässt sich doch die Grundannahme von rezipierenden und agierenden Netzwerkteilnehmern auf sie übertragen. Genau genommen war die Annahme, dass Netzwerkeffekte nur durch Menschen verursacht und abgeschöpft werden, schon immer abwegig. Menschen kommen ins Netz, um dort die Dienste und Werkzeuge zu nutzen. Am besten lässt sich das anhand von Apples AppStore zeigen. Ökonomen sprechen hier von einem zweiseitigen Markt, getrieben von wechselseitigen Netzwerkeffekten. Sie sehen auf der einen Seite eine große Masse von kauf bereiten Menschen, die gerne Apps nutzen wollen. Auf der anderen Seite sehen sie die programmiermächtigen Entwickler, die deren Bedürfnisse erfüllen wollen. Beide Seiten, so die Ökonomie, profitieren von dem Wachstum der jeweils anderen Seite. Doch sind es wirklich in erster Linie die Nutzer und Entwickler, die sich hier gegenüberstehen? Sind es nicht vielmehr deren Artefakte – die Apps –, die den Nutzen stiften? Ist die Anzahl der Entwickler nicht völlig egal für den Nut9 | »A technical network in the engineer’s sense is only one of the possible final and stabilized state of an actor-network.« Latour, Bruno: On Actor Network Theory: A few clarifications 1/2, www.nettime.org/Lists-Archives/nettime-l-9801/msg00 019.html, vom 11.01.1998. 10 | Bogost, Ian: Alien Phenomenology, or What It’s Like to Be a Thing, Minneapolis: University of Minnesota Press 2012. 11 | Harman, Graham: Tool-Being: Heidegger and the Metaphysics of Objects, Chicago: Open Court 2002. 12 | Bogost: Alien Phenomenology, S. 65.
111
112
Michael Seemann
zen, den diese Artefakte stiften? Wenn all die Millionen Apps von nur wenigen, oder gar nur einem einzelnen Entwickler entwickelt worden wären, würde das irgendeinen Unterschied für die Netzwerkeffekte machen? Und sind es nicht auch die verbauten Sensoren, die von der sie benutzenden App-Vielfalt profitieren? Wie sehen die wechselseitigen Netzwerkeffekte von Hardware- und Software-Features bei Smartphones aus? Wie die zwischen den Plattformen iOS (mobile Geräte) und denen von OSX (Desktop Betriebssystem)? Weiter gedacht: Wieso soll der Markt nur zwei Seiten haben? Sind es denn nicht auch die vielen Newsangebote, speziellen Blogs, Podcasts und Nutzer-Foren zu Geräten mit Apples iOS, die das Betriebssystem attraktiver machen und somit auch den Nutzen einer Plattform erhöhen? Sind es nicht die vielen Zusatzgeräte, spezialisiert auf deren Schnittstellen, die ebenfalls ihren Teil hinzufügen? Ist ein Betriebssystem nicht weniger ein zweiseitiger Markt als vielmehr ein komplexes, weit verzweigtes Ökosystem? Ein Ökosystem der Dinge? Ausgestattet mit all diesem theoretischen Rüstzeug stehen wir nun an der nächsten Zündstufe der digitalen Evolution: dem Internet der Dinge. Das Internet der Dinge (oder auch Ubiquitus Computing) ist ein Sammelbegriff für die Tatsache, dass wir nach und nach anfangen, alle möglichen Dinge mit Mikrochips und Sensoren auszustatten, und diese mit einer Anbindung an lokale Netzwerke oder eben dem Internet versehen. Die Dinge werden ihrer Umwelt gewahr und beginnen miteinander zu kommunizieren. Dabei deckt der Begriff Internet der Dinge bereits sehr viele unterschiedliche Entwicklungen ab: Smart Homes bezeichnet die fortschreitende Entwicklung, Haushaltsgeräte mit intelligenten Chips auszustatten, damit sie fernsteuerbar werden und auf ihre jeweilige Situation halbautomatisch reagieren. Intelligente Stromzähler, Mediacenter und mit dem Handy bedienbare Türschlösser gehören dazu. Wearables sind dagegen intelligente Accessoires, die man am Körper trägt. FitBit-Armbänder, die die Schritte zählen, SmartWatches, die den Puls und andere Körperdaten messen und eine Ergänzung zum Smartphone sein sollen. In der Industrie 4.0 interagieren mit Intelligenz ausgestattete Maschinen miteinander und organisieren dynamische Produktionsprozesse. Dadurch sollen Kosten gespart, die Produktion agiler gemacht und dadurch mehr Individualisierung für die Kunden geboten werden. Bei den Smart Cities geht es darum, den städtischen Raum mit Sensoren auszustatten. Der Mülleimer, der weiß, wann er voll ist, die Ampelanlage, die auf ihre Umwelt reagiert. Demnächst werden autonome Flug-Drohnen und selbstfahrende Autos auf den Markt kommen – auch sie sind Teil des Internets der Dinge. Der Treiber hinter dem Internet der Dinge sind die immer kleiner und billiger werdenden Computerchips. Ein Trend, der im Sinne von Moores Law weiterhin anhalten wird. Das Internet der Dinge ist daher ein Begriff für eine Übergangszeit. Dass jedes Ding auch ein Computer sein wird, der mit Senso-
Game of Things
ren und Intelligenz ausgestattet ist, das wird in zehn Jahren so selbstverständlich sein, dass es dafür dann keinen Begriff mehr braucht. Als Henry Ford damals begann, seine eigene Nachfrage zu produzieren, indem er seine eigenen Arbeitnehmer zu Kunden machte, musste er noch auf Menschen als Akteure zurückgreifen. Apple, Google und vielleicht bald auch Facebook werden bald nicht mehr auf Menschen angewiesen sein, wenn es darum geht, die Netzwerkeffekte am Laufen zu halten. Der Kampf wird nicht mehr um die Vormachtstellung bei menschlichen Akteuren gehen, sondern um die Frage, wer die Armee der Leblosen befehligt, die viel, viel größer sein wird als die kleine Gruppe von Menschen und ihren Geräten, die das heutige Internet ausmachen.
4. D as B abel der D inge Wir sind bei der Entwicklung des Internets der Dinge derzeit noch in der Phase, in der das Web Mitte der 1990er Jahre war. Es gibt nur wenige sinnvolle Anwendungszwecke und eine Plattform wie Facebook ist noch nicht vorstellbar. Es wird viel experimentiert und der Markt ist noch nicht groß, aber die Potentiale sind riesig. Der Netzwerkausstatter CISCO errechnete, dass bis 2020 etwa 75 Milliarden Sensoren ans Internet angeschlossen sein werden.13 IBM geht für das Jahr 2030 sogar von circa 100 Trillionen aus. Wenn das Internet der Menschen der Gravitation des Sonnensystems entspricht, wird das Internet der Dinge eher einer Galaxie gleichen. Die Netzwerkeffekte werden um das schwarze Loch im Zentrum kreisen, das alles in sich hineinzieht und seine Gravitation damit nur noch weiter steigert. Für die Netzwerkeffekte kommt es weniger darauf an, ob Akteure menschlich oder nichtmenschlich sind, sondern ob sie miteinander interagieren können. Um das zu gewährleisten, müssen sie eine gemeinsame Sprache sprechen. Facebook war Mitte der 1990er Jahre noch nicht denkbar. Es gab zwar eine gemeinsame Plattform – das Web – aber dieses war so generisch, dass es zunächst viele miteinander inkompatible Systeme (Websites) schuf. Aber so wie Facebooknutzer nur kommunizieren können, weil sie eine einheitliche Infrastruktur dafür zur Verfügung haben, werden auch die Dinge als Ganzes nur interagieren können, wenn sie eine gemeinsame Plattform haben. Plattformen können verstanden werden als homogene Schnittstellen, die als Infrastruktur allerlei Interaktionsmöglichkeiten unter den Teilnehmer eines Netzwerkes ermöglichen. Sie sind die Bedingung der Möglichkeit von Vernetzung und deswegen selbst oft unsichtbar. Aber gerade dort, wo die Ver13 | CISCO, http://newsroom.cisco.com/feature-content?type=webcontent&articleId= 1208342, vom 29.Juli 2013.
113
114
Michael Seemann
netzung im Entstehen ist, es also noch keine solche allgemeine Plattform gibt, wird das Spiel um die Definitionsmacht der Vernetzung gespielt. Das Game of Things ist der Kampf um die Sprache der Dinge. Wer die Schnittstellen kontrolliert, wird die Netzwerkeffekte ernten. Die derzeitig wichtigsten Anwärter in diesem Spiel sind Apple und Google. Google verfolgt einen Cloud-zentrierten Ansatz. Sein Handy-Betriebssystem Android ist jetzt schon in vielen Dingen verbaut: Autos, Fernseher, Kühlschränke. Sie alle sollen über das Internet mit Googles zentralen Servern reden, wo die Daten zusammengeführt werden und die Geräte zentral einsehbar und steuerbar sind. Der Nutzer greift mit einer Smartphone-App darauf zu. Auch bei Apple wird das Smartphone die Schaltzentrale des Internets der Dinge sein. Im Gegensatz zu der Lösung, die Google auf seiner Entwicklerkonferenz I/O vorgestellt hat,14 sollen die Daten bei Apple aber nicht über zentrale Server zusammenkommen, sondern die Geräte sollen sich untereinander direkt austauschen. Das Thermostat spricht mit der Heizung, beide sprechen wiederum mit dem Smartphone, und vielleicht synchronisieren sie sich noch mit dem Homeserver. Man wird sich also für Apples Lösung entscheiden können – die durch den Verzicht auf einen zentralen Server etwas schonender für die Privatsphäre ausfällt, aber dafür beschränkter im Funktionsumfang ist – oder für Googles Ansatz – der über die Auswertung des Gesamtnutzerverhaltens wahrscheinlich hilfreiche Tipps, aber auch lästige Werbung generieren kann. Neben den beiden Großen gibt es bei dem Game of Things noch viele weitere Anwärter. Von vielen haben wir wahrscheinlich noch nicht einmal gehört. Derzeit findet die meiste Entwicklung von Internet der Dinge-Geräten im kleinen Rahmen von Crowdfundingplattformen wie Kickstarter und Indiegogo statt. Kleine Startups oder Privatpersonen stellen ihre Vision eines vernetzten Haushaltsgegenstandes vor und lassen sich die Entwicklung von Enthusiasten vorfinanzieren. Dabei kommen mal mehr mal weniger nützliche Gegenstände heraus. Hinzu kommen die vielen Bastler und Tüftler, die mithilfe von günstigen Chipsätzen wie Arduino oder Raspberry Pi selbstgebaute Home-Automation-Projekte durchführen, sich in Blogs und Foren über die besten Setups austauschen und die Steuerungssoftware Open Source stellen. Etwas größere Anbieter wie Smartthings gehen einen Schritt weiter und bieten ganze Sets von Sensoren, Kameras und zum Beispiel Lampensteuerung und Heizungsregulierern an, die sich über eine zentrale Schaltstelle steuern lassen. Natürlich wollen auch die großen, etablierten Hersteller wie Siemens, Miele und Grun-
14 | Ball, Benjamin, »Google I/O 2014: Android Meets the Internet of Things with Android Wear, Android Auto, and Google Fit«, http://java.dzone.com/articles/google-io2014-and-internet, vom 26. Juni 2014.
Game of Things
dig den Trend nicht verschlafen und bieten vernetzte Kühlschränke, Waschmaschinen, Fernseher und sogar Rasierapparate an. Und all diese Ansätze, Konzepte und Projekte agieren oft mit dem heimischen W-Lan oder per Bluetooth, und meist sind die dabei entwickelten Protokolle spezialisierte Entwicklungen, inkompatibel mit dem Rest. Sie sprechen Privatsprachen, einen ganzen Zoo an spezialisierten, proprietären Eigenentwicklungen, das Babel der Dinge. Deswegen können sie nur das, was sie können sollen. Doch der eigentliche Wert liegt in der Vernetzung all der Geräte und der muss noch gehoben werden. Die Netzwerkeffekte besagen, dass die Heizung besser funktioniert, wenn sie mit dem Thermostat spricht und weiß, ob das Fenster offen ist. Die Netzwerkeffekte gebieten, dass das Kraftwerk besser funktioniert, wenn es mit allen Thermostaten auf Du ist und Sensoren entlang der Stromtrassen hat. Das Kraftwerk will über die Lieferketten seines Treibstoffs bescheid wissen, genauso wie der Techniker, der das Stromnetz kontrolliert. Das Stromnetz braucht Informationen darüber wie der Verkehr in der Innenstadt fließt, die Autoindustrie ebenfalls, um ihre Produktionsstraßen anzupassen. Die Solarzelle will mit den Wetterstationen sprechen, die Wetterstation mit der Klimaanlage, die Klimaanlage mit dem Türschloss, das Türschloss mit dem Auto, das Auto mit allen anderen Autos und der Straßenverkehrsleitstelle. Der Kühlschrank braucht eine Idee davon, was in ihm steht und alle, alle, alle wollen mit der Smartwatch reden – vor allem, sobald das Garagentor aufgeht. Die Netzwerkeffekte werden eine ungeahnte Traktion erfahren, denn am Ende muss alles mit allem interoperabel sein. Am Ende muss eine Sprache all die Dinge sinnvoll verbinden. Apple, Google und die vielen anderen Adelshäuser werden alles dafür tun, diejenigen zu sein, die diese Sprache vorgeben. Es ist dann am Ende egal, wer die Geräte herstellt und verkauft. Das Facebook der Dinge zu sein, das ist der Eiserne Thron der Dinge. Doch es gibt eine Alternative. Es muss kein einzelnes Unternehmen sein, dass die Protokollebene kontrolliert. Das Internet selbst wird von keiner zentralen Instanz kontrolliert und doch bietet es die Grundlage der meisten Kommunikation, die wir in der digitalen Welt tun. Das Netz der Netze steht auch bereit, Grundlage für das Internet der Dinge sein zu können. Heute schon enthält es den Kern für ein allgemeines Protokoll der Dinge, dezentral organisiert, weltweit erreichbar, offen für alle, die auf dieser Grundlage entwickeln wollen. Dass das Internet mehr Adressen braucht, als die ursprünglichen im Protokollstandard vorgesehenen, wussten die Netzingenieure bereits seit 1998. Damals haben sie schon einen neuen Internetstandard verabschiedet. Das dem Internet zugrundeliegende Netzwerk-Protokoll »IP«, also »Internet Protokoll« ist dafür zuständig, dass die Daten von A ihren Weg nach B finden. Die dafür vorgesehene Adressierung nennt man deswegen IP-Adressen. Sie
115
116
Michael Seemann
sind diese in vier voneinander mit Punkten getrennten Nummernblöcke, etwa 233.154.98.67. Jede der durch einen Punkt getrennten Stellen entspricht ein Byte (8 Bit). Mit einem Byte lassen sich 256 Zustände darstellen, weswegen jede der Stellen eine Zahl zwischen 0 und 255 annehmen kann. Das ergibt also etwas über vier Milliarden mögliche IP Adressen, die zu verteilen sind. Jedes Gerät, das im Internet kommunizieren will, braucht eine solche Adresse, und diese Adressen werden knapp. Eigentlich gibt es kaum noch freie. Natürlich sind viele unbenutzt. In der Frühphase wurden sie zu großzügig vergeben. Apple beispielsweise besitzt alleine ein Class-A Netz, also ein Netz, dessen erste Stelle fix ist und alle anderen frei definieren kann, was immerhin 16,7 Millionen IP-Adressen entspricht. Doch Rettung naht. Das bisherige Internet Protokoll (Version 4) soll durch ein neues ersetzt werden (Version 6). Technisch ist es beinahe auf allen Geräten bislang vorinstalliert. Alleine die Internetprovider zieren sich noch bei der Umstellung. IPv6 hat eine 128 Bit-Adressierung, im Gegensatz zur 32 BitAdressierung von IPv4. Das erhöht die Möglichkeiten dramatisch. 340 Sextillionen IP-Adressen werden damit möglich. Eine Sextillionen ist eine 1 gefolgt von 36 Nullen. Damit könnte jedem Sandkorn auf der Erde eine IP-Adresse zugewiesen werden. Wir können aber derzeit auch nicht ausschließen, dass Sandkörner nicht dereinst beim Internet der Dinge eingemeindet werden. Für das Internet der Dinge ist IPv6 derzeit die größte Chance, sich nicht auf Dauer von einem Unternehmen dominieren zu lassen, und dennoch die Netzwerkeffekte für alle abschöpfen zu können. Natürlich kann IPv6 nur die Grundlage liefern, auf der weitere Protokolle aufsetzen müssen. Wie diese aussehen müssen, ist heute noch schwer zu sagen, denn wir sind noch mitten drin, in der Experimentierphase. Es muss gewährleistet sein, dass die Dinge sich gegenseitig sehen und erkennen, dass sie Messtandards verstehen, Daten austauschen können, sich vielleicht auf Dialekte einigen können. Auf die Frage: »How is it like to be a thing?« müssen jetzt die Entwickler eine weniger spekulative, sondern eine normative Antwort geben. Dabei ist es wohl unvermeidlich, dass einzelne Unternehmen erstmal mit eigenen Standards vorpreschen und am besten mit anderen Standards konkurrieren. Auf lange Frist wollen sich aber weder die Menschen noch die Dinge um Protokollstandards und unterschiedliche Plattformkonzepte die Köpfe zerbrechen. Die Game of Thrones-Saga ist bekanntlich noch nicht fertig geschrieben. Dessen Autor George R. R. Martin arbeitet zur Zeit der Entstehung dieses Textes an dem sechsten Band. Wir wissen noch nicht, wie die Schlacht zwischen White Walkers und Menschheit ausgehen wird. Ein ebenfalls immer wiederkehrendes Sprichwort aus der Saga ist »Winter is coming«. Der große Winter ist die Ankündigung der mythischen Ära der Kälte, eine Zeit, in der die White Walkers durch Westeros marschieren werden. Wahrscheinlich wird es noch fünf bis zehn Jahre dauern, bis wir die großen Schlachten um das Game of
Game of Things
Things erleben werden. Vielleicht werden sie dann von völlig anderen Akteuren geführt werden, als die, die wir heute für die wichtigsten Anwärter halten. Die Unvorhersehbarkeit der Ereignisse im volativen Plattformmarkt könnte der Feder von George R. R. Martin entsprungen sein. Sicher ist nur eines: »Winter is Coming«.
117
Vom Internet zum Internet der Dinge Die neue Episteme und wir Natascha Adamowsky Mein erstes Auto hieß Silberpfeil; ein alter Golf-Diesel, silbermetallic. Wie glücklich war ich, wenn er in aller Herrgottsfrühe bei zwanzig Minusgraden ansprang und mich zu irgendeinem beknackten Job fuhr, und wie schön war es, in lauen Sommernächten zu den wilden Ebern an der Glienicker Brücke rauszufahren. Als er zum Schrottplatz musste, packte mich das heulende Elend, und ich habe mich geschämt, meinen treuen Begleiter mit diesem würdelosen Ende zu verraten. Wenn ich mir vorstelle, Silberpfeil wäre auch noch smart gewesen und hätte mir mit der Stimme von Billy Idol erzählt, wo’s langgeht oder passend zu meiner Hauttemperatur vorgesungen – ich hätte ihn wahrscheinlich geheiratet.1
Die Moderne, so sagt man, sei ein Zeitalter der Dinge.2 Wir sind eine Gesellschaft der Ding-Fetischisten, der es immer mehr gefällt, ihre gesamte Umgebung mit Funkmodulen und miniaturisierten Computern auszustatten. Es scheint um die nahezu wortwörtliche Realisierung einer Zeitdiagnose Alain Badious zu gehen, der von einer »Überflutung des Territoriums durch das Virtuelle«3 spricht, oder aber auch von Bruno Latours projektiertem Parlament der Dinge 4 als neuartigem 1 | Mowsky, Ada: Academic Fiction, Berlin: Friedenau 2015, S. ix. 2 | Böhme, Hartmut: Fetischismus und Kultur. Eine andere Theorie der Moderne, Reinbek bei Hamburg: Rowohlt 2006; Adamowsky, Natascha/Felfe, Robert/Formisano, Marco/Töpfer, Georg/Wagner, Kirsten (Hg.), Affektive Dinge. Objektberührungen in Wissenschaft und Kunst, Wallstein: Göttingen 2011. 3 | Badiou, Alain, Ist Politik denkbar? Berlin: Merve 2010, S. 15. 4 | Latour, Bruno: Das Parlament der Dinge. Für eine politische Ökologie, Frankfurt a.M.: Suhrkamp 2001.
120
Natascha Adamowsky
Forum für Ideen und Konflikte. Tatsächlich zielt die Vision einer total vernetzten, informatisierten Welt, wie sie derzeit von den Informationsindustrien und der Politik massiv vorangetrieben wird, darauf, die Welt in ein Internet der Dinge zu verwandeln.5 Gegenwärtig leben wir immer noch in einer Welt der realen Orte und materialen Dinge. Trotz einiger Erfolge und gewiefter Eigenwerbung sind die Informationsindustrien nach wir vor nur ein Nebenschauplatz der Weltwirtschaft: »Geschätzte 20 Billionen Dollar Erträge erwirtschaften die Digitalwirtschaft und verwandte Bereiche nach Angaben von Citibank und Oxford Economics«, während die Wirtschaft jenseits des Webs es nach »derselben Schätzung auf etwa 130 Billionen Dollar [bringt]. Mit anderen Worten: Die Welt der Atome ist immer noch fünfmal größer als die Welt der Bits.«6 Dies soll nun anders werden, und zwar durch die Aufhebung der bislang als gegensätzlich beschriebenen Sphären des realen und des virtuellen Raumes durch eine Verknüpfung physischer Objekte mit ihrer virtuellen Repräsentation im Netz. In diesem Internet der Dinge, das Kevin Asthon 1999 erstmals beschrieb,7 bzw. diesem geospatial web, wie Mike Liebhold vom Institute for the Future es nannte, wird sich unser physisches Erleben und Handeln im realen Raum mit Eindrücken und Informationen aus den digitalen Netzwerken überlagern.8 Entscheidend für diesen Weg in eine technomorphe Zukunft wird neben der RFID-Technologie9 und Entwicklungen im Bereich der drahtlosen Kommunikation, der Body Area Networks und der Lokalisierungs- und Sensortechnik der Fortschritt im Feld des Ubiquitous Computings sein. In so genannten smart environments sollen digitale und reale Welt zu einer einzigen augmented reality verschmelzen. Anstelle eines Verlusts von Realität an die Simulationswelten des Cyberspace, wie noch in den 90er Jahren des letzten Jahrhunderts befürchtet, richtet sich nun das Virtuelle – so die Vision – in Form miniatu5 | Vgl. Fleisch, Edgar/Mattern, Friedemann (Hg.), Das Internet der Dinge – Ubiquitous Computing und RFID in der Praxis, Berlin: Springer 2007; Bullinger, Hans-Jörg/ten Hompel, Michael (Hg.), Internet der Dinge, Berlin: Springer 2007. 6 | Anderson, Chris: Makers. Das Internet der Dinge: die nächste industrielle Revolution, München: Carl Hanser 2013, S. 19. 7 | http://www.rfidjournal.com/articles/view?4986, vom 28. April 2015. 8 | Vgl. dazu auch Adamowsky, Natascha: »Smarte Götter und magische Maschinen – zur Virulenz vormoderner Argumentationsmuster in Ubiquitous Computing-Visionen«, in: Friedemann Mattern (Hg.), Total vernetzt. Szenarien einer informatisierten Welt, Berlin: Springer 2003, S. 231-247. 9 | RFID steht für radio frequency identification und dient der Identifikation von Gegenständen aus kurzer Entfernung. Die Abfrage der Identitätsnummern erfolgt typischerweise durch eine stationäre ›Lesestation‹, die per Funk mit den kleinen an den jeweiligen Objekten angebrachten batterielosen Transpondern kommuniziert.
Vom Internet zum Internet der Dinge
risierter vernetzter Computereinheiten und unsichtbarer Interfaces in unser aller Leben ein – eine kultur- wie medientheoretisch äußerst relevante Entwicklung, die zudem zentrale Momente der modernen epistemischen Ordnung berührt.10 Das Internet der Dinge, so seine Konstrukteure/Architekten/Ingenieure, werde einer Revolution gleichen. Es stehe in einer Reihe mit dem Faustkeil, dem Rad und dem Verbrennungsmotor11 und werde uns mit einem enormen Zuwachs an Sicherheit und Lebensqualität beeindrucken. Endlich sei es möglich, von der Waschmaschine im Keller zu erfahren, wann sie fertig sei, vom Kühlschrank über die Haltbarkeit der Milch informiert zu werden und von der Barbiepuppe über die geheimen Wünsche des Nachwuchses auf dem Laufenden gehalten zu werden.12 Zum Leidwesen politischer und wirtschaftlicher Interessenvertreter jedoch kommt diese Ideologie (noch) nicht überall gut an. Kritische Stimmen etwa sehen in der vernetzten Welt der smarten Dinge einen ›finalen‹ Angriff auf die menschliche Freiheit und die zynische Realisierung totalitärer Dystopien, wie sie etwa in Filmen und Romanen von Nineteen Eighty-Four und Brazil über Gattaca, Minority Report bis zu Drohnenland schon vielfach entworfen worden sind.13 Neben der ästhetischen wie poetischen Reflektion seiner anti-aufklärerischen Implikationen erinnert der Wunsch nach einer smarten Verlebendigung der Dinge jedoch noch an einen ganz anderen und wesentlich älteren Ding-Diskurs, an die moderne Ding-Reflektion in Literatur, Philosophie und Kunst nämlich, die seit der Romantik den Dingen lauscht und in intensiven Austausch mit ihnen zu treten wünscht. Auch diese Geschichte der Ding-Wahrnehmung hat ihre künstlerische Tradition, und zwar in Form sprechender Teekannen und getreuer Spielzeuge, deren Treiben sich in den Arbeiten der Pixar Animation Studios und den Filmen Walt Disneys über H. U. Stegers Reise nach Tripiti, Hans Christian Andersens Märchen bis zu E. T. A. Hoffmanns Zaubertopf oder Goethes Zauberlehrling zurückverfolgen lässt. Als Gesamtbild entstehen somit seltsame Korrespondenzen: zwi10 | Vgl. N. Adamowsky: Smarte Götter. 11 | Andelfinger, Volker P./Hänisch, Till (Hg.): Internet der Dinge. Technik, Trends und Geschäftsmodelle, Wiesbaden: Springer 2015, S. 1. 12 | Die mit einem Mikrophon, WLAN und einer Konversationssoftware ausgestattete Hello Barbie der Firma Mattel, Gewinnerin des Big Brother Awards 2015, lädt alles, was das Kind spricht, in die Cloud, und Mattel schickt den Eltern dann wöchentlich Links zu den Audiofiles, die ihr Kind besprochen hat. Eine eindrückliche Beschreibung der »Spitzel-Barbie« findet sich bei Praschl, Peter: »Große Schwester«, in: Welt am Sonntag vom 19.04.2015. 13 | Vgl. Orwell, George: Nineteen eighty-four, London: Secker & Warburg, 1949; Brazil (USA 1985, R: Terry Gilliam); Gattaca (USA 1997, R: Andrew Niccol); Minority Report (USA 2002, R: Steven Spielberg); Hillenbrand, Tom: Drohnenland, Köln: Kiwi 2014.
121
122
Natascha Adamowsky
schen den neuen, ›zum Leben erweckten‹ Future Things 14 und ihren analogen Vorgängern einerseits – die, ganz ohne technischen Support, schon seit über hundert Jahren als tückische Objekte15 und widerspenstige Dinge die bürgerliche Welt in unheimlichen Aufruhr versetzen –, andererseits aber auch zwischen sozialwissenschaftlichen, wissenschaftshistorischen wie ontologischen Dingbetrachtungen und Philosophien,16 die aus der Konfrontation mit einer Welt massenhaft technisierter Ding-Akteure eine ganz eigene Aktualität gewinnen. In welchem Zusammenhang, so könnte man fragen, steht eigentlich dieser aktuelle Technologiediskurs mit jener phänomenologischen Unruhe, wie sie Ernst Bloch bereits 1930 in Der Rücken der Dinge formuliert hat? »[W]as ›treiben‹ die Dinge ohne uns? Wie sieht das Zimmer aus, das man verlässt? […] [W]as die Möbel während unseres Ausgangs taten, ist dunkel.«17 Und was ließe sich aus dieser Koinzidenz der Aktualitäten ziehen, der neuerlichen Entdeckung des Ding-Diskurses in den Kulturwissenschaften18 und der gegenwärtig betriebenen technischen Digitalisierung aller Dinge, um dieses seltsame wie 14 | »What if the everyday objects around us came to life? What if they could sense our presence, our focus of attention, and our actions, and could respond with relevant information, suggestions and actions?« (Norman, Donald A.: The Design of Future Things, New York: Basic Books 2007, S. 155.) 15 | Die Rede von der ›Tücke des Objekts‹ stammt aus Vischer, Friedrich Theodor: Auch Einer. Eine Reisebekanntschaft, Deutsche Buchgemeinschaft: Berlin 1934. 16 | Vgl. u.a. Nabokov, Vladimir: »Eigensinnige Ansichten« (1921-77), in: ders., Gesammelte Werke, herausgegeben von Dieter Zimmer, Bd. XXI, Reinbek bei Hamburg: Rowohlt 2004; Kubler, Georg: The Shape of Time. Remarks on the History of Things, New Haven, London: Yale University Press (1962) 2007; Ponge, Francis: Im Namen der Dinge, Frankfurt a.M.: Suhrkamp 1973; Heubach, Friedrich: Das bedingte Leben. Theorie der psychologischen Gegenständlichkeit der Dinge, München: Fink 1987; Latour, Bruno: Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie, Frankfurt a.M.: Suhrkamp (1991) 2008; Rheinberger, Hans-Jörg: Experiment, Differenz, Schrift. Zur Geschichte epistemischer Dinge, Marburg: Basilisken Presse 1992; Flusser, Vilém: Dinge und Undinge. Phänomenologische Skizzen, München: Carl Hanser 1993. 17 | Bloch, Ernst: »Der Rücken der Dinge«, in: ders., Spuren, Frankfurt a.M.: Suhrkamp 1983, S. 172-175, hier S. 172. 18 | Vgl. u.a. Baudrillard, Jean: Das System der Dinge. Über unser Verhältnis zu den alltäglichen Gegenständen, Frankfurt a.M.: Campus 2001; Daston, Lorraine: Things that Talk. Object Lessons from Art and Science, New York: Zone Books 2004; Ferus, Katharina/Rübel, Dietmar (Hg.), »Die Tücke des Objekts.« Vom Umgang mit Dingen, Berlin: Reimer 2009; König, Gudrun M.: Konsumkultur. Inszenierte Warenwelt um 1900, Wien: Böhlau 2009; Böhme, Hartmut/Endres, Johannes (Hg.), Der Code der Leidenschaften. Fetischismus in den Künsten, München: Fink 2010; Kimmich, Dorothee: Lebendige Dinge in der Moderne, Konstanz: Konstanz University Press 2011.
Vom Internet zum Internet der Dinge
beunruhigende Projekt einer Massenmedialisierung der dinglichen Welt besser verstehen und ihm kompetent begegnen zu können?
Was bisher geschah – technische Grundlagen und historische Entwicklungen Laut Kevin Ashton wurde der Begriff Internet der Dinge von ihm 1999 bei einer Präsentation bei Procter & Gamble geprägt. Es ging darum, die neuen RFID-Tags in Procter & Gambles Logistik-Konzept mit der Idee des Internets zu verbinden. Im gleichen Jahr hatte Asthon dazu mit einigen Kollegen und millionenschwerer Förderung19 das Auto-ID Center am Massachusetts Institute of Technology (MIT) gegründet. Innerhalb kürzester Zeit gelang es, durch eine Kostenreduktion und Standardisierung der Transponder Milliarden von Alltagsgegenständen identifizierbar zu machen, was insbesondere in der Logistik-Branche für enormen Erfolg sorgte. Viele Unternehmungen und Forschungsinstitute sahen dies als Startschuss, um von nun an mit doppeltem Einsatz an einer Vernetzung der Welt zu arbeiten. Je mehr Interessenten auf den Zug aufsprangen, desto mehr entfernte sich der Begriff des Internets der Dinge von seiner ursprünglichen Bedeutung eines selbstorganisierenden, RFID-basierten Logistiknetzes und wurde schließlich zu einer Metapher für alle Formen digitaler Auf- und Zurüstung der Lebenswelt. Um Missverständnissen zu begegnen, machte Ashton deshalb seine Vorstellung vom Internet der Dinge in einem kurzen Statement 2009 noch einmal deutlich: Today computers – and, therefore, the Internet – are almost wholly dependent on human beings for information [.]. The problem is, people have limited time, attention and accuracy – all of which means they are not very good at capturing data about things in the real world. [.] We need to empower computers with their own means of gathering information, so they can see, hear and smell the world for themselves, in all its random glory. RFID and sensor technology enable computers to observe, identify and understand the world – without the limitations of human-entered data. 20 19 | Sponsoren waren u.a.: Abbott Laboratories; Best Buy Corporation; Carrefour; Coca-Cola; Dai Nippon Printing Co., Ltd; Ean International; Gillette; International Paper; Kellogg’s Corporation; Kraft; Metro; Nestle; PepsiCo; Philip Morris USA; Sara Lee; Target Corp.; The Gillette Company; Uniform Code Council; United States Postal Service; Visy Industries; Wegmans Food Markets, Inc.; Yuen Foong Yu Paper Mfg. Co., LTD; Ahold, IS; Canon Inc.; Chep International; CVS; Department of Defense; Eastman Kodak; Johnson & Johnson; Kimberely Clark Corporation; Lowes Companies, Inc.; Mitsui & Co, Ltd.; Pepsi; Pfizer; Procter and Gamble Company; Smurfit-Stone Container Corp; Tesco Stores Ltd.; Toppan Printing; Unilever; UPS; Wal-Mart Stores, Inc.; Westvaco. www.autoidlabs.org/ sponsors.html, vom 21. April 2015. 20 | http://www.rfidjournal.com/articles/view?4986, vom 28. April 2015.
123
124
Natascha Adamowsky
»[T]oday’s Internet of data and people gives way to tomorrow’s Internet of Things,« stand 2005 im Internet Report der ITU, der International Telecommunication Union, einer Organisation der UNO, welche laut ihrer Satzung eine etwas andere Bestimmung hat als die Vernetzung der Dinge: »ITU is committed to connecting all the world’s people – wherever they live and whatever their means. Through our work, we protect and support everyone’s fundamental right to communicate.«21 Das Internet der Dinge also entsorgt den schludrigen Benutzer, öffnet der stummen Materie Glanz und Gloria der Schöpfung und sichert uns so das fundamentale Recht auf Kommunikation. Solche und andere argumentativen Inkonsistenzen ziehen sich als roter Faden durch die Entwicklung des Internets der Dinge und legen seine ideologische Dynamik frei. So zeigt sich die Programmatik einer avisierten technischen Verfügungsgewalt immer wieder in rhetorischen Kurzschlüssen, welche die menschliche Kommunikation mit Signal- und Aufzeichnungsprozessen, annonciert als communication between people and things oder als communication between things themselves, gleichzusetzen suchen.22 Aufschlussreich in diesem Zusammenhang ist auch der von der Kommission der Europäischen Gemeinschaften 2009 veröffentlichte Aktionsplan für Europa zum Internet der Dinge.23 Auch hier wird der »Wandel von einem Computernetzwerk zu einem Netz untereinander verbundener Gegenstände, von Büchern und Autos über Elektrogeräte bis hin zu Lebensmitteln« unterstützt, und zwar mit dem Ziel, die »Lebensqualität der Bürger« zu verbessern und für »neue und bessere Arbeitsplätze« zu sorgen.24 In dem visionären Rahmenpapier zur Zukunft der Menschen in Europa heißt es: Von den Anwendungen dieses Internet der Dinge wird ein großer Beitrag zur Bewältigung heutiger gesellschaftlicher Herausforderungen erwartet, wenn beispielsweise Gesundheitsüberwachungssysteme helfen, sich den Herausforderungen einer alternden Gesellschaft zu stellen [.], wenn mit vernetzten Bäumen gegen die Abholzung der Wälder angegangen wird [.] oder wenn vernetzte Autos dabei helfen, Staus zu verringern und ihr eigenes Recycling zu erleichtern. 25
Es gilt, »Stromversorgern die Fernüberwachung elektrischer Geräte zu ermöglichen« oder den Verbraucher zu informieren, wenn bei einem Tiefkühlpro21 | www.itu.int/en/about/Pages/default.aspx, vom 22. April 2015. 22 | ITU Internet Reports 2005, The Internet of Things – Executive Summary, www.itu. int/osg/spu/publications/internetofthings/, vom 28. April 2015. 23 | Internet der Dinge – ein Aktionsplan für Europa, http://eur-lex.europa.eu/legalcontent/DE/ALL/?uri=CELEX:52009DC0278, vom 28. April 2015. 24 | Ebd., S. 1, S. 3. 25 | Ebd.
Vom Internet zum Internet der Dinge
dukt die Kühlkette unterbrochen wurde.26 Weder das eine noch das andere allerdings steht in Zusammenhang mit besserer Lebensqualität oder besseren Arbeitsplätzen. Zur Rekapitulation: Jeder Gegenstand in der ganzen Welt der Dinge soll mit einem Sensor oder Transponder ausgestattet werden, die bis auf absehbare Zeit aus Silizium, Kupfer, Silber und/oder Aluminium bestehen werden, und potentiell alles, was um das Objekt herum geschieht, registrieren und an interessierte Dienste im Internet weiterleiten. Sollten alle Errungenschaften und Überlegungen der letzten zweihundert Jahre zur Unveräußerlichkeit von Freiheits- und Persönlichkeitsrechten oder auch zu einem vernünftigen Umgang mit der Umwelt einkassiert werden, um Staus zu vermeiden oder gammelige Tiefkühlware zu orten? Ja, so steht es zumindest in dem Papier, und auch wenn dies heute nach sechs Jahren überholt sein mag, bleibt dennoch die Begründung bemerkenswert: Die [.] technischen Fortschritte werden sich – unabhängig vom Eingreifen öffentlicher Stellen – ohnehin vollziehen, weil sie einfach dem normalen Innovationszyklus entsprechen, in dessen Verlauf die Unternehmen bestrebt sind, die von den Wissenschaftlern entwickelten neuen Technologien für den eigenen Bedarf nutzbar zu machen. 27
Diese fatalistische Einschätzung korrespondiert mit einer seit Jahrzehnten seitens der Informationswissenschaften propagierten quasi ›naturgesetzlichen‹ Entwicklung der Technik. Neue technische Entwicklungen werden als »evolutionäre Fortschritte« bezeichnet, welche eine »kontinuierliche Produktverbesserung« mit sich brächten.28 Einmal zur ›Tatsache‹ erhoben, gewinnt die Behauptung einen unentrinnbaren Schicksalseffekt, eine rhetorisch sehr geschickte Verschiebung, die in der Diskursgeschichte der Technik häufig anzutreffen ist.29 Im Falle des Internets der Dinge geht es vor allem um die Leistungsfähigkeit von Prozessoren, deren Steigerung so referiert wird, als ob dahinter eine physikalische Naturgesetzmäßigkeit stünde. Freilich ist es möglich, aufgrund von Erfahrungswerten und bisherigen Forschungsergebnissen plausible Vermutungen darüber anzustellen, ob und wann ein bestimmtes technisches Problem lösbar sei. Solche Vermutungen mögen sich auch immer wieder bewahrheiten. Es ist jedoch unlauter, zu behaupten, dass technische Entwicklungen und Problemlösungen einem gesetzmäßigen Verlauf folgten, der zudem die jeweiligen Ergebnisse terminiere. Die rhetorische Verschiebung besteht darin, die Tatsache, dass es »keine Technik ohne eine Co-Produktivität der Natur 26 | Ebd., S. 4, S. 2. 27 | Ebd., S. 4. 28 | www.vs.inf.ethz.ch/publ/papers/Internet-der-Dinge.pdf, vom 01. Mai 2015, S. 4. 29 | Vgl. Adamowsky, Natascha: Das Wunder in der Moderne. Eine andere Kulturgeschichte des Fliegens, München: Fink 2009.
125
126
Natascha Adamowsky
geben kann«30, deren Eigenschaften eben in Naturgesetzen beschreibbar sind, auf die Entwicklung von Techniken selbst zu übertragen, welche sich im Raum kultureller Kontingenz ereignen. D.h., genauso wenig, wie ein Naturgesetz bestimmt, auf welche Art und Weise Strom hergestellt wird – ob mit einem Fahrraddynamo, einem Kohle-, Wind- oder Wasserkraftwerk –, ergibt sich aus der Erfindung eines eleganten Algorithmus zwangsläufig, zwingend oder gar naturbedingt, dass die Umwelt mit Milliarden von smart labels ausgestattet werden müsse, um unser Leben auf Schritt und Tritt zu verfolgen. Eine besondere Brisanz gewinnt die Unvermeidlichkeitsbotschaft vor dem Hintergrund der Tatasche, dass die »vielen industrieangetriebenen Versuche, diese alles umspannende Technik einzuführen, [.] mangels Nachfrage und Nutzen bislang« gescheitert sind.31 Dies ist letztlich nicht verwunderlich, dient das Internet der Dinge doch, wie die EU-Kommission selbst schreibt, zunächst und vor allem dem ›Bedarf‹ der Unternehmen. Es geht um »neue Geschäfts- und Wachstumsaussichten«32, ein milliardenschweres »Potential für die Hersteller« und um die damit verbundene Einsicht der Bürgerinnen und Konsumenten, auf Privatsphäre künftig zu verzichten. Zwar wird dem Datenschutz unisono eine große Rolle zugeschrieben – die Kommission der EU will für diesbezügliche Rahmenbedingungen und Gesetze sorgen, die Informatiker sehen sich vor ›gewaltigen Ansprüchen an die zugrundeliegenden Technologien‹33 und die Industrie betreibt das Monitoring unserer Privatverhältnisse eh nur ›in den besten Absichten aus Sorge um unsere Sicherheit und unser Wohlergehen‹34 –, doch die Entwicklung verläuft hier nur schleppend. Womöglich gehört Datensicherheit, anders als die Gewinnung, Verarbeitung und Speicherung von Daten, nicht zu jenem fabelhaften Wachstumsbereich, in dem sich unausweichlich die Erkenntnisse und Lösungen alle paar Jahre ›evolutionär‹ vermehren. Als unausweichlich gilt vielmehr, und das mag auch ein Grund für die eher überschaubaren Anstrengungen auf entwicklungstechnischer Seite sein, dass wir Menschen uns ›weiterentwickeln‹ werden: »Was früher Privatsache war, ist heute öffentlich«, schrieb 2002 Thomas Weber35, Vorstandsmitglied für Forschung und Technologie der DaimlerChrysler AG, in Total vernetzt, einem der ersten Bücher über die Szenarien einer informati30 | Böhme, Hartmut/Matussek, Peter/Müller, Lothar: Orientierung Kulturwissenschaft, Reinbek bei Hamburg: Rowohlt 2000, S. 171. 31 | http://www.heise.de/tp/artikel/30/30805/1.html, vom 24. April 2015. 32 | Ebd. 33 | www.vs.inf.ethz.ch/publ/papers/Internet-der-Dinge.pdf, vom 01. Mai 2015, S. 7. 34 | »Machines monitor us with the best of intentions, of course, in the interest of safety, convenience, or accuracy.« D. A. Norman: Design of Future Things, S. 11. 35 | Weber, Thomas: »Zum Geleit«, in: Friedemann Mattern (Hg.), Total vernetzt. Szenarien einer informatisierten Welt, Berlin, Heidelberg: Springer 2003, S. VII-X, hier S. IX.
Vom Internet zum Internet der Dinge
sierten Welt, und im Kommissionsbereicht der Europäischen Gemeinschaften heißt es sieben Jahre später: »[Sicherlich] wird sich mit dem Aufkommen des Internets der Dinge auch unsere Vorstellung von Privatsphäre ändern.«36 Damit das auch so kommt, erfolgt eine schrittweise Eingewöhnung der Bürger in die Anforderungen der neuen Geschäftsmodelle und die gewachsenen staatlichen Sicherheitsinteressen mit Türöffnern wie dem epass, der Auszeichnung von Arzneimitteln, der Fernüberwachung elektrischer Geräte durch den Stromanbieter, dem Pkw-Notrufsystem eCall oder den neuen ÜberwachungsApps postdemokratischer Internet-Monopolisten wie WhatsApp von Facebook. Die Akquise neuer Datenlieferanten wird dabei nachdrücklich vom Desinteresse und der Uninformiertheit weiter Bevölkerungskreise befördert, die Datenschutzbeauftragte und Medienkritiker zunehmend als übellaunige, bedenkenträgerische Fossile und aktionistische »Spaßbremsen« wahrnehmen.37 Vor allem die betonte Freiwilligkeit der Datenpreisgabe scheint sich als guter Schachzug übergriffiger Behörden und invasiver Datenfirmen zu erweisen – sie suggeriert offenbar vielen eine Art Unbedenklichkeit – und macht es wahrscheinlich, dass in 15 Jahren nicht nur das Wort Privatsphäre, sondern auch der Begriff der Freiwilligkeit eine deutlich andere Bedeutung haben werden als heute. Eine zentrale Komponente der Monitoring- und Sensing-, Mapping- und Tracking-Technologien ist die bereits erwähnte Schlüsseltechnologie des Ubiquitous Computings. Es handelt sich dabei um eine wesentlich ältere Idee als die des Internets der Dinge, die auf einen Aufsatz von Mark Weiser zurückgeht: »The Computer for the 21st Century« von 1991. Weiser, damals leitender Wissenschaftler am Forschungszentrum von XEROX in Palo Alto, entwickelte darin die Vision allgegenwärtiger unsichtbarer Computer, die in Gestalt ›intelligenter Gegenstände‹ den Menschen unaufdringlich unterstützen sollten. As technology becomes more imbedded and invisible, it calms our lives by removing the annoyances […]. The most profound technologies are those that disappear. They weave themselves into the fabric of everyday life until they are indistinguishable from it. 38
Diese Vision, so Friedemann Mattern, Leiter des Instituts für Pervasive Computing an der ETH Zürich, schien schon wenige Jahre später durch »das ver36 | http://eur-lex.europa.eu/legal-content/DE/ALL/?uri=CELE X:52009DC0278, vom 28. April 2015, S. 6. 37 | Vgl. z.B. John Oliver, Last Week Tonight, http://www.youtube.com/watch?v=XEV lyP4_11M sowie www.radioeins.de/programm/sendungen/der_schoene_morgen/kom mentar/brigitte_fehrle.html, vom 28. April 2015. 38 | Weiser, Mark: »The Computer for the 21st century«, in: Scientific American 265/3 (1991), S. 94-104, hier S. 95.
127
128
Natascha Adamowsky
allgemeinerte mooresche Gesetz« und die damit »induzierte schleichende Revolution hinsichtlich Quantität (indirekt aber auch hinsichtlich Qualität) der Informationsverarbeitungsfähigkeit« realisierbar.39 »[K]leinste spontan und drahtlos miteinander kommunizierende Prozessoren [werden] bald im Überfluss vorhanden sein.« Myriaden von »Wegwerfcomputern« würden die »Welt durch Rechenleistung« überschwemmen und einen »Paradigmenwechsel in der Computeranwendung einläuten: Kleinste und billige Prozessoren, Speicherbausteine und Sensoren können einerseits zu diversen preiswerten information appliances zusammengebaut werden, die drahtlos mit dem Internet verbunden und für spezielle Aufgaben maßgeschneidert sind.« Andererseits könnten die kleinen ›Wegwerfcomputer‹ auch in jeden Alltagsgegenstand eingebaut werden und den Dingen das Attribut smart verleihen – »das computing wird somit ubiquitär.«40 Bekanntlich hat man sich im letzten Jahrzehnt gegen das Konzept eines spezialisierbaren, individualisierbaren Baukastensystems entschieden und für eine ubiquitäre Vernetzung der Lebenswelt. Das Auffällige am Ubiquitous Computing ist dabei, wie beim Internet der Dinge, die starke Betonung von Allgegenwart und Unsichtbarkeit.
A llgegenwart und U nsichtbarkeit Den Wunsch nach Allgegenwart haben Kulturen bislang meist in Kategorien des Metaphysischen formuliert; der Wunsch nach Unsichtbarkeit technischer Funktionsweisen hingegen ist ein alter Trick magischer Praktiken. Dass technische Diskurse häufig von mythologischen Versatzstücken geprägt sind, gehört ebenso zur Moderne wie ihr fetischistisches, animistisches, anthropomorphistisches Verhältnis zu den Dingen. Es ist damit zu rechnen, dass im Zuge eines Technisierungsschubes, wie ihn das Internet der Dinge erfordert, Allgegenwart mit Einheitlichkeit verwechselt wird. Denn damit die smarten Chips auch alle und überall ihre Daten untereinander austauschen können, muss eine flächendeckende Topografie des Digitalen, eine Gestaltung der Umwelt unter dem Primat ihrer digitalen Erfassung und Steuerung entwickelt werden, die vor allem vollautomatisch funktioniert. Eine gesteigerte Erkenntnis über unsere Umwelt oder gar eine Verbesserung der Lebensqualität geht damit weder einher noch läuft es darauf hinaus. Die Welt ist hinterher ›lediglich‹ umfassend genormt, automatisiert und standardisiert.
39 | Mattern, Friedemann: »Vom Verschwinden des Computers – Die Vision des Ubiquitous Computing«, in: ders. (Hg.), Total vernetzt. Szenarien einer informatisierten Welt, Berlin, Heidelberg: Springer 2003, S. 1-42, hier S. 10. 40 | Ebd.
Vom Internet zum Internet der Dinge
Mit dieser Normung, Standardisierung und Automatisierung aller Lebensbereiche ist die Kehrseite der Vorstellung einer Allgegenwart von Computern verbunden. Die Welt wird zu einem gigantischen transhumanen selbstreproduktiven System, das von Einzelwillen wie -körpern unabhängig funktioniert. In diesem globalen Supersystem sind alle Charakteristika moderner Technik zu einem Maximum potenziert: Man hat es weder mit einer funktionalen Antwort auf ein menschliches Bedürfnis zu tun, noch kann davon gesprochen werden, dass die technische Entwicklung oder die von ihr produzierten Waren Bedürfnisse erzeugen. Es geht überhaupt nicht um Bedürfnisse, sondern um ein strategisches Dispositiv, das autonom weitere technische Systeme und Sub-Techniken erzeugt, Verhaltenskonditionierungen festlegt und Handlungsoptionen vorgibt. Im Prinzip tut das jedes technische System, der vorliegende Entwurf eines Internets der Dinge ist jedoch von außergewöhnlicher Radikalität begleitet und operiert obendrein an definitiven Grenzen wie denen des menschlichen Körpers. Nur auf den ersten Blick bezieht sich Ubiquitous Computing allein auf Dinge. Der Leib aber wird keine natürliche Oase bleiben inmitten der umfassenden Vernetzungsstrategien. Längst sind wir über das Stadium der tragbaren Geräte hinaus. Schuhe, Brillen, Kleidung stehen auf dem Programm, und die ersten Implantate sind auch schon gelegt. Es gibt elektronische Beinprothesen mit Bluetooth-Schnittstelle, und das Beispiel des smarten Herzschrittmachers ist mittlerweile Standard in technikaffinen Diskussionen. Es ist bemerkenswert, dass kaum jemand Anstoß zu nehmen scheint an der totalitären Selbstbeschreibung der Ubiquitous Computing-Vision. Immerhin steht nicht weniger zur Revision als unsere bisherigen kulturellen Vorstellungen von Raum und Zeit, Öffentlichkeit und privater Sphäre, die Beziehungen von Ich und Welt, Mensch zu Mensch, Körper und Umgebung. Die Organisation menschlicher Gesellschaften, die konstitutiv auf Intersubjektivität angelegt ist, wird mit einer radikal selbstbezüglichen Technik überzogen, in deren Logik Kommunikation zum Befehlsaustausch mutiert. Und da das Konzept vom Internet der Dinge nicht nur in einem umfassenden Zusammenhang mit Ubiquitous Computing, sondern auch mit Big Data, Wearables und Social Physics steht, erreicht die Vermessung des Menschen und seine Experimentalisierung ein neues Stadium. Ziel sei es, so Alexander Pentland, Professor am MIT und Leiter des Human Dynamics Lab, »eine bessere Welt aufzubauen«.41 Es liegt auf der Hand, dass solcherlei Ehrgeiz mit weit reichenden Folgen für die Gesellschaft verbunden ist, und so dienen die aus unseren Lebensvollzügen massenhaft extrahierten Daten auch tatsächlich dazu, mittels
41 | www.heise.de/tr/artikel/Willkommen-in-der-Matrix-2551024.html, vom 21. April 2015.
129
130
Natascha Adamowsky
Reality Mining42 und Social Physics43 unser Denken, Fühlen und Verhalten zu beeinflussen. In seiner Forschung beschäftigt sich Pentland damit, mittels so genannter Sociometric Badges den Ideenfluss und die soziale Struktur einer Mitarbeitergruppe, das Maß der sozialen Interaktion oder auch den Wert von Beziehungen genau zu messen. Die von ihm daraus abgeleiteten Methoden zur Unternehmensoptimierung und indirekten Beeinflussung und Verhaltenssteuerung gelten als sehr erfolgreich. Die Kunden seines Unternehmens, Sociometric Solutions, jedenfalls berichten erfreut über die gesteigerte Zufriedenheit ihrer Mitarbeiter, über mehr Produktivität und die damit natürlich einhergehenden signifikanten Einsparungsmöglichkeiten durch das gesteigerte Engagement der (nicht gekündigten) Mitarbeiter.44 Die Computer der Zukunft sollen jedoch nicht nur omnipräsent, sondern auch unsichtbar sein. Ein vernünftiger Grund dafür lässt sich nicht erkennen, doch aus den Texten der Entwickler ertönt eine große Befriedigung, endlich winzige Computer in allen Dingen verstecken zu können. Die unzureichenden Sinnofferten des Projektes scheinen aufgewogen von der Freude, etwas tun zu können, was so früher nicht möglich war. Dieses ›Etwas‹ wird beschrieben in einer Rhetorik des Magischen. In einigen Passagen über Ubiquitous Computing-Anwendungen wird beschrieben, welchen Eindruck die neue Technik auf den Nutzer machen wird, nämlich den einer nachhaltigen Verzauberung. So heißt es, dass der Nutzer den Eindruck haben würde, die Gegenstände selbst könnten ihm Informationen zufunken. Seine Mülltonne wäre sehr neugierig auf die Recyclingfähigkeit ihres Inhaltes und sein Arzneischrank würde sich um die Verträglichkeit und Haltbarkeit seiner Medikamente sorgen.45 Die »ultimative Vision des ubiquitous computing« schließlich solle aus heutiger Sicht in »ihrer Wirkung gar nach Zauberei anmuten«46. Schließlich seien Dinge, die miteinander kommunizieren, ein »uralter Menschheitstraum, der sich in verschiedenen Märchen fin42 | Eagle, Nathan/Greene, Kate: Reality Mining, Using Big Data to Engineer a Better World, Cambridge: MIT Press 2014. 43 | http://socialphysics.media.mit.edu/, vom 24.4.2015; Pentland, Alex: Social Physics: How Good Ideas Spread – The Lessons From a New Science, New York: Penguin Press 2014. 44 | www.sociometricsolutions.com/; vgl. auch www.heise.de/tr/artikel/Willkommenin-der-Matrix-2551024.html, S. 3, vom 24. April 2015. 45 | Vgl. Bohn, Jürgen et al.: »Allgegenwart und Verschwinden des Computers. Leben in einer Welt smarter Alltagsdinge«, in: Ralf Grötker (Hg.), Privat! Kontrollierte Freiheit in einer vernetzten Welt, Hannover: Heise 2002, S. 195-245, hier: S. 4 f. 46 | Mattern, Friedemann: »Ubiquitous Computing – Der Trend zur Informatisierung und Vernetzung aller Dinge«, in: Gerhard Rossbach (Hg.), Mobile Internet, Tagungsband 6. Deutscher Internet-Kongress, Heidelberg: dpunkt 2001, S. 107-119, hier S. 113.
Vom Internet zum Internet der Dinge
det«.47 Solche Effekt-Strategien nehmen sich vor dem Hintergrund einer rationalistisch aufgeklärten Perspektive moderner Wissenschaft merkwürdig aus und erscheinen fast schon infam, wenn man bedenkt, welche Fragen und Probleme die technischen Konzepte der versteckten kleinen Maschinen tatsächlich verdecken. Grundsätzlich ist hier nach der Legitimation und der Geeignetheit derjenigen zu fragen, die diese smarte neue Welt programmieren und implementieren. Sie bleiben in ihrer ethisch-moralischen Verantwortungsabstinenz genauso unsichtbar wie jene Dateningenieure, die an Techniken und Programmen arbeiten, die aus Bürgern suspects und aus Konsumenten totale Konsumenten machen. Besonders charakteristisch ist die Verschleierung der Ziele und Nutzen des Projektes, welches auf staatliche Kontrollinteressen und ökonomische Profitorientierung zugeschnitten ist, diese jedoch mit den Attributen Sicherheit und Lebensqualität versieht. Dementsprechend bleibt ebenso unsichtbar, wem die Milliarden Daten gehören werden, wem die Synchronisation der Milliarden Geräte obliegt und wie sie erfolgen soll, was die Konzepte für Upgrading und Updating vorsehen, wie die Schutzmaßnahmen gegen Blackouts aussehen und wo sich die Aus-Schalter befinden werden (so es noch welche gibt).
I deologie vs . W irklichkeit Auch wenn eine vollständige Transformation der Welt in ein Internet der Dinge noch Vision ist, gibt es bereits eine Reihe von Anwendungen, die bereits laufen bzw. mit deren Realisierung in Kürze zu rechnen ist. Dazu gehören u.a. Fahrzeugkontrollsysteme, das so genannte ›Intelligente Haus‹, medizinische Anwendungen, Warenwirtschaft und Logistik, Nahrungsmittellagerung, Tierhaltung, Dokumentensicherheit, Ticketing und selbstverständlich militärische Anwendungen. Wie diese vergleichsweise inkonsistente Beispielauswahl belegt, ist die Internet der Dinge-Vision außerordentlich ambivalent zu beurteilen. Es heißt: »IoT [Internet of Things] devices will help us sleep better, save time and energy, ensure we never run out of coffee or toilet paper, and automate our lives. […] The Internet of Things is built on machine-to-machine interaction. Human interaction is slow and unpredictable; machines can often make better decisions quicker.«48 Während das Argument von automatisierter Überwachung und Geschwindigkeit sofort einleuchtet, wenn es darum geht, den Blutdruck eines Herzpatienten zu kontrollieren, erscheint es absurd, seinen Herzschrittmacher mit dem Internet verbinden zu wollen, zumindest solange es sich um das der47 | Mattern, Friedemann: »Die Metamorphose des Computers – Heinz’ Tagebuch«, in: Lutz Heuser (Hg.), Heinz’ Life, München: Carl Hanser 2010, Kapitel 6, S. 66. 48 | http://www.theinternetofthings.eu, vom 21. April 2015.
131
132
Natascha Adamowsky
zeitige Internet der Geheimdienste, von Anonymous und Datenmonopolisten wie Google, Facebook und Amazon handelt. Zudem versprechen Anbieter der neuen Technologie potentielle Anwendungen, die inkongruent mit ihren derzeitigen Geschäftspraktiken sind, etwa die Idee, dass smarte Produkte über Wartungshinweise und Garantieleistungen informieren könnten, während das Unternehmen selbst eine build-in oder systemic obsolescence-Strategie verfolgt, nach der die Geräte mit Verschleißteilen versehen werden, die kurz nach Ablauf der Garantiezeit kaputt gehen. Zudem erreichen den Markt heute hauptsächlich unfertige Software-Versionen mit erheblichen Sicherheitsdefiziten,49 die sich in einem permanenten Status des Beta-Testens und Updatings befindet. »In a highly-competitive industry, technology companies have realized that even though they cannot legally sell a product with a shelf life, there is little to gain by building them to last as long as the mechanical devices of the last century.«50 Hinzu kommt, dass es für viele Anwendungen bereits bessere Lösungen gibt. Um dem Kunden eine Unterbrechung der Kühlkette anzuzeigen, wurden schon vor Jahren umweltfreundliche Farbumschlag-Indikatoren entwickelt, die von Industrie und Handel jedoch abgelehnt wurden,51 und Unfälle im Straßenverkehr werden nach wie vor nicht durch selbstbremsende Autos, sondern am effektivsten durch Geschwindigkeitsbegrenzungen, vernünftiges Autodesign, regelmäßige Fahrschulungen und gegenseitige Rücksichtnahme verhindert. Um über aktuelle Verkehrsereignisse informiert zu werden, soll man sein Fahrzeug permanent orten und überwachen lassen, obwohl der öffentlich-rechtliche Rundfunk diesen Service schon seit Jahrzehnten ›kostenlos‹ anbietet. ›Unsichtbar‹ bleibt dabei auch, wer sich vor allem für die Fahrzeugdaten interessiert, die Autoversicherungen nämlich, weil man dort die Höhe der Versicherungszahlungen gern vom individuellen Risiko, sprich Fahrverhalten, abhängig machen würde. In eine ähnliche Richtung geht auch das Interesse von Krankenkassen an den medizinischen Daten ihrer Versicherten, die derzeit mit Lifestyle-Gadgets wie Gesundheitsarmbändern und smarten Uhren verlockt werden sollen, ihre Lebensweise der vorherrschenden Gesundheitsideologie anzupassen oder gegebenenfalls höhere Beiträge zu zahlen. Der Weg von einer totalitären Überwachung zu einer totalitären Prävention ist hier konzeptuell bereits vorgezeichnet. Es gibt auch Anwendungsvorschläge, die nachgerade zynisch erscheinen, etwa die Idee einer »besseren Betreuung Hilfsbedürftiger mittels smarter Assistenzsysteme«, ein Vorschlag, der durch 49 | Vgl. www.heise.de/tr/blog/artikel/Keine-Sicherheit-nirgends-2599434.html, vom 01. Mai 2015. 50 | http://theconversation.com/internet-of-things-devices-meant-to-simplify-ourlives-may-end-up-ruling-them-instead-37811, vom 01. Mai 2015, S. 3. 51 | http://www.heise.de/tp/artikel/30/30805/1.html, vom 24. April 2015, S. 4.
Vom Internet zum Internet der Dinge
die Gleichsetzung von Betreuung mit Marginalisierung und Ökonomisierung alle Bemühungen der letzten Jahre um Inklusion und einen würdevollen Umgang mit älteren Menschen konterkariert. Insgesamt zeichnet sich ein Konzept ab, in dem vielfältige ökonomische und machtpolitische Interessen artikuliert werden; allein, die versprochenen Hauptvorteile von gestiegener Sicherheit und Lebensqualität bleiben äußerst unscharf. Seit ich mich 1998 erstmals mit Weisers Vision einer total vernetzten Welt auseinandergesetzt habe, ist diesbezüglich nicht viel passiert. Nach wie vor stehen die zentralen Mängel der Technologie wie Privatsphäre, Datenschutz, Technologiedependenz, Technikpaternalismus usw. als ungeliebte Komparsen in der Ecke, dabei wäre ihre Behebung doch genau das, was diese Technik wirklich attraktiv machen und tatsächlich für mehr Lebensqualität und Sicherheit sorgen könnte. Ein an menschlicher Lebensqualität orientiertes Internet der Dinge wäre z.B. reparierbar, recycling-fähig, vor allem aber untrennbar mit Entscheidungsfreiheit verbunden, d.h. alle Anwendungen wären optional, und man hätte die Wahl, Dinge smart oder nicht-smart zu benutzen. Seit die Idee einer totalen Vernetzung von Industrie und Forschung diskutiert wird, werden solche und andere Einwände und Kritikpunkte jedoch konsequent desavouiert als »Ängste«52 des einfachen Mannes im Angesicht komplizierter Technik, als »heftige emotionale Gegenreaktionen« oder nicht repräsentative »Extremmeinungen«.53 Als besonders wirkungsvoll erweist sich zudem die weithin akzeptierte Gegenüberstellung von Sicherheit und Freiheit bzw. convenience und privacy. In Diskussionen stehen sich Sicherheitsversprechen und Sicherheitsrisiken gegenüber; den politischen und wirtschaftlichen Argumenten werden Bedenken hinsichtlich massiver Einschränkungen der informationellen Selbstbestimmung und der Verhaltensmanipulation entgegengehalten. Übersehen wird dabei, dass die Idee von Sicherheit ihre Attraktivität wesentlich ihrem utopischen Charakter verdankt und vorzugsweise Techniken mit enormer Suggestionskraft hervorbringt.54 Diese sorgen zu großen Teilen weder für Sicherheit noch für Freiheit, weil beide auf normativen Werten beruhen, die historisch immer wieder aufs Neue von Gesellschaften für sich zu interpretieren und intersubjektiv auszuhandeln sind.55 52 | T. Weber: Zum Geleit, S. IX. 53 | Mattern, Friedemann/Flörkemeier, Christian: »Vom Internet der Computer zum Internet der Dinge«, www.vs.inf.ethz.ch/publ/papers/Internet-der-Dinge.pdf vom 24. April 2015, hier S. 16. 54 | Vgl. Kaufmann, Franz-Xaver: »Sicherheit: Das Leitbild beherrschbarer Komplexität«, in: Stephan Lessenich (Hg.), Wohlfahrtsstaatliche Grundbegriffe. Historische und aktuelle Diskurse, Frankfurt a.M.: Campus 2003, S. 73-104, hier S. 74 f. 55 | Vgl. Marciniak, Angela: Politische Sicherheit. Zur Geschichte eines umstrittenen Konzepts, Frankfurt a.M., New York: Campus 2015.
133
134
Natascha Adamowsky
N achtr ag Die Dinge ragen so tief in unsere Existenz, dass sie, in ihrer Fremdheit, das Alphabet des Menschlichen austragen, wie umgekehrt der Mensch sie selbst alphabetisiert. Man kann sie so wenig von sich abhalten wie sich mit ihnen vereinigen. Dies macht vorsichtig gegenüber dem großen Zug aufgeklärter Philosophie, die jede animierende Vermischung mit den Dingen als Fetischismus von sich weist und die Gesamtheit aller Dinge, zu Sachverhalten kondensiert, unter die Synthesis unserer souveränen Urteilsgewalt versammelt. 56
Was erwartet uns, wenn wir das Heer der stummen Dinge zu autonomen Agenten, Spionen, Dienern und Automaten machen? Wie verändert sich ihr Zustand als Objekte, als technische Objekte, die in technische Umgebungen eingebettet sind, um jede Veränderung zu registrieren, zu messen, aufzuzeichnen, zu berechnen, auszuwerten, zu kommunizieren, zu archivieren? Als Teil einer erdumspannenden Maschine, einer gigantischen sich selbst steuernden Umgebung werden die Dinge uns Menschen umschließen, umsorgen und verwalten, uns studieren, kontrollieren und sich anpassen. Die Dinge werden nicht mehr nur uns erinnern, sie werden auch sich erinnern und dabei eine unheimliche Unmöglichkeit des Vergessens implementieren. Als Beobachter und Akteure wird den Dingen eine neue Dimension der Zeitlichkeit zukommen, welche durch die Serialität technischer Produktentwicklung und die Logik kontinuierlichen Upgradings charakterisiert ist. Bislang ist es für das Selbstbewusstsein des autonomen Subjektes der Moderne unerträglich gewesen, den Dingen eine Mit-Autorschaft zuzugestehen. Nun geriete mit der Gesellschaft der smarten Dinge nicht nur die für die Moderne so zentrale Unterscheidung zwischen Subjekten und Objekten ins Wanken, sondern auch die für das christliche Abendland so prägende Wertehierarchie zwischen Geist und Verdinglichung. Die Dinge würden uns auf Augenhöhe begegnen und uns ansprechen, semantisch treffen und vielleicht angesichts unserer enormen Abhängigkeit von ihnen verlangen, dass wir uns fügen. Womöglich wird der lang gefürchtete ›Aufstand der Dinge‹ trotz ihrer digitalen Aufrüstung ausbleiben, und dennoch wird nichts mehr so sein wie zuvor. Statt anthropomorphistisch zu glauben, die Dinge sprächen zu uns, entzögen sich oder wären gar tückisch, würden wir von ihnen tatsächlich durch unseren Alltag getriezt und unaufhörlich besprochen. An die Stelle der kulturpsychologischen Praxis, mit Hilfe von Dingen zentrale Aspekte des mensch56 | H. Böhme: Fetischismus, S. 58.
Vom Internet zum Internet der Dinge
lichen Selbstbewusstseins und einer persönlichen Identität auszubilden, würden uns die Dinge passgenaue Persönlichkeitsportfolios erstellen und unsere digitalen Profile auf sozialen Plattformen automatisch verwalten. Wie es uns in einer solchen hybriden Welt als hybride Mensch-Ding-Wesen ergehen würde, ist einerseits schwer vorstellbar, andererseits haben auch hier die Ingenieure eine Lösung vorbereitet: »As machines start to take over more and more, however, they need to be socialized [.]. Today, we also need to take the machine’s point of view. [.] In the past, we merely used our products. In the future, we will be in more of a partnership with them as collaborators, bosses, and in some cases, as servants and assistants.«57
57 | D. A. Norman: The Design of Future Things, S. 9, S. 173.
135
Die Welt als Interface Über gestenbasierte Interaktionen mit vernetzten Objekten Timo Kaerlein
G estensteuerung und das I nternet der D inge : H inführung Ein Wecker im Vordergrund, im Hintergrund – verschwommen – ein schlafender Mann mit blauem T-Shirt und einem schwarzen Armband. Die digitale Anzeige springt auf 07:00, der Wecker beginnt zu piepsen. Der Fokus verändert sich, der Wecker wird unscharf und der auf dem Rücken liegende Mann ist nun klar zu erkennen. Ohne seine Lage zu verändern, streckt er einen Arm in Richtung Wecker aus. Statt ihn allerdings per Knopfdruck zum Schweigen zu bringen, endet die Bewegung bei ausgestrecktem Arm in der freien Luft. Der Mann dreht das Handgelenk, sodass die Innenseite der flachen Hand zum Boden zeigt. Das Piepsen hört auf, der Mann dreht sich auf die Seite und schläft weiter. Während nun eine jener beruhigend-pathetischen Hintergrundmelodien einsetzt, die charakteristisch für Silicon Valley-Produktdemonstrationsvideos sind, begleitet die Kamera den Protagonisten durch seinen Alltag. Mit großer Souveränität und gelegentlich einem Lächeln im Mundwinkel zeigt dieser auf verschiedene Objekte in der Umgebung – Kaffeemaschine, Jalousien, Beamer, ein grafisches Element auf einem Computerbildschirm, Beleuchtung im Hörsaal und auf dem Beistelltisch zuhause, Fernsehschirm an der Wand – und kontrolliert sie mit anschließenden Gesten, darunter Drehungen des Handgelenks sowie Hebungen und Senkungen des Armes. Abschließend wird das Produkt eingeblendet: Reemo™, eine wrist motion remote bzw., wie der Videotitel verrät, »The Wrist Worn Mouse to Control Your World«1. Das Armband wirkt schlicht und hinreichend elegant, es hat einen Magnetverschluss und ist wasserdicht. Reemo™ wird vermarktet als »physical mouse for the internet of things«2 1 | Playtabase: Reemo™ – The Wrist Worn Mouse to Control Your World, www.youtube. com/watch?v=XH-rdYoj8H0, vom 28. Januar 2014. 2 | Playtabase: Reemo – Control Your World Using Gestures, www.youtube.com/watch? v=9G1AJxKp_Hk, vom 02. Oktober 2014.
138
Timo Kaerlein
und verspricht damit einen Import der Benutzerfreundlichkeit der grafischen Oberflächen von Desktop-Rechnern in den physischen Raum. Die Grundidee scheint zu sein: Warum im echten Leben auf den Komfort verzichten, an den man sich bei der Verwendung digitaler Interfaces längst gewöhnt hat? Wäre es nicht wunderbar, eine Point-and-Click-Kontrolle über mundane Alltagsgegenstände zu haben, sodass diese – wie von Geisterhand gesteuert – den eigenen Willen kontaktfrei in die Tat umsetzen? Abbildung 1: Reemo™, Wrist Motion Remote für gestenbasierte Interaktionen mit vernetzten Objekten
Quelle: https://www.indiegogo.com/projects/control-your-world-with-reemo#/story, Abdruck mit freundlicher Genehmigung des Herstellers
Was es dazu freilich braucht, ist Technologie. Zwar ist die Bezugnahme auf das Internet der Dinge in der Werbung für das smarte Armband irreführend, denn die Kommunikation der vernetzten Objekte – die zuvor mit einem Sensor (einem so genannten Smart Plug) präpariert werden müssen – läuft über das drahtlose Übertragungsprotokoll Bluetooth Low Energy und nicht über das Internetprotokoll TCP/IP.3 Es ist eher die Vision einer ›intelligenten‹, vernetzten Umwelt, die mit der Bezugnahme auf das Internet der Dinge angesprochen wird und die als kulturelles Leitbild auch jenseits der konkreten technischen Implementierung ihre Semantik entfaltet. Dazu gehört die Vorstellung einer weitgreifenden Automatisierung im Hintergrund ablaufender Rechen- und Verdatungsvorgänge, wobei auf eine verteilte Sensorik zurückgegriffen wird, um realweltliche Prozesse abbilden, kontrollieren und steuern zu können. Die 3 | Siehe www.indiegogo.com/projects/control-your-world-with-reemo, vom 28. Januar 2014.
Die Welt als Inter face
Liste der privaten Anwendungsgebiete ist lang und umfasst u.a. die Bereiche Energiemanagement, Sicherheit, Gesundheit, Unterhaltung, die Steuerung von Fenstern und Türen sowie weiterer vernetzter Objekte in Haus und Garten, von der Kaffeemaschine bis zur Sprinkleranlage. Ich möchte in meinem Beitrag die Imagination von Anwenderrollen in derartigen Szenarien ubiquitärer Vernetzung problematisieren. Das Vorhaben lässt sich zuspitzen auf eine Reflexion über die Frage: Was genau machen eigentlich Menschen im Internet der Dinge? Welche Narrationen knüpfen sich speziell an die Vermarktung von gestenbasierten Interaktionen in diesem Zusammenhang und wie werden agencies zwischen Mensch und Maschine tatsächlich neu verteilt? Erste Hinweise zur Beantwortung der Fragestellung liefert ein weiteres Video zu Reemo™, das sich auf der Herstellerseite findet. Darin wird ebenfalls in ungebremster Euphorie der Mythos von der Automatisierung erzählt, wie er seit der ersten industriellen Revolution kursiert und in der Automations-Debatte der 1960er Jahre einen historischen Höhepunkt erlebte. Die weitgehende Technisierung trivialer und redundanter Vorgänge hat dieser Narration nach eine »Freisetzung des eigentlich Menschlichen« zur Folge, womit eine von der Kybernetik inspirierte implizite Anthropologie einhergeht: »[…] als spezifisch menschlich gilt, was als Rest von nicht maschinisierbaren Tätigkeiten übrig bleibt«.4 Befreit von der Notwendigkeit zur Arbeit, sieht die Menschheit einer Zukunft als »Smart Player«5 in intelligenten Umgebungen entgegen. Entsprechend suggestiv fragt der Sprecher im Video gleich zu Beginn: »What do you value most in life?«6 und die begleitende Abfolge von Bildern lässt keinen Zweifel daran, dass das manuelle Einstellen des Thermostats ganz sicher nicht an erster Stelle genannt würde. Die über ›natürliche‹ Gesten vermittelte Interaktion mit einem vernetzten Heim, das vermutlich auch ohne Intervention der Bewohner die Situation stets unter Kontrolle hätte, lässt die Mensch-Technik-Beziehung zu einer buchstäblich reibungslosen Angelegenheit werden. 4 | Müggenburg, Jan/Pias, Claus: »Blöde Sklaven oder lebhafte Artefakte? Eine Debatte der 1960er Jahre«, in: Hannelore Bublitz/Irina Kaldrack/Theo Röhle/Mirna Zeman (Hg.), Automatismen – Selbst-Technologien, München: Fink 2013, S. 45-69, hier S. 46. In Abgrenzung zu technisch lösbaren Problemen bleiben dann Betätigungsfelder übrig, die als spezifisch menschliche eine besondere Aufwertung erfahren, beispielsweise die Sphäre des Spiels. 5 | Encarnação, José L./Brunetti, Gino/Jähne, Marion: »Die Interaktion des Menschen mit seiner intelligenten Umgebung. The Human-Environment-Interaction (HEI)«, in: Hans D. Hellige (Hg.), Mensch-Computer-Interface. Zur Geschichte und Zukunft der Computerbedienung, Bielefeld: transcript 2008, S. 281-306, hier S. 289. 6 | www.getreemo.com vom 09. März 2015.
139
140
Timo Kaerlein
Alles funktioniert »touch-free« und ohne die Notwendigkeit der Einarbeitung: »[…] so you have more time for what’s important«.7 Reemo helps you focus on what you’re doing while taking care of all the simple details. So you never miss a moment. It gives you time to be you – while effortlessly keeping you connected to the services that you depend on. 8
Noch etwas weiter als bei Reemo™ geht es bei Myo™, einem vergleichbaren Armband der Firma Thalmic Labs, die es mit dem Slogan »Effortless Interaction« bewirbt.9 Myo™ erlaubt ebenfalls die Gestensteuerung vernetzter Objekte, kann allerdings komplexere Eingaben erkennen und verarbeiten.10 Es handelt sich um mehr als ein schlichtes Point-and-Gesture-Interface, denn auch ganze Bewegungssequenzen sollen in gefühlter Echtzeit ausgewertet werden können, um sie beispielsweise für die Steuerung einer Flugdrohne oder eines Avatars in einem Videospiel zu verwenden: »From drones to phones, the Myo armband is your key to action at a distance.«11 Das etwas weiter oben am Unterarm getragene Armband erkennt fünf Haltungen der Hand durch Messung der elektrischen Muskelaktivität (Elektromyografie). Ein neunachsiger Inertialsensor ist darüber hinaus in der Lage, die Bewegung, Ausrichtung und Drehung des Unterarms zu erfassen und per Bluetooth-Schnittstelle zu übertragen.12 In den Produktdemonstrationsvideos wird die Orchestrierung ganzer Vernetzungs-Szenarien gezeigt, in denen beispielsweise ein Skifahrer bei der Abfahrt gestisch die Helmkamera 7 | Ebd. 8 | Ebd. 9 | Thalmic Labs: Myo – Wearable Gesture Control from @thalmic Labs, www.youtube. com/watch?v=oWu9TFJjHaM, vom 25. Februar 2013. 10 | Siehe www.thalmic.com/en/myo/, vom 25. Februar 2013. 11 | www.thalmic.com/radiocontrol/, vom 25. Februar 2013. Weil die Übertragungsleistung selber nicht in Erscheinung tritt, kann sich dabei der Eindruck einer Unmittelbarkeit der Willensübertragung auf die gestengesteuerten Objekte ergeben, der in der Rede von der Fernwirkung zum Ausdruck kommt. Die Beobachtung einer physikalischen actio in distans hat lange Zeit für theoretische Probleme im Wissen der Physik gesorgt. Ihr verdankt sich unter anderem die Annahme eines Äthers als vermittelndem Medium, das ansonsten unerklärliche Kausalitäten zu entparadoxieren vermag. Vgl. Sprenger, Florian: Medien des Immediaten. Elektrizität – Telegraphie – McLuhan, Berlin: Kadmos 2012, S. 97-106. Sprenger weist darauf hin, dass der Äther häufig eine quasi-magische Funktion in den Modellen der Physik einnahm. Durch das »Herbeizaubern eines Mediums« (ebd., S. 102) sollten Erklärungslücken gefüllt werden. In den Interfaces für das Internet der Dinge wird die Unsichtbarkeit der technischen Vermittlung zur Grundlage für ihre magische Verklärung. 12 | Siehe https://support.getmyo.com/hc/en-us/articles/202532376-How-does-theMyo-armband-work, vom 25. Februar 2015.
Die Welt als Inter face
aktiviert – zwei Finger nach rechts –, um dann nach erfolgreichem Sprung das soeben aufgenommene Video mittels Devil Horns-Geste in den Facebook-Stream zu befördern. Kurz: »It’s an armband that gives you superpowers.«13 Abbildung 2: Myo™, Gesture Armband Controller
Quelle: https://www.thalmic.com/press/
Die vorgestellten Videos inszenieren eine doppelte Befreiung: Erstens von den Restriktionen der klassischen Human-Computer Interaction (HCI) innerhalb des WIMP (Windows, Icons, Menus, Pointer)-Paradigmas, das in Richtung einer freien, gestenbasierten Interaktion überschritten werden soll. Hier wird ein theoretisches Projekt produktförmig umgesetzt, das sich grundlegend schon in Mark Weisers einflussreicher Vision von Ubiquitous Computing skizziert findet.14 Weisers Team strebte eine Überwindung des Desktop-Paradigmas in Form eines embedded computing an. Das Ziel war von Anfang an, dass sich die Bedienung von Computern habitualisierten Alltagspraktiken anverwandeln sollte, wofür Weiser den Begriff der »embodied virtuality«15 einführte. Zweitens geht es in den genannten Beispielen gleichermaßen um eine Überwindung der Unzulänglichkeiten der altbekannten, sperrigen analogen Welt, 13 | https://www.thalmic.com/radiocontrol/, vom 25. Februar 2015. 14 | Vgl. Weiser, Mark: »The Computer for the 21st Century«, in: Scientific American September 265/3 (1991), S. 94-104. 15 | Ebd., S. 98. Wissenschaftler im Computer Science Laboratory des Xerox Palo Alto Research Center (PARC) verwendeten diesen Ausdruck »to refer to the process of drawing computers out of their electronic shells« (ebd.).
141
142
Timo Kaerlein
die in der Vision eines ubiquitären Computing zum smarten, aufmerksamen information environment transformiert wird. Aus Perspektive der Designer von Reemo™ und Myo™ jedenfalls kann die gegebene Welt unter Usability-Gesichtspunkten offenbar nicht mehr überzeugen, weswegen sie als Ganzes in ein Interface verwandelt werden soll. Dem geplanten Ende der Interfaces im Einzelnen entspricht somit eine Interfacewerdung von Welt – unter Einschluss der sich in dieser Welt bewegenden Subjekte. Wenn also ein Tech-Reporter nach Vorstellung des Myo™-Armbands zu dem Fazit kommt: »In the future, the perfect interface may just be you«16, wird in dieser Prognose nur die logische Konsequenz der sonst gängigen Vorstellungen der Welt als Interface formuliert. Anwender und Welt verhalten sich in dieser Vision wie Cursor und Desktop – sie sind Teil eines Interface-Arrangements. Während also der erste Befreiungsvektor auf eine Überwindung des Interfaces zielt, weist der zweite in Richtung einer Totalisierung des Interfaces. Diese schon in Weisers theoretischen Überlegungen angelegte Spannung gilt es im Hinterkopf zu behalten, wenn nun am Gegenstand gestenbasierter Interaktionen mit vernetzten Objekten nach der Anwenderseite des Internets der Dinge gefragt wird. Dazu gebe ich zunächst einen kurzen Überblick über das Internet der Dinge als Entdifferenzierungsprojekt zwischen Information und Materie. Als übergreifende Designstrategie bestimmt dieses Vorhaben nicht nur den Bereich der Logistik, aus dem es sich historisch herleitet,17 sondern auch den Bereich der Anwendungen und Interfaces. Im Anschluss wird ein Blick auf die Geschichte der Gestensteuerung in der HCI geworfen und daraus eine Logik der Reibungsfreiheit in der Mensch-Umwelt-Interaktion abgeleitet, die auch für die Interaktionen mit einem Internet der Dinge bestimmend bleibt. Um diese Logik für das Mensch-Technik-Verhältnis näher zu beleuchten, wird dann eine Annäherung an das Phänomen der Geste unter Einbezug kulturwissenschaftlicher Perspektiven unternommen. Unter Hinzuziehung der kultur- und techniktheoretischen Reflexionen Vilém Flussers und André Leroi-Gourhans kann insbesondere das Verhältnis von Freiheit und Unfreiheit im Umgang mit technischen Artefakten mit einem präziseren Vokabular gefasst werden. Abschließend wird auf die Eingangsfrage zurückkommend problematisiert, welche Rolle den Anwendern in der gestenbasierten Interaktion zukommt: Sind sie Dirigenten einer folgsamen Welt technischer Akteure oder können ihre 16 | Bloomberg Business: The Myo Armband: The Future of Gesture Control, https:// www.youtube.com/watch?v=jOEcsNmTk7g, vom 10. November 2014. 17 | Vgl. für eine ausführliche Darstellung der Herkunft des Internets der Dinge aus dem Wissen der Logistik Neubert, Christoph: »Onto-Logistik. Kommunikation und Steuerung im Internet der Dinge«, in: Lorenz Engell/Bernhard Siegert/Joseph Vogl (Hg.), Archiv für Mediengeschichte 8 (2008). Agenten und Agenturen, Weimar: Verlag der Bauhaus-Universität 2008, S. 119-133.
Die Welt als Inter face
Handlungen treffender in Analogie zur Illusionsmagie des Bühnen- oder Straßenzauberers beschrieben werden, die in ihrer ausgestellten Theatralik vom Wesentlichen gerade ablenkt?
D as I nterne t der D inge als A utomatisierungsprojek t und die prek äre R olle der A nwender Neil Gershenfeld, Leiter des 1995 gegründeten Forschungskonsortiums Things That Think am MIT Media Lab und später des Center for Bits and Atoms (2001), arbeitet an der Auflösung der Grenze zwischen Physik und Computerwissenschaft. In seinem Buch When Things Start to Think von 1999 formulierte er die Vision einer möglichst umfassenden und nahtlosen Integration von Information und Materie.18 Es geht ihm um das ›Einreißen der Barriere‹ zwischen physischer Welt und digitaler Information – ein Ziel, das dann erreicht werde, wenn in der nahen Zukunft die Umgebung derart von Computertechnologie (Mikroprozessoren, Sensoren, Aktuatoren, drahtlose Konnektivität) gesättigt sei, dass letztere nicht mehr als solche zur Sichtbarkeit gelange.19 Stattdessen solle die Welt gleichsam mit handlungsrelevanter Information angereichert werden, sie erhalte einen ›digitalen Schatten‹.20 Gershenfeld fasst den Kerngedanken zusammen, der heute in einer ganzen Reihe von Einzelinitiativen innerhalb der HCI zum Leitbild geworden ist: All along the coming interface paradigm has been apparent. The mistake was to assume that a computer interface happens between a person sitting at a desk and a computer sitting on the desk. We didn’t just miss the forest for the trees, we missed the earth and the sky and everything else. The world is the next interface.21
Damit wird mittelfristig z.B. denkbar, die physische Umgebung zu durchsuchen wie ein PDF-Dokument oder eine Website, profane Objekte mit Social Media-Funktionalitäten zu erweitern sowie jederzeit und überall präzise lokalisierte und damit kontextrelevante Informationen abzurufen. Fernziel der Zusammenführung der beiden Sphären wäre dann eine Art beste aller möglichen Welten, in der Daten und Dinge bruchlos ineinander überführbar sind:
18 | Vgl. Gershenfeld, Neil: When Things Start to Think, New York: Holt 1999 und C. Neubert: Onto-Logistik, S. 130. 19 | Vgl. N. Gershenfeld: When Things Start to Think, S. 5, S. 142-147. 20 | Vgl. ebd., S. 145. 21 | Ebd., S. 147 (Hervorhebung T. K.).
143
144
Timo Kaerlein The ultimate realization of the Internet of Things will be to transmit actual things through the Internet. Users can already send descriptions of objects that can be made with personal digital fabrication tools, such as 3-D printers and laser cutters. As data turn into things and things into data, long manufacturing supply chains can be replaced by a process of shipping data over the Internet to local production facilities that would make objects on demand, where and when they were needed. 22
Attraktiv ist eine solche Vision zunächst – wie das Zitat bereits andeutet – aus betriebswirtschaftlicher Perspektive. Das individuelle Präparieren von Waren mit kontaktfrei auslesbaren RFID-Chips schließt die Lücke zwischen Materialund Informationsströmen und dient der Prozessoptimierung in Supply Chain Management, Lagerhaltung und Logistik. Ziel ist hier die »Integration der realen Welt« in einen »geschlossene[n] digitale[n] Regelkreislauf«, um ineffiziente und fehleranfällige »Medienbrüche zu eliminieren«.23 Das Internet der Dinge ermöglicht »eine vollautomatisierbare Maschine-Maschine-Beziehung zwischen realen Dingen und Informationssystemen«,24 die regelmäßig anfallende manuelle Tätigkeiten wie beispielsweise Inventuren obsolet macht. Wie fügen sich in ein solches Szenario weitgehend automatisierter Produktions-, Transport- und Distributionsprozesse aber nun die Konsumenten und Anwender ein? Wenn sich das Internet der Dinge insgesamt als Verschiebung von einem interaktiven zu einem proaktiven Computing verstehen lässt,25 sodass »ein Netz lernender Automaten im Hintergrund den User […] von der lästigen Interaktionsarbeit befrei[t]«,26 was bleibt dann eigentlich noch zu tun? Wozu den Fernseher per Geste steuern, wenn er aufgrund des hinterlegten Nutzerprofils und automatischer Gesichtserkennung immer schon weiß, was ich gerade sehen will? Warum per Fingerzeig und Handgelenkdrehung das 22 | Gershenfeld, Neil/Vasseur, J. P.: As Objects Go Online. The Promise (and Pitfalls) of the Internet of Things, www.foreignaffairs.com/articles/140745/neil-gershenfeldand-jp-vasseur/as-objects-go-online, vom 20. April 2014. 23 | Fleisch, Elgar/Christ, Oliver/Dierkes, Markus: »Die betriebswirtschaftliche Vision des Internets der Dinge«, in: Elgar Fleisch/Friedemann Mattern (Hg.), Das Internet der Dinge. Ubiquitous computing und RFID in der Praxis: Visionen, Technologien, Anwendungen, Handlungsanleitungen, Berlin: Springer 2005, S. 3-37, hier S. 5 und 7. 24 | Ebd., S. 7. 25 | Vgl. Tennenhouse, David: »Proactive Computing«, in: Communications of the ACM 43 (2000), S. 43-50. 26 | Hellige, Hans D.: »Krisen- und Innovationsphasen in der Mensch-Computer-Interaktion«, in: ders., Mensch-Computer-Interface, S. 11-92, hier S. 67. Teodor Mitew spricht von der »capacity of IoT embedded objects to completely dispense with humans as intermediaries« (Mitew, Teodor: »Do Objects Dream of an Internet of Things?«, in: Fibreculture 23 (2014), S. 3-26, hier S. 10).
Die Welt als Inter face
Licht dimmen, wenn die Biosensorik meiner Wearables zweifelsfrei kommuniziert, dass mir bereits die Augen zufallen? Ambient Intelligence – ein insbesondere von Herstellerverbänden und der Europäischen Kommission weitgehend synonym zum Internet der Dinge gebrauchter Begriff 27 – besagt zunächst einmal, dass die Intelligenz in der Umgebung verortet ist, und nicht notwendigerweise in den Köpfen der Anwender. Dazu noch einmal bündig Gershenfeld: »The machines are communicating with each other so that you don’t have to.«28 Mit dem eingangs erläuterten doppelten Freiheitsversprechen der umweltlich verankerten Intelligenz – Freiheit von klassischen Interfaces der HCI sowie von Anachronismen der physikalischen Welt angesichts der Möglichkeiten digitaler Technik – geht eine paradoxe Marginalisierung des Anwenders einher. Subjektiv kann diese Reduzierung von Handlungsmacht durchaus als Freiheitsgewinn empfunden werden, weil sich Nutzerwünsche und Systemvorgaben iterativ einander angleichen. Prinzipiell macht ein umfassend gedachtes Internet der Dinge menschliche Interventionen allerdings überflüssig, weil die Datenanalyse immer schon vorgibt, welche Verkettungen von Operationen sinnvoll und gewünscht sind und welche nicht. Allenfalls bleiben Restdomänen, in denen Mensch und Technik ins Verhältnis gesetzt werden müssen, sei es aus einem Zögern vor dem Schritt zur Vollautomatisierung heraus oder auch weil es einen Lust- und Potenzgewinn verschafft, jederzeit über ein Kollektiv smarter Agenten verfügen zu können (»[…] thinking in terms of millions of active agents per user is not unreasonable«29). Es ist zu klären, welche Rolle nun gerade Gesten für die Anwenderschnittstellen des Internets der Dinge spielen, wozu zunächst ein Blick auf die Geschichte der Gestensteuerung in der HCI geworfen wird.
G estenbasierte I nter ak tion als Par adigma in der H uman -C omputer I nter action und als G rundl age für I nterfaces im I nterne t der D inge Ende der 1960er-Jahre berichtete die in Santa Monica ansässige RAND Corporation an ihren Geldgeber, die ARPA (Advanced Research Projects Agency) innerhalb des Department of Defense, von der Entwicklung neuartiger Inputparameter für interaktive Computersysteme.30 Die Überlegung hinter dem 27 | Vgl. Friedewald, Michael et al.: Ubiquitäres Computing. Das ›Internet der Dinge‹ – Grundlagen, Anwendungen, Folgen, Berlin: Edition Sigma 2010, S. 42-44. 28 | N. Gershenfeld: When Things Start to Think, S. 9. 29 | D. Tennenhouse: Proactive Computing, S. 48. 30 | Vgl. Ellis, T. O./Heafner, J. F./Sibley, W. L.: The Grail Project. An Experiment in ManMachine Communications, 1969, www.rand.org/pubs/research_memoranda/RM5999. html, vom 22. April 2014.
145
146
Timo Kaerlein
GRAIL getauften Projekt (Graphical Input Language) war eine Befreiung vom restriktiven Formalismus der Programmiersprachen und klassischen Steuerbefehle durch eine Flexibilisierung der Nutzerschnittstelle. Ein Eingabestift auf einem responsiven Tablet sollte in der Lage sein, jede Geste des Anwenders für den Computer operabel zu machen. Zielvorstellung war ein: […] interactive software-hardware system in which the man [sic!] constructs and manipulates the display contents directly and naturally without the need to instruct an intermediary (the machine) […]. 31
Anders als bei den zeitgleich stattfindenden Forschungen zu künstlicher Intelligenz und agentenbasierten Systemen, steht hier also eine Idee der direkten Manipulation im Vordergrund, die später von Ben Shneiderman als Designrichtlinie für die HCI ausbuchstabiert wurde.32 Auch die grafischen Benutzeroberflächen, die am Stanford Research Institute und später im Xerox Palo Alto Research Center (PARC) entwickelt wurden und die bis heute das dominante Paradigma der HCI darstellen, sind von dem Grundgedanken eines 1:1-Mappings von Nutzeraktion und Systemreaktion ohne sichtbare Vermittlungsschritte beeinflusst. Der Touchscreen ist ein weiteres prominentes Beispiel für ein Interface, das dem Gedanken der direkten Manipulation folgt, insofern die Bildschirmrepräsentationen ›direkt‹, d.h. ohne Eingabe von verbalen Befehlen und ohne die Notwendigkeit eines Input-Geräts, bearbeitet werden können. In den 1980erJahren wurde das Spektrum der per Geste möglichen Eingaben durch neue Technologien noch einmal stark erweitert, was insbesondere eine Loslösung vom Bildschirm zur Folge hatte.33 Über die verbreiteten Zeigegesten (Point-and-Click) grafischer Benutzeroberflächen hinaus, die noch dazu auf Eingabemedien wie Maus, Touchscreen oder Tablet beschränkt waren, wurde mit dem Datenhandschuh und Videokameras, die freie Bewegungen im Raum erfassen konnten, das semiotische Potenzial der Geste für die HCI erschlossen. Dies erlaubte neue Anwendungen, insbesondere im Bereich der Kunst, wie beispielsweise die Echtzeitsteuerung von Sound- und Lichteffekten bei elektronischen Musikperformances oder multimediale Rauminstallationen, die gleich den gesamten Körper in das interaktive Arrangement einspannten.34 Prominente Beispiele sind der bereits 31 | Ebd, S. 3. Etwas später ist vorsichtiger von »relatively natural language elements« (S. 6) die Rede, die vom System prozessiert werden müssten. 32 | Vgl. Shneiderman, Ben: »The Future of Interactive Systems and the Emergence of Direct Manipulation«, in: Behaviour & Information Technology 1 (2007), S. 237-256. 33 | Vgl. für diesen Abschnitt Hellige: Krisen- und Innovationsphasen, S. 58 f. 34 | Vgl. für erstere Sturman, David J./Zeltzer, David: »A Survey of Glove-Based Input«, in: IEEE Computer Graphics and Applications 14 (1994), S. 30-39, hier S. 38, und für
Die Welt als Inter face
1977 entwickelte ›Sayre Glove‹, mit dem sowohl Sound- als auch Lichteffekte bei multimedialen Performances ›dirigiert‹ werden konnten, sowie die von Myron W. Krueger konzipierten ›responsive environments‹, die insbesondere die Projektion von Gesteneingaben auf Wände als Element von Installationen etablierten.35 Das erklärte Ziel der Entwickler von Datenhandschuhen wurde aus einer anthropologischen Argumentation abgeleitet, die eine Sonderstellung der Hand für das Mensch-Welt-Verhältnis behauptet: »Since we manipulate the physical world most often and most naturally with our hands, there is a great desire to apply the skills, dexterity, and naturalness of the hand directly to the human-computer interface.«36 Das CAVE (Cave Automatic Virtual Environment)-Modell 37 dehnt hingegen den Anspruch der Übertragung körperlicher Motorik auf virtuelle Umgebungen maximal aus, indem der Anwender in ein voll-immersives Umfeld transferiert wird, innerhalb dessen dann theoretisch frei – d.h. nicht durch die Limitierungen eines Interfaces eingeschränkt – agiert werden kann. Im Hintergrund der erweiterten Gestensteuerungen steht jeweils das Leitbild einer embodied interaction, das als Gegenmodell zu einer auf rein kognitive Abläufe zielenden Vorstellung von HCI entwickelt wurde.38 Ein aktuelles Lehrbuch mit Richtlinien für Designer von gestenbasierten Interfaces differenziert nur noch verkürzt zwischen »touchscreen [and] freeform […] gestural interfaces«.39 Als Geste wird dabei verstanden: […] any physical movement that a digital system can sense and respond to without the aid of a traditional pointing device such as a mouse or stylus. A wave, a head nod, a touch, a toe tap, and even a raised eyebrow can be a gesture. 40
letztere Cruz-Neira, Carolina et al.: »The Cave. Audio Visual Experience Automatic Virtual Environment«, in: Communications of the ACM 35 (1992), S. 64-72. Weitere Anwendungen von Gestensteuerung in der HCI umfassen die Interpretation von Zeichensprache, die Teleoperation von Robotern sowie das computerbasierte Marionettenspiel. Vgl. für die jeweiligen Forschungsfelder Sturman, D. J./Zeltzer, D.: Survey of Glove-Based Input, S. 36-38. 35 | Vgl. für die Beispiele Hellige: Krisen- und Innovationsphasen, S. 58 f. 36 | Ebd., S. 35. 37 | Vgl. C. Cruz-Neira et al.: The Cave. 38 | Vgl. dazu ausführlich Dourish, Paul: Where the Action Is. The Foundations of Embodied Interaction, Cambridge, Mass.: MIT Press 2004, der verschiedene Entwicklungsstränge innerhalb der HCI systematisiert und mit phänomenologischen Positionen in einen Dialog bringt. 39 | Saffer, Dan: Designing Gestural Interfaces, Beijing: O’Reilly 2009, S. 4. 40 | Ebd., S. 2.
147
148
Timo Kaerlein
Im Einklang mit der historischen Entwicklung gestenbasierter Interaktion mit Computern wird hier also gerade der Aspekt des Apparatfreien betont, d.h. eine vermeintliche Abwesenheit von technischer Vermittlung in Szene gesetzt: Gesten in der HCI sind demnach freie Bewegungen des Körpers, die von Sensoren und Software interpretiert werden, ohne dass der Anwender die Verarbeitungsschritte nachvollziehen muss bzw. kann. Im Kontext so genannter ›smart environments‹ wurde unter anderem die Erstellung eines anwendungsunabhängigen »Katalog[s] von generischen Körperbewegungen bzw. Bewegungen von Objekten«41, einer so genannten GLib (Gesture Library), für Pervasive Computing-Umgebungen angeregt. Aus einer Reihe von Gründen bieten sich gerade gestenbasierte Interfaces als Frontend, d.h. dem Anwender zugewandte Seite des Internets der Dinge an, wenn man dieses in erster Linie als Ensemble »weitgehend autonome[r] computergestützte[r] Dienste [versteht], die sich im Hintergrund agierend auf die Bedürfnisse des Nutzers einstellen«.42 Gestenbasierte Interfaces sind in der Regel nicht sichtbar, womit sie eine ideale Schnittstelle zu einem embedded computing darstellen, das sich diskret in Gegenstände des alltäglichen Gebrauchs integrieren lässt. Gesten sind – zumindest in der Theorie – unaufdringlich und erfordern keine anhaltende Konzentration. Ein Kernbestandteil des Internets der Dinge sind Sensoren, die auch körperliche Expressionen mit hinreichender Genauigkeit erfassen und verarbeiten können. Sobald die Interpretationsarbeit an Algorithmen delegiert werden kann, erweitern sich schlagartig die Freiheitsgrade der möglichen Input-Parameter. Auch sind dazu keine gesonderten Geräte mehr vonnöten: »Instead of making room for mice, your furniture and floors can electromagnetically detect your gestures.«43 Gesten sind semantisch häufig auf lokale Kontexte bezogen bzw. »environmentally coupled«, wie es Charles Goodwin ausdrückt.44 Das bedeutet, dass ges41 | Vgl. Ferscha, Alois/Resmerita, Stefan: »Gestural Interaction in the Pervasive Computing Landscape«, in: e & i Elektrotechnik und Informationstechnik 124 (2007), S. 1725, hier S. 17. 42 | M. Friedewald et al.: Ubiquitäres Computing, S. 27. 43 | N. Gershenfeld: When Things Start to Think, S. 202. Dass sich interaktionslogisch damit im Grunde eine Analogie von Anwenderkörper und Eingabegerät ergibt, ist eine Schlussfolgerung, die Gershenfeld nicht zieht, die aber in der Idee einer »wrist worn mouse« explizit wird. Das Cursor-Prinzip, Relikt der überwunden geglaubten grafischen Benutzeroberflächen, ersteht hier in neuem Gewand und wird auf den physischen Raum appliziert. 44 | Goodwin, Charles: »Environmentally Coupled Gestures«, in: Susan D. Duncan/Justine Cassell/Elena T. Levy (Hg.), Gesture and the Dynamic Dimension of Language. Essays in Honor of David McNeill, Amsterdam: Benjamins 2007, S. 195-212.
Die Welt als Inter face
tikulierende Körper mit verbalen Äußerungen und Objekten in der Umgebung ein gemeinsames Bezugssystem bilden – Goodwin spricht von einer »small ecology«45. Gesten, die einen Input für vernetzte Geräte darstellen, würden eine besondere Klasse innerhalb dieser environmentally coupled gestures bilden, insofern sie nicht kopräsente Mitmenschen adressieren, sondern technische Operationsketten initiieren. In Kombination mit natürlichsprachigen Eingaben ergibt sich ein Forschungsschwerpunkt auf multimodalen Interaktionssystemen.46 In wechselnden Kontexten können Gesten dann unterschiedlich operationalisiert werden, sodass ein simples Element wie eine Auf- und Abbewegung des Arms beispielsweise entweder als Aufforderung zum Öffnen des Garagentors oder als Temperatursteuerung des Duschwassers dienen kann. Gesten sind sozial konventionalisierte Ausdrucksmittel, deren Realisierung allerdings von Person zu Person variiert, sodass von der Lernfähigkeit einer ambient intelligence Gebrauch gemacht werden kann, um auf bestimmte Anwender zugeschnittene Interaktionsmöglichkeiten anzubieten. ›Intelligente‹, vernetzte Umgebungen sollen »die selbstorganisierte Kooperation und Kommunikation von Geräteensembles [bereitstellen], die gemeinsam die vom Benutzer gestellten Aufträge, Ziele und erkannten Bedürfnisse ausführen«.47 Damit wird die Adaptivität dieser Umgebungen zum zentralen Designfaktor. Dem Benutzer soll keine potenziell entwürdigende Anpassungsleistung abverlangt werden, stattdessen sind sich die miteinander spontan kommunizierenden Geräte seiner »Gegenwart, seiner individuellen Persönlichkeit und seiner Bedürfnisse und Wünsche [stets] bewusst«48. Legt man dieses Schla45 | Ebd., S. 199. 46 | Vgl. J. L. Encarnação/G. Brunetti/M. Jähne: Interaktion des Menschen. 47 | Ebd., S. 287 [Ergänzung T. K.]. Ohne dass dies stets explizit gemacht würde, haben die Forschungen zu environmentalen Interfaces eine Vorgeschichte in den ethnografischen Untersuchungen zum Einsatz von Technologien in kollaborativen Arbeitskontexten, die Lucy Suchman in den 1980er-Jahren im Xerox PARC durchführte. Vgl. Suchman, Lucy: Plans and Situated Actions. The Problem of Human-Machine Communication, Cambridge: Cambridge University Press 1987. Ein zentrales Ergebnis ihrer Arbeit war die Einsicht, dass kognitions- und planungsbasierte Top-Down-Designansätze der Komplexität von Mensch-Maschine-Interaktionen häufig nicht gerecht werden. Das Design habe sich daher an beobachtbaren Praktiken auszurichten und die Technik müsse responsiv gegenüber individuellen und situationalen Anforderungen sein. Suchmans Beobachtungen waren wegweisend für die Technologieentwicklung bei PARC und haben auch Mark Weiser beeinflusst. Vgl. Weiser, Mark/Gold, Rich/Brown, John S.: »The Origins of Ubiquitous Computing Research at PARC in the Late 1980s«, in: IBM Systems Journal 38 (1999), S. 693-696, hier S. 693. 48 | J. L. Encarnação/G. Brunetti/M. Jähne: Interaktion des Menschen, S. 295 [Ergänzung T. K.].
149
150
Timo Kaerlein
raffenland-Szenario zugrunde, kann als Konsequenz für die Gestaltung der Schnittstellen eine Direktive des Minimalaufwands ausgegeben werden. Dieses Bemühen um Reibungs- und Interferenzfreiheit in der Mensch-ComputerInteraktion macht die Geste als Bedienelement in ›intelligenten‹ Umgebungen attraktiv, in denen Prozesse weitgehend ohne menschliche Intervention ablaufen sollen. Es stellt sie allerdings auch in einen diametralen Gegensatz zu einer klassischen Anthropologie der Arbeit und einer traditionellen Auffassung von (manueller) Handlung – die noch in den historischen Entwürfen gestenbasierter Interfaces als Legitimationsdiskurse aufgerufen wurden. Statt Eigeninitiative des Anwenders steht das proaktive und antizipative Erkennen und Auswerten von Umgebung, Situation und Kontext im Mittelpunkt des Konzepts ›intelligenter‹ Umgebungen.49 Die Human-Environment Interaction (HEI) beschränkt sich auf residuale Akte der Kommunikation per Sprache und Geste, während die eigentliche Arbeit ganz auf die Seite der unsichtbar eingebetteten Computer fällt.
G este und Technik : K ulturwissenschaf tliche P erspek tiven (F lusser , L eroi -G ourhan) Um die Frage nach der agency im Zusammenspiel von Geste und vernetzter Umgebungsintelligenz zu klären, lohnt ein Rückgriff auf kulturwissenschaftliche Positionen. Wie verhalten sich also Geste und Handlung und wie ist die Anwendergeste zur technischen Funktion korreliert? Eine Annäherung an die Beantwortung dieser Fragen kann dazu beitragen, die dem Anwender zugedachte Rolle im Design von Interfaces für das Internet der Dinge besser zu beschreiben. Vilém Flusser hat im Kontext einer Skizze zu einer Phänomenologie des ›Undings‹ – gemeint sind insbesondere elektronische Bilder, Computerdaten, Software und andere digital codierte Informationen – auch über die Subjektivierungseffekte neuer Arrangements des Umgangs mit Objekten nachgedacht und dabei die Konturen eines homo ludens digitalis gezeichnet: Dieser neue Mensch, der da um uns herum und in unserem eigenen Inneren geboren wird, ist eigentlich handlos. Er behandelt keine Dinge mehr, und darum kann man bei ihm nicht mehr von Handlungen sprechen. Nicht mehr von Praxis, nicht mehr von Arbeit. Was ihm von der Hand übrigbleibt, sind die Fingerspitzen, mit denen er auf Tasten drückt, um mit Symbolen zu spielen. 50 49 | Vgl. ebd., S. 300 f. 50 | Flusser, Vilém: Dinge und Undinge. Phänomenologische Skizzen, München: Hanser 1993, S. 84.
Die Welt als Inter face
Die Interaktion mit ›intelligenten‹ Umgebungen geht über dieses Szenario potenziell noch hinaus. Vic Gundotra, bis April 2014 Vice President, Social bei Google, diagnostiziert: »We are past ›information at your fingertips‹. In the coming age of context, you won’t even use your fingers. Software will know what you need, when you need it.«51 Vor dem Hintergrund dieser Prognose ist die Gestensteuerung demnach nicht nur residual, sondern auch liminal, d.h. hybride Zwischenstufe zwischen dem Noch-Selbertun und dem Schon-Geschehenlassen. Solange der Umgebungsintelligenz noch nicht die volle Steuerung des Alltags anvertraut werden kann, bedarf es des selektiven Mikromanagements vernetzter Geräte per Fingerzeig. Das Aufkommen besagter Undinge ist für Flusser von anthropologischer Tragweite. Sie stehe für eine Emanzipation der menschlichen Gattung von der Notwendigkeit zur Arbeit, die noch als wesentlich über die formende, umfassende und be-greifende Tätigkeit der Hände vermittelt konzipiert wurde.52 Die hier zugrundeliegende Auffassung von Arbeit als umformendem Eingriff in die Natur war bereits von Marx als konstitutiv für das Menschsein aufgefasst worden.53 Zentral ist bei einer solchen Bestimmung von Arbeit der Gedanke der gestaltenden Formveränderung mit dem Ziel der Herstellung von Gebrauchswerten bzw. Lebensmitteln.54 Zugleich allerdings wird der ›Stoffwechsel‹ zwischen dem Naturwesen Mensch und der äußeren Natur als dynamischer Prozess gedacht, der auch verändernd auf den Arbeitenden zurückwirkt. In der Arbeit entfalten sich laut Marx also gerade die menschlichen Möglichkeiten, sowohl auf individueller als auch auf gattungsgeschichtlicher Ebene.55 An die Stelle der Arbeit träten laut Flusser in den neuen Informationsumgebungen »Wahlfreiheit und Entscheidungsfreiheit«, die sich als Praxis des Drückens auf Knöpfe realisierten (daher die Aufwertung der Fingerspitzen »zu den wichtigsten Organen«56). In diesem Szenario gibt es, wie Hans Blumenberg es bereits am Beispiel der elektrischen Türklingel formuliert, keinen »adäquate[n] Nexus« mehr zwischen der Geste der Bedienung und dem immer schon »apparativ […] fertig« bereitliegenden Effekt, der »sich in seiner Bedingt51 | Stellungnahme zu Scoble, Robert/Israel, Shel/Benioff, Marc: Age of Context. Mobile, Sensors, Data and the Future of Privacy, North Charleston: Brewster 2014, http:// blog.apethebook.com/2013/11/high-tech-google-hangout-scobleizer-shelisrael-a geof-context/, vom 21. April 2014. 52 | Vgl. V. Flusser: Dinge und Undinge, S. 85-89. 53 | Vgl. Voß, G. Günter: »Was ist Arbeit? Zum Problem eines allgemeinen Arbeitsbegriffs«, in: Fritz Böhle/G. Günter Voß/Günther Wachtler (Hg.), Handbuch Arbeitssoziologie, Wiesbaden: VS Verlag für Sozialwissenschaften 2010, S. 23-80, hier S. 33-39. 54 | Vgl. ebd., S. 34 f. 55 | Vgl. ebd., S. 35. 56 | V. Flusser: Dinge und Undinge, S. 87.
151
152
Timo Kaerlein
heit und in der Kompliziertheit seines Zustandekommens sorgfältig vor uns [verbirgt], um sich uns als das mühelos Verfügbare zu suggerieren«.57 Wenn die Geste allerdings in keinem mechanisch-kausalen Zusammenhang zur technischen Implementierung mehr steht, ist sie freigestellt und nicht länger an die Form des Knopfdrucks gebunden. Zumindest in dieser Hinsicht kann also die Freiheit der Geste, die Flusser noch als Charakteristikum zu ihrer Beschreibung herangezogen hatte,58 behauptet werden: Die Geste ist vollzugslogisch frei von dem durch sie hervorgerufenen Effekt, sodass sie der ästhetischen, beispielsweise theatralischen, Gestaltung offensteht. Die Überlegungen Flussers stehen in Verbindung zu seinen Ausführungen zu einer allgemeinen Kulturtheorie der Geste. In dieser Perspektive wäre alle Kultur auf Gesten zurückzuführen und kulturelle Phänomene als »gefrorene Gesten«59 decodierbar. Der damit verbundene Vorschlag, »ein Inventar von Gesten«60 aufzustellen, ist die kulturwissenschaftliche Variante der oben erwähnten Gesture Library, ausgeweitet auf alle menschlichen Hervorbringungen, auch jenseits der unmittelbar körpergebundenen Ausdrucksweisen. Wesentlicher als dieser theoriepolitische Vorschlag ist allerdings die These, dass sich mit der Diffusion von Computertechnologien auch die Gesten verändern. Flussers Medienphilosophie der Gesten und Dinge, der Apparate und Programme versteht sich als Vorbereitung auf einen neuen Weltzustand, dem sich durchaus emanzipatives Potenzial abgewinnen lässt. Es geht bei Flusser also nicht nur um Weltverlust, Abstraktion oder Entfremdung, sondern auch um das Erschließen neuer Wirkpotenziale menschlicher Betätigung, die dann allerdings nicht mehr Handlungen genannt werden können. Florian Rötzer fasst die utopische Dimension des flusserschen Denkens zusammen: »Die Welt, ganz gleich ob die virtuelle oder die so genannte reale, ist ein Traum, eine Oberfläche, ein Bildschirm, der von uns beliebig gestaltet werden kann, wenn wir Zugang zur Tiefenschicht der Bits, Pixel, Gene oder Elementarteilchen besitzen.«61 57 | Blumenberg, Hans: »Lebenswelt und Technisierung unter Aspekten der Phänomenologie«, in: Wirklichkeiten in denen wir leben. Aufsätze und eine Rede, Stuttgart: Reclam 2009, S. 7-54, hier S. 35 f. 58 | »Insofern läßt sich der Begriff der ›Geste‹ als eine Bewegung definieren, durch die sich eine Freiheit ausdrückt. Zwar ist die Geste als die Bewegung, die sie ist, wie alle anderen Bewegungen determiniert und in diesem Sinne vollkommen erklärbar. Aber das Spezifische an ihr ist, ganz unberührt davon, Ausdruck einer Innerlichkeit zu sein, die man gezwungen ist, ›Freiheit‹ zu nennen« (Flusser, Vilém: Gesten. Versuch einer Phänomenologie, Frankfurt a.M.: Fischer 1997, S. 220). 59 | Ebd., S. 227. 60 | Ebd., S. 221. 61 | Rötzer, Florian: »Von Gesten, Dingen, Maschinen und Projektionen«, in: V. Flusser, Dinge und Undinge, S. 141-150, hier S. 149.
Die Welt als Inter face
Als einen Vorgang der sukzessiven Befreiung hat auch André Leroi-Gourhan den historischen Prozess der Technisierung beschrieben.62 Seiner (paläo-) anthropologischen Techniktheorie zufolge lässt sich die Entwicklung vom Werkzeug über die Maschine zum Automaten und schließlich zum ›Elektronengehirn‹ als anteilige Verlagerung der Operationsketten von menschlichen Handlungen auf gegenständliche Entäußerungen begreifen. Im Zuge dieses Vorgangs wird, was zunächst körpergebundene Geste war, in einer technischen Form stabilisiert, was die Verbreitung im Kollektiv bzw. die Tradierung in der Zeit erlaubt. Im Zuge dieser Entwicklung ändert sich folglich die Rolle der körperlichen Organe und Gesten, insbesondere das Tätigkeitsfeld der Hand, die sich zunächst vom universell einsetzbaren Werkzeug zum Motor eines in die Technik verlegten Prozesses verwandelt.63 Leroi-Gourhan wählt die Formulierung, dass die manuellen Maschinen die Geste »annektieren«64 . Diese Rhetorik steht in Spannung zur fortgesetzten Betonung einer Befreiung, die sich in zwei Richtungen verstehen lässt. Erstens findet sich die motorische Geste »in eine manuelle Maschine freigesetzt, durch die sie verlängert und modifiziert wird«65. Die Technisierung erweitert also prinzipiell die Reichweite menschlicher Gesten, wenn auch indirekt und vornehmlich auf einer kollektiven Ebene.66 Zweitens erlaubt die Fixierung spezifischer Gesten in Technik laut Leroi-Gourhan, dass die Hand ihre evolutionäre Flexibilität und Unfestgelegtheit bewahren kann und keine Spezialisierung in Richtung bestimmter Tätigkeiten erfährt. Sie beschränkt sich stattdessen auf eine »Steuerungsrolle«67 und gerade darin besteht die Freiheit von beschränkenden Anpassungen. Mit der Programmierbarkeit zunächst mechanischer Automaten und später digitaler Computer lassen sich dann ganze Sequenzen von – zunehmend rein symbolischen – Gesten als Choreografie materiell niederlegen. Leroi-Gourhan fasst die Ambivalenz des Vorgangs zusammen: »[…] um ein Maximum an Freiheit durch die Vermeidung jeder Überspezialisierung seiner Organe zu verwirklichen, ist der Mensch zunehmend gezwungen, immer höhere Fähigkeiten zu exteriorisieren«.68
62 | Vgl. sein Hauptwerk: Leroi-Gourhan, André: Hand und Wort. Die Evolution von Technik, Sprache und Kunst, Frankfurt a.M.: Suhrkamp 1988 und darin insbesondere die Kapitel VII bis IX. 63 | Vgl. ebd., S. 302. 64 | Ebd. 65 | Ebd., S. 305. 66 | Leroi-Gourhan expliziert: »Die Befreiung der Technik führt zweifellos zu einer Verminderung der technischen Freiheit des Einzelnen.« (ebd., S. 317) 67 | Ebd., S. 308. 68 | Ebd., S. 332.
153
154
Timo Kaerlein
Die Geste findet sich folglich als reifizierte Struktur auf der Seite der Technik wieder – hier folgt sie einem verlässlichen Schema und Programm – und als Geste der Bedienung auf Seiten des Anwenders, wobei sie vom technischen Vorgang emanzipiert ist und in einer weitgehend metaphorischen, jedenfalls nicht kausalen Beziehung zu diesem steht. In der Technik bleiben die Gesten gespeichert, wie Leroi-Gourhan ausführt,69 und wie es Gilbert Simondon bündig zusammenfasst: »Was den Maschinen innewohnt, ist menschliche Wirklichkeit, menschliche Geste, die in funktionierenden Strukturen fixiert und kristallisiert ist.« 70 Das Auslösen der in der Technik hinterlegten Sequenzen erfordert nun keine Mühe mehr, die Funktion der Hand wird symbolisch, vielleicht ornamental. Es ist gerade dieses Versprechen der Freiheit von Arbeit und physischem Aufwand, das die Gestensteuerungen in der HEI kapitalisieren. Gleichzeitig macht Leroi-Gourhan schon durch seine Wortwahl – ›annektieren‹, ›gezwungen‹ – darauf aufmerksam, dass dem Technisierungsprozess eine eigentümliche Verschränkung von Freiheit und Zwang zu Grunde liegt. Im Sinne eines zusammenfassenden Zwischenfazits möchte ich die beiden einleitend genannten Vektoren der propagierten Technikentwicklung auf der Anwenderseite des Internets der Dinge noch einmal aufgreifen. Es handelt sich hierbei um eine Art diskursiv gesättigte Technik, die ohne Referenz auf Geschichte auskommt und stattdessen phantasmatisch aufgeladene Versatzstücke aus den Visionen eines Ubiquitous Computing (Weiser) bzw. eines Internets der Dinge (Gershenfeld) mitführt. Die Designer von Gestensteuerungen in ›intelligenten‹ Umgebungen inszenieren ihre Produkte im Sinne einer doppelten Emanzipation: Die Interfaces der HCI sollen in Richtung Welt überschritten werden, während gleichzeitig – und gegenläufig – die Welt in ein Interface transformiert wird, um sie von Unannehmlichkeiten wie der Notwendigkeit zur Arbeit zu befreien. Im Projekt einer weitreichenden Entdifferenzierung von Information und Materie liegt die schon fast dialektisch zu nennende Synthese der Gegensätze. Die Geste taucht in beiden Vektoren auf: Auf der Seite der nach Realitätsanreicherung strebenden HCI – die Rede ist unter anderem von reality-based interaction71 – stellt sie ein Bindeglied zur Vielfalt menschlicher Praktiken dar. Auf der anderen Seite sind lebensweltlich fest verankerte Gesten in einer zum Interface verwandelten Welt eine naheliegende Option zur Steuerung und Kontrolle unsichtbarer vernetzter Geräte, ohne 69 | Vgl. ebd., S. 302. 70 | Simondon, Gilbert: Die Existenzweise technischer Objekte, Zürich: Diaphanes 2012, S. 11. 71 | Vgl. Jacob, Robert J. et al.: »Reality-based interaction. A Framework for Post-WIMP Interfaces«, in: Margaret Burnett (Hg.), The 26th Annual CHI Conference on Human Factors in Computing Systems, CHI 2008. Conference proceedings, New York: ACM 2008, S. 201-210.
Die Welt als Inter face
dass auf dezidierte Eingabemedien zurückgegriffen werden müsste. Was sich auf den ersten Blick als glückliche Aufhebung der Gegensätze präsentiert, soll abschließend noch einmal gezielt mit Blick auf die Anwenderrolle in diesem Szenario problematisiert werden.
D irigent vs . I llusionist : Z wei M odelle des N ut zers in der gestengesteuerten M ensch -U mwelt -I nter ak tion Wenn es entschieden keine Arbeit ist, die den Usern in der HEI abverlangt wird, welcher Tätigkeitsmodus könnte dann geeignet sein, um die Interaktionen per Geste unter der Bedingung weitgehender Automatisierung kulturwissenschaftlich zu beschreiben? Ich möchte abschließend zwei Figuren kontrastierend gegenüberstellen, die sich als Archetypen für ein Modell des Users in der HEI anbieten. Mit der Gegenüberstellung lässt sich eine Reflexion über den Grad von agency im Umgang mit ›intelligenten‹, vernetzten Objekten verbinden, deren Spezifikum gerade darin besteht, dass sie miteinander kommunizieren und Handlungsprogramme auf eine Vielzahl von technischen Agenten verteilt ablaufen. Das erste Modell findet sich in der Technikphilosophie: Gilbert Simondon hat in seinen Überlegungen zu einer allgemeinen Theorie der Maschine den Vorschlag gemacht, die Anwenderrolle gegenüber einer zunehmend offenen, d.h. kommunikations- und adaptionsfähigen, Technik als diejenige eines Dirigenten eines Ensembles technischer Akteure zu verstehen.72 Unter einer ›offenen Maschine‹ versteht Simondon eine Maschine, die einen »Unbestimmtheitsspielraum in sich birgt«, sodass sie »für eine externe Information empfänglich« und nicht dem Automatismus einer definitiven Programmierung anheimgegeben ist.73 Erst unter dieser Bedingung ließe sich ein Kollektiv miteinander in Verbindung stehender Maschinen als »technisches Ensemble« realisieren, das allerdings auf menschliche Organisations- und Übersetzungsfähigkeit verwiesen bliebe: »Weit entfernt davon, der Aufseher eines Trupps von Sklaven zu sein, ist der Mensch der ständige Organisator einer Gesellschaft der technischen Objekte, die seiner bedürfen, wie Musiker eines Dirigenten bedürfen.« 74 Simondons Überlegungen, die vor dem Hintergrund einer Beschäftigung mit der Kybernetik entstanden sind, lassen sich für eine emanzipative Lesart des Mensch-Technik-Verhältnisses gegenüber ›intelligenten‹ Umgebungen produktiv machen.
72 | Vgl. G. Simondon: Existenzweise technischer Objekte, S. 11. 73 | Ebd. 74 | Ebd.
155
156
Timo Kaerlein
Die Figur des Dirigenten ist in mehrfacher Hinsicht aufschlussreich: Zum einen ist der Dirigent der Star des Orchesters. Alle anderen (Publikum und Musiker) müssen seine Bewegungen ständig nachvollziehen können, er lenkt und synchronisiert das Ensemble wie mit unsichtbaren Fäden. Die Aktionen des Dirigenten beschränken sich allerdings auf eine Form von Initiierung und Veranlassung. Er muss kein Instrument berühren, um Töne erklingen zu lassen. Stattdessen bedient er sich einer ausladenden, exaltierten Gestik, die unmissverständliche Anweisungen enthält und in ein Handlungsprogramm des Ensembles übersetzt werden kann. Gerade hier beweist sich die kommunikative Effizienz der Geste, wie es auch in der HCI-Forschung angemerkt wurde: »Imagine human communication without gestures – people saying goodbye without waving, giving directions without pointing, conducting a hundred musicians in a symphony by sending messages to each of their music stands.« 75 Nun ließe sich allerdings erneut die Frage stellen, inwiefern die zentrale Dirigentenrolle für ein Ensemble auf dem technischen Stand des Internets der Dinge noch länger vonnöten ist. Dessen Pointe liegt ja gerade in der dezentralen Koordinationsfähigkeit von mit individueller Handlungsmacht ausgestatteten Agenten, die sich ihrer Umgebung selbsttätig mitteilen und über Sensoren auf ihren jeweiligen Kontext reagieren können.76 Im Internet der Dinge wird auf die Emergenz einer Kapazität zur Selbstorganisation gesetzt anstatt auf die Top-Down-Steuerung einer orchestrierenden Instanz.77 Der zweite Vorschlag für ein Nutzermodell kommt aus den Reihen der Designer selbst: »Control your Entertainment system like a Jedi« 78 heißt es auf der Produktseite eines der einleitend vorgestellten Armbänder. In Ermangelung kausallogischer Erklärungen bzw. unter Entzug der empirischen Anschauung der Funktionsweise technischer Objekte muss die ›Intelligenz‹ des Internets der Dinge wie Magie wirken. Die Interaktion mit Technik als Magie und damit den Anwender als Magier zu beschreiben, hat gerade in der HCI Tradition. Einige Beispiele:
75 | Kurtenbach, Gordon/Hulteen, Eric A.: »Gestures in Human-Computer Interaction«, in: Brenda Laurel (Hg.), The Art of Human-Computer Interface Design, Reading, Mass.: Addison-Wesley 1990, S. 309-317, hier S. 309. 76 | Vgl. C. Neubert: Onto-Logistik, S. 127-130. Vorbild für den Bereich der Logistik ist das vom Internet bekannte packet-switching-Verfahren, bei dem die einzelnen Datenpakete alle Informationen enthalten, um quasi-autonom an ihr jeweiliges Bestimmungsziel zu gelangen. 77 | Vgl. ebd., S. 130. 78 | www.getreemo.com/uses/, vom 21. April 2014.
Die Welt als Inter face
• Douglas Engelbarts berühmte Präsentation des kollaborativen Bürokommunikationssystems NLS (oNLine System) im Jahr 1968 wurde von Beobachtern in einer entsprechenden Semantik beschrieben: »Doug Engelbart sat under a twenty-two-foot-high video screen, ›dealing lightning with both hands.‹« 79 • Aus dem Xerox PARC stammt die Idee des interaktiven Computings als ›user illusion‹. In Bezug auf die frühen grafischen Benutzeroberflächen korrigiert Alan Kay die gängige Auffassung des Interfaces als Metapher und legt den Fokus stattdessen auf eine konsistente Nutzerillusion: »There are clear connotations to the stage, theatrics, and magic […] it is the magical part that is all important and that must be most strongly attended to in the user interface design«.80 • Das Unternehmen Apple vermarktet Geräte der Konsumelektronik als quasimagische Objekte. In einem Werbevideo für das iPad 2 heißt es: »We believe technology is at its very best when it’s invisible. When you’re conscious only of what you’re doing, not the device you’re doing it with. An iPad is the perfect expression of that idea. It’s just this magical pane of glass that can become anything you want it to be.«81 • Im Kontext des Internets der Dinge schreibt David Rose, Unternehmer und Dozent am MIT Media Lab, über ein Design von ›enchanted objects‹, das seine Inspirationen von literarischen und populärkulturellen Vorbildern bezieht: »Think of this approach to technology as a realization of our fondest fantasies and wildest dreams. A reimagining of flying carpets, talking mirrors, protective cloaks, animated brooms, and omniscient crystal balls […]«.82 Ein Merkmal derart verzauberter Dinge habe ›gestureability‹ zu sein, d.h. ihre inhärente Responsivität gegenüber Anwendergesten.83 Magie ist kulturanthropologisch nicht als Gegensatz zu Technik zu verstehen, sondern eher als eine Form der Idealisierung derselben zu begreifen. Technik ist zunächst ein in Kauf genommener Umweg, ein elaboriertes Verfahren der 79 | Markoff, John: What the Dormouse Said. How the Sixties Counterculture Shaped the Personal Computer Industry, New York: Penguin 2005, S. 148. 80 | Kay, Alan: »User Interface: A Personal View«, in: B. Laurel, Art of Human-Computer Interface Design, S. 191-207, hier S. 199. 81 | www.youtube.com/watch?v=L51twQblnNk, vom 07. März 2012. 82 | Rose, David: Enchanted Objects. Design, Human Desire and the Internet of Things, New York, NY: Scribner 2014, S. 13. Die prekäre Nennung ausgerechnet des animierten Besens, der seit Goethes Zauberlehrling-Ballade bzw. dem Import im Disneyfilm Fantasia (USA 1940, R: James Algar, Samuel Armstrong) für den selbstverschuldeten Kontrollverlust steht, wird nicht weiter kommentiert. 83 | Vgl. ebd., S. 181 f.
157
158
Timo Kaerlein
Verknüpfung von Vermittlungsschritten, das Kausalitäten mobilisiert, um etwas in etwas anderes zu verwandeln.84 Insbesondere Alfred Gell hat auf den funktionalen Zusammenhang von Technik und Magie aufmerksam gemacht: »All productive activities are measured against the magic-standard, the possibility that the same product might be produced effortlessly«85. Marcel Mauss spricht analog von Magie als der »leichteste[n] Technik« 86. Insofern rückt Magie auch als Gegenparadigma zur Arbeit in den Blick: »Magic is the ideal technology. It involves zero work. There is no cost, no hazard or drudgery.«87 Wenn Technik solcherart als Magie empfunden – und insbesondere vermarktet – wird, stellt sich immer noch die Frage nach der Anwenderrolle in dem durch diese Semantik konstituierten Feld. Was zeigen die Gesten gegenüber den vernetzten Objekten an? In der präferierten Lesart erscheinen die Gesten letztlich erneut als Insignien von Omnipotenz, analog zur Figur des Dirigenten: Der Magier bewegt die Hände und die Welt formt sich nach seinem Willen, in souveräner Überschreitung der Grenze zwischen Vorstellung und Materie. Es gibt allerdings eine alternative Figur, anhand derer sich der Zusammenhang möglicherweise treffender beschreiben lässt: den Bühnenmagier oder Illusionisten, dessen Gesten gerade in keinem ursächlichen Nexus zu den spektakulären magischen Effekten stehen, sondern die eher als Blendwerk, Augenwischerei und Ablenkung vom Wesentlichen charakterisiert werden können. Hier wird das Gestikulieren zum Schwindeln,88 zur Vortäuschung von agency, die oberflächliche Beobachter in die Irre zu führen vermag. Hierzu möchte ich ein abschließendes Beispiel aus dem Bereich der Comedy heranziehen. Ein parodistisches Video des belgischen Schauspielers und Komikers Chris Van den Durpel zeigt ihn in der Rolle seines Alter Ego, des Straßenmagiers David Chesterfield.89 Er bewegt sich durch eine städtische Umgebung und gibt vor, mit theatralischer Gestik verschiedene technische Geräte und Infrastrukturelemente zu kontrollieren – von einer Rolltreppe über 84 | »Technology is the art of the curve […]« schreibt Bruno Latour: »Morality and Technology. The end of the means«, in: Theory, Culture & Society 19 (2002), S. 247-260, hier S. 251. 85 | Gell, Alfred: »The Technology of Enchantment and the Enchantment of Technology«, in: Jeremy Coote/Anthony Shelton (Hg.), Anthropology, Art, and Aesthetics, Oxford: Univ. Press 1992, S. 40-63, hier S. 58. 86 | Mauss, Marcel: Soziologie und Anthropologie I. Theorie der Magie – Soziale Morphologie, München: Carl Hanser 1974, S. 173. 87 | Watts, Laura: 10 Future Myths to Watch For in the Mobile Telecoms Industry, 2007, www.sand14.com/futurearch/archive/watts_futuremythsofmobile.pdf, vom 21. April 2014. 88 | Vgl. V. Flusser: Gesten, S. 211. 89 | Siehe https://www.youtube.com/watch?v=6_QRjEGqDCw, vom 23.2.2008.
Die Welt als Inter face
einen gläsernen Kaufhausfahrstuhl, eine Parkhausschranke, automatische Glasschiebetüren, einen Getränkeautomaten, den Pinsetter einer Bowlingbahn, ein Cabriolet im Vorwärts- und Rückwärtsgang bis zu einer anfahrenden Straßenbahn. Die Pointe des Sketches liegt in der performativen Aneignung der vollautomatisch vor sich gehenden technischen Prozesse, die auf die pure Willensanstrengung eines offenbar telekinetisch begabten Magiers zurückgeführt werden. Zwei Lesarten bieten sich im hier verfolgten Kontext und in Analogie zu Gestensteuerungen im Internet der Dinge an: Zum einen ist das Video eine unmissverständliche Erinnerung an den Grad der Automatisierung, die die menschliche Geste als hochgradig irrelevant für den technischen Ablauf entlarvt. Daraus entsteht im Video die Komik, denn der selbstsichere ›Magier‹ versäumt es nicht, bei jeder Gelegenheit mittels seiner Körpersprache auf die außergewöhnliche Potenz seiner Leistungen zu verweisen. Zum zweiten aber handelt es sich bei der Inszenierung um eine Rückaneignung der Geste, die schon lange an die Technik delegiert worden ist. David Chesterfield demonstriert ein fast trotzig zu nennendes Auf begehren gegen die Automatisierung, indem er sie ein letztes Mal mit menschlichen Gesten assoziiert und damit den Eindruck von umfassender Handlungsmacht vermittelt. Es handelt sich also um eine Art von Reklamation, die allerdings – und das ist bezeichnend – nur noch im Medium des Theaters erfolgen kann. Damit liefert David Chesterfield das Schema für eine mögliche Zukunft der Geste, die die Vorstellung des Menschen als Leiter eines technischen Ensembles erfolgreich persifliert. Das Orchester vernetzter Agenten im Internet der Dinge kann ohne weiteres auf den Dirigenten verzichten.
159
Epistemologien der Distribution
Die Dinge tragen keine Schuld Technische Handlungsmacht und das Internet der Dinge Mercedes Bunz
Seit dem 20. Jahrhundert imaginieren Computerwissenschaftler eine Zukunft, in der die stillen Zeugen unserer Umgebung – die Objekte – endlich vernetzt, smart und gesprächig werden. Über Jahrzehnte hinweg war das »Internet der Dinge« allerdings nur ein technisches Versprechen, das durch die Informatik geisterte1. Die Verheißung: Entstehen werde bald eine neue Form der Dinge, ausgestattet mit jener Handlungsmacht, die man im Englischen als »agency« bezeichnet 2 . Um 2010 herum wurde dann der prophezeite Hype endlich Realität. Nur hätte die langweiliger gar nicht sein können: Kühlschränke er1 | Sarma, Sanjay/Brock, David/Ashton, Kevin: »The Networked Physical World: Proposals for Engineering the Next Generation of Computing, Commerce & Automatic-Identification.« White Paper, Cambridge: MIT Auto-ID Center 2000; Raskino, Mark/Fenn, Jackie/ Linden, Alexander: »Extracting Value from the Massively Connected World of 2015«, Report G00125949 1-4, Stanford: Gartner Research 2005; National Intelligence Council: »Disruptive Civil Technologies. Six Technologies with Potential Impacts on US Interests Out to 2025«, National Intelligence Council’s Conference Report CR 2008-07, April 2008; Sundmaeker, Harald/Guillemin, Patrick/Friess, Peter et al. (Hg.): Vision and Challenges for Realising the Internet of Things, Brussels: European Commission 2010; Vermesan, Ovidiu et al.: »Internet of Things Strategic Research Roadmap«, in: Peter Friess (Hg.), Internet of Things – Global Technological and Social Trends, Aalborg: River 2011, S. 9-52. 2 | Hier folge ich Alfred Gell, der Dinge als »soziale Agenten« begreift und anmerkt, dass das unmittelbare ›Andere‹ in sozialen Beziehungen nicht zwingend ein ›menschliches Wesen‹ sein muss. Gell, Alfred: Art and Agency, An Anthropological Theory, Oxford: Claredon Press 1998, hier S. 17. Zum Internet der Dinge siehe auch Pereira, Ângela/ Guimarães, Alice Benessia/Curvelo, Paula: »Agency in the Internet of Things«, Report JRC87270, EUR 26459 EN, Luxemburg: Publications Office of the European Union 2013. Selbstverständlich ist »Handlungsmacht« ein viel debatierter Begriff, siehe zum Beispiel: Giddens, Anthony: Central Problems in Social Theory: Action, Structure and Contradiction in Social Analysis, Berkeley: University of California Press 1979; Archer, Mar-
164
Mercedes Bunz
innerten nun den Konsumenten daran, auf dem Nachhauseweg Milch zu kaufen. Elektronische Zahnbürsten petzten Zahnärzten die wahren Putzgewohnheiten ihrer Nutzer. Und Topfpflanzen, mit Sensoren ausgestattet, begannen Sozialen Netzwerken ihren Wasserbedarf mitzuteilen. Die Dinge hatten begonnen zu kommunizieren, doch was sie zu sagen hatten, deutete wenig auf »Intelligenz« hin. Trotzdem traf die neue technische Entwicklung auf deutliches Unbehagen, was einem zeigt, wie Recht Sigmund Freud mit seiner Feststellung hatte, dass kultureller Fortschritt gemeinhin von Misstrauen begleitet wird. Doch was speist das Unbehagen gegenüber dieser neuen technischen Kultur aus sprechenden und mit Handlungsmacht ausgestatteten Dingen? Interessanterweise scheint sich das Misstrauen nämlich auf einen ganz bestimmten Moment zu richten: Diskutiert wird vor allem, dass der intelligente Mensch den intelligent gewordenen Dingen zahlenmäßig unterlegen sein könnte. »In 2020 there will be 26 times more connected things than people«3, mahnt der Bericht der International Data Corporation, und diese Bemerkung wird zu einer oft zitierten Aussage des Reports werden. Andere Studien teilen dieselben Befürchtungen: »In 2008, the number of Internet-connected devices first outnumbered human population, and they have been growing far faster than have we«, zitiert das renommierte amerikanische PEW Research Center den Technologiereporter Patrick Tucker in seiner Studie. Diese Warnung führte zu Schlagzeilen wie der folgenden: »Internet-Connected Things Will Outnumber Humans 3-to-1 Within a Decade: Report«4. Selbst eine Studie der Europakommission hält es für wichtig, die zahlenmäßige Unterlegenheit des Menschen zu thematisieren: »[T]he number of mobile machine sessions [in 2020] will be 30 times higher than the number of mobile person sessions«5.
garet S.: Being Human: The Problem of Agency, New York: Cambridge University Press 2000. In diesen Debatten steht jedoch meist das menschliche Handelnde im Zentrum. 3 | Lund, Denise/MacGillivray, Carrie/Turner, Vernon et al. (Hg.): »Worldwide and Regional Internet of Things (IoT) 2014-2020 Forecast: A Virtuous Circle of Proven Value and Demand«, International Data Corporation Doc. No. 248451, Mai 2014. www.idc. com/getdoc.jsp?containerId=248451, vom 18. Juli 2014. 4 | Pew Research Center: »The Internet of Things Will Thrive by 2025«, Mai 2014, www. pewinternet.org/2014/05/14/internet-of-things/, vom 18. Juli 2014; Tucker, Patrick: The Naked Future: What Happens in a World that Anticipates Every Move?, Cambridge: MIT Press 2014; Koebler, Jason: Internet-Connected Things Will Outnumber Humans 3-to-1 Within a Decade: Report, Vice Motherboard, http://motherboard.vice.com/en_ uk/read/internet-connected-things-could-outnumber-humans-3-to-1-within-a-decade, vom 18 Juli 2014. 5 | Ebd.
Die Dinge tragen keine Schuld
Dass die smart gewordenen Dinge sich gegenüber dem Menschen in der Überzahl befinden, das gibt offenbar zu denken – eine Reaktion, die man näher in den Blick nehmen muss, befinden sich doch auch Bäume, Ameisen, Bleistifte, Kieselsteine oder Quallen gegenüber den Menschen in der Überzahl, was unserer Spezies aber nichts weiter auszumachen scheint. Die immer wieder geäußerte Besorgnis muss also auf etwas anderes verweisen: Wenn Dinge beginnen zu kommunizieren, erhalten sie eine bestimmte Form von Handlungsfähigkeit, die beunruhigend ist. Dabei sind Maschinen, die hinter unserem Rücken miteinander kommunizieren, in unseren digitalen Umgebungen nichts Neues, was das Unbehagen gegenüber den vernetzten Dingen umso interessanter macht. Im Internet haben so genannte ›machine sessions‹ die Kommunikationen von Menschen schon immer übertroffen, beim Verschicken einer EMail zum Beispiel. Dabei ist das Sendegerät in einen komplexen Dialog mit dem Empfängergerät verwickelt, um die Regeln und Parameter der Verbindung auszuhandeln; ein Prozess, den Programmierer ›handshake‹ nennen. Ohne dass sich die digitalen Maschinen hinter unserem Rücken Informationen über uns austauschen würden, gäbe es gar kein Internet, wie die amerikanische Medientheoretikerin Wendy Chun klarstellt: »In terms of networks, leaks are not accidental: they are central. Without leaking information, there could be no connection to begin with« (im Erscheinen). Diese unbemerkten Kommunikationsabläufe haben etwas Beunruhigendes. Das Ausnutzen solcher Leaks in Form der digitalen Überwachung durch den amerikanischen Geheimdienst, welche der Whistleblower Edward Snowden im Jahr 2013 öffentlich machte, hat dies gezeigt. Im Fall des Internets der Dinge entzündet sich die Sorge jedoch nicht am heimlichen Bespitzeln, sondern an der zahlenmäßigen Überlegenheit der Objekte. Das Unbehagen gegenüber den intelligenten Dingen basiert also auf etwas anderem: Wenn Dinge vernetzt werden, sind sie nicht mehr dieselben. Doch was genau passiert, wenn Dinge vernetzt werden? Wie verändert das ihre Dinglichkeit? Was für Handlungsmacht erhalten die Dinge? Und welcher Aspekt an dieser Handlungsfähigkeit ist es, der uns beunruhigen sollte? Um diese Fragen zu beantworten, wird der vorliegende Text im Folgenden zunächst technische Aspekte des Internets der Dinge analysieren, um sie philosophischen Ansätzen zur Handlungsmacht der Dinge – Martin Heidegger, Bruno Latour und Gilbert Simondon – gegenüberzustellen. Dabei wird ein besonderer Fokus auf die Technikphilosophie Simondons gelegt, dessen Überlegungen zur technischen Handlungsmacht und Beschreibung von ›networked objects‹ seiner Zeit weit voraus waren. Ziel der philosophischen Diskussion ist es zu verstehen, warum die Dinge nicht dieselben bleiben, wenn sie sich vernetzen.
165
166
Mercedes Bunz
D as I nterne t der D inge 2014 ist das Jahr, in dem das »becoming-technology of the world«6 wie Jean-Luc Nancy es ausdrückt, in seine nächste Phase eintritt: Es ist nicht nur das Jahr, in dem Google seine bislang kostspieligste Investition macht und für 3.2 Milliarden Dollar das Unternehmen Nest Labs kauft, das automatisierte und vernetzte Thermostate herstellt. Es ist auch das Jahr, indem zum ersten Mal in der Geschichte der Dinge ein Kühlschrank als Teilnehmer einer SpamAttacke erwischt wird.7 Das lang beschworene Internet der Dinge wird Realität. Wie Paul Dourish und Genevieve Bell in einer umfangreichen Studie 8 beschreiben, hatte diese Realität die Informatiker seit den späten 1980ern fasziniert. Inspiriert von der Computerentwicklung, in der schrankgroße Mainframes zu kaffeemaschinengroßen Desktopcomputern verkleinert werden konnten, entwirft der Informatiker Mark Weiser im Forschungslabor Xerox PARC eine neue Forschungsagenda mit dem Namen Ubiquitous Computing, kurz Ubicomp. Weiser prophezeit, dass die Größe der Computer sich noch weiter vermindern wird, um sie noch besser in den Alltag zu integrieren: »[E]nhanc[e] computer use by making many computers available throughout the physical environment«9. Es ist offensichtlich, dass die Idee des Ubiquitous Computings, bei welcher die Rechenleistung nicht mehr von einem Gerät ausgeht, sondern ›throughout‹ in unsere Alltagswelt eingebettet ist, ein mit dem Internet der Dinge verwandtes Konzept ist. Dennoch sind die beiden nicht identisch. Das Internet der Dinge basiert nicht zwingend auf Rechenleistung, sondern begründet sich auf der Vernetzung der Objekte, und dafür müssen Objekte nicht zu Computern werden. Anders gesagt: Ihre ›smartness‹ beruht nicht auf der artifiziellen Intelligenz, die ihnen inhärent ist, sondern auf ihrer Konnektivität. Wie also funktioniert diese Konnektivität auf technischer Ebene? Welche technische Vernetztheit macht ein Ding smart? Im Gegensatz zum World Wide Web, das durch das Hypertext Transfer Protocol (http), definiert ist, kann man beim Internet der Dinge derzeit keine allen Dingen gemeinsame Technologie ausmachen. Ebenso wie das Web 2.0 besteht es aus verschiedenen technischen Funktionen, die zugleich die phy6 | Nancy, Jean-Luc: Being Singular Plural, Stanford: Stanford University Press 2000, S. 117. 7 | BBC News: »Fridge Sends Spam Emails as Attack Hits Smart Gadgets«, 17. Januar 2014, www.bbc. co.uk/news/technology-25780908, vom 18. Juli 2014. 8 | Dourish, Paul/Bell, Genevieve: Divining a Digital Future: Mess and Mythology in Ubiquitous Computing, Cambridge, MA: MIT Press 2011. 9 | Weiser, Mark: »Some Computer Science Issues in Ubiquitous Computing«, in: Communications of the ACM 36, 7 (1993), S. 75-84.
Die Dinge tragen keine Schuld
sische und die virtuelle Ebene betreffen und generell folgende Elemente enthalten:10 • Adresse: Das Objekt lässt sich identifizieren. • Netzwerk: Das Objekt kann sich mit anderen Objekten oder direkt mit dem Internet verbinden. • Sensor: Das Objekt kann die Adresse, den Ort oder den Status der Umgebung kommunizieren. Die ersten Entwicklungen dieser Technologie manifestieren sich in spielerischen Hacks aus Küchenmaschinen. In den USA vernetzte man einen Toaster: 1990 wurde während der jährlichen Networking Expo INTEROP ein handelsübliches Exemplar ans Internet angeschlossen, über das man den Toaster anund ausschalten konnte, je nachdem, wie stark das Brot getoastet werden sollte. Ein Jahr später wurde das Ensemble durch einen kleinen Lego-Kran komplettiert, der Brotscheiben in das Gerät fallen ließ.11 In Europa präparierte man eine Kaffeemaschine: 1993 wurde im Computerlabor der Cambridge University eine Kamera mit einem lokalen Netzwerk verbunden und so aufgestellt, dass sie den Füllstand der Maschine filmte. Der so genannte ›Trojan Room Coffee Pot‹ ersparte den Kollegen den vergeblichen Kaffeelauf in den dritten Stock, wo die Maschine stand, und hat bis heute einen Ehrenplatz bei Spiegel Online inne, noch immer bewacht von einer Webcam.12 Zwanzig Jahre nach diesen Hacks hat sich nun die digitale Technik weiterentwickelt und der Anschluss von Dingen an Netzwerke ist alltäglich geworden. Die dafür notwendigen Funktionalitäten basieren auf einer Vielfalt von Techniken, von denen die wichtigsten beiden im Moment das drahtlose und kontaktfreie RadiofrequenzIdentifikationssystem (RFID) und das Internet Protokoll Version IPv6 sind. RFID nutzt Transponder oder Funketiketten, die Objekten zugeordnet sind. Die massentauglichen Transponder sind weit verbreitet, denn sie sind klein und preisgünstig – sie befinden sich beispielsweise in Reisepässen, Kreditkarten oder werden gegen Diebstahl zur Warensicherung eingesetzt. Kommuniziert wird unter Nutzung verschiedener Protokolle, im Jahr 2015 zumeist Bluetooth, ZigBee, 6LoWPAN, ISA 100, WirelessHart/802.15.4, 18000-7 oder 10 | Vermesan, Ovidiu/Friess, Peter/Guillemin, Patrick et al.: »Internet of Things Strategic Research Roadmap«, in: dies., Internet of Things: Global Technological and Social Trends, Aalborg: River 2011, hier S. 10. 11 | Malamud, Carl: Exploring the Internet: A Technical Travelogue, Englewood Cliffs: Prentice Hall 1993, hier S. 34. 12 | Kirksey, Kirk: Computer Factoids: Tales from the High-Tech Underbelly, Lincoln, NE: iUniverse 2005, hier S. 100. Spiegel.de: »Trojan Coffee Pot«, www.spiegel.de/static/ popup/coffeecam/cam1.htm, vom 18. Juli 2014.
167
168
Mercedes Bunz
LTE. In der Realität sind die smarten Dinge meist nur indirekt an das Internet angeschlossen, obwohl sie Dank des Internet-Protokolls IPv6 über insgesamt 3.4 × 1038 einzigartige Adressen verfügen könnten, mit denen jedes einzelne Ding auf diesem Planeten adressierbar wäre. Auch wenn Industriestudien mittlerweile aufgeregt Einnahmen in Millionenhöhe versprechen, lässt die technische Entwicklung des Internets der Dinge prinzipiell zu wünschen übrig. 2015 fehlen immer noch grundlegende technologische Standards für das Internet der Dinge, die sicherstellen, dass sich alle Dinge nicht nur mit dem Internet, sondern auch untereinander drahtlos verbinden können. Nicht nur in der Daten- und Signalverarbeitung der funkenden Dinge und in Bezug auf ihre Verbindung zum Cloud Computing sind die Entwicklungen noch nicht ausgereift. Auf der Hardwareebene stehen auch die Sensoren-Technik und die Antennenkommunikation vor neuen Herausforderungen, abgesehen von den Identifikationsproblemen bei Multi-UserAuthentifizierungen, eine von vielen offenen Fragen im Bereich Sicherheit und Privatsphäre.13 Eine Lösung kommt hier nur langsam zustande, erschwert durch konkurrierende Wirtschaftsinteressen, welche der Standardisierung des Internets der Dinge im Weg stehen.14 Genau damit kommt jedoch wiederum die Ausgangsfrage dieses Textes in den Blick: Wenn die Technologien des Internets der Dinge die Informatiker immer noch vor eine beachtliche Reihe an ungelösten Problemen stellen und die tatsächliche ›smartness‹ der vernetzten Dinge limitiert ist, woher speist sich dann das Unbehagen gegenüber ihrer Realisierung? Woher rühren diese Bedenken? Interessanterweise problematisieren sie nämlich keinen konkreten technischen Aspekt – das Unbehagen ist fundamentaler. Wenn die Berichterstattung wieder und wieder beschreibt, dass die Dinge begonnen haben, in großer Zahl zu kommunizieren, wird eine radikale Veränderung in unserer modernen Welt markiert. Aus diesem Grund ist das Internet der Dinge weitaus mehr als nur ein neuer Markt für Cisco, IBM und Intel. Es ist mehr als eine bloße Regierungsinitiative, im Rahmen derer die EU eine Vielzahl an Studien und Initiativen zu digitalen Informations- und Kommunikationstechnologien finanziert. Und es ist sogar mehr als ein neues Spielfeld für Visionäre.15 Wenn Dinge vernetzt werden, verändert sie sich ihre 13 | Vgl. O. Vermesan: Internet of Things. 14 | Hier stehen drei Parteien miteinander im Konflikt: die Open Source IT Gruppierung AllSeen Alliance (Qualcomm, Microsoft und Cisco, im Dezember 2013 begründet), deren direkter Kontrahent Open Interconnect Consortium (geleitet von Intel, Dell und Samsung, im Juli 2014 gegründet) und schließlich einflussreiche Technologiebetriebe wie Google und Apple, die nicht direkten Gruppierungen zuzuordnen sind und es vorziehen ihre eigenen Standards zu setzen. 15 | Gershenfeld, Neil: When Things Start to Think, New York: Henry Holt 1999; Sterling, Bruce: Shaping Things, Cambridge: MIT Press 2005.
Die Dinge tragen keine Schuld
Dingheit. Sie bleiben nicht die gleichen. Doch was genau ist es, das uns dabei beunruhigt und beklemmt? Um das zu analysieren, muss man zunächst einen Blick auf die Dingheit selbst werfen.
D ie B e tr achtung der D inge mit M artin H eidegger und B runo L atour Aus menschlicher Perspektive ist das Besondere an den Dingen ihre Leblosigkeit: Wenn wir einen Raum verlassen und kurz danach zurückkehren, haben sich die Dinge nicht verändert. Kein Ding hat wartend seine Beine überkreuzt, sich ein Buch genommen oder angefangen, mit seinem Mobiltelefon herumzuspielen. Außer in dem Fall, dass jemand anderes mit dem Ding interagiert hat – der Ehemann hat es benutzt, der Hund hat es mit seinem Spielzeug verwechselt –, sind die Dinge immer noch an ihrem Platz und dieselben geduldig in ihrer Dingheit wartend. Objekte bleiben die gleichen. Doch bei vernetzen Dingen trifft dies nicht mehr zu. Vernetzte Objekte empfangen Informationen. Damit werden sie – zumindest teilweise – zu Medien. Und das heißt, dass die Unterscheidung zwischen Ding und Medium – zumindest teilweise – hinfällig wird. Fritz Heiders Essay »Ding und Medium«16 erläutert 1927 ihren Unterschied: Ein Ding wird als ein Gebrauchsgegenstand verstanden, der eine bestimmte Funktion erfüllen kann. Dem Medium kommt dagegen eine spezifische Rolle zu: Es kommuniziert oder überträgt und das heißt, wenn Medien laufen, sind sie niemals einfach sie selbst. Dieser besondere Aspekt der Medien wurde auch von anderen Theoretikern wieder und wieder betont, darunter etwa Marshall McLuhan, Elizabeth Eisenstein oder Friedrich Kittler.17 Interessanterweise hat sich jedoch der theoretische Fokus auf das, was in der Gegenüberstellung von Ding und Medium diskutiert wird, mit der Zeit verschoben. Anfang des 21. Jahrhunderts wird in theoretischen Studien nicht mehr der Unterschied zwischen Ding und Medium betont und das Spezifische des Mediums erforscht. Anstelle dessen fällt der theoretische Forschungsblick vielmehr auf die Überschneidungen zwischen Ding und Medium: Bill Brown stellt in Thing Theory zu Dingen im Film fest: They »[…] have become not just objects but actions.«18 Lorraine Daston gibt einen Sammelband zu Things That Talk heraus und fo16 | Heider, Fritz: Ding und Medium. Berlin: Kadmos 2005. 17 | McLuhan, Marshall: Understanding Media: The Extensions of Man, Cambridge: MIT Press, 1994; Kittler, Friedrich A: Aufschreibesysteme 1800/1900, München: Fink 1985; Eisenstein, Elisabeth L.: Die Druckerpresse: Kulturrevolutionen im frühen modernen Europa, Wien: Springer 1997. 18 | Brown, Bill: »Thing Theory«, in: Critical Inquiry 28/1 (2001), S. 1-22, hier S. 16.
169
170
Mercedes Bunz
kussiert im Vorwort explizit auf ihre mediale Qualität, wenn sie Dinge als »nodes at which matter and meaning intersect« beschreibt.19 Davis Baird hebt ebenfalls die Aktivität der Dinge in Thing Knowledge: A Philosophy of Scientific Instruments20 hervor, während Steven Shaviro in The Universe of Things21 mit Hilfe von Whitehead die Dinge zu nichtmenschlichen Aktanten erklärt. Auch auf Seiten der Medienwissenschaften ist ein Interesse an der Dinghaftigkeit der Medien festzustellen. Nicole Starosielski bringt in ihrer ausgezeichneten Studie The Undersea Network22 die Materialität digitaler Kommunikation an die Oberfläche und erforscht die Rolle des transozeanischen Kabelsystems. Jussi Parikkas The Geology of Media analysiert die materiellen Bestandteile von Medienobjekten23 in ähnlicher Weise wie Wolfgang Ernst die Körperlichkeit des Archivs betont.24 Neben diesem material turn existieren auch bei den Theoretikern, die man international als German Media Theory bezeichnet, konzeptionelle Bemühungen, durch den Fokus auf Kulturtechniken, die begriffliche Kluft zwischen Medium und Ding zu schließen. Im Anschluss an Friedrich Kittler wird dafür Foucaults historisches a priori als »mediales a priori«25 auf symbolische Operationen und Praktiken – und damit um die Dinge – erweitert. Auf diese Weise bringt der Fokus auf Kulturtechniken eine begriffliche Auseinandersetzung mit der Rolle des »technischen Objekts« hervor. Im 2013 erschienenen Schwerpunkt »ANT und die Medien« der Zeitschrift für Medienund Kulturforschung findet man beispielsweise eine interessante Allianz mit den Soziologen Bruno Latour und Antoine Hennion skizziert.26 Alles in allem lässt sich aus den verschiedenen Theorieunternehmungen Folgendes schließen: Theoriebildung ist derzeit nicht mehr an dem Unterschied zwischen Ding und Medium interessiert, sondern konzentriert sich vielmehr auf ihre potentielle Gemeinsamkeiten. Warum löst das Medien-Werden der Dinge dann so ein Unbehagen aus? 19 | Daston, Lorraine: Things That Talk, New York: Zone Books 2004, hier S. 16. 20 | Baird, Davis: Thing Knowledge: A Philosophy of Scientific Instruments, Berkeley: University of California Press 2004. 21 | Shaviro, Steven: The Universe of Things. On Speculative Realism, Minnesota: University of Minneapolis Press 2014. 22 | Starosielski, Nicole: The Undersea Network, Durham: Duke University Press 2015. 23 | Parikka, Jussi: A Geology of Media, Minnesota: University of Minneapolis Press 2015. 24 | Ernst, Wolfgang: Das Gesetz des Gedächtnisses: Medien und Archive am Ende (des 20. Jahrhunderts), Berlin: Kadmos 2007. 25 | Siegert, Bernhard: »The Map is the Territory«, in: Radical Philosophy 169 (2011), S. 14. 26 | Vgl. den Schwerpunkt »ANT und die Medien«, in: Zeitschrift für Medien- und Kulturforschung 2 (2013); siehe auch Hennion, Antoine: »Those Things That Hold Us Together: Taste and Sociology«, in: Cultural Sociology 1/1 (2007), S. 97-114.
Die Dinge tragen keine Schuld
Als übersensible Spezies gehen wir vielleicht davon aus, dass vernetzte Dinge hinter unserem Rücken über uns reden oder uns manipulieren, ähnlich wie es Medien tun. Tritt man jedoch näher an die Dinge heran, kann man beobachten, dass solch ein Verhalten der Dinge nicht unbedingt neu ist. Philosophen haben der vermeintlichen Leblosigkeit der Dinge noch nie getraut und das ›Objekt‹ von allen Seiten studiert. Sie konnten so eine Aktivität der Dinge ans Tageslicht bringen, welche sich dem oberflächlich-menschlichen Blick normalerweise entzieht. Aus philosophischer Nähe betrachtet lässt sich nämlich feststellen, dass Dinge gar keine leblosen Objekte sind. Im Gegenteil, Dinge besitzen ihre eigene Handlungsmacht und bestehen – wenngleich auch still – auf ihrer Unabhängigkeit. Kein geringerer als Martin Heidegger widmete eben diesem Aspekt im Jahre 1950 den Vortrag »Das Ding«27, der durchaus im Zusammenhang mit dem heutigen Internet der Dinge gelesen werden kann, weil er diskutiert, dass wir in einer Zeit leben, in der althergebrachte Entfernungen in Zeit und Raum kürzer werden. Von dieser Beobachtung her beginnt Heidegger den Aspekt der Nähe zu erforschen, beginnend mit dem, was ihn umgibt: Dinge. Die Frage »Was ist ein Ding?«28 steht damit im Raum und wird von Heidegger unter anderem wie folgt beantwortet: Ein Ding ist mehr als nur ein Objekt. Denn während ein Objekt in Relation zu einem Subjekt steht, findet man aus Heideggers Perspektive an den Dingen ein autarkes Element. Ein Ding ist etwas, das für sich existiert: »Das Insichstehen kennzeichnet … [es] als etwas Selbständiges«.29 Zwar kann das Ding uns Subjekten vorgesetzt und damit objektiviert werden. Doch ein Ding, so betont Heidegger, ist auch da, wenn es nicht vor uns steht. Es ist materiell, aber es kann auch gedacht werden. Der Aspekt, der die Dingheit am eindringlichsten beschreibt, ist damit die Unabhängigkeit des Dings. Mit dieser Feststellung erweitert Heidegger unsere Sicht der Dinge: Da das Ding selbstversorgend und beständig ist, tut es etwas. Indem es in der Welt und/oder im Gebrauch ist, versammelt und vereint es diverse Aspekte, die in und an ihm verweilen. Genau dies macht es aber zu einem aktiven Gegenstand, denn wie Heidegger feststellt: »Verweilen ereignet«30. Das Ding ist »nicht mehr das bloße Beharren eines Vorhandenen«31, denn: »Das Dingen versammelt.«32 Heidegger extrahiert hier aus der nah-philosophischen Ansicht 27 | Heidegger, Martin: »Das Ding«, in: ders.: GA 7, Vorträge und Aufsätze, Frankfurt a.M.: Klett-Cotta 2000, S. 165-184. 28 | Ebd. 29 | Ebd., S. 159 30 | Ebd., S. 173. 31 | Ebd., S. 175. 32 | Ebd., S. 174.
171
172
Mercedes Bunz
eines Dinges die Einsicht, dass die Dinge nicht passiv sind, sondern unsere Welt vereinnahmen.33 »Dingen ist Nähern von Welt.«34 Dinge, so könnte man also zusammenfassen, haben die Umwelt schon vor dem Internet der Dinge erfasst und erspürt, wenn auch auf andere Art. Ein Ding war nie ein passives Objekt, sondern hatte immer schon eine unabhängige und autarke Seite, welche mit dem Zusammenbringen von Welten konfrontierte. Es kann also nicht die Unabhängigkeit der Dinge sein, die uns am Internet der Dinge stört, denn diese Unabhängigkeit ist kein neuer Umstand. Dies wird noch deutlicher, wenn man die philosophische Untersuchung der Dinge fortsetzt und den Aspekt der Handlungsmacht von Dingen mit Hilfe von Latour in Augenschein nimmt. Dreiundvierzig Jahre nach Heideggers Analyse widmet sich Bruno Latour in Der Berliner Schlüssel ebenfalls der Unabhängigkeit der Dinge, auch wenn es dem Soziologen im Gegensatz zu Heidegger dabei nicht um ihre Wesenhaftigkeit geht.35 Dennoch kann man Latours Text als eine weitere Untersuchung von Dingen lesen, denn am konkreten Beispiel eines ganz spezifischen Dinges zeigt er auf, wie die Handlungsmacht der Dinge funktioniert, wenn es zum ›Nähern von Welt‹ kommt. Dieser Welt ist Latour nicht mit Hilfe eines Kruges auf der Spur wie Heidegger, sondern mit Hilfe eines spezifischen Schlüssels: dem im Jahr 1912 patentierten Berliner Schlüssel, einem merkwürdigen Ding mit zwei identischen Schlüsselbärten an beiden Enden. Der Effekt dieser doppelten Bärte: Einmal aufgeschlossen, muss der Schlüssel durch das Schloss durchgeschoben und erneut gedreht werden, um ihn wieder herausziehen zu können. Die spezifische Machart des Berliner Schlüssels zwingt vergessliche Berliner dazu, die Hoftür hinter sich zu schließen, denn der Schlüssel lässt sich nur aus einer abgeschlossenen Tür abziehen. Diesen Durchsteckschlüssel im Detail beschreibend, kommt Latour zu dem Schluss, dass Menschen nicht die einzigen handlungsfähigen Wesen sind. Dinge sind es auch. Vor der Erfindung des Schlüssels halten die sozialen Beziehungen die Türen verschlossen, wie Latour bemerkt: Alle Großstädte, alle Eigentümerversammlungen, Gewerkschaftszeitungen, Conciergenlogen hallen wider von Beschwerden, Vermerken, Anschuldigungen und Schimpfereien über die Haustüren, darüber, daß sie nie abgeschlossen werden oder daß sie immer abgeschlossen sind. […] Lebten wir noch in den seligen Zeiten, als die Conciergen Tag und Nacht darüber wachten, um nur jenen Durchlaß zu gewähren, die einer sorgfältigen Prüfung unterzogen worden waren, so befänden wir uns durch und durch in sozialen Beziehungen […]. 36 33 | Ebd., S. 175. 34 | Ebd., S. 182. 35 | Latour, Bruno: »Der Berliner Schlüssel«, in: ders., Der Berliner Schlüssel: Erkundungen eines Liebhabers der Wissenschaften, Berlin: Akademie 1996, S. 37-51. 36 | Ebd., S. 47.
Die Dinge tragen keine Schuld
Mit der Erfindung des Dings ›Berliner Schlüssel‹ gehen diese Beziehungen auf selbigen über. Mehr noch, menschliche Ermahnungen zum richtigen Verhalten schlagen oft fehl. Der Schlüssel ist ein weitaus wirksamerer sozialer Agent, welcher die Verhaltensweisen in der sozialen Realität verändert. Anstatt ein bloßes Werkzeug zu sein wie der Krug, hat der Schlüssel »die Dignität eines Mittlers, eines sozialen Akteurs, eines Agenten, eines Aktiva«37. Latour stellt in seinem Text schon eingangs klar, dass »niemand je eine menschliche Gesellschaft beobachtet hat, die nicht von Dingen konstruiert wird«.38 Dinge waren also schon handlungsmächtige soziale Agenten, bevor das Internet der Dinge sie vernetzte. Wenn gegenwärtig darauf aufmerksam gemacht wird, dass wir Menschen den Dingen des Internets der Dinge zahlenmäßig unterlegen sind, kann dies also nicht daran liegen, dass wir befürchten, den Dingen käme nun mit einem Male Handlungsmacht zu. Dinge, ob vernetzt oder nicht, waren schon immer handlungsfähig und soziale Agenten. Das Unbehagen betrifft also eine ganz bestimmte Form von Handlungsfähigkeit, welche genau dann hervortritt, wenn Dinge vernetzt sind und von digitalen Technologien Informationen erhalten. Um diesem Unbehagen schlussendlich einen Schritt näher zu kommen, wendet sich die vorliegende Untersuchung dem französischen Philosophen Gilbert Simondon zu, dessen Arbeit uns bei der Suche nach einer Antwort auf das Unbehagen gegenüber den Dingen assistierend zu Seite steht. Wie beeinflusst das Vernetztsein die Handlungsfähigkeit der Dinge? Was verändert sich an der Dingheit, wenn ein Objekt zu einem vernetzten Objekt wird? Was erzeugt das Gefühl, den Dingen unterlegen zu sein?
G ilbert S imondon und die H andlungsmacht der D inge Gilbert Simondon assoziiert man in der Regel mit seiner Individuationstheorie39, welche eine ganze Reihe von faszinierenden Philosophen inspiriert hat, unter anderem Gilles Deleuze, Bernard Stiegler, François Laruelle oder Anne Sauvagnargues. Ein nicht unbeachtlicher Teil der Forschung des französischen Philosophen richtet sich jedoch auf die Erarbeitung einer Philosophie der Technik. Neben seinem im Jahre 1958 publizierten Buch Die Existenzweise technischer Objekte 40 ist Technik immer wieder Forschungsthema in verschiedenen 37 | Ebd., S. 49. 38 | Ebd., S. 37. 39 | Muriel Combes hat dazu eine hervorragende Einführung verfasst: Combes, Muriel: The Philosophy of the Transindividual, Cambridge: MIT Press 2013. 40 | Simondon, Gilbert: Die Existenzweise technischer Objekte, Berlin: Diaphanes 2012; ders.: Sur la technique, Paris; P.U.F. 2014.
173
174
Mercedes Bunz
Aufsätzen, von denen viele erst posthum veröffentlicht wurden.41 In Bezug auf die technische Vernetzung von Dingen bietet der Text »Technical Mentality« interessante Anknüpfungspunkte.42 Zum einen zeigt Simondon dort auf, dass Handlungsmacht nicht nur existiert (wie es vor ihm Heidegger und nach ihm Latour betonen), sondern beschreibt detailliert, wie sie gedacht werden kann. Zum anderen nimmt der Text, der in den frühen 1960ern geschrieben wurde, die Problematik aktueller vernetzter Objekte vorweg und diskutiert weit vor seiner Zeit eine »network reality«43. Für die Analyse dessen, was unserem Unbehagen gegenüber der Vernetzung der Dinge zu Grunde liegt, ist er überaus hilfreich. Ähnlich wie Heidegger und Latour erforscht Simondon die komplexe Handlungsmacht der Dinge, konkret die Handlungsmacht technologischer Objekte. Um dieser Macht auf die Spur zu kommen, beginnt er die Geschichte der »technical mentality« zu erkunden – eine Wortwahl, die heraussticht: Simondon wählt den Begriff »mentality« (mentalité), anstelle eines »technical mind« (esprit). Diese Wortwahl hat sprachlich einen deutlichen Effekt, wenn man technische Dinge denkt: Im Vergleich zu ›Geist‹ geht von Mentalität niemals eine direkte Aktion aus, denn Mentalität handelt nicht. Sie verursacht vielmehr eine unterschwellige und indirekte Aktion. Mit dieser Wortwahl setzt Simondon fest, dass Technologien nicht handeln, sondern Handlung beeinflussen. Mit anderen Worten, sie handeln mit, sie haben semi-agency. Wie kann man die semi-agency der technischen Mentalität verstehen? Simondon beginnt seine Analyse mit einem gängigen technikphilosophischem Problem: Technologie wandelt sich ständig und ist deshalb konzeptuell schwer zu greifen. Sie hat kein Wesen, keine universale Essenz, sondern ist ständig im Wandel. Diese Beobachtung, die für andere Philosophen einen Alptraum darstellt, wird in Simondons Arbeit zum positiven Ausgangspunkt. Die technische »mentality is developing, and therefore incomplete«44, ein pro41 | Simondon, Gilbert/Simondon, Nathalie/Chateau, Jean-Yves: Communication et information: cours et conferences, Chatou: Éditions de la Transparence 2010; Simondon, Gilbert: Imagination et invention (1965-1966), Chatou: Éditions de la transparence 2008; ders.: L’individuation à la lumière des notions de forme et d’information, Grenoble: Éditions Jérôme Millon 2005; ders.: L’invention dans les techniques: cours et conferences, Paris: Seuil 2005; ders.: »Mentalité technique«, in: Revue philosophique de la France et de l’étranger 3 (2006), S. 343-357. 42 | Simondon, Gilbert: Technical Mentality, in: Arne De Boever et al. (Hg.), Being and Technology, Edinburgh: Edinburgh University Press 2012, S. 1-15. 43 | Ebd., S. 11. 44 | Ebd., S. 1. In derselben Passage wird die technische Mentalität ebenfalls als »Wille«, aber »ohne Einheit« beschrieben. Diese etwas bedenkliche Neigung zu widersprüchlichen Aussagen im Text veranlasste Latour zu dem Vorwurf, Simondon habe »a manner
Die Dinge tragen keine Schuld
duktiver, kreativer Prozess, der als »concretisation« beschrieben wird.45 Und nicht nur hier schlägt Simondon einen anderen Denkweg ein als andere Philosophen. Seit dem Industriezeitalter wird die technische Entwicklung philosophisch oft als etwas thematisiert, das problematische Konsequenzen für Natur und Mensch hat; Heideggers »Die Frage nach der Technik« ist dafür paradigmatisch. Simondon denkt technische Entwicklung dagegen aus einer anderen Perspektive, nämlich ausgehend von detaillierten Studien des Technischen: der Evolution des Telefonapparates, der Konkretisierung der Elektronenröhre oder der Weiterentwicklung von Elektro- zu Gasmotoren. Ausgehend von diesen Entwicklungen beschreibt er Technologien als durch eine Öffnung charakterisiert: »Technical reality lends itself remarkably well to being continued, completed, perfected, extended.«46 Diese Definition von Technologie als etwas grundsätzlich Offenem, erlaubt es ihm, die Handlungsfähigkeit technischer Dinge auf innovative Weise anzugehen: Bei Simondon hat die technische Realität ihre eigene Logik, die aber von einer Arbeitsgemeinschaft aus Mensch und Maschine getrieben wird. Wie ist diese Arbeitsgemeinschaft zu denken? Und kann diese »Öffnung« schief gehen47 und unser Unbehagen daher rühren? Simondons Text »Technical Mentality« diskutiert die historische Entwicklung technischer Öffnungen, beginnend mit dem Werkzeug, dann der Maschine und schließlich dem vernetzten Objekt. Ihnen werden jeweils Modalitäten des technischen Seins zugeordnet: die handwerkliche Modalität, die industrielle Modalität und die vernetzte Modalität. Jede dieser Modalitäten definiert sich durch unterschiedliche Möglichkeiten der menschlichen Mitwirkung bei der Informationszugabe während der Produktion bzw. Nutzung des technischen Objekts. Im handwerklichen Modus ist der menschliche Beitrag zum technischen Ding eindeutig: »[T]he shoemaker has directly taken the measurements«, »the saddler knows for which horse he is working«.48 Information (das Wissen um die Größe des Fußes oder des Pferdes) und Energie (die Anwendung des Werkzeugs) ist also genauso relevant für das Produkt wie die Qualität des Materials. Deshalb ist eine zentrale menschliche Rolle für die handwerklisomewhat reminiscent of Hegel«. Latour, Bruno: »Reflections on Etienne Souriau’s. Les différents modes d’existence«, in: Levi Bryant/Nick Srnicek/Graham Harman (Hg.), The Speculative Turn: Continental Materialism and Realism, Victoria: re.press, 2011, S. 6. 45 | Yuk Hui bietet eine ausgezeichnete Einführung dieses Konzeptes in folgendem Kommentar an: Hui, Yuk: »On Anne Fagot-Largeault and Simondon«, in: Theory, Culture, Society, 26 June 2014, http://theoryculturesociety.org/yuk-hui-on-anne-fagot-largeaultand-simondon/, vom 18. Juli 2014. 46 | G. Simondon: Technical Mentality, S. 13. 47 | Dazu Nathaniel Tkacz’s kritische Diskussion: Tkacz, Nathaniel: Wikipedia and the Politics of the Open, Chicago: Chicago University Press 2014. 48 | G. Simondon: Technical Mentality, S. 6.
175
176
Mercedes Bunz
che Modalität typisch: »All conditions that enter the technical object cross the human being« und »the source of energy is the same as the source of information«.49 Die Rollen dieser zwei Eintrittspunkte, welche das technische Objekt mitbestimmen, ›Energie‹ und ›Informationen‹, beleuchtet Simondon anschließend auch für andere Modalitäten der Herstellung. Im industriellen Modus fallen beispielsweise Energie und Information auseinander: [The] industrial modality appears when the source of information and the source of energy separate. Namely when the Human Being is merely the source of information, and Nature is required to furnish the energy. The machine is different from the tool in that it is a relay: it has two different entry points, that of energy and that of information. 50
Die Entwicklung hin zu mehreren ›entry points‹ verändert auch die technische Handlungsmacht. Sie ist von nun an durch mensch-maschinische Gemeinschaftsarbeit bestimmt. Simondon beschäftigt sich im Folgenden mit Erfindung, Produktion und Nutzung eines industriellen Objekts und erkennt, dass sich nicht nur die Eintrittspunkte von Informationen und Energien trennen, sondern sich auch die ›entry points‹ der Informationseingabe selbst multiplizieren. Anders als im handwerklichen Modus durchkreuzen die Konditionen des technischen Objekts nicht länger nur den einen Menschen. Stattdessen besteht die industrielle Modalität in einem fortlaufenden Prozess dauernder Anpassung durch den Menschen. It takes place a first time with the invention of a machine — an invention that sometimes implies the bringing into play of considerable zones of knowledge and the gathering of a large number of human beings. It happens a second time with the construction of the machine and the regulation of the machine, which are modes of activity that are different from the machine’s usage. Finally, it happens a third and a forth time, first in learning to work with the machine, then in the machine’s usage. 51
An diesem Zitat wird deutlich, wie Simondon technische Handlungsmacht denkt: Die technische Logik eröffnet ein Potential, welches ständig auf neue menschliche Interpretationen trifft: im Prozess der Erfindung, der Konstruktion, der Installation, sowie der Nutzung des technischen Produktes.52 Simon49 | Ebd. 50 | Ebd. 51 | Ebd. 52 | Steven J. Jackson hat vor kurzem unter dem Titel »Rethinking Repair« einen ähnlichen Ansatz vorgeschlagen: Jackson, Steven J.: »Rethinking repair«, in: Tarleton Gillespie/Pablo Boczkowski/Kristen A. Foor (Hg.), Media Technologies: Essays on Communication, Materiality, and Society, Cambridge: MIT Press 2014, S. 221-238.
Die Dinge tragen keine Schuld
don zufolge ist Technologie durch eine »Öffnung« charakterisiert und auf Grund dieser Öffnung kann die technische Logik vom Menschen verstanden, interpretiert und adjustiert werden. Das technische Ding (und damit auch seine Handlungsmacht) ist eine mensch-maschinische Koproduktion. Simondons genuiner Beitrag zur Technikphilosophie, den ich an anderer Stelle ausführlich beschrieben habe,53 besteht darin, aufzuzeigen, dass technische Objekte die menschliche Realität beeinflussen, aber gleichzeitig ihre eigene Logik haben. Diese Logik ist disparat, aber auf den Menschen bezogen zu denken – der Mensch »versteht die Maschinen; er hat eher eine Rolle zwischen den Maschinen zu erfüllen als über ihnen, damit es ein echtes technisches Ensemble geben kann«.54 Die Rolle des Menschen bei der Entstehung und Nutzung der Technologien kann man damit etwa mit der eines Orchesterdirigenten vergleichen: Die musikalischen Interpretationen des Dirigenten leiten das Orchester, die Entscheidungen jedes einzelnen Orchestermitglieds und seines Instruments bestimmen die Musik jedoch mit – Orchestermusik ist, wie Technik, eine kollaborative Koproduktion. Die Art und Weise der Koproduktion von Mensch und Maschine ändert sich in verschiedenen Modalitäten, beispielsweise wenn das technische Ding in die vernetzte Modalität eintritt. Für diese ›networked reality‹ stellt Simondon fest, dass die ›entry points‹ in das technische Objekt noch weiter zunehmen. Obgleich Simondons Bemühungen »to draw out the technical mentality«55 dieser Modalität verfrüht sind und deshalb noch einem recht abstrakten Ansatz folgen müssen, wie er selbstkritisch bemerkt, ist Simondon sich der Neuerung sicher: Industrielle Objekte unterlaufen einige Eingriffe, bis ihre Produktion abgeschlossen ist. Erst dann sind sie »geschlossene Objekte«. Das vernetzte Objekt dagegen bleibt fortlaufend offen. If one imagines an object that, instead of being closed, offers […] a very high capacity to adjust to each usage, or wear, or possible breakage in case of shock, of malfunctioning, then one obtains an open object that can be completed, improved, maintained in the state of perpetual actuality. 56
Untersucht man die heutigen Entwicklungen, wird ersichtlich, dass die Handlungsfähigkeit der technischen Objekte durch ihre Offenheit weitaus stärker beeinflusst wird als von Simondon beschrieben. Denn je vernetzter das technische Objekt ist, desto mehr öffnet es sich für neue ›entry points‹ und erlaubt weitere potentielle Anpassungen. Phasen, die beim industriellen Ob53 | Dieser Teil findet sich in der revidierten englischen Ausgabe von: Bunz, Mercedes: Silent Revolution. Basingstoke: Palgrave Macmillan 2014, S. 51-52. 54 | G. Simondon: Die Existenzweise technischer Objekte, S. 126. 55 | G. Simondon: Technical Mentality, S. 12. 56 | Ebd.
177
178
Mercedes Bunz
jekt klar voneinander trennbar sind – Erfindung, Produktion, Installation, Gebrauch – überschneiden sich plötzlich und die gegenwärtigen Objekte erfüllen die Anliegen verschiedener Menschen gleichzeitig; beispielsweise sind sie für Hersteller und Käufer gleichermaßen ›offen‹. Die Öffnung, welche die Möglichkeiten der Anpassung erlaubt, führt deshalb unter Umständen zu Interessenkonflikten. Wie Simondon bemerkt, wird das Objekt zum »regime«57. In der Tat ändert sich also die Handlungsmacht eines Objektes durch seine Vernetzung. Es ist aber nicht die Logik der Technik, welche durch die Vernetzung verstärkt wird. Das Objekt erhält, einmal vernetzt, keine höhere Eigenständigkeit. Der Effekt ist vielmehr, dass zu viele verschiedene menschliche Interessen ein und dasselbe technische Objekt bewohnen. Mit dem Internet der Dinge durchleben unsere technischen Apparate einen paradigmatischen Wandel, den auch Matthew Fuller und Sónia Matos beschrieben haben: von der »Kalkulation« zur »Interaktion«58 Und genau diese Transformation des vernetzten Objektes, das zum »Regime« wird, löst die eingangs beschriebene Unzufriedenheit aus. Mehr als je zuvor ist der Benutzer eines vernetzten Dinges mit den Interessen und Intentionen von anderen konfrontiert, die sich vorher in der Phase der Benutzung der Dinge aus ihnen zurückgezogen hatten. Es ist dieses Wissen, dass immer noch jemand anderes dem eigenen Ding innewohnt, das ein diffuses Gefühl der Unterlegenheit und Bevormundung auslöst. Mit Recht, wie ein kurzes Beispiel zeigt: Jedes Mal, wenn man ein anderes Land bereist, nimmt Googles Suchmaschine an, dass man umgezogen ist. Solch ein »Mitdenken« der Maschinen, das für einen US-Amerikaner sicher nützlich ist, wird im multinationalen Europa eher als störend empfunden. Ernsthaftere Probleme treten jedoch dann auf, wenn Hersteller die Software ihrer Geräte automatisch updaten lassen und dies dazu führt, dass das Gerät mit der alten digitalen Umgebung des Nutzers nicht mehr kompatibel ist – durch ein Update wird ein älteres iPhone durchaus mal Elektroschrott. Smarte Dinge funktionieren deshalb interessanterweise am effektivsten, wenn sie zu einem ganz bestimmten Zweck eingesetzt werden und die Anpassung des Herstellers deshalb nicht scheitern kann. Eben dies ist beim Auto der Fall, derzeit dem smartesten Objekt von allen. Hauptsächlich zum Fahren und Parken genutzt, assistiert das kluge Auto dem Menschen, indem es sich selbst in enge Parklücken hinein und hinaus manövriert, es piept vorwurfsvoll, wenn man nicht angeschnallt ist, verängstigt den Fahrer, der zu nah an einen Gegenstand heranfährt und schaltet das Licht ein, wenn es dunkel wird. Als nächster Schritt steht das Selbstfahren an, mit dem sich Firmen wie BMW, 57 | Ebd., S. 13 58 | Fuller, Matthew/Matos, Sónia: »Feral Computing: From Ubiquitous Calculation to Wild Interactions«, in: Fibreculture 19 (2011), S. 144-163.
Die Dinge tragen keine Schuld
Audi, Mercedes-Benz und Volkswagen, aber auch Google bereits intensiv auseinandersetzen.59 Wie jedoch eine Volkswagen-Werbung gelungen demonstriert, kann auch in einem vordefinierten Umfeld die gute Absicht ihr Ziel verfehlen: Ein Geheimagent sitzt mit der Mission in einem roten Volkswagen, einen LKW zu zerstören, der mit Fässern voller gefährlicher Stoffe beladen wird. Der Agent beschließt sein Auto zur Waffe zu machen, steuert es mit hohem Tempo auf den Lastwagen zu und springt in letzter Sekunde heraus. Mit vollem Karacho rast das Auto auf den Laster zu, um dann ganz kurz vor dem Laster zum Stehen zu kommen. Mission gescheitert, dank der automatisch mitdenkenden Funktion der »collision avoiding control«, die in dem Clip beworben wird.
F a zit Das Unbehagen, dass sich die Maschinen bald in der Überzahl befinden, weist auf eine wichtige Veränderung hin. Die Schuld wird dabei allerdings beim falschen Teilnehmer gesucht, nämlich der Technologie. Wenn Dinge sich technisch vernetzen und ihre Passivität verlieren, erlangen sie keine höhere Eigenständigkeit oder Handlungsmacht. Wie eine Vielzahl an Kühlschränken, Zahnbürsten und Kommunikationsgeräten täglich beweist, werden die technischen Dinge durch ihre Vernetzung nicht einmal smart. Der Kontrollverlust ist jedoch real, selbst wenn er nicht dadurch verursacht wird, dass wir Menschen uns gegenüber den Maschinen bald in der Unterzahl befinden. Vielmehr bleibt der Hersteller (oder auch andere Dritte, wie Regierungen) dauerhaft mit dem technischen Ding verbunden, weshalb die vernetzten Objekte nicht nur im Interesse des Nutzers funktionieren, sondern multiple Interessen gleichzeitig verarbeiten. Nicht anders als Heidegger es einst beschrieben hat, versammeln Dinge also immer noch eine Welt, doch diese Welt ist (erschreckenderweise) nicht unbedingt die Welt des Nutzers – und darin liegt der eigentliche Grund für das Unbehagen. Mit anderen Worten, die Nicht-Menschen, deren Handlungsmacht Bruno Latour am Beispiel des Berliner Schlüssels demonstriert, werden vermenschlicht, dadurch aber keineswegs menschlicher – im Gegenteil. Was nicht überraschend sein dürfte – letztendlich sind vernetzte Objekte neue Instrumente für eine Welt, deren Funktionsweise unverändert kapitalistisch geblieben ist. Daran tragen die Dinge jedoch keine Schuld. Das Internet der Dinge verdeutlicht vielmehr, dass wir heute in einer technischen Zivilisation leben. In der Technologie treffen sich Menschen, formen sich Kollektive 59 | Knight, Will: »Driverless Cars Are Further Away Than You Think«, MIT Technology Review, www.technologyreview.com/featuredstory/520431/driverless-cars-are-furtheraway-than-you-think/, vom 18. Juli 2014.
179
180
Mercedes Bunz
und entstehen Subjektivierungsformen. Das Gefühl, in der Unterzahl zu sein, wenn wir es mit dem Internet der Dinge zu tun haben, ist einfach nur eine erste Art und Weise, von diesem mächtigen Werkzeug, das vor uns liegt, Notiz zu nehmen. Indem wir lernen zu verstehen, wie dieses Werkzeug unser Verhalten und unsere Subjektivität, aber auch die Erfahrungen in unserer Welt formt, erfassen wir die soziale und die politische Dimension des Internets der Dinge. Diese Dimensionen können aber durch ein Neuausrichten der Dinge anders geformt werden. Weit mehr als die Technologie zeichnet Menschen ein bestimmter Aspekt aus: sie können updaten.
Übersetzt aus dem Englischen von Sarah Morais Der Text wurde erstmalig auf Englisch veröffentlicht in Chun, Wendy/Fisher, Anna (Hg.): New Media, Old Media: A History and Theory Reader, London: Routledge 2015.
Rechtliche Herausforderungen des Internets der Dinge Kai Hofmann/Gerrit Hornung
1 Technische und wirtschaf tliche I nnovationen des I nterne ts der D inge als H er ausforderungen an das R echt Als Reaktion auf die technischen Visionen des Internets der Dinge um die Jahrtausendwende1 folgte in der Rechtswissenschaft eine Debatte um die konzeptionellen Herausforderungen, die eine vernetzte, in Alltagsgegenstände implementierte Datenverarbeitung für hergebrachte Rechtsfiguren und rechtliche Lösungsstrategien mit sich bringt.2 Die Diskussion förderte insbesondere Un1 | S. z.B. Heesen, Jessica/Hubig, Christoph/Siemoneit, Oliver/Wiegerling, Klaus: Leben in einer vernetzten und informatisierten Welt. Context-Awareness im Schnittfeld von Mobile und Ubiquitous Computing, Stuttgart 2005, http://www2.informatik.uni-stuttgart. de/cgi-bin/NCSTRL/NCSTRL_view.pl?id=SFB627-2005-05&engl=, vom 12. August 2015; ISTAG (Information Society Technologies Advisory Group): Scenarios for Ambient Intelligence in 2010, Luxembourg: 2001, ftp://ftp.cordis.europa.eu/pub/ist/docs/istagsce narios2010.pdf, vom 12. Juni 2015; Mattern, Friedemann: »Vom Verschwinden des Computers. Die Vision des Ubiquitous Computing«, in: Friedemann Mattern (Hg.), Total vernetzt. Szenarien einer informatisierten Welt, Berlin/Heidelberg: Springer 2003, S. 1-41; Weiser, Mark: »The Computer for the 21st Century«, in: Scientific American 3 (1991), S. 66-75. 2 | S. aus der deutschen Diskussion: Friedewald, Michael/Raabe, Oliver/Georgieff, Peter/Koch, Daniel J./Neuhäusler, Peter: Ubiquitäres Computing. Das »Internet der Dinge« – Grundlagen, Anwendungen, Folgen, Berlin: ed. sigma 2010; Kühling, Jürgen: »Datenschutz in einer künftigen Welt allgegenwärtiger Datenverarbeitung«, in: Die Verwaltung 40 (2007), S. 153-172; Roßnagel, Alexander: Datenschutz in einem informatisierten Alltag. Gutachten im Auftrag der Friedrich-Ebert-Stiftung, Berlin: Friedrich-Ebert-Stiftung 2007; ULD (Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein): Juristische Fragen im Bereich Altersgerechter Assistenzsysteme, Kiel: 2010, https://
182
Kai Hofmann/Gerrit Hornung
zulänglichkeiten des geltenden Datenschutzrechts zutage, für die vielfach nach wie vor keine Abhilfe verfügbar ist. In den letzten Jahren lässt sich beobachten, dass vermehrt spezifische Einzelfragen thematisiert werden, die entweder an bestimmte Technologien (Chipkarte, biometrische Identifikation, Smartphone etc.) oder an spezifische Rechtsfragen (Zulässigkeit konkreter Datenverarbeitungsvorgänge, Vertragsschlüsse, zivil- und strafrechtliche Verantwortlichkeit für autonome oder halbautonome Systeme etc.) anknüpfen. Trotz dieser Ausdifferenzierung lassen sich die diskutierten Herausforderungen auf eine Reihe generalisierbarer technischer Trends zurückführen: die durch Miniaturisierung ermöglichte zunehmende Integration von Informations- und Kommunikationstechnologie in Alltagsgegenstände, die Vernetzung praktisch aller dieser Systeme in dauerhaften oder ad hoc-Netzwerken, die zunehmende Erhebung und Verwendung sehr vieler personenbezogener Daten durch neue Sensoren sowie die beginnende Autonomie der Systeme, die perspektivisch in abgestufte Formen einer echten künstlichen Intelligenz münden könnte.3 Für das Rechtssystem verursachen diese technisch-wirtschaftlichen Veränderungen eine Vielzahl neuer Probleme, die nur teilweise mit verfügbaren Instrumenten gelöst werden können. Im Bereich des rechtsgeschäftlichen Handelns muss geklärt werden, ob (teil-)automatisierte Vorgänge von Hard- oder Software konkreten Personen zurechenbar sind und wie sich im Streitfall diese Vorgänge oder bestimmte Systemzustände beweisen lassen. Vergleichbare Fragen stellen sich für das zivilrechtliche Haftungsrecht und das Strafrecht, wo es häufig auf die Vorhersehbarkeit bestimmter Handlungsfolgen ankommt.4 Die Intransparenz der Technologie und der mit ihr verbundenen Datenverarbeitungsprozesse ist einerseits unvermeidlich und von vielen Nutzern gewünscht, verstößt andererseits aber gegen datenschutzrechtliche Grundprinzipien, die den Betroffenen gerade ermöglichen sollen, zu wissen, »wer was wann und bei welcher Gelegenheit über sie weiß«.5 Wenn personenbezogene www.datenschutzzentrum.de/projekte/aal/, vom 12. August 2015; ULD (Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein)/IWI (Institut für Wirtschaftsinformatik, HU Berlin): TAUCIS. Technikfolgenabschätzung Ubiquitäres Computing und Informationelle Selbstbestimmung, Kiel/Berlin: 2006, https://www.datens chutzzentrum. de/taucis/ita_taucis.pdf, vom 12. August 2015. 3 | S. auch M. Friedewald et al.: Ubiquitäres Computing (Fn. 2), S. 45 f. 4 | Bräutigam, Peter/Klindt, Thomas: »Industrie 4.0, das Internet der Dinge und das Recht«, in: Neue Juristische Wochenschrift 68 (2015), S. 1137, 1141 f.; Riehm, Thomas: »Von Drohnen, Google-Cars und Software-Agenten. Rechtliche Herausforderungen autonomer Systeme«, in: Der IT-Rechts-Berater 2014, S. 113-115; Spindler, Gerald: »Zivilrechtliche Fragen beim Einsatz von Robotern«, in: Eric Hilgendorf (Hg.), Robotik im Kontext von Recht und Moral, Baden-Baden: Nomos 2013, S. 63-80. 5 | BVerfGE 65, S. 1 (43).
Rechtliche Herausforderungen des Internets der Dinge
Daten zunehmend als Rohstoff für neue Geschäftsmodelle dienen, stellt sich die Frage, ob Konzepte einer »data ownership«6 die bisherige persönlichkeitsrechtliche Struktur des Datenschutzes hintertreiben oder umgekehrt neue Kontroll- und wirtschaftliche Partizipationschancen eröffnen. Werden technische Komponenten in für einzelne Menschen essentielle Gegenstände verbaut oder in kritische Infrastrukturen integriert, muss der Staat im Rahmen seiner grundrechtlichen Schutzpflicht und Infrastrukturverantwortung Wege finden, Integrität, Vertraulichkeit und Verfügbarkeit entweder selbst zu sichern oder private Anbieter und Betreiber hierzu anzuhalten. Von diesen Problemen des Internets der Dinge werden im Folgenden zwei herausgegriffen, nämlich die teilweise oder vollständige Delegation rechtsgeschäftlichen Handelns an »intelligente« Artefakte und die neuen Herausforderungen im Bereich des Datenschutzrechts.
2 Z urechnung des H andelns » intelligenter « D inge Die Vision »intelligenter« Gegenstände begnügt sich nicht mit deren umfassender Vernetzung, sondern strebt vielmehr danach, ihnen mit Hilfe der Fortschritte in der künstlichen Intelligenz ein gewisses Maß an Autonomie zu verleihen. »Autonome Systeme« sollen so in die Lage versetzt werden, auch vergleichsweise komplexe Aufgaben selbstständig bewältigen zu können. Beispielhaft hierfür stehen elaborierte Logistiksysteme, der Hochfrequenzhandel von Wertpapieren7 oder die umfassende Unterstützung des Menschen durch Assistenzsysteme. Um durch solche Systeme ausgelöste Ereignisse rechtlich fassbar zu machen, müssen sie einer Rechtspersönlichkeit zugeordnet werden. Sowohl im kontinentaleuropäischen Recht als auch im Common Law kommen hierfür nur Menschen und von ihnen getragene rechtsfähige Institutionen in Betracht.8 Dies wirft die Frage auf, unter welchen Bedingungen diese sich das Handeln »intelligenter« Gegenstände zurechnen lassen müssen. 6 | Hornung, Gerrit/Goeble, Thilo: »›Data Ownership‹ im vernetzten Automobil. Die rechtliche Analyse des wirtschaftlichen Werts von Automobildaten und ihr Beitrag zum besseren Verständnis der Informationsordnung«, in: Computer und Recht 31 (2015), S. 265-273; Zech, Herbert: »Daten als Wirtschaftsgut – Überlegungen zu einem »Recht des Datenerzeugers«. Gibt es für Anwenderdaten ein eigenes Vermögensrecht bzw. ein übertragbares Ausschließlichkeitsrecht?«, in: Computer und Recht 31 (2015), S. 137146; jeweils m.w.N. 7 | ten Hompel, Michael/Kerner, Sören: »Logistik 4.0«, in: Informatik-Spektrum 38 (2015), S. 176, 179 f. 8 | Weitzenböck, Emily M.: »Electronic Agents and the Formation of Contracts«, in: International Journal of Law and Information Technology 9 (2001), S. 204-234.
183
184
Kai Hofmann/Gerrit Hornung
2.1 Die technische Autonomie von Softwareagenten Automation ist ein – auch für die Rechtswissenschaft9 – keineswegs neues Phänomen. Sie wird herkömmlicherweise durch deterministische Algorithmen umgesetzt, bei denen zu jedem Zeitpunkt der nächste Ausführungsschritt eindeutig bestimmt und deshalb das Systemverhalten stets vorhersehbar ist.10 Das Anwendungsgebiet derartiger Automation ist auf gleichlaufende, einheitliche und weitgehend ohne Beeinflussung durch die Umwelt ablaufende Prozesse beschränkt.11 Softwareagenten sollen die ihnen gestellten komplexen Aufgaben hingegen dadurch bewältigen, dass sie auf ihre Umwelt reagieren, zielgerichtet mit anderen Ressourcen interagieren und selbstständig, d.h. ohne Einwirkung ihres Betreibers, auch vorher nicht fest definierte Aktionen initiieren.12 In der Folge sind ihre Handlungen nicht ohne Weiteres oder gar nicht vorhersehbar. Dies ist zunächst der Komplexität der Umweltbedingungen geschuldet, in denen die Agenten agieren. Diese macht es für den Programmierer und den Betreiber unmöglich, sämtliche Situationen im Vorhinein zu erfassen und mit spezifischen Handlungsanweisungen zu verknüpfen. Agenten müssen darum auf einen Satz abstrakter Regeln zurückgreifen, bei dessen Anwendung sich im Kern die gleichen Probleme stellen, mit denen auch die Rechtspraxis bei der Anwendung von Normen konfrontiert ist: Die Tatbestände der Regeln können sich als zu eng oder zu weit erweisen, also zu viele oder zu wenige Fälle erfassen. Sie können sich weiterhin überschneiden, sodass Regeln zur Entscheidung von Regelkonflikten definiert werden müssen. Hinzu kommt, dass Systeme ihren Regelsatz durch maschinelles Lernen verändern können, indem sie etwa Regeln entfernen oder hinzufügen oder ein anderes Verfahren zur Entscheidung von Regelkonflikten wählen.13 Schließlich lassen sich komplexe Probleme oftmals nur im Verbund mit anderen autonomen Systemen bewältigen, was zusätzliche komplexe Wechselwirkungen hervorruft. In der Konsequenz können diese Systeme darum ein Verhalten an den Tag legen, das sich zwar für einen allwissenden Beobachter, der alle wesentlichen 9 | Siehe 2.2.1.1. 10 | Kirn, Stefan/Müller-Hengstenberg, Claus D.: »Technische und rechtliche Betrachtungen zur Autonomie kooperativ-intelligenter Softwareagenten«, in: KI – Künstliche Intelligenz 29 (2015), S. 59, 61. 11 | Gitter, Rotraud: Softwareagenten im elektronischen Geschäftsverkehr. Rechtliche Vorgaben und Gestaltungsvorschläge, Baden-Baden: Nomos 2007, S. 48. 12 | Ebd., m.w.N. 13 | Zum Ganzen Kirn, Stefan/Müller-Hengstenberg, Claus D.: »Intelligente (Software-) Agenten: Von der Automatisierung zur Autonomie? Verselbstständigung technischer Systeme«, in: Multimedia und Recht 17 (2014), S. 225, 228 f.
Rechtliche Herausforderungen des Internets der Dinge
Umstände und Regeln kennt, als deterministisch darstellen würde, für den Betreiber in der konkreten Situation hingegen völlig unerwartet sein kann.14 So wird ein System, dessen priorisiertes Ziel es ist, maximalen Profit zu erwirtschaften, Anweisungen ignorieren, welche diesem Ziel unter den konkreten Bedingungen entgegenstehen. Infolge dieser (u.U. falschen) Prioritätensetzung kann es also passieren, dass ein ansonsten anweisungstreu arbeitender Vertriebsagent mit dem Eintritt auf einen elektronischen Markt beginnt, dort fremde Produkte zu kaufen und an Außenstehende zu verkaufen (statt für den Vertrieb der eigenen Produkte zu sorgen), wenn dies den im Vergleich zum Verkauf eigener Produkte höheren Gewinn verspricht.15 So komplex sich das geschilderte Verhalten von Agenten darstellen kann, bleibt es dennoch durch externe Vorgaben bestimmt und – wenn auch nicht ohne weiteres – vorhersehbar. Allerdings sind diesbezüglich auch Ausnahmen möglich. Wenn beispielsweise als Auswahlregel zur Entscheidung von Regelkonflikten statt prinzipiell vorhersehbarer Entscheidungen (z.B. die Auswahl nach einer festen Reihenfolge oder auf Basis statischer Werte) die Auswahl per Zufallsentscheid festgelegt wird, so weist ein solches System kein determiniertes Verhalten auf.16
2.2 Rechtsgeschäftliche Zurechnung Ein Rechtsgeschäft benötigt mindestens eine sog. Willenserklärung. Dies ist eine Erklärung, die subjektiv vom freien menschlichen Willen getragen ist, überhaupt zu handeln (Handlungswille) und dazu wenigstens objektiv den Eindruck erweckt, dass mit ihr ein Rechtserfolg angestrebt wird (Rechtsbindungswille).
2.2.1 Zurechnungssysteme nach geltendem Recht Für die Zurechnung von automatisiert abgegebenen Willenserklärungen kommen zwei unterschiedliche Konzepte in Betracht, die sich vor allem in ihrer theoretischen Grundannahme, aber auch in ihren praktischen Konsequenzen für die Behandlung fehlerhaften Systemverhaltens unterscheiden.
14 | Schuhr, Jan C.: »Neudefinition tradierter Begriffe. (Pseudo-Zurechnungen an Roboter)«, in: Eric Hilgendorf (Hg.), Robotik im Kontext von Recht und Moral, Baden-Baden: Nomos 2013, S. 13, 17; die Systemtheorie spricht von »deterministisch chaotischem Verhalten«, s. M. ten Hompel/S. Kerner: Logistik 4.0 (Fn. 7), S. 179. 15 | S. Kirn/C. D. Müller-Hengstenberg: Intelligente (Software-)Agenten: Von der Automatisierung zur Autonomie? (Fn. 13), S. 230. 16 | Dies gilt vorbehaltlich etwaiger deterministischer Einflüsse auf die »Zufalls«Ent s cheidung.
185
186
Kai Hofmann/Gerrit Hornung
2.2.1.1 Bote Die herrschende Meinung behandelt für vergleichsweise simple Automatisierungsaufgaben eingesetzte IT-Systeme wie Boten, welche die Willenserklärung ihrer Betreiber nur übermitteln.17 Weil diese Systeme nur vordefinierte Anordnungen ausführen, muss sich der Handlungswille nur allgemein auf die Erklärungstätigkeit beziehen. Im Ergebnis genügt darum bereits die willentliche Aktivierung und Konfiguration des Systems.18 Bei der Beurteilung des objektiven Rechtsbindungswillens spielt der computergenerierte Charakter der Erklärung folglich keine prinzipielle Rolle.19 Der Betreiber trägt nach dieser Logik das Risiko der unbewussten Falschübermittlung seines Willens und muss sich darum die gesamte Erklärungstätigkeit des Systems zurechnen lassen, auch wenn sie auf Fehlern in der Programmroutine beruht. Eine Ausnahme hiervon bildet allein die fehlerhafte Übernahme von Angaben des Betreibers in die Formulierung der Willenserklärung selbst. Bei einem System zum Verkauf von Produkten wäre dies z.B. der Preis, bei einem zum Kauf z.B. die Menge, sofern beide vom Betreiber vorgegeben und nicht vom System selbst ermittelt werden.20 Solche Fehler verhindern zwar nicht von vornherein die Zurechnung, berechtigen den Betreiber aber dazu, sich durch Anfechtung nach § 120 BGB (Anfechtbarkeit wegen falscher Übermittlung) von der Willenserklärung wieder zu lösen,21 wenngleich 17 | BGH, Urt. v. 26.1.2005 – VIII ZR 79/04, Rn. 12, juris; s.a. Section 14 des Uniform Electronic Transaction Acts, hierzu R. Gitter: Softwareagenten im elektronischen Geschäftsverkehr (Fn. 11), S. 162 f f. 18 | OLG Frankfurt, Urt. v. 20.11.2002 – 9 U 94/02, Rn. 28, juris; Spindler, Gerald: »Vorbemerkung §§ 116 f f. BGB«, in: Gerald Spindler/Fabian Schuster (Hg.), Recht der elektronischen Medien, 3. Auflage, München: C. H. Beck 2015, Rn. 6; Cornelius, Kai: »Vertragsabschluss durch autonome elektronische Agenten«, in: Multimedia und Recht 5 (2002), S. 353, 355; Gitter, Rotraud/Roßnagel, Alexander: »Rechtsfragen mobiler Agentensysteme im E-Commerce«, in: Kommunikation und Recht 6 (2003), S. 64, 66; Sester, Peter/Nitschke, Tanja: »Software-Agent mit Lizenz zum …? Vertragsschluss und Verbraucherschutz beim Einsatz von Softwareagenten«, in: Computer und Recht 20 (2004), S. 548, 550. 19 | Kitz, Volker: »Teil 13.1«, in: Thomas Hoeren/Ulrich Sieber/Bernd Holznagel (Hg.), Handbuch Multimedia-Recht. Rechtsfragen des elektronischen Geschäftsverkehrs, Lfg. 37, München: C. H. Beck 2014, Rn. 41 f. 20 | V. Kitz: Teil 13.1, Rn. 211; Spindler, Gerald: »§ 120 BGB«, in: Gerald Spindler/Fabian Schuster (Hg.), Recht der elektronischen Medien, 3. Auflage, München: C. H. Beck 2015, Rn. 11; s. zu einem auf eine Ausschreibung hin abgegebenes Angebot, welche zwar nicht automatisiert abgegeben wurde, dessen Preis aber mit Hilfe von EDV errechnet wurde, BGHZ 139, S. 177, Rn. 13 (juris). 21 | Im Ergebnis BGH, Urt. v. 26.1.2005 – VIII ZR 79/04, Rn. 356, juris, der hierfür jedoch § 119 BGB heranzieht und nur mit dem Rechtsgedanken des § 120 BGB argumen-
Rechtliche Herausforderungen des Internets der Dinge
dies ggf. zur Schadensersatzpflicht gegenüber anderen führt, die auf die Erklärung vertraut haben.
2.2.1.2 Vertreter Aufgrund ihres aus Betreibersicht selbstständigen Verhaltens und ihrer Fähigkeit zur Bewältigung komplexer Aufgaben liegt es nahe, zumindest Agenten als Stellvertreter zu behandeln.22 Der Unterschied zum Boten liegt darin, dass ein Stellvertreter keine fremde Willenserklärung übermittelt, sondern einen eigenen Willen bildet und eine eigene Willenserklärung abgibt, dies jedoch im Namen des Vertretenen, hier also des Betreibers. Die Zurechnung einer Willenserklärung ist dabei nach § 164 BGB von vornherein auf die Vertretungsmacht beschränkt. Überschreitet der Vertreter diese, wird der Vertretene nicht gebunden. Im Gegenzug dazu entfällt das Anfechtungsrecht nach § 120 BGB, weil der Vertreter seine Willenserklärung nach dieser Logik stets selbst bildet. Der Vertretene kann den Vertrag durch Genehmigung an sich ziehen. Tut er dies nicht, muss der Vertreter selbst dem anderen nach § 179 BGB haften. Die Stellvertretungslösung erweist sich jedoch für autonom handelnde Agenten in mehrfacher Hinsicht als problematisch. Erstens müsste nach der Logik des Stellvertreterrechts nach außen hin klar werden, dass es sich um eine eigene Willenserklärung des elektronischen Agenten handelt. Die hierfür notwendige Fähigkeit zur echten freien Willensbetätigung wird Softwareprogrammen jedoch einhellig abgesprochen.23 Zweitens ist nicht klar, nach welchen Kriterien sich die Vertretungsmacht bestimmen soll. Einerseits können hierfür die vom Betreiber dem Agenten gegenüber formulierten Anweisungen oder durch Attributszertifikate spezifizierte Grenzen24 herangezogen werden. Andererseits werden derartige Grenzen im Außenverhältnis durch Rechtsscheintatbestände überlagert, die dazu führen können, dass sich der Vertretene auch anweisungswidrig abgegebene Willenserklärung zurechnen lassen muss. Wird etwa eine Vollmacht durch tiert; a.A. noch Köhler: »Die Problematik automatisierter Rechtsvorgänge, insbesondere von Willenserklärungen«, in: Archiv für die civilistische Praxis 182 (1982), S. 126, 136 f. 22 | Befürwortend Chopra, Samir/White, Laurence F.: A legal theory for autonomous artificial agents, Ann Arbor: University of Michigan Press 2011, S. 69; Schwarz, Georg: »Die rechtsgeschäftliche »Vertretung« durch Softwareagenten«, in: Erich Schweighofer/ Thomas Menzel/Günther Kreuzbauer (Hg.), Auf dem Weg zur ePerson, Wien: Verlag Österreich 2001, S. 65, 68 f. 23 | R. Gitter: Softwareagenten im elektronischen Geschäftsverkehr (Fn. 11), S. 178; R. Gitter/A. Roßnagel: Rechtsfragen mobiler Agentensysteme im E-Commerce (Fn. 18), S. 66; P. Sester/T. Nitschke: Software-Agent mit Lizenz zum …? (Fn. 18), S. 549. 24 | Sorge, Christoph: Softwareagenten. Vertragsschluss, Vertragsstrafe, Reugeld, Karlsruhe: Universitäts-Verlag Karlsruhe 2006, S. 118 f.
187
188
Kai Hofmann/Gerrit Hornung
Mitteilung an einen Dritten oder durch öffentliche Bekanntmachung kundgegeben, so bleibt die Vertretungsmacht nach § 171 BGB ungeachtet etwaiger Beschränkungen im Innenverhältnis wirksam, bis sie auf dieselbe Art widerrufen wird. Bereits die Inbetriebnahme könnte als eine solche Mitteilung gewertet werden, sich sämtliches Handeln des Agenten zurechnen lassen zu wollen.25 Dies würde den Vorteil der Vertreterlösung, die Haftung auf die Vertretungsmacht begrenzen zu können, ins Gegenteil verkehren. Es liegt aber in der Logik der oben genannten Ablehnung einer freien Willensbetätigung des Agenten, weil nur eine solche dazu führen könnte, dass der Rechtsverkehr einen elektronischen Agenten als Vertreter akzeptiert, d.h. die mit seinem Einsatz verbundenen spezifischen Risiken, insbesondere sein nicht ohne weiteres vorhersehbares Verhalten, als erlaubt anerkennt. Drittens verfügen Gegenstände (hier der Agent) mangels Rechtsfähigkeit über kein Vermögen, aus dem die Haftung des Vertreters ohne Vertretungsmacht nach § 179 BGB bestritten werden kann. Dies führt zu einer Benachteiligung desjenigen, der auf die durch den Agenten abgegebene Willenserklärung vertraut.26
2.2.2 Agenten nach geltendem Recht Für die Zurechnung der durch Agenten abgegebenen Willenserklärungen lassen sich an beiden Zuordnungssystemen Anleihen nehmen. Für die Bereiche, in denen sich das System determiniert verhält, sind die Regeln für die Übermittlung durch Boten einschließlich deren Anfechtbarkeit angemessen. Schließlich beruht auch das Verhalten komplexer Systeme vollständig auf den Vorgaben des Betreibers. Für Bereiche, in denen sich das System nichtdeterminiert verhält, ist wie im Recht der Stellvertretung maßgeblich auf das berechtigte Vertrauen der am Rechtsverkehr Beteiligten abzustellen und darum im Ergebnis ebenfalls die gesamte Erklärungstätigkeit zuzurechnen.27 Dies verdeutlicht ein Vergleich zur 25 | Daneben sind im gewerblichen Bereich umfassende Rechtsscheintatbestände zu beachten. Ein Agent zum Produktvertrieb wäre z.B. als Handelsgehilfe einzustufen, dessen Vollmacht sich nach der gesetzlichen Vermutung des § 54 HGB auf alle gewöhnlichen Geschäfte eines vergleichbaren Handelsgewerbes erstreckt – und damit u.U. auch auf den Ankauf fremder Produkte. 26 | P. Bräutigam/T. Klindt: Industrie 4.0, das Internet der Dinge und das Recht (Fn. 4), S. 1138; K. Cornelius: Vertragsabschluss durch autonome elektronische Agenten (Fn. 18), S. 354 f.; R. Gitter/A. Roßnagel: Rechtsfragen mobiler Agentensysteme im E-Comm erce (Fn. 18), S. 66; P. Sester/T. Nitschke: Software-Agent mit Lizenz zum …? (Fn. 18), S. 550. 27 | K. Cornelius: Vertragsabschluss durch autonome elektronische Agenten (Fn. 18), S. 355.
Rechtliche Herausforderungen des Internets der Dinge
Blankounterschrift, zu der ein beauftragter Dritter eine Erklärung ergänzt. Der Unterzeichner muss sich die scheinbar von ihm abgegebene Willenserklärung in diesem Fall in analoger Anwendung der Regeln zur Stellvertretung auch dann zurechnen lassen, wenn der Dritte sie entgegen seiner Vorstellung oder gar seiner Anweisung ausfüllt.28 Wenn dies sogar für das Handeln eines menschlichen Dritten gelte, muss es erst recht für das (rechtlich unselbstständige) Handeln eines Agenten gelten.29
2.2.3 Rechtspolitische Möglichkeiten 2.2.3.1 Haftungsbegrenzung Auf rechtspolitischer Ebene30 wird zur Realisierung eines differenzierten, an die Stellvertretung angelehnten Zurechnungssystems vorgeschlagen, autonome Gegenstände für in begrenztem Maße rechtsfähig zu erklären31 oder sie jedenfalls mit Vermögen auszustatten.32 Würde letzteres in ein öffentliches Re-
28 | Armbrüster, Christian: »§ 119 BGB«, in: Franz J. Säcker/Roland Rixecker (Hg.), Münchener Kommentar zum Bürgerlichen Gesetzbuch. Band 1, 6. Auflage, München: C. H. Beck 2012, Rn. 55. 29 | R. Gitter: Softwareagenten im elektronischen Geschäftsverkehr (Fn. 11), S. 181 f.; R. Gitter/A. Roßnagel: Rechtsfragen mobiler Agentensysteme im E-Commerce (Fn. 18), S. 66; P. Sester/T. Nitschke: Software-Agent mit Lizenz zum …? (Fn. 18), S. 550 f. 30 | Für ein an der gesellschaftlichen Nützlichkeit orientiertes, rechtspolitisches Vorgehen plädieren auch S. Chopra/L. F. White: A legal theory for autonomous artificial agents (Fn. 22), S. 186 f f.; Hildebrandt, Mireille: »From Galatea 2.2 to Watson – And Back?«, in: Mireille Hildebrandt/Jeanne Gaakeer (Hg.), Human Law and Computer Law. Comparative Perspectives, Dordrecht u.a.: Springer 2013, S. 23, 41. 31 | Beck, Susanne: »Über Sinn und Unsinn von Statusfragen – zu Vor- und Nachteilen der Einführung einer elektronischen Person«, in: Eric Hilgendorf (Hg.), Robotik und Gesetzgebung. Beiträge der Tagung vom 7. bis 9. Mai 2012 in Bielefeld, Baden-Baden: Nomos 2013, S. 239, 255 f f.; S. Chopra/L. F. White: A legal theory for autonomous artificial agents (Fn. 22), S. 160 f f., jeweils m.w.N. 32 | Ob Geschäftsfähigkeit mit Rechtsfähigkeit einhergehen muss, ist umstritten. Befürworter einer Trennung von Geschäfts- und Rechtsfähigkeit verweisen auf den Status nicht rechtsfähiger Gewaltunterworfener im römischen Recht (z.B. Sklaven oder Söhne des Hausherrn). Diese konnten mit dem Peculium, einem faktisch ihnen zustehenden Sondervermögen des Hausherrn (pater familias), selbst Geschäfte tätigen, hierzu Pagallo, Ugo: »What Robots Want. Autonomous Machines, Codes and New Frontiers of Legal Responsibility«, in: Mireille Hildebrandt/Jeanne Gaakeer (Hg.), Human Law and Computer Law. Comparative Perspectives, Dordrecht u.a.: Springer 2013, S. 47, 59 f f., m.w.N.
189
190
Kai Hofmann/Gerrit Hornung
gister eingetragen,33 so könnte diese transparente Vermögensmasse eine entsprechende Haftung für die Handlungen des Agenten ermöglichen und zugleich beschränken. Unter dem Blickwinkel einer ökonomischen Analyse sind derartige Vorschläge jedoch kritisch zu betrachten. Rechtsfähigkeit ist keine Eigenschaft, die der Gesetzgeber mehr oder weniger beliebig zuerkennen sollte, sondern erfüllt spezifische Funktionen. Rechtsfähigen Subjekten wird ein grundsätzlich rationales Verhalten unterstellt, auf das der Rechtsverkehr zumindest grundsätzlich angewiesen ist. Teil dieses Verhaltens ist auch, die eigene wirtschaftliche Existenz nicht willkürlich zu gefährden (also ein gewisser »Überlebenswille«). Fehlt es hieran, so können die Kommunikationspartner de facto keine Verhaltenserwartungen bilden, die gerade beim Umgang mit unbekannten Geschäftspartnern essentiell sind. Dieses Problem lässt sich an einem bereits bestehenden Konstrukt eines künstlich geschaffenen und zugleich begrenzten »Agenten« verdeutlichen, nämlich der GmbH. Sie ist als juristische Person rechtsfähig und vom Bestand ihrer Mitglieder und deren Vermögen losgelöst. Gerade diese Abschottung des Haftungsvermögens birgt für den Rechtsverkehr jedoch erhebliche Gefahren, wenn die GmbH ohne weiteres geopfert (d.h. in den Ruin getrieben) werden könnte, um den darin Organisierten die Haftung zu ersparen. Um das »Leben« der juristischen Person und damit den Bestand der Haftungsmasse zu sichern, muss darum auf das Verhalten derer eingewirkt werden, die sie letztlich kontrollieren. Dies erfolgt insbesondere durch Treuepflichten der Gesellschafter gegenüber ihrer Gesellschaft, bei deren Verletzung sie in Abweichung von der Haftungsbegrenzung selbst haften.34 Dieser Ansatz kann nicht einfach auf autonome Gegenstände übertragen werden.35 Anders als bei juristischen Personen würde nämlich die Kontrolle über das die Haftungsmasse belastende Handeln hier gerade nicht durch Menschen (z.B. Gesellschafter), sondern durch die autonomen Gegenstände selbst ausgeübt. Deren Verhalten lässt sich aber nicht mit Rechtspflichten steuern. Es wäre vielmehr erforderlich, ihnen einen Überlebenswillen einzuprogrammie33 | Wettig, Steffen/Zehendner, Eberhard: »The Electronic Agent: A Legal Personality under German Law?«, in: Proceedings of 2nd Workshop The Law and Electronic Agents, 2003, IV.4. 34 | Grigoleit, Hans C.: Gesellschafterhaftung für interne Einflussnahme im Recht der GmbH. Dezentrale Gewinnverfolgung als Leitprinzip des dynamischen Gläubigerschutzes, München: Beck 2006, S. 321 f f.; wir danken Thomas Riehm für wertvolle Hinweise zu dieser Frage. 35 | Ablehnend auch Hanisch, Jochen: »Zivilrechtliche Haftungskonzepte für Robotik«, in: Eric Hilgendorf (Hg.), Robotik im Kontext von Recht und Moral, Baden-Baden: Nomos 2013, S. 27-61.
Rechtliche Herausforderungen des Internets der Dinge
ren, etwa dergestalt, dass sie ihr Vermögen nicht unvernünftig gefährden. Gelingt dies nicht, müsste der Betreiber selbst haften.36 Aus diesem Blickwinkel gerät die Frage nach der Autonomie von Gegenständen eher zu einer empirischen37, denn zu einer rechtsphilosophischen Fragestellung.
2.2.3.2 Spezielle Regelungen für Marktplätze Angesichts dieser beträchtlichen Herausforderungen erscheint es kaum möglich, eine allgemeine gesonderte Rechtsgeschäftslehre für autonome Agenten einzuführen. Vielmehr wird es regelmäßig bei der grundsätzlichen Zurechnung des Handelns zum Betreiber bleiben, der den Einsatz verursacht und regelmäßig von ihm auch wirtschaftlich profitiert. Demgegenüber erscheint es möglich, abweichende Regelungen dort zu treffen, wo innerhalb geschlossener Systeme mehrere Akteure Agenten einsetzen und alle Beteiligten an dieser Form der rechtsgeschäftlichen Tätigkeit ein Interesse haben. Derartige Spezialregelungen mit dem Ziel einer interessengerechten Haftungsbegrenzung wären beispielsweise für die neuen Datenund Dienstemarktplätze der Industrie 4.0 denkbar. Hier könnten – zusammen mit technischen Lösungen für das Problem der Nachweisbarkeit 38 – für alle Teilnehmer bindende Bestimmungen für den Umgang mit Willenserklärungen festgeschrieben werden, die durch Programmfehler beeinflusst sind. Als Vorbild könnten die Mistrade-Regeln der Börsen dienen, welche es der Börsengeschäftsführung erlauben, Geschäfte, die aufgrund von Fehlern in technischen Systemen zu nicht marktgerechten Preisen geschlossen wurden, aufzuheben.39
3 D atenschut zrecht Das Internet der Dinge stellt den Datenschutz gleich in mehrfacher Hinsicht vor enorme Herausforderungen, die zwar einzeln schon bei verschiedenen modernen technischen Innovationen beobachtet werden konnten, sich aber erst hier geballt zeigen.
36 | S. Beck: Über Sinn und Unsinn von Statusfragen (Fn. 31), S. 256. 37 | Für ein empirisches Herangehen zur Bestimmung der Geschäftsfähigkeit S. Chopra/ L. F. White: A legal theory for autonomous artificial agents (Fn. 22), S. 163 f f. 38 | R. Gitter: Softwareagenten im elektronischen Geschäftsverkehr (Fn. 11), S. 343 f f. 39 | Schäfer, Ulrike: »§ 13«, in: Heinz-Dieter Assmann/Rolf A. Schütze (Hg.), Handbuch des Kapitalanlagerechts, 4. Auflage, München: C. H. Beck 2015, Rn. 40.
191
192
Kai Hofmann/Gerrit Hornung
3.1 Spezifische Risiken Das auffälligste Gefahrenpotential wohnt sicherlich der Fähigkeit zur allgegenwärtigen automatisierten Datenerhebung40 inne, die zur Erstellung feingranularer Persönlichkeits- und Verhaltensprofile41 und zum automatisierten Treffen von mitunter einschneidenden Entscheidungen genutzt werden kann.42 Damit steht zu befürchten, dass sich der – prinzipiell von jeder Verarbeitung personenbezogener Daten ausgehende – Druck auf den Betroffenen, abweichende Verhaltensweisen zu unterlassen,43 durch Anwendungen des Internets der Dinge erheblich intensiviert. Dieses Risiko wird durch die Möglichkeit der vom Menschen weitgehend unbemerkten Datenerhebung vergrößert.44 Diese erschwert den technischen Selbstdatenschutz und die Ermittlung der verantwortlichen Stelle.45 Die Folge ist eine erheblich verkomplizierte Rechtsdurchsetzung.
3.2 Prinzipien des Datenschutzrechts 3.2.1 Personenbezug Die einschlägigen Datenschutzgesetze regeln die Erhebung, Verarbeitung und Nutzung personenbezogener Daten. Ihr Anwendungsbereich ist darum nur eröffnet, wenn – so die Legaldefinition in § 3 Abs. 1 BDSG – die betreffenden Daten Angaben über eine wenigstens bestimmbare natürliche Person enthalten. Bei der Beurteilung der Bestimmbarkeit sind sämtliche Informationen zu berücksichtigen, die für die verantwortliche Stelle mit verhältnismäßigem Aufwand zu ermitteln sind.
3.2.2 Verbotsprinzip Nach dem sog. Verbotsprinzip des § 4 Abs. 1 BDSG bedarf jede Erhebung, Verarbeitung und Nutzung (oft als »Umgang« zusammengefasst) von personenbezogenen Daten entweder eines gesetzlichen Erlaubnistatbestandes oder der Einwilligung des Betroffenen.
40 | A. Roßnagel: Datenschutz in einem informatisierten Alltag (Fn. 2), S. 87 f f., m.w.N. 41 | Ebd., S. 96 f f., m.w.N.; zu den Risiken der Profilbildung allgemein Schnabel, Christoph: Datenschutz bei profilbasierten Location Based Services. Die datenschutzadäquate Gestaltung von Service-Plattformen für Mobilkommunikation, Kassel: Kassel Univ. Press 2009, S. 171 f f. 42 | M. Friedewald et al.: Ubiquitäres Computing (Fn. 2), S. 209 f., m.w.N. 43 | S. schon im Jahre 1983: BVerfGE 65, S. 1 (43). 44 | A. Roßnagel: Datenschutz in einem informatisierten Alltag (Fn. 2), S. 85 f. 45 | M. Friedewald et al.: Ubiquitäres Computing (Fn. 2), S. 211.
Rechtliche Herausforderungen des Internets der Dinge
Unabhängig von der Rechtsgrundlage muss jeder Umgang mit personenbezogenen Daten einen konkreten Zweck verfolgen, der bereits bei der Erhebung festzusetzen ist. Im Falle der Einwilligung tut dies der Betroffene selbst. Im Falle des für Anwendungen des Internets der Dinge hauptsächlich relevanten gesetzlichen Erlaubnistatbestands für den nicht-öffentlichen Bereich, § 28 Abs. 1 S. 1 Nr. 1 und § 32 Abs. 1 S. 1 BDSG46 sowie für Telemedien47 § 14 und § 15 TMG, ergibt sich die Zwecksetzung aus dem zwischen der verantwortlichen Stelle und dem Betroffenen geschlossenen Vertrag bzw. der Eigenart des Telemediendienstes.
3.2.3 Zweckbindung und Erforderlichkeitsprinzip Für die Prüfung der Rechtmäßigkeit des Datenumgangs kommt der Zwecksetzung eine doppelte Bedeutung zu. Der Zweck des Datenumgangs definiert zum einen generell dessen äußere Grenze. Deshalb bedarf etwa auch ein Datenumgang, in den der Betroffene der Art und dem Umfang nach eingewilligt hat, bei einer Zweckänderung einer neuen Rechtsgrundlage. Im Rahmen der gesetzlichen Erlaubnistatbestände hat die Zwecksetzung zum anderen auch entscheidenden Einfluss auf den Inhalt des zulässigen Datenumgangs. Dieser richtet sich – anders als bei der Einwilligungslösung – nicht nach der einseitigen Festlegung des Betroffenen, sondern nach dem Zweck des einvernehmlich begründeten Schuld- oder Nutzerverhältnisses. Art und Umfang des Datenumgangs sind nach dem Erforderlichkeitsprinzip auf das für die Erreichung dieses Zwecks notwendige Mindestmaß zu beschränken. Die Zwecksetzung als Bezugspunkt dieser Prüfung wirkt sich damit auf die Zulässigkeit des Datenumgangs vorentscheidend aus.
3.2.4 Transparenz Die verantwortliche Stelle hat den Umgang mit personenbezogenen Daten – unabhängig davon, ob er auf der Grundlage der Einwilligung des Betroffenen oder eines gesetzlichen Erlaubnistatbestandes geschieht – stets transparent zu gestalten. Hierzu muss die Datenerhebung grundsätzlich für den Betroffenen
46 | Die Norm folgt denselben Prinzipien wie § 28 Abs. 1 S. 1 Nr. 1 BDSG. Zum Arbeitnehmerdatenschutz in der Industrie 4.0, s. Hornung, Gerrit/Hofmann, Kai: »Datenschutz als Herausforderungen der Arbeit in der Industrie 4.0«, in: Hartmut Hirsch-Kreinsen (Hg.), Digitalisierung industrieller Arbeit. Die Vision Industrie 4.0 und ihre sozialen Herausforderungen, Baden-Baden: Nomos 2015, S. 163-182. 47 | Telemedien sind nach § 1 Abs. 1 S. 1 TMG ein Sammelbegriff für Informationsund Kommunikationsdienste, die (vereinfacht) weder Rundfunk, noch Telekommunikationsdienste darstellen. Hierunter fallen vor allem Websites, aber auch die meisten Assistenzsysteme.
193
194
Kai Hofmann/Gerrit Hornung
erkennbar sein48 und mit der Information über die Identität der verantwortlichen Stelle sowie die Art, den Umfang und die Zwecksetzung des Datenumgangs einhergehen. Die Betroffenen sollen damit in die Lage versetzt werden, den Umgang mit ihren personenbezogenen Daten zu erfassen, um einerseits Maßnahmen des Selbstdatenschutzes vornehmen und andererseits Betroffenenrechte ausüben zu können.
3.3 Problematische Phänomene im Einzelnen 3.3.1 Massenhafte Verarbeitung und Verkettung in Hintergrundsystemen Das Internet der Dinge zeichnet sich u.a. durch einen verstärkten Einsatz von Sensorik aus, die etwa im eigenen Haus oder Auto, im Warenhaus oder am Arbeitsplatz installiert oder gar am Körper getragen wird. Ihre Internetverbindung ermöglicht es, diese Gegenstände zu vernetzen und die so erhobenen Daten untereinander oder mit Hintergrunddatenbanken auszutauschen und miteinander zu verknüpfen. Infolge dieser Entwicklung werden nicht nur mehr Daten erhoben und verarbeitet. Mit der steigenden Anzahl an Verknüpfungsmöglichkeiten steigt auch die Wahrscheinlichkeit, dass diese Daten einen Personenbezug aufweisen. Die Person muss nämlich nicht bereits anhand der betreffenden Angabe bestimmt sein. Der Personenbezug kann sich aus Sicht der verantwortlichen Stelle auch durch die Verknüpfung mit personenbezogenen49 oder sogar erst aus der Kombination mit nicht personenbezogenen Daten ergeben.50 Ob dies tatsächlich der Fall ist, wird selbst der Betreiber der Systeme nicht immer zuverlässig ermitteln können. Auf regulatorischer Ebene werden für solche datenintensiven Anwendungen verpflichtende Prognosen des Personenbezugs durch Risikoanalysen51 oder sogar die widerlegliche Vermutung des Personenbezugs vorgeschlagen.52 Auf technischer 48 | Bäcker, Matthias: »§ 4 BDSG«, in: Heinrich A. Wolff/Stefan Brink (Hg.), Beck’scher Online-Kommentar Datenschutzrecht, 12. Edition, München: C. H. Beck 01. Mai 2015, Rn. 29. 49 | Z.B. eine Transponder-ID, die einer Kundennummer zugeordnet ist, zu der wiederum ein Name hinterlegt ist. 50 | M. Friedewald et al.: Ubiquitäres Computing (Fn. 2), S. 210 f.; Schefzig, Jens: »Big Data = Personal Data? Der Personenbezug von Daten bei Big Data-Analysen«, in: Kommunikation und Recht 17 (2014), S. 772, 775; Skistims, Hendrik/Voigtmann, Christian/ David, Klaus/Roßnagel, Alexander: »Datenschutzgerechte Gestaltung von kontextvorhersagenden Algorithmen«, in: Datenschutz und Datensicherheit 36 (2012), S. 31, 35. 51 | Roßnagel, Alexander: »Big Data – Small Privacy? Konzeptionelle Herausforderungen für das Datenschutzrecht«, in: Zeitschrift für Datenschutz 3 (2013), S. 562, 566. 52 | Möller, Jan/Bizer, Johann: »Datenschutzrechtliche Risiken des Ubiquitous Computing und rechtliche Möglichkeiten des Risikomanagements«, in: Unabhängiges Landes-
Rechtliche Herausforderungen des Internets der Dinge
Ebene werden neuartige, auf der Zerlegung und Verwürfelung von Datensätzen basierende Methoden der Anonymisierung für erfolgversprechend gehalten.53 Des Weiteren stellt sich die Frage, inwiefern angesichts der skizzierten Risiken gesetzliche Erlaubnistatbestände überhaupt zur Rechtfertigung des Datenumgangs in Anwendungen des Internets der Dinge herangezogen werden können. Bei der Durchführung von Schuld- oder Nutzerverhältnissen ist es durchaus denkbar, dass – soweit kein Transparenzdefizit besteht, der Betroffene also weiß, worauf er sich einlässt54 – auch ein intensiver Umgang mit personenbezogenen Daten zulässig ist.55 Hintergrund ist, dass der jeweilige Verarbeitungszweck im gegenseitigen Einvernehmen festgelegt wurde. Das Datenschutzrecht knüpft hier also lediglich an die Legitimitätsvorstellungen der Parteien an.56 Innerhalb der konsensualen Zweckbestimmung muss der Datenumgang dem Erforderlichkeitsprinzip genügen. Hat ein Versicherungsnehmer etwa ein Versicherungsmodell gewählt, bei dem die Prämie vom Fahrstil abhängt, darf dieser auch ohne seine zusätzliche Einwilligung ermittelt werden. Lässt sich das Schadensrisiko aber bereits hinreichend aus Art und Anzahl der Beschleunigungs- und Bremsvorgänge sowie der Tageszeit der Fahrten ermitteln,57 so ist insbesondere eine Ortung des Fahrzeugs nicht erforderlich. Das Erforderlichkeitsprinzip bezieht sich dabei stets nur auf personenbezogene Daten und lässt darum auch datenintensive Anwendungen unberührt, wenn diese anonym oder unter Verwendung eines für die verantwortliche Stelle nicht personenbezogenen Pseudonyms genutzt werden können. Ein »intelzentrum für Datenschutz Schleswig-Holstein (ULD); Institut für Wirtschaftsinformatik, HU Berlin (IWI), TAUCIS. Technikfolgenabschätzung Ubiquitäres Computing und Informationelle Selbstbestimmung, Kiel/Berlin: 2006, https://www.datenschutzzentrum. de/t aucis/ita_taucis.pdf, vom 12. August 2015, S. 198, 223 f. 53 | Weichert, Thilo: »Big Data und Datenschutz. Chancen und Risiken einer neuen Form der Datenanalyse«, in: Zeitschrift für Datenschutz 3 (2013), S. 251, 258 f. 54 | Siehe zu den Transparenzpflichten 3.2.4. 55 | A. Roßnagel: Datenschutz in einem informatisierten Alltag (Fn. 2), S. 123; C. Schnabel: Datenschutz bei profilbasierten Location Based Services (Fn. 41), S. 208 f.; ULD: Juristische Fragen im Bereich Altersgerechter Assistenzsysteme (Fn. 2), S. 45; a.A., wenngleich ohne nähere Begründung M. Friedewald et al.: Ubiquitäres Computing (Fn. 2), S. 214. 56 | Zur Begrenzung der vertraglich vereinbarten Zwecke können die Regelungen zur Einbeziehung von AGB angewendet werden, dazu Schnabel, Christoph/Freund, Bernhard: »›Ach wie gut, dass niemand weiß …‹. Selbstdatenschutz bei der Nutzung von Telemedienangeboten«, in: Computer und Recht 26 (2010), S. 718, 720. 57 | S. Telefónica Germany: Datenschutzerklärung O2 Car Connection, o.J., http://sta tic2.o2.de/blob/11879820/v=5/Binary/agb-car-connection-pdf-download.pdf, vom 12. August 2015.
195
196
Kai Hofmann/Gerrit Hornung
ligenter Einkaufskorb«58 etwa, auf den ein Einkaufszettel übertragen werden kann und der dem Kunden sodann den Weg zu den begehrten Produkten weist oder die Zwischensumme des aktuellen Einkaufswertes darstellt, kann hierfür Informationen wie den Inhalt des Einkaufszettels, den eigenen Standort und die Transponder-ID der Waren59 verwenden, solange er nicht auch die Identität des Kunden in Erfahrung bringt.
3.3.2 Lautlose Datenerhebung in unübersichtlichen Strukturen Der technische Prozess der Datenerfassung erfolgt bei Anwendungen des Internets der Dinge typischerweise permanent und allgegenwärtig, ohne dass dies der Betroffene bemerken würde60 oder – im Falle von möglichst unaufdringlichen Assistenzsystemen61 – überhaupt bemerken wollte. Dies berührt zum einen die Erfüllung der gesetzlichen Informationspflichten und zum anderen das Einholen eventuell notwendiger Einwilligungen des Betroffenen. In überschaubaren Strukturen, wenn die Anwendungen von einem dem Betroffenen bekannten Anbieter bereitgestellt werden – etwa im Arbeits- oder im Versicherungsvertragsverhältnis –, erwachsen hieraus keine besonderen Probleme. Das Erbringen der Leistung kann hier mit umfassenden Vorab-Informationen einhergehen,62 in deren Rahmen auch komplexe, den gesamten Vorgang abdeckende Einwilligungen eingeholt werden können.
3.3.2.1 Information des Betroffenen Als problematisch erweisen sich spontane Datenerhebungen, die außerhalb von auf Beständigkeit angelegten Verantwortlichkeitsgefügen stattfinden. Die Information des Betroffenen gerät bereits aufgrund der schieren Menge der Verantwortlichen und der Verarbeitungsprozesse sowie damit der Informationsanlässe zum Problem. Darüber hinaus fehlen nicht selten geeignete technische Mittel zur übersichtlichen Darstellung63 dieser Informationen. 58 | M. Friedewald et al.: Ubiquitäres Computing (Fn. 2), S. 150. 59 | S. Holznagel, Bernd/Bonnekoh, Mareike: »Rechtliche Dimensionen der Radio Frequency Identification«, in: Hans-Jörg Bullinger/Michael ten Hompel (Hg.), Internet der Dinge. www.internet-der-dinge.de, Berlin/Heidelberg: Springer 2007, S. 365, 367 f f.; Urban, Arnd I./Roßnagel, Alexander/Jandt, Silke/Löhle, Stephan, et al.: RFID zur Weiterentwicklung der Kreislaufwirtschaft. Datenschutzgerecht Ressourcen schonen, Marburg: Metropolis 2011, S. 66 f. 60 | J. Möller/J. Bizer: Datenschutzrechtliche Risiken des UbiComp (Fn. 52), S. 204. 61 | ULD: Juristische Fragen im Bereich Altersgerechter Assistenzsysteme (Fn. 2), S. 54. 62 | J. Möller/J. Bizer: Datenschutzrechtliche Risiken des UbiComp (Fn. 52), S. 225. 63 | A. Roßnagel: Datenschutz in einem informatisierten Alltag (Fn. 2), S. 134; S. für den Einsatz von RFID-Technik J. Möller/J. Bizer: Datenschutzrechtliche Risiken des UbiComp (Fn. 52), S. 208.
Rechtliche Herausforderungen des Internets der Dinge
Die verantwortliche Stelle muss in solchen Fällen wenigstens selbsterklärende und einheitliche Symbole 64 anbringen, mit denen sie die Datenerhebung selbst und ihre Verantwortlichkeit dafür kenntlich macht.65 Bei sog. mobilen personenbezogenen Speicher- und Verarbeitungsmedien (bisher zumeist Mikroprozessorchipkarten oder wiederbeschreibbare RFID-Transponder)66 wird zudem nach § 6c BDSG die ausgebende Seite verpflichtet, den Betroffenen im Vorfeld u.a. über ihre Identität und die Funktionsweise des Mediums einschließlich der Art der zu verarbeitenden personenbezogenen Daten zu informieren. Auch sog. Smart Devices können unter diese Regelung fallen, sofern sie über Bereiche verfügen, die der Kontrolle des Nutzers entzogen sind.67
3.3.2.2 Einholen der Einwilligung Im Gegensatz zu einer auf gesetzlichen Erlaubnistatbeständen basierten Datenverarbeitung kann sich der Verantwortliche nicht darauf beschränken, die Datenverarbeitung erkennbar zu machen und Informationen bereitzuhalten. Die Einwilligung des Betroffenen erfordert vielmehr dessen aktives Tun, wofür er nach herkömmlichem Verständnis vom Verantwortlichen einzeln angesprochen und informiert werden muss. Unter den Gegebenheiten spontaner und von verschiedenen Verantwortlichen ausgeführter Datenerhebung für jeden Vorgang eine Einwilligung zu verlangen, würde den Betroffenen jedoch letztlich zu Pauschallösungen zwingen und damit der Aufgabe dieses Selbstbestimmungsinstruments gleichkommen.68 Gängige Lösungsansätze in der Praxis bestehen darin, die Unbrauchbarkeit der Einwilligung hinzunehmen und auf den Umgang mit personenbezogenen Daten zu verzichten. So wird für RFIDTransponder empfohlen, diese entweder nach Erfüllung ihres Primärzwecks unbrauchbar zu machen69 oder von vornherein nur solche Chips zu verwenden,
64 | Hierzu liegt eine technische Norm vor, s. EU-Kommission: Pressemitteilung IP/ 14/889. 65 | Nr. 8 der Empfehlungen der EU-Kommission 2009/387/EG; J. Möller/J. Bizer: Datenschutzrechtliche Risiken des UbiComp (Fn. 52), S. 225. 66 | B. Holznagel/M. Bonnekoh: Rechtliche Dimensionen der Radio Frequency Identification (Fn. 59), S. 384; Hornung, Gerrit: »§ 6c BDSG«, in: Heinrich A. Wolff/Stefan Brink (Hg.), Beck’scher Online-Kommentar Datenschutzrecht, 12. Edition, München: C. H. Beck 01. Mai 2015, Rn. 14; A. I. Urban et al.: RFID zur Weiterentwicklung der Kreislaufwirtschaft (Fn. 59), S. 92 f f. 67 | G. Hornung: § 6c BDSG (Fn. 66), Rn. 14. 68 | A. Roßnagel: Datenschutz in einem informatisierten Alltag (Fn. 2), S. 137, jeweils m.w.N. 69 | Nr. 11 der Empfehlungen der EU-Kommission 2009/387/EG; Kreislaufwirtschaft.
197
198
Kai Hofmann/Gerrit Hornung
die keine Herstellung eines Personenbezugs erlauben.70 Freilich stoßen solche Vorschläge an Grenzen, wenn verkettete Daten nachträglich und unkalkulierbar zur Personenbeziehbarkeit führen.
3.3.2.3 Automatisierung des Privatsphäreschutzes Die Automatisierung könnte jedoch – in den Dienst des Betroffenen gestellt – auch dazu beitragen, die selbst geschaffenen Probleme im Hinblick auf Transparenz und Betroffenenbeteiligung zu lösen. Hierfür werden »Datenschutz-Warner« 71 oder »Datenschutzagenten« 72 vorgeschlagen, die den Betroffenen bei der Wahrnehmung seiner Rechte unterstützen. Dazu sollen sie Datenerhebungen erkennen, die mitgelieferten Informationen erfassen und – je nach Relevanz oder Verlangen – den Betroffenen hiervon unterrichten. Wird dabei auch die Einwilligung des Betroffenen abgefragt, sollen sie in der Lage sein, diese – wie im Fall der oben erläuterten Willenserklärungen – nach vordefinierten Präferenzen selbsttätig zu erteilen oder zu verweigern. Voraussetzung ist freilich, dass die verantwortlichen Stellen maschinenlesbar und vor allem zutreffend73 über Zweck und Umfang der Datenverarbeitung informieren.74 Darüber hinaus darf die Handhabung den Nutzer nicht überfordern. Beides sind offenbar keine geringen Voraussetzungen. Ein erster Ansatz für automatisierte Einwilligungen im WWW auf der Basis von Nutzereinstellungen, das P3P-Projekt,75 hat sich jedenfalls – ungeachtet der Frage der rechtlichen Zulässigkeit 76 – bisher nicht durchsetzen können.77
70 | A. I. Urban et al.: RFID zur Weiterentwicklung der Kreislaufwirtschaft (Fn. 59), S. 195. 71 | A. Roßnagel: Datenschutz in einem informatisierten Alltag (Fn. 2), S. 159 f f. 72 | Ebd., S. 161 f. 73 | Die P3P Privacy-Settings wurden beispielsweise von Google umgangen, s. Hacha movitch, Dean: Google Bypassing User Privacy Settings, 2015, http://blogs.msdn.com/ b/ie/archive/2012/02/20/google-bypassing-user-privacy-settings.aspx, vom 12. August 2015. 74 | Kritisch darum Berthold, Oliver/Günther, Oliver/Spiekermann, Sarah: »RFID. Verbraucherängste und verbraucherschutz«, in: Wirtschaftsinformatik 47 (2005), S. 422, 426 f. 75 | www.w3.org/P3P/; s.a. Möller, Jan: »Automatisiertes Management von Datenschutzrechten«, in: Datenschutz und Datensicherheit 30 (2006), S. 98, 99. 76 | Lohse, Christina/Janetzko, Dietmar: »Technische und juristische Regulationsmodelle des Datenschutzes am Beispiel von P3P«, in: Computer und Recht 17 (2001), S. 55, 59 f f. 77 | Elixmann, Robert: Datenschutz und Suchmaschinen. Neue Impulse für einen Datenschutz im Internet, Berlin: Duncker & Humblot 2012, S. 204.
Rechtliche Herausforderungen des Internets der Dinge
3.3.3 Vom Internet der Dinge zum Internet der Dienste Das Internet der Dinge liefert mit seinen umfassenden und gut verfügbaren Datenbeständen den Rohstoff für komplexe, auf intensiver Datenanalyse aufbauende Dienstleistungen. So können etwa Assistenzsysteme realisiert werden, die sich automatisch den Vorlieben ihres Nutzers anpassen und sein Verhalten für ihre Aktionen antizipieren.78 Der dafür notwendige Einsatz kontextvorhersagender Algorithmen stellt eine Herausforderung für die datenschutzrechtlich geforderte Gewährleistung des Zweckbindungs- und Erforderlichkeitsprinzips dar. Kontextvorhersagen schöpfen zwar aus einer bestimmten Anzahl an Parametern. Welche davon für die konkrete Vorhersage tatsächlich herangezogen werden und welche sich aufgrund der Umstände stattdessen als irrelevant erweisen, steht aber im Vorhinein nicht fest.79 Die Erforderlichkeit kann daher nicht mit Blick auf die konkrete Vorhersage bestimmt werden. Entscheidend ist vielmehr, welche Vorhersagequalität die jeweilige Aufgabe benötigt und welcher Datenumgang zur Gewährleistung dieser Qualität notwendig ist.80 Hierzu muss die Aufgabe konkret festgelegt werden,81 im Smart Home etwa die Steuerung (1) des Weckers, (2) des Lichts, (3) der Heizung, (4) der Kaffeemaschine usw.82 Datenkategorien, die sich auf die Vorhersagequalität nicht auswirken, dürfen nicht erhoben werden; einzelne Datensätze, die für weitere Vorhersagen nicht mehr benötigt werden, sind nach geltendem Recht zu löschen.83
78 | Etwa die Heizung, die sich nach der erwarteten Rückkehr der Bewohner richtet, s. Hansen, Markus/Fabian, Benjamin/Klafft, Michael: »Anwendungsfelder«, in: Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (ULD); Institut für Wirtschaftsinformatik, HU Berlin (IWI), TAUCIS. Technikfolgenabschätzung Ubiquitäres Computing und Informationelle Selbstbestimmung, Kiel/Berlin: 2006, Internet: https:// www.datenschutzzentrum.de/taucis/ita_taucis.pdf, vom 12. August 2015, S. 45, 48 f.; H. Skistims et al.: Datenschutzgerechte Gestaltung von kontextvorhersagenden Algorithmen (Fn. 50), S. 31, m.w.N. 79 | H. Skistims et al.: Datenschutzgerechte Gestaltung von kontextvorhersagenden Algorithmen, S. 34. 80 | Ebd. 81 | Unzulässig wäre es darum nur eine abstrakte oder gar keine Zweckbestimmung zu wählen, so auch A. Roßnagel: Big Data – Small Privacy? (Fn. 51); T. Weichert: Big Data und Datenschutz (Fn. 53), S. 256. 82 | S. hierzu die Beschreibung des »intelligenten Hauses« bei M. Hansen/B. Fabian/M. Klafft: Anwendungsfelder (Fn. 78), S. 48 f f. 83 | A. Roßnagel: Big Data – Small Privacy? (Fn. 51), S. 565; H. Skistims et al.: Datenschutzgerechte Gestaltung von kontextvorhersagenden Algorithmen (Fn. 50), S. 35.
199
200
Kai Hofmann/Gerrit Hornung
Ungeachtet des Datenumgangs zur Ermittlung der konkreten Vorhersage unterliegt auch die hierauf beruhende Entscheidung bestimmten Grenzen. Nach § 6a BDSG dürfen Entscheidungen, die eine rechtliche Folge oder erhebliche Beeinträchtigungen nach sich ziehen, nicht allein auf die automatisierte Bewertung von Persönlichkeitsmerkmalen gestützt werden. Reine Komfortdienste,84 aber auch nutzerangepasste Werbung, werden von diesem Verbot nicht erfasst. Gleiches gilt für Entscheidungen, die – wie der Vertragsschluss durch Agenten – dem Nutzer selbst zugeordnet werden.85 Als problematisch erweist sich jedoch die Möglichkeit, Entscheidungen, wie sie bisher vor allem im Kreditscoring anzutreffen sind, auch in weiten Teilen des Alltags anzuwenden. Denkbar wäre z.B., in Geschäften personalisiert verschiedene Preise anzuzeigen oder gar den Zutritt zum Geschäft zu regulieren.86 Soweit dadurch nicht Bestkonditionen gewährt werden, ist derlei nur zulässig, wenn der Betroffene auf die automatisierte Entscheidungsfindung und die Möglichkeit, dazu Stellung zu nehmen,87 hingewiesen wird und ihm auf Verlangen die wesentlichen Gründe dieser Entscheidung mitgeteilt werden. Diese Informationen könnten in die technischen Maßnahmen zur Gewährleistung der Transparenz88 einbezogen werden. Nach der Rechtsprechung des BGH muss der für die automatisierte Entscheidung Verantwortliche allerdings nicht über die Scoringformel Auskunft geben.89 Das daraus entstehende Informationsungleichgewicht könnte sich perspektivisch massiv negativ auf die Betroffenen auswirken, wenn diese in immer mehr Lebensbereichen aufgrund nicht oder nur begrenzt beeinflussbarer Persönlichkeitsmerkmale spürbare Nachteile erfahren. Ob dem mit verschiedenen Ansätzen einer rechtlichen Algorithmenkontrolle90 entgegengewirkt werden kann, ist derzeit völlig offen. 84 | A. Roßnagel: Datenschutz in einem informatisierten Alltag (Fn. 2), S. 151. 85 | Ebd., S. 151 f., Fn. 161, im Ergebnis auch J. Möller/J. Bizer: Datenschutzrechtliche Risiken des UbiComp (Fn. 52), S. 217 f. 86 | Ebd., S. 215. 87 | Dies stellt die in der Praxis am weitesten verbreitete Möglichkeit der in § 6a Abs. 2 Nr. 2 BDSG geforderten, geeigneten Maßnahmen zur Wahrung der berechtigten Interessen des Betroffenen dar, s. Lewinski, Kai von: »§ 6a BDSG«, in: Heinrich A. Wolff/Stefan Brink (Hg.), Beck’scher Online-Kommentar Datenschutzrecht, 12. Edition, München: C. H. Beck 01. Mai 2015, Rn. 43. 88 | Hierzu 3.3.2.3. 89 | BGHZ 200, S. 38-51; kritisch hierzu Hornung, Gerrit: »Datenverarbeitung der Mächtigen bleibt intransparent«, in: Legal Tribune Online, http://www.lto.de/persist ent/ a_id/10816/, vom 17. Juni 2015; Weichert, Thilo: »Scoring in Zeiten von Big Data«, in: Zeitschrift für Rechtspolitik 47 (2014), S. 168, 169 f. 90 | Martini, Mario: »Big Data als Herausforderung für den Persönlichkeitsschutz und das Datenschutzrecht«, in: Deutsches Verwaltungsblatt 129 (2014), S. 1481, 1488 f.
Rechtliche Herausforderungen des Internets der Dinge
3.4 »Data ownership« als Ausweg? Praktisch seit den Anfängen des Datenschutzrechts werden immer wieder Vorschläge vorgebracht, die Beziehung zwischen den Betroffenen und »ihren« Daten in mehr oder weniger enger Anlehnung an das Eigentumsrecht zu konstruieren.91 In der (deutschen und europäischen)92 wissenschaftlichen Diskussion haben sich diese Ansätze nie durchsetzen können, und auch das Bundesverfassungsgericht hat sich mit dem Recht auf informationelle Selbstbestimmung von Beginn an auf die Seite derjenigen geschlagen, die Datenschutz kommunikationsorientiert verstehen und rechtlich im Bereich des Schutzes von Persönlichkeitsrechten verankern. Interessanterweise lässt sich aktuell beobachten, dass unter dem englischen Begriff einer »data ownership« neue – oftmals ausschließliche – Nutzungsbefugnisse an Daten reklamiert werden, die in vernetzten Alltagssituationen entstehen. Dies gilt beispielsweise für das vernetzte Automobil und die durch dieses erzeugten Daten, für die VW-Chef Winterkorn schlicht behauptet: »Die Daten gehören uns!«93 Mit derartigen Ansprüchen versuchen verschiedene Akteure, ihre Position nicht nur gegenüber den Betroffenen, sondern auch gegenüber neuen Anbietern zu behaupten, die entweder innovative Dienstleistungen erbringen oder neue »Datenmarktplätze« in hergebrachten Wertschöpfungsketten installieren und damit versuchen, in erheblichem Maße Gewinne umzulenken. Aus Sicht der Betroffenen ist die Idee eines Dateneigentums ambivalent. Zum einen besteht die Gefahr, dass Daten – einmal »verkauft« – dem Einfluss des Einzelnen entzogen würden. Mit geltendem Recht (etwa den verfassungsrechtlichen Anforderungen des Rechts auf informationelle Selbstbestimmung und den Betroffenenrechten auf Auskunft, Berichtigung, Löschung oder Sperrung, die nach § 6 Abs. 1 BDSG nicht durch Rechtsgeschäft ausgeschlossen werden können) wäre dies nicht vereinbar. Zum anderen könnte sich aus der »data ownership«-Idee ein Hebel für eine finanzielle Beteiligung der Betroffenen an der wirtschaftlichen Nutzung der sie betreffenden Daten ergeben. 91 | G. Hornung/T. Goeble: »Data Ownership« im vernetzten Automobil (Fn. 6); H. Zech: Daten als Wirtschaftsgut – Überlegungen zu einem »Recht des Datenerzeugers« (Fn. 6); jeweils m.w.N. 92 | Vorschläge aus den USA (z.B. Samuelson, Pamela: »Privacy As Intellectual Property?« Stanford Law Review 52 (2000), S. 1125 f f.; Schwarz, Paul: »Property, Privacy, and Personal Data«, in: Harvard Law Review 117 (2004), S. 2056, 2094 f f.) sind nur sehr eingeschränkt übertragbar, da sie dort angesichts des Fehlens grundrechtlicher Standards und allgemeiner Datenschutzgesetze klar auf die Stärkung des Datenschutzes zielen. 93 | Hawranek, Dietmar/Rosenbach, Marcel: »Rollende Rechner«, in: Der Spiegel, Ausgabe 11 vom 7. März 2015, S. 64.
201
202
Kai Hofmann/Gerrit Hornung
Derzeit werden viele innovative Dienste paradoxerweise zu teuer bezahlt, obwohl sie kostenlos genutzt werden können – die als »Gegenleistung« bereitgestellten Daten ermöglichen überproportional hohe Gewinne oder zumindest Gewinnerwartungen, wie sich an den Börsenkursen der einschlägigen Unternehmen ablesen lässt. Sollte es gelingen, diejenigen an diesen Gewinnen zu beteiligen, die das Rohmaterial für die jeweiligen Dienste bereitstellen, so wäre nicht wenig gewonnen.
4 A usblick : S tärken und G renzen rechtsdogmatischer F iguren Im Vergleich der beiden Rechtsgebiete zeigen sich Gemeinsamkeiten und Unterschiede. Sowohl das Vertragsrecht als auch das Datenschutzrecht werden durch die technisch-sozialen Innovationen des Internets der Dinge vor neue Herausforderungen gestellt. Die Problemverarbeitung ist indes deutlich unterschiedlich. Im Zivilrecht lässt sich eine vergleichsweise unaufgeregte Diskussion beobachten, die sich im Wesentlichen darum dreht, welche der bisher anerkannten dogmatischen Figuren (Botenschaft, Stellvertretung etc.) für (teil‑) autonome Systeme am angemessensten erscheint. Die angewendeten Rechtsgrundlagen des BGB existieren bereits seit dem Jahre 1900, die Dogmatik selbst ist sogar sehr viel älter. Offenbar sind diese Instrumente auch für das Internet der Dinge flexibel genug; freilich wird die konkrete Entscheidung über ihre Anwendung gerade wegen dieser Flexibilität den Gerichten obliegen. Anders im Datenschutzrecht: Dort herrscht angesichts von Vernetzung und allgegenwärtiger Datenverarbeitung eher das Gefühl konzeptioneller Probleme vor. Ein Grund liegt darin, dass die Systematik des Datenschutzrechts relativ jung ist und in weiten Teilen immer noch auf die Zeiten zurückgeht, in denen Persönlichkeitsrechte durch solitäre staatliche Großrechenanlagen gefährdet wurden94 – nicht durch vernetzte, vielfach privat bereitgestellte Alltagsgegenstände. Überdies führt der relativ hohe Regulierungsgrad dazu, dass der Gesetzgeber anstelle der Gerichte auf neue Herausforderungen reagieren muss. Neue Figuren wie die einer data ownership bewegen sich dabei vielfach auf unsicherem Terrain. Es überrascht deshalb wenig, dass die aktuelle euro-
94 | Näher Roßnagel, Alexander/Pfitzmann, Andreas/Garstka, Hansjürgen: »Modernisierung des Datenschutzrechts. Gutachten im Auftrag des Bundesministeriums des Innern« Berlin 2001, S. 22 f f.; zur Entwicklung Abel, Bernd: »Kapitel 2.7«, in: Alexander Roßnagel (Hg.), Handbuch Datenschutzrecht. Die neuen Grundlagen für Wirtschaft und Verwaltung, München: C. H. Beck 2003.
Rechtliche Herausforderungen des Internets der Dinge
päische Reform95 die hergebrachten Strukturen des Datenschutzrechts offenbar weiterhin beibehalten wird. Ob dies allerdings zur angemessenen Regulierung des Internets der Dinge und Dienste mittelfristig hinreichend ist, lässt sich mit guten Gründen bezweifeln.
95 | Dazu statt vieler Hornung, Gerrit: »Die europäische Datenschutzreform. Stand, Kontroversen und weitere Entwicklung«, in: Matthias Scholz/Axel Funk (Hg.), DGRI Jahrbuch 2012, Köln: Otto Schmidt 2013, S. 1-24.
203
Animal Tagging Zur Ubiquität der smarten Tiere Ina Bolinski
In den frühen Morgenstunden des 24. Dezember 2003 konnten australische Forscher live verfolgen, wo genau sich »Shark Alpha«, ein Weißer Hai von drei Metern Länge, im Indischen Ozean befand, als er eine ungewöhnlich lange Distanz in einem überdurchschnittlichen Tempo zurücklegte. In rasanter Geschwindigkeit stürzte der Hai einen Kontinentalhang bis auf eine Tiefe von ca. 580 Metern hinunter. Die Forscher beobachteten, dass die Umgebungstemperatur mit der erreichten Tiefe nicht erwartungsgemäß abnahm, sondern auf konstante 25 °C stieg und dass in den folgenden sechs Tagen die Tiefenmessung zwischen 100 und 0 Metern lag. Bei »Alpha« handelte es sich um ein erwachsenes, mit einem auf GPS (Global Positioning System) basierendem Peilsender ausgestattetes Tier, dessen Bewegungen und Aufenthaltsorte im Meeresraum für die Forscher auf ihren digitalen Karten jederzeit sichtbar waren. Mithilfe verschiedener integrierter Sensoren konnten außerdem Parameter zur lokalen Position, zur Wassertiefe und zur Umgebungstemperatur aufgezeichnet werden. Etwa vier Monate später wurde der Sender in Westaustralien am Strand von Bremer Bay gefunden – äußerlich ein wenig mitgenommen. Aus den aus ihm gewonnenen Daten sollte das Geschehen rund um den Hai »Alpha« rekonstruierbar werden. Allerdings warfen sie mehr Fragen auf, als sie konkrete Antworten bereithielten. Die scheinbar einzige plausible Erklärung war, dass der Hai nicht selbst auf Jagd ging, sondern gejagt wurde. Der Sender gelangte somit auch in den Körper des Räubers, nahm dort dessen Temperatur an und Magensäfte bleichten ihn aus.1 Das Spektrum der Spekulationen ist nach wie vor weit. Schließlich weiß man von keinen Feinden, die einem ausgewachsenen Weißen Hai gefährlich 1 | In dem Video »Something Ate This Shark … but What?« des Smithsonian Channel auf YouTube wird anhand der aufgezeichneten Daten rekonstruiert, wo sich wahrscheinlich der Hai, aber sicherlich der Sender befunden haben. Vgl. https://www.youtube.com/ watch?v=Z_QyGANCUJI, vom 27. Juli 2015.
206
Ina Bolinski
werden können. Kaum Beachtung findet in der medialen Öffentlichkeit hingegen die These, dass sich der Sender vom Hai gelöst haben könnte und deshalb in den Magen eines anderen Tieres gelangen konnte. Vielmehr kursiert die Idee von einer unbekannten Spezies in der Tiefsee von gigantischer Größe, die als Fressfeind des Weißen Hais in Frage käme, wie möglicherweise die ausgestorbenen Megalodone, die als größte Haiart der Erdgeschichte gelten.2 Mit diesem medienwirksamen und immer noch aktuellen, weil bislang ungeklärten Fall ist das Feld der Tiere im Internet der Dinge eröffnet und auf verschiedene Potentiale verwiesen, die sich ergeben, wenn Tiere als Akteure mit Handlungsmacht 3 gedacht werden. Optimismus und Hoffnung auf vollständiges, uneingeschränktes Wissen im vernetzten Miteinander über alle Akteure treten scheinbar in jeder Debatte über das Internet der Dinge zu Tage. Die phantasmatischen Vorstellungen blenden dabei jedoch die Möglichkeit des Technikversagens aus, so wie auch die Idee von einer lückenlosen Ortung und Positionsbestimmung aller Beteiligten im Internet der Dinge eine mögliche Fehleranfälligkeit ignoriert. Diese wird bei der Beschreibung von technischen Möglichkeitspotentialen vielfach gar nicht erst mitgedacht. Gleichzeitig verweist sie gerade so auf eine Differenz zwischen theoretisch Realisierbarem und praktisch bereits Umgesetzten. Mark Weiser geht 1991 in seinem häufig zitierten programmatischen Gründungstext »The Computer for the 21st Century« davon aus, dass sich ein neues Mensch-Computer-Gefüge entwickelt, in dem der Mensch zentral und der Computer hintergründig ist.4 In seiner Vision sind ubiquitäre Computer zukünftig überall vorhanden und gleichzeitig für den Menschen unsichtbar, da sie im Hintergrund agieren. Die Einbettung findet demnach in die physische Ebene der Dinge statt, aber auch in Form einer Nichtüberlagerung mit den menschlichen Aktivitäten.5 Weiser spricht in diesem Zusammenhang von einer ansteigenden und völlig unauffälligen Informationsversorgung, die sich der menschlichen Wahrnehmung ganz zu entziehen vermag. Dadurch soll sich der zunehmende Bedarf an Informationen und eine sich aufbauende Informationsmasse ohne menschliche Handlungen bewältigen lassen, wie es unter dem Schlagwort Big 2 | Der Dokumentarfilmer Dave Riggs geht den Spekulationen zu diesem Fall in The S earch for the O cean ’s S uper P redator nach (Australien 2013). 3 | Vgl. Latour, Bruno: Wir sind nie modern gewesen – Versuch einer symmetrischen Anthropologie, Frankfurt a.M.: Suhrkamp 2008. 4 | Vgl. Weiser, Mark: »The Computer for the 21st Century«, in: Scientific American. Special Issue on Communications, Computers and Networks 265 (3) 1991, S. 94-104. 5 | Vgl. Friedewald, Michael: »Ubiquitous Computing: Ein neues Konzept der MenschComputer-Interaktion und seine Folgen«, in: Hans Dieter Hellige (Hg.), Mensch-ComputerInterface. Zur Geschichte und Zukunft der Computerbedienung, Bielefeld: transcript 2008, S. 259-280, hier S. 264.
Animal Tagging
Data diskutiert wird.6 Je verfügbarer das Internet der Dinge ist, desto mehr handelt es sich um eine digitalisierte Wirklichkeit. Die Idee beruht auf der Vorstellung, dass Computer überall verfügbar sind und somit permanent Daten erfasst, gespeichert und verarbeitet werden können. Die automatische und eigenständige Datengenerierung ist bereits in der Technik angelegt und die allgegenwärtige Durchdringung der Alltagsgegenstände gelingt neben dem ubiquitären Vorhandensein der Computer auch durch den Einsatz von Sensoren. Insbesondere steigt die Funktionalität von Ubiquitous Computing, wenn die Schnittstelle zwischen Mensch und Computer so vereinfacht ist, dass von dem Menschen im Umgang damit gar keine oder nur minimale Aufmerksamkeit und Interaktion gefordert wird. Verschiedene Abläufe sollen einerseits selbstständig in standardisierter Weise stattfinden, andererseits wird eine flexible und automatische Anpassung an neue situative Kontexte von dem System gefordert. Diese anfängliche Beschreibung des Ubiquitous Computings findet heute auf den verschiedensten Ebenen Anwendung, verbleibt in der theoretischen Beschreibung jedoch auf der Objektebene. Objekte werden zu technischen Dingen erhoben. In der kulturellen Praxis des Internets der Dinge finden Tiere, weil sie immer noch der opponierenden Naturvorstellung zugeordnet werden, bisher nur wenig Beachtung, auch wenn sich Tiere aufgrund einer zumeist passiven technischen Verwendungsweise, ähnlich der Dinge, in besonderer Weise eignen. Verschiedenste Tiere an unterschiedlichsten Orten sind mittlerweile – mit voneinander abweichender Zielsetzung – mit technischen Gadgets versehen und fügen sich in die kommunikativen und ubiquitären Strukturen ein. Ihr Aufenthaltsort ist durch die technische Vernetzung genau bestimmund abruf bar. Mithilfe von verschiedenen Sensortechniken lassen sich darüber hinaus viele weitere Parameter bestimmen, die Auskunft über den tierischen Organismus und dessen jeweilige Umwelt liefern. Relevant erscheint in diesem Zusammenhang, dass das Tier im Moment der Technisierung seinen vorherigen Status verliert und zu einem neuen Hybridwesen wird. Anders als ein lebloser Gegenstand ist dieses neue Hybrid weiterhin von dem Verhalten des Tieres geprägt, wenn auch in veränderter Form. Welche Rolle spielen also Tiere im Internet der Dinge, wenn sie durch die technischen Möglichkeiten zu seinem Bestandteil erhoben werden? Wie transformieren sich in der Folge mittels des Technikeinsatzes bestehende und historisch gewachsene Mensch-Tier-Verhältnisse? Auf den Ebenen der Haus-, Nutz- und Wildtiere zeigt sich, wie Tiere, entsprechend ihrer kategorialen Zu6 | Vgl. z.B. Burkhardt, Marcus: Digitale Datenbanken. Eine Medientheorie im Zeitalter von Big Data, Bielefeld: transcript 2015 oder Geiselberger, Heinrich/Moorstedt, Tobias (Hg.): Big Data: Das neue Versprechen der Allwissenheit, Berlin: Suhrkamp 2013; Reichert, Ramón (Hg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld: transcript 2014.
207
208
Ina Bolinski
schreibung als Teil des Internets der Dinge, Daten generieren und damit neue kommunikative Formen des Miteinanders schaffen und verändern.
H austiere Die Allgegenwärtigkeit der Tiere im Internet der Dinge wird besonders deutlich beim Einsatz von Radio Frequency Identification (RFID) zur elektronischen Tierkennzeichnung. Jedes RFID-System besteht aus zwei Komponenten: einem Transponder, der an dem Objekt, das identifiziert werden soll, angebracht ist und einem Lesegerät. Der Transponder setzt sich aus einem Koppelelement (Antenne und Spule) und einem elektromagnetischen Mikrochip zusammen und bildet den eigentlichen Datenträger eines RFID-Systems. Auch das Lesegerät besteht aus einem Koppelelement und einem Hochfrequenzmodul zum Senden und Empfangen der Daten sowie oftmals aus einer Schnittstelle, um die erhaltenen Daten an ein angeschlossenes System zur Weiterverarbeitung übermitteln zu können. Für die Übertragung stehen unterschiedliche Frequenzbereiche vom Langwellen- bis zum Mikrowellenbereich zur Verfügung, sodass die RFID-Technik multifunktional genutzt werden kann.7 Bei einem passiven RFID-System8 erzeugt das Lesegerät ein hochfrequentes elektromagnetisches Wechselfeld, das über die Luftschnittstelle und den verschiedenen Frequenzbereichen dem Transponder ein Signal gibt. Über die Antenne wird vom Transponder die Hochfrequenzenergie aufgenommen. Der Transponder wird aktiviert, indem er die Befehle vom Lesegerät decodiert. Anschließend übermittelt er über das elektromagnetische Feld die Identifikationsnummer an das Lesegerät. Dabei wird vom Transponder kein eigenes elektromagnetisches Feld erzeugt, sondern das Feld des Lesegeräts beeinflusst. Die Transponder sind aufgrund der geringen Größe und des günstigen Herstellungspreises multifunktional einsetzbar. Sie lassen sich in nahezu jedes Material und auch in den lebenden Organismus integrieren. Mithilfe von fest installierten oder mit flexibel einsetzbaren, nicht ortsgebundenen Lesegeräten können die Chips in vorgegebener Taktung ausgelesen werden. Nicht nur verfügt jeder Transponder über eine individuelle und eindeutige Identifika7 | Vgl. beispielsweise Finkenzeller, Klaus: RFID-Handbuch. Grundlagen und praktische Anwendungen induktiver Funkanlagen, Transponder und kontaktloser Chipkarten, 6. aktualisierte und erweiterte Auflage, München: Carl Hanser 2012. 8 | Unterschieden werden aktive und passive RFID-Systeme. Zu den technischen Spezifikationen vgl. beispielsweise Lampe, Matthias/Flörkemeier, Christian/Haller, Stephan: »Einführung in die RFID-Technologie«, in: Elgar Fleisch/Friedemann Mattern (Hg.), Das Internet der Dinge. Ubiquitous Computing und RFID in der Praxis, Berlin/Heidelberg: Springer 2005, S. 69-86.
Animal Tagging
tionsnummer. Auch weitere Informationen können auf dem Chip gespeichert oder beispielsweise mit Hilfe von Sensoren generiert werden. Das mit dieser Technik verbundene Versprechen einer eindeutigen und fehlerfreien Identifizierung lässt RFID für ein Internet der Dinge zur technischen Möglichkeit eines kommunikativen Miteinanders von Objekten, Tieren und Menschen und somit zur Grundlage der Wissenszirkulation überhaupt werden. Der Medialität und der Materialität ist dieses spezifische Potential bereits inhärent, da »das Hybrid RFID als eine Verknüpfung von Technik, Epistem, nichtmenschlichen Objekten und belebter Natur zu begreifen«9 ist, wie Christoph Rosol feststellt. Aber nicht nur die RFID-Technik an sich tritt als eigenständiger hybrider Akteur in Erscheinung, sondern in der Potenzierung eben auch die hybride Mischform aus Technik und biologischem Lebewesen: das smarte Tier. Beim Einsatz der elektronischen Tierkennzeichnung im Haustierbereich steht die eindeutige Identifikation im Vordergrund. Genutzt werden dafür Implantate, die aus einem zylinderförmigen Körper bestehen, in dem sich der Transponder befindet und der den Tieren direkt unter die Haut im Halsbereich implantiert wird. So sollen z.B. entlaufene Tiere wieder ihren Besitzern zugeordnet werden.10 In der bewussten und individuellen Entscheidung für die elektronische Kennzeichnung der Haustiere zeigt sich eine bestimmte Ausprägung der Mensch-Tier-Beziehung bzw. der so genannten Tierliebe und der untrennbaren Einheit von Mensch und Tier. Haustiere sind im Gegensatz zu Nutz- oder Wildtieren in ihrer gesellschaftlichen Stellung nicht austauschbar oder ersetzbar. Der genaue Aufenthaltsort des Haustieres wird zudem nicht nur im Moment des Verlorengehens, sondern auch im Moment des Herumstreunens relevant. Mithilfe von RFID-Kennzeichnung und GPS-Trackern im und am Tier lässt sich das Umherziehen überwachen und auf virtuellen Karten verfolgen. Dem voyeuristischen Blick des Heimtierbesitzers wird zusätzlich entsprochen, wenn er sich mittels Kameratechnik am Halsband gemeinsam mit seinem Haustier auf Erkundungstour begeben kann – und dabei sogar die gleiche Perspektive einnimmt. Die Überwachung des Tieres findet in diesem Fall auf einer visu9 | Rosol, Christoph: RFID. Vom Ursprung einer (all)gegenwärtigen Kulturtechnologie, Berlin: Kadmos 2007, S. 18. 10 | In Deutschland sind die Kennzeichnung von Hunden und Katzen sowie die Registrierung der einmalig vergebenen Identifikationsnummer aktuell freiwillig und innerhalb der einzelnen Bundesländer unterschiedlich geregelt. Es stehen mehrere Datenbanken zur Verfügung, die teilweise miteinander vernetzt sind. Vgl. beispielsweise Deutsches Haustierregister (https://www.registrier-dein-tier.de/) vom 03. August 2015 und Tasso e.V. (http://www.tasso.net/) vom 03. August 2015. Zur weltweiten nur einmaligen Vergabe und zum Aufbau der Identifikationsnummer vgl. Kampers, F. W. H/Rossing, W./ Eradus, W. J.: »The ISO standard for radiofrequency identification of animals«, in: Computers and Electronics in Agriculture 24/1-2 (1999), S. 27-43.
209
210
Ina Bolinski
ellen Ebene statt. Weitere Beispiele für eine gelungene Vernetzung im Haustierbereich, die über die reine Tieridentifikation und Registrierung hinausgehen, liefert der stetig wachsende, unübersichtliche Markt des Heimtierbedarfs: Intelligente Katzenklappen, die nur bestimmten Tieren Zugang erlauben oder sich selbst füllende Futternäpfe, die den Menschen ein Stück weit von seiner Versorgungspflicht entbinden, sind nur einige Beispiele. Verschiedene Gadgets erlauben es den Tieren selbst, über ihre alltäglichen Lebensereignisse zu twittern. Passend zu den mittels Technik registrierten Bewegungen und aktuellen Handlungen der Tiere werden automatisch aus hunderten vorformulierten Nachrichten die entsprechenden Tweets ausgewählt und versendet. Suggeriert wird dadurch eine vermeintlich autonome Selbstpräsenz der Tiere in den sozialen Medien. Allen Beispielen dieser Art ist trotz unterschiedlicher Anwendungsfelder gemeinsam, dass das Tier mit den Dingen in seiner direkten Lebenswirklichkeit zu einer smarten Einheit inklusive einer IP-Adresse wird. Als Teil der kommunikativen Formierungen des World Wide Webs bewegt es sich ebenso, wenn auch nicht in bewusster Form, zwischen Realität und Virtualität in diesem Netzwerk und als Teil des Internets der Dinge. Gerade weil die bisher genannten technischen Anwendungen nur im privaten Bereich zur Anwendung kommen, fügen sie sich nahtlos in die Ideen von sich selbst füllenden Kühlschränken und intelligenten Steuerungssystemen in der häuslichen Energieversorgung ein. Damit verbunden sind aber Fragen nach der Autonomie und Verantwortung, die sich im hierarchischen Verhältnis von Mensch und Haustier begründen. Die smarten Umgebungen der Haustiere löschen dieses Verhältnis zwar nicht aus, lösen aber die starren Strukturen insofern, als die Tiere mit vermeintlich mehr eigener Entscheidungsfreiheit ausgestattet werden.
N ut z tiere Im Bereich der Nutztierhaltung und dem dazugehörigen Herdenmanagement spielt das Internet der Dinge in ökonomischen Kontexten sicherlich bislang die größte Rolle. Lebensmittelskandale verschiedenster Art lassen die Forderung nach einer lückenlosen Rückverfolgbarkeit von Transportwegen laut werden, wie sie beispielsweise in Formulierungen wie »from farm to fork« deutlich werden. Jede durchlaufene Station der Prozesskette und alle beteiligten Akteure sollen für den Verbraucher transparent sein, sodass jederzeit nachvollziehbar ist, welchen Weg das erworbene tierische Produkt durch das Netz von Produzenten, Zulieferern, verarbeitenden Unternehmen und Logistikern genommen hat.11 Dafür müssen an zentralen Punkten oder auch an beliebig vielen zu durchlaufenen 11 | Vgl. Müller, Rolf E. A.: »Rückverfolgbarkeit von Lebensmitteln: Potentiale und Adoptionschancen für RFID«, in: Informatik trifft Logistik, Band 2: Beiträge der 37. Jahresta-
Animal Tagging
Stationen Lesegeräte angebracht sein, um den aktuellen Standort des elektronisch gekennzeichneten Tieres in Echtzeit zu registrieren und in der Datenbank zu speichern. So fügen sich die Möglichkeiten der Überwachung und die Rückverfolgbarkeit der Tiere bzw. der Produkte, in die sie später transformiert werden, in die ersten Anwendungsbeispiele des Internets der Dinge ein, die im Logistikbereich realisiert wurden.12 Durch die medientechnische Integration von RFID-Komponenten ist die Voraussetzung geschaffen, um sämtliche Wege zeitgenau aufzuzeichnen und im Rückblick bei sich einstellender Notwendigkeit zu rekonstruieren. Die virtuelle und digitale Welt des Internets ermöglicht den smarten Gegenständen eine selbsttätige Planungs- und Kontrollfähigkeit. Durch die eigenständige Wahrnehmung und die Wahrnehmung der Umwelt seitens der Technik ist eine Interaktion möglich, sodass reale Transportwege in den virtuellen Wegenetzwerken selbstständig ermittelt und genommen werden können. Das smarte Tier navigiert sich durch autonome Entscheidungen in dem im Vorfeld definierten Möglichkeitsbereich und kann flexibel auf sich verändernde Umweltbedingungen reagieren.13 Konstituiert werden die Informationen in den hybriden Tierformen selbst und finden gleichfalls dort Anwendung. Wissen und Materialität sind deshalb lokal und virtuell vorhanden und nicht mehr in doppelter Abgrenzung voneinander zu sehen. Innerhalb der Milchviehhaltung wurde das Einsatzspektrum vom Internet der Dinge des Logistikbereichs ausgeweitet, indem verschiedene Sensortechniken zum Einsatz kommen, um die brünstige Phase einer Kuh zu erkennen. Der Trend zunehmender Herdengrößen bringt es mit sich, dass es den Landwirten oder besser Herdenmanagern schlicht an Zeit und mittlerweile teilweise auch an Kompetenz fehlt, um mit geschultem Blick zu erkennen, wann sich ein Tier in der brünstigen Phase befindet. Auch das Verhalten der Tiere zu diesem Zeitpunkt ist aufgrund von optimierten Züchtungen nicht mehr eindeutig und allenfalls noch im Augenschein erkennbar. Aufgrund von ökonomischen Zwängen ist es aber dennoch mehr denn je erforderlich, dass eine Kuh zum nächstmöglichen optimalen Zeitpunkt erneut kalbt, um nicht monetäre Einbußen hinnehmen zu müssen und wettbewerbsfähig zu bleiben. Lösungen für diese Herausforderungen liegen im Internet der Dinge. Neben der eindeutigen Kennzeichnung sind die Milchkühe mit in einem Halsgung der Gesellschaft für Informatik, 24.-27. September 2007 in Bremen, Bremen/Bonn: Köllen 2007, S. 10-15. 12 | Vgl. Franke, Werner/Dangelmaier, Wilhelm/Sprenger, Christian/Wecker, Frank: RFID – Leitfaden für die Logistik: Anwendungsgebiete, Einsatzmöglichkeiten, Integration, Praxisbeispiele, Wiesbaden: Gabler 2006. 13 | Vgl. Schneider, Jochen/Arslan, Aynur: »Das Internet der Dinge unter dem Aspekt der Selbststeuerung – ein Überblick«, in: Logistics Journal (2007), http://www.logist icsjournal.de/not-reviewed/2007/5/1067/schneider.pdf, vom 28. Juli 2015, hier S. 3.
211
212
Ina Bolinski
band integrierten Beschleunigungssensoren ausgestattet, die alle Bewegungen und die dazugehörigen Geschwindigkeiten im Raum über drei Achsen aufzeichnen. Vermehrte und differente Bewegungen zeugen davon, dass sich eine Kuh aktuell in einer brünstigen Phase befindet. Das System informiert in diesem Fall automatisch das Herdenmanagement.14 Erhobene Daten werden dafür auf zweierlei Weise genutzt: Es entsteht ein individuelles Profil eines jeden Tieres, indem spezialisierte Software die an die Betreiberserver gesendeten Daten automatisch analysiert und dafür sämtliche Bewegungen im zeitlichen Verlauf miteinander abgleicht. Gleichzeitig findet noch ein Abgleich mit dem Bewegungsverhalten einer statistischen durchschnittlichen Kuh durch die Kumulation aller erfassten Tierbewegungen statt. Neben den veränderten Bewegungen einer brünstigen Kuh ist auch eine gestiegene Körpertemperatur ein weiterer Indikator. Diese Messergebnisse werden zuerst an die im Halsband integrierte Technik und von dort aus in die Datenbank übermittelt. Der Zeitpunkt für die künstliche Besamung des Milchviehs ist gefunden, wenn die Daten aus den Bewegungsanalysen zeitgleich mit automatischen Messungen der Körpertemperatur Abweichungen erkennen lassen. In visuell auf bereiteter Form ist das der Fall, wenn in beiden Kurven für den gleichen Zeitpunkt Ausschläge vorliegen (vgl. Abbildung 1). Automatisch wird die zuständige Person vom System in einem zweistufigen Verfahren mit Vorankündigung und konkreter Bestätigung über den ermittelten Zeitpunkt informiert. Die gleiche Technik kommt zum Einsatz, um den Abkalbzeitpunkt einer tragenden Kuh zu ermitteln. Mensch und Tier stehen in einem neuen, kommunikativen und technikgestützten Verhältnis zueinander. Das über Generationen weitergegebene und über Jahre gelernte Wissen des Menschen über das Tier und sein Verhalten tritt hinter die Technik zurück, sodass es in der Folge zu einem neuen Verständnis von moderner Nutztierhaltung kommt. Aufgrund der erhobenen Daten wächst das Wissen über das Tier an, obgleich es immer schon vorhanden, wenn auch nicht permanent mit Zahlen belegt war. Der räumliche Abstand zwischen Mensch und Nutztier um dieses Wissen zu erlangen wird hingegen größer und ein direkter Kontakt, sei er physischer oder visueller Art, ist nicht mehr notwendig. Die Idee vom Internet der Dinge im Nutztierbereich bleibt aber nicht auf einzelne Beispiele und Anwendungsbereiche beschränkt, sondern trägt mit Entwicklungen im Bereich Smart Farming dem eigentlichen und ganzheitlichen Hauptgedanken erst Rechnung.15 Auch wenn es eine unübersichtliche 14 | Vgl. Kohler, Samuel/Brielmann, Claude/Hug, Kurt/Biberstein, Olivier: »Die Brunst des Rindes automatisch erkennen«, in: Agrarforschung Schweiz 1/11-12 (2010), S. 438-441. 15 | Vgl. Taylor, Kerry et al.: »Farming the Web of Things«, in: IEEE Intelligent Systems 28/6 (2013), S. 12-19.
Animal Tagging
Abbildung 1: Datenabgleich von Temperaturverlauf (oben) und Aktivitätsmuster (unten) einer einzelnen Kuh.
Aus: Kohler, Samuel/Brielmann, Claude/Hug, Kurt/Biberstein, Olivier: »Die Brunst des Rindes automatisch erkennen«, in: Agrarforschung Schweiz 1/11-12 2010, S. 438-441, hier S. 440.
Zahl an Definitionsversuchen16 gibt, was genau unter Smart oder Precision Farming überhaupt zu verstehen ist, so besteht doch weitgehend Einigkeit über das formulierte Ziel: Nicht nur einzelne computergestützte Anwendungen und nicht nur einzelne Tiere für sich, sondern alle relevanten Komponenten des Agrarbereichs werden so miteinander vernetzt, dass sie sich gänzlich autonom von menschlichen Entscheidungen selbst in Abhängigkeit zueinander in ökonomisch maximierter Form bewirtschaften können.17 Dafür werden sie in kleinstmögliche Einheiten zerlegt und mit entsprechender Sensortechnik versehen. Generiert werden Informationen zur Zusammensetzung und Beschaffenheit des Erdbodens, zur Bodenfeuchtigkeit und -temperatur, zu den zu erwartenden Ernteerträgen oder vorhandenen Futterressourcen auf der Weide. Auf die gewonnen Daten wird in praktischer Bewirtschaftung anschließend Bezug genommen. Die Pflanzen auf dem Feld werden beispielsweise nicht in 16 | Vgl. Krishna, Kowligi R.: Precision Farming. Soil Fertility and Productivity Aspects, Oakville: Apple Academic Press 2013, S. 12 f f. 17 | Vgl. Banhazi, T. M./Lehr, H./Black, J. L./Crabtree, H./Schofield, P./Tscharke, M. et al.: »Precision livestock farming: an international review of scientific and commercial aspects«, in: International Journal of Agricultural and Biological Engineering 5 (3) (2012), S. 1-9.
213
214
Ina Bolinski
Abbildung 2: Bevorzugte Höhenlage von zwei Kühen.
Aus: Kohler, Samuel/Brielmann, Claude/Hug, Kurt/Biberstein, Olivier: »Die Brunst des Rindes automatisch erkennen«, in: Agrarforschung Schweiz 1/11-12 2010, S. 438-441, hier S. 440.
Gänze gegossen oder mit chemischen Hilfsmitteln besprüht, sondern in Kontakt damit kommen nur diese, die aktuell einen Bedarf an Wasser oder Düngemitteln haben. Dazu müssen die einzelnen technischen Systeme miteinander verbunden werden. In Kombination mit Web-Anwendungen und Cloud-Computing wird der Zugriff und die Verfügbarkeit der Daten gewährleistet. Durch die visuelle Abbildung im digitalen Raum sind beim Smart Farming Virtualität und Realität auf bestimmte Weise untrennbar miteinander verwoben. Das Netzwerk aus Daten und Dingen setzt aus der Perspektive der Informatiker und der Landwirte im Web eine neue Semantik frei.18
18 | Vgl. Gaire, Raj; Lefort, Laurent; Compton, Michael; Falzon, Gregory; Lamb, David; Taylor, Kerry: »Semantic Web Enabled Smart Farming«, in: Proceedings of the 1st International Workshop on Semantic Machine Learning and Linked Open Data (SML2OD) for Agricultural and Environmental Informatics, ISWC, 2013, http://www.researchgate. net/profile/Raj_Gaire/publication/255704548_Semantic_Web_Enabled_Smar t _ Farming/links/02e7e5204607ab6851000000.pdf?inViewer=true&disableCoverPa ge=true&origin=publication_detail, vom 06. August 2015.
Animal Tagging
Im Sinne eines allumfassenden Internets der Dinge werden auch die individuellen Bedürfnisse von Tieren mit den ackerbaulich genutzten Flächen gekoppelt. Zur Steigerung der Leistungsfähigkeit kann auf aktuelle Vorlieben und Eigenarten der einzelnen Tiere wieder eingegangen werden, auch wenn dies vordergründig im Widerspruch zu gängigen Praxen der Massentierhaltung zu stehen scheint. So weiß man beispielsweise, dass Kühe unterschiedliche Höhenlagen zur Futtersuche präferieren. »Hill climber cows« halten sich im Gegensatz zu »bottom dweller cows« bevorzugt an steilen Hängen anstatt im gleichmäßigen, flachen Gelände auf (vgl. Abbildung 2).19 Im Sinne einer präzisen Landwirtschaft ergeben sich aus dem Wissen folglich weitere Optimierungspotentiale, wenn die Bedürfnisse von Tieren und Böden miteinander in Beziehung gesetzt werden und alle beteiligten Akteure über technische Schnittstellen miteinander interagieren können.
W ildtiere Bei smarten Wildtieren stehen nicht vorrangig ökonomische Gründe im Vordergrund. Der Technikeinsatz ist zumeist vielmehr vom Erkenntnisgewinn innerhalb der wissenschaftlichen Forschung geprägt.20 So sollen die von Bienen gesammelten Daten während ihrer Flüge beispielsweise Aufschluss über Klimaveränderungen geben und Zukunftsprognosen genauer machen.21 Dabei bleibt das Wissen nicht auf das einzelne Tier und seine Art beschränkt, wie es bei der Ethologie der Fall ist, sondern gewinnt an Konjunktur bei weit umfassenderen Fragestellungen. Die Überwachung und Untersuchung der Tiere in ihren Lebensräumen, mittels verschiedener vernetzter Tracking-Technologien, tangieren dabei aber nicht nur die Wissenschaft. Etienne Benson zeigt in Wired Wilderness. Technologies of Tracking and the Making of Modern Wildlife 22, wie Radiotelemetrie als ein 19 | Vgl. George Melvin, Derek Bailey, Michael Borman, David Ganskopp, Gene Surber, and Norm Harris. »Factors and Practives That Influence Livestock Distribution.« Rangeland Management Series Publication 8217, http://anrcatalog.ucdavis.edu/pdf/8217. pdf, vom 06. August 2015. 20 | Das Wissen um den Aufenthaltsort der Tiere wird aber auch missbraucht, wenn beispielsweise Jäger davon profitieren und sie leichter auffinden können. Diese Handlungen laufen dem oftmals eigentlichen Interesse, das Wissen um die Position zum Schutz des Tieres, konträr entgegen. 21 | Vgl. www.klimabiene.de, vom 06. August 2015 und www.hobos.de (HOneyBee Online Studies) vom 06. August 2015. Durch die Beobachtung des Bienenverhaltens im Schwarm und die Generierung von Messdaten wird Aufschluss über das Wetter und die Vegetation erlangt, das in der Folge für Klimaprognosen herangezogen werden kann. 22 | Benson, Etienne: Wired Wilderness: Technologies of Tracking and the Making of Modern Wildlife, Baltimore: Johns Hopkins University Press 2010.
215
216
Ina Bolinski
technisches Verfahren zur Überwachung von Wildtieren die Auseinandersetzung über den Wert der »wilden Tiere« prägt und ihre Kategorisierung ebenso in Frage stellt. Die Entscheidung, ein Tier zu markieren oder eben nicht zu markieren, steht paradigmatisch für das Spannungsfeld von Wissenschaft, Tourismus, politisches Interesse, Aktivismus und Naturschutz. Zentrale Fragen dabei sind, wie die Technologien zur Überwachung die Tiere beeinflussen und was in der Folge mit ihrer Zuschreibung der »Wildheit« aus der jeweiligen Sicht aller beteiligten Akteure passiert. Bensons Fallstudien zu Grizzlybären, Tigern und Walen machen deutlich, wie sehr Menschen, Institutionen und Systeme mit ihren unterschiedlichen Positionen den Überwachungsdiskurs der Tiere in der freien Wildbahn prägen. Befürworter sehen in den Technologien und der Vernetzung ein Instrument, um das Wissen über die Tiere und ihren Artenschutz voranzutreiben; Gegner kritisieren die Zerstörung der »Wildheit« durch eine neue Form der technischen Domestizierung. Die Kulturgeschichte der Wildnis ist somit untrennbar mit der Technikgeschichte und der Geschichte der Forschung innerhalb der Verhaltensbiologie verbunden. Die Telemetrie als ein Verfahren zur Herstellung von Wissen ist in der Historizität der Biologie und der Ökologie neben einer Reihe von verschiedenen Technologien verankert. Benson zeigt, dass die Tracking-Technologien, die in Forschungskontexten entwickelt wurden, sich in besonderer Weise eignen, um Lebensgeschichten von einzelnen Tieren oder Arten zu erzählen, sodass diese einen großen Einfluss auf Natur- und Tierschützer und deren öffentliche Wahrnehmung haben: »Instead of being seen as experts whose technologically mediated intimacy with wild animals gave them authority to speak on their behalf, scientists could now be seen as mediators of a kind of virtual intimacy between individual animals and mass audiences, or even as audiences themselves.«23 Die Kategorie des wilden Tieres wird mit der Technikanwendung in Frage gestellt und evoziert gleichfalls die Frage nach dem Verhältnis von Mensch und Natur neu. Die Annahme, dass der Mensch als kulturelles und von der Natur disparates Wesen anzusehen ist, ist schon längst nicht mehr haltbar, muss aber dennoch im Moment der Tierüberwachung in ihren Lebensräumen neu verhandelt werden. Die gängigen Naturvorstellungen werden auch von den Tieren im Internet der Dinge tangiert. Alexander Pschera beschreibt im »Internet der Tiere«, dem dritten Internet nach dem der Menschen und der Dinge, es käme zu einer Entsinnlichung der Natur aufgrund von fehlendem physikalischen Kontakt, dem Einsatz von technischen Hilfsmitteln und der Verunmöglichung des Eintauchens in den Seinsraum der Natur aufgrund von klaren Abgrenzungen zu- und unzugänglicher Gebiete der Landschaften.24 Für ihn bestehen sämtliche Kon23 | Ebd., S. 190. 24 | Vgl. Pschera, Alexander: Das Internet Der Tiere: Der neue Dialog zwischen Mensch und Natur, Berlin: Matthes & Seitz 2014, S. 36 f f.
Animal Tagging
takte zu Tieren nur als Paradox aus Nähe und Distanz und im Vortäuschen einer Naturnähe, sodass es eigentlich kein Wissen über die Tiere außer den im Internet der Tiere gesammelten Daten gibt. »Das Internet der Menschen hat die Gesellschaft verändert, das Internet der Tiere wird die Natur verändern«25, so Pscheras These. Als Konsequenz beschreibt er ein neues Verständnis von Natur und Naturforscher: »Weil ›Natur‹ an sich nie existiert und es immer um das Bild ›von‹ der Natur geht, das der Mensch hat, könnte man den digitalen Naturforscher auch einen Neuerfinder der Natur nennen.«26 Durch die Verdatung der Natur wird das Wissen über sie exponentiell ansteigen und bestehende Verhältnisse werden eine neue Ordnung erfordern. Allerdings ist dafür auch eine neue Form von Sprache notwendig, damit die bloßen Datensätze in kommunikative und narrative Formen eingebettet werden und die räumliche Distanz überwinden.27 Für Pschera handelt es sich dabei um eine Natur nach der Natur, die durch die Technik vorhersagbar wird und sich im Zeitalter des Anthropozäns als System innerhalb von menschlichen Aktivitäten fassen lässt.28 »Der Naturdiskurs wird damit seine Wertigkeiten ändern. Er wird nicht mehr um den Begriff der Nachhaltigkeit kreisen, der bislang die zentrale Denkrichtung vorgibt, sondern er wird sich auf den Begriff der Resilienz konzentrieren«29, so Pscheras Verständnis eines zukünftigen Umgangs aller beteiligten Akteure in Bezug auf die sie umgebende Natur. Es sind also nicht nur die Menschen, Dinge und auch Tiere im Internet, die miteinander in einem sich ständig wandelnden Verhältnis stehen. Ebenso werden die sie umgebenden Räume, reale und virtuelle, zur Bezugsgröße für die Beschreibung des aktuellen Status aller Akteure. So ist auch die Vorstellung, dass die Weltmeere als Raum eine noch unberührte, romantische Natur darstellen, längst passé. So werden ähnlich wie beim precision farming die Ozeane als Lebenswelt der Wassertiere und besonders der Wale zu smarten Umgebungen, wenn festinstallierte Bojen Tiergeräusche aufzeichnen und übermitteln. Auf den digitalen Karten der App »Whale Alert«30 (vgl. Abbildung 3) können, ähnlich wie bei anderen Tracking-Apps, neben den Bojen und Informationen von Seekarten die Positionen der Tiere sichtbar gemacht werden. In diesem Fall soll die Anzahl an Kollisionen zwi25 | Ebd., S. 53 26 | Ebd., S. 84 27 | Vgl. Ebd., S. 136 f f. 28 | Vgl. Ebd., 156 f. 29 | Ebd., S. 162 30 | Vgl. Wiley, David/Hatch, Leila/Schwehr, Kurt/Thompson, Michael/MacDonald, Craig: »Marine Sanctuaries and Marine Planning. Protecting Endangered Marine Life«, in: Proceedings of the Marine Safety & Security Council, the Coast Guard Journal of Safety at Sea, 2013, http://media.eurekalert.org/aaasnewsroom/MCM/FIL_000000000068/ Wiley_et_al_Marine_Planiing.pdf, vom 04. August 2015.
217
218
Ina Bolinski
schen Walen und Schiffen verringert werden, die mitverantwortlich für die rapide Abnahme einiger Artenbestände sind, wie die Rote Liste der bedrohten Tiere verzeichnet. Auch wenn die Wale selber nicht mehr Träger der Sender sind, wie es beispielsweise der Weiße Hai »Alpha« war, kommt es zu einem neuen Verständnis des Miteinanders der beteiligten Akteure, wenn technische Hilfsmittel für ein verändertes Zusammenleben von Menschen und Tieren sorgen sollen. Abbildung 3: Whale Alert.
Quelle: www.whalealert.org http://res.cloudin ary.com/hrscywv4p/image/upload/c_li mit,h_900,w_1200/lhsooeljfsvlx1gwfknn.png, vom 04. August 2015.
Animal Tagging
»Whale Alert« und viele andere Tier-Tracker31 als Smartphone- oder Web-Anwendungen schaffen neue kommunikative Möglichkeiten zwischen Mensch und Tier. Mit den eingesetzten Techniken geht das Versprechen einher, eine bessere Lebenswelt für alle beteiligten Akteure zu schaffen, indem ein genaues Wissen über ökologische Zusammenhänge in praktischer Anwendung nutzbar wird. Bestimmte Arten sollen in ihren spezifischen Lebensräumen besser geschützt werden, wenn man Kenntnisse über ihre Aufenthaltsorte und ihre Gewohnheiten hat. Mit dem abgeleiteten Wissen aus den Bewegungsprofilen können Tierzucht und Fischerei nachhaltiger gestaltet werden. Neben der Verbesserung der Lebensräume für die Tiere setzt das Tracking neues Wissen über klimatische Zusammenhänge und ökologische sowie geologische Gegebenheiten in Verbindung miteinander frei. So lassen sich aus den gewonnenen Daten und den Veränderungen in den Bewegungsprofilen der Tiere, die in diesem Fall als »intelligent sensors«32 fungieren, wie Martin Wikelski sagt, beispielsweise Erdbeben Stunden vorher voraussagen. Die Tierdaten sind nicht nur für ihre einzelne Art oder spezifische Zusammenhänge von großer Bedeutung, sondern bekommen in weltumfassenden Kontexten eine weitreichendere Relevanz. Innerhalb des ICARUS-Projektes (International Cooperation for Animal Research Using Space)33 sollen tausende Kleinflugtiere mit Tags ausgestattet werden und in ein raumbasiertes System integriert werden. In Zusammenarbeit mit der deutschen und russischen Raumfahrtbehörde werden diese Tiere dann von der Internationalen Raumstation ISS überwacht. Durch das (welt)raumbasierte Tracking soll es möglich werden, die große Anzahl von Tieren im globalen Kontext zu lokalisieren und zu beobachten. Die Umwelt als Smart Space ist spätestens dann selber zum ubiquitären Medium und unsichtbaren Möglichkeitsraum des Internets der Menschen, Dinge und Tiere geworden.
S chluss Mit der Zunahme des ubiquitären Computings kommt es auch zu einer Zunahme der Mediatisierung, die dingliche Umgebung wird immer mehr selbst zum Medium, sodass es sich nicht nur um eine virtuelle Realität handelt, son-
31 | So werden auf www.movebank.org möglichst viele Daten aus verschiedenen Tracking-Studien zusammengeführt und online zugänglich gemacht. 32 | R. W.: »Can animals predict earthquakes?«, in: The Economist vom 15. Februar 2014 http://www.economist.com/blogs/babbage/2014/02/seismology, vom 10. August 2015. 33 | Vgl. http://icarusinitiative.org/, vom 21. August 2015 und Pennisi, Elizabeth: »Global Tracking of Small Animals Gains Momentum«, in: Science 334/6059 (2011), S. 1042.
219
220
Ina Bolinski
dern um eine Wirklichkeit virtueller Natur.34 Dinge werden durch die Integration in gesellschaftliche Formierungen sozialisiert und entsprechen einem Gegenüber, mit dem der Mensch in Kontakt treten kann. In Folge stellt sich die Frage, ob smarte Gegenstände als gleichberechtigte Interaktionspartner wahrgenommen werden können. In jedem Fall sind auch elektronisch gekennzeichnete und mit weiteren Sensoren ausgestattete Tiere virtuelle Bezugsgruppen, mit denen eine veränderte Kommunikation über technische Medien möglich wird, sogar teilweise unabhängig vom Menschen, wie es die Ausführungen zur Rückverfolgbarkeit innerhalb von logistischen Ordnungssystemen gezeigt haben. Diese intelligenten Umwelten entsprechen keiner »natürlichen« Umwelt. Das Vorhandensein einer gleichberechtigten Kommunikation ist einer technischen Konstruktion geschuldet, die den Eindruck von Realität und intelligenten Gegenständen entstehen lässt. Sämtliche Informationen im Internet der Dinge sind durch den Menschen bereits vorstrukturiert und eingebettet. Durch den Umgang mit smarten Dingen jeglicher Art gelingt eine Integration des Ubiquitous Computings in den Erfahrungsbereich des Menschen.35 Durch die Vernetzung von Tieren, Dingen und Menschen ändert sich das Verhältnis dieser zueinander und früher bestehende kategoriale Trennungen wie die von Natur und Kultur werden unterlaufen. Die neue Hybridität, die sich an allen Orten mittlerweile normalisiert, bestimmt das transformierte Verständnis von Masse und Individualität im Internet der Dinge. Das spezifische Wissen, das dem Netzwerk aus Akteuren inne ist, wird von diesem transportiert und erst sichtbar gemacht, wie beispielsweise bei den Brunstzeiten von Kühen oder globalen klimatischen Veränderungen. Allgegenwärtig wird das Tier im Internet der Dinge erst durch die Auskopplung aus räumlichen und zeitlichen Gefügen. Gleichzeitig wird ein neuer Zugang zur tierischen Lebenswelt erst möglich, wie die Beispiele aus der Wildtierforschung gezeigt haben. Smarte Tiere werden in jeder Form, unabhängig von ihrer Klassifikation, zum Teil des Internets der Dinge oder, mit Alexander Pschera gesprochen, in das Internet der Tiere erhoben und gestalten es mit. So leistet das Internet der Dinge und der Tiere einen Beitrag, um Ordnungssysteme in Frage zu stellen und zu erweitern: Bestehende Klassifikationen und Verweisungszusammenhänge deuten von einer neuen Handlungsmacht aller Akteure in ihren Netzwerken. Dadurch wird auch die Frage nach der Handlungsmacht der Tiere neu gestellt. Tiere werden automatisch zu autonomen und biologischen Vorrichtungen zur Datengenerierung, die hohe Relevanz für 34 | Vgl. Heesen, Jessica: »Ubiquitous Computing als subjektzentrierte Technikversion«, in: Alfons Bora/Michael Decker/Armin Grunwald/Ortwin Renn (Hg.), Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung, Berlin: Sigma 2005, S. 183-192, hier S. 186. 35 | Vgl. ebd., S. 188 f.
Animal Tagging
die Beschreibung von aktuellen Zuständen und Vorhersagen der Zukunft haben. Dabei wird nicht nur die Unterscheidung von Objekt und lebendem Organismus mit zunehmender Technisierung erschwert. Auch die damit verbundenen Agency-Diskurse gestalten sich vielseitiger: Es sind die Tiere, die mehr als menschliche Technologien am und im Körper tragen. Sie bilden eine Einheit mit den Möglichkeiten zur Visualisierung einer Welt, die dem Menschen sonst nicht zugänglich ist.36 Individuelle, tierische Lebensgeschichten werden einerseits aufgrund des Technikeinsatzes und ihrer Verdatung zu neuen narrativen Netzwerken, in denen Tiere zirkulieren. Und andererseits beinhalten und generieren sie ein spezifisches, epistemisches Wissen durch ihren veränderten Status und als Teil des Internets der Dinge. Beides steht in einem wechselseitigen Verhältnis: Es handelt sich gleichermaßen um Bedingung und Ergebnis der Aushandlungsprozesse um das Wissen smarter Tiere.
36 | Vgl. dazu MacDonald, Helen: »Flight Paths«, in: The New York Times Magazine (2015) http://www.nytimes.com/2015/05/17/magazine/flight-paths.html?_r=0, vom 03. August 2015.
221
Die neue Arbeit in der Ökonomie verteilter Maschinen
Das Internet der Dinge, die allgemeine Ökologie und ihr Ökonomisch-Unbewusstes Jens Schröter
Wenn man heute über die zukünftigen Entwicklungstendenzen der Medientechnologien spricht, scheint eine Tendenz absolut klar zu sein: Mediale Technologien werden immer kleiner und dadurch immer mobiler und ubiquitärer. Bald werden alle möglichen Dinge mit RFID (= Radio Frequency Identification)1 getaggt sein und sich zu einem ›Internet der Dinge‹ verbinden – ja von ›smart dust‹ ist schon die Rede, bald liegen Tausende winziger Computer wie Staubkörnchen in der Zimmerecke.2 Diese als selbstverständlich angenommene Fluchtlinie der Medienentwicklung3 hat in aktuellen ›medienphilosophischen‹ Diskussionen zu einer »radikal umweltlichen Sichtweise«4, einer neuen Form der Medienökologie, geführt. Exemplarisch kann dafür etwa das neuere Werk von Mark B. N. Hansen stehen: In unseren Interaktionen mit den atmosphärischen Medien des 21. Jahrhunderts stehen wir menschlichen Individuen nicht länger als gesonderte, eigenständige und quasiautonome Subjekte klar unterschiedenen Medienobjekten gegenüber; vielmehr konstituie1 | Vgl. Rosol, Christoph: RFID. Vom Ursprung einer allgegenwärtigen Kulturtechnologie, Berlin: Kadmos 2008. 2 | Vgl. Weiser, Mark: »The Computer for the 21st Century«, in: Scientific American 26/3 (1991), S. 94-104; Warneke, Brett/Last, Matthew/Liebowitz, Brian/Pister, Kristofer: »Smart Dust: Communicating with a Cubic-Millimeter Computer«, in: IEEE Computer Magazine 34/1 (2001), S. 44-51; Anderson, Mark: »Smart Dust Computers are no Bigger than a Snowflake«, in: New Scientist, April 26 (2013). 3 | Zur Kritik daran vgl. Dourish, Paul/Bell, Genevieve: Divining a Digital Future. Mess and Mythology in Ubiquitous Computing, Cambridge, MA: MIT Press 2011. 4 | Hansen, Mark B. N.: »Medien des 21. Jahrhunderts, technisches Empfinden und unsere originäre Umweltbedingung«, in: Erich Hörl (Hg.), Die technologische Bedingung. Beiträge zur Beschreibung der technischen Welt, Frankfurt a.M.: Suhrkamp 2011, S. 365-409, hier S. 367; Vgl. auch Hansen, Mark B. N.: Feed Forward. On the Future of Twenty-First-Century Media, Chicago: University of Chicago Press 2015.
226
Jens Schröter ren wir uns selbst als Subjekte durch die Operation einer Unzahl multiskalarer Vorgänge, von denen einige (wie die neuronale Verarbeitung) eher ›verkörpert‹ scheinen, andere wiederum (wie die rhythmische Synchronisierung mit materiellen Ereignissen) eher ›verweltlicht‹. In den heutigen Medienumgebungen ist unsere Subjektivität demnach nicht gegen eine (mediale) Objektwelt abgesetzt (oder ist dies, genauer gesagt, nur in abgeleiteter Form), und sie unterscheidet sich in der Art nicht von den Mikroprozessen, die sie durchdringen. 5
Medien würden demnach durch ihre Schrumpfung und ihren ubiquitären Charakter zu ›atmosphärischen Medien‹. Entscheidend für Hansens Argument ist aber darüber hinaus, dass mit den atmosphärischen Medien eine »gewaltige Ausdehnung des Empfindungsvermögens«6 bereits stattgefunden hat und weiterhin stattfinden wird: Zum ersten Mal in unserer Geschichte […] sehen wir unser lang dauerndes und bisher nahezu fragloses Vorrecht als der Welt komplexester Handlungsträger des Fühlens durch die massenhaft reproduzierbare und sich allgegenwärtig ausbreitende technische Kapazität des Fühlens, die durch unsere ›smarten‹ Geräte und Technologien eingeführt wurde, in Frage gestellt, wenn nicht gestürzt.7
Auch wenn Hansens Argument, gestützt auf das Werk von Alfred North Whitehead, weit komplexer ist, als ich hier wiedergeben kann, so kann man doch festhalten, dass er eine Lage zu beschreiben versucht, in der Umgebungen auf eine Weise von ›empfindenden‹ und immer kleiner, mobiler und unmerklich werdenden Medien durchdrungen, dass nur noch ökologische Terminologien angemessen scheinen. Und er betont, dass diese smarte Umgebung ›unsere‹ – also die menschliche – Position ›in Frage stellt‹, ja womöglich sogar ›stürzt‹. Darauf wird zurückzukommen sein. Wenn aber der Begriff der Ökologie (auch wenn Hansen eher von ›environment‹ spricht) verwendet wird, wo ist dann sein Schatten: die Ökonomie? Dieses Fehlen des Ökonomie-Begriffs ist kein Vorwurf speziell an Hansens Prognose bzgl. des ›21. Jahrhunderts‹. Vielmehr muss man festhalten, dass prognostische Diskurse generell dazu neigen, gegebene technologische Tendenzen (wie das bei Hansen im Mittelpunkt stehende Internet der Dinge) in die Zukunft zu extrapolieren, während gleichzeitig ein stabiler sozialer Hintergrund impliziert wird. Während sich in den meisten Zukunftsszenarien die Technologien rasend entwickeln, besticht das Soziale mit einer Härte und Stabilität, die ihm historisch selten zukommt. 5 | M. Hansen: Medien des 21. Jahrhunderts, S. 367. 6 | Ebd., S. 372. 7 | Ebd.
Das Internet der Dinge, die allgemeine Ökologie und ihr Ökonomisch-Unbewusstes
Auch Hansen verliert kaum ein Wort über die sozialen Verschiebungen, die mit der radikalen Ausdehnung sensorisch-atmosphärischer Medienumgebungen einhergehen könnten. Medientheoretisch ist das unbefriedigend, denn wenn es eine Einsicht gibt, auf die sich die verschiedenen Schattierungen zeitgenössischer Medientheorie einigen könnten, dann wäre es wohl die, dass Medien keine bloßen Werkzeuge für vorausgesetzte stabile Zwecke sind, sondern die Welt mit-konstituieren. Hansen schreibt weiter: Einzeln betrachtet sind diese Geräte und Technologien natürlich weit weniger komplex als der menschliche Körper und Geist – und zwar um viele Größenordnungen; doch zusammengenommen und durch ihre Fähigkeit, weitgehend ohne Unterbrechung und über eine enorme Bandbreite von Größenordnungen hinweg zu arbeiten, haben sie bereits begonnen, uns durch ihr Vermögen, sensorische Daten zu sammeln und zu erzeugen, in den Schatten zu stellen. 8
Diese aus dem Kontext gerissene Passage soll nicht überbelastet werden, aber es erscheint mir aufschlussreich, dass Hansen hier auf das ›Arbeiten‹ verweist und auf die Möglichkeit, dass die Technologien ›uns‹ (also die Menschen) durch ihre Arbeit ›in den Schatten stellen‹. Eine Lesart wäre, dass hier eine Art ›Ökonomisch-Unbewusstes‹ durchscheint, die soziale Form, die auf der manifesten Ebene des Diskurses kaum oder gar nicht erscheint. An dieser Stelle von Hansens Text taucht die Frage auf, inwiefern die ›smarten‹ und ›ubiquitären‹ Technologien, die mit dem Sammelnamen ›Internet der Dinge‹ zusammengefasst werden, die ›Arbeit‹ substituieren könnten.
D as E nde der A rbeit Die Diskussion, inwiefern digitale Technologien Arbeit substituieren und dadurch auf lange Sicht den Kapitalismus in die Krise stürzen, hat eine lange und kontroverse Geschichte.9 Norbert Wiener schrieb in seinem 1948 erschienenen Buch zur Kybernetik über die kommenden Potenziale der »modernen, ultraschnellen Rechenmaschinen«: Die automatische Fabrik und das Fließband ohne menschliche Bedienung sind nur so weit von uns entfernt, wie unser Wille fehlt, ein ebenso großes Maß von Anstrengung 8 | Ebd. (Hervorhebung J. S.). 9 | Vgl. für die amerikanische Geschichte dieser Diskussion auch und gerade lange vor den digitalen Technologien Bix, Amy: Inventing Ourselves out of Jobs? America’s Debate over Technological Unemployment, 1929-1981, Baltimore: The John Hopkins University Press 2002.
227
228
Jens Schröter in ihre Konstruktion zu setzen wie z.B. in die Entwicklung der Radartechnik im Zweiten Weltkrieg. […] Es kann sehr wohl für die Menschheit gut sein, Maschinen zu besitzen, die sie von der Notwendigkeit niedriger und unangenehmer Aufgaben befreien, oder es kann auch nicht gut sein. […] Es kann nicht gut sein, diese neuen Kräfteverhältnisse in Begriffen des Marktes abzuschätzen. […] Es gibt keinen Stundenlohn eines US-Erdarbeiters, der niedrig genug wäre, mit der Arbeit eines Dampfschaufelradbaggers zu konkurrieren. Die moderne industrielle Revolution ist ähnlicher Weise dazu bestimmt, das menschliche Gehirn zu entwerten, wenigstens in seinen einfacheren und mehr routinemäßigen Entscheidungen. […] Wenn man sich […] die zweite [industrielle] Revolution abgeschlossen denkt, hat das durchschnittliche menschliche Wesen mit mittelmäßigen oder noch geringeren Kenntnissen nichts zu verkaufen, was für irgendjemanden das Geld wert wäre.10
Neben Wiener ließ sich besonders prominent Marshall McLuhan 1964 im Kapitel ›Automation‹ seines medientheoretischen Klassikers Understanding Media über die »sinnlose Aufregung über Arbeitslosigkeit«11 aus. Schon 16 Jahre vorher wusste Wiener offenkundig besser, dass die dritte (er nennt sie zweite) industrielle Revolution eine großflächige, durch die Kostensenkungskonkurrenz – die wie McLuhan selber sagt: »Konkurrenzwut«12 – angetriebene Wegrationalisierung von Arbeit zur Folge hat. Und über hundert Jahre vor McLuhan wusste Karl Marx in einer nur als visionär zu bezeichnenden Vorwegnahme der automatisierten Produktion ebenfalls: wenn sich der Mensch nur mehr als »Wächter und Regulator zum Produktionsprozeß« verhält, hört (jedenfalls für die meisten) »die Arbeit […] [auf] […] Quelle des Reichtums zu sein«. Je weniger die Produktion »von der Arbeitszeit und dem Quantum angewandter Arbeit, als von der Macht der Agentien [,] […] vom Fortschritt der Technologie« abhängt, desto mehr »bricht die auf dem Tauschwert ruhende Produktion zusammen«: »Das Kapital ist selbst der prozessierende Widerspruch [dadurch], daß es die Arbeitszeit auf eine Minimum zu reduzieren stört [sic], während es andrerseits die Arbeitszeit als einziges Maß und Quelle des Reichtums setzt.«13 Der Prozess der Reduzierung der Arbeitszeit auf ein Minimum zeigt sich etwa in der Nutzung von Industrierobotern, die von der Autoindustrie bis zur vollautomatischen Videothek Millionen von Arbeitskräften überflüssig gemacht haben.14 10 | Wiener, Norbert: Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine, Düsseldorf/Wien: Econ 1963, S. 59-60. 11 | McLuhan, Marshall: Die magischen Kanäle, Dresden: Verlag der Kunst 1994, hier S. 527. 12 | Ebd., S. 518. 13 | Marx, Karl: Grundrisse der Kritik der politischen Ökonomie (Rohentwurf) 18571858, Frankfurt a.M.: Europäische Verlagsanstalt 1970, S. 592-593. 14 | Vgl. Noble, David F.: Forces of Production. A Social History of Automation, New York: Knopf 1984; Ramtin, Ramin: Capitalism and Automation: Revolution in Technology
Das Internet der Dinge, die allgemeine Ökologie und ihr Ökonomisch-Unbewusstes
Wie gleich noch detaillierter ausgeführt wird, sind es insbesondere digitale Technologien bis hin zum Internet der Dinge, die immer und immer mehr Arbeit überflüssig machen. Marx und seine wertkritischen Nachfolger haben daraus die Schlussfolgerung gezogen, dass der Kapitalismus irgendwann an der Produktivitätsentwicklung zerbricht, weil eine Reproduktion über Lohnarbeit, Geld, Warenkonsum unmöglich wird. Der Kapitalismus gerät in immer tiefere Krisen (von denen die Auf blähungen der Finanzmärkte ein Symptom sind) und der Ausweg kann nur noch darin bestehen, eben dessen soziale Formen zu überwinden und zum »Verein freier Menschen«15 jenseits der Formen von Arbeit, Ware, Geld und Staat vorzustoßen. Die arbeitssparenden Potentiale neuer Technologien erscheinen dann nicht mehr als Problem, sondern als Möglichkeit, Menschen von Arbeit zu befreien.16 Sicher, dieser Vorschlag mag allzu radikal erscheinen, doch die Frage nach der Überwindung des Zwangs, sich über Lohnarbeit reproduzieren zu müssen, ist angesichts ihres möglichen Verschwindens auch in anderen, weniger radikalen, Debatten beobachtbar, etwa in jenen zum bedingungslosen Grundeinkommen.17 Natürlich ist die Annahme eines Verschwindens der Arbeit durch die konkurrenzgetriebene Technologieentwicklung, scharf kritisiert worden, schon deswegen, weil eine solche Entwicklung mit dem heute vorherrschenden Glauben an die Natürlichkeit und daher Ewigkeit kapitalistischer Formen nicht and Capitalist Breakdown, London: Pluto Press 1991; und besonders beachtet: Rifkin, Jeremy: Das Ende der Arbeit und ihre Zukunft, Frankfurt a.M.: Fischer 1997; vgl. auch Cortada, James W.: The Digital Hand, 3 Bände, Oxford: Oxford University Press 2004, 2006, 2008. 15 | Marx, Karl: Das Kapital. Bd. 1, Berlin (Ost): Dietz 1988 (= MEW, Bd. 23), S. 92. 16 | Vgl. Ortlieb, Claus Peter: »Ein Widerspruch von Stoff und Form. Zur Bedeutung der Produktion des relativen Mehrwerts für die finale Krisendynamik« (2008), http://www. math.uni-hamburg.de/home/ortlieb/WiderspruchStoffFormPreprint.pdf, vom 18. Juli 2015; Lohoff, Ernst/Trenkle, Norbert: Die große Entwertung. Warum Spekulation und Staatsverschuldung nicht die Ursache der Krise sind, Münster: Unrast 2011; Kurz, Robert: Geld ohne Wert. Grundrisse zu einer Transformation der Kritik der politischen Ökonomie, Berlin: Horlemann 2012, hier Kapitel 15-18. Die Überwindung der Formen von Geld und Märkten hin zu einer demokratisch-kommunikativ organisierten Produktion wurde auch auf andere Weise in Erwägung gezogen, vgl. Fotopoulos, Takis: Towards an Inclusive Democracy: The Crisis of the Growth Economy and the Need for a New Liberatory Project, London/New York: Cassell 1997; Albert, Michael: Parecon. Leben nach dem Kapitalismus, Grafenau/Frankfurt a.M.: Trotzdem 2006. 17 | Vgl. z.B. Kurz, Constanze/Rieger, Frank: Arbeitsfrei. Eine Reise zu den Maschinen, die uns ersetzen, München: Riemann 2013, insb. S. 269 f f. Und kritisch Dath, Dietmar: Maschinenwinter. Wissen, Technik. Sozialismus. Eine Streitschrift, Frankfurt a.M.: Suhrkamp 2008, S. 40-44.
229
230
Jens Schröter
vereinbar ist. Unter dem Stichwort ›productivity paradox‹ wurde u.a. von Erik Brynjolfsson argumentiert, dass es gar keinen Hinweis darauf gäbe, dass digitale Technologien die Produktivität steigern und so Arbeit vernichten würden.18 Diese Annahmen gelten aber heute als widerlegt.19 Das zentrale Gegenargument lautet bis heute, dass selbst und gerade wenn digitale Technologien die Produktivität steigern, dies vielmehr zur Verbilligung der Produkte, somit zur Expansion der Märkte20 und damit zur Ausdehnung der absolut gebrauchten Arbeitsmenge führt. Außerdem können ja neue Arbeitsplätze in neuen Industrien entstehen. Die in Abbildung 1 gezeigten Kurven belegen das deutlich – trotz oder beziehungsweise gerade wegen der gesteigerten Produktivität stieg immer auch die Arbeitsmenge. Auch wenn der rechte Teil dieser Grafik nicht recht passen will – auch darauf komme ich gleich zurück –, scheint sie eine schlagende Widerlegung jeder Behauptung der Möglichkeit technologischer Arbeitslosigkeit zu liefern. Daher wurde diese Annahme auch als ›luddite fallacy‹ bezeichnet, in Anspielung auf die Luddisten, die Maschinenstürmer des 19. Jahrhunderts, die sich bzw. ihre Arbeit durch neue Technologien bedroht sahen.21 Und natürlich haben sich die Ludditen geirrt, zwar verschwand ihre Arbeit, aber es entstand neue.22 Deswegen kann etwa Alex Tabarrok schreiben: »[If] the Luddite fallacy were true we would all be out of work because productivity has been increasing for two centuries.«23 Zu diesem, zunächst so zwingend wirkenden, Argument 18 | Vgl. Brynjolfsson, Erik: »The Productivity Paradox of Information Technology: Review and Assessment« (1992), http://ccs.mit.edu/papers/CCSWP130/ccswp130.html, vom 18. Juli 2015. 19 | Vgl. Willcocks, Leslie P./Lester, Stephanie (Hg.): Beyond the IT Productivity Paradox, Chichester: Wiley 1999 und die marxianische Kritik, in: E. Lohoff/N. Trenkle, Die große Entwertung, S. 79-90. 20 | Problematisch ist allerdings gerade im klassisch-ökologischen Sinne, ob eine Expansion der Märkte in einer endlichen Welt unendlich weitergehen kann. 21 | Vgl. Jones, Steven E.: Against Technology: From the Luddites to Neo-Luddism, New York: Routledge 2006. 22 | Die bis heute – siehe den Ausdruck ›luddite fallacy‹ – anhaltende Verteufelung des Luddismus zeigt nur wie sehr die eigentlich differenzierten Ziele der ehemaligen realen historischen Bewegungen und ihre Implikation, dass Technologien und soziale Formen in Konflikt geraten könnten, unerträglich für das ideologisch-affirmative Denken ist, vgl. Linton, David: »Luddism Reconsidered«, in: Etcetera. A Review of General Semantics 42/1 (1985), S. 32-36. 23 | Zitiert nach: http://en.wikipedia.org/wiki/Technological_unemployment, vom 18. Juli 2015. Vgl. für eine optimistische Einschätzung der Entwicklung Levy, Frank/Murnane, Richard J.: The New Division of Labour. How Computers are Creating the next Job Market, Princeton: Princeton University Press 2004.
Das Internet der Dinge, die allgemeine Ökologie und ihr Ökonomisch-Unbewusstes
ist zweierlei zu sagen: Erstens trifft der Vorwurf des Luddismus zumindest die marxianische Kritik gar nicht, denn diese kritisiert ja nicht die Technologie per se, sondern vielmehr die sozialen Formen (›den Kapitalismus‹), die arbeitssparende Technologien nur in Arbeitslosigkeit bis hin zur totalen Krise der Reproduktion übersetzen können – statt die Potentiale der Technologien z.B. in einer demokratisch geplanten Produktion ohne Märkte und Geld für die Erleichterung des Lebens aller einzusetzen. Zweitens ist das Argument schon deswegen verfehlt, weil es unterstellt, dass aus der Geltung eines Sachverhalts in der Vergangenheit seine Geltung in der Zukunft folgt. Doch das ist schon logisch unsinnig und auch empirisch scheint die in Abbildung 1 gezeigte Kurve am rechten Rand (ab ca. 2000) ihre Gestalt hin zu einem Auseinanderklaffen von Produktivität und Arbeit zu verändern. Es gibt ja kein Naturgesetz, das garantiert, dass die erwähnten Kompensationsmechanismen immer ›schnell‹ genug sind, um das Verschwinden der Arbeit zu kompensieren.24 Und es könnte ja sein, dass es sich mit der Computertechnologie in all ihren Varianten anders verhält als mit bisherigen Technologien – schon deswegen, weil diese Technologie per definitionem programmierbar und also in ganz verschiedenen Praktiken einsetzbar ist. Sie erlaubt zugleich in verschiedenen Bereichen, manueller wie kognitiver Arbeit, Automatisierungen und Rationalisierungen. So wird die Flucht für den wegrationalisierten Industriearbeiter ins Taxifahren schwierig, wenn sich zugleich auch noch das derzeit stark beforschte ›autonome Fahren‹ durchsetzen wird …25 In der Tat sieht eine 2013 an der Oxford Martin School (Programme on the Impacts of Future Technology, Universität Oxford) veröffentlichte Studie »perhaps over the next decade or two« bis zu 47 Prozent aller Arbeit in den USA als hochgradig durch Computerisierung gefährdet an.26 Dabei spielt die Automatisierung kogniti-
24 | Man kann sich als Gedankenexperiment ja durchaus eine Technik vorstellen, die alle Arbeit überflüssig macht einschließlich der ihrer eigenen Reproduktion (etwa eine Technologie wie der ›Replikator‹ aus der Fernsehserie Star Trek – The Next Generation, die jeden beliebigen Gegenstand auf molekularer Ebene zusammensetzt und erzeugt). In diesem Grenzfall wäre auch eine noch so große Marktausdehnung (selbst wenn sie ökologisch akzeptabel wäre) nicht im Stande irgendwelche Arbeit zu erzeugen, denn selbst 1 Trilliarde mal 0 ist noch immer 0. Daher ist es, am Rande bemerkt, durchaus konsequent, dass die Welt von Star Trek nicht nur eine Welt mit Replikatoren ist, sondern auch eine ohne Geld und Märkte. 25 | Die oft anzutreffende Vorstellung, man könne wegrationalisierte Arbeitskräfte leicht irgendwo anders unterbringen, wird dadurch noch illusorischer, als sie es ohnehin schon war. 26 | Frey, Carl Benedikt/Osborne, Michael A.: The Future of Employment: How Susceptible are Jobs to Computerisation? http://www.oxfordmartin.ox.ac.uk/downloads/aca demic/The_Future_of_Employment.pdf, vom 18. Juli 2015, S. 44.
231
232
Jens Schröter
ver Arbeit 27 und insbesondere das »improvement of sensing technology«28 eine zentrale Rolle, womit wir schon dicht an der oben zitierten »technische[n] Kapazität des Fühlens, die durch unsere ›smarten‹ Geräte und Technologien eingeführt wurde« (Hansen) sind.
D ie A rbeit und das I nterne t der D inge Natürlich spricht Hansen 2011 nicht über Industriearbeit mit Fließbändern, wie Wiener das noch tun musste. Es geht um »Smartphones« und »smarte Sensoren«29, die empfinden, (halbwegs) intelligenten Algorithmen folgen, dadurch »sensorische Daten […] sammeln und […] erzeugen«30 und »uns […] in den Schatten […] stellen.«31 Unter der Hand führt Hansen damit ein Argument ein, das die Behauptung vieler Kritiker unterläuft, die digitale Abschaffung z.B. von Industriearbeit sei gar kein Problem, weil man ja in den ›Dienstleistungssektor‹, die ›Kreativindustrie‹ oder die ›Wissensökonomie‹ ausweichen könne. Denn im Grunde sagt er nichts anderes, als dass die atmosphärischen und smarten medialen Environments nun auch noch die sensorische, kognitive und womöglich affektive Arbeit zur Sache von digitalen Technologien machen und die Menschen darin eben ›in den Schatten stellen‹. Das ist umso bemerkenswerter, als die Debatte um die digitale Substitution von Arbeit und die gravierenden Probleme, die das für eine kapitalistische Ökonomie aufwirft, etwa zur selben Zeit wieder massiv aufflammte – nicht nur sieht sich die wertkritisch-marxianische Linke durch die weltweite Wirtschaftskrise inkl. massiver Arbeitsmarktprobleme seit 2008 auf das Genaueste bestätigt.32 Auch von Autoren, die keineswegs einer wertkritischen Perspektive nahestehen, wird in dasselbe Horn gestoßen.
27 | Vgl. ebd., S. 19: »Hence, while technological progress throughout economic history has largely been confined to the mechanisation of manual tasks, requiring physical labour, technological progress in the twenty-first century can be expected to contribute to a wide range of cognitive tasks, which, until now, have largely remained a human domain. Of course, many occupations being affected by these developments are still far from fully computerisable, meaning that the computerisation of some tasks will simply free-up time for human labour to perform other tasks. Nonetheless, the trend is clear: computers increasingly challenge human labour in a wide range of cognitive tasks.« 28 | Ebd., S. 17. 29 | M. Hansen: Medien des 21. Jahrhunderts, S. 372, 390. 30 | Ebd., S. 367. 31 | Ebd. 32 | Vgl. E. Lohoff/N. Trenkle: Die große Entwertung.
Das Internet der Dinge, die allgemeine Ökologie und ihr Ökonomisch-Unbewusstes
Computerunternehmer Martin Ford schrieb 2009 sein vielbeachtetes Buch The Lights in the Tunnel. Schon auf dem Klappentext werden unmissverständliche Fragen gestellt: »Where will advancing technology, job automation, outsourcing and globalization lead? Is it possible that accelerating computer technology was a primary cause of the current global economic crisis?«33 Ford betont, dass nun auch eine ganze Reihe von kognitiv komplexeren Tätigkeiten durch die wachsende künstliche Intelligenz unserer ›smarten‹ Geräte (die ja deswegen ›smart‹ heißen) übernommen werden können. Auch die Kopfarbeit werde wegrationalisiert.34 Noch eklatanter ist allerdings, dass ausgerechnet der erwähnte Erik Brynjolfsson, Professor am MIT, Direktor des MIT Center for Digital Business35 und jahrelanger Verfechter des ›productivity paradox‹, nun selbst ein Buch mit dem Titel Race against the Machine. How the Digital Revolution is Accelerating Innovation, Driving Productivity, and Irreversibly Transforming Employment and the Economy geschrieben hat: But there has been relatively little talk about the role of acceleration of technology. It may seem paradoxical that faster progress can hurt wages and jobs for millions of people, but we argue that’s what’s happening. As we’ll show, computers are now doing many things that used to be the domain of people only. The pace and scale of this encroachment into human skills is relatively recent and has profound economic implications. 36
In einem Artikel für die New York Times vom 11. Dezember 2012 wird die schon mehrfach erwähnte Grafik (Abb. 1) diskutiert – und dass ihre rechte Seite eindeutig ein Auseinandertreten von Produktivität und Arbeit zeigt. Die Autoren nennen dies ›die große Entkoppelung‹.37
33 | Ford, Martin: The Lights in the Tunnel. Automation, Accelerating Technology and the Economy of the Future, Wayne: Acculant Publishing 2009. 34 | Vgl. ebd., S. 67-73. Vgl. auch Ford, Martin: The Rise of the Robots, New York: Basic Books 2015. 35 | http://ebusiness.mit.edu/erik, vom 18. Juli 2015. 36 | Zusammen mit McAfee, vgl. Brynjolfsson, Erik/McAfee, Andrew: Race Against the Machine: How the Digital Revolution is Accelerating Innovation, Driving Productivity, and Irreversibly Transforming Employment and the Economy, Lexington, MA: Digital Frontier Press 2011, S. 9 und detaillierter S. 12-27. 37 | Brynjolfsson, Erik/McAfee, Andrew: »Jobs, Productivity and the Great Decoupling«, in: The New York Times vom 11. Dezember 2012, http://www.nytimes.com/2012/12/ 12/opinion/global/jobs-productivity-and-the-great-decoupling.html?_r=0, vom 18. Juli 2015.
233
234
Jens Schröter
Abbildung 1: The Great Decoupling/Die große Entkoppelung.
In gewisser Weise entdeckt nun auch die Computerindustrie bzw. das MIT von neuem das jahrelang (aus durchsichtigen ideologischen Gründen) verfemte und lächerlich gemachte Argument der wertkritischen Marx-Interpretation, dass die (digitalen) Produktivkräfte eben in einen fundamentalen Konflikt mit den (kapitalistischen) Produktionsverhältnissen geraten können. Wenn sogar radikal unkritische Berufsoptimisten38 wie Brynjolfsson dies einräumen, muss die Lage sehr ernst sein. Natürlich kommen Autoren wie Ford oder Brynjolfsson nicht zu dem Schluss, dass grundlegende gesellschaftliche Änderungen notwendig werden,39 sondern glauben, an den bisherigen sozialen Formen könne mit ein paar Reformen weiterhin festgehalten werden.40 Aber das ist hier zweitrangig.
38 | E. Brynjolfsson/A. McAfee: Race Against the Machine, S. 11: »We are strong digital optimists, and we want to convince you to be one too.«. 39 | Immerhin sprechen sie (ebd., S. 29) von einem »deeper structural change in the nature of production« – dass dieser tiefe strukturelle Wandel in der ›Natur‹ der Produktion aber über die Grenzen der kapitalistischen Produktionsweise hinausführen könnte, vor dieser doch nahe liegenden Konsequenz schrecken die Autoren natürlich zurück. 40 | Zur Kritik an Brynjolfsson/McAfee vgl. Heß, Ralf: »Werdet doch alle einfach Unternehmer? Ein wirtschaftlich tragfähiges Modell, um den Auswirkungen auf den Arbeitsmarkt durch technologischen Fortschritt begegnen zu können, fehlt immer noch« (2013), http://www.heise.de/tp/artikel/39/39139/1.html, vom 18. Juli 2015.
Das Internet der Dinge, die allgemeine Ökologie und ihr Ökonomisch-Unbewusstes
Ö konomie der Ö kologie Auffällig ist jedenfalls, dass die Frage nach der Arbeit in der neueren ›medienökologischen‹ Debatte zur Zukunft der Medien kaum auftaucht.41 Erich Hörl, Herausgeber des Bandes, in dem Hansens Text zum ersten Mal publiziert wurde, ist ebenfalls Beobachter der »kommunikationstechnologischen Ökologisierung des Seins«42 bzw. der »allgemein ökologische[n] Wirklichkeit einer weitgehend kybernetisierten, techno-logisch in der Umgebung verteilten, heterogenetischen Subjektivität.«43 Daher fordert er die neue Wissenschaft einer »Allgemeine[n] Ökologie.«44 In seinem Text schreibt er zum anfänglich schon genannten RFID (und zum ›smart dust‹): Ich denke etwa, um eine prominente Entwicklung zu nennen, an die medientechnische Evolution von RFID-Chips und damit etikettierter Objekte, die in einem Internet der Dinge gipfeln soll. […] Mit dem Eintritt in die ›RFID-Welt‹, […] wie Bruce Sterling den militärisch-hyperindustriellen Komplex der neuen Objektorientierung mit einer gewissen Emphase genannt hat, der zunächst als eine hauptsächlich logistische Umstellung mit gravierenden kontrollgesellschaftlichen Implikationen erscheinen mag, verändert sich indes nicht weniger als die Subjektivität, und zwar bis in ihre Tiefenschichten hinein. Im Verbund mit eingebetteten Sensoren, mobilen Technologien und relationalen Datenbanken destabilisiere RFID, so hat es Hayles auf den Punkt gebracht, die überkommenen Vorstellungen von menschlicher Welt- und Sinnbildung zugleich. […] Kurzum: RFID verdichtet nach Hayles nicht mehr und nicht weniger als das gegenwärtig hoch im Kurs stehende Programm verteilter Kognition. Es transformiert unser Bild des Denkens ob41 | In einem neueren Text geht Erich Hörl darauf wenigstens am Rande ein, vgl. »Das Arbeitslose der Technik. Zur Destruktion der Ergontologie und Ausarbeitung einer neuen technischen Sinnkultur bei Heidegger und Simondon«, in: Claus Leggewie (Hg.), Prometheische Kultur – wo kommen unsere Energien her?, München: Fink 2013, S. 111-136. Hörl bemerkt (114): »Die Prominenz und Dringlichkeit der Frage nach der Arbeit ist mithin weniger oder jedenfalls nicht zuallererst der Tatsache ihrer Technisierung, genauer ihrer Kybernetisierung, Automatisierung, schließlich Informatisierung und Immaterialisierung geschuldet, die immer wieder eine Verwandlung und schließlich sogar ein Ende der Arbeit im positiven wie im negativen Sinne befürchten oder erträumen ließ.« Ich würde dem zustimmen, insofern (s.u. mit Bezug auf Foucault) der Bezug auf die Arbeit schon lange vor den Diskussionen um ihr Verschwinden zentral war – aber gerade diese Zentralität macht diese Diskussion doch so relevant. 42 | Hörl, Erich: »Die technologische Bedingung. Zur Einführung«, in: ders. (Hg.), Die technologische Bedingung. Beiträge zur Beschreibung der technischen Welt, Frankfurt a.M.: Suhrkamp 2011, S. 7-53, hier S. 17. 43 | Ebd., S. 33. 44 | Ebd., S. 23 f f.
235
236
Jens Schröter jektiv. Im smart dust, dem intelligenten Feinstaub winziger miteinander verschalteter objektiver Interakteure, offenbart sich gewissermaßen eine transzendentale Technizität, die immer stärker die Züge technologischer Immanenz trägt. Maschinenhaftigkeit verliert sich dabei zugunsten einer Dinghaftigkeit. […] Das ist aus meiner Sicht die starke historisch-ontologische Ereignishaftigkeit von RFID, mit der sich eine neue Primarität, ja Primordialität von Umweltlichkeit als Grundzug der technologischen Bedingung heraushebt […]. 45
Dieser Analyse ist zuzustimmen, sowohl hinsichtlich der kontrollgesellschaftlichen Implikationen46 – also z.B. die Möglichkeiten permanenter Lokalisierbarkeit – als auch bzgl. des Punktes, wie RFID die Subjektivität, ja das ›Bild des Denkens‹ (auch eine Wendung von Deleuze) verändert. Doch gerade die moderne Subjektivität ist durch ihren Bezug auf ›Arbeit‹ bestimmt, wie etwa Foucault herausgearbeitet hat.47 Auch Hörl geht auf die Rolle der Arbeit ein, scheint sie aber – mit Simondon – einem »antiquierten Bild von Technik« und einer »untergehenden Sinnkultur«48 zuzuordnen. Die durch verteilte smart technologies strukturierte »ökotechnologische Subjektivität«49 ist nach Hörl mit dem Arbeitsbegriff nicht mehr zu fassen. Einerseits kann das angesichts der nervösen Diskussion um das Verschwinden der Arbeit, die gerade erst mit den neuen und immer ubiquitärer werdenden Digitaltechnologien aufkommt (z.B. bei Brynjolfsson) nicht recht überzeugen – ›Arbeit‹ ist und bleibt offenbar ein zentrales Problem unserer Zeit. Andererseits stimmt es in gewisser Hinsicht, wenn auch auf andere Weise als Hörl argumentiert. Tatsächlich nämlich, so die nervöse Diskussion, droht Arbeit mit den neuen ›atmosphärischen Medien‹ zu verschwinden.50 Nehmen wir noch einmal das Beispiel RFID. Eine der reich45 | Ebd., S. 27-28; Hörl bezieht sich auf einen Aufsatz von Katherine Hayles im selben Band. 46 | Vgl. Deleuze, Gilles: »Postscript on the Societies of Control«, in: October 59 (1992), S. 3-7. 47 | Vgl. Foucault, Michel: Die Ordnung der Dinge, Frankfurt a.M.: Suhrkamp 1993, hier S. 307 f f. 48 | E. Hörl: Die technologische Bedingung, S. 18. 49 | Ebd., S. 21 (Hervorhebung durch Hörl). 50 | Vgl. E. Hörl: Das Arbeitslose der Technik, S. 115: »Das ist eines der zentralen philosophischen Problemfelder der neuen technologischen Lebensform, ihrer entwerkendentwerkten Sinnkultur und ihres noch gar nicht so recht verstandenen Erfahrungssystems, Herausforderung, die sich eben nicht zufällig seit geraumer Zeit zuerst unterm Titel von Ende, Zukunft und Krise der Arbeit unter unseren Augen austrägt.« Dem würde ich zustimmen – mit dem möglichen Verschwinden der Arbeit stellt sich die Frage nach der ›Arbeit‹ überhaupt. Nicht zufällig hat die radikale marxianische Kritik, die den Widerspruch der avancierten (digitalen) Produktivkräfte zu den kapitalistischen Produk-
Das Internet der Dinge, die allgemeine Ökologie und ihr Ökonomisch-Unbewusstes
haltigsten Informationsquellen ist das RFID Journal im Netz. Zur Einführung in die Technik und ihre Potenziale empfiehlt sich ein Artikel mit dem Namen »What is RFID?«.51 Dort heißt es sehr explizit schon im dritten Absatz: »Some auto-ID technologies, such as bar code systems, often require a person to manually scan a label or tag to capture the data. RFID is designed to enable readers to capture data on tags and transmit it to a computer system – without needing a person to be involved.« ›Without needing a person to be involved‹ – es konnte wieder ein Arbeitsplatz gestrichen werden. Im Unterschied zu Hörl würde ich nicht argumentieren, dass man die neuen Medienumgebungen erst verstehen kann, wenn man auf den Arbeitsbegriff verzichtet, sondern umgekehrt, gerade wenn man versteht, wie die neuen Technologien Arbeit vernichten, versteht man, dass die (kapitalistische) Arbeitsgesellschaft in der Tat eine ›untergehende Sinnkultur‹ ist. Und damit wird die – laut Foucault, aber auch laut Hannah Arendt 52 – auf Arbeit hin ausgerichtete Subjektivität des modernen Menschen tiefgreifend verändert, viel radikaler und einschneidender als durch die Einsicht in die Verteiltheit der Kognition. Ebenso taucht in Hansens Text, obwohl er (wie Hörl) mindestens das Buch von Ford hätte kennen können, die Frage nach der (womöglich krisenhaften) Verschiebung sozialer Formen durch die »atmosphärischen Medienumgebungen«53 nicht auf. Der Begriff der Gesellschaft kommt sehr wohl in seinem Text zum Zuge, wenn auch in Anlehnung an Whitehead: »Erstens, alles, was erfahren werden kann, sind Gesellschaften, ob es sich nun um Gesellschaften wirklicher Einzelwesen handelt, um Gesellschaften anderer Gesellschaften (wirklicher Einzelwesen) oder um Gesellschaften von Gesellschaften … (wirklicher Einzelwesen).«54 Hier scheint ein Begriff von Gesellschaft durchzuschimmern, der letztlich auf – wie auch immer bestimmte, menschliche und/ oder nichtmenschliche – ›Einzelwesen‹ zurückführt. Dieser methodologische Individualismus55 erschwerte jeden Begriff der Form der Gesellschaft. Doch man täte Hansen mit dieser Lektüre unrecht, denn er fährt fort: »Für sich genommen […] können wirkliche Einzelwesen niemals erfahren werden oder sie können entsprechend nur indirekt als Elemente in Gesellschaften höherer Ordtionsverhältnissen schon früh thematisiert hat, ein radikales Manifest gegen die Arbeit vorgelegt, insofern der Zwang zur Reproduktion durch Arbeit mit ihrer technologiegetriebenen Obsoleszenz kollidiert, vgl. Gruppe Krisis: Manifest gegen die Arbeit, Erlangen: Förderverein Krisis 1999. 51 | http://www.rfidjournal.com/article/articleview/1339/1/129, vom 18. Juli 2015. 52 | Vgl. Arendt, Hannah: Vita acitva oder vom tätigen Leben, München: Piper 2002, hier S. 12-13 – mit ausdrücklichem Bezug auf das Verschwinden der Arbeit. 53 | M. Hansen: Medien des 21. Jahrhunderts, S. 391. 54 | Ebd., S. 376. 55 | Vgl. R. Kurz: Geld ohne Wert, Kapitel 3.
237
238
Jens Schröter
nung (und Gesellschaften der Gesellschaften …) erfahren werden.«56 Daher ist Hansen gut gerüstet, um die Form der Gesellschaft selbst zu thematisieren – und endet folgerichtig auch mit einem Absatz zu ›Technisch dezentralisierten Gesellschaften‹. Dort stellt er die Frage nach der »umweltliche[n] Handlungsmacht […] ausgeübt durch die quantifizierten Empfindungen, die von unseren digitalen Geräten erzeugt werden.« Er schlussfolgert, die »Einschränkung dessen, was unser Verstand operativ umfassen kann« sei »Argument für die technische Verteilung: Letztere steigert unsere kognitive, perzeptive und sensorische Handlungsmacht, eben weil sie uns in eine funktionale Kooperation mit kognitiven, perzeptiven und sensorischen Handlungsträgern versetzt, die unabhängig und autonom von unserer Handlungsmacht operieren.«57 Das ist alles richtig – wie wir z.B. von unseren hilfreichen »Smartphones«58 wissen. Doch gibt es keinen Grund, a priori anzunehmen, dass die technischen Akteure, die ›unabhängig und autonom von unserer Handlungsmacht operieren‹ immer mit uns kooperieren – könnten sie nicht auch mit uns konkurrieren? Hansen schreibt doch selbst, dass die »Fähigkeit [der smarten und atmosphärischen Medien], weitgehend ohne Unterbrechung und über eine enorme Bandbreite von Größenordnungen hinweg zu arbeiten« beginnt, uns, also die Menschen, »in den Schatten zu stellen.«59 Wieso bevorzugt Hansen dann am Ende seines Textes unbegründet die Kooperation – obwohl wir doch offenkundig in einer Gesellschaft leben, die durch die »Konkurrenzwut«60 geformt ist? Und wenn man argumentiert, die Geräte müssten kooperieren, da sie ja gleichsam unsere Geschöpfe seien – dann wären sie wohl kaum ›unabhängig‹ von unserer Handlungsmacht. Und könnten sie nicht, statt unsere Handlungsmacht zu steigern, sie auch substituieren und mithin auslöschen, etwa indem sie unsere Arbeit obsolet machen? An dieser Stelle führt die Frage nach der (kognitiven und affektiven) Arbeit und ihrer Verdrängung durch smarte Geräte und Umgebungen auf ein fundamentaleres Problem – nämlich die Frage nach dem Verhältnis von menschlichen und nichtmenschlichen Akteuren. Spätestens seitdem die Akteur-NetzwerkTheorie zum vielgenutzten Ansatz wurde, steht die ›Symmetrie‹ menschlicher und nichtmenschlicher Akteure (z.B. smarter Geräte, aber durchaus auch alle anderen Dinge oder Entitäten) im Mittelpunkt. Sie sollen gleichbehandelt und gleichermaßen einbezogen werden. Diese Annahme wurde zumeist als Appell verstanden, die Eigenschaften und Handlungsmacht der Dinge nicht als abgeleitet von menschlicher Handlungsmacht zu interpretieren. Handlungsmacht 56 | M. Hansen: Medien des 21. Jahrhunderts, S. 376. Siehe auch S. 381. 57 | Ebd., S. 408. 58 | Ebd., S. 372. 59 | Ebd. 60 | M. McLuhan: Die magischen Kanäle, S. 518.
Das Internet der Dinge, die allgemeine Ökologie und ihr Ökonomisch-Unbewusstes
wird vielmehr als verteilt zwischen menschlichen und nichtmenschlichen Akteuren beschrieben. Dieses Bild setzt aber bereits, ähnlich wie bei Hansen, die Kooperation als selbstverständlich voraus. Michel Callon hatte in seinem berühmten Text zur ›Soziologie der Übersetzung‹ noch betont, dass verschiedene Akteure durch Prozesse des ›Interessement‹ und des ›Enrolment‹ eingebunden werden müssen und jederzeit auch wieder ausscheren, sich querstellen oder opponieren können.61 Bei Hansen wird eine prästabilisierte Harmonie zwischen den neuen – ›smarten‹ – medialen Infrastrukturen und der Form der Gesellschaft erschlichen. Ein Konflikt zwischen Produktivkräften und Produktionsverhältnissen wird von vorneherein unbegründet negiert. Der (potentielle) Konflikt zwischen menschlichen und nichtmenschlichen Akteuren muss gegenüber Hansens transzendentalem Harmonismus betont werden.62 Aber ebenso macht es keinen Sinn, von einer a priori gegebenen Feindschaft, einem transzendentalen Agonismus von menschlichen und nichtmenschlichen Akteuren auszugehen.63 Letztendlich also steht am Ende der Erörterung die schlichte Aufforderung, die ubiquitäre technologische Durchdringung durch RFID, smart dust, letztlich das Internet der Dinge vor jeder affirmativen oder apokalyptischen Bejahung oder Verneinung zu bewahren, die aus der Auslöschung der historischen Praktiken hervorgeht. Vielmehr muss die wortwörtliche Einbettung in die historischen Texturen analysiert werden, um den genuin ökonomischen und politischen Charakter des Internets der Dinge zu rekonstruieren. Schon der bloße Begriff ›Internet der Dinge‹ suggeriert eine Zurückdrängung menschlicher Akteure – denn schließlich sollen jetzt die Dinge kommunizieren. Interessant ist, dass Kapitalismus per se so verstanden werden kann, dass die Kommunikation der Dinge (über Preise am Markt etwa) an die Stelle menschlicher Kommunikation tritt.64 Die Dinge üben bekanntlich gerne ›Sachzwänge‹ aus. Insofern mutet das Internet der Dinge fast wie eine Extension der Ware-Ware-Beziehungen in technologische Form an – und daher ist es 61 | Vgl. Callon, Michel: »Einige Elemente einer Soziologie der Übersetzung: Die Domestikation der Kammmuscheln und der Fischer der St. Brieuc-Bucht«, in: Andréa Belliger/David Krieger (Hg.), ANThology. Ein einführendes Handbuch zur Akteur-NetzwerkTheorie, Bielefeld: transcript 2006, S. 135-174. 62 | Vgl. auch Schröter, Jens: »Das automatische Subjekt. Überlegungen zu einem Begriff von Karl Marx«, in: Hannelore Bubitz et al. (Hg.), Unsichtbare Hände. Automatismen in Medien-, Technik- und Diskursgeschichte, München: Fink 2011, 215-256. In diesem Text versuche ich zu zeigen, dass man auch Marx’ Theorie des Fetischs als Theorie der widerständigen Eigenmacht der (Waren-)Dinge lesen kann. 63 | Wie es sich bei Mersch, Dieter: Ordo ab Chao – Order from Noise, Zürich: Diaphanes 2013 anbahnt. 64 | Vgl. nochmals J. Schröter: Das automatische Subjekt.
239
240
Jens Schröter
wenig verwunderlich, dass das ›Internet der Dinge‹ wesentlich unter der Perspektive der Verwertung des Werts diskutiert wird. In Deutschland wird es in der Regel mit dem Schlagwort ›Industrie 4.0‹ verbunden.65 Die Digitalisierung und Vernetzung entlang der ›Wertschöpfungsketten‹ soll selbstverständlich mehr Arbeit und Wohlstand erzeugen. Doch es bleibt die Frage, ob das Internet der Dinge mehr sein wird als der phantasmatische Versuch, Fabriken nun wirklich in ›automatische Subjekte‹ zu verwandeln – mit der Folge einer fortschreitenden, krisenhaften Destabilisierung gesellschaftlicher Verhältnisse. Das Internet der Dinge könnte auch der Vorschein einer post-kapitalistischen Produktionsweise sein, die Menschen von Arbeit befreit. Doch dafür müsste die Entwicklung der entsprechenden Infrastrukturen und ihrer Einsätze einer offeneren Diskussion zugänglich sein.
65 | Vgl. dazu den Beitrag von Kai Hofmann und Gerrit Hornung in diesem Band.
Industrie 4.0 ante portas Paradigmenwechsel im deutschen Maschinen- und Anlagenbau Sabina Jeschke a/Tammo Anderschb/Karsten Schulze b/Dorothée Fritschb/ Katharina Marquardt b/Tobias Meisen a/Anja Richert a/Max Hoffmann a/ Christian Tummel a
1.0 H intergrund und M e thodik Ein Großteil der technologischen Entwicklungen in den Ingenieurwissenschaften wurde in Deutschland durch den Maschinen- und Anlagenbau geprägt. In enger Vernetzung entwickelten Wirtschaft und Wissenschaft die erzielten Ergebnisse kontinuierlich weiter, machten sie für ein breites Anwendungs- und Produktspektrum zugänglich und bildeten so das Fundament des bisherigen Erfolgs auf dem Weltmarkt. Die vierte industrielle Revolution prägt jedoch neue Erfolgsfaktoren – sie ist gekennzeichnet durch fortschreitende Digitalisierung, umfassende Vernetzung aller Komponenten, Notwendigkeit dezentraler Steuerungskonzepte und intelligente, (teil-)autonome Systeme. Die Globalisierung beschleunigt den Wandel durch steigende Konnektivität von Menschen, Organisationen und Technologien. Zur Gewährleistung einer nachhaltigen Zukunftsfähigkeit müssen sich deutsche Unternehmen, die Forschungslandschaft und die Politik kritisch mit grundlegenden Fragen auseinandersetzen: Inwieweit sind die bisherigen Erfolgsmodelle auch im Industrie 4.0-Zeitalter noch tragfähig? Inwiefern müssen sie durch neue Ansätze ergänzt bzw. grundlegend verändert werden? Welche Rahmenbedingungen und Einflussfaktoren begünstigen den zukünftigen Erfolg? Im Mittelpunkt der vorliegenden Studie stehen die Chancen und Herausforderungen der vierten industriellen Revolution für den deutschen Maschinen-
a | Institut Cluster IMA/ZLW & IfU, Fakultät für Maschinenwesen, RWTH Aachen University, Aachen, [email protected] b | Andersch AG Wirtschaftsprüfungsgesellschaft, Frankfurt a.M.
242
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
und Anlagenbau sowie die Erfolgsfaktoren und Lösungsansätze zur Erhaltung der gegenwärtigen Wettbewerbsposition im globalen Markt. Der vorliegenden Studie liegt ein neuartiges, Big Data-gestütztes Analyseverfahren zugrunde, das klassische Methoden der qualitativen empirischen Sozialforschung/Befragung mit innovativen quantitativen, computergestützten Analysen großer Datenbestände (Big Data Analytics) verbindet. Big Data-Analysen, als spezielle Form der datengetriebenen Verfahren, unterscheiden sich von bisherigen Ansätzen im Wesentlichen durch die systematische Analyse großer Volumina hochveränderlicher, stark heterogener Daten. Sie ermöglichen weitestgehende Objektivierung der Analyseergebnisse und machen (Multi-)Kausalitäten und Wirkzusammenhänge sichtbar. Die entsprechend breit angelegte Analyse der Ist-Situation bildet die Grundlage zur Ableitung tragfähiger Maßnahmen zur Erhaltung der Wettbewerbsfähigkeit. Der eingesetzte Datenkorpus umfasst weit über eine Million wissenschaftliche Publikationen, populärwissenschaftliche Primärquellen und Fachzeitschriften mit weltweiter Verbreitung. Etablierte Wissenschaftsplattformen wie CiteSeer sowie ein darauf gestütztes, systematisches Data Scraping geeigneter Primärquellen bilden das Fundament der Textauswahl. Die acht wesentlichen Hypothesen – der Kern der vorliegenden Studie – werden im Folgenden näher erläutert.
2.0 M ärk te im W andel These 1: Deutschland hat entscheidende Entwicklungen der Digitalisierungsära und der resultierenden 4.0-Konsequenzen zu spät erkannt. Die vierte industrielle Revolution bestimmt weltweit die Entwicklungen im Maschinenbausektor. Ihre zentralen Elemente sind eine umfassende Vernetzung von Informationssystemen in Form eines Internets der Dinge sowie der Einsatz dezentraler, (teil-)autonomer Systeme – vor allem in Produktion, Einkauf und Logistik. Obwohl die Bundesregierung den Begriff Industrie 4.0 bereits 2011 prägte und die Entwicklung zum Schwerpunkt ihrer Hightech-Strategie erklärte, wurde der Trend bisher insbesondere in kleinen und mittelständischen Unternehmen wenig aufgenommen – diese aber waren in der Vergangenheit maßgeblich an den Innovationen Deutschlands beteiligt, oft sogar treibend. Lediglich 27 % der befragten deutschen kleinen und mittleren Unternehmen (KMU) erklärten 2014, eine konkrete Vorstellung von Indus-
Industrie 4.0 ante portas
trie 4.0 zu haben.1 Unterdessen schreitet die globale Entwicklung mit hoher Geschwindigkeit voran – sollte die deutsche Industrie weiter ins Hintertreffen geraten, drohen Einbußen der Bruttowertschöpfung bis 2025 alleine im deutschen Maschinenbausektor von bis zu 31 Milliarden Euro.2 Abbildung 1: Interesse an der Technologie des Internets der Dinge in ausgewählten Staaten (Normierung anhand des Maximalwertes der Suchanfragen gemessen auf einer prozentualen Skala). Die Spitzenposition Südkoreas deckt sich mit dem dortigen Ausbau des mobilen Breitbandnetzes. In Deutschland spielt es – ebenso wie in Japan – noch eine untergeordnete Rolle. Die USA zeigten bereits 2005 ein erstes Interesse an Cloud-basierten Lösungen auf Basis eines Internets der Dinge.
Quelle: Nets ’n’ Clouds Analytics, Aachen, Darstellung auf Basis von Google Trend Analysis
Bisher waren Kerndisziplinen wie Präzision und Effizienzsteigerung die Grundlage des globalen Erfolgs deutscher Maschinenbauer, doch die »optimalen performance-engines«3 verlieren in der Vernetzung in Form des Internets der Din1 | Willhardt, Rahel: »Wo Bauern den Autofirmen was vormachen«, www.handelsblatt. com/technik/vernetzt/smart-farming-smart-factoring-und-co-wo-bauern-den-autofir men-was-vormachen/10708266.html, vom 26. September 2014. 2 | Sommerfeldt, Nando: »Deutscher Wirtschaft droht feindliche Übernahme«, http://m. welt.de/wirtschaft/article138427072/Deutscher-Wirtschaft-droht-feindliche-Ueber nahme.html, vom 15. März 2015; Roland Berger Strategy Consultants, »Die digitale Transformation der Industrie«, Bundesverband der Deutschen Industrie e.V. (BDI), 2015. 3 | R. Willhardt, »Wo Bauern den Autofirmen was vormachen«.
243
244
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
ge an Bedeutung. Während hohe Qualität früher vor allem durch exzellente Abläufe, hochqualitative Maschinen und hervorragend ausgebildetes Personal realisiert wurde, können Fehler nun mittels Big Data-basierten Verfahren, also durch Analyse der Prozessdaten mit anschließender Kompensation von Fertigungsintoleranzen während des Fertigungsprozesses in Echtzeit minimiert werden. Das Vordringen von Low Cost-Alternativen wie 3D-Druck-Verfahren in die verschiedenen Technologie- und Produktionsbereiche verstärkt diese Entwicklung weiter. Diese Verfahren könnten sich demnach zu einer ernsten Bedrohung für den deutschen Maschinenbau mit seiner klassischen Fertigung entwickeln. In Deutschland haben viele – vor allem technische – Bereiche das Potenzial dieser Entwicklungen noch nicht erkannt, während besonders im angelsächsischen Raum, aber auch in den neuen asiatischen Wachstumsmärkten 4.0 Anwendungen bereits seit Längerem präsent sind. Abbildung 2: Nutzer von Cloud Computing nach Unternehmensgröße (Anteil der Unternehmen in %).
Quelle: BITKOM
Das geringe deutsche Interesse am globalen Technologiewandel verdeutlicht auch eine Statistik über Standardisierungs-Aktivitäten: Obwohl die deutsche Industrie fehlende Standards übereinstimmend als eines der zentralen Hemmnisse bei der Implementierung der Industrie 4.0 wahrnimmt, konnten diesbezüglich bisher keine vergleichbaren Fortschritte erzielt werden wie etwa in den USA. Zu einem weiteren ernsthaften Wettbewerbsnachteil könnte sich die hierzulande insbesondere aufgrund von Sicherheitsbedenken geringe Nutzung
Industrie 4.0 ante portas
von Cloud-Diensten4 entwickeln, denn vor allem KMU können die Beschaffung und den Betrieb anspruchsvoller IT-Ressourcen oft nicht aus eigener Kraft stemmen. Eine Folge davon ist z.B. ein geringer Einsatz von Simulationssoftware, die durch die Möglichkeit zum gefahrlosen Experimentieren und Entwickeln aber eine entscheidende Basis für Innovationen bildet. Ebenso wurde eine breite Aufstellung und Expertise in Bereichen der Datenanalytik auch in führenden deutschen Unternehmen häufig noch nicht oder erst spät angestrebt. Bereiche wie Business Intelligence oder Datenanalyse werden immer noch verbreitet als Spezialdisziplinen für IT-Firmen angesehen und nicht (auch) als Betätigungsfeld für deutsche Industrieunternehmen. Doch zunehmend setzt ein Umdenken ein: Etwa 30 % der KMU planen entsprechende Mittel ein. Auch die großen deutschen Automobilkonzerne adressieren das Thema seit längerer Zeit, da ihre zukunftsorientierte Branche in mehrfacher Hinsicht betroffen ist: Zum einen etabliert Industrie 4.0 neue Paradigmen in der Fertigung, zum anderen entstehen durch die Vernetzung von Fahrzeugen und Smartphone, Fahrzeugen untereinander (car2car) bzw. Fahrzeugen mit Infrastruktur (car2infrastructure) neue Konstrukte, die der Etablierung eines Internets der Dinge in ihrem Segment sehr nahe kommen und dem Endkunden neue Anwendungsmöglichkeiten erschließen5. Eine zentrale Herausforderung für KMU des deutschen Maschinenbaus liegt darin, neuartige Big-Data-Technologien mit ihren Geschäfts- und Innovationsprozessen in Einklang zu bringen und das darin liegende Innovationspotenzial zu nutzen. Ein wichtiger Faktor für die erfolgreiche Platzierung von Produkten am Markt ist dabei die unmittelbare Berücksichtigung von Kundenwünschen innerhalb der Innovationsprozesse. Die Beispiele Apple und Amazon verdeutlichen, wie der Einsatz leistungsstarker, Big Data-basierter Plattformen die Analyse, Auswertung und Vorhersage von Kundenbedürfnissen ermöglicht. Vergleichbare Ansätze sind auch für den Maschinen- und Anlagenbau vorstellbar. In dem Maße, in dem es immer einfacher wird, die Kundenbedarfe automatisiert zu erfassen und zu berücksichtigen, steigt jedoch umgekehrt die Anforderung, maßgeschneiderte Produkte bereitzustellen. So hängt die Wettbewerbsfähigkeit des deutschen Maschinenbaus entscheidend davon ab, inwieweit er den informationstechnischen Trends zur Weiterentwicklung des eigenen Portfolios folgen kann und tatsächlich folgt.
4 | European Commission, »Eurostat – Your key to European statistics«, http://ec.euro pa.eu/eurostat/, vom 31. Dezember 2014; Bitkom: »Cloud Computing wird Basistechnologie in vielen Unternehmen«, www.bitkom.org/de/presse/8477_81706.aspx, vom 06. Mai 2015. 5 | Schnell, Christian: »Die Branche erfindet sich neu – Herausforderungen wie beim Übergang von der Kutsche zum Auto«, in: Handelsblatt, vom 28. Oktober 2014.
245
246
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
These 2: Die deutschen Produkte treffen zu wenig die zentralen Bedürfnisse der Schwellenländer. Deutsche Unternehmen haben in den vergangenen Jahren erfolgreich große Wachstums- und Schwellenmärkte, insbesondere in den BRICS-Staaten erschlossen. Gleichwohl ist die Wettbewerbsfähigkeit deutscher Produkte zunehmend bedroht6 und eine Fokussierung auf historische, weitgehend gesättigte Zielmärkte ermöglicht kaum noch reales Absatzwachstum. Neue, junge Märkte mit geringer Marktsättigung müssen stattdessen erschlossen werden. Allerdings sind in den Emerging Markets die qualitativen Vorteile deutscher Produkte zwar bekannt, oft sind deren höhere Beschaffungskosten jedoch weder finanzierbar noch stehen sie in einem vertretbaren Verhältnis zum angestrebten Einsatz. Abbildung 3: Abnehmerländer deutscher Exporte (in %). In nahezu allen Branchen werden rund zwei Drittel der Güter in kleineren und aufstrebenden Nationen abgesetzt.
Quelle: Statistisches Bundesamt
Während im deutschen Heimatmarkt Qualität, Service und Systemintegration und ein optimales Preis-Leistungs-Verhältnis wesentliche Wettbewerbsvorteile darstellen, genügen in Schwellenländern oftmals mittlere Produktqualitäten zu möglichst günstigen Preisen den Anforderungen.7 Seit einigen Jahren 6 | Erber, Georg/ Schrooten, Mechthild: »BRICS: Deutschland profitiert vom Wachstum in Brasilien, Russland, Indien, China und Südafrika – Wie lange noch?«, www.diw. de/sixcms/detail.php?id=diw_01.c.407175.de, vom 04. August 2012; Römer, Christof: »Marktposition der deutschen Wirtschaft in den BRIC-Staaten«, in: IW-Trends – Vierteljahresschrift zur empirischen Wirtschaftsforschung aus dem Institut der deutschen Wirtschaft 3 2011, S. 1-14. 7 | Statistisches Bundesamt, »Destatis Statistisches Bundesamt«, https://www.desta tis.de/DE/Startseite.html, vom 31. Dezember 2014.
Industrie 4.0 ante portas
werden deutsche Produkte daher zunehmend in schmaler werdende Hochpreisnischen verdrängt, die nicht auf die primären Industriebedürfnisse in den Schwellenmärkten abzielen. Hochtechnologie-Produkte aus Deutschland konnten daher in den Statistiken in den vergangenen Jahren nicht im selben Maße wachsen wie der Gesamtexport. Dazu kommt, dass sich Deutschland in den neuen digitalen Marktfeldern im globalen Exportvergleich nur auf Rang 28 befindet, obwohl diese Produktgruppe einen wachsenden Anteil am weltweiten Exportmarkt ausmacht. Um ihre aktuelle Führungsposition auf Dauer halten zu können, müssen sich deutsche Unternehmen daher auch mit IT-nahen Produkten stärker positionieren.8 Entscheidend ist, Produktlinien hoher Qualität und Individualisierung nicht nur beizubehalten, sondern auszubauen und weiterzuentwickeln. Zudem verbleiben Emerging Markets nicht dauerhaft in ihrem jetzigen Übergangsstatus, sondern etablieren sich mehr und mehr, wodurch ihre Anforderungen schrittweise ansteigen. Während also der Drang der westlichen Märkte nach Individualisierbarkeit von Produkten heute eine große Hürde für eine kostengünstige Massenproduktion für den Schwellenländermarkt darstellt, eröffnet genau diese Anforderung die größten Chancen für deutsche Unternehmen, nicht nur mittel-, sondern auch langfristig in den Emerging Markets Fuß zu fassen. Voraussetzung dafür ist jedoch, dass in bereitgestellte Produkte und Dienstleistungen deutscher Unternehmen dann neue Technologien der Digitalisierung integriert werden. These 3: Die KMU, die oftmals Hidden Champions und ein deutsches Erfolgsmodell sind, haben nicht die hinreichende Größe für die unter Industrie 4.0 erforderlichen Systementwicklungen. KMU bilden das Rückgrat der deutschen Wirtschaft und stellen eine große Zahl so genannter Hidden Champions. Diese der breiten Öffentlichkeit wenig bekannten Unternehmen (mit einem Umsatz über 50 Millionen Euro und über 500 Mitarbeitern) verfügen in ihrem jeweiligen Segment über eine führende Position im globalen Markt und zeichnen sich meist durch hohe Kundennähe, gezielte Forschungs- und Entwicklungs-Investitionen und hohe Innovationskraft aus. Rund 1.400 mittelständische deutsche Unternehmen gelten in ihrem jeweiligen Marktsegment als weltweit führend.9 Selbst in makroökonomischen 8 | Central Intelligence Agency (CIA), »The World Factbook«, https://www.cia.gov/libra ry/publications/the-world-factbook/, vom 31. Dezember 2014. 9 | Bögelein, Peter: »Weltmarktführer-Treffen in Schwäbisch Hall«, www.tagblatt.de/ Home/nachrichten/wirtschaft/ueberregionale-wirtschaft_artikel,-WeltmarktfuehrerTreffen-in-Schwaebisch-Hall-_arid,161041.html, vom 19. Januar 2015; Venohr, Bernd: »Erfolgsmodell: Deutscher Mittelstand«, www.berndvenohr.de/download/veroeffentlich
247
248
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
Krisenzeiten entwickelten sich deutsche KMU vergleichsweise stabil. Wesentliche Erfolgstreiber waren ihre Innovationskraft und Flexibilität, flankiert durch politische Lenkungsmaßnahmen wie die Ermöglichung von Kurzarbeit10. Inzwischen haben sich deutsche KMU insbesondere dort als führend etabliert, wo IT-gestützte Systeme und Verfahren die neuen Herangehensweisen dominieren. Die erforderlichen Investitionen in Systementwicklung und ‑ausbau sind aber entweder zu hoch oder werden gescheut, ebenso fehlt es oft an eigenen IT-Fachkräften bzw. Strukturen. Ihre Zurückhaltung bei der Nutzung externer Ressourcen, etwa der Cloud, verschärft das Problem und führt zu Wettbewerbsnachteilen gegenüber ausländischen KMU. Denn mit Cloud-Diensten lassen sich vielfach höhere Wachstumsraten realisieren als bei einer offline-Nutzung eigener IT-Ressourcen.11 Hinzu kommt, dass zunehmend Systemlösungen dominieren, das heißt komplexe Leistungen, die die gesamten Bedürfnisse eines Kunden bedienen. KMU sind aber meist in einem eher produktorientierten Segment tätig und können daher in der Regel selbst nicht als Systemanbieter auftreten. Hier sind neue Verbundstrukturen und das Bilden gezielter Kooperationen bzw. externer Kompetenzauf bau erforderlich, damit KMU ihre Marktanteile dauerhaft halten können. Zugleich entstehen rasant wachsende neue Technologiebereiche – wie die Nano-, Bio- oder Informationstechnologie – mit dem Ziel, alte Geschäftsmodelle (zumindest in Teilen) zu ersetzen. Insbesondere hier ist die Präsenz deutscher KMU deutlich schwächer; die in diesen neuen Branchen aktiven Unternehmen sind vielfach nicht mehr in Europa beheimatet. Deutsche KMU und junge Start-ups verfügen nur bedingt über die nötigen Ressourcen, um gezielt neue, internationale Märkte zu erschließen.12 Auch hier stehen KMU vor besonderen Herausforderungen im Auf bau entsprechender Kompetenzen. Eine weitere Herausforderung liegt in der erforderlichen Veränderung der Zeitskalen von Produktlinien: Bestehende Produktionssysteme arbeiten besonungen/sonstige/05_2009/Roedl_Erfolgsmodell_DeutscherMittelstand.pdf, vom 20. Dezember 2014. 10 | Kinkartz, Sabine: »Wie Deutschland es durch die Krise schaffte – Bundestagswahl 2013«, www.dw.de/wie-deutschland-es-durch-die-krise-schaffte/a-16977435, vom 20. Dezember 2014; Illing, Falk: Deutschland in der Finanzkrise: Chronologie der Deutschen Wirtschaftspolitik 2007 – 2012, Wiesbaden: Springer VS, 2013. 11 | »Internet matters: The Net’s sweeping impact on growth, jobs, and prosperity«, www.mckinsey.com/insights/high_tech_telecoms_internet/internet_matters, vom 19. Januar 2015. 12 | Arbeitskreis Mittelstand: »KMU und Innovation – Stärkung kleiner und mittlerer Unternehmen durch Innovationsnetzwerke«, Wirtschafts- und sozialpolitischen Forschungs- und Beratungszentrum der Friedrich-Ebert-Stiftung, Bonn 2004.
Industrie 4.0 ante portas
ders wirtschaftlich, wenn sie auf die Produktion von Mittel- bis Großserien ausgelegt sind. Hier wird eine optimale Ausnutzung von Skaleneffekten erreicht.13 Das gilt insbesondere für KMU und ihre – i.d.R. weniger zahlreichen – Produkte, die über einen längeren Zeitraum hinweg vertrieben werden sollen. Entscheidende Bedeutung kommt hier dem Anlauf-Management (Ramp-up) einer Produktion bzw. eines Produkts zu. Dabei wird eine Produktionsstätte aufwändig dahingehend optimiert, ein angefordertes Produkt möglichst schnell, effizient und kostengünstig produzieren zu können. Der klassische Ansatz sieht hierin eine zeitlich abgrenzbare Phase mit definiertem Start- und Endpunkt. Abbildung 4: Ramp-up im Übergang von »mass production« zu »mass customization«, die Ramp-up-Phasen werden mehr, verkürzen sich aber.
Quelle: Nets ’n’ Clouds Analytics, Aachen
Die Industrie 4.0 verändert den Ramp-up-Prozess erheblich: von mass production zu mass customization: Anstatt der Ramp-up-Phase eines einzelnen, abgrenzbaren Produkts entsteht – parallel zur Anzahl der möglichen Produktvarianten – eine multiple Ramp-up-Phase, bestehend aus einem Bündel separater Ramp-up-Prozesse.14 13 | Vgl. ausführlicher O’Sullivan, Arthur/Sheffrin, Steven: Economics: Principles in Action, Upper Saddle River: Pearson Prentice Hall 2003. 14 | Jeschke, Sabina, »Distributed AI Models for Ramp-up Processes – A Talk on Multi Agent Systems«, präsentiert bei der ICRM – 2nd Int. Conference on Ramp-up Management, Aachen 13. Juni 2014.
249
250
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
Mit einer »Technik zur Automatisierung der Losgröße-1« zu vergleichbaren oder konkurrenzfähigen Preisen verändert sich das Bild nochmals: Jedes Produkt ist dann per Konstruktion ein Einzelstück. Das Ramp-up verschmilzt damit vollständig mit dem Produktionsprozess. Das erfordert nicht nur die Entwicklung komplett neuer Theorien, sondern auch komplett neue organisatorische Abläufe in den Unternehmen sowie damit verbundene Investitionen.
3.0 E ntstehung neuer W e t tbewerber These 4: Der aktuelle Vorsprung schwindet, da die Aufholgeschwindigkeit der Wettbewerber – z.B. aus China und Südkorea – unterschätzt wird. Noch ist Deutschland führender Exporteur in 16 der 32 Branchen des Maschinen- und Anlagenbaus. Der erzielte Exportzuwachs Chinas zwischen 2008 und 2013 liegt durchgehend vor Deutschland und den USA.15 Bedingt durch den schwachen Euro erholte sich der deutsche Export in 2014 mit einem Plus von 3,7 %, während China nur 3,4 % Wachstum verzeichnete – langfristig wird China den deutschen Export allerdings weiter überholen.16 Zudem scheint China, ebenso wie Südkorea, das Potenzial der vierten industriellen Revolution erkannt zu haben. Das umfassende Programm der chinesischen Regierung zur Entwicklung cyber-physischer Systeme geht an Stringenz deutlich über die Ansätze der von der Bundesregierung gestarteten Hightech-Initiativen hinaus. Der Staat hat bereits den Fonds in Höhe von 40 Milliarden Yuan für die Anleitung der Investitionen in die Existenzgründung in den neuen Industrien errichtet. Zeitgleich verabschiedete auch Südkorea ein gezieltes Programm zur Verknüpfung von IT-Technologien und Fertigungsprozessen. China und Südkorea schließen im Bereich der Forschung und Entwicklung zunehmend auf.17 15 | »Welt auf einen Blick«, www.welt-auf-einen-blick.de/, vom 31. Dezember 2014. 16 | »Flaue Wirtschaft: China verfehlt Exportziel für 2014«, www.spiegel.de/wirtschaft/ soziales/china-exporte-weit-unter-erwartungen-a-1012664.html, vom 13. Janunar 2015; »Pressemitteilungen – Deutsche Exporte im Jahr 2014: + 3,7 % zum Jahr 2013 – Statistisches Bundesamt (Destatis)«, https://www.destatis.de/DE/PresseService/Presse/ Pressemitteilungen/2015/02/PD15_038_51.html, vom 04. Mai 2015; Schäfer, Marlies: »VDMA: Deutscher Maschinenbau bleibt führend im weltweiten Handel mit Maschinenbauerzeugnissen«, www.vdma.org/article/-/articleview/1710242, vom 21. Dezember 2014. 17 | »ROUNDUP: Deutschland bleibt Europameister im Erfinden – China holt auf«, www. finanztreff.de/news/roundup-deutschland-bleibt-europameister-im-erfinden---chinaholt-auf/10337113 vom 19. August 2015; Zühlke, Karin: »Industrie 4.0 hat deutlich zu-
Industrie 4.0 ante portas
Abbildung 5: Entwicklung des Exports 2007-2012. China, die USA und Deutschland dominieren den Weltmarkt, Deutschland jedoch mit nachlassender Dynamik. China und die USA konnten sich nach 2008 schneller erholen. China wächst seitdem mit einer ungebremsten Dynamik.
Quelle: World Trade Organization
Gestärkt durch wachsende Binnenmärkte und hohe Absatzzahlen in ihren jeweiligen Ländern, verfügen die aufstrebenden asiatischen Wettbewerber über das erforderliche Kapital zur Erweiterung ihrer Produktportfolios und Technologien sowie zur regionalen bzw. globalen Expansion, während vor allem europäische Hersteller in den vergangenen Jahren angesichts gesättigter Heimatmärkte vermehrt an Wachstumsgrenzen stießen oder gar deutliche Umsatzrückgänge hinnehmen mussten. Ein weiterer strategischer Vorteil asiatischer Wettbewerber liegt im Zeitpunkt ihres Aufstiegs: Er fiel bereits in die Digitalisierungsära; viele der Unternehmen zählen zu den so genannter born digitals, denen der Wechsel zu 4.0-Ansätzen leichter fällt, da keinerlei Rücksicht auf bestehende Strukturen genommen werden muss. Nicht zuletzt der regulatorische Rahmen – etwa hinsichtlich staatlicher Auflagen im Bereich Sicherheit und Datenschutz – ist in den aufstrebenden Märkten verhältnismäßig liberal gestaltet. Zudem schützen viele der jungen Märkte heimische Anbieter z.B. durch Verhängung von Strafzöllen und Auflagen wie etwa Local Content-Quoten.
gelegt«, www.elektroniknet.de/elektronikfertigung/strategien-trends/artikel/106580, vom 22. Dezember 2014; »Tätigkeitsbericht der Regierung 2015«, http://german.china. org.cn/china/2015-03/17/content_35074299_9.htm, vom 17. März 2015.
251
252
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
Abbildung 6: Weltweite F&E-Ausgaben. Das wachsende Tempo Chinas zeigt sich nicht nur im Export. Chinesische Unternehmen haben (vor allem seit 2008) kontinuierlich ihre Forschungsausgaben gesteigert. Nach aktuellen Schätzungen ist China bereits 2014 zur zweitstärksten Nation hinter den USA aufgerückt und wird diese bis 2020 überholt haben.
Quelle: OECD
Im Bereich der Infrastruktur für moderne Informations- und Kommunikationstechnologien (IuK) – unverzichtbare Grundvoraussetzung für die Vernetzung intelligenter Produktionsstätten – weist Deutschland im Vergleich zu Südkorea ebenfalls Defizite auf: Während bei der Internet-Abdeckung hierzulande immer noch weiße oder zumindest graue Flecken existieren, sind in Südkorea schon seit 2012 Bandbreiten von einem Gigabit pro Sekunde Standard und bis 2020 soll das mobile Netz der fünften Generation (5G) kommerziell etabliert sein. Südkorea bietet damit schon heute die geeignete Infrastruktur für ein Internet der Dinge (das auf schnellen Datentransfer großer Informationsmengen angewiesen ist) während in Deutschland vergleichbare Ausbaustufen frühestens für 2018 zu erwarten sind.18 These 5: Amazon, Google und junge Technologiekonglomerate entstanden nicht in Deutschland. Sie werden aber zunehmend zur Konkurrenz für den deutschen Maschinen- und Anlagenbau. Vergleichsweise junge IT-Großkonzerne beweisen gegenwärtig, wie schnell sie außerhalb ihres Kerngeschäfts liegende, neue Geschäftszweige erschließen 18 | »Deutsche Breitbandinitiative«, http://breitbandinitiative.de, vom 21. Dezember 2014.
Industrie 4.0 ante portas
können: Amazon etwa gliederte innerhalb kürzester Zeit E-Reader, Smartphones und den Streaming-Markt erfolgreich in sein Produktportfolio ein. Zugleich verfolgt der Online-Versandhändler eine aggressive Expansionspolitik und steigert einerseits durch rigorose Hardware-Subventionierung, andererseits durch gezielte Übernahmen seine Marktanteile in signifikantem Maße.19 Dabei nimmt er auch Verluste in Kauf: So stieg in 2014 (jeweils gegenüber dem Vorjahr) der Umsatz um 20 %, während das Betriebsergebnis um mehr als 75 % zurückging. Bei der verfolgten Strategie spielt vor allem der Zugang zu Kunden- und Verhaltensdaten (Big Data) eine zentrale Rolle – neue Schwerpunkte des Konzerns liegen unter anderem im Bereich der vernetzten Heimautomatisierung.20 Auch Google erschließt parallel zu seinem Kerngeschäft durch Unternehmensübernahmen diverse neue Geschäftsfelder und ist heute weit mehr als ein Suchmaschinen-Anbieter und Web-Dienstleister. Allein im Jahr 2013 übernahm Google in sieben Monaten sieben Robotik-Hersteller,21 darunter das renommierte Unternehmen Boston Dynamics. Mit dem Google Car – Prototyp 2014 – betritt Google erstmals das Automobilsegment und entwickelt Lösungen für das autonome Fahren.22 Vergleichbare Ansätze sind in der Unterhaltungselektronik zu erkennen, wo verstärkt Google-Software eingesetzt wird.23 19 | Lenz, David: »Kindle oder die Kunst des Loss Leading«, www.buchreport.de. www. buchrepor t.de//nachrichten/nachrichten_detail/datum/2011/09/29/kindle-oderdie-kunst-des-loss-leading.htm?no_cache=1&cHash=a76a581a70621f06591d7f9eb d73615e, vom 16. Juli 2015. 20 | Amazon.com Inc., »Annual Report 2009 − Annual Report 2014.« http://phx.corpo rate-ir.net/phoenix.zhtml?c=97664&p=irol-reportsAnnual, vom 19. August 2015; Greil, Andreas: »Amazon investiert in Smart Home«, www.elektromarkt.de/handel/amazon-in vestiert-in-smart-home_28430_de/, vom 20. Dezember 2014. 21 | J. Woll, »Google Einkaufsliste: 7 Roboter-Firmen in 7. Monaten«, http://winfuture. de/news,79369.html, vom 12. Juni 2014. 22 | Weißenberg, Peter: »Autonomes Fahren: Google nimmt einfach keine Rücksicht«, www.handelsblatt.com/auto/nachrichten/autonomes-fahren-google-nimmt-einfachkeine-ruecksicht/10841814.html, vom 13. Nov. 2014; Gent, Edd: »Google reveals driverless car prototype«, Engineering and Technology Magazine, http://eandt.theiet.org/ news/2014/may/google-driverless.cfm, vom 28. Mai 2014; Wang, Ulicia: »Tesla’s Elon Musk: On Creating A ›Cool‹ Battery System For Home Energy Storage«, www.forbes. com/sites/uciliawang/2014/05/07/teslas-elon-musk-on-creating-a-cool-batterysystem-with-a-beautiful-cover-for-home-energy-storage/, vom 08. April 2015. 23 | Engelien, Marco: »Was plant Google für die nächste Android-Version?«, www.welt. de/wir tschaft/webwelt/ar ticle141328041/Was-plant-Google-fuer-die-naechste-An droid-Version.html, vom 22. Mai. 2015.
253
254
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
Abbildung 7: Anzahl der Unternehmensübernahmen von Google. Erkennbar ist ein anhaltender Aufwärtstrend. Google vergrößert nicht nur sein originäres Geschäftsfeld, sondern dringt zunehmend in neue Bereiche vor. Neben bedeutenden Übernahmen im IT-Umfeld (u.a. YouTube, Android, Picasa) übernahm Google in den vergangenen zwei Jahren eine Vielzahl kleiner hochinnovativer RobotikHersteller und forscht aktiv in verschiedenen Gebieten mobiler Robotik und allgemeiner Automatisierungstechnik. Analysen zeigen vergleichbare Trends bei den jungen IT-Konzernen.
Quelle: Nets ’n’ Clouds Analytics, Aachen
Das Beispiel Google verdeutlicht den Trend verschwimmender Branchengrenzen, insbesondere die Aufhebung der Grenzen zwischen IT- und technologiebasierten Branchen wie dem Maschinen- und Anlagenbau. Für deutsche KMU des Maschinen- und Anlagenbaus ist dieser Schritt entscheidend: Neben einer neuen Wettbewerbslandschaft würde dies zugleich eine Veränderung der »big players« auf Kundenseite, eine Bewegung innerhalb der wichtigsten Zielbranche sowie ihrer Zuliefererunternehmen nach sich ziehen. Vor allem jedoch zeichnet sich in Zeiten technologischen Umbruchs eine massive Veränderung der Anbieterstruktur ab: Zu so genannten »vendor changes« kommt es, wenn eine aufstrebende Technologie auf anderes Know-how zurückgreift als die bestehenden. Um ein autonomes Fahrzeug zu schaffen, ist nicht die Kompetenz im klassischen Automobilbau (Hardware) entscheidend – diese kann nach Bedarf erworben werden –, von zentraler Bedeutung ist vielmehr die Kompetenz in komplexer, echtzeitfähiger Datenanalyse.24 24 | Vgl. Jeschke, Sabina: »Kybernetik und die Intelligenz verteilter Systeme«, Wuppertal: IKT.NRW Cluster 2014.
Industrie 4.0 ante portas
Die Gefahr liegt in der Betrachtung zu geringer Systemgrenzen: Wettbewerbsdruck wird vor allem aus der Richtung vergleichbarer Unternehmen, insbesondere der Peer Group (gekennzeichnet durch gleiche Zielmärkte, -segmente, -regionen und/oder Unternehmensgrößen) erwartet. Dagegen stehen Herausforderer wie etwa die »digital born enterprises« bisher noch kaum im Fokus der Wettbewerbsanalyse.25 Sie sind auf Basis ihrer Expertise im Sammeln von Daten und hoher Investitionsbereitschaft in der Lage, sich schnell und effizient Wissen über fachfremde Branchen anzueignen. Die führende Position der USA im Bereich der IT-Technologien wird durch die Nachahmer-Anstrengungen aufstrebender Industrieländer wie China und Südkorea zunehmend herausgefordert. Die breite Einsetzbarkeit dieser Technologien – etwa im Bereich der Unterhaltungsindustrie oder des Online-Shoppings – ermöglicht es ihren Anwendern, in kürzerer Zeit marktfähige Produkte zu generieren. In Deutschland liegt der Schwerpunkt der Kompetenzen zur Entwicklung marktfähiger Produkte und Geschäftsmodelle nach wie vor eher in den klassischen Bereichen. Ein auffälliges Merkmal der aufstrebenden technologiebasierten US-Großkonzerne ist ihr starkes Engagement im Bereich der Grundlagenforschung; dabei profitieren sie von einem innovationsfördernden Umfeld, zu dem sie umgekehrt ihrerseits aktiv beitragen. Innovationsfördernde Arbeitsmodelle wie etwa der »80/20«-Ansatz von Google (ein Tag pro Woche zur Ideenentwicklung/‑verfolgung)26 stellen zusätzliche Investitionen in eine forschungsorientierte Unternehmenskultur dar. Ein weiterer Schlüssel liegt in hoher Fehlertoleranz: Innovationen entstehen dort, wo kreativ und experimentell vorgegangen wird; dabei sind Misserfolge unvermeidlich und deshalb in Kauf zu nehmen. Bei der Herausbildung fehlertoleranter Prozesse sind nicht nur die USA Deutschland deutlich voraus. Auch junge aufstrebende Industrienationen haben hier Vorteile, weil sie nicht an den technologischen Errungenschaften der Vergangenheit festhalten, sondern auf deren Basis neue Technologien entwickeln. These 6: Deutschland bleibt in der Forschung im Maschinen- und Anlagenbau nicht mehr lange führend. Hinweise auf einen allmählichen Führungswechsel in der anwendungsorientierten Forschung und Entwicklung liefert z.B. die Analyse der deutschen Ex-
25 | Ebd. 26 | Postinett, Axel/Keuchel, Jan/Steuer, Helmut: »Innovationen: Ein Tag für eigene Ideen«, www.handelsblatt.com/unternehmen/management/innovationen-ein-tag-fuereigene-ideen-seite-2/3751634-2.html, vom 30. Dezember 2010.
255
256
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
porte in wichtige Industrieregionen: Hier musste der Maschinenbau in jüngster Zeit einen Rückgang hinnehmen.27 Abbildung 8: Patentanmeldungen der letzten zehn Jahre. Deutschland ist hier zwar führend vertreten, die dargestellte Statistik spiegelt jedoch nicht wider, welcher Anteil der Patente international erfolgreich war. So stammen nur ca. 8 % der auf dem US-Markt genutzten Patente aus Deutschland.
Quelle: Eurostat
Auch diejenigen Bereiche der Produktion, die bisher von direkten Auswirkungen der vierten industriellen Revolution unberührt schienen, sehen sich zunehmend mit begleitenden Technologien wie Data Mining oder 3D-Druckverfahren konfrontiert. Dass zentrale Innovationen zukünftig nur durch Exzellenz in der Informationstechnologie zu realisieren sein werden, ist von der deutschen Industrie zu lange ignoriert worden. Deutschlands Vorsprung sowohl gegenüber US-amerikanischen Wettbewerbern als auch aufstrebenden Industrienationen wie China schwindet. Durch die Kopplung von Wirtschaft und Wissenschaft sind bei Krisen wie der vergangenen Finanzkrise sowohl die Unternehmen als auch die universitäre Forschung betroffen. Ein nicht unerheblicher Teil der deutschen Forschung in angewandten technischen Gebieten ist industriefinanziert, entweder direkt oder durch Kooperationen mit der Industrie, die von BMBF, BMWi und EU finanziert werden. Investieren nun Unternehmen weniger in die Forschung, so wirkt sich das in Deutschland wie bei einem Domino-Effekt sofort auf die Universitäten aus. In anderen Nationen ist der Effekt aufgrund einer geringeren Vernetzung der Ingenieur-Lehrstühle mit der Industrie nicht so stark.
27 | »Bericht zum Thema ›Deutscher Maschinenaußenhandel‹«, www.vdma.org/docu m ents/105628/805395/Deutscher_Maschinenaussenhandel_201406.pdf/bc1d9c87170e-4527-936b-838c1eac81d9, vom 31. Dezember 2014.
Industrie 4.0 ante portas
Abbildung 9: Anzahl wissenschaftlicher Publikationen aus Deutschland mit 4.0-Bezug (z.T. mittels verwandter Begriffe). Zu Beginn der 2000er Jahre wurden aufgrund des breiten Einzugs von Webtechnologien hohe Forschungsaktivitäten im Bereich der vernetzten Systeme verzeichnet, nach der Wirtschaftskrise wurde daran nicht mehr in gleichem Maße angeknüpft.
Quelle: Nets ’n’ Clouds Analytics, Aachen; Big-Data-Verfahren
Wie die Auswertung einer großen Anzahl wissenschaftlicher Primärquellen ergab, beschäftigte sich die deutsche Forschung insbesondere in jüngster Zeit vergleichsweise wenig mit den Themen der vierten industriellen Revolution. Nochmals verstärkt wird diese Tendenz dadurch, dass die Investitionen in Forschung und Entwicklung infolge der Finanzkrise zuletzt ohnehin stark rückläufig waren.28 Ein Blick in Statistiken wissenschaftlicher Veröffentlichungen in den großen Industrienationen zeigt die rasante Aufholjagd der Emerging Markets wie Brasilien (auch als Wissenschaftsstandort) und dass die so genannte »klassische Triade« führender Wirtschaftsmächte (USA, Deutschland und Japan) im Begriff ist, nach und nach ins Hintertreffen zu geraten.
28 | VDMA, »Kennzahlen zu Forschung und Innovation im Maschinenbau«, https:// www.vdma.org/documents/105628/778064/Kennzahlen+zu+Forschung+und+Innova tion+im+Maschinenbau/c508e111-74f7-44de-ac11-d575b2876e14, vom 21. Dezember 2014.
257
258
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
Abbildung 10: Anzahl an den Veröffentlichungen 15 wirtschaftsstarker Nationen im Industrie 4.0-Kontext (i) in absoluten Zahlen sowie (ii) bezogen auf das BIP des jeweiligen Landes (BIP zu jeweiligen Preisen). Die USA liegen zwar bezüglich der absoluten Anzahl auf dem ersten Platz, bezogen auf ihre Wirtschaftsstärke jedoch nur auf dem achten Rang. Emerging Markets – insbesondere Indien – lassen westliche Industrienationen wie Deutschland, die USA und Japan teilweise hinter sich.
Quelle: IWF; Nets ’n’ Clouds Analytics, Aachen; Big-Data-Verfahren
Die deutschen Ausgaben für Forschung und Entwicklung liegen zwar direkt hinter denen der USA, Chinas und Japans und damit auf führendem Niveau.29 Häufig vereiteln jedoch in Deutschland bzw. der EU der regulatorische Rahmen und/oder die öffentliche Meinung die rasche Einführung neuer, innovativer Produkte – mit der Folge, dass stattdessen andere Industrienationen, etwa die USA, die Markteinführung übernehmen und sich schneller im globalen Markt etablieren können. 29 | »2014 Global R&D Funding Forecast« www.battelle.org/docs/tpp/2014_global_ rd_funding_forecast.pdf, vom 19. August 2015.
Industrie 4.0 ante portas
Ein symptomatisches Beispiel hierfür bildet der Bereich »autonome Fahrzeuge«: So begrenzt das internationale »Wiener Übereinkommen« das beim fahrerlosen Fahren zulässige Tempo auf zehn Stundenkilometer.30 Dieses Abkommen wurde von den USA aber nie ratifiziert und beschränkt deshalb im Ergebnis vor allem europäische Hersteller. Technologisch standen die notwendigen Kompetenzen hierzulande schon vor Jahren bereit: Autonomes Lastwagenfahren wurde 2009 erstmals von Deutschland vorgeführt31 und trotz erfolgreicher Tests nicht weiterverfolgt, während Google in den USA autonome Fahrzeuge seit 2012 offiziell, d.h. mit Straßenzulassung unter realen Bedingungen testet.
4.0 K ulturfak toren These 7: Etablierte deutsche Unternehmen scheuen Veränderung hinsichtlich ihrer Geschäftsfelder, ihres Produktportfolios und ihrer Zielmärkte. In Deutschland werden neue Trends – wie der Ausbau der Breitbandnetze oder autonomes Fahren – oftmals (zu) spät erkannt oder solange zurückgestellt, bis sie einen hohen Verbreitungsgrad erfahren haben. Dies betrifft zunächst die Auswahl der Absatzmärkte: Deutsche Unternehmen konzentrieren sich noch immer stark auf die BRICS-Staaten – obwohl die Exporte dorthin stagnieren oder gar rückläufig sind.32 Demgegenüber scheuen sie die Erschließung neuer Märkte, weil etwa die ASEAN-Staaten Thailand, Indonesien, Malaysia und die Philippinen als Exportmärkte gewisse Risiken bergen. Insgesamt empfinden Europäer die kulturellen Unterschiede gegenüber den BRICS-Staaten als 30 | Bundesgesetzblatt Teil II von 1977, »Gesetz zu den Übereinkommen vom 8. November 1968 über den Straßenverkehr und über Straßenverkehrszeichen, zu den Europäischen Zusatzübereinkommen vom 1. Mai 1971 zu diesen Übereinkommen sowie zum Protokoll vom 1. März 1973 über Straßenmarkierungen«, Bundesgesetzblatt Teil II, No. 39, S. 809, Oktober. 1977; United Nations/Economic Commission for Europe, »Report of the sixty-eighth session of the Working Party on Road Traffic Safety«, www.unece. org/fileadmin/DAM/trans/doc/2014/wp1/ECE-TRANS-WP1-145e.pdf, vom 19. August 2015; Economic Commission for Europe: Inland Transport Committee, Convention on Road Traffic Done at Vienna on 8 November 1968. Wien 1968, S. 66. 31 | Kunze, Ralph/Ramakers, Richard/Henning, Klaus/Jeschke, Sabina: »Organization and Operation of Electronically Coupled Truck Platoons on German Motorways«, in: Proceedings of the 2nd International Conference on Intelligent Robotics and Applications (ICIRA 2009), 5928 2009, S. 135-146. 32 | Die Welt, »Bei BRIC ist der Ofen aus«, www.welt.de/regionales/niedersachsen/article133241521/Bei-BRIC-ist-der-Ofen-aus.html, vom 14. Oktober 2014.
259
260
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
geringer als diejenigen gegenüber den ASEAN-Staaten, etwa hinsichtlich von Kommunikations-Konventionen, divergierenden Vorstellungen von Produkten und Produktqualität sowie von Rechtsgrundlagen.33 Abbildung 11: Die westlichen Märkte beidseits des Nordatlantiks waren ein stabilisierendes Element für den deutschen Maschinenexport 2014, während Exporte nach Asien nur leicht anstiegen und in den Schwellenregionen Lateinamerika und Afrika teilweise deutliche Einbuße erlitten.
Quelle: VDMA
Ebenso fördert die Fokussierung auf hochausgereifte Produkte die Exporte in Schwellenmärkte eher in geringem Maße. Die bisherigen primären Abnehmerländer deutscher Exportgüter sind nur zu einem geringen Teil an Hochtechnologie-Produkten interessiert. Dagegen verfügen die Wettbewerber aus China, Südkorea und Japan in ihren jeweiligen Produktpaletten fast ausnahmslos über preisgünstige Einstiegsmodelle, um diese Schwellenmärkte gezielt zu bedienen. Für eine notwendige Erweiterung der Portfolios von Unternehmen um preiswertere Produkte bestehen zwei zentrale Barrieren: Zum einen definieren sich deutsche Unternehmen über einen hohen Qualitätsanspruch. Nicht 33 | »Unruhen in Thailand bremsen die Wirtschaft«, http://kurier.at/wirtschaft/wirt schaftspolitik/unruhen-in-thailand-bremsen-die-wirtschaft/57.814.005, vom 21. Dezember 2014; Hofstede, Geert/Hofstede, Gert, Jan/Minkov, Michael: Cultures and Organizations: Software of the Mind, 3rd ed, New York, NY: McGraw-Hill, 2012.
Industrie 4.0 ante portas
nur entsprächen billigere und/oder einfachere Produkte deshalb nicht ihrem gewünschten Marken- und Unternehmens-Image, sondern sie brächten auch eine als zentral empfundene Gefahr mit sich: dass ihre jeweilige Marke geschwächt werden und dies wiederum den Absatz teurerer Produkte in den verbliebenen Hochpreismärkten erschweren könnte. Die Absätze im Hochpreis-Segment machen jedoch den zentralen Teil der Unternehmensgewinne aus. Zum anderen ist die Platzierung deutscher Produkte im Hochpreis-Segment großteils auch eine Folge des – im internationalen Vergleich hohen – hiesigen Lohnniveaus. Die Arbeitskosten im deutschen verarbeitenden Gewerbe (ebenso wie in der Schweiz, Belgien und skandinavischen Ländern) liegen weiterhin auf globalem Höchstniveau.34 Auch die sehr hohe Produktivität (hier belegt Deutschland global Rang 6) kann diesen Faktor nur teilweise ausgleichen: Im Schnitt ist die deutsche Industrie um 15 % produktiver als im Ausland, operiert jedoch mit durchschnittlich 24 % höheren Arbeitskosten, sodass sich für Deutschland ein in Summe überdurchschnittlich hohes LohnstückkostenNiveau ergibt. Doch für eine dauerhafte Senkung des Lohnstückkosten-Niveaus besteht wenig Spielraum: Das Gesamt-Arbeitsvolumen hat sich seit dem Jahr 2000 zwar kaum verändert, wurde jedoch mittels Leih- und Teilzeitarbeit auf einen größeren Personenkreis verteilt. In der Folge sind in vielen Bereichen die Löhne in einem Maße gesunken, dass Tariferhöhungen vielfach nicht einmal Inflationsverluste ausgeglichen haben; dies wirkt sich auch nachteilig auf die deutsche Volkswirtschaft aus. Ein Ergebnis dieser Entwicklung ist die gestiegene Anzahl subventionierter Löhne, die zu Intransparenz und Marktverzerrungen führt und die Entwicklung nachhaltiger Strategien erschwert. Angesichts der krisenbedingten Lohnzurückhaltung der Tarifparteien, der erfolgten Einführung eines branchenübergreifenden Mindestlohns und der zunehmenden Regulierung der Zeitarbeit besteht kaum noch Potenzial zur Senkung der Lohnstückkosten. These 8: Deutsche Unternehmen stellen sich zu wenig international auf, das betrifft Firmenkulturen sowie Kompetenzprofile der Mitarbeiter. In den vergangenen Jahren weckte Deutschland verstärkt das Interesse hoch qualifizierter junger Fachkräfte im Ausland. Für die technologieintensive, forschungsorientierte – aber überalterte – Wirtschaft Deutschlands leisten die Zuwanderer einen wesentlichen Beitrag zur Fachkräftesicherung und nach34 | Schröder, Christoph »Produktivität und Lohnstückkosten der Industrie im internationalen Vergleich«, in: IW-Trends – Vierteljahresschrift zur empirischen Wirtschaftsforschung aus dem Institut der deutschen Wirtschaft, 4 2014.
261
262
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
haltigen Wertschöpfung.35 Im internationalen Vergleich ist die Migration von Arbeitskräften nach Deutschland allerdings noch immer eher schwach ausgeprägt und vermag daher nur sehr begrenzt die Umsatzeinbußen (rund 30 Milliarden Euro in KMU) zu verringern, die der erhebliche Fachkräftemangel hervorruft.36 Trotz deutlich vereinfachter Eingliederung ausländischer Fach- und Spitzenkräfte von politischer Seite aus – durch die Anerkennung ausländischer Berufsabschlüsse und dem Bologna-Prozess zur internationalen Harmonisierung von Studienabschlüssen – ist in vielen Bereichen die wirtschaftliche Öffnung Deutschlands noch nicht in Gesellschaft und Unternehmen angekommen. So fehlen in deutschen Unternehmen noch immer Rekrutierungsprozesse für ausländische Fachkräfte, und Studiengänge werden in Deutschland bisher nur selten vollständig in Englisch angeboten. Aufgrund solcher gesellschaftlichen Barrieren zählt Deutschland innerhalb der OECD noch immer zu den Ländern mit der geringsten Quote an dauerhafter Einwanderung und internationalen Studierenden.37 Ausbaufähig ist auch die Anzahl derjenigen deutschen Studierenden, die Teile ihres Studiums im Ausland verbringen und so interkulturelle Kompetenzen erwerben: Unter den auslandsmobilen Studierenden weltweit sind knapp 5 % Deutsche.38 Weltweit stammen 53 % aller internationalen Studierenden aus asiatischen Ländern mit China an der Spitze.
35 | Sachverständigenrat deutscher Stiftungen für Integration und Migration, »Erfolgsfall Europa? Folgen und Herausforderungen der EU-Freizügigkeit für Deutschland – Jahresgutachten 2013 mit Migrationsbarometer«, www.svr-migration.de/wp-content/up loads/2013/04/Web_SVR_Jahresgutachten_2013.pdf, vom 19. August 2015; Franken, Swetlana: »Internationale Mitarbeiter/-innen – Möglichkeiten der betrieblichen Nutzung und Gestaltung ihrer Potentiale«, www.charta-der-vielfalt.de/service/publikationen/ weltoffen-zukunftsfaehig/instrumente-und-angebote/internationale-mitarbeiter-in nen.html, vom 22. Dezember 2014. 36 | Liebig, Thomas: Zuwanderung ausländischer Arbeitskräfte: Deutschland. Paris: OECD Publishing, 2013; »Fachkräftemangel kostet Mittelstand Milliarden«, www.welt.de/ wirtschaft/article124519719/Fachkraeftemangel-kostet-Mittelstand-Milliard en.html, vom 04. Februar 2014; Ernst & Young and Statista, »Umsatzeinbußen im Mittelstand durch Fachkräftemangel«, http://pro-zeitwertkonto.de/wp-content/uploads/2013/10/ Umsatzeinbu%C3%9Fen.jpg, vom 31. Dezember 2014. 37 | Vgl. T. Liebig »Zuwanderung ausländischer Arbeitskräfte«. 38 | Burkhart, Simone/Heublein, Ulrich/Richter, Johanna/Kercher, Jan/Rohde, Nicola: Wissenschaft weltoffen 2014. Bielefeld: W. Bertelsmann, 2014.
Industrie 4.0 ante portas
Abbildung 12: Dauerhafte Arbeitsmigration pro 1.000 Einwohner in ausgewählten OECD-Ländern (hellblau: Durchschnitt 2006-2009, dunkelblau: 2010). Von den insgesamt hohen Migrationsströmen profitieren vor allem Australien, Großbritannien, Südkorea, Kanada sowie Neuseeland. Die dauerhafte Arbeitsmigration Deutschlands ist bisher vergleichsweise gering, 2014 (hier nicht aufgeführt) zeigte sich gemäß den Zahlen des Bundesinnenministeriums erstmals ein Trendwechsel.
Quelle/Darstellung: Nets ’n’ Clouds Analytics, Aachen; Big-Data-Verfahren, Daten: OECD
Die grundlegenden Barrieren für eine stärkere Internationalisierung liegen oftmals in den Unternehmen selbst: Gerade unter den KMU stehen viele der Rekrutierung von Personal aus dem Ausland eher skeptisch gegenüber. Sie empfinden die mit einer solchen Rekrutierung verbundenen Formalitäten meist als zu kompliziert und die mangelnden Deutschkenntnisse potenzieller Bewerber oftmals als eine unüberwindbare Hürde für eine Einstellung.39 Das Potenzial, das Migranten für den deutschen Arbeitsmarkt bieten, ist daher bislang nur teilweise erschlossen. Da im Ausland erworbene Abschlüsse häufig unverändert nicht anerkannt werden, arbeiten lediglich 30 % von ihnen in einem ihrer Qualifikation entsprechenden Beruf.40 Dabei stehen internationale Mitarbeiter den neuen Zielmärkten häufig näher und können gerade aufgrund ihrer Herkunft die Bedarfe etwa von Schwellenländern besonders gut erfassen. Durch ein Integrieren ihrer Fachkenntnisse 39 | S. Franken, »Internationale Mitarbeiter/-innen«. 40 | Institut der deutschen Wirtschaft Köln, »Migranten – 16 Millionen Chancen«, www.iw koeln.de/en/infodienste/iwd/archiv/beitrag/migranten-16-millionen-chancen-104348, vom 22. Dezember 2014.
263
264
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
und kulturellen Prägung lassen sich die – von Hause aus ›deutschlastigen‹ – Unternehmenskulturen strategisch massiv stärken. Nicht zuletzt erleichtern internationale Mitarbeiter entscheidend die Suche nach Partnern und den Aufbau von Netzwerken in neuen Märkten. Deshalb werden multikulturelle Belegschaften als ein entscheidender Wettbewerbsfaktor für exportorientierte deutsche Unternehmen betrachtet. Im Übrigen erschließen Internationalisierungsstrategien nicht nur internationale Märkte, helfen beim Aufbau neuer Kundengruppen und steigern die Innovationsfähigkeit, sondern verbessern auch das Image einer Organisation.41 Eine umfassende Strategie zur Internationalisierung ist daher heute elementarer Bestandteil nachhaltigen Personalmanagements in Unternehmen.
5.0 H andlungsempfehlungen Im Folgenden werden die abgeleiteten Maßnahmen entsprechend ihrer Dringlichkeit bzw. Umsetzungsgeschwindigkeit verdichtet: Dies sind als erstes kurzfristig und konkret umsetzbare, operative Maßnahmen; danach folgen relevante Handlungsempfehlungen zur nachhaltigen Ausrichtung der Unternehmensentwicklung (bzgl. Kultur und Strategie) auf die Herausforderungen der Industrie 4.0. Abschließend werden übergreifende Maßnahmen erläutert.
5.1 Operative Maßnahmen Ausbau der Informationsund Kommunikationstechnologien Zur Sicherung des deutschen Vorsprungs im Maschinen- und Anlagenbau müssen die Produkte und Prozesse umfassend die neuen Möglichkeiten von Digitalisierung und Informations- und Kommunikations- (IuK) Technik nutzen und berücksichtigen. Die Vernetzung aller Systemkomponenten führt zu neuen Modellen von Intelligenz in technischen Systemen: Deren Steuerungsinnovationen und Kontrollstrukturen liegen zunehmend nicht mehr in der zentralistischen Kontrolle, sondern in dezentral agierenden, verteilten teilautonomen Systemen.42 Das umfasst gleichermaßen Bereiche der Produktion – durch Modelle heterogener kooperativer Robotik in der Fertigung – wie Produkte und deren Features (z.B. autonom steuernde Fahrzeuge, Smart Grids, E-Health). Die heutzutage für die Gestaltungsprozesse von Maschinen notwendige Software muss – ebenso wie weitere Ressourcen, beispielsweise Rechnerleistung (High Performance Computing, HPC) – stärker auf die flexiblen, hochskalierenden 41 | Franken, Swetlana: »Stille Reserve. Potenziale hochqualifizierter Migranten für die deutsche Wirtschaft«, in Personal 5 (2011), S. 10-12. 42 | R. Kunze/R. Ramakers/K. Henning/S. Jeschke, »Organization and Operation«.
Industrie 4.0 ante portas
Cloud-Lösungen umgestellt werden, anstatt weiterhin den Ausbau eigener kleiner Rechenzentren zu betreiben, die immer stärker hinter den jeweils aktuellen technischen Anforderungen zurückbleiben werden.43 Innovationen werden künftig im Wesentlichen nicht mehr auf Basis vorhandener Expertise offline generiert, sondern mittels neuartiger IuK-Technologien bis hin zu Crowd-basierten Modellen. Die fortschreitende umfassende Digitalisierung der Wissensbestände ermöglicht es den Marktteilnehmern, bei Wettbewerbern bestehende Wissensvorsprünge nicht nur in ungeahnter Geschwindigkeit aufzuholen, sondern bisher führende Wissensträger sogar zu überholen. Diese enorme Chance besteht jedoch für alle: Schwellenländer können auf diese Weise aufholen und etablierte Anbieter können konkurrierende Konzepte schnell erfassen und in eigene Produkte und Dienstleistungen integrieren. Vor diesem Hintergrund lautet eine klare Empfehlung an die deutschen Unternehmen, kurzfristig zielgerichtet die IT-Kompetenzen auszubauen und in allen Unternehmensbereichen verstärkt IuK-Technologien nachhaltig zu nutzen.
Kompetenzaufbau IT-Sicherheit Die gebotene teilweise Öffnung der internen IT-Systeme birgt das Risiko, zum Angriffspunkt von Cyber-Attacken zu werden, zumal viele Unternehmen bisher nicht über umfassende IT-Sicherheitskonzepte verfügen. Vor allem mittleren und kleineren Unternehmen fehlen häufig die erforderlichen Mittel, um eine voll ausgestattete IT-Abteilung neuesten Sicherheitsstandards zu unterhalten. Der jüngste »Entwurf eines Gesetzes zur Erhöhung der Sicherheit informationstechnischer Systeme« hat nach Meinung von Experten noch nicht das Potenzial, maßgeblich zur Steigerung der IT-Sicherheit beizutragen; zudem sind gegen ihn auch verfassungsrechtliche Bedenken geäußert worden. Die Unternehmen müssen daher schnellstmöglich eigenständig tätig werden, besonders im Bereich der ›klassischen‹ IT (in Teilen bzw. überwiegend digital ablaufende Prozesse im Verwaltungsbereich, Buchhaltung und Controlling, mitarbeiterbezogene Daten, interne Kommunikation, Patente und Entwürfe, digital gesteuerte Telefonanlagen etc.) und der integrierten Produktionsnetzwerke. Ein neues Einfallstor für Cyber-Angriffe stellen Kontroll- und Steuerungsmechanismen und die »Maschine-zu-Maschine-Kommunikation« dar, wesentliche Errungenschaft der »smart factories«, die zunehmend digital erfolgen. Konkret gefährdet sind sie als Ansatzpunkte für ein Abgreifen von Daten oder umgekehrt für einen schädigenden Eingriff in Unternehmensabläufe. Insbe43 | Carlyle, A. G./Harrell, S. L./Smith, P. M.: »Cost-Effective HPC: The Community or the Cloud?«, in 2010 IEEE Second International Conference on Cloud Computing Technology and Science (CloudCom), 2010, S. 169-176.
265
266
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
sondere diese sensiblen Schnittstellen innerhalb der integrierten Produktionswerke gilt es gezielt zu schützen. Da deutsche Produkte des Maschinen- und Anlagenbaus weltweit hohe Qualitätsstandards setzen, die eine wesentliche Basis des Erfolges dieser Branche darstellen, muss der Begriff »Qualität« künftig die IT-Sicherheit dieser Produkte zwingend mit einschließen (security by design). Der Handlungsbedarf bzgl. IT-Sicherheit besteht hier sehr kurzfristig: zum Schutz unternehmensinterner Daten vor dem Zugriff von außen und zur engen Verzahnung des Themas IT/Datensicherheit mit dem Produktentwicklungsprozess. Nur so kann gewährleistet werden, dass die Produkte eine hohe Prozesssicherheit aufweisen und sogar Anforderungen erfüllen, die erst künftig relevant werden. Vor allem für die Verzahnung sind Spezialisten notwendig, Cloud-Lösungen können zur Kostenersparnis und Flexibilisierung beitragen, etwa indem im Rahmen von Komplettpaketen oder punktuellen Anwendungen Software-Angebote (auch im Bereich Datensicherung bzw. -schutz) über die Cloud genutzt werden. Vor allem verglichen mit mittelständischen produzierenden Unternehmen sind Cloud-Anbieter um ein Vielfaches stärker gegen Cyber-Angriffe geschützt. Mit Blick auf die Wahrung der Vertraulichkeit ausgelagerter Daten bieten zertifizierte europäische Anbieter Vorteile gegenüber ihren außereuropäischen Wettbewerbern (Vergleichbarkeit der Anbieter u.a. über TÜV-Zertifikate oder ISO-Normen), während US-Sicherheitsbehörden z.B. Zugriff auf in den USA betriebene Rechenzentren haben. Zudem sollte auf eine eigene Verschlüsselung der ausgelagerten Daten geachtet werden, wenngleich auch dies keinen vollkommenen Schutz zu bieten vermag.
Personalentwicklung Das sich wandelnde Industrie 4.0-getriebene Umfeld bringt massive Veränderungen hinsichtlich der konkreten Anforderungen und Aufgaben zur Entwicklung des Bereichs Human Resources (HR) mit sich. Die rasante Veränderungsgeschwindigkeit der neuen Entwicklungen erfordert zum einen Früherkennungsverfahren zur Identifizierung neuer Qualifizierungsanforderungen, zum anderen entsprechende Aus- und Weiterbildungsstrategien, die eine kontinuierliche Personalentwicklung als ›Normalfall‹ enthalten: Die Unternehmen müssen ihre Mitarbeiter auf neue, variable (Produktions-)Strukturen vorbereiten und sie dazu gezielt und kontinuierlich aus- bzw. weiterbilden. Die Leistungssteigerungen im Bereich der künstlichen Intelligenz – der Grundlage der Industrie 4.0 – bringen Systeme immer höherer Intelligenz und (Teil-)Autonomie hervor. In hybriden Arbeitssystemen besteht künftig die Herausforderung eines möglichst reibungslosen Zusammenspiels zwischen menschlicher Arbeit, Maschinen/Robotern und virtuellen Agenten (komplementäre Dienste durch IT-Systeme). Die echtzeitorientierte Steuerung
Industrie 4.0 ante portas
verändert Arbeitsinhalte, -prozesse und -umgebungen.44 Moderne Personalentwicklung muss neuartige Formen der Kommunikation und Interaktion in kooperativen Mensch-Technik-Arbeitssystemen identifizieren und darauf basierend Lernszenarien sowie grundlegende Rollen- und TeamentwicklungsProzesse erarbeiten und bereitstellen. Eine zentrale zusätzliche Herausforderung für die Personalentwicklung resultiert aus dem demografischen Wandel; sowohl die mit diesem Wandel verbundenen Probleme als auch die in ihm liegenden Chancen für den Wirtschaftsstandort Deutschland müssen stärker und konsequenter als bisher gesehen und berücksichtigt werden. Dazu zählen vor allem demografiesensible Beschäftigungsmodelle, erweiterte Arbeitsautonomie und situationsgerechte Unterstützung der Beschäftigten in der »Fabrik der Zukunft« sowie die Stärkung dieser Mitarbeiter beim Umgang mit neuen Technologien und Kooperationsformen. Auch hier sollten einschlägige Maßnahmen aktiv entwickelt und umgesetzt werden.
Neue Recruitingprozesse Die Suche nach geeigneten Mitarbeitern wird für Unternehmen jeglicher Größe durch mehrere Faktoren erschwert: für global agierende Unternehmen durch die Heterogenität ihrer regionalen und nationalen Unternehmensteile, für KMU durch den Wettbewerb mit den Global Players ihrer Branche, für Unternehmen jeder Größe durch die zunehmende Diversifizierung der Erwerbsbiografien der potenziellen Arbeitnehmer. Zudem liegen viele der deutschen ›hidden champions‹ geografisch fernab der für potenzielle Arbeitnehmer attraktiven Metropolregionen. Nicht zuletzt deshalb erweisen sich die klassischen Instrumente (Stellenausschreibungen, Recruiting-Messen, Assessment-Center) als immer weniger geeignet zur Anwerbung und Auswahl passender Fachkräfte. Die Entwicklungen in der IuK-Technologie bieten neue Chancen für die Personalsuche, wenn neue Recruiting-Prozesse etabliert werden: Die vielzitierten »digital natives«45 – eine Generation, die seit frühester Kindheit von digitalen Technologien umgeben ist – drängen auf den Arbeitsmarkt.46 Viele »digital natives« beschaffen sich Informationen praktisch ausschließlich 44 | Vgl. Kagermann, Henning/Wahlster, Wolfgang/Helbig, Johannes: »Umsetzungsempfehlungen für das Zukunftsprojekt Industrie 4.0. Abschlussbericht des Arbeitskreises Industrie 4.0«, Forschungsunion im Stifterverband für die Deutsche Wissenschaft, Januar 2013. 45 | Prensky, Marc: »Digital Natives, Digital Immigrants«, in: On the Horizon: 9 (2001), S. 1-6. 46 | Zentrum für Human Capital Management (ZHCM) – Newsletter, http://sml.zhaw. ch/fileadmin/user_upload/management/zhcm/das_zentrum/newsletter/pdf/zhcm_ newsletter_september_2012.pdf, vom 01. April 2015.
267
268
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
über das Internet; so auch für Aus- und Weiterbildungszwecke sowie zur Jobsuche. Die Affinität dieser Gruppe potenzieller Mitarbeiter zu digitalen Medien legt es nahe, den virtuellen Raum konsequent auch für die Vermittlung zwischen Arbeitgebern und potenziellen Arbeitnehmern zu nutzen. Eine wichtige Rolle spielt dabei auch der Einsatz von Social Media für den Recruiting-Prozess, zum Employer Branding sowie allgemein zur Image-Werbung. Die hierfür notwendigen Kompetenzen müssen von den Unternehmen im HR-Bereich sichergestellt (oder andernfalls extern zugekauft) werden.47 Ein wichtiger Trend im Bereich der Personalrekrutierung ist das so genannte »active sourcing«48: Hier ermitteln die Unternehmen geeignete Bewerber und kontaktieren diese direkt und von sich aus; auf eine formale Bewerbung durch die Angesprochenen verzichten die Unternehmen dabei teilweise ganz. Eine weitere Chance in der Personalrekrutierung liegt im Bereich von Big Data Analysis: Nutzer des World Wide Web hinterlassen Spuren – »digital footprints«. Diese geben Auskunft über Talente und Fähigkeiten potenzieller Arbeitnehmer und ermöglichen eine Einschätzung inwieweit solche möglichen Mitarbeiter und das suchende Unternehmen zusammenpassen könnten. Das Potenzial der Big Data Analysis liegt hierbei insbesondere in der Spezialisierung und Personalisierung der Daten(-auswertungen) im »Realtime-Modus«, z.B. um personalisierte Job-Angebote für Arbeitssuchende aus erhobenen Daten abzuleiten. Damit wird das »active sourcing« zielorientiert unterstützt.
Ausbildung 4.0 Um den Anforderungen einer vernetzten Industrie und Gesellschaft nicht nur gerecht zu werden, sondern die Antworten auf diese Herausforderungen vielmehr auch aktiv zu gestalten, ist es wichtig, die Inhalte und Lehrpläne der betrieblichen Ausbildung zu verändern – eine in Deutschland bisher zu wenig beachtete Notwendigkeit. Ähnlich wie die Mathematik bereits seit jeher, ist die Informatik mittlerweile zentrale Grundlage aller technologischen Fächer. Für schulische, universitäre und ausbildungsbezogene Curricula sollte deshalb der Anteil der Vermittlung von Informatik-Kenntnissen überprüft und gegebenenfalls ausgebaut werden.49 Zusätzlich ist eine umfassende Integration digitaler Medien 47 | Viracom Webmarketing, »Unternehmen erreichen digital Natives nicht«, www.vira com.de/unternehmen-erreichen-digital-natives-nicht/, vom 04. Januar 2015. 48 | Institute for Competitive Recruiting ICR: »Social Media Recruiting Report 2013«, w w w.competitiverecruiting.de/ICR-Social-Media-Recruiting-Repor t-2013.html#. VDK JYfl_vHU, vom 19. August 2015. 49 | Honegger, Beat D.: »Ist Java Script das neue Latein? Warum und welche Informatik in die Schule gehört. Keynote zum 30-Jahres-Jubiläum der Schweizer Informatik Gesellschaft« http://doebe.li/talks/, vom 01. Juni 2015; Lumma, Nico: »Der Transformer: Eine
Industrie 4.0 ante portas
in die berufliche Aus- und Weiterbildung wünschenswert. Sie bietet vielfältige innovative und individualisierte Lösungsmöglichkeiten und wird die Dynamik von berufsbildender und Hochschul-Ausbildung zukünftig erhöhen. Benötigt werden in diesem Zusammenhang nicht zuletzt auch Konzepte, wie die auf diese Weise erworbenen Kompetenzen anerkannt werden können. Vor dem Hintergrund exponentiell wachsender Datenbestände wird die Fähigkeit zum adäquaten Umgang mit großen Datenmengen – der aufgrund ihrer Masse, Heterogenität und Wachstumsgeschwindigkeit sowie ihres Transparenzgrades ein komplexer Gegenstand von Lehre und Forschung ist – künftig zur essenziellen Kompetenz. Diesen Umfang zu vermitteln ist deshalb ein unverzichtbares Element sowohl moderner und praxisnaher (Hochschul-)Ausbildung als auch betrieblicher Ausbildung.
Kostensenkung und Effizienzsteigerung Über die Erforderlichkeit von Maßnahmen zum Ausbau der Kompetenzen hinaus besteht die Notwendigkeit zur kontinuierlichen Reduzierung der Kostenstrukturen. Ebenso muss Kosteneffizienz ein wesentlicher Bestandteil des Selbstverständnisses eines jeden Unternehmens sein. In der Branche bestehen unverändert strukturelle Nachteile, die durch den Anstieg der Lohnkosten weiter verschärft und selbst durch aktuell positive Währungseffekte nicht dauerhaft kompensiert werden. Zusätzlich wird durch die Dynamisierung der Lieferketten sowie hinzukommender Wettbewerber der Kostendruck unverändert hoch bleiben. Wesentliche Maßnahmen zur Stabilisierung der Position des deutschen Maschinen- und Anlagenbaus im internationalen Wettbewerb sind die ›klassischen‹ Maßnahmen zur Kostensenkung und Liquiditätssteigerung u.a.: • Working Capital Management: Neben Optimierungen im Debitoren- und Kreditorenmanagement sind vor allem Maßnahmen im Bestandsmanagement ein wichtiger Fokus. Hier verspricht eine stärkere Integration von IT-Anwendungen bzw. der notwendige Kompetenzauf bau im Bereich IT gut nutzbare Synergien, da dies oft auch zu einem verbesserten Prozessverständnis führt, aus dem wiederum präziser ineinandergreifende Lieferketten ableitbar sind. Die daraus resultierenden Bestandsreduzierungen (bei den Posten Roh-, Hilfs- und Betriebsstoffe bzw. unfertige Erzeugnisse) wirken sich unmittelbar positiv auf die Liquiditäts- und Ertragssituation des Unternehmens aus. Mittels einer Optimierung der Versandlogistik können analoge Verbesserungseffekte auch bei den Fertigerzeugnissen erzielt werden. Programmiersprache als zweite Fremdsprache«, www.handelsblatt.com/meinung/ko lumn en/kurz-und-schmerzhaft/der-transformer-eine-programmiersprache-als-zweitefremds prache/10055416.html, vom 16. Juli 2015.
269
270
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
• Reduzierung der Herstellkosten: Die bestehenden Kalkulationen müssen regelmäßig auf mögliche Einsparpotenziale untersucht werden. Zielführend können dabei neben wertanalytischen Maßnahmen auch so genannter Makeor-buy-Entscheidungen sein. Ebenso müssen die gegenüber den Lieferanten geltenden Einkaufspreise turnusmäßig überprüft werden. Single-source-Beziehungen sind zu vermeiden – es sei denn, eine solche Vermeidung würde sich negativ auf die Produktqualität auswirken. Auch Prozessoptimierungen in der Fertigung bzw. Montage vermögen positive Kosteneffekte zu generieren. • Reduzierung der Entwicklungskosten: Die Softwarelösungen im Bereich der 3D-CAD- oder Virtual-Reality-Programme sowie des 3D-Drucks entwickeln sich weiterhin dynamisch, sodass geprüft werden sollte, inwieweit mit deren Hilfe Entwicklungsprozesse weiter beschleunigt werden können (rapid product development). • Effizienzsteigerung: Die zunehmende Datentransparenz sowie verbesserte Möglichkeiten zur zielgerichteten Aggregation und Auswertung der Daten betrifft nahezu alle Bereiche der Unternehmen: Bisher unverändert aufwändige Arbeiten werden eine weitere Beschleunigung erleben und dadurch weniger personelle Ressourcen erfordern. Hier gilt es, die Möglichkeiten der eigenen Systemlandschaft zielgerichtet auszuschöpfen und auszubauen, um den Wandel kontinuierlich mit vollziehen zu können. Dies ist zugleich auch ein Mittel, um den demografischen Herausforderungen der nächsten Jahre und Jahrzehnte zu begegnen.
5.2 Unternehmenskultur Etablierung einer umfassenden Innovationskultur Eine Innovationskultur im eigenen Unternehmen zu entwickeln ist für KMU von großer Bedeutung – insbesondere angesichts von Hemmnissen wie Expansionsschwierigkeiten, mangelnder internationaler Offenheit sowie Veränderungsresistenz.50 Die proaktive Integration neuer Technologien in bestehende Produkte kann weder effektiv noch effizient von oben verordnet werden. Vielmehr sind Mechanismen erforderlich, die die Umsetzung der gesteckten Ziele im täglichen Handeln aller Mitarbeiter des Unternehmens verankern. Einer der effektivsten Ansätze dazu ist das Fördern einer umfassenden Innovationskultur unter den Mitarbeitern selbst. Innovationsförderndes Denken und Handeln auf Mitarbeiter-Ebene gezielt und systematisch zu stärken, hilft, Veränderungsresistenzen zu beseitigen und den Blick für die notwendigen 50 | »Microsoft – Im Dialog mit Politik und Gesellschaft«, https://www.microsoft.com/ de-de/news/pressemitteilung.aspx?id=533326, vom 19. August 2015.
Industrie 4.0 ante portas
Weiterentwicklungen des Unternehmens und seiner Produktlinien zu schärfen. Zentrale Voraussetzung einer ausgeprägten Innovationskultur ist stets eine angemessene Toleranz gegenüber Fehlern – denn Innovationen gehen untrennbar mit Experimentieren einher, woraus unvermeidbar auch Fehler und Misserfolge resultieren. In der Entwicklung fehlertoleranter Prozesse sind US-amerikanisch geprägte Unternehmenskulturen den deutschen voraus, u.a. weil die in US-Unternehmen vorherrschenden Ausprägungen bei Diskussionsstil (Brainstorming vs. konfrontativ), Handlungsplänen (entlang großer Meilensteine vs. Detailplanung) und Meeting-Kultur (Handlungskoordination vs. Controlling) eine in höherem Maße flexible, experimentelle und jederzeit adaptierbare Denkweise hervorbringen. Deutsche Unternehmen sollten sich stärker für experimentierfreudige Herangehensweisen wie Learning by Doing bzw. Trial and Error öffnen: u.a. indem ein auf das gesamte Unternehmen ausgerichtetes Vorschlagswesen etabliert und dessen aktive Nutzung mit entsprechenden Anreizen gefördert wird. Dazu gehört auch eine stärkere Bereitschaft, Wagnisse und damit verbundene Misserfolge als notwendig zu akzeptieren.
Diversifizierung und Internationalisierung der Belegschaft Um erfolgreich zu sein und zu bleiben, müssen Unternehmen ihre Geschäftstätigkeit über regionale, nationale und kulturelle Grenzen hinweg ausdehnen. Internationalisierung umfasst dabei sowohl wachsendes Engagement in Auslandsmärkten als auch die Öffnung und Offenheit des Unternehmens gegenüber einer internationaleren Mitarbeiterschaft. Bislang in hohem Maße deutsch geprägte Unternehmen müssen eine stärker internationale Unternehmenskultur entwickeln, um zuzugswillige ausländische Fachkräfte für sich zu gewinnen. Zentrale Voraussetzungen dafür sind Fremdsprachenkenntnisse, Kompetenzen in interkultureller Kommunikation, Kenntnisse und Respekt hinsichtlich der eigenen wie gegenüber fremden Kulturen, Kenntnis internationaler Märkte und ihrer Spezifika sowie die Fähigkeit, mit der daraus resultierenden höheren Komplexität umzugehen. Studien belegen: Heterogenere, vielfältigere Teams erarbeiten meist bessere Ergebnisse als homogenere. Das Potenzial qualifizierter Mitarbeiter unterschiedlichen Hintergrunds – nach Geschlecht, Fachrichtung, Begabungen, Altersgruppe oder Kultur – sollte daher nicht nur aus demografischen Gründen genutzt werden. Auf dieser Basis bietet sich eine Vielzahl möglicher Maßnahmen an: • Lokale Besetzung von Schlüsselpositionen in Auslandsmärkten mit dortigen Einheimischen: Verankerung von Geschäftsleitung und Geschäftszweigen des Tochterunternehmens in der lokalen (auswärtigen) Kultur verbessert meist erheblich die Netzwerke und das Verständnis für die Markt- und Kundenbedürfnisse vor Ort.
271
272
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
• Personalmanagement: Internationale Rekrutierung von Mitarbeitern aller Unternehmensebenen und ‑bereiche und deren Integration. Erhöhte Vielfalt (Diversity) ist eine wichtige Voraussetzung für die Steigerung der Innovationsfähigkeit von Unternehmen.51 • Internationale Teambildung: Es sollten international agierende Teams gebildet und entwickelt werden, die ihre Meetings per Web-Konferenz abhalten und mithilfe spezialisierter Software (wie Sharepoint, Googledocs oder Subversion) effektiv und reibungsarm international zusammenarbeiten. • Unternehmenssprachen: Teams international orientierter deutscher Unternehmen sollten in der Lage sein bzw. in die Lage versetzt werden, ihre Prozesse möglichst souverän auch in englischer Sprache durchzuführen. • Flexibilisierung und Mitarbeiterbindung: Flexible Arbeits(zeit)modelle können erheblich zu einer gemischten Teamstruktur beitragen. Um erfahrene Mitarbeiter möglichst lange im Unternehmen zu halten, sollten zudem gesundheitsbezogene und einschlägige freiwillige Freizeitangebote geschaffen werden. • Auslandserfahrung: Einsätze, Dienstreisen sowie Aus- und Weiterbildungsangebote im Ausland bis hin zu einer Entsendung für einen gewisse Zeitraum (Secondment) helfen, die internationalen Kompetenzen der Mitarbeiter zu stärken, Sprachbarrieren abzubauen sowie etwaige kulturelle Berührungsängste zu überwinden. Zudem kann im ›global war for talents‹ die Aussicht auf Auslandseinsätze die Attraktivität eines Unternehmens für potenzielle Arbeitnehmer erheblich steigern. Wichtig ist dabei eine umfassende Unterstützung des betreffenden Mitarbeiters bei organisatorischen Aspekten.
5.3 Unternehmensstrategie Erschließung neuer Märkte Angesichts des weitgehend gesättigten Binnenmarkts kann ein Wachstum meist nur noch im (außereuropäischen) Ausland erreicht werden. Zudem ist es zur Sicherung nachhaltiger Wettbewerbsfähigkeit im Sinne einer Risikostreuung notwendig, dass sich die Unternehmen auch international aufstellen. Der Devise ›production follows market‹ folgend, steigen für die Erzeuger adaptiver Güter die Vorteile, wenn sie den Kunden in nachfragestarke Regionen folgen und eine – auch im geografischen Sinne – kundennahe Produktion anstreben. Die Auswirkungen und Handlungsempfehlungen, die sich daraus ergeben, bedürfen einer dezidierten Analyse, denn bei einer Gesamtbewertung spielen auch gegenläufige Effekte eine Rolle. So hat sich etwa eine kurzentschlossene Verlagerung von Produktionsvolumina in Niedriglohnländer bzw. Emerging 51 | Vgl. Nerdinger, Friedemann W./Blickle, Gerhard/Schaper, Niclas: Arbeits- und Organisationspsychologie. Berlin/New York: Springer, 2011.
Industrie 4.0 ante portas
Markets nicht immer als zielführend erwiesen, u.a. weil hierbei langfristige Entwicklungen – etwa bei den Lohn- oder Preisniveaus sowie Logistikkosten – oft nicht ausreichend berücksichtigt wurden.52 Insbesondere sind mögliche langfristige Risiken zu beachten und wichtige Zielmärkte auch auf Basis ihrer ökonomischen und politischen Gegebenheiten genauestens zu analysieren. Dafür bedarf es entsprechender Kompetenzen (unternehmensintern aufgebaut oder extern zugekauft). KMU tun sich im Auf bau neuer, internationaler Strukturen und/oder Netzwerke gerade aufgrund ihrer oftmals primär national bzw. regional geprägten Firmenkultur noch schwer.
Kooperationen und Kompetenzbündelung Die traditionelle Denkweise klassischer Unternehmen in langen Lebenszyklen und klassischen Entwicklungs- bzw. Geschäftsmodellen macht sie im internationalen Vergleich weniger attraktiv und erschwert es ihnen, die zu ihrer Verstärkung erforderlichen Fachkräfte aus dem sehr dynamischen IT-Umfeld zu gewinnen. Um die benötigten Kompetenzen in den Bereichen IuK- Technologien und IT-Sicherheit sicherzustellen, bedarf es dann einer Zusammenarbeit mit externen Spezialisten oder anderen Marktteilnehmern, u.a. durch Kooperationen und Kompetenzbündelung. Dies erfordert jedoch ein erhebliches Maß an Offenheit, da sie darauf ausgerichtet sind, externe Expertise für die Weiterentwicklung des eigenen Kern-Know-hows zu nutzen. Ansätze können hierbei sein: • Bündelung bestehender, möglichst komplementärer Kompetenzen, um mit IT-erfahreneren Wettbewerbern besser konkurrieren zu können. • Ausbau von Systemlösungen primär, um auf Basis systemorientierter Denkweisen veränderte Herangehensweisen bzw. neue Produktansätze für gesättigte Märkte zu entwickeln oder auch zusätzliche Märkte zu erschließen. Als Kooperationspartner eignen sich neben etablierten Unternehmen auch teils hochspezialisierte Unternehmen, die zwar oft noch als Start-ups gelten, aber im Zusammenspiel mit etablierten Unternehmen beträchtliche Dynamik und erheblichen Mehrwert in die Veränderungsprozesse einbringen können. 52 | Fraunhofer Institut für System- und Innovationsforschung (ISI), »Neue Erkenntnisse zu Produktionsverlagerungen und Implikationen für strategisch fundierte Standortentscheidungen«, https://www.vdi.de/uploads/media/2008-04-22-Studie_FHG_ISI_04. pdf, vom 16. Juli 2015; Scheuer, Stephan: »Wirtschaft: Steigendes Lohnniveau in China lässt Firmen weiterziehen«, www.suedkurier.de/nachrichten/wirtschaft/themensk/ Steigendes-Lohnniveau-in-China-laesst-Firmen-weiterziehen;ar t410950,7350510, vom 06. Januar 2015.
273
274
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
In diesem Kontext sollten deutsche Unternehmen auch prüfen, inwieweit sie sich an nationalen bzw. internationalen Zusammenschlüssen (z.B. der deutschen Initiative D21 oder dem US-geprägten IIC-Verbund [Industrial Internet Consortium]) aktiv beteiligen. Als absolutes Minimum sollte beobachtend verfolgt werden, wie sich diese Themen weiterentwickeln, um zumindest darauf reagieren zu können.
Verstärkte Investitionen im Digitalisierungsumfeld Unternehmen, deren Geschäftsfelder ohnehin bereits durch Digitalisierung geprägt sind, müssen verstärkt in Forschung und Entwicklung in diesem Feld investieren. Der potenzielle Return on Investment (ROI) liegt dort oft besonders hoch, andererseits droht hier umgekehrt der Verlust von Marktanteilen, wenn Entwicklungen zu spät nachvollzogen werden. Bisher eher digitalisierungsfern aufgestellte Unternehmen müssen ihr Geschäftsfeld dagegen vor dem Hintergrund einer immer umfassenderen Digitalisierung aller Bereiche analysieren – als »early bird« haben sie noch die Chance, durch einen frühen Einsatz neuer IT-basierter Prozessmodelle wichtige Marktvorsprünge zu erzielen. Ein wichtiges Argument für Investitionen im Umfeld der Digitalisierung liegt zudem in ihrer vergleichsweise einfachen Umsetzbarkeit, etwa in Gestalt des Einsatzes externer Ressourcen wie Cloud für Dienst-Infrastrukturen, High-Performance Computing, Software as a Service und allgemeiner IT-Basisdienste. Zudem sind die Finanzierungsbedingungen für private und öffentliche Investitionen zurzeit ausgesprochen günstig.53 Unabdingbare Grundlage derartiger Veränderungen ist jedoch auch ein partieller Mentalitätswandel in den betreffenden Unternehmen, wie u.a. Bundeskanzlerin Angela Merkel auf dem IT-Gipfel der Bundesregierung im Oktober 2014 betonte: »Auch im Silicon Valley geht es nicht ohne Risiko.« Die gesamte Wirtschaft müsse, so die Bundeskanzlerin, mehr Risikobereitschaft bei der Digitalisierung zeigen und auch Misserfolge hinnehmen.54
Produkte für die Emerging Markets Ähnlich wie ihre historischen Vorgänger bringt die vierte industrielle Revolution tiefgreifende Produkt- und Prozessveränderungen mit sich: durch umfassende neue Technologien und damit verbundene Veränderungen der gesamten 53 | Fratzscher, Marcel: »10 Thesen – Investitionen für mehr Wachstum. Eine Zukunftsagenda für Deutschland«, https://berlinoeconomicus.diw.de/blog/2013/06/24/10thesen-investitionen-fur-mehr-wachstum-eine-zukunftsagenda-fur-deutschland/, vom 31. Dezember 2014. 54 | »Angela Merkel will nach dem IT-Gipfel mehr Digitales wagen«, www.rp-online.de/di gitales/angela-merkel-will-nach-dem-it-gipfel-mehr-digitales-wagen-aid-1.4611810, vom 06. Mai 2015.
Industrie 4.0 ante portas
Anbieterstruktur. Eine einseitige Fokussierung der deutschen Unternehmen auf ihre Erfolge der Vergangenheit gefährdet ihre bisherige Technologieführerschaft und sie riskieren, den Anschluss an die technologische Entwicklung insgesamt zu verlieren. Um tiefer in die Märkte der Schwellenländer einzudringen, müssen die Produktportfolios der deutschen Unternehmen dringend hinsichtlich ihrer Preis- und ihrer Produktstruktur erweitert werden. Im Jahr 2014 gaben 75 % der KMU an, die Wünsche der Kunden in den Schwellenländern nicht recht zu kennen.55 Hochindividualisierte Maschinen – bisher wichtigstes Exportprodukt deutscher Maschinenbauer – finden in der Mehrzahl der Schwellenländer zu wenige Abnehmer. Dagegen bietet der Ausbau von Midtech-Produkten weitere Chancen.56 Die in Deutschland traditionell verfolgte Maxime »beste Qualität zum günstigsten Preis« sollte um die Devise »bester Preis bei bestmöglicher Qualität« erweitert werden. Diese so genannten ›frugal products‹ sind für den in Schwellenländern geplanten Einsatz vielfach ausreichend und noch finanzierbar.57
Überprüfung der langfristigen E xpansionsstrategie Der Erfolg von Google oder Amazon liegt u.a. in deren Strategie starker langfristiger Expansion begründet, insbesondere in neue Warengruppen und Dienstleistungen. Vielfach werden diejenigen Trends, die hinter der frühen Industrie 4.0-Entwicklung bzw. der neuen Digitalisierungsära stehen, zur Ursache für die Erweiterung des Unternehmensportfolios: Neue Produkte und Prozesse entstehen teils zusätzlich, teils unter Verdrängung ihrer traditionellen Pendants. In deutschen Unternehmen hingegen wird der Begriff »Expansionspolitik« bisher vorwiegend im Kontext der Internationalisierung von Unternehmen diskutiert, während bezüglich des Portfolios statt auf eine (womöglich gar aggressive) Wachstumspolitik mehr Wert auf den Cash Flow des Unternehmens gelegt wird. Eine Ursache hierfür liegt in der stärkeren Ausrichtung deutscher Unternehmenskulturen auf Sicherheit als auf Expansion und Risiko. Insbesondere deutsche KMU tun sich schwer mit jeglicher Expansion, und zwar aus einer Vielzahl von Gründen: Ihre wenig ausgeprägte internationale Aufstellung erschwert die geografische Expansion; ihre inhaltliche Ausrich55 | Schlumpberger, Christian/Anslinger, Tobias: »Falsche Produkte für Schwellenländer«, www.marktundmittelstand.de/zukunftsmaerkte/falsche-produkte-fuer-schwellen laender-1203481/, vom 13. Februar 2014. 56 | »Maschinenbau wird 2015 wieder wachsen«, www.wiwo.de/unternehmen/mittel stand/commerzbank-studie-maschinenbau-wird-2015-wieder-wachsen/10843196. html, vom 05. Januar 2015. 57 | Graf, Annika: »Weniger bringt mehr: Firmen specken Produkte für Schwellenländer ab«, www.gea.de/nachrichten/wirtschaft/weniger+bringt+mehr+firmen+specken+pro dukt e+fuer+schwellenlaender+ab.3618124.htm, vom 05. Januar 2015.
275
276
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
tung auf ein eher begrenztes Segment erschwert ihre Expansion in weitere Produkte; ihre geringe Unternehmensgröße behindert den Auf- und Ausbau von Systemlösungen; ihre Firmenkultur ist oftmals eher konservativ geprägt. Hier sind neue Denkweisen und Verbundstrukturen notwendig, um Marktanteile zu halten oder gar hinzuzugewinnen.
5.4 Übergreifende Maßnahmen Öffentliche Investitionen Nicht nur die privaten, sondern auch die öffentlichen deutschen Investitionen sind im internationalen Vergleich gering. Berechnungen des DIW Berlin zeigen, dass die Investitionslücke in Deutschland heute 80 Milliarden Euro jährlich beträgt – was 3 % der deutschen Wirtschaftsleistung entspricht. An Investitionen fehlt es insbesondere in folgenden Bereichen: • Infrastruktur-Investitionen: Diese fehlen sowohl in klassischen Bereichen (wie Verkehr) als auch in neueren, allen voran bei den modernen IuK-Technologien. Um den bisherigen wirtschaftlichen Vorsprung Deutschlands zu erhalten, müssen die Infrastruktur-Investitionen hierzulande erheblich gesteigert werden – nicht zuletzt, um die Anbindung der oftmals außerhalb der Ballungszentren angesiedelten »hidden champions« deutlich zu verbessern und so ihre technologische Wettbewerbsfähigkeit und ihre Attraktivität als Arbeitgeber auch mittel- und langfristig zu sichern. • Forschungsinvestitionen: In den USA wird zu cyber-physischen Systemen bereits seit 2006 geforscht, zur Big Data-Analyse seit 2010. Demgegenüber wurde die Hightech-Strategie der Bundesregierung erst 2011 veröffentlicht; umfassende Forschungsförderungsvorhaben im Bereich der Industrie 4.0 wurden in Deutschland erst 2014 gestartet. Während in den USA bereits auf den der Industrie 4.0 zugrunde liegenden Technologien (Daten und Konnektivität) aufsetzende Geschäftsmodelle und Unternehmen existieren, beginnen die deutschen Unternehmen mehrheitlich gerade erst damit, sich vertieft mit diesen Technologien zu beschäftigen. Im öffentlichen (inkl. des immateriellen) Bereich Deutschlands sind die Investitionen in Infrastruktur ebenso wie die in Zukunftsmärkte und Megatrends gering. Bei Forschung und Entwicklung ist der Kapitalstock langsamer angestiegen als in vielen anderen Ländern.58 Zeitgleich steigen die Forschungsaufwendungen in anderen Teilen der Welt, insbesondere in China und Südkorea; diese Länder holen wissenschaftlich zunehmend auf.
58 | Vgl. Destatis, »Export, Import, Globalisierung – Deutscher Außenhandel«, Statistisches Bundesamt, Wiesbaden, November 2012.
Industrie 4.0 ante portas
• Bildungsinvestitionen: In Deutschland sind Bildung und Ausbildung sehr stark an die soziale Herkunft eines Kindes gekoppelt. Das Potenzial von Migranten für den Arbeitsmarkt ist hierzulande bislang nur unvollständig erschlossen. Das deutsche Hochschulsystem ist seit Jahrzehnten überlastet, und die im internationalen Vergleich ungünstige Betreuungsrelation verstärkt die Innovationsschwäche Deutschlands. Die Förderung von Innovationen und Kreativität erfordert personalintensive, forschungsund projektorientierte Unterrichtsmodelle. Dagegen wird die zugesagte Förderung durch Bund-Länder-Programme bestenfalls die Überlast des doppelten Abiturjahrgangs abfangen können und lediglich die Symptome lindern.
Deregulierung Im Sommer 2012 haben die Regierungschefs der EU den »Pakt für Wachstum und Arbeitsplätze«59 beschlossen. Diesem liegt die Einschätzung zugrunde, dass Regulierungen die Wettbewerbsfähigkeit und in der Folge ein Wirtschaftswachstum eher behindern als befördern. Vor diesem Hintergrund kam es in den vergangenen Jahren insbesondere zum Abbau von AnbietermonopolRegulierungen, markante Beispiele bilden der Telekommunikationssektor, der Luftlinienverkehr und die Stromwirtschaft.60 Individuen und Unternehmen sind oftmals erst dann bereit, engagiert und innovativ zur wirtschaftlichen Entwicklung eines Landes beizutragen, wenn sie sich in einem rechtlich und/oder wirtschaftlich gesicherten Rahmen sehen. Es darf jedoch nicht darüber hinweggesehen werden, dass Deutschland aufgrund seiner starken regulatorischen Prinzipien im globalen Wettbewerb immer weiter an Dynamik verliert. Bestehende Vorschriften behindern in zunehmendem Maße die deutsche Innovationsfähigkeit in einer Vielzahl von Bereichen, von denen hier zwei exemplarisch angesprochen werden sollen: • Handelsabkommen: Im vorgenannten Kontext sind – auf größerer Skala – auch internationale Regelungen wie das aktuell viel diskutierte TTIP-Freihandelsabkommen anzusiedeln. Der Wegfall von Zollschranken verschlankt zum einen bürokratische Prozesse. Die Reduzierung von Mehrfachrealisierung aufgrund heterogener Gesetzeslagen setzt zum anderen Geld frei für Investitionen in Infrastruktur, Forschung, Entwicklung und damit für Innovationen 59 | European Commission, »Pakt für Wachstum und Beschäftigung«, European Commission, Basisinformation zu Modul 6 Währungsunion, Juni 2012. 60 | Eder, Florian: »Wirtschaftsführer fordern kräftige Deregulierung«, www.welt.de/ wir tschaft/ar ticle107259591/Wir tschaftsfuehrer-fordern-kraeftige-Deregulierung. html, vom 25. Juni 2012; Donges, Jürgen B.: »Deregulierung, Soziale Marktwirtschaft«, Konrad-Adenauer-Stiftung. www.kas.de/wf/de/71.10176/, vom 07. Januar 2015.
277
278
Sabina Jeschke, Karsten Schulze, Dorothée Fritsch et al.
in den Unternehmen. Insbesondere das separate Freihandelsabkommen, das die USA 2015 mit den Staaten Ostasiens abschließen werden, stellt eine große Gefahr für die Wettbewerbsfähigkeit Deutschlands und Europas dar.61 • Datenschutz: In einer immer stärker digitalisierten Gesellschaft müssen Fragen von Sicherheit und Datenschutz zwar ernstgenommen werden; zugleich können datenbasierte Verfahren ihre Wirksamkeit per Definition nur entfalten, wenn auch Daten zur Analyse bereitstehen. So sind z.B. Gesundheitsdaten einerseits höchstpersönlich und schützenswert, andererseits stellen sie die Grundlage für eine deutlich verbesserte und letztlich wieder individualisierte Medizindiagnostik dar. Deshalb sind umfassende Deregulierungen notwendig – selbstverständlich in einer Weise, die die Grundwerte einer Demokratie nicht aushöhlen. Deregulierung hat unbestreitbar Konsequenzen und generiert neue Herausforderungen, denn sie bringt stets ein Mehr an Selbstverantwortung des Einzelnen und der agierenden Teile der Gesellschaft mit sich. Um sich gegen die schnellen und wendigen neuen Player behaupten zu können, müssen neue Partizipationsmodelle entwickelt und evaluiert werden, die in Deutschland umfassend beschleunigte Verfahren bei gleichzeitiger Wahrung hoher demokratischer Standards ermöglichen.
Finanzierungsmodelle Ungeachtet der positiven Entwicklungen an den Kapitalmärkten wird die Finanzierung gerade von im Wachstum befindlichen KMU vom Markt oft als zu risikoreich angesehen. Selbst etablierte KMU, die aber nur über eine vergleichsweise geringe Eigenkapitelquote verfügen, haben einen geringen Zugang zu externen Finanzierungsquellen. Durch den resultierende Mangel an Investitionen können viele KMU Expansionen und Systementwicklungen nicht gleichzeitig realisieren.62 Die Förderdatenbank des Bundesministeriums für Wirtschaft (BMWi) umfasst mehr als 300 Programme; allein die regionale Förderfibel der Investitionsbank Berlin umfasst über 80 Maßnahmen.63 Mögliche Lösungen für die Finanzierungsschwierigkeiten von KMU liegen somit in einer Vielzahl von – teils staatlichen, teils privaten – Konzepten: 61 | »Der Aufstand der Autobosse«, in: Das Handelsblatt vom 26. Januar 2015, S. 1; »Freihandelsabkommen: Merkel mahnt bei T TIP zur Eile«, www.handelsblatt.com/poli tik/international/freihandelsabkommen-merkel-mahnt-bei-ttip-zur-eile/11115698. html, vom 22. Dezember 2014. 62 | European Commission, »Die Finanzierung des Wachstums von KMU«, Europa – Zusammenfassungen der EU-Gesetzgebungen, http://europa.eu/legislation_summaries/ enterprise/business_environment/n26112_de.htm, vom 15. Januar 2007. 63 | Poganatz, Hilmar: »Loslegen mit der Förderfibel«, www.zeit.de/2011/09/GS-Fir mengruendung, vom 01. Februar 2015.
Industrie 4.0 ante portas
• Modelle der Forschungsförderung: Diese bleiben durch das Bundesministerium für Bildung und Forschung (BMBF), das BMWi und andere Ministerien als Investitionsbeihilfe bislang vielfach ungenutzt, ebenso wie EU-Gelder oder die Ziel-2-Förderung. Ursächlich hierfür sind u.a. Intransparenz in der Vergabe, vergleichsweise lange Antragsfristen bei unsicherem Ausgang, ein hohes Maß an Formalitäten oder notwendige Eigenanteile. Diese Hemmnisse führen häufig dazu, dass deutsche Firmen Potenziale und Angebote nicht ausreichend nutzen; hier besteht deutlicher Optimierungsbedarf. • Wagniskapital: Die für private Kapitalgeber in Deutschland bisher noch bestehenden steuerlichen Nachteile sollen nun über steuerpolitische und rechtliche Initiativen abgebaut werden. Ein entsprechender Antrag wurde in den Bundesrat eingebracht, der u.a. einen staatlichen Zuschuss für private Investoren vorsieht, die sich an Wagniskapitalfonds beteiligen. Auch für Versicherungen und Pensionskassen sollen hieraus neue Investitionsanreize entstehen.64 Eine proaktive Investitionskultur fehlt nicht nur in Deutschland, sondern in den meisten EU-Ländern. In den USA dagegen investieren erfolgreiche Unternehmer ihrerseits in andere Unternehmen und betätigen sich damit als »Business Angels« für junge aufstrebende KMU; neue Projektideen werden hier bereits in frühen Phasen mit erheblichen Beträgen finanziert. Die Anzahl erfolgreicher Unternehmensgründungen steigt daher in den USA kontinuierlich, während Deutschland im internationalen Vergleich gerade einmal eine Mittelposition erreicht; im Jahr 2012 gab es mehr Unternehmensschließungen als -gründungen. Eine Unternehmensgründung dauert in den USA im Schnitt sechs Tage, in Deutschland hingegen rund 15 Tage.65 Hier können von der deutschen Politik forcierte, thematisch gezielte Maßnahmen mehr Dynamik schaffen; dies würde die hiesige Maschinenbaubranche mittelfristig deutlich voranbringen. Abschließend bleibt folgende Erkenntnis: Die vierte industrielle Revolution ist – wie ihre drei ›Geschwister‹ – eine umfassende. Vor diesem Hintergrund kann nicht erwartet werden, dass die anstehenden Veränderungen mit einer kleinen Anzahl von Maßnahmen und unabhängig voneinander adressiert werden können. Um die Wettbewerbsfähigkeit der deutschen Unternehmen im internationalen Vergleich zu wahren und nachhaltig zu sichern, muss ein ganzheitlicher Ansatz verfolgt werden, bei dem auch mittel- und langfristig wirkende Maßnahmen frühzeitig angestoßen werden. 64 | »Berlin will Start-ups stärker fördern«, in: Das Handelsblatt vom 28. April. 2015, S. 23. 65 | Sternberg, Rolf/Vorderwülbecke, Arne/Brixy, Udo: »Unternehmensgründungen in weltweiten Vergleich – Länderbericht Deutschland 2013«, Hannover 2013; Miesenberger, Caren: »Wo Behörden Firmengründungen am schnellsten genehmigen«, www.impuls e.de/gruend ung/wo-behorden-firmengrundungen-am-schnellsten-genehmigen, vom 02. Januar 2015.
279
Sensoren der Cloud Linus Neumann
P rogr ammierbarkeit Mein erster Computer war ein Commodore 64, den mein Vater mir zu Weihnachten schenkte. Ich sah darin zunächst eine uncoole Streber-Alternative zu den Produkten aus dem Hause Nintendo, aber mein Vater grummelte irgendwas von meiner Zukunft und brachte mir die ersten Kommandozeilen-Befehle bei. Unter dem Schriftzug »Commodore 64« prangte die Erläuterung, worum es sich bei diesem Gerät handele, nämlich um einen »Personal Computer«, ein vollständiger Rechner, dimensioniert für einen einzelnen Nutzer. Das war nicht immer so üblich gewesen: In der grauen Vorzeit gab es nur raumfüllende, klobige Großrechner, die sich mehrere Nutzer teilen mussten. Die Entwicklung des Personal Computers (PC) führte weg von diesen Zentralrechnern hin zu persönlichen, individuell konfigurierbaren Geräten, mit denen auch immer mehr persönliche Dinge erledigt wurden. Da der PC in der Lage war, eine ansprechendere Oberfläche zur Verfügung zu stellen, ebnete er nicht zuletzt auch den Weg für attraktivere Computerspiele. Für ansprechende Grafiken und einen spannenden Spielfluss wurde und wird immer mehr Rechenleistung benötigt. Doch der PC eignete sich nicht nur zum Spielen. Er war programmierbar. Wer einen PC sein Eigen nannte, konnte darauf Programme schreiben, die alle kompatiblen PCs weltweit ausführen konnten. Es war also möglich geworden, individuelle Programme zu entwickeln, auszuführen und zu teilen. Diese recht trivial erscheinende Eigenschaft des PCs führte zu einigen bedeutsamen Entwicklungen, die unsere Gesellschaft heute noch prägen: Die Open Source Community begann, Programme zu schreiben und frei und kostenlos mit der Welt zu teilen und zu verbessern. Die unabhängige Entwickler-Szene setzte auf die Möglichkeit, ein Programm im stillen Kämmerlein auf einem herkömmlichen PC zu entwickeln, und damit einen großen wirtschaftlichen Erfolg zu erlangen. Der PC war ein universell programmierbares Gerät und bot den Usern unendliche Möglichkeiten.
282
Linus Neumann
D ezentr ale V erne t zung Während sich die Haushalte nach und nach mit PCs einrichteten (auf meinen C64 folgte ein »richtiger« PC mit CD-ROM-Laufwerk und Pentium-Prozessor), kündigte sich schon die nächste große Veränderung in der Art an, wie Menschen Computer nutzen würden: Die Computer sollten miteinander telefonieren. Und zwar nicht nur direkt miteinander oder in kleinen Gruppen, wie einige Computer-Freaks (darunter mein Vater) es bereits auf so genannten Mailboxen ausprobierten, sondern alle Computer mit allen anderen Computern. Immer. Viele Sagen und Legenden umwoben das ominöse Internet. Kaum jemand wusste, was es genau war oder wie es funktionierte – aber es gab darin Pornografieund Erotik-Angebote, der Siegeszug war also vorprogrammiert. Tage und Nächte verbrachte ich in diesem Netz und entdeckte darin immer neue Facetten und immer neue Techniken des Austauschs mit anderen Menschen überall auf der Welt. Die Faszination, immer neue Inhalte auf den Bildschirm zaubern zu können, die nie zuvor auf diesem Rechner waren, erlebe ich noch heute regelmäßig. Schlagartig veränderten sich meine Nutzungsgewohnheiten dahingehend, dass mir ein Rechner ohne Internetverbindung inzwischen weitgehend nutzlos erscheint. Die generelle Idee der Vernetzung von Computern war nicht neu – was hatte aber dem Internet zu diesem durchschlagenden Erfolg verholfen? Der Begriff »Internet« hatte nur sekundär mit der späteren Internationalität des Internets zu tun: Das Inter-Net Protokoll wurde als einheitliches Protokoll zwischen den bisherigen, in ihrer Funktionalität oft eingeschränkten, oder an bestimmte Hersteller gebundenen Netzwerksystemen und ‑protokollen entwickelt. So ließen sich auf Basis des Internet-Protokolls alle denkbaren Wege des Austausches realisieren: Websites werden auch heute noch über das Hypertext Transfer Protokoll (HTTP) übertragen, Nutzer kommunizieren in virtuellen Chat-Räumen über das Internet Relay Chat (IRC) Protokoll und Fernzugriffe auf andere Rechner finden über die Secure Shell (SSH) statt. Das Internet stellt also eine Grundlage für die weltweite, dezentrale und direkte Erreichbarkeit von Computern her und macht keine weiteren Vorgaben, wie diese Verbindungen zu nutzen seien.
Z entr alisierung Viele Utopien rankten sich um die Zukunft einer solchen vernetzten Welt. Neue Wege der Zusammenarbeit, neue Arten von menschlichen Beziehungen, neue Freiheiten und die immer wieder gefeierte Resistenz des Netzes gegen Zensur ließen uns von einer goldenen Zukunft der Demokratie träumen, die doch in all ihren Ausgestaltungen immer wieder unter der mangelnden unabhängigen Öffentlichkeit des guten alten griechischen Dorfplatzes gelitten
Sensoren der Cloud
hatte: Als das Internet kam, waren ein paar öffentlich-rechtliche und private Fernsehsender, eine Tageszeitung, und vielleicht ein wöchentliches Nachrichtenmagazin die üblichen und einzigen Informationskanäle für einen Haushalt. Welches revolutionäre Potential wohnte allein der Idee inne, künftig Artikel aus mehreren Quellen auswählen zu können? Zu allem Überfluss kamen dann auch noch »Blogs« auf – wir alle konnten ohne Expertenkenntnisse Inhalte ins Netz stellen. Doch schon damals unterhielten nur die wenigsten auch tatsächlich ihre eigene Infrastruktur. Was als dezentrale Struktur gleichberechtigter persönlicher Computer gefeiert wurde, entwickelte sich immer mehr, hin zu einem starken Ungleichgewicht: Im Internet wurde unterschieden zwischen Servern und Clients. Die Server standen als massive, leistungsfähige Computer im Rechenzentrum, die Clients in den Wohnzimmern der Konsumenten. Anfangs waren sie zumindest theoretisch noch »symmetrisch« mit dem Internet verbunden, konnten also ebenso schnell Daten ins Internet senden wie empfangen. Mit dem Aufkommen der DSL-Breitband-Anschlüsse war auch das vorbei: Annähernd 90 Prozent der Leitungskapazität sind heute für den Download reserviert, das Hochladen hingegen läuft sehr viel langsamer. Diese technisch nicht notwendige Ungleichheit spiegelte auch die Gewohnheiten der Nutzer wider. »Ich lade selten Pornografie ins Internet hoch!« scherzte ein guter Freund von mir, als ich mich über meine geringen Upload-Kapazitäten ärgerte. Während ich also mit meinem leistungsfähigen Personal Computer an einer Internetleitung hing, die hauptsächlich darauf ausgelegt war, mich zu berieseln, und mit großen Serverfarmen interagierte, die hauptsächlich darauf ausgelegt waren, mich von der Nutzung anderer Angebote abzuhalten, dämmerte mir langsam, wohin die Reise gehen würde: Die dezentral vernetzten Personal Computer würden als eine historische Episode enden. Die Utopie von der alternativen, diversen und dezentralen Öffentlichkeit würde den Gesetzen des Marktes nicht standhalten. Die Reise ging zurück zu leistungsschwachen Endgeräten und zentralen Großrechnern, die nun in der Hand einiger weniger großer Konzerne lagen. Diese Entwicklung war aus verschiedenen Sichten unvermeidlich und sowohl ökonomisch als auch ökologisch geboten.
E inschr änkung Was dann kam, war ebenso wenig überraschend: Die Computer verloren Kabel, Maus und Tastatur. Sie wanderten in die Hosentasche. Von der Öffentlichkeit weitgehend unbeachtet, verloren diese neuartigen Computer, als »Telefone« bezeichnet, allerdings auch die Möglichkeit, vom Nutzer selbst programmiert zu werden. Auf meinem C64, meinen PCs und meinen später folgenden Laptops hatte ich jederzeit meine eigenen Programme schreiben und ausführen
283
284
Linus Neumann
können. Ich konnte sie nach Lust und Laune umkonfigurieren und ein Betriebssystem meiner Wahl installieren. Diese Geräte waren meine eigenen und ich konnte damit tun und lassen, was ich wollte. Das war es, was sie überhaupt so unschätzbar wertvoll machte. Die Bewegung um Freie Software speiste sich aus dieser Faszination und brachte als prominentestes Beispiel das Betriebssystem Linux hervor, das heute auf annähernd 80 Prozent der weltweiten (nein, nicht Personal Computer, sondern) Server läuft. Natürlich steht es auch heute uns allen frei, Programme für unser iPhone zu schreiben. Wir benötigen dazu nur einen Apple-Computer und einen an viele Seiten AGB gebundenen, mit einer jährlichen Gebühr verbundenen Entwickler-Account. Unsere Programme können wir auch anderen Menschen weltweit zur Verfügung stellen – allerdings nur im Apple App Store, und nur sofern es nicht gegen die vielen Auflagen verstößt, mit denen Apple seine geschäftlichen Interessen und den sittlichen Ruf des Unternehmens schützen möchte. Was früher ein universeller Personal Computer war, ist heute ein mit umfassenden Einschränkungen und Vorgaben versehenes Produkt. Und so ist es nicht weiter verwunderlich, dass auch diese Produkte den Maximen des Marktes unterliegen, ihre Kunden möglichst an eine Marke zu binden und zum weiteren Kauf zu bewegen. Die früheren PC-Hersteller hatten es schwer: Die für die User-Experience wichtige Software kam aus anderem Hause oder gar freien Quellen. So bot sich wenig Gelegenheit, eine langfristige Kundenbindung an das Gehäuse des Rechners aufzubauen. Mit der zunehmenden Einschränkung und zentralen Vernetzung wurde das anders.
K undenbindung Der Computer-Hersteller Apple hatte als einer der ersten begriffen, dass Computer zwar auch wegen ihres Aussehens, primär jedoch wegen ihrer Software verkauft wurden. Entsprechend wurde die Nutzung der Software auf Geräten von Fremdherstellern technisch erschwert und in den Nutzungsbedingungen ausgeschlossen. Wer die gewohnte Nutzungsumgebung auch beim nächsten Kauf genießen wollte, war an Apple gebunden. An dieser Strategie hielt Apple – sehr erfolgreich – auch bei seinen Smartphones und Tablets fest. Gleichzeitig verlor die lokale Nutzungsumgebung durch die zunehmende Internetnutzung immer mehr an Bedeutung: Personal Computer und mobile Geräte schienen sich langsam zu Fernseher-ähnlichen Zugangsgeräten zu entwickeln, da der wahre Lebensmittelpunkt sich im Netz abbildete. Wie aber würde Kundenbindung in solch einer zunehmend vernetzten Welt funktionieren? Eine sehr gute Antwort schienen Google und Facebook gefunden zu haben: Sie sorgten dafür, dass ihre Online-Dienste auf allen Geräten nutzerfreund-
Sensoren der Cloud
lich zu bedienen waren und hielten sich mit dem Verkauf von teuer zu produzierenden und vergänglichen physischen Produkten stark zurück. Stattdessen suchten sie ihr ökonomisches Standbein in der Auswertung der Nutzerdaten zur gezielten Anwendung im Marketing. Auch der Hardware-Hersteller Apple wurde so dazu gedrängt, geräteunabhängige Dienste zu entwickeln. So wanderten Kalender und Adressbücher der Nutzer in Apples Datenzentrum, dann ihre Fotos und schließlich ihre Musik. Die Nutzer waren nicht länger Konsumenten eines Produktes, sondern Teil eines Ökosystems, aus dem auszubrechen mit immer mehr Unannehmlichkeiten verbunden wurde.
D ienstleistung und D aten Die zentrale Vorhaltung von Daten aller Nutzer erhöht die Qualität vieler Dienstleistungen signifikant: Unsere Suchergebnisse sind zielführend, weil berücksichtigt wird, wo viele Menschen fündig geworden sind, die schon vor uns gesucht haben. Online-Kartendienste haben so viele Nutzer, dass sie in Echtzeit wissen, wo und wie Staus und zähfließender Verkehr umfahren werden können. Nicht zuletzt verhalf die Zentralisierung auch der seit Jahrzehnten mehr schlecht als recht funktionierenden Spracherkennung zum Durchbruch: Ihre Algorithmen unterliegen nun einem ständigen Lern- und Trainingseffekt, sodass sich die Qualität der Spracherkennung für alle stetig verbessert. Entsprechend sinkt die Anzahl der Aufgaben, die ein Computer besser lokal erledigen kann, statt sie einem der wenigen großen Rechenzentren zu übergeben, unaufhaltsam. Wer aber finanziert diese Rechenzentren, in denen viele tausend Computer in höllisch lauten Umgebungen von Klimaanlagen im Industrie-Maßstab gekühlt werden? In der Online-Welt hat es sich etabliert, dass sich nur vermeintlich kostenlose Dienstleistungen oder Angebote, von denen es zumindest eine kostenlose Probe-Variante gibt, langfristig etablieren können. Die Anbieter sind nicht nur gezwungen, ihr Geschäftsmodell auf anderem Wege zu finanzieren. Oftmals eröffnet die Bereitstellung der aus einer fortwährenden Analyse von Nutzerdaten gewonnenen Erkenntnisse einen sehr viel lukrativeren Markt. Gezielte Werbung scheint bisher der einzige verlässliche Motor der Netz-Ökonomie zu sein. Dabei gilt eine mindestens seit den 1970er Jahren1 kursierende Weisheit: »Wenn du nicht bezahlst, dann bist du nicht der Kunde, sondern das Produkt, das verkauft wird.«2 1 | Serra, Richard, Weyergraf-Serra, Clara: Richard Serra, Interviews etc., 1970-1980, New York: Hudson River Museum 1980. 2 | »If you are not paying for it, youre not the customer; youre the product being sold.« https://twitter.com/andlewis/status/24380177712, vom 04. August 2015.
285
286
Linus Neumann
D aten und M acht Im Einzelfall ist die für das Erbringen der Dienstleitung entrichtete Datenspende ein äußerst geringer, leicht zu verschmerzender Preis für das Individuum. Nur wenige Menschen wären bereit, dieselbe Dienstleistung monetär zu vergüten, um dafür in den Genuss eines höheren Datenschutzes zu kommen. Dabei ist auch der Wert der einzelnen Datenspende gering – Verwertbarkeit ergibt sich erst bei hinreichendem Umfang und entsprechender Aktualität eines Datensatzes. Für Google ist es egal, was ich heute Morgen gesucht habe – wichtig ist, es von allen zu wissen. Nur große Mengen an Daten erlauben verlässliche Analysen und valide Vorhersagen von Verhalten. Damit geht entsprechend auch die Möglichkeit einher, auf das Verhalten einzelner Personen und Gruppen gezielt einzuwirken. Zielgruppenorientierte Werbung ist dabei noch die am wenigsten invasive Ausnutzung der mit den Datensammlungen einhergehenden Macht und glücklicherweise deren am weitesten verbreitete Form.. Es ist daher auch keine individuelle, sondern eine gesellschaftliche Frage, ob wir Institutionen erlauben möchten, derart umfangreiche Macht zu entwickeln. Diese Frage geht weit über die oft behandelten Dystopien der Vollüberwachung hinaus, in denen Dissidenten automatisch liquidiert und Straftäter schon vor ihrer Tat verhaftet werden. Vollüberwachung ist nur die eine Seite der Medaille, die sich leider kaum auf einem legalen Markt monetarisieren lässt. Erst die Beeinflussung von Verhalten eröffnet die Möglichkeit der Monetarisierung.
I nnovationsdruck Die heute zu beobachtende Konzentration der gesammelten Daten auf einige wenige Anbieter ist eine logische Folge kapitalistischer Prinzipien, nach denen marktbeherrschende Positionen sich verfestigen und ausbauen: Wer mehr Daten zur Verfügung hat, kann diese besser monetarisieren und auf ihrer Grundlage bessere Dienstleistungen entwickeln. Durch Innovationsdruck und Konkurrenz sind die Anbieter zum Erhalt ihrer Position darauf angewiesen, immer neue Datenquellen zu erschließen und immer neue Dienstleistungen zu entwickeln. Seit der Erfindung der so genannten »sozialen Netzwerke«3, in deren Datenbeständen sich signifikante Teile unseres alltäglichen Lebens in Form von Nachrichten, Bildern, Adressbüchern und Surfverhalten sammeln, scheint unser 3 | Bei den heute als soziale Netzwerke bekannten Online-Angeboten handelt es sich um zentrale Plattformen, für die der Begriff des Netzwerkes irreführend ist.
Sensoren der Cloud
Online-Leben fast vollständig erschlossen zu sein: Kaum ein Mausklick, kaum eine Nachricht, kaum ein Seitenbesuch, der nicht von einem oder mehreren Anbietern gesammelt, eingeordnet und analysiert wird. Das Wachstum des auf dem Sammeln und der Auswertung dieser Daten basierenden Marktes wäre von einem jähen Ende bedroht, fänden sich nicht neue Datenquellen, die wiederum eine genauere Erfassung, Vorhersage und Manipulation unseres Verhaltens ermöglichen. So ist es eine logische Folge, nun auch die bisher online nicht erschlossenen Bereiche unseres Lebens zu erfassen.
E rfassung der O ffline -W elt Mit dem Erschließen von vormals nicht online-relevanten Bereichen geht die Herausforderung einher, sie einerseits überhaupt erfassbar zu machen, und andererseits durch diese Erfassung einen Mehrwert bieten zu können. Ohne erkennbaren Mehrwert bleibt als alternative Strategie nur, auf das Ende bestehender Produktgenerationen und deren Neuanschaffung zu setzen. So treibt das nun als Internet der Dinge bezeichnete Phänomen zwar einige skurrile Blüten, überrascht aber vor allem durch das Umkrempeln von teilweise bereits seit Jahrzenten bestehenden Produktkategorien: Wer Sport treibt, ist seit jeher an Puls, Leistung und Kalorienumsatz interessiert. Entsprechende Messgeräte sind seit Jahren erhältlich, aber bieten nur geringe Möglichkeiten zur longitudinalen Aufzeichnung und Auswertung. Was läge also näher, als diesen Bedarf von jenen Unternehmen decken zu lassen, deren Hauptgeschäft in Aufzeichnung und Auswertung besteht? Folgerichtig werden Fitness-Armbänder und »Smart Watches« mit entsprechenden Sensoren ausgestattet, um die erfassten Daten an zentrale Datenbanken zu übermitteln. Wer trotz fortschreitender Digitalisierung noch eigens zum Verkauf eingerichtete Örtlichkeiten des Lebensmittel- und Fachhandels aufsucht, entzieht sich dem Zugriff der Werbenetzwerke und begibt sich in die alte Offline-Welt der zielgruppenunabhängigen Plakatwerbung. Was läge also näher, als das Verhalten der Menschen auch an diesen Orten zu erfassen, ihre Bewegungen aufzuzeichnen, ihnen maßgeschneiderte Angebote zu präsentieren und ihnen als Navigationshilfe im Chaos der Regale zur Seite zu stehen? Wer schon etwas weiter ist und auf den anachronistischen Prozess des manuellen Einkaufs gern verzichtet, freut sich über einen Kühlschrank, der benötigte Lebensmittel nach Möglichkeit direkt selbst ordert – maßgeschneiderte Sonderangebote und kostenlose Probe-Päckchen inklusive. Die selbstverständlich mit Internet-Anschluss versehene Waschmaschine sorgt dafür, dass die Wäsche frisch zum Feierabend fertig wird, und nicht stundenlang in der Trommel vergammelt. Wäre es nicht auch großartig, wenn sie ein drohendes
287
288
Linus Neumann
Ende der Waschmittelvorräte erkennen, und frühzeitig Abhilfe schaffen würde? Und könnte sie sich zu diesem Zweck nicht mit dem Kühlschrank austauschen, um den nächsten Einkauf zu koordinieren?
S ensoren der C loud Für die Herausforderung, die verschiedenen neuen Produkte miteinander sprechen zu lassen, gibt es eine einfache Lösung: Weder der Kühlschrank, noch das Fitness-Armband, noch die Waschmaschine sind aktive Elemente. Sie übermitteln vielmehr nur die erfassten Daten an zentrale Stellen – am liebsten natürlich eine einzige. Dort werden die Daten analysiert, kombiniert, und entsprechende Reaktionen in die Wege geleitet: Die Lebensmittel-Bestellung tätigt nicht der Kühlschrank, sondern die Cloud. Die Waschmaschine startet nicht selbstständig, wenn wir die Arbeitsstätte verlassen, sondern wird von der Cloud fernbedient. Selbiges gilt für das »selbstfahrende Auto«, dessen einzige wirklich autonome Fähigkeit das Abbremsen des Fahrzeuges bei Unfallgefahr oder Verlust des Internet-Empfangs ist. Ein solches Internet der Dinge ist die logische Konsequenz der Tendenzen der vergangenen Jahrzehnte: Zentralisierung: Das einst dezentrale, vielfältige und universell nutzbare Internet wird zur omnipräsenten Verbindung zu einigen wenigen, zentralen Datenbanken. Wer kann es den Internet Service Providern da noch übelnehmen, dass sie sich vom Grundsatz des freien Netzes am liebsten vollständig verabschieden, und Dienstanbieter entsprechend zur Kasse bitten möchten? Einschränkung: Unsere ehemals frei programmierbaren Computer können nur noch entsprechend den Vorgaben und kommerziellen Interessen ihrer Hersteller verwendet werden. Nicht selten fehlt ihnen jegliche Möglichkeit zur freien Veränderung oder Erweiterung des Funktionsumfangs. Mit einem »Internet der Dinge« hat all dies wenig zu tun. Was als »smartes« Produkt mit Internet-Anschluss verkauft wird, verfügt weder über besondere Intelligenz, noch über eine Möglichkeit, die Internetanbindung frei zu nutzen. Selbige dient in der Regel ausschließlich der Kommunikation »nach Hause«. Die ehemals frei programmierbaren Computer entwickeln sich in ihrer Funktionalität immer weiter hin zu eingeschränkten Produkten, die ihre Daten über das ehemals offene und dezentrale Internet an zentrale Datenbanken übermitteln. Was wir begeistert als »smart« wahrnehmen, ist nur ein weiterer Sensor der Cloud.
Sensoren der Cloud
Und doch könnte das Internet der Dinge so viel mehr sein, wenn es seinem Namen gerecht würde. Unsere Häuser, Wohnungen und Objekte des täglichen Gebrauchs könnten kleine, unabhängige, dezentrale Entitäten sein, so wie viele Hacker, Nerds und Computer-Enthusiasten sie schon seit Jahren betreiben. Aber wie so oft ist es der Avantgarde nicht gelungen, einfach nutzbare Systeme zu entwickeln, die für die Breite geeignet sind. Vielleicht hat sie es auch nie wirklich versucht.
IT-S icherheit im I nterne t der D inge Wenn neue Produkte oder Produktkategorien vorgestellt werden, in denen sich Computer verbergen, stellen sich Journalisten auf der Suche nach einem Schocker-Thema sofort die Frage, »Kann man das hacken?« Selbstverständlich lautet die Antwort »Ja«. Sie lautete nie anders. Obwohl »Things« von ihren Herstellern im Funktionsumfang sehr eng definiert sind, so verbirgt sich in ihrem Inneren immer noch ein frei programmierbarer Computer. Oft ist es für den geübten Hacker nur eine Fingerübung, manchmal mit ein bisschen Aufwand verbunden, diesen frei programmierbaren Computer auch frei zu programmieren. So spendieren Hacker Ihren Geräten die als fehlend erachteten Funktionen: Die Kamera bekommt eine Zeitraffer-Funktion, der eBook-Reader eine Twitter-Funktion und die Uhr gleich ein komplett neues Betriebssystem. Der Gedanke, nicht nur dem eigenen Gerät zusätzliche Funktionen zu verpassen, liegt dann nicht mehr besonders fern. Der mit einem Mikrophon ausgestattete smarte Fernseher eignet sich prima als Abhör-Wanze, die Brille mit der eingebauten Kamera verspricht interessante Fotos aus dem Privatleben des Opfers und die Smartwatch erlaubt eine weltweite Ortung. Durch die eingeschränkten Möglichkeiten der Nutzer-Interaktion ist es sogar noch unwahrscheinlicher, als ohnehin schon, dass das Opfer die Infektion bemerkt. Der Trend zum Internet der Dinge drängt auch Branchen zur digitalen Vernetzung, die bisher wenig Anlass und Gelegenheit hatten, Expertise im Bereich der IT-Sicherheit aufzubauen. Die Sicherheitsforscher Charlie Miller und Chris Valasek demonstrierten im Juli 2015 die vollständige Übernahme eines fabrikneuen Geländewagen des Typs »Jeep Cherokee«: Durch eine Schwachstelle im Unterhaltungssystem4 des Fahrzeugs konnten sie aus der Ferne über das Mobilfunknetz auf selbiges zugreifen. Aufgrund des absolut mangelhaften internen Sicherheitskonzepts des Fahrzeugs konnten sie in der Folge die Kontrolle über Armaturenbrett, Steuerung, Getriebe und Bremsen übernehmen. 4 | Ein älterer, heute noch gebräuchlicher Begriff für das Unterhaltungssystem eines Fahrzeugs lautet: ›Autoradio‹
289
290
Linus Neumann
Als Höhepunkt ihrer Demonstration schalteten sie den Wagen während der Fahrt einfach aus der Ferne ab.5 Dass die interne Vernetzung der Geräte in einem Fahrzeug einen solchen Angriff überhaupt theoretisch ermöglicht, ist kaum zu entschuldigen. Nur kurze Zeit zuvor hatte der Sicherheitsforscher Billy Rios auf Sicherheitslücken in einer weit verbreiteten Infusionspumpe des Herstellers Hospira aufmerksam gemacht:6 Ohne überhaupt Schutzmaßnahmen umgehen zu müssen, konnte er die Pumpe über das Netzwerk frei konfigurieren: So konnte er bestimmen, wie viele Milliliter pro Stunde das Gerät abgeben würde, und welche oberen und unteren Beschränkungen für das verabreichte Medikament gelten würden. Bei bestimmten Medikamenten wäre so die Verabreichung einer letalen Dosis möglich gewesen. Rios entdeckte, dass das Gerät im Netz gleich mehrere ungeschützte Möglichkeiten zum Fernzugriff bot: Für das medizinische Personal gab es eine intuitive Web-Oberfläche, für fortgeschrittene Hacker direkt einen Zugang zur Kommandozeile – von Sicherheitsmaßnahmen weit und breit keine Spur. Natürlich ist nicht gänzlich auszuschließen, dass in Zukunft ›perfekte Morde‹ über das Hacking von Autos und Medizingeräten begangen werden – aber es bleibt zu hoffen, dass die Hersteller dieser Geräte ihre Lektionen sehr schnell und eindringlich lernen, während Mörder auch in Zukunft auf simplere und plumpere Methoden zurückgreifen werden. Wenngleich Hacker also schon einfache Drucker gehackt und zu eindrücklichen Spionage-Werkzeugen ausgebaut,7 Autos über das Mobilfunknetz ferngesteuert und Wahlmaschinen in Schachcomputer8 verwandelt haben, so scheint das Hacking-Risiko bei den meisten ›Things‹ eher überschaubar zu sein. Mit Sicherheit wird die unermüdliche Community auch weiterhin daran arbeiten, eingeschränkte Geräte per ›Jailbreak‹ zu befreien und alternativen, freien Nutzungsformen zuzuführen. Ein Angriffs- oder gar Schadensrisiko wird dabei nur in selteneren Fällen entstehen, denn mit der zunehmenden Funktionsbeschränkung der Things sinkt auch deren Attraktivität als An5 | Andy Greenberg: »Hackers Remotely Kill a Jeep on the Highway – With Me in It«, https://www.wired.com/2015/07/hackers-remotely-kill-jeep-highway/ vom 21. Juli 2015. 6 | Zetter, Kim: »Drug Pump’s Security Flaw Lets Hackers Raise Dose Limits«, https:// www.wired.com/2015/04/drug-pumps-security-flaw-lets-hackers-raise-dose-limits/ vom 19. August 2015. 7 | Costin, Andrei: »Hacking MFPs, Vortrag beim 28. Chaos Communication Congress«, https://media.ccc.de/browse/congress/2011/28c3-4871-en-hacking _mfps.html #video vom 19. August 2015. 8 | »Manipulierter Wahl-Automat: Chaos-Club hackt Demokratie«, http://www.spiegel.de/ netzwelt/tech/manipulierter-wahl-automat-chaos-club-hackt-demokratie-a-487958. html vom 19. August 2015.
Sensoren der Cloud
griffsziel, sofern sie nicht über spannende Sensoren wie Kameras oder Mikrophone, oder gar Effektoren wie einen 184PS-Motor verfügen. Was hätte ein Angreifer davon, zu wissen, wann Sie Ihre Wäsche waschen, oder welchen Puls Sie beim morgendlichen Dauerlauf haben? Meist sind derartige Daten nur in großen Mengen attraktiv. Entsprechend werden im Regelfall auch nicht die »Things« selbst zum Angriffsziel, sondern die Cloud-Infrastrukturen, an die sie ihre Daten liefern, und von denen sie fernbedient werden. Frei nach Berthold Brecht: »Was ist ein Einbruch in eine Bank gegen die Gründung einer Bank?«9 – stellt sich daher die Frage: Was ist ein Einbruch in ein Fitnessarmband gegen die Gründung einer Fitness-Cloud?
9 | Brecht, Bertolt: Die Dreigroschenoper: Nach John Gays »The Beggar’s Opera«, 44. Aufl., Frankfurt a.M.: Suhrkamp 2001.
291
Geld, Kredit und digitale Zahlung 1971/2014 Von der Kreditkarte zu Apple Pay Sebastian Gießmann
Mein Beitrag widmet sich einer Medienpraktik, die ohne komplexe soziotechnische Arrangements und weitreichende kulturelle Selbstverständigungen über wechselseitiges Vertrauen nicht auskommen kann. Die Rede ist vom Bezahlen, also dem vermeintlich selbstverständlichen alltäglichen Tausch von Zeichen, deren Deckung und Wert auf selten explizit gemachten sozialen Konventionen und auf einem meist staatlich garantierten Gelten von Währungen beruht. Genauer: Es geht im Folgenden um die Zahlung mit Kreditkarten, die durch den Auf bau entsprechender Datennetze seit den 1960er Jahren eine der frühesten digitalisierten Medienpraktiken des Alltags darstellt. Aktuell erfährt sie durch neue Zahlungspraktiken per Smartphone eine Transformation, die ein verlässliches Internet der Dinge als Interaktionsgrundlage voraussetzt. Die orts- und situationsabhängigen Medienpraktiken des Bezahlens setzen auf »Ketten von Mittlern«1 und vernetzte Buchhaltungen, die einen auf wechselseitigem Vertrauen beruhenden Transfer von ökonomisch codierten Zeichen in Gang setzen, prüfen und validieren. Folgt man der Geschichte der Zahlungsinteraktionen, erscheint das Internet der Dinge nicht als neu, sondern steht in der Tradition digitaler Systeme, die für spezialisierte Anwendungen im Bank- und Finanzbereich entwickelt worden sind.2 Man kann sogar sagen, dass die gesamte infrastrukturell-industrielle Moderne Projekte zur Interkommunikation von Objekten verfolgt hat. Das Ubiquitous Computing mit seiner Aufrüstung durch Sensoren, Smartness 1 | Hennion, Antoine/Méadel, Cécile: »Dans les laboratoires du désir. Le travail des gens de publicité«, in: Réseaux. Communication – Technologie – Société 6/28 (1988), S. 7-54, hier: S. 41. Vgl. die deutsche Übersetzung in Thielmann, Tristan/Schüttpelz, Erhard (Hg.): Akteur-Medien-Theorie, Bielefeld: transcript, 2013, S. 366. 2 | Vgl. Bonhage, Barbara: »Befreit im Netz. Bankdienstleistungen im Spannungsfeld zwischen Kunden und Computern«, in: Stefan Kaufmann, (Hg.), Vernetzte Steuerung. Soziale Prozesse im Zeitalter technischer Netzwerke, Zürich: Chronos, 2007, S. 95-108.
294
Sebastian Gießmann
usw. beerbt mechanische, elektrische, elektromechanische und digitale Regelungstechniken. Für diese Verbundenheit der Dinge werden im 19. und 20. Jahrhundert technische und organisatorische Prinzipien gefunden, und mit dem »Netzwerk« ein sozialer, technischer, ökonomischer und kultureller »absoluter Begriff« geprägt.3 Gegenüber der infrastrukturellen Verfertigung von Netzwerkgesellschaften sind im Internet der Dinge vor allem Elemente einer beschleunigten, automatisierten und weitgehend unsichtbaren Aufrüstung medialer Umwelten entscheidend, die auf digitalen Plattformtechnologien beruhen.4 Dies gilt gerade für die administrative Ordnung der Interaktion, die weitgehend über bürokratische Medientechniken realisiert wird, z.B. durch Standards, Netzwerkprotokolle und Zertifizierungen. Paradoxerweise spielen die basalen Verwaltungsoperationen, die eine sprachfähige Interkommunikation von Objekten zuallererst ermöglichen, in populären Zukunftsentwürfen des Internets der Dinge allenfalls eine Nebenrolle. Demgegenüber möchte ich mit meinem Beitrag zeigen, dass eine solche administrativ-ökonomische Formierung digitaler Medien zumeist am Anfang realiter nutzbarer Software, Dienste und Hardware steht. Auch das Internet der Dinge ist ein Registraturund Identifizierungsprojekt, das auf Tracking und Tracing von Personen, Zeichen und vor allem Dingen abstellt. Zeigen soll der Beitrag dies anhand von zwei medienhistorischen Innovationen. Die erste handelt von der Standardisierung der amerikanischen Kreditkarte bis 1971, die zweite von der Umrüstung des Bezahlens durch neue Dienste wie z.B. Apple Pay ab 2014. Wie die Kreditkarte, eine der frühesten digitalen spezialisierten Infrastrukturen, lassen sich auch die neuen Zahlungsdienste als Vorboten des Internets der Dinge im Alltag verstehen. Dabei zeigen beide Dienstleistungsformen eine erstaunliche Kontinuität hinsichtlich der Medienpraktiken, die sie unterstützen und ermöglichen. Ob mittels Paper Tools, Plastik oder Smartphones, Fingerabdruckscannern und Network Tokens: Immer geht es um Praktiken des Zeichentauschs und der Kreditnahme sowie Gesten, die sozial als Bezahl- und Verpflichtungshandlungen erkennbar bleiben. Umso mehr gilt es zu fragen: Was ändert sich an den wirtschaftlichen und technischen Bedingungen einer Zahlungssituation, wenn sie nicht mehr allein durch körperliche Vollzüge des Gebens und Papiertechnologien beglaubigt 3 | Vgl. Schüttpelz, Erhard: »Ein absoluter Begriff. Zur Genealogie und Karriere des Netzwerkkonzepts«, in: Stefan Kaufmann (Hg.), Vernetzte Steuerung. Soziale Prozesse im Zeitalter technischer Netzwerke, Zürich: Chronos, 2007, S. 25-46; Gießmann, Sebastian: Die Verbundenheit der Dinge. Eine Kulturgeschichte der Netze und Netzwerke, Berlin: Kadmos, 2014. 4 | Vgl. zum Stand der Platform Studies Gießmann, Sebastian: »Internet- und Digitalisierungsforschung nach der Desillusionierung. Begriffe und Perspektiven«, in: Navigationen. Zeitschrift für Medien- und Kulturforschung 15/1 (2015), S. 117-135, hier: S. 126 f.
Geld, Kredit und digitale Zahlung 1971/2014
wird? Wie wird das, was Erving Goffman die »Interaktionsordnung«5 genannt hat, in soziotechnische Skripte und digitale Apparate umgesetzt? Welcher Plattformbildungen bedarf es zur Integration und Vernetzung heterogener Akteure? Wie werden die Zahlungs- und Vermittlungsketten administrativ angelegt und in ihren Abläufen gesichert? Die medientheoretische These meines Beitrags lautet, kurz und in Anlehnung an Bruno Latour gefasst: Je mehr Vermittlungsschritte zum Registrieren und Identifizieren nötig sind, umso realer wird eine Zahlungsinteraktion.6 Dies gilt vor allem auf der infrastrukturellen Ebene, die mit weitgehend unsichtbaren Abläufen den Rahmen der Interaktionsordnung herstellt. Akzeptanz und Beglaubigung von rein digital verarbeiteten und verrechneten Geldzeichen benötigen einen massiven infrastrukturellen und organisatorischen Aufwand, um überhaupt alltagstauglich zu werden. In den beiden hier besprochenen Zahlungstechnologien, dies sei vorweggeschickt, kommen weder Kapitalismus noch Kapital zu sich selbst. Jedoch ist die soziotechnische Sorge und Sorgfalt, die in Medialisierungen des Bezahlens das Medium Geld stabilisiert, durchaus Ausdruck spezifischer Formen wirtschaftlichen Handelns. Auf die Frage, was die Entwicklungen zum Internet der Dinge hin antreibt, wäre eine provisorische Antwort: der Versuch, jedwede Interaktion – vor allem die von Maschinen mit Maschinen – zum Zweck der Handlungsverkettung registrierbar und identifizierbar zu machen und dafür eine »himmlische Bürokratie der Daten«7 zu errichten.
1. M edieninter ak tion 1971 : ANSI X 4 . 13 -1971 und die amerik anische K reditk arte Der Anspruch des ersten Standardisierungsdokuments, mit dem die amerikanische Bankenwirtschaft 1971 den Wildwuchs an Kreditkartenformen und -praktiken einzudämmen versuchte, gehorchte gängigen Normierungslogiken: »The purpose of this standard is to achieve uniformity of credit-card specifications.«8 Und die Versprechen, die das beauftragte Subcommittee X4-A11 des 5 | Vgl. Goffman, Erving: »The Interaction Order. American Sociological Association, 1982 Presidential Address«, in: American Sociological Review 48/1 (1983), S. 1-17. 6 | »The more instruments, the more mediation, the better the grasp of reality.« Latour, Bruno: »What is Iconoclash. Or is There a World Beyond the Image Wars?«, in: ders./ Peter Weibel (Hg.), Iconoclash. Beyond the Image Wars in Science, Religion and Art, Cambridge, MA: MIT Press, 2002, S. 14-37, S. 21. 7 | Blumenberg, Hans: Die Lesbarkeit der Welt, Frankfurt a.M.: Suhrkamp, 1989, S. 23 f. Vgl. auch Gießmann: Die Verbundenheit der Dinge, S. 337 f. 8 | American National Standard ANSI X4.13-1971. Specifications for Credit Cards. Approved April 28, 1971. American National Standards Institute, Inc., 1971, S. 7.
295
296
Sebastian Gießmann
Standards Committee on Office Machines and Supplies X4 den Anwendern des Standards machte, zeugten primär von ökonomischen Effizienzerwägungen. Mit der Anwendung sollten die Kosten der Rechnungsstellung für Kreditkarten sinken, das gegenseitige Verrechnen der Banken untereinander einfacher, das Druckequipment billiger und zukünftige Kosten für ein maschinelles Auslesen von Kreditkarten niedrig gehalten werden.9 Der Niederschrift des Standardisierungsdokuments waren langjährige Diskussionen in der American Banking Association (ABA) und in brancheninternen Journalen vorangegangen. Drei Bedingungen waren dafür maßgeblich: Erstens war die Heterogenität der verwendeten Kreditkartensysteme, die der Boom der verschiedenen Kreditkartenangebote seit 1950 mit sich gebracht hatte, wenig praktikabel. Zweitens stieg die Nachfrage der US-amerikanischen Mittelschicht nach unkompliziert verfügbaren Krediten und Hypotheken weiterhin.10 Die Vision einer Gesellschaft ohne Verrechnungsschecks und ohne Bargeld, die ihre Zahlungstransaktionen primär elektronisch abwickeln und die Konten computerbasiert verwalten sollte, erwies sich als dritter Faktor.11 Diese Bedingungen beruhten auf einer sozialhistorischen Entwicklung in den USA nach dem Zweiten Weltkrieg, die Teil der so genannten »goldenen 30 Jahre« des Kapitalismus von 1945 bis 197512 war. Die neuen Verschuldungspraktiken reichten dabei bis in die 1920er Jahre zurück.13 Die amerikanische Gesellschaft, und hier vor allem die Mittel- und Oberschicht, profitierte nach dem Zweiten Weltkrieg von den Kriegsersparnissen und investierte sie – abgesichert durch wohlfahrtsstaatliche Maßnahmen wie Versicherungen gegen Arbeitslosigkeit und Arbeitsunfähigkeit – in den privaten Konsum.14 Sobald die privaten Kriegsersparnisse aufgebraucht waren, stieg die Nachfrage der Mittelklasse nach Finanzierungsmöglichkeiten neuer Lebensstile, darunter auch die technische Aufrüstung durch Automobile, Haushaltsgeräte, Medienmöbel usw. Die Finanz- und Immobilienindustrie (kurz: FIRE) ant9 | Vgl. American National Standard ANSI X4.13-1971. Specifications for Credit Cards, S. 7. 10 | Vgl. Hyman, Louis: Debtor Nation. The History of America in Red Ink. Politics and Society in Twentieth-Century America, Princeton, NJ/Oxford: Princeton University Press, 2011, S. 132 f f. 11 | Vgl. Bátiz-Laszlo, Bernardo/Haigh, Thomas/Stearns, David L.: »How the Future Shaped the Past: The Case of the Cashless Society«, in: Enterprise & Society 15/1 (2014), S. 103-131. 12 | Vgl. Mann, Michael: The Sources of Social Power, Cambridge: Cambridge University Press, 2013, S. 46. 13 | Vgl. Hyman: Debtor Nation, S. 10 f f.; Logemann, Jan (Hg.): The Development of Consumer Credit in Global Perspective. Business, Regulation, and Culture, New York/ Houndsmills, Basingstoke: Palgrave Macmillan, 2012. 14 | Vgl. Mandell, Lewis: The Credit Card Industry. A History, Boston: Twayne, 1990, S. 22.
Geld, Kredit und digitale Zahlung 1971/2014
wortete in den 1950er Jahren mit neuen Angeboten, die die bereits akzeptierte Finanzierung von Käufen auf Kredit – die wiederum auf den älteren Techniken des Anschreibens beruhte –, noch mehr zum Normalfall machten. Dies trug erheblich zum Aufstieg dessen bei, was die Geschichtswissenschaft mittlerweile als die »consumer’s republic« bezeichnet. Sie war und ist durch die Kombination von neuen Kredit-, Einkaufs- und Mobilitätspraktiken gekennzeichnet und unterscheidet sich erheblich von der Skepsis des amerikanischen 19. Jahrhunderts gegenüber Verschuldung.15 Das Ideal des Einkaufens in den 1950er Jahren sah eine glückliche weiße Familie vor, die in den neuen Supermarkt- und Shoppingmall-Architekturen am Rande der Vorstädte zusammen ihren wöchentlichen Großeinkauf erledigte.16 Diese räumliche Verschiebung aus den Innenstädten hinaus erwies sich in den Jahren darauf als eines der entscheidenden sozialen Elemente für die Mobilisierung des Bezahlens auf Kredit. Bereits vor dem Zweiten Weltkrieg hatten große Kaufhäuser, Tankstellenunternehmen, Hotelketten und Fluglinien damit begonnen, Kundenkarten mit aufschiebender Zahlungsfunktion anzubieten, um Verbraucher an sich zu binden. Die erste wirkliche Kreditkartenfirma führte diese Idee auf einem speziellen Feld fort und versuchte ab 1950 unter dem Namen »Diners Club«, gut betuchten New Yorker Geschäftsleuten das bargeldlose Bezahlen in Restaurants zu ermöglichen. An diesem Geschäftsmodell orientierten sich auch die weiteren Neugründungen so genannter »Travel & Entertainment«-Karten. Das Zielpublikum blieben vorerst weiterhin Geschäftsmänner, deren mobiles Leben durch Karten wie die »BankAmericard«, »American Express«, »Carte Blanche« oder eben »Diners Club« erleichtert werden sollte. Dieses Technikbild änderte sich in den 1960er Jahren, und zwar durchaus entscheidend: Die Banken zielten nunmehr weniger auf eine hoch bewegliche männliche Elite, sondern vor allem auf junge Familien mit akutem Finanzierungsbedarf für alltägliche wie außergewöhnliche Einkäufe. Hinzu kamen von ganzen Firmen genutzte »corporate accounts«. Adressiert wurde die breite weiße Mittelschicht, und hier Männer und Frauen zugleich. Dies ist nicht egalitär zu verstehen: Die Kreditkartenwerbung blieb teilweise blank sexistisch, auch wenn insgesamt festgestellt worden ist, dass sich die geschlechtliche Codierung des »Verbrauchers« (consumer) von Frauen zu Pärchen verschob, teilweise aber auch wieder zum einzelnen Mann.17 Nicht nur böse Zungen behaupten, dass jeder Mann und jede Frau in den USA per Post mindestens eine Kreditkarte pro Jahr zugesendet bekamen. Die 15 | Vgl. Sandage, Scott A.: Born Losers. A History of Failure in America, Cambridge, MA: Harvard University Press, 2005. 16 | Vgl. Cohen, Lizabeth: A Consumer’s Republic. The Politics of Mass Consumption in Postwar America, New York: Vintage, 2003, S. 149 f. 17 | Vgl. Cohen: A Consumer’s Republic, S. 147.
297
298
Sebastian Gießmann
ersten Massenmailings wurden zwischen 1965 und 1970 wohl auch vereinzelt an Kinder und Familienhunde adressiert – und dies wiederum mit fast allen Mitteln. So fasste der Journalist Paul O’Neil in einem transatlantisch vielgelesenem Artikel »A little gift from your friendly banker«, erschienen im LIFEMagazine im März 1970, das Plastikfieber süffisant zusammen: In Chicago, during 1966, banks fought each other like jackals to get their cards into the hands of the public only to discover that brigades of thieves, conmen and deadbeats were galloping through stores with them and running up disastrous sums in fraudulent or uncollectable debt. […] Credit cards, and particularly bank cards, have inspired new and enduring types of white-collar crime, have attracted the beady attention of the Mafia, and have revealed a fascinating capacity of dishonesty in employees of the postal system, who steal them from the mails and sell them for prices up to $50.18
O’Neil notierte ebenso, dass die Banken nur ein Fünftel der Angeschriebenen hinsichtlich ihres finanziellen Hintergrunds überprüft hatten. Die entsprechende Werbemaschinerie der Mailings nahm der Artikel auch mit großflächigen Illustrationen satirisch auf’s Korn – mitsamt deutlichen Hinweisen, dass die Papierflut nur durch Computer zu bewältigen sein dürfte. Das hier angeführte Jahr 1966 war tatsächlich ein entscheidender Wendepunkt der Kreditkartengeschichte, der sukzessive auch die Standardisierung beeinflusste. In diesem Jahr bot die Bank of America ihre seit 1961 in Kalifornien profitable BankAmericard zum ersten Mal in den ganzen USA an – vermittelt über eine Lizenzierung für andere Banken. Diejenigen Marktakteure, die sich nicht davon abhängig machen wollten, gründeten aus lokalen Zusammenschlüssen (u.a. in Chicago) die so genannte »Interbank Card Association«, die bald durch ihre Marke »Master Charge« bekannt wurde. Daraus resultierte eine Lage, die im Jahr 1968 immer deutlicher sichtbar wurde: Es gab nun zwei konkurrierende nationale Bankennetzwerke: das Franchisesystem bei der BankAmericard und das kooperative Interbank-System,19 aus denen sich sukzessive die Unternehmen heraus entwickelten, die wir heute als VISA und Mastercard kennen. Beide verstehen sich dabei als Plattformen für Zahlungsdienstleistungen. Die Lage ist wirtschaftshistorisch paradox und neu gewesen: Banken wetteifern zwar miteinander um Kunden und versuchen, sich im Detail ihrer Angebote zu unterscheiden, arbeiten dazu aber in zwei Verbünden miteinander. 18 | O’Neil, Paul: »A Little Gift from Your Friendly Banker. The mails bring credit cards to millions, opening new vistas from crime, chaos and comedy«, in: LIFE 68/11, 27. März 1970, S. 48-51, 54-57, hier S. 48 f. 19 | Vgl. Evans, David S./Schmalensee, Richard: Paying with Plastic. The Digital Revolution in Buying and Borrowing, Cambridge, MA: MIT Press, 2005, S. 59 f.
Geld, Kredit und digitale Zahlung 1971/2014
Und selbst über die Systemgrenzen zwischen BankAmericard und Master Charge (und American Express, Diners Club, Carte Blanche) hinweg bestand ein hoher Bedarf für vergleichbare, interoperable Prozeduren und Standardisierungen. Die Wirtschaftswissenschaft hat für solche gemischten Phänomene zwischen Kooperation und Wettbewerb den Begriff der »Ko-opetion« kreiert, der mitunter auf Deutsch als »Koopkurrenz« übersetzt wird und im Englischen »cooperation« und »competition« miteinander verbindet.20 Unternehmerische Zusammenarbeit ist bei Ko-opetition notwendig, um miteinander auf einem geteilten Markt konkurrieren zu können. Technische Standardisierung ist dabei die entscheidende Vermittlungsinstanz, da in ihr die gemeinsam verabredeten organisatorischen Abläufe in maschinelle Prozeduren übersetzt werden müssen. Typisch sind solche ko-opetitiven Phänomene in so genannten zweiseitigen Plattformmärkten, also Märkten, die sehr heterogene Akteure über geteilte Orte und Praktiken miteinander verwickeln können.21 Die Kreditkartenindustrie gehörte für dieses Geschäftsmodell zur Avantgarde, denn sie musste von Anfang an die Interessen von Händlern und potenziellen Käufern miteinander in Übereinkunft bringen und die entsprechende vernetzte Infrastruktur dafür auf bauen. Die Performativität ökonomischer Praktiken ist dabei nur schwer kalkulierbar und hängt an der Justierung von entscheidenden Details: Wieviel Provision ist ein Händler willens zu zahlen? Wann nimmt ein Kunde tatsächlich Kredit in Anspruch? Welche Jahresgebühr wird akzeptiert? Wie lässt sich die vernetzte Buchhaltung allen Akteuren gemäß realisieren? Es war beileibe nicht selbstverständlich, dass eine mit Papier- und Computertechnologien vollzogene Kreditkartentransaktion auch reibungslos funktionierte. Begeben wir uns kurz zurück in das Jahr 1968 und stellen uns vor, wir würden gerne in Manhattan einkaufen gehen: Das Logo von BankAmericard würde uns den Weg weisen. Eine Zahlung unter 50 Dollar benötigt immerhin keine Autorisierung. Sobald Autorisierungen notwendig werden, wird es komplex: In jedem Fall muss der Händler im lokalen Autorisierungszentrum anrufen. Ist er bei derselben Bank wie sein Kunde, wird nur eine Überprüfung nötig. Wurde die Karte aber von einer anderen Bank ausgestellt, wird eine »interchange«-Überprüfung notwendig – und damit ein zweiter Anruf oder ein Telex im Hintergrund. Erst danach wird die Rechnung erstellt und per Karbon-Durchschlag mit Unterschrift besiegelt. Nicht Minuten, sondern Wochen
20 | Vgl. Brandenburger, Adam M./Nalebuff, Barry: Co-opetition, New York: Currency Doubleday, 1996. 21 | Der jüngst als Wirtschaftsnobelpreisträger gekürte Jean Tirole ist ein Pionier ihrer Erforschung, vgl. Rochet, Jean-Charles/Tirole, Jean: »Platform Competition in Two-sided Markets«, in: Journal of the European Economic Association 1/1 (2003), S. 990-1029.
299
300
Sebastian Gießmann
dauerten die nicht minder aufwendigen Verrechnungsprozeduren, die mit den postalischen Zustellungen der Rechnungen einhergingen.22 Weitaus einfacher gestaltete sich schon 1968 die Realisierung von Kreditkartenzahlungen im filmischen Register. Eine frühe Vision des Internets der Dinge findet sich bereits in einer bemerkenswerten und leicht zu übersehenden intermedialen Konfiguration in Stanley Kubricks 2001 – A Space Odyssey. Die Relation von Telefonanrufen, Kreditkartennutzung und geografischer Ausdehnung von Handlungen reicht in diesem Film bis in den Erdorbit. Es handelt sich dabei um einen Anruf mit Picturephone – an dem AT&T während des Filmdrehs tatsächlich arbeitete –, den Heywood R. Floyd (gespielt von William Sylvester) während eines Zwischenstopps vor seiner Mondmission tätigt. Floyd benutzt dabei eine nicht weiter erkennbare Kreditkarte, bevor er den Anruf tätigt. Nach dem Ende des Gesprächs mit seiner Tochter (hier von Kubricks Tochter verkörpert) wird die Rechnung von 1,70 Dollar automatisiert beglichen. Die Beiläufigkeit zeigt dabei die Selbstverständlichkeit der computervermittelten Transaktion – eine Gewissheit in der Interaktion mit Computern und grafischen Interfaces, der der Film bekanntermaßen während der darauf folgenden zwei Stunden den durchdrehenden Zentralrechner HAL als feindliche Infrastruktur entgegensetzt.23 Was in 2001 als Wunschtechnologie schon reibungslos zu laufen scheint, war 1968 weder in allen Abläufen fix noch sozial selbstverständlich. Zur paradoxen Lage des wilden und innovativen Wachstums dieser Jahre gehörte, dass die Technologieentwicklung bei weitem nicht mit der Menge der verteilten Karten und den Konsumpraktiken der amerikanischen Verbraucher Schritt hielt. Die Finanzialisierung von Privatkrediten führte zu einer veritablen infrastrukturellen Dauerkrise, die von den Kreditkartenfirmen und Banken nur durch eine gezielte Plattformbildung und eine brancheninterne Standardisierung bewältigt werden konnte. Nun erscheint wenig so langweilig wie Tagungen von Regulierungsgremien, und der »Standard« bleibt in der Regel eine unerquickliche Textsorte. Innerhalb der Science and Technology Studies (STS) hat sich zum Glück mit selbstironischer Haltung eine »Society for the Study of Boring Things« etabliert, deren Interesse an der bürokratisch-administrativen Standardisierungswelt ich mich im Folgenden anschließe.24 Denn es lässt sich bereits am Ergebnis der gemeinsamen Beratungen zeigen, dass dieses vermeintlich langweilige Aushandeln technischer Details geradezu die Bedin22 | Ausführlicher ist dies bei Stearns, David L.: Electronic Value Exchange. Origins of the VISA Payment System, London: Springer, 2011, S. 30 f. nachzulesen. 23 | 2001. A S pace O dyssey (USA/Großbritannien 1968, R: Stanley Kubrick), 00:28 f. 24 | Vgl. Star, Susan Leigh/Lampland, Martha: »Reckoning with Standards«, in: dies. (Hg.), Standards and Their Stories. How Quantifying, Classifying, and Formalizing Practices Shape Everyday Practices, Ithaca/London: Cornell University Press, 2009, S. 3-33, S. 17.
Geld, Kredit und digitale Zahlung 1971/2014
Abbildung 1: Videotelefonie-Sequenz aus 2001. A Space Odyssey (USA/ Großbritannien 1968, R: Stanley Kubrick), 00:28 f.
gung der Möglichkeit jedwedes Internets der Dinge darstellt. Die Aushandlungsprozesse, die die American Bankers Association in Gang setzte, waren dabei von einem zwar nicht konsensuellen, aber grundlegend kooperativen Selbstverständnis geprägt,25 das für die neueren digitalen Zahlungssysteme noch lange nicht selbstverständlich ist. Der Historiker Geoffrey Bowker hat, nicht nur für solche Situationen, ein Verfahren der »infrastrukturellen Inversion« vorgeschlagen, dass den Abgleich zwischen den soziotechnischen Versprechungen einer neuen Wissenschaft bzw. Technologie, den Widrigkeiten ihres Einsatzes und der nachträglichen Konstruktion ihres Erfolgs ermöglicht. Die Bowker’sche Formel dazu lautet: 25 | Vgl. zur »Kooperation ohne Konsens« in den Science and Technology Studies Gießmann, Sebastian: »Der Durkheim-Test. Anmerkungen zu Susan Leigh Stars Grenzobjekten«, in: Berichte zur Wissenschaftsgeschichte 38/3 (2015), im Erscheinen.
301
302
Sebastian Gießmann Take a claim that has been made by advocates of a particular science/technology, then look at the infrastructural changes that preceded or accompanied the effects claimed and see if they are sufficient to explain those effects – then ask how the initial claim came a posteriori to be seen as reasonable. 26
Von den Versprechen, die man mit der Kreditkarte verband, war ohne Zweifel das der sozialen Inklusion durch Kredit und Kreditwürdigkeit für alle amerikanischen Nutzerinnen und Nutzer zentral. Tatsächlich lässt sich der soziotechnische Digitalisierungsschub kaum ohne seine fortwährenden Enttäuschungen, Infragestellungen und Spannungen analysieren – eine ganze historische, journalistische und populärwissenschaftliche Literatur schreibt auch heute noch gegen die Geschäftspraktiken der Banken- und Kreditkartenindustrie an.27 Neben diesem anhaltenden Versprechen individueller Kreditwürdigkeit brachte die Kreditkarte sehr spezifische Gesellschaftsvisionen hervor, die man auch über die USA hinaus bereits als Teil »digitaler Gesellschaftlichkeit« verstehen kann – mit Japan, Skandinavien, Großbritannien und Frankreich als frühen weiteren Märkten. Dies war zum einen für die USA das Ziel einer »checkless society«, in der das gegenseitige Schreiben von Verrechungsschecks zugunsten von maschinellen und datenbanktechnisch gestützten Vertrauensbeweisen überwunden werden sollte. Und zum anderen wurde schon früh über das Ziel einer »cashless society« debattiert, in der das Bargeld zugunsten elektronischer Transaktionen weitestgehend abgeschafft sein sollte. Gerade die letztere Debatte hat wichtige Ausläufer bis in die unmittelbare Gegenwart und setzt eine zentrale Rolle von Plattformen zum elektronischen Austausch von Werten voraus. Diese ineinander übergehenden Zukunftsvisionen diskutierte man vor allem in der ABA ab 1965 sehr ernsthaft – mit pronocierten Vorschlägen von nicht weniger als sechs Interessengruppen, von der Federal Reserve Bank bis zu Dee Hock, dem »Vater von VISA«.28 Welche infrastrukturellen Schritte unternahm man zur Realisierung dieser Versprechen? Von der Vielzahl technischer Innovationen möchte ich eine kurz besprechen, da sie integral die Kreditkarte, die Diskussionen um ihre Standardisierung und die erwünschten Interaktionsmöglichkeiten betrifft. Es handelt sich um den Magnetstreifen, eine bereits 1960 von IBM im 26 | Bowker, Geoffrey: » Information Mythology. The World of/as Information«, in: Lisa Bud-Frierman (Hg.), Information Acumen. The Understanding and Use of Knowledge in Modern Business, London: Routledge, 1994, S. 231-247, hier S. 253. 27 | Sandage: Born Losers; Simmons, Matty: The Credit Card Catastrophe. The 20th Century Phenomenon that Changed the World, New York: Barricade, 1995; Scurlock, James D.: Maxed Out. Hard Times, Easy Credit. The Book the Debt Industry Doesn’t Want You to Read, London: Harper-Collins, 2007. 28 | Vgl. Bátiz-Laszlo/Haigh/Stearns: »How the Future Shaped the Past«, S. 121 f.
Geld, Kredit und digitale Zahlung 1971/2014
Rahmen eines Regierungsauftrags in Grundzügen entwickelte Technologie, die ein Mittel- und Streitpunkt der Kreditkartenstandardisierung wurde. Die unüberschaubar gewordene dynamische Entwicklung veranlasste die Kreditkartenanbieter 1968, das amerikanische Institut für Standardisierung ANSI mit der Entwicklung einheitlicher, interoperabler Karten- und Datenformate zu beauftragen. Die Standards von 1971 und 1973 normierten die Maße, den Ort der Unterschrift, Schriftsatz und Format der aufgeprägten Zeichen, ein Kontonummerierungsverfahren für den »interchange«-Austausch und die Spezifikation für den Magnetstreifen.29 Das hierfür zuständige X4 Standards Committee on Office Machines benannte, wie eingangs bereits bemerkt, Universalität und damit allgemeine Verwendbarkeit als das Ziel der Spezifikation. Abbildung 2: American National Standard ANSI X4.13-1971. Specifications for Credit Cards, S. 8, S. 13.
Tatsächlich erwies sich schon die zuverlässige laboratorische Herstellung von Karten mit Magnetstreifen in IBMs Information Records Division ab 1969 als ausgesprochen schwierig. Zudem gab es von Anfang an wiederholt sehr explizite Einwände aus sicherheitstechnischer Sicht, erlaubten doch die billigen 29 | Vgl. American National Standard ANSI X4.13-1971. Specifications for Credit Cards; American National Standard ANSI X4.16-1973. Magnetic-stripe Encoding for Credit Cards. Approved August 30, 1973. American National Standards Institute, Inc., 1973.
303
304
Sebastian Gießmann
Herstellungsverfahren und Lesegeräte jedem Hobbybastler mit etwas Zeit und Geld eine Kopie der auf dem Magnetstreifen eincodierten Informationen. Das so genannte »Skimming«-Verfahren dazu ähnelt dem Überspielen der Magnetbänder von zwei Audiokassetten.30 Die American Bankers Assocation reagierte allerdings nur verhalten auf derlei Sicherheitsbedenken von Praktikern – intervenierte aber heftig beim Versuch der Citibank, einen eigenen proprietären Standard zu schaffen.31 Bei den in den ANSI-Dokumenten angelegten und zu globalen ISO-Standards32 weiterentwickelten Festlegungen handelt, es sich um eine nach langen Kontroversen gereinigte Form. Während Track 1 des Magnetstreifens die für die Fluggesellschaften notwendigen Daten speicherte, wurde Track 2 für die bankrelevanten Daten reserviert. Die soziotechnischen Skripte waren aber trotz oder gerade wegen der überschaubaren Datenmengen alles andere als fix. Am besten kann man dies an dem so genannten Track 3 des Magnetstreifens ersehen, bei dem lange debattiert wurde, ob und wie er auch Daten wie den Kontostand offline speichern können sollte. Bis heute wird er kaum genutzt. Mitunter reichte aber schon die Frage, ob das Auslaufdatum im amerikanischen Format MMYY oder aber wie auf dem für die Luftlinien reservierten Track 1 im internationalen Format als YYMM gespeichert werden sollte, um für Auseinandersetzungen zwischen den Akteuren zu sorgen.33 Im Nachhinein wird aus der teils im Namen der »cashless society« durchgeführten Standardisierung aber das Gegenteil dieses schmutzigen Verhandelns sozioökonomischer Interessen und Praktiken. Die von der ABA avisierte Zukunft ohne Scheckverrechnung ist in den USA bis heute nicht vollständig eingetreten, und die deutsche Antwort auf die Kreditkarte bestand zunächst im papierbasierten eurocheque-System. Mittelfristig haben aber sowohl Paper Tools wie Plastikkarten die Digitalisierung des Zahlungsverkehrs maßgeblich in Gang gesetzt. Die materielle Kultur der für die Bankenwelt aufgebauten digitalen Infrastruktur umgibt uns heute wie selbstverständlich als Geldmedien-Ökologie: optische Schrifterkennung von Formularen und Unterschriften, Geldautomaten, Plastikkarten mit Magnetstreifen und Chips zur Authentifizierung, Sicherheitstechniken wie Hologramme und vor allem die für die Banken reservierten abgegrenzten digitalen Kommunikationsnetzwerke. Tatsächlich ist im Internet der Dinge mit einer Wiederkehr solcher schon aus Sicherheitsgründen stark abgeschotteten spezialisierten Anwendungen zu rechnen, selbst wenn diese auf weitgehend offenen Standards beruhen sollen. Mit Apple Pay 30 | Hiervor warnte zuerst George Warfel von der Western States Bankcard Association im Jahr 1971. Vgl. Stearns: Electronic Value Exchange, S. 143. 31 | Vgl. Stearns: Electronic Value Exchange, S. 145 f. 32 | Vgl. die ISO-Standards 7810, 7811-1 bis 6, 7813. 33 | Vgl. Stearns: Electronic Value Exchange, S. 148.
Geld, Kredit und digitale Zahlung 1971/2014
möchte ich anschließend einen aktuellen Dienst analysieren, der Teil dieser Entwicklung ist und noch nicht die universelle Einsetzbarkeit der Plastik-Kreditkarte erreicht hat.
2. M edieninter ak tion 2014 : A pple Pay und »N e t work Tokeniz ation « Als der amerikanische Computerkonzern Apple im September 2014 den neuen Bezahldienst Apple Pay vorstellte, setzte CEO Tim Cook bei seiner Vorstellung die alten Visionen der »cashless society« nahtlos fort.34 An die Stelle der mit Kredit- und Kundenkarten überfüllten Geldbörse und eines »fairly antiquated payment process« sollte das iPhone6 treten. Mit einer Kombination aus digitaler Brieftasche, Kurzstreckenfunk (Near Field Communication) und Autorisierung der Zahlung per Fingerabdruck wird, so Cook, das fünf Jahrzehnte alte »outdated and vulnerable magnetic stripe interface« zugunsten einer reibungslosen und sicheren Zahlung ersetzt werden. Demonstriert wurde dies von Apple anhand von zwei Videos einer Zahlung, in der aus der längeren, nicht immer reibungslosen Kartentauschinteraktion, eine lediglich dreisekündige Freigabe per iPhone-Fingerabdruck wird.35 Abbildung 3: NFC-Terminal mit iPhone6, Filmstill.
Quelle: Apple Keynote: iPhone 6 & Apple Watch (September 2014), http://www.you tube.com/watch?v=OD9ZQ9WylRM, vom 17. August 2015, 00:46 f. 34 | Hier und im Folgenden Apple Keynote: iPhone 6 & Apple Watch (September 2014), www.youtube.com/watch?v=OD9ZQ9WylRM, vom 17. August 2015, 00:46 f. 35 | Die realen Zahlungszeiten weisen keine derart große Differenz auf.
305
306
Sebastian Gießmann
Nach Cooks Auftritt übernahm Eddie Cue, Vizepräsident für Internet-Software und Services, die Präsentation der technischen Details. Auch wenn hier weiterhin das Lob der friktionslosen, sicheren und nicht-öffentlichen Zahlung im Vordergrund stand – »Apple Pay is easy, it’s secure, and its private« –, wurde doch die technische und organisatorische Komplexität des Dienstes deutlicher erkennbar. Um bis zu jener potenziell dreisekündigen Zahlungsinteraktion kommen zu können, sind auch für die Nutzer einige Schritte nötig. Zwar muss die Kreditkarte lediglich abfotografiert werden, um in die entsprechende Passbook-App aufgenommen zu werden. Jedoch ist, wenig überraschend, noch eine Freischaltung bei der jeweiligen Bank nötig. Die in dieser Präsentation vorausgesetzte Touch-ID des Fingerabdrucks, die seit dem iPhone 5 eingescannt werden kann, erfordert ebenfalls eine nicht triviale Selbstregistrierungsprozedur. Und die von Cue aufgeführte lange Liste der Kooperationspartner in Handel und Banken lässt zumindest erahnen, dass langwierige technische, organisatorische und juristische Absprachen nötig waren, um mit iPhone oder AppleWatch kontaktlos bezahlen zu können. Eben dies können User seit dem 20. Oktober 2014 in den USA und ab dem 14. Juli 2015 auch in Großbritannien umfänglich tun, ob für den Erwerb von Hamburgern, den Eintritt in Vergnügungsparks oder für eine Fahrt mit der Londoner U-Bahn.36 Über Zahl und Umfang der realen Transaktionen, die Nutzungsintensität und den Marktanteil im Bereich des mobilen Bezahlens wird seit der Einführung des Dienstes diskutiert. Unstrittig ist dabei aber Apples Einfluss, der im Gegensatz zu vorherigen »digital wallets« inklusive der wenig erfolgreichen »Google Wallet« zu Reaktionen weiterer großer Akteure geführt hat – sei es die von amerikanischen Verkaufsketten favorisierte Eigenentwicklung CurrentC, PayPal oder Samsungs schnell avisierter Klon Samsung Pay. Auch wenn noch nicht absehbar ist, welche Rolle Apple Pay auf Dauer im stets umkämpften Markt der digitalen mobilen Transaktionen übernehmen wird, sorgt der Dienst doch für die weitere Umstellung bisheriger Bezahlterminals auf das kontaktlose Bezahlen. Man kann auch sagen, dass er eine ganze Ökologie von neuen Geräten und Interaktionsmöglichkeiten anführt, die vergleich36 | Die Erfahrungsberichte sind gerade für die Londoner Tube umfangreich und geben einen realistischen Einblick in den aktuellen Zahlungsalltag. Transport for London hat nach den initialen Problemen einen Ratgeber publiziert, vgl. http://tfl.gov.uk/fares-and-payme nts/contactless/other-methods-of-contactless-payment/apple-pay?cid=applepay, vom 17. August 2015. Probleme entstehen u.a., wenn Nutzer sowohl ein iPhone als auch die AppleWatch einsetzen oder wenn der Batteriestand nicht zum Vorzeigen des Fahrtickets ausreicht. Gemessen an der RFID-Funkchip-basierten Oyster Card wird zudem die Interaktionsgeschwindigkeit als nicht hoch genug wahrgenommen. Vgl. Temperton, James: »Apple Pay causes confusion on London Transport«, in: WIRED UK, 17. Juli 2015. www.wired.co.uk/ news/archive/2015-07/1 7/apple-pay-tfl-london-tube-uk-launch, vom 17. August 2015.
Geld, Kredit und digitale Zahlung 1971/2014
bar mit der Plastik-Kreditkarte die ersten prägenden digitalen Medienpraktiken im Internet der Dinge realisieren. Genauer ersichtlich wird dies bei Ansicht der Patente, mit denen Apple frühzeitig und professionell seine Innovationen abzusichern versucht.37 Ob es sich dabei um einen Einkaufskorb handelt, der selbsttätig schon einmal die Menge des abzuziehenden Betrags kalkuliert und eine Zahlung per Apple Pay anbietet38 oder um den Anspruch auf Patentierung der komplexen soziotechnischen Abläufe zwischen den beteiligten Akteuren: Patentschriften abstrahieren die konkreten Abläufe wieder und lassen die zeitlichen Verläufe zwischen Abstraktion und Konkretion der Erfindung offen. Dabei treten die bürokratischen Merkmale der jeweiligen Prozeduren doppelt in den Vordergrund: Zum einen durch die Textsorte des Patents mit seinem spezifischen Doppelcharakter als juristisches Dokument und soziotechnische Science Fiction39, zum anderen die schon in Cooks und Coes Produktpräsentation kaum ignorierbaren buchhalterischen Praktiken der institutionellen Koordination, Delegation, Registrierung und Identifizierung. So hat Apples Projektteam um Ahmer Ali Khan am 02. Mai 2015 ein Patent mit dem Titel »Online Payments Using a Secure Element of an Electronic Device« angemeldet und erhebt darin folgenden Anspruch: Systems, methods, and computer-readable media for securely conducting online payments with a secure element of an electronic device are provided. In one example embodiment, a method includes, inter alia, at an electronic device, generating first data by encrypting the first data and merchant information with a first key, transmitting to a commercial entity subsystem the generated second data, receiving third data that includes the first data encrypted with a second key that is associated with the merchant information, and transmitting the received third data to a merchant subsystem, and where the second key is not accessible to the electronic device. 40 37 | Leicht zugänglich sind Teile der Patente unter www.patentlyapple.com, die unabdingbare Recherche in der Datenbank des US-amerikanischen Patentamts gestaltet sich wesentlich schwieriger. 38 | Vgl. Lin, Gloria u.a.: »Portable Point of Purchase User Interfaces«. Pat. US 9,026, 462 B2 (Cupertino, CA), 05. Mai 2015. 39 | Vgl. zum Stand der Patentforschung Pottage, Alain/Sherman, Brad: Figures of Invention. A History of Modern Patent Law, Oxford: Oxford University Press, 2010; Kümmel-Schnur, Albert: »Patente als Agenten von Mediengeschichte«, in: ders./Christian Kassung (Hg.), Bildtelegraphie. Eine Mediengeschichte in Patenten (1840-1930), Bielefeld: transcript, 2012, S. 15-38; Taha, Nadine: »Patent in Action. Das US-amerikanische Patent aus der Perspektive der Science and Technology Studies«, in: Zeitschrift für Medienwissenschaft 6 (2012), S. 36-47. 40 | Kahn, Ahmer A. et al.: »Online Payments Using a Secure Element of an Electronic Device«. Pat. US 2015/0095238 (Cupertino, USA), 02. April 2015, S. 1.
307
308
Sebastian Gießmann
Für diese Handlungsverkettung notiert die 45-seitige Patentschrift mehr als 1.200 Prozessschritte für die einzelnen Abläufe zwischen den beteiligten Akteuren. Auf der Bühne des Patents treten auf: das elektronische Gerät – in weiteren Darstellungen in Apple-Patenten meist gezeichnet als abstraktes iPhone älterer Bauart –, das »Commercial Entity Subsystem«, das »Merchant Subsystem«, ein »Acquiring Bank Subsystem« und das »Financial Institution Subsystem«, wobei letzteres in sich noch das »Payment Network Subsystem« und das »Issuing Bank Subsystem« beinhaltet. Abbildung 4: Kahn, Ahmer A. u.a.: Patentzeichnung aus »Online Payments Using a Secure Element of an Electronic Device«. Pat. US 2015/0095238 (Cupertino, USA), 02. April 2015, Blatt 1.
Der Aufwand, mit dem diese Prozessschritte schwer nachvollziehbar, aber gegebenenfalls als »intellectual property« justiziabel gemacht werden, gilt nicht allein der Abwehr von potenziellen Mitbewerbern wie Samsung oder Google. Eigentlich alle zu Apple Pay publizierten Patentschriften zünden Nebelkerzen, die hier auch der rhetorischen Sicherung des – nach amerikanischen Maßstäben – datenschutzfreundlich angelegten Systems dienen. Eddie Cues Aussagen »we are not in the business of collecting your data« und »the transaction is between you, the merchant, and your bank«41 beruhen auf einer Kombination von maximaler Identifizierung der Person, ihres Fingerabdrucks sowie Bankkontos und einem Rollenverständnis Apples, das den Konzern als Vermittler der nötigen, maximal gesicherten Transaktionsdaten positioniert. Mit anderen Wor41 | Apple Keynote: iPhone 6 & Apple Watch (September 2014), www.youtube.com/ watch?v=OD9ZQ9WylRM, vom 17. August 2015.
Geld, Kredit und digitale Zahlung 1971/2014
ten: Apple Pay soll als gemeinsame Plattform der verschiedenen Subsysteme fungieren, die nicht an Nutzungsdaten, sondern an deren reibungsloser Übermittlung verdient. Die Geschäftsidee ist also alles andere als neu, und wenn Tim Cook zur Produktvorstellung 2014 sagte »and now I’d like to talk about an entirely new category of service«42, dann gilt dies vielleicht für Apple, aber nicht für die Kreditkartenindustrie. Diese hat von jeher einen Teil ihrer Profite durch die Vermittlungsgebühren generiert, und ist nun vorerst43 in einer beispiellosen Wendung der eigenen Mittel gegen sie selbst zur Bezahlung von 0,15 Prozent Vermittlungsgebühren an einen Computerkonzern übergegangen.44 Das allein ist bereits verblüffend. Es wird zudem flankiert durch die gemeinsame Entwicklungsarbeit von MasterCard mit Apple, die als vertrauensbildendes Ziel ausgegeben hatte, Transaktionen nicht auf Apple-Servern zu speichern und stattdessen auf kurzfristig anonymisierte Übermittlung zu setzen. Handelt es sich um einen spezifischen Post-Snowden-Moment oder doch eher um eine Reaktion auf die Datenschutz-Probleme mit Apples eigenem Cloudspeicherdienst? Eine dezidierte Nicht-Nutzung von zur Profilbildung hochinteressanten großen und gut strukturierten Datenmengen erscheint zumindest paradox, weil sie den Kreditkartenfirmen die Big-Data-Analysen überlässt.45 Das zugrundeliegende Verfahren der Nicht-Speicherung, »network tokenization« genannt, ist jedoch nicht nur für Zahlungsinteraktionen, sondern generell für die Interaktion im Internet der Dinge relevant. Wenn immer mehr Geräte vernetzt werden, steigt auch die Anzahl »sensibler« Adressen, Konten und Transaktionen. »Tokenization« antwortet als Methode technischen Datenschutzes auf genau dieses Problem: Übermittelt werden nicht mehr die (verschlüsselten) Daten, beispielsweise eine Kontonummer und ein Betrag. Übermittelt wird vielmehr ein (verschlüsselter) »token«, mit dem ein sensibles Datum durch ein nicht-sensibles bzw. nicht-wertvolles ersetzt wird.46 Mittels des entsprechenden Systems zur »Tokenization« lässt sich aber von entsprechend autorisierten Akteuren eine Referenz auf das sensible Datum wiederherstellen. Im Falle von Apple Pay erfolgt die Erzeugung des verschlüsselten Tokens lokal auf dem iPhone – einmal geräte42 | Ebd. 43 | Ein Gegenentwurf kommt voraussichtlich von Google mit »Android Pay«, das gerüchteweise auf Vermittlungsgebühren verzichten soll. Vgl. Mamiit, Aaron: »Google’s Android Pay Will Not Charge Transactions Fees: Now What, Apple Pay?«, in: Tech Times, 08. Juni 2015. www.techtimes.com/articles/58654/20150608/googles-android-paywill-not-charge-transaction-fees-now-what-apple-pay.htm vom 17. August 2015. 44 | Dies gilt für die USA, in Großbritannien wird von geringeren Gebühren ausgegangen. Vgl. http://en.wikipedia.org/wiki/Apple_Pay, vom 17.8.2015. 45 | Zweifel daran sind ob eingereichter Patente Apples zur zielgenauen mobilen Werbung erlaubt. 46 | Vgl. http://en.wikipedia.org/wiki/Tokenization_(data_security), vom 17. August 2015.
309
310
Sebastian Gießmann
spezifisch in einem speziellen Chip und einmal dynamisch pro Transaktion. Eine Rückübersetzung in die tatsächliche Kreditkartennummer findet erst im Netzwerk des jeweiligen Anbieters statt, sodass nur die Bank und das jeweilige Bezahlnetzwerk über die entsprechenden Daten verfügen. Der Aufwand, eine Zahlung in vernetzter Buchhaltung tatsächlich auf allen Seiten zu realisieren, steigt. Zum Zeichentausch wird in diesem Fall eine Ersatzwährung eingeführt, die die Referenz eines Datums während seiner Übermittlung verwischt. Hieß es im Eingang dieses Beitrages, dass auch das Internet der Dinge ein Registratur- und Identifizierungsprojekt darstellt, so verkomplizieren sich offenbar die Transaktionsmodi bereits im Bereich der digitalen Zahlungsdienste enorm. Eine Frage der weiteren Objektvernetzung wird sein, ob und wie viele solcher Ersatzwährungen eingeführt werden, um die sicherheitsrelevante Maschinenund Sensorenkommunikation abzusichern. Dies ist nicht primär als Virtualisierung zu fassen, sondern bestätigt die medientheoretische Annahme dieses Artikels: Je mehr Vermittlungsschritte zum Registrieren, De-Registrieren und Re-Registrieren sowie zur Identifizierung, Desidentifizierung und Re-Identifizierung nötig sind, umso realer wird eine Zahlungsinteraktion.47 Die »Ketten von Mittlern« (Hennion/Méadel) werden in digitalen Medien tendenziell länger – die Patentschriften von Apple sind nur ein Beweis für diese Umsetzung in immer weiter ausgreifende Prozessschritte – und müssen immer weiter beglaubigt und zertifiziert werden.48 Nichts läge also ferner, im Internet der Dinge oder in der Industrie 4.0 Mittel und Wege für die Automatisierung und Effizienzsteigerung zu vermuten. Ohne Vertrauensbeziehungen und ihre Brüche, ohne Formen der bürokratischen Beglaubigung und Zurechnung bleiben die Schlagworte weit vom Betrieb realer Anwendungen und Plattformen entfernt. Wenn es ein Internet der Dinge geben wird, so bringt es eine neue bürokratische Welt mit sich, in der fortwährend kontiert, inventarisiert und zugerechnet wird. Es lohnt sich der medienhistorische Vergleich: Zwischen einem mit Modem ausgestatteten Kreditkartenterminal und einem mit dem iPhone6 bedienbaren NFC-Scanner besteht kein grundsätzlicher Unterschied in der Interaktionsordnung. Selbst der Wechsel in der Identifikationstechnik – von Magnetstreifen und Unterschrift zum Fingerabdruck – lässt sich als milde Transformation etablierter Techniken verstehen. Die soziotechnischen und ökonomischen Arrangements dienen einer erstaunlichen Kontinuität in den Verrechnungspraktiken. Auch deswegen gilt: Unsere Kontoführungsgebühren für die weitere Delegation von Handlungen in ein Internet der Dinge müssen erst noch festgelegt werden. 47 | Vgl. Latour: »What is Iconoclash. Or is There a World Beyond the Image Wars?«, S. 21. 48 | Vgl. zur ubiquitären Zertifizierung Busch, Lawrence: Standards. Recipes for Reality, Cambridge, MA: MIT Press, 2011.
Un/Ordnungen des Urbanen
Programmieren von Umgebungen Environmentalität und Citizen Sensing in der smarten Stadt Jennifer Gabrys
E inleitung : S marte und nachhaltige S tädte Städte, die von computergestützten Prozessen durchdrungen und transformiert werden, sind offenbar Objekte ständiger Neuerfindung. Während Informationstechniken oder kybernetisch geplante Städte bereits seit den 1960er Jahren entstehen,1 tauchen Vorhaben für vernetzte oder computergesteuerte Städte seit den 1980er Jahren regelmäßig in Stadtentwicklungsplänen auf.2 Von Entwürfen modellierbarer urbaner Architektur bis hin zur Vorstellung der Stadt als einer Zone für technologisch angeregtes ökonomisches Wachstum, haben digitale Entwürfe urbane Räume in vernetzte, dezentralisierte und flexible Stätten der Kapitalakkumulation und des urbanen Erlebens verwandelt. Jüngere, kommerziell motivierte Entwürfe für ›smarte Städte‹ konzentrieren sich darauf, wie eine vernetzte Urbanität im Verbund mit partizipatorischen Medien zu ›grüneren‹ oder effizienteren Städten führen könnten, die zugleich Maschinen für ökonomisches Wachstum sein sollen. Die Anhänger der smar1 | Vgl. Archigram: A Guide to Archigram, 1961-74, London: Academy Editions 1994, und Forrester, Jay Wright: Urban Dynamics, Cambridge, MA: MIT Press 1969. 2 | Vgl. Batty, Michael: »The computable city«, in: International Planning Studies 2 (1995), S. 155-173; Castells, Manuel: The Informational City: Information Technology, Economic Restructuring, and the Urban-Regional Process, Oxford: Blackwell 1989; Droege, Peter (Hg.): Intelligent Environments: Spatial Aspects of the Information Revolution, Amsterdam: Elsevier 1997; Gabrys, Jennifer: »Cité Multimédia: noise and contamination in the information city«, Sitzungsprotokolle der Konferenz »Visual Knowledges« an der Universität Edinburgh, 17.-20. September 2003, www.jennifergabrys.net/wp-content/up loads/2003/09/Gabrys_InfoCity_VKnowledges.pdf, vom 11. Juli 2015; Graham, Stephen/Marvin, Simon: Splintering Urbanism: Networked Infrastructures, Technological Mobilities and the Urban Condition, London: Routledge 2001; Mitchell, William J.: City of Bits. Leben in der Stadt des 21. Jahrhunderts, Basel u.a.: Birkhäuser 1996.
314
Jennifer Gabr ys
ten Stadt plädieren üblicherweise für die Unausweichlichkeit dieser Entwicklungen, indem sie auf die Trends der zunehmenden Urbanisierung verweisen. Städte, so argumentieren die Befürworter der Smart City, seien zwar Zentren von ökonomischem Wachstum und Innovationen, doch sie führen auch zu einem erheblichen Verbrauch von Ressourcen und zu Treibhausgasemissionen, weshalb sie als entscheidende Zonen der Umsetzung von Initiativen für Nachhaltigkeit betrachtet werden müssten. In diesen Vorhaben werden verfallende oder noch zu errichtende Infrastrukturen zur Grundlage der Entwicklung smarter Städte. Diese werden als hübsch verpackte Möglichkeit präsentiert, solche verallgemeinerten Herausforderungen zu bewältigen und letztlich dafür zu sorgen, dass Städte – sowohl nachgerüstete und angepasste als auch neu errichtete – in Zukunft nachhaltiger und effizienter sein werden als je zuvor. Von digitalen Technologien und den mit ihnen einhergehenden Imaginationen durchdrungene Städte sind zwar keine neue Entwicklung, doch dass mit ihrer Umsetzung unter dem Deckmantel der Smartness Richtlinien für Nachhaltigkeit gewonnen werden sollen, stellt eine jüngere Taktik zur Forcierung des digitalen Wandels dar. In vielen Entwürfen smarter Städte synchronisieren Computertechnologien urbane Prozesse mit vorhandenen oder zu errichtenden Infrastrukturen, um die effiziente Nutzung von Ressourcen, die Verbreitung von Dienstleistungen und die Teilhabe am urbanen Leben zu verbessern. Digitale Technologien und speziell das Ubiquitous Computing werden in diesen Entwürfen immer dann thematisiert, wenn man verdeutlichen will, wie nachhaltige Stadtplanung umgesetzt werden könnte. Doch die Schnittstelle von smarter und nachhaltiger Stadtplanung ist ein Forschungsgebiet, das erst noch im Detail untersucht werden muss, insbesondere im Zusammenhang mit der Frage, welche Modalitäten einer umgebungsbezogenen, environmentalen urbanen Bürgerschaft in der smarten Stadt hervortreten oder gar eliminiert werden.3 Dieser Aufsatz befasst sich mit dem Entstehen der smarten Stadt als nachhaltiger Stadt anhand einer Fallstudie, nämlich dem vom MIT und dem Netzwerktechnikhersteller Cisco im Rahmen der Initiative Connected Urban Development (CUD) entwickelten Projekt Connected Sustainable Cities (CSC). 3 | [Da der Begriff environment mit Umwelt nur ungenügend übersetzt ist, wird im Folgenden abhängig vom Kontext entweder environment im Englischen belassen, Umgebung verwendet oder aber dort, wo eindeutig von Umweltschutz (environmentalism) die Rede ist, der Begriff Umwelt verwendet. Die von Gabrys beschriebene Technisierung und Programmierung urbaner Umgebungen geht über die Ebene des Umweltschutzes weit hinaus, weshalb eine Übersetzung durch Umwelt eben diese Trajektorie des Begriffs hin zu technisch modifizierten Umgebungen vernachlässigen würde. Das Substantiv Environmentalität, das im Deutschen von Erich Hörl geprägt wurde, umfasst entsprechend diese Technisierung urbaner Umgebungen, die, wie Gabrys zeigt, nicht von den ökologischen Imperativen der Nachhaltigkeit und ihrer Politik getrennt werden können. – Anm. F. S.]
Programmieren von Umgebungen
Dieses Projekt umfasst Designvorschläge, die zwischen 2007 und 2008 von William Mitchell und Federico Casalegno am MIT Mobile Experience Lab in Zusammenarbeit mit CUD entwickelt wurden. Die CUD-Initiative wurde 2006 als Reaktion auf Bill Clintons »Global Initiative« zur Auseinandersetzung mit dem Klimawandel initiiert. In Zusammenarbeit mit acht Städten auf der ganzen Welt – von San Francisco bis Madrid, von Seoul bis Hamburg – lief die CUD-Initiative bis 2010; daraus ging Ciscos derzeit laufendes Projekt Smart + Connected Communities hervor, das weiterhin Pläne für smarte Städte produziert, die von der aktuellen Entwicklung der Smart City Songdo in Südkorea bis hin zu Vorschlägen für ein »nachhaltiges San Francisco fürs 21. Jahrhundert« reichen.4 Indem ich diesen Designvorschlag mit Smart City-Projekten kontrastiere, die in ihren Entwicklungsplänen Nachhaltigkeit einbeziehen, möchte ich untersuchen, wie dieses spekulative und frühe Smart City-Projekt nachhaltigere und effizientere Urbanitäten zu erreichen versucht. Die in diesen Projekten vorgeschlagenen Szenarien des Ubiquitous Computings sollen, so der Plan des CSC-Projekts, auf existierende wie auf hypothetische Städte angewandt werden. Der Entwurf weist starke Ähnlichkeiten mit den Entwicklungen anderer smarter Städte auf und kann durch seine Verbindung zu Cisco, einem der ersten Entwickler von Netzwerkarchitekturen für Städte, als eine einflussreiche Demonstration von Vorstellungen smarter Städte gelten. Die vom CUD-Projekt entwickelten Instrumente bestehen aus Planungsdokumenten, White Papers, Ökobaukästen, Multimediavorführungen und spekulativen Entwürfen, welche die Entwicklung der smarten Stadt leiten sollen.5 Als wichtiger, aber vielleicht übersehener Teil solcher Vorhaben spielen diese Designs, Narrative und 4 | Cisco: »Smart + connected communities«, www.cisco.com/web/strategy/smart_con nected_communities.html, vom 11. Juli 2015. 5 | Allein über die Rolle von White Papers im Rahmen der Entwicklung von smarten Städten ließe sich ein eigener Aufsatz schreiben. Von der Industrie, von Universitäten und Behörden erstellte Smart City-White Papers erweisen sich als Schlüsselmedium, in dem die Vorstellungen und die Umsetzung dieser Stadtentwicklungen zirkulieren. Die ›Zirkulation‹ von Politik gehört, wie es Robinson 2011 dargelegt hat, zu der Art und Weise, wie Städte im Rahmen von Projekten zur urbanen Vorstellungswelt vielfach verortete ›Anderswos‹ akkumulieren. In ähnlicher Weise gehen auch die zur Förderung des CUDProjekts erstellten Dokumente auf zahlreiche White Paper zurück, etwa Climate Change: Cities in Action (Zhen, Z. et al.: »Climate Change: Cities in Action«, Metropolis und Cisco, 2009, www.connectedurbandevelopment.org/publications/external#cities-in-actionfor-climatechange, vom 11. Juli 2015), das von Cisco, Metropolis und CUD entwickelt wurde und Details über Ökoaktionen durch und für Städte auf der ganzen Welt sammelt. Während dieser Aufsatz in Druck geht, werden die Internetseite und die White Paper des CUD-Projekts neu organisiert. So ist Zhens White Paper zwar auf der CUD-Internetseite nicht mehr abrufbar, befindet sich aber zum Beispiel auf der Internetseite der Stadt
315
316
Jennifer Gabr ys
Dokumente eine bedeutsame Rolle bei der Umdeutung der smarten Stadt zur nachhaltigen Stadt. Vor allem jedoch versteht dieser Aufsatz diese Vorschläge nicht einfach als diskursive Darstellungen von Städten, sondern als Elemente eines urbanen kalkulatorischen Dispositivs oder Apparats,6 der die materiellpolitischen Zusammenhänge von spekulativen Designs, technologischen Vorstellungswelten, Stadtentwicklungsplänen und demokratischen Engagements mit Hilfe partizipatorischer Medien und vernetzter Infrastrukturen herstellt. All dies ist Teil vieler gegenwärtiger Stadtentwicklungspläne und -praktiken, selbst wenn sich das Projekt der smarten Stadt nur schwerlich jemals in der anvisierten Form realisieren ließe. Die vorgeschlagenen Pläne und Designs smarter Städte artikulieren eigene Materialitäten und Räumlichkeiten ebenso wie Formationen von Regierungsund Verwaltungsmacht. Anhand des von Foucault inspirierten Begriffs der Environmentalität untersuche ich die Art und Weise, wie das CSC-Projekt in und durch Vorschläge für smarte Environments und entsprechende Technologien eine Verteilung solcher Macht sicherstellt. Dieser Aspekt von Foucaults Auseinandersetzung mit Environmentalität steht im Mittelpunkt meiner Ausführungen, um Foucaults unvollendete Überlegungen zu der Frage aufzugreifen und weiterzuentwickeln, wie Technologien des Umgebens als räumliche Modi von Regierungsmacht materiell-politische Verteilungen von Regulation und mögliche Modi von Subjektifizierung verändern könnten. Indem ich Foucaults Vorstellung von Environmentalität nicht auf die Produktion von Subjekten beschränke, die von ihren Umgebungen geformt werden [environmental subjects], sondern als eine räumlich-materielle Verteilung und Relationalität von Macht durch Umgebungen, Technologien und Lebensweisen verstehe, gehe ich der Frage nach, wie Praktiken und Operationen von Bürgerschaft entstehen, die ein entscheidender Teil der Imaginationen smarter und nachhaltiger Städte geworden sind. Dieses Verständnis von Environmentalität in der smarten Stadt formuliert neu, wer oder was als »Bewohner« zählt. Entsprechend geht es um die Art und Weise, wie Bewohner und Bürger weniger als zu beherrschende individuelle Subjekte, sondern vielmehr durch die Verteilung und das Feedback von Überwachung sowie durch urbane Datenpraktiken in Umgebungen geprägt werden. Primär soll Nachhaltigkeit in smarten Städten durch effizientere Prozesse und durch verantwortungsvolle Bürger erreicht werden, die an computergestützten Sensor- und Überwachungspraktiken teilhaben. Im Kontext der Entwürfe smarter Städte werden die Bewohner der Stadt zu Sensorknoten oder Montreal: http://ville.montreal.qc.ca/pls/portal/docs/page/iiggm_v2_en/media/doc uments/climatechange-cities in action (published in 2009).pdf, vom 11. Juli 2015. 6 | Vgl. Foucault, Michel: Schriften in vier Bänden. Dits et Ecrits, Frankfurt a.M.: Suhrkamp 2001-2005, Bd. III., S. 391 f f.
Programmieren von Umgebungen
vielmehr zu Bürgersensoren. Auf diese Weise lässt sich »Citizen Sensing« nicht nur als eine Erhebung von Daten über Bürger, sondern als Modalität von Bürgerschaft verstehen, die durch die Interaktion mit computergestützten Sensortechniken entsteht, welche für Überwachung und Feedback von Umgebungen benutzt werden. In diesem Zusammenhang greife ich die Vorschläge für smarte Städte auf, wie sie im CSC-Projekt entwickelt wurden, um folgende Fragen zu stellen: Welche Implikationen haben die mittels Computern organisierten Verteilungen von Regierungsmacht über die Umgebung [environmental governance], die für bestimmte Funktionalitäten programmiert sind und von privatwirtschaftlichen und staatlichen Akteuren gemanagt werden, welche Städte wie manipulierbare Datensätze behandeln? Wie artikuliert sich Environmentalität im Rahmen von Plänen und Entwicklungen nachhaltiger smarter Städte, wenn Governance durch Umgebungen ausgeübt wird, die computergestützt programmiert sind? Und wenn als Sensoren agierende Bewohner Operateure in urbanen Computersystemen werden, wie können dann Technologien des Umgebens die den Bewohnern angemessenen Praktiken auf eine Reihe von Aktionen beschränken, die durch die Überwachung und Verwaltung von Daten konstituiert werden? Hieße dies etwa, dass Bewohner smarter Städte weniger starre menschliche Subjekte sind, sondern als Operationalisierung von ›Citizenship‹ verstanden werden können, die auf digitale Techniken angewiesen sind, um belebt zu werden?
D ie N eugestaltung smarter S tädte Wie man der vielschichtigen Literatur über smarte Städte und den auf sie abzielenden Projekten entnehmen kann, gibt es zahlreiche Interpretationen davon, was überhaupt als smarte Stadt gelten darf.7 Sie könnte etwa mit neuen Medienanwendungen oder automatisierten Infrastrukturen verbunden sein, die mit vernetzten digitalen Sensoren ausgestattet sind; sie könnte sich auf die Konvergenz von Online- und Offlinewelten beziehen oder jene urbanen Erlebnisse umfassen, die durch mobile Geräte ermöglicht werden. Während sich die frühere Forschung zu diesen Fragen auf das Verhältnis zwischen der digitalen und der physischen Stadt oder auf die Art und Weise konzentriert hat, wie ›virtuelle‹ digitale Technologien physische Städte räumlich umgestalten oder darstellen könnten,8 befasst man sich inzwischen zunehmend mit 7 | Vgl. Allwinkle, Sam/Cruickshank, Peter: »Creating smarter cities: an overview«, in: Journal of Urban Technology 18 (2011), S. 1-16. 8 | Vgl. Lovink, Geert: »Die digitale Stadt – Metapher und Gemeinschaft«, in: ders., Dark Fiber – auf den Spuren einer kritischen Internetkultur, Opladen: Leske + Budrich 2004, S. 42-61.
317
318
Jennifer Gabr ys
den Verfahren, mit denen Städte sowohl durch Software wie auch durch die materiellen Infrastrukturen digitaler Technologien umgebaut und vermarktet werden.9 Durch das Generieren beträchtlicher Datenmengen, die zum Managen urbaner Prozesse notwendig sind, und durch das direkte Einbetten von Endgeräten in urbane Infrastrukturen und ihre Räume, gestaltet Ubiquitous Computing Städte eher um als sie zu ersetzen oder virtuell zu repräsentieren. ›Smartness‹ bezieht sich zwar ganz allgemein auf computergestützte Stadtplanung, bezeichnet aber zunehmend urbane Nachhaltigkeitsstrategien, die von der Implementierung des Ubiquitous Computings abhängen, der von Cisco so genannten »vierten Nutzung«.10 In dem industriellen White Paper »A theory of smart cities« behaupten an der Initiative Smarter Planet beteiligte IBM-Autoren, der Begriff »smart cities« gehe auf »smart growth« zurück, ein Konzept, mit dem Stadtplaner in den späten 1990er Jahren Strategien zur Einschränkung von Zersiedlungseffekten und ineffizienter Ressourcennutzung umschrieben, während man damit später auf Informationstechnologien basierende Infrastrukturen und Prozesse bezeichnete.11 In staatlichen wie industriellen White Papers ist immer wieder die Rede davon, wie vernetzte Sensortechnologien urbane Prozesse und Ressourcenverbrauch optimieren und effizienter machen sollen, was auch Transport und Verkehr, Gebäudemanagement, Stromversorgung und Industrie umfasst. Durch Sensoren operationalisierte und automatisierte Umgebungen führen zu einer bestimmten Version von Nachhaltigkeit, für die Effizienz das eigentliche Ziel der Konvergenz von ökonomischem Wachstum mit grünen Zielen darstellt. Tatsächlich werden smarte Städte häufig als erhoffte Quelle zur Generierung beträchtlicher neuer Einnahmen behandelt. In einem von der Rockefeller Foundation finanzierten Report deutet das Institute for the Future an, smarte Städte seien wahrscheinlich »ein Markt mit einem Volumen von vielen Billionen Dollar«.12
9 | Vgl. Ellison, N./Burrows, R./Parker, S. (Hg.): »Urban informatics: software, cities and the new cartographies of knowing capitalism«, in: Information, Communication and Society 10 (2007), S. 785-960; sowie Graham, Stephen (Hg.): The Cybercities Reader, London: Routledge 2004. 10 | Vgl. Elfrink, Wim: »Intelligent Urbanization«, Video, http://blogs.cisco.com/news/ video/, vom 12. Juli 2015. 11 | Vgl. Harrison, Colin/Donnelly, Ian Abbott: »A theory of smart cities«, Protokolle der 55. Jahrestagung der International Society for the Systems Sciences (ISSS) 2011, http://journals.isss.org/index.php/proceedings55th/article/view/1703, vom 11. Juli 2015. 12 | Townsend, Anthony et al.: A Planet of Civic Laboratories: The Future of Cities, Information, and Inclusion, Palo Alto: Institute for the Future and the Rockefeller Foundation 2010.
Programmieren von Umgebungen
Die derzeitige Welle von geplanten wie bereits laufenden Projekten für smarte und nachhaltige Städte umfasst zahlreiche, auf der ganzen Welt angesiedelte Vorhaben mit ähnlichen Zielen, Entwürfen und Designs. Von Abu Dhabi bis Helsinki wie von Smart Grids in Indien bis zum PlanIT Valley in Portugal sind viele Stadtentwicklungsprojekte auf die Implementierung von vernetzten Sensorumgebungen gerichtet, die mit der Logik von Effizienz und Nachhaltigkeit vermarktet werden. Projekte für smarte Städte werden oft als öffentlich/private Partnerschaften (PPP) zwischen multinationalen Technikkonzernen wie Cisco, IBM und Hewlett Packard zusammen mit Stadtverwaltungen, Universitäten oder Design- und Ingenieurbüros begonnen. Bei diesen Vorhaben geht es etwa um das Nachrüsten urbaner Infrastrukturen wie in New York oder London, um das Entwickeln neuer Städte auf Brachflächen wie im koreanischen Songdo oder in Lake Nona in Florida, sowie um das Verstärken von Netzwerkeinrichtungen in mittleren Großstädten wie Dubuque in Iowa zum Testen vernetzter Sensoranwendungen. Der Schwerpunkt liegt hier auf der Art und Weise, wie Smartness Ausdrucksformen urbaner Nachhaltigkeit beeinflusst. Aber statt sich auf eine starre Definition der smarten Stadt festzulegen, bewegt sich meine Arbeit im Spannungsfeld von den Vermutungen, dass sich an der Art und Weise, wie informatisierte Städte mobilisiert werden, politische und ökonomische Interessen ablesen lassen.13 Digital informierte Städte können in diesem Sinne Gebilde sein, die sich in ihrer Vorstellungswelt, Implementierung und Erfahrung ständig verändern.14 Smarte Städte könnten in ihrer urbanen Grundidee zwar als idealtypisch und universal verstanden werden, doch konkrete Projekte gehen letztlich aus den materiell und politisch zufälligen Räumen und Praktiken von Design, Politik und Entwicklung hervor, während sie zugleich spezifische, wenn auch spekulative urbane Lebensweisen in die Welt bringen.
D ie N eugestaltung smarter B e wohner Die in den Entwürfen smarter Städte vorgeschlagenen und weiterentwickelten Computertechnologien sollen zusammen mit den Interaktionen und Praktiken der Stadtbewohner urbane Umgebungen und Prozesse gestalten. Citizen Sensing und partizipatorische Plattformen werden in diesen Plänen gefördert, um es den Bewohnern zu ermöglichen, Ereignisse in ihren Environments durch mobile Geräte und Sensortechniken in Echtzeit zu verfolgen. Doch wenn man es Bürgern ermöglicht, ihre eigenen Aktivitäten zu überwachen, macht man 13 | Hollands, Robert G.: »Will the real smart city please stand up?«, in: City 12 (2008), S. 303-320. 14 | Mackenzie, Adrian: Wirelessness: Radical Empiricism in Network Cultures, Cambridge, MA: MIT Press 2010.
319
320
Jennifer Gabr ys
aus diesen Bürgern unfreiwillige Sammler und Lieferanten von Daten, die für mehr genutzt werden können als für den Ausgleich des Energieverbrauchs. Es geht auch darum, Energieversorgern und Stadtverwaltungen Details über die Muster des Alltagslebens zu verschaffen. Das Überwachen, das Managen von Daten und das Einspeisen dieser Informationen in die Systeme einer Stadt werden so zu Praktiken, die für Bürgerschaft [citizenship] konstitutiv sind. Bewohnen verwandelt sich damit in das, was ich Citizen Sensing nennen möchte. Es ist manifestiert in Praktiken, die in Reaktion auf computergestützte Umgebungen und in Kommunikation mit diesen Technologien vollzogen werden. Citizen Sensing als eine Form des Engagements ist sowohl für die entwicklungsbestimmte wie für die kreativ-praktische Beschäftigung mit smarten Städten ein durchgängiger, wenn auch unterschiedlich stark betonter Richtwert. DIY-Projekte schlagen eine Bürgerbeteiligung durch die Nutzung partizipatorischer Medien und Sensortechnologien vor, um den Unterschied zwischen basisdemokratischen und eher groß angelegten Entwicklungen von smarten Städten zu betonen. Zu einem interessanten Zusammenfließen von Imaginationen und Praktiken kommt es beim Aufrüsten von Bürgern, das bis hin zum »Verändern der Subjektivität heutiger Bürgerschaft«15 reicht, indem es Stadtbewohnern ermöglicht wird, durch die Nutzung von Sensortechnologien mit ihren urbanen Environments zu interagieren. Mit was für einer Subjektivität haben wir es hier zu tun? Könnte man anhand von computergestützten Umgebungen untersuchen, wie (und wo) diese Subjektivität und die Bedeutung von Bürgerschaft verändert werden? Mit anderen Worten: Wenn urbane Prozesse und Architekturen sich durch Ubiquitous Computing wandeln, dessen Ziel Effizienz und Nachhaltigkeit darstellt, wie verwandeln sich dann auch die materielle Politik einer Stadt und die Möglichkeiten für demokratisches Engagement?16 Mein Interesse an diesen Modalitäten von Citizen Sensing in smarten Städten läuft jedoch nicht darauf hinaus, diese Vorhaben und Projekte als Kontrollinstrumente zu denunzieren, wie es für eine Technikkritik typisch wäre. Vielmehr geht es mir darum, genauer zu verstehen, wie computergestützte Materialisierungen Macht durch urbane Räume und Prozesse verteilen. Oder wie es Foucault dargelegt hat: Statt sich einen machtfreien Raum vorzustellen, kann es produktiver sein, zu untersuchen, wie Macht als eine Möglichkeit verteilt ist, konkrete Praktiken der Verwaltung zu kritisieren, indem man sich vorstellt, wie es möglich sein könnte, nicht so beherrscht zu werden – oder nicht auf diese Weise.17 15 | Borden, Ed/Greenfield, Adam: »You are the smart city«, http://blog.xively.com/ 2011/06/30/you-are-the-smart-city/, vom 11. Juli 2015. 16 | Vgl. Fuller, Matthew/Haque, Usman: »Urban Versioning System 1.0«, in: Situated Technologies Pamphlets 2, The Architectural League of New York 2008. 17 | Vgl. Foucault, Michel: The Politics of Truth, New York: Semiotext(e) 1997, S. 44 f.
Programmieren von Umgebungen
E nvironmentalität Ich greife diese Fragen der Transformationen in der Entwicklung, Form und Bewohnung von Städten auf, um gründlicher zu analysieren, wie die umgebungsbezogenen Technologien des Ubiquitous Computings urbane Regierung und Bürgerschaft informieren. Environmentalität ist ein Begriff, mit dem ich diese urbanen Transformationen beschreiben und den ich durch eine Interpretation von Foucaults unvollendeter Erörterung dieses Begriffs in einer seiner letzten Vorlesungen, Die Geburt der Biopolitik, aufgreifen und überarbeiten möchte. Foucault signalisiert sein Interesse an Environmentalität und umgebungsbezogenen Technologien, wenn er von einer historischen zu einer eher zeitgenössischen und neoliberalen Betrachtung von Biopolitik im Zusammenhang mit dem Milieu oder der Umgebung als Ort von Regierungsmacht übergeht.18 In diesem Übergang verliert, so Foucault, das Subjekt oder die Bevölkerung für das Verständnis der Ausübung biopolitischer Techniken an Bedeutung, da Änderungen der Umgebungsbedingungen neue Formen der Regulierung mit sich bringen.19 Foucaults Erörterung von Environmentalität geht aus einer Analyse der Kriminalität hervor. An einem Beispiel untersucht er, wie Versuche, den Drogenhandel zu regulieren, sich vielleicht stärker auf die Bedingungen der Sucht ausgewirkt haben als Strategien, die sich gegen individuelle abhängige Konsumenten oder Gruppen abhängiger Konsumenten richten. Foucault identifiziert wenig zu erklärend als tastend einen zunehmenden Trend zu einer umgebungsbezogenen Regierungsmacht, die an die Stelle einer auf das Subjekt oder auf der Bevölkerung gerichteten Regierungsmacht tritt. Er stellt er fest: Es ist […] die Idee […] einer Gesellschaft, […] in der es keine Einflussnahme auf die Spieler des Spiels, sondern auf die Spielregeln geben würde und in der es schließlich eine Intervention gäbe, die die Individuen nicht innerlich unterwerfen würde, sondern sich auf ihre Umwelt bezöge. 20
Im Anschluss daran verweist Foucault auf einen erweiterten Begriff von Environmentalität, wobei das Beeinflussen der »Spielregeln« durch das Modulieren und Regulieren von Umgebungen vielleicht eine aktuellere Umschreibung von 18 | [Foucault verwendet in seinen Vorlesungen sowohl den Begriff milieu wie auch den Begriff environnement. Ihre Unterscheidung ist nicht immer eindeutig. – Anm. F. S.] 19 | Foucault, Michel: Sicherheit, Territorium, Bevölkerung. Geschichte der Gouvernementalität I, Frankfurt a.M.: Suhrkamp 2004, S. 40 f., und Foucault, Michel: Die Geburt der Biopolitik. Geschichte der Gouvernementalität II, Frankfurt a.M.: Suhrkamp 2006, S. 359 f f. 20 | M. Foucault, Die Geburt der Biopolitik, S. 359.
321
322
Jennifer Gabr ys
Gouvernementalität ist und über direkte Versuche hinausgeht, individuelles Verhalten oder die Normen von Populationen zu beherrschen. Das Verhalten mag zwar adressiert oder beherrscht werden, doch die Verfahren der Technik sind auf Umgebungen bezogen. Foucault weist am Ende seiner Vorlesung darauf hin, dass er in der nächsten Vorlesung diese Fragen einer Regulierung der Umgebung ausführlicher untersuchen werde. Allerdings entwickelt er diesen Gedankengang nicht weiter. Stattdessen sind die sechs Seiten, die seinen Denkansatz zur Environmentalität skizzieren, als Fußnote in den Vorlesungen über Die Geburt der Biopolitik enthalten.21 Foucaults Erörterung der Environmentalität stellt also eher eine unbeantwortete Frage als einen theoretischen Leitplan dar und reicht von einer historischen Analyse der Herrschaft über Populationen bis zu einer Betrachtung zeitgenössischer Modi von Governance, die zum Zeitpunkt seiner Vorlesung vielleicht gerade im Entstehen begriffen oder bereits im Gang waren. Sein spezifisches Konzept der Environmentalität bleibt zwar eine Fußnote zu seiner Erörterung neoliberaler Regierungsmacht, doch es fordert geradezu heraus, gründlich über die Auswirkungen der zunehmenden Förderung und Verbreitung von Computertechnologien nachzudenken, mit deren Hilfe urbane Environments verwaltet werden sollen. Auf welche Weise also können Vorschläge zur Entwicklung smarter Städte umgebungsbezogene Modi der Governance [environmental modes of governance] artikulieren und gezielt umsetzen, und wie sehen die räumlichen, materiellen und bürgerlichen Umrisse dieser Regierung und Verwaltung aus? Der Gebrauch des Begriffs Environmentalität, den ich hier auf der Basis der Vorlesungen über Biopolitik entwickle und umwandle, unterscheidet sich von der Art und Weise, wie er oft auf der Grundlage von Foucaults früheren Werken verstanden wird – von der Entwicklung umweltbewusster Individuen zur Erhaltung der Wälder in Indien22 bis zur »grünen Gouvernementalität« von Umweltorganisationen.23 Mit Hilfe des Begriffs Environmentalität kann man gewiss auch über die politischen Ziele des Umweltschutzes nachdenken. Dabei gilt es aber im Auge zu behalten, dass Environmentalität und Umweltschutz nicht deckungsgleich sind. Foucaults Analyse von Environmentalität befasst sich nicht direkt mit dem Umweltschutz als solchem, sondern vielmehr mit einem Verständnis von durch das Milieu operierender Regierungsmacht. Tatsächlich gilt Foucaults Interesse an environmentaler Governance Strategien
21 | M. Foucault: Die Geburt der Biopolitik, S. 359-361. 22 | Agrawal, Amar Nath: Environmentality: Technologies of Government and the Making of Subjects, Durham/NC: Duke University Press 2005. 23 | Luke, Timothy W.: »Environmentality as Green Governmentality«, in: Eric Darier (Hg.), Discourses of the Environment, Oxford: Blackwell 1998, S. 121-151.
Programmieren von Umgebungen
»der Umwelttechnologie oder der Umweltpsychologie«24, Gebieten, die auch das Design von Lebensrettungssystemen oder von Erlebniswelten in Shoppingmalls umfassen könnten.25 Umgebungsbezogene Modi von Governance können genauso gut auch aus dem Scheitern beim Umsetzen von Zielen des Umweltschutzes hervorgehen. Katastrophen wie der Hurrikan Katrina führen, wie Brian Massumi in seiner Analyse der Environmentalität darlegt, zu ausgeprägten Verfahren von krisenorientierter Governance, die im Zusammenhang mit der Ungewissheit des Klimawandels entstehen – einem Zustand von »Krieg und Wetter«, der eine Raumpolitik von permanenter Störung und Reaktion in Gang setzt.26
B iopolitik 2.0 Foucaults Erörterung des Begriffs Environmentalität mag zwar verkürzt sein, adressiert aber die Rolle von Technologien des Umgebens als Instrumenten der Regierungsmacht und hängt auf vielfache Weise mit seiner beharrlichen Beachtung des Milieus als eines Orts des biopolitischen Managements zusammen. Biopolitik oder die Regierung des Lebens, wie er sie in ihren Ausprägungen des späten 18. und 19. Jahrhunderts analysierte, befasst sich mit den »Beziehungen innerhalb der menschlichen Gattung, der menschlichen Wesen als Gattung, als Lebewesen und in ihrem Umfeld, ihrem Lebensumfeld [milieu]«27. Wenn wir ferner davon ausgehen, dass Biopolitik auch jene Verteilungen von Macht umfasst, die nicht nur das Leben informieren, sondern auch die Art und Weise, wie wir leben, wie werden dann Lebensweisen durch diese besonderen Verteilungen des Umgebens [environmental distributions] beherrscht? Die Formulierung »Lebensweisen«, derer sich Foucault bedient, um biopolitische Arrangements und Verteilungen von Macht zu erörtern, wird von Judith Revel aufgegriffen. Sie legt dar, dass sich das Konzept der Biopolitik nicht ausschließlich mit »Kontrolle« befasse, wie dies vielleicht Interpretationen von Foucaults Frühwerk überbetont haben, sondern sein Hauptaugenmerk auf die räumlich-materiellen Bedingungen und die Verteilungen von Macht richte, die für jede Zeit und jeden Ort charakteristisch 24 | M. Foucault: Die Geburt der Biopolitik, S. 359. [Im französischen Original steht an der Stelle von Umwelttechnologie technologie environnementale. – Anm. F. S.] 25 | Vgl. z.B. Anker, Peder: »The closed world of ecological architecture«, in: The Journal of Architecture 10 (2005), S. 527-552. 26 | Massumi, Brian: »National Enterprise Emergency«, in: Theory, Culture and Society 26 (2009), S. 153-185, hier S. 154. 27 | Foucault, Michel: In Verteidigung der Gesellschaft, Frankfurt a.M.: Suhrkamp 2001, S. 288.
323
324
Jennifer Gabr ys
sind.28 »Lebensweisen« oder »gelebtes Leben« ist ein biopolitischer Ansatz, der auch über das Verständnis von Leben als einer gegebenen biologischen Einheit29 hinausgeht und stattdessen darlegt, dass Lebensweisen verortet und gewachsen sind und durch räumliche und materielle Machtbeziehungen praktiziert werden. Ein solches Konzept bezeichnet kein totalisierendes Machtschema, sondern verweist auf ein Verständnis davon, wie Macht in Lebensweisen entsteht und operiert. So kann man auch Möglichkeiten vorschlagen, wie sich alternative Lebensweisen generieren lassen. Eine andere Formation der Biopolitik entsteht im Kontext der Environmentalität, da sich Biopolitik in Relation zu einem Milieu entfaltet, das sich weniger an der Kontrolle von Populationen orientiert, sondern stattdessen durch umgebungsbezogene Modi der Regierung funktioniert. Um die Lebensweisen zu erfassen und zu untersuchen, die im Rahmen des CSC-Vorhabens für smarte Städte entstehen, verwende ich (mit einer gewissen Ironie) den Begriff Biopolitik 2.0, um damit die partizipatorischen oder digitalen Technologien ›2.0‹ zu bezeichnen, die in smarten Städten im Spiel sind. Dies eröffnet die Möglichkeit, spezifische Lebensweisen zu untersuchen, die sich in der smarten Stadt entfalten. Biopolitik 2.0 ist somit ein methodologischer Kunstgriff zur Analyse von Biopolitik als einem historisch gebundenen Konzept, wie dies Foucault bei seiner Entwicklung des Begriffs betont hat. Das ›2.0‹ von Biopolitik erfasst die historische Situation dieses Begriffs, welche die ungeheure Vermehrung von nutzergenerierten Inhalten durch partizipatorische digitale Medien einschließt. Dieser entscheidende Teil der Vorstellung davon, wie smarte Städte funktionieren sollen, schließt auch die Versionierung digitaler Technologien durch den Übergang der Computertechnologie von Desktops zu Umgebungen ein,30 sei es in Form von mobilen digitalen Geräten oder von Sensoren, die in der urbanen Infrastruktur, in Gegenständen und Netzwerken eingebettet sind – was auch durch den Begriff ›Stadt 2.0‹ erfasst wird, der als Alternative zur smarten Stadt in Umlauf ist. Das biopolitische Milieu generiert materiell-räumliche Arrangements, in denen und durch die unterschiedliche Dispositive oder Apparate operieren. Der Apparat der computergestützten Stadtplanung lässt sich durch Netzwerke, Techniken und Machtbeziehungen analysieren, die von der Infrastruktur bis zu Governance und Planung, Alltagspraktiken, Imaginationen des Urba28 | Revel, Judith: »Identity, Nature, Life: Three Biopolitical Deconstructions«, in: Theory, Culture and Society 26 (2009), S. 45-54, hier S. 49-52. 29 | Diese Interpretation hängt mit Agambens Arbeit über Biopolitik und das nackte Leben zusammen. Agamben, Giorgio: Homo Sacer. Die souveräne Macht und das nackte Leben, Frankfurt a.M: Suhrkamp 2002. 30 | Hayles, N. Katherine: »RFID: Human Agency and Meaning in information-intensive Environments«, in: Theory, Culture and Society 26 (2009), S. 47-72.
Programmieren von Umgebungen
nen, Architekturen, Ressourcen und mehr reichen. Doch diese »heterogene Gesamtheit« lässt sich durch die »Natur der Verbindung« beschreiben, die sich zwischen all diesen Elementen entfaltet.31 In seinen Darlegungen über Biopolitik, Apparat und Milieu erklärt Foucault wiederholt, dass die Art und Weise, wie Zusammenhänge hergestellt werden, entscheidend ist für das Verständnis davon, wie Modi von Governance, Lebensweisen und politische Möglichkeiten entstehen oder aufrechterhalten werden. Die Eigenschaften des computergestützten Monitorings und der Responsiveness32 charakterisieren die »Natur der Verbindung« in smarten Umgebungen und zwischen ihren Bewohnern. Biopolitische Zusammenhänge 2.0 artikulieren das Bedürfnis, die wirtschaftliche Entwicklung zu fördern, während gleichzeitig dem drohenden Unheil für die Umwelt entgegengetreten wird – Zustände, die durch eine »dringende[n] Anforderung« charakterisiert sind, welche Foucault als entscheidend für die historische Situation des Apparats und folglich für die Ausübung von Biopolitik erkennt.33 In Vorschlägen und Entwürfen für smarte Städte werden Städte als umweltbezogene, soziale und ökonomische Probleme dargestellt. Die digitale Reorganisation durchzieht urbane Infrastrukturen, wobei die Produktivität erhöht und zugleich Effizienz erzielt werden soll. Indem ich Foucaults Verständnis davon, wie Macht umgebungsbezogen und biopolitisch operieren könnte, zusammenfasse, lege ich den Schwerpunkt auf das Verständnis urbaner Räume und der Bürgerschaft im Rahmen relationaler oder konnektiver Register, wobei ich mich auf die Computerpraktiken und -prozesse konzentriere, die die Lebensweisen in smarten Städten erneuern und beeinflussen sollen. Während ich diese Aspekte der Überlegungen Foucaults als weniger auf disziplinierte und kontrollierte Individuen oder Populationen konzentriert interpretiere, verlagere ich Environmentalität in einen Raum, in dem sich betrachten lässt, wie sich smarte Städte als nachhaltig qualifizieren – durch ein Neufassen der »Spielregeln«. Wenn hier gesagt wird, dass sich smarte Städte durch eine Analyse der Biopolitik 2.0 verstehen ließen, soll nicht so sehr behauptet werden, dass digitale Technologien schlicht Kontrollinstrumente seien, sondern vielmehr untersucht werden, wie die räumlichen und materiellen Programme, die in Vorschlägen für smarte Städte vorgestellt und implementiert werden, bestimmte Arten von Machtarrangements und Modi von Environmentalität generieren. Stadtbewoh31 | M. Foucault: Schriften in vier Bänden, Bd. III., S. 392. 32 | [Da der Begriff der Responsivität bereits von der Phänomenologie besetzt ist und Reaktionsfreudigkeit oder Ansprechbarkeit keine treffenden Übersetzungen darstellen, wird hier und im Folgenden der Begriff responsiveness im Englischen belassen. Anm. F. S.]. 33 | Ebd., S. 393. Siehe auch Agamben, Giorgio: Was ist ein Dispositiv? Berlin: Diaphanes 2008.
325
326
Jennifer Gabr ys
ner werden damit in spezifische Anforderungen ihrer Bürgerschaft verstrickt. Aber im Rahmen dieser Programme für eine computergestützte Stadtplanung werden sich die prozesshaften und praktizierten Lebensweisen, die sich tatsächlich entfalten oder noch entfalten sollen, unweigerlich auf vielfache Weise materialisieren. Die »Spielregeln«, die für Foucault von zentraler Bedeutung für Environmentalität sind, müssen vielleicht als eine weniger statische oder deterministische Darstellung dessen, wie Regierungsmacht funktioniert, revidiert werden. Vorschläge für das Design smarter Städte führen auf einer Ebene Vorhaben und Programme ein, wie computergestützte Stadtplanungen operieren sollen; doch auf einer anderen Ebene verlaufen Programme nie nach Plan und werden niemals isoliert umgesetzt. Environmentalität könnte dadurch vorangetrieben werden, dass man smarte Städte nicht als Anwendung von Quellcode in einer Command-and-Control-Logik von Herrschaftsraum betrachtet, sondern als vielfache, sich wiederholende und sogar schwankende Materialisierungen vorgestellter und belebter computergestützter Stadtplanungen.
V erne t z te nachhaltige S tädte Das CSC-Projekt arbeitet an dieser Schnittstelle von umgebungsbezogenen Modi der Regierungsmacht, Technologien des Umgebens und Nachhaltigkeit, wie sie in smarten Städten operationalisiert werden. Es stellt damit eine Vision von einer nahen Zukunft urbanen Ubiquitous Computings dar, die auf eine zunehmende Nachhaltigkeit ausgerichtet ist. Die Planungsmaterialien des Projekts befürworten die smarte Stadt, weil sie eine entscheidende Rolle für Fragen des Klimawandels und der Ressourcenknappheit spielt, wobei nachhaltige urbane Environments durch intelligente digitale Architekturen verwirklicht werden können. Die Designvorschläge und politischen Instrumente des CSC-Projekts ebenso wie sein zentrales visionäres Dokument – das von William J. Mitchell und Federico Casalegno verfasste Buch Connected Sustainable Cities – entwickeln Szenarien für ein Alltagsleben, das erweitert und sogar verändert werde durch smarte Informationstechnologien, die »neue, auf intelligente Weise nachhaltige urbane Lebensmuster fördern« werden. In den CSC-Designvorschlägen ist die Rede von einer Technologie, die smarte Environments und die Interaktionen zwischen der Stadt und ihren Bürgern weitgehend operationalisiert: Ubiquitous Computing in Form eines »kontinuierlichen, hochauflösenden elektronischen Sensing« durch »Sensoren und Tags«, die »auf Gebäuden und in Infrastrukturen montiert, in bewegten Fahrzeugen transportiert, in Mobilgeräten wie Telefonen integriert und an Produkten befestigt werden«. Überall werden Sensorgeräte verteilt, die die urbane Umgebung überwachen. Das unablässige Generieren von Daten liefert »detaillierte Echtzeitbilder« von urbanen Praktiken und Infrastrukturen, die
Programmieren von Umgebungen
sich managen, synchronisieren und aufteilen lassen, um »die optimale Verteilung knapper Ressourcen« zu fördern.34 Digitale Sensortechnologien machen urbane Prozesse effizient, wobei Computertechnologien derart in Umgebungen eingebettet sind, dass sie das Management und die Regulierung der Stadt ermöglichen. Wie bei vielen Vorhaben für solche Städte werden auch die CSC-Städte smart auf mehreren gemeinsamen Ebenen der Intervention, die großenteils auf Produktionssteigerung ausgerichtet sind und zugleich die Effizienz verbessern sollen. Ein Video veranschaulicht dieses Grundprinzip für das Projekt: Seine Kernbereiche sind etwa Plattformen, die entwickelt werden, um den Pendelverkehr, das Recycling von Privathaushalten, die Selbstverwaltung der eigenen CO₂-Bilanz zu unterstützen oder Flexibilität in urbanen Räumen und gemeinschaftliche Entscheidungsfindungen zu ermöglichen. All dies sollen Modellbereiche sein, in denen eine verbesserte Effizienz mittels digitaler Vernetztheit und eine verbesserte Sichtbarkeit von umgebungsbezogenen Daten Ressourcen sparen und Treibhausgasemissionen senken können. Während viele der in diesem Vorhaben vorgestellten Anwendungen bereits in zahlreichen Städten Einzug gehalten haben, von elektronischen Systemen für Leihfahrräder bis zu smarten Messgeräten für den Energieverbrauch, schlägt das Projekt eine weitere koordinierte Verbreitung von Sensortechnologien und Plattformen vor, die urbane Prozesse noch effizienter machen sollen. Im Video des CUD-Projekts wie im CSC-Designdokument werden Vorhaben für Design und Planung smarter Städte nicht in der Größenordnung eines Masterplans, sondern eher eines Szenarios vorgestellt. Von Curitiba bis Hamburg umfassen die in diesen Designs und politischen Überlegungen angesprochenen Episoden des urbanen Lebens kommunale Dienstleistungen, Instrumente des Ökomonitorings und spekulative Plattformen, die ein smartes und »nahtlos« automatisiertes Leben ermöglichen sollen. Doch in vielen Fällen vollziehen sich die urbanen Interventionen in einer hypothetischen Stadt. Sie wird so verallgemeinert dargestellt, dass die computergestützten Interventionen zu einer universell gültigen Vorstellung des Alltags führen. In einem Designszenario für das »Management von Privathaushalten« in Madrid werden zahlreiche Möglichkeiten vorgeschlagen, die diese Haushalte effizienter machen sollen. Mobiltelefone kommunizieren per GPS mit sensorbestückten Küchengeräten, sodass ein Abendessen für die ganze Familie mittels kollektiver Abstimmung des geeigneten Orts und der passenden Zeit zubereitet werden kann. Auf ähnliche Weise werden Thermostate mit GPS und Kalendern auf Mobiltelefonen synchronisiert sein, damit das Haus rechtzeitig vor der 34 | Mitchell, William J./Casalegno, Federico: Connected Sustainable Cities, Cambridge, MA: MIT Mobile Experience Lab Publishing 2008. http://connectedsustainable cities.com/downloads/connected_sustainable_cities.pdf, vom 11. Juli 2015.
327
328
Jennifer Gabr ys
Ankunft der Familie angenehm beheizt ist. Die Organisation von Tätigkeiten entwickelt sich durch programmierte und aktivierte Umgebungen, sodass Zeit und Ressourcen am produktivsten und effizientesten genutzt werden können. Im Madrider Szenario ist das genaue Überwachen des Verhaltens der Bewohner durch Sensoren und Daten von wesentlicher Bedeutung, damit eine solche Effizienz erreicht werden kann. Mit Hilfe dieser Informationen sollen Environments selbstregulierend operieren und optimale Leistung erbringen. Die Effizienzinitiativen des CSC versprechen, »das Management von Städten zu optimieren«, ökologische Fußabdrücke zu verkleinern und »zu verbessern, wie Menschen urbanes Leben erfahren«35. Indem smarte Technologien die Orte täglicher Aktivitäten verfolgen, bieten sie die Möglichkeit, dass sich das Abendessen selbst zubereitet und sich das Haus selbst heizt. Diese »Hilfstechnologien« führen zu neuen Arrangements von Environments und Lebensweisen: Smarte Thermostate verbinden sich mit Kalendern, Orten und sogar »Biosignalen eines menschlichen Körpers«. »Hauttemperatur und Puls« lassen sich durch Sensoren überwachen, um für optimale Raumtemperaturen zu sorgen. Auf die gleiche Weise soll eine Kommunikation mit Küchengeräten durch »Toyotas Produktlinie ›Femininity‹ für lokale Netzwerkanwendungen« erfolgen. Diese Technologien garantieren, dass der Haushalt warm, sicher und mit den neuesten Rezepten versorgt wird.36 Die Bedeutung des Alltags als Ort der Intervention signalisiert, auf welche Weise smarte Städte bestimmte Lebensweisen generieren, indem eine »Mikrophysik der Macht« in Alltagsszenarien aus- und eingeübt wird.37 Governance und das Managen des urbanen Milieus geschehen nicht durch das Abgrenzen von Territorien, sondern durch das Ermöglichen von Verbindungen und Prozessen der Urbanität im Rahmen computergestützter Modalitäten. Die Handlungen der Bewohner haben weniger mit der individuellen Ausübung von Rechten und Verantwortlichkeiten zu tun, sondern mehr mit dem Operationalisieren der kybernetischen Funktionen der smarten Stadt. Partizipation erfordert eine computergestützte Responsiveness und ist eher deckungsgleich mit Aktionen des Überwachens und Managens der Beziehungen zum eigenen Environment, als dass sie demokratisches Engagement durch Dialog und Debatte fördert. Der Bewohner ist ein Kreuzungspunkt von Daten und damit sowohl ihr Generator wie ein reagierender Knoten in einem Feedbacksystem. Das Effizienzprogramm geht davon aus, dass menschliche Teilnehmer innerhalb eines akzeptablen Handlungsspielraums reagieren werden, damit smarte Städte optimal funktionieren. Doch solche Effizienzspielräume werden 35 | Ebd., S. 2. 36 | Ebd., S. 58 f. 37 | Deleuze, Gilles: Unterhandlungen: 1972-1990, Frankfurt a.M.: Suhrkamp 1993, S. 125.
Programmieren von Umgebungen
unweigerlich auch in menschlichen wie nichtmenschlichen Registern umgesetzt, sodass smarte Fahrräder in Bäche geworfen und Sensinggeräte gehackt werden können, um Haushalte zu überwachen oder in sie einzugreifen. Angesichts dieser Seiten der smarten Stadt stellt sich die Frage, inwieweit fein abgestimmte Lebensweisen tatsächlich gelebt oder Effizienz- und Produktivitätsprogramme anderen Zwecken als den genannten zugeführt werden könnten.
D as P rogr ammieren von U mgebungen Die Motivationslogik der Nachhaltigkeit, die smarte Technologien implementieren, orientiert sich am Einsparen von Zeit und Ressourcen. Dies wiederum wirkt sich auf Pläne aus, wie smarte Technologien in Alltagsumgebungen eingebettet werden können, um für effizientere Lebensweisen zu sorgen. Die Überwachung wird als eine durch Sensoren ermöglichte Praxis zu einem zentralen Fluchtpunkt der Debatten um die Nachhaltigkeit und Effizienz smarter Städte. Das Sensing, das in der smarten Stadt vollzogen wird, erfordert kontinuierliche Überwachung. Die generierten Sensingdaten sollen die Regulierung urbaner Prozesse innerhalb eines Mensch-Maschine-Kontinuums von Sensing und Agieren ermöglichen, sodass sich »die Reaktionsbereitschaft vernetzter nachhaltiger Städte durch gut informiertes und koordiniertes menschliches Handeln, automatisches Aktivieren von Maschinen und Systemen oder eine Kombination beider erreichen lässt«.38 Menschen mögen sich zwar mit mobilen Geräten und auf digitalen Plattformen an der sensorüberwachten Stadt beteiligen, aber die Koordination aller »manuellen und automatischen« urbanen Prozesse vollzieht sich in programmierten Umgebungen, die den Inund Output von Menschen und Maschinen organisieren. Die »programmierte Stadt« ist als ein spekulatives wie reales Projekt von entscheidender Bedeutung für die laufende Entwicklung von Ubiquitous Computing. Zugleich demonstriert sie, wie kompliziert und unsicher es ist, programmierbare Umgebungen im Konkreten zu realisieren.39 Das im CSCDokument beschriebene Programmieren hat einige Resonanz gefunden, was 38 | W. J. Mitchell/F. Casalegno: Connected Sustainable Cities, S. 98. 39 | Vgl. Gabrys, Jennifer: »Telepathically urban«, in: Alexandra Boutros/Will Straw (Hg.), Circulation and the City: Essays on Urban Culture, Montreal: McGill-Queens University Press 2010, S. 48-63, hier S. 58 f. Dieser Aufsatz ist Teil eines in Bälde erscheinenden Buches mit dem Titel Program Earth: Environment as Experiment in Sensing Technology, das sich mit umgebungsbezogenem Sensing und programmierten Umgebungen befasst. Dieser Aufsatz bezieht sich auch auf ein laufendes Forschungsprojekt im Zusammenhang mit digitalen Sensortechnologien und umgebungsbezogener Praxis, »Citizen Sense« (siehe www.citizensense.net).
329
330
Jennifer Gabr ys
den architektonischen Sinn für die Gestaltung von Raum für bestimmte Aktivitäten40 ebenso anzeigt wie die Programme der Stadtentwicklung und -politik sowie das computergestützte Programmieren von Umgebungen. In den Plänen für smarte Städte ist dies eine Möglichkeit, wie sich die »Natur der Verbindung« innerhalb des computergestützten Dispositivs als ein räumliches Arrangement von digitalen Geräten, Software, Städten, Entwicklungsplänen, Bürgern und Praktiken umsetzen lässt. Die Vorstellung vom Programmieren ist über die spezifische Arbeit des Computers hinaus mit Vorstellungen dessen verknüpft, was ein Environment ist und wie es programmierbar gemacht werden kann. Einige der frühen Imaginationen von Sensorumgebungen spekulieren darüber, wie sich das Alltagsleben mit der Verlagerung des Computers vom Schreibtisch in die Umgebung umwandeln lasse.41 Während viele dieser Visionen nutzerorientiert sind, beeinflussen Umgebungssensoren auch Vorstellungen davon, wie oder wo das Sensing stattfindet, um weiter verteilte und nichtmenschliche Modalitäten des Sensing einzubeziehen.42 Die Möglichkeiten des Programmierens von Umgebungen zeigen vielleicht heute an, warum sich das »Milieu« inzwischen am besten als »Environment« verstehen lässt. Der nach dem Zweiten Weltkrieg aufgekommene Begriff »Environment« liegt einerseits einem eher kybernetischen Umgang mit Systemen und Ökologie43 zugrunde und wird andererseits zur Bezeichnung der Environments des Computers verwendet, also den Bedingungen, unter denen Computer sowohl intern als auch extern operieren können. Forschungen auf dem Gebiet der Software Studies befassen sich inzwischen zunehmend mit der Schnittstelle von Computern und Raum, indem sie prinzipiell davon ausgehen, dass die Computerarbeit – oft in Form von Software oder Quellcode – einen erheblichen Einfluss darauf hat, wie sich räumliche Prozesse entfalten oder gar aufhören zu funktionieren, wenn die Software versagt.44 Während Software immer stärker räumliche und materielle Prozes40 | Vgl. Mitchell, William J.: Me++: The Cyborg Self and the Networked City, Cambridge, MA: MIT Press 2003. 41 | Vgl. Weiser, Mark: »The Computer for the 21st Century«, in: Scientific American 265 (1991), S. 94-104. 42 | Vgl. Gabrys, Jennifer: »Automatic sensation: environmental sensors in the digital city«, in: The Senses and Society 2 (2007), S. 189-200. Gabrys, Jennifer: »Sensing an experimental forest: processing environments and distributing relations«, in: Computational Culture 2 (2012); sowie K. Hayles: RFID. 43 | Vgl. Haraway, Donna: Die Neuerfindung der Natur. Primaten, Cyborgs und Frauen, Frankfurt a.M.: Campus 1995. 44 | Vgl. Graham, Stephen: »Software-sorted geographies«, in: Progress in Human Geography 29 (2005), S. 562-580; Kitchin, Rob/Dodge, Martin: Code/Space: Soft-
Programmieren von Umgebungen
se informiert, siedle ich die Performativität von Software innerhalb der (statt oberhalb oder vor den) materiell-politisch-technischen Operationen des digitalen Dispositivs an. Programmierbarkeit beinhaltet notwendigerweise mehr als das Entfalten von Skripts, die sich in einer diskursiven Architektur von Befehl und Steuerung auf die Welt auswirken. Außerdem lässt sich Software nicht so leicht von der Hardware trennen, die sie aktivieren würde.45 Vielmehr geht es mir darum, dass Programmierbarkeit darauf verweist, wie Computerlogiken in materiell-kulturellen Situationen umgesetzt werden, sogar auf der Ebene von spekulativen Designs oder von Vorstellungen politischer Prozesse. In diesen können digital gestützte Herangehensweisen an dringliche urbane ›Probleme‹ darüber informieren, wie diese Fragen ursprünglich formuliert wurden, um computergestützt berechnet zu werden. Zugleich zeigen diese Logiken an, dass reale Programme nicht nach Plan verlaufen müssen. Die computergestützten Ausdrucksformen von Regierung, Verwaltung und Bürgerschaft in den Entwürfen des CSC-Projekts sind unsichere Indikatoren dafür, wie sich urbane Praktiken tatsächlich entfalten könnten, selbst wenn Prozesse aus Effizienzgründen automatisiert sind – doch genau im Scheitern und in der Unvollkommenheit programmierter Umgebungen, könnten sich politische Begegnungen in smarten Städten abspielen. Manche Initiativen für solche Städte stellen fest, dass beispielsweise die weniger »modernen« politischen Strukturen von Stadträten nicht zwangsläufig kompatibel mit der Entwicklung der smarten Stadt sind. Urbane Governance kann auf mehrere Bezirke oder Gremien verteilt sein, in denen und durch die der nahtlose Strom von Daten und die Implementierung digitaler Infrastrukturen kompliziert oder aufgehalten werden könnten. »Die Realisierung von Aktionsprogrammen« in der Softwareentwicklung »ist kompliziert und umstritten«, wie Mackenzie feststellt.46 Der Code wird auch nicht für sich geschrieben oder angewandt, sondern kann ein Sammelsurium von gerade noch funktionierenden Scripts sein, die von mehreren Akteuren erarbeitet werden und auf eine zu diesem Zeitpunkt realisierbare Weise auf spezifischen Plattformen laufen. Eine Veränderung in irgendeinem Element des Codes, der Hardware oder der Interoperabilität mit anderen Geräten kann auch das Programm und seine Auswirkungen verändern. Wenn der Code urbane Umgebungen umprogrammieren ware and Everyday Life, Cambridge, MA: MIT Press 2011. Thrift, Nigel/French, Shaun: »The Automatic Production of Space«, in: Transactions of the Institute of British Geographers, New Series 27 (2002), S. 309-335. 45 | Vgl. Gabrys, Jennifer: Digital Rubbish: A Natural History of Electronics, Ann Arbor, MI: University of Michigan Press 2010 und Kittler, Friedrich: »There is no software«, in: CTHEORY www.ctheory.net/articles.aspx?id=74, vom 11. Juli 2015. 46 | Mackenzie, Adrian: »The Performativity of Code: Software and Cultures of Circulation«, in: Theory, Culture and Society 22 (2005), S. 71-92.
331
332
Jennifer Gabr ys
soll, wird er auch in komplexe urbane Prozesse verwickelt, welche die simple Umsetzung von Scripts unterbrechen. Die CSC-Vorschläge zeigen ebenfalls, wie die programmierten Environments smarter Städte bestimmte urbane Materialitäten entstehen lassen oder sogar erfordern, um operabel zu sein. Die verschiedenen Modalitäten von Sensing und Programmieren, die in der CSC-Dokumentation auftauchen, kennzeichnen Programme, die durch Sensing und Monitoring die materiellen Prozesse der Umgebung zu managen und zu regulieren erlauben – vom Zirkulieren von Menschen und Waren bis zu Prozessen der Partizipation, die sich alle durch das »digitale Nervensystem« der smarten Stadt vernetzen sollen.47 In den CSC-Szenarien vereinfacht der optimal effizient gemachte Stoffwechselkreislauf von Inputs und Outputs die Prozesse, die erforderlich sind, um urbane Materialitäten umzuwandeln (durch Elektronisieren, Tagging und Überwachen), damit diese Prozesse programmierbar und effizient werden. Die urbane ubiquitäre Computernutzung würde einen erheblichen Aufwand an Materialien und Ressourcen erfordern, damit Städte in diesen Modalitäten operieren könnten. Urbane Materialitäten werden dann doppelt übergangen durch die entmaterialisierende Logik digitaler Technologien, da Automatisierung, verbessertes Timing und Koordination den Ressourcenbedarf und die Abfälle smarter Städte zu minimieren und sogar zu eliminieren scheinen. Auch elektronische Technologien haben dem Anschein nach keinen Ressourcenbedarf, weder bei ihrer Herstellung noch bei ihrem Operieren oder Entsorgen. Ressourcenbedarf und materielle Verstrickungen werden vermeintlich minimiert durch den verbesserten Flow, den smarte Technologien bieten. Doch digitale Technologien – und der digitale Apparat als solcher – generieren Prozesse der Materialisierung, die Materialitäten nicht so sehr annullieren, sondern durch computergestützte Modalitäten umwandeln.48 Die unruhige und materielle Art und Weise, mit der sich Computerarbeit in Städten entfaltet, bricht mit dieser Vorstellung reibungsloser Prozesse, nach denen Computerarbeit eine Reihe von Effizienzzielen nahtlos umsetzen könnte. Smarte Städte ließen sich genauso gut auch durch die Lücken und Pannen von Computertechnologien charakterisieren, die ebenfalls zu der »Erfahrung« gehören, wie diese Geräte und Systeme arbeiten und implementiert werden.49
47 | W. J. Mitchell/F. Casalegno: Connected Sustainable Cities, S. 5 f. 48 | Vgl. J. Gabrys: Digital Rubbish. 49 | Vgl. A. Mackenzie: Wirelessness.
Programmieren von Umgebungen
D as P rogr ammieren von Partizipation Die Infrastrukturen, mit denen die CSC-Vision spielt, bestehen zum Teil aus vorhandenen Netzen und Dienstleistungen, die in smarte Strom-, Transportund Verkehrsnetze sowie smarte Wasserversorgung umgewandelt werden. Sie bestehen aber auch aus partizipatorischen und mobilen Plattformen für das Citizen Sensing, durch die Stadtbewohner ihre Umgebungen überwachen und sich an smarten Systemen beteiligen sollen. Partizipatorische Medien und umgebungsbezogene Geräte ermöglichen diese nachhaltigere Stadt durch Formen der Teilhabe. Die smarten Infrastrukturen und Plattformen des Citizen Sensing des CSC-Projekts ermöglichen Überwachungspraktiken, indem sie Reaktionen strukturieren, die wiederum Alltagspraktiken regulieren oder neu einstellen. Nachhaltige Optionen des Nahverkehrs werden durch das Einrichten von kommunalen Initiativen erleichtert,50 die eine personalisierte Planung von Busrouten, Fahrgemeinschaften und Leihfahrrädern ermöglichen. Energie kann an der Schnittstelle von smarten Transitsystemen oder architektonischen Oberflächen mit mobilen Überwachungsgeräten gespart werden. Urbane Räume können auf diese Weise leicht neu konfiguriert oder angepasst werden, um ein vernetztes Arbeiten an jedem Ort und zu jeder Zeit ebenso zu ermöglichen wie die »Intensivierung der urbanen Flächennutzung«51. Aktiviert werden diese Praktiken in den Programmen, die in urbane Umgebungen und mobile Geräte eingebettet sind. Digital optimierte Infrastrukturen und entsprechend angepasste Bürger werden als korrespondierende Knoten angesehen, wobei Technologien und Strategien für eine umweltschonende Effizienz sich mit der Bürgerbeteiligung überlappen – und entsprechend »verändertem menschlichem Verhalten«52 . Weitere Designszenarien befassen sich mit dem Verkehr in Seoul und Ideen für nicht orts- und zeitgebundene Arbeitsplätze in Hamburg sowie mit dem Koordinieren des öffentlichen Transitverkehrs in San Francisco und dem Einsatz mobiler Plattformen für eine durchorganisierte tägliche Gesundheitsüberwachung. Interessant ist an dieser Stelle vor allem ein Szenario, das in einer ungenannten nordamerikanischen Stadt angesiedelt ist. Darin geht es um die »Übernahme persönlicher Verantwortung« in der Erzählung von einem Liebeswettstreit zwischen den Freunden Tom und Joe um die Aufmerksamkeit der umweltbewussten Joan.53 Dieses Szenario veranschaulicht, wie sich »die größte Variable von Nachhaltigkeit«, nämlich »menschliches Ver50 | Connected Urban Development: www.connectedurbandevelopment.org/, vom 11. Juli 2015. 51 | Ebd. 52 | Ebd. 53 | W. J. Mitchell/F. Casalegno: Connected Sustainable Cities, S. 89 f f.
333
334
Jennifer Gabr ys
halten«, durch Informations- und Kommunikationstechnologien überwachen und effektiv verbessern lässt. Die beiden konkurrierenden jungen Männer stellen Statistiken ihre täglichen Fahrten mit dem Bus ins Netz, um zu beweisen, wer die bessere CO₂-Bilanz hat. Zu Hause installieren sie ein Überwachungssystem für den optimalen Strom- und Wasserverbrauch. Im Szenario heißt es dazu: Überwachen, überwachen, überwachen […] die beiden Männer tun fast nichts anderes mehr. Sie meinen, nur dann Joans Herz gewinnen zu können, wenn sie ihr beweisen, dass sie die richtigen Entscheidungen treffen, und das heißt, dass sie jede Menge klarer Informationen benötigen, die beweiskräftig sind. 54
Verhalten überwachen und Daten erzeugen – das ist an dieser Stelle die Basis für vernünftige Entscheidungen, um nachhaltige Alltagspraktiken zu verbessern. Programme für eine optimierte Responsiveness sind wichtig für das Design nachhaltiger Praktiken, wie sie in diesem Entwurf auftauchen. Damit diese Pläne funktionieren, müssen die Bewohner der Stadt ihre angestammten Rollen spielen, indem sie öffentliche Verkehrssysteme nutzen oder durch ihre ständige Bewegung in urbanen Environments Energie erzeugen. Umweltbewusste Stadtbürger sind verantwortlich dafür, »informierte, verantwortungsbewusste Entscheidungen« zu treffen.55 Diese Entwürfe skizzieren ausführlich das Repertoire von Handlungen und Reflexionen, die die smarte Stadt ermöglichen werde, in der das Citizen Sensing ein Ausdruck produktiver Infrastrukturen sein wird. Mitchell und Castalegno betonen die Vorteile von informierter Teilhabe an urbanen Prozessen, die durch partizipatorische Medien und Ubiquitous Computing ermöglicht werde – Technologien, so argumentieren sie, die zu einem erhöhten Verantwortungsbewusstsein führen werden.56 Was urbane Bürgerschaft heißt, werde durch diese Technologien des Umgebens verändert. Sie mobilisieren die Bewohner als Agenten der Verarbeitung kollektiver Umgebungsdaten; Aktivitäten der Bewohner werden dabei zu Erweiterungen und Ausdrucksformen informationalisierter und effizienter materiell-politischer Praktiken. Bewohner, die ihre eigenen Konsummuster wie lokale Umgebungsprozesse erfassen und verfolgen, stehen eine Reihe Bürgern angemessene Aktionen zu Gebote, ermöglicht durch Umgebungstechnologien, die es ihnen gestatten, elementarer Bestandteil der smarten Stadt zu sein. Die Balance von smarten Systemen mit dem Engagement der Bürger wird üblicherweise dann thematisiert, wenn man mit den Herausforderungen von 54 | Ebd., S. 91. 55 | Ebd., S. 2. 56 | Ebd., S. 101.
Programmieren von Umgebungen
Überwachung und Kontrolle smarter Städte konfrontiert ist. Wie der zuvor zitierte, von der Rockefeller-Stiftung finanzierte Report darlegt, mögen globale Technologiekonzerne wie IBM und Cisco ganz andere Ziele haben als »bürgerliche Hacktivisten«. Dennoch haben diese beiden Konzerne durchaus gefestigte Interessen, an entstehenden Plänen für smarte Städte mitzuwirken.57 Digitale Technologien erscheinen als Instrumente der Befreiung, die es Bürgern gestatten, sich in immer mehr demokratischen Aktionen zu engagieren – und dennoch suggerieren das Überwachen und Erfassen von Sensordaten zu nahezu jedem Aspekt urbanen Lebens durch Geräte, die von globalen Technologiekonzernen vertrieben werden, eine neue Dimension der Kontrolle. Aber könnte es nicht sein, dass diese offenkundige Dichotomie zwischen Citizen Sensing und smarter Stadt weniger eindeutig ist als es den Anschein hat? In vielerlei Hinsicht ließen sich die partizipatorischen Medien, mit denen wir heute umgehen, bereits als Instrumente eines auf unterschiedliche Weise eingeschränkten politischen Engagements verstehen,58 während smarte urbane Infrastrukturen in den vorgelegten totalisierenden Visionen nie ganz (wenn überhaupt) greif bar werden. Der »Sensing Citizen«, also der Daten erfassende und sammelnde Bürger, könnte als eine Manifestation des idealen Modus von Bürgerbeteiligung verstanden werden und nicht als jemand, der sich dagegen wehrt, ihr Agent zu sein. Sensing Citizens sind eine notwendige Voraussetzung von smarten Städten – vor allem dort, wo die Smartness der Städte von vornherein vorausgesetzt wird. Stumpfsinnige Bürger in smarten Städten wären eine totalitäre Überzeichnung, da sie als der Überwachung unterworfene Wesen nicht am Informationsfluss beteiligt wären. Die smarte Stadt wirft weitere Fragen über die Politik der urbanen Exklusion auf, also darüber, wer in der Lage ist, ein partizipierender Bürger in einer Stadt zu sein, die durch den Zugang zu digitalen Geräten in Gang gehalten wird. Doch die partizipatorische Handlungsbereitschaft, die in Entwürfen smarter Städte eingebettet ist, beruft sich nicht auf ein individuelles menschliches Subjekt. Bürgerschaft wird stattdessen durch Operationen in Environments artikuliert. Die Pläne des CSC-Projekts enthalten die Möglichkeit, dass angesichts eines möglichen Versagens oder einer Einschränkung menschlicher Responsiveness – etwa eines mangelnden Interesses, sich an der smarten Stadt zu beteiligen – das System eigenständig operieren kann. Aufgrund des möglichen Mangels an »menschlicher Aufmerksamkeit und kognitiver Fähigkeit« ebenso wie aufgrund des Wunsches, »Menschen nicht damit zu belasten, ständig daran zu denken, die Systeme zu kontrollieren, die sie umgeben«, könne es, so die Projektautoren, wichtig 57 | Vgl. A. Townsend et al.: »A planet of civic laboratories«. 58 | Barney, D.: »Politics and emerging media: the revenge of publicity«, in: Global Media Journal 1 (2008), S. 89-106.
335
336
Jennifer Gabr ys
werden, eine »automatische Aktivierung« anzuwenden. Dies würde zu einem Selbstmanagement urbaner Systeme führen, sodass »Gebäude und Städte sich zu stationären Robotern entwickeln werden«59. Ihre Bewohner könnte man als Figuren verstehen, die durch die Environmentalität ihrer Technologien organisiert werden. Doch das Programm der smarten Stadt ist in der Lage, unabhängig zu operieren, indem es Umgebungen erfasst, sie aktiviert und bis zu dem Punkt in sie eingreift, an dem diese Technologien sich über die Bewohner hinwegsetzen, wenn sie nicht gemäß den vorgegebenen Spielregeln mitwirken. Prozesse, die in den Entwürfen smarter Städte urbane Umgebungen regulieren, erfordern eine solche innere Unterwerfung nicht, da Regierungsmacht in Umgebungen verteilt ist, die wiederum automatische Regulierungsmodi als Standardeinstellung aufweisen. Hier handelt es sich um eine Version von Biopolitik 2.0, weil es beim Überwachen von Verhalten weniger um Herrschaft über Individuen oder Populationen geht, sondern um die Einführung von Umgebungsbedingungen, unter denen an die Umgebung angepasste (und korrekte) Verhaltensmodi entstehen können. Environmentalität erfordert nicht die Erschaffung der von Foucault beschriebenen normativen Subjekte, da die Bewohner von Environments nicht als eigenständige Gestalten beherrscht werden müssen; vielmehr ist Environmentalität eine Erweiterung der Handlungen und Kräfte des Automatismus und der Responsiveness, die in Umgebungen eingebettet sind und durch sie ausgeübt werden. Eine solche Situation ließe sich mit Deleuzes Begriff »dividuell« umschreiben. Er bezeichnet die fließende Einheit, die im Zeitalter des »Computers« entstehe.60 Für Deleuze existiert die Automatisierung gleichzeitig mit einem de-individualisierenden Set von Prozessen, die durch Muster der Responsivenes charakterisiert sind. Sie basieren weniger auf individuellem Engagement, sondern eher auf der korrekten kybernetischen Vernetzung. Demgegenüber würde ich allerdings behaupten, dass Pläne für smarte Städte nicht so sehr die absolute Eliminierung von Individuen implizieren, da der »Bürger« ein wichtiger Operator in diesen Räumen ist. Vielmehr betätigt sich dieser durch Prozesse, die Ambividuen generieren könnten: umgebungsbezogene und geschmeidige urbane Operatoren, die Ausdrucksformen der Anpassung an computerisierte Environments sind. Da das Ambividuum kein kognitives Subjekt ist, artikuliert es die Verteilung von Handlungsknoten in der smarten Stadt. Ambividuen werden nicht auf eine singularisierende Weise demarkiert oder getilgt, sondern sind kontingent und empfänglich für fluktuierende Ereignisse, die mittels Praktiken der Informationsverarbeitung gemanagt werden. Dies entspricht Foucaults Hinweis, ein Merkmal der umgebungsbezogenen Technologien sei die »Errichtung eines ziemlich lockeren 59 | W. J. Mitchell/F. Casalegno: Connected Sustainable Cities, S. 98. 60 | G. Deleuze: Unterhandlungen, S. 261.
Programmieren von Umgebungen
Rahmens um das Individuum herum, damit es überhaupt spielen kann«61. Ich möchte aber darauf hinweisen, dass sich das- oder derjenige, das oder der als Ambividuum zählt, nicht auf einen menschlichen Akteur in der smarten Stadt beschränkt, da die Möglichkeiten von Aktionen und Reaktionen quer durch die Handlungsräume zwischen Menschen und Maschinen sowie zwischen Maschinen und Maschinen eröffnen.
C itizen S ensing und S ensing C itizens Ein weiteres Thema, das im Rahmen von smarten Städten und Citizen Sensing auftaucht, ist das Ausmaß, in dem »environmental monitoring« zu handlungsleitenden Daten führt. In den Entwürfen smarter Städte sollen Infrastrukturen als selbstregulierende Environments operieren, doch die Überwachungstechnologien, die in diesen Systemen für Effizienz sorgen sollen, sind offenbar kaum in der Lage, die Bewohner zu effizienterem Handeln anzuleiten. In einem CSC-Szenario, das verschiedene Arten von environmentaler urbaner Bürgerschaft zeigen soll, die in der grünen und digitalen Stadt möglich seien, wird vorgeschlagen, dass den Bewohnern von Curitiba verbesserte und synchronisierte Möglichkeiten des Massentransitverkehrs zur Verfügung stehen könnten, wenn sie an den Verkehrsknoten die Luftverschmutzung überwachen und melden. Solche Auswertungen durch Bewohner und ihr Engagement für die Gemeinschaft werden durch die Konnektivität von Informationstechnologien verstärkt. Dank dieser Überwachungs- und Auswertungsmöglichkeiten soll die erhöhte Informationsdichte und Konnektivität positive Veränderungen nach sich ziehen: Man sammle die Luftverschmutzungsdaten, melde sie der zuständigen Behörde, und »environmental justice« werde realisiert. Diesen Aktivitäten wird universelle Geltung zugesprochen, insofern alle Bewohner sich veranlasst fühlen mögen, die Luftverschmutzung zu kontrollieren, die Daten zu sammeln und sie der zuständigen Behörde zu melden. Die ambividuellen Handlungen, die in diesen Prozessen »codiert« sind, setzen kein bestimmtes Subjekt voraus, da auch ein vollautomatischer Sensor eine derartige Funktion übernehmen kann. Diese Programme der Responsiveness ermöglichen vielmehr eine in alle Richtungen kompatible Prozessierung von MenschMaschine- oder Maschine-Maschine-Datenoperationen. Einen ähnlichen Verlauf stellt man sich typischerweise für selbstregulierende Bürgeraktivitäten vor: Informationen über den Energieverbrauch werden sichtbar gemacht, Korrekturmaßnahmen eingeleitet und das Gleichgewicht des kybernetischen Informationssystems wiederhergestellt. In diesen Szenarien überwachen Technologien Bewohner in ihren Environments, während 61 | M. Foucault: Die Geburt der Biopolitik, S. 361.
337
338
Jennifer Gabr ys
Bewohner ihre Environments auch selbst überwachen. Mit Umgebungsdaten ausgerüstete Bewohner werden als zentrale demokratische Operatoren in diesen Umgebungen verstanden. Doch die der Kybernetik immanente Herrschaft lässt sich vielleicht nicht fugenlos in die Herrschaft über das Environment umsetzen.62 So kann es durchaus möglich sein, dass gerade die Responsiveness, die es den Bewohnern ermöglicht, Daten zu sammeln, nicht so weit geht, dass sie in der Lage sind, sinnvoll auf der Basis der gesammelten Daten zu handeln, denn das hieße ja, das urbane »System« zu verändern, in dem sie zu leistungsfähigen Operatoren geworden sind. Gleichermaßen führen dominante, wenn auch problematische Narrative über die Nachhaltigkeit anhaltenden Wachstums, wie verbesserte Effizienz und laufende Überwachung, typischerweise nicht zu einer umfassenden Verringerung des Verbrauchs von Ressourcen oder einer Abfallvermeidung (der aus der Energiediskussion bekannte »Rebound-Effekt«). Strategien der Überwachung und der Effizienz könnten somit verstanden werden als biopolitische Ko-Optierung von Stadtbewohnern und ihren Environments, während die Modi neoliberaler Macht nicht hinterfragt werden müssen, da die Orientierung am Ziel der Nachhaltigkeit als wertvolle Betätigung der Bewohner angesehen wird. Foucault interessierte sich in seinen Vorlesungen über Biopolitik auch für die Frage, wie die Verfahren des Neoliberalismus sich auf die Regierung und auf die regierten Subjekte auswirken, durch welche die ökonomische Logik der Effizienz die einstigen sozialen oder nichtökonomischen Modalitäten ablöst.63 Environmentalität bezeichnet die Verteilung von Regierungsmacht in Umgebungen ebenso wie die Aufwertung von Gouvernementalität durch eine Marktlogik, die Effizienz und Produktivität als Leitprinzipien für urbane Lebensweisen anvisiert. Das Individuum wird »gouvernementalisierbar«, sodass es als Homo oeconomicus operiert,64 wobei sich in den hier vorgestellten Beispielen Regierung und Verwaltung als umgebungsbezogene Verteilungen möglicher Reaktionen entfalten, die den Kriterien von Effizienz und maximaler Nützlichkeit gehorchen. Die Verwandlung von Bewohnern in Daten sammelnde Netzwerkknoten beschränkt die Komplexität bürgerlichen Handelns potenziell auf relativ reduzierte, wenn überhaupt noch durchführbare Handlungsmöglichkeiten. Partizipation in der smarten und nachhaltigen Stadt wird damit instrumentalisiert, und zwar in Bezug auf eine Verbesserung des Environments sowohl durch Effizienz wie durch Endgeräte, die Informationen sammeln und verarbeiten. Doch die informationelle und auf Effizienz basierende Methode der 62 | Vgl. Wiener, Norbert: Kybernetik. Regelung und Nachrichtenübertragung in Lebewesen und Maschine, Reinbek: Rowohlt 1968 63 | Vgl. M. Foucault: Die Geburt der Biopolitik, S. 342 f. 64 | Vgl. ebd., S. 349.
Programmieren von Umgebungen
Überwachung von Umgebungen wirft mehr Fragen darüber auf, was effektives Handeln in Environments ausmacht, als dass sie sie beantwortet. Damit eine solche Instrumentalisierung stattfinden kann, müssen urbane Prozesse und Partizipationen, die auf verschiedene Weise auf Nachhaltigkeit abzielen, so programmiert werden, dass sie für eine (computergestützte) Politik zugänglich sind, die diese Herausforderungen zu bearbeiten vermag. Die Modi des Sensing als Überwachung und Responsiveness, wie sie in vielen auf Sensoren und Smartness fokussierten Entwürfen dargestellt werden, werfen die Frage auf, ob ein Bewohner nicht mehr sein könnte als eine Einheit, die innerhalb von Parametern akzeptabler Responsiveness agieren muss.
A bschliessende Ü berlegungen – V on N e t z werken zu R el ais , von P rogr ammen zu L ebensweisen Die hier erörterte Vision der smarten und nachhaltigen Stadt stellt sich als eine technische Lösung von politischen und umgebungsbezogenen Problemen dar – eine Vorgehensweise, die als charakteristisch für viele Projekte smarter Städte verstanden werden kann. Während die Entwürfe des CSC- und CUDProjekts als Design- und Planungsdokumente auf der konzeptuellen Ebene entwickelt werden, sind viele der hier gestellten Fragen der Bürgerüberwachung, der politischen Partizipation und der Organisation des urbanen Lebens relevant für eine allgemeine Betrachtung der zahlreichen Vorhaben, die inzwischen auf diesen Gebieten umgesetzt werden, und zwar sowohl auf der Ebene von kommunalem Engagement als auch auf der Ebene von Stadtplanung und Stadtentwicklungspartnerschaften.65 Wie ich dargelegt habe, operieren Entwürfe für nachhaltige smarte Städte mit neuen Modi der Environmentalität ebenso wie mit biopolitischen Konfigurationen von Regierungsmacht, durch die neuartige digitale Dispositive entstehen. Nachdem sich Foucault bereits mit der historischen Spezifizität dieser Konzepte und den Ereignissen, auf die sie sich beziehen, befasst hat, ist es an der Zeit, diese Konzepte im Kontext neu entstehender Pläne für smarte Städte zu durchdenken und zu revidieren. Environmentalität, Biopolitik 2.0 und digitale politische Technologien sind Ausdruck der Neuaushandlung von Regierungsmacht und der Operationen, mit denen Bürger mittels programmierter Umgebungen und Technologien geformt werden. In smarten Städten entsteht eine Biopolitik 2.0, die das Programmieren von Environments und ihren Be65 | Vgl. Europäische Kommission: »Report of the meeting of advisory group. ICT infrastructure for energy-efficient buildings and neighborhoods for carbon-neutral Cities«, http://ec.europa.eu/information_society/activities/sustainable_growth/docs/smartcities/smart-citiesadv-group_report.pdf, vom 11. Juli 2015.
339
340
Jennifer Gabr ys
wohnern erfordert, um sie zu Responsiveness und Effizienz zu erziehen. Ein solches Programmieren erzeugt politische Techniken zur Beherrschung alltäglicher Lebensweisen, wobei sich urbane Prozesse, bürgerliches Engagement und Governance durch die raum-zeitlichen Netzwerke von Sensoren, Algorithmen, Datenbanken und mobilen Plattformen entfalten. Sie konstituieren die Environments smarter Städte. Die Environmentalität, die durch Entwürfe urbaner Nachhaltigkeit im CSC-Projekt und in vielen ähnlichen Ansätzen entsteht, erfordert das Überwachen, Ökonomisieren und Produzieren einer Vision des digitalisierten ökonomischen Wachstums. Solche smarten Städte ermöglichen Lebensweisen, die auf Ziele der Nachhaltigkeit hin orchestriert werden, welche wiederum durch Produktivität und Effizienz charakterisiert sind. Die Daten, die sich durch diese Praktiken sammeln lassen, stammen aus der Überwachung von Umgebungen. Zugleich erlauben diese Daten umgebungsbezogene Modi von Governance, die nicht ausschließlich in der Jurisdiktion »öffentlicher« Behörden lokalisiert sind, sondern sich auch auf Technologiekonzerne erstrecken können, die urbane Daten besitzen, managen und nutzen. Von Google Transit bis zu Cisco TelePresence, HP Halo und Toshiba Femininity fungieren eine Reihe von umgebungsbezogenen Sensor- und Partizipationstechnologien im CSC-Projekt und in anderen Szenarien smarter Städte als Instrumente neoliberaler Governance, die auf staatliche wie nichtstaatliche Akteure angewandt werden. Ich habe betont, dass sich Foucaults Interesse an Environmentalität im Kontext smarter Städte weiterdenken lässt, um zu erfassen, wie Verteilungen von Macht innerhalb von und durch Environments und ihre Technologien festlegen, wie Bewohner und Bürgerpflichten organisiert werden – anstatt individuelle Subjektivitäten zu prägen. Die »environmentalen« Aspekte der smarten und nachhaltigen Stadt sind nicht abhängig von der Produktion einer umweltbewussten oder ökologischen reflexiven Subjektivität. Die Leistung smarter Urbanität wird nicht durch die Eröffnung neuer Partizipationsmöglichkeiten für demokratisch engagierte Bürger erbracht, sondern vielmehr durch das Begrenzen der Praktiken, die Bürgerschaft konstituieren. Die »Spielregeln« der smarten Stadt artikulieren keine Transformationen, Öffnungen oder Kritiken urbaner Lebensweisen. Vielmehr werden Praktiken effizient gemacht, rationalisiert und auf eine Verbesserung bestehender ökonomischer Prozesse hin ausgerichtet. Und dennoch ließe sich im Rahmen dieses Umgangs mit Environmentalität durch smarte Städte das, was wir als die Regeln oder das Programm der smarten Stadt interpretieren können, weniger als ein deterministisches Codieren von Städten und mehr als etwas verstehen, das sich ungleichmäßig in Praktiken und Ereignissen materialisiert. Während die Designentwürfe ein unbehaglich überzeugendes Argument für das Programm der smarten Stadt
Programmieren von Umgebungen
liefern, entstehen durch die Zirkulation und Implementierung dieses Programms unweigerlich sehr unterschiedliche smarte Städte. Doch um Foucaults Vorstellung von Environmentalität noch zu verfeinern, schlage ich vor, das Konzept der »Spielregeln« im Kontext smarter Städte neu zu fassen, nämlich weniger als Regeln, sondern mehr als Programme – hier der Responsiveness –, die auf besondere Art und Weise Grenzen setzen und Möglichkeiten eröffnen, die sich aber auch auf unerwartete Weise entfalten, materialisieren oder versagen. Wenn urbane Programme nicht isoliert sind, sondern sich ständig in Wandlung befinden, dann könnte ein neues Verständnis von Environmentalität auch die Art und Weise betreffen, wie Programme nicht nach Plan verlaufen. Umwege und Übergangslösungen könnten auf der Hand liegen. Ein derartiges Herangehen ist nicht so sehr ein simples Wiedergewinnen menschlichen Widerstands als ein Hinweis darauf, dass diese Programme nicht starr fixiert sind und dass sie in ihrem Entfalten und Operieren unweigerlich neue Praktiken urbaner, environmentaler Bürgerschaft und Lebensweisen aufkommen lassen, wie sie in allen menschlichen und mehr als menschlichen urbanen Verwicklungen entstehen. Dieser Umgang mit Lebensweisen ist wichtig, wenn man die smarte Stadt nicht schlicht denunzieren, sondern vielmehr vorschlagen möchte, sich mit bestimmten umgebungsbezogenen Modalitäten des Bewohnens – und Möglichkeiten für urbane Kollektive – zu befassen. Subjektivierung, die Deleuze als einen Schlüsselbegriff in Foucaults Werk ausmacht, befasst sich letztlich nicht mit der Produktion starrer Subjekte, sondern vielmehr mit der Möglichkeit, Lebensweisen zu ermitteln, zu kritisieren und sogar zu erschaffen.66 Projekte smarter Städte erfordern eine Betrachtung – und eine Kritik – der Lebensweisen, die in diesen Plänen und Entwicklungen hervorgebracht und aufrechterhalten werden. Kritik, wie sie in einem Gespräch zwischen Deleuze und Foucault gefasst wird, kann eine bedeutende Möglichkeit sein, mit politischen Engagements zu experimentieren und »Verbindungselemente« zwischen »Aktion der Theorie« und »Aktion der Praxis« zu bilden.67 Aus dieser Perspektive könnten die in den CSC-Szenarien vorgeschlagenen Lebensweisen als Provokation dazu dienen, zu bedenken, wie sich mit urbanen Vorstellungswelten und Praktiken experimentieren ließe, um nicht auf diese Weise beherrscht zu werden. Wenn wir Biopolitik 2.0 als ein Konzept verstehen, das Lebensweisen bedenkt, die in smarten Städten generiert und gestützt werden, und wenn dieser digitale Apparat in Umgebungen operiert, welche neuen Verbindungselemente für Theorie und Praxis könnten dann in unseren zunehmend computergestützten Stadtplanungen entstehen?
66 | G. Deleuze: Unterhandlungen, S. 147-171. 67 | M. Foucault: Schriften in vier Bänden, Bd. II, S. 383.
341
342
Jennifer Gabr ys
D ank Eine Fassung dieses Textes wurde zuerst 2011 auf der Sitzung »The Green Apparatus« der American Association of Geographers in Seattle vorgetragen. Mein Dank gilt Bruce Braun und Stephanie Wakefield für die Organisation dieser Sitzung und die anschließend veröffentlichte Aufsatzsammlung zum Thema. Ich danke auch Natalie Oswin für ihren redaktionellen Rat bei der Gestaltung dieses Aufsatzes. Fassungen davon wurden auch im Seminar »Platform Politics« an der Anglia Ruskin University (2011), im Digital Media Research Seminar an der University of Western Sydney (2012), auf dem Symposion »Media Places: Infrastructure, Space, Media« des HUMlab der Universität Umeå (2012) und im Seminar »Speculative Urbanisms« des Urban Salon am University College London (2013) vorgetragen. Danken möchte ich auch dem Förderungsprogramm des European Research Council Starting Grant für das Projekt »Citizen Sensing and Environmental Practice«, das die Fertigstellung dieses Aufsatzes ermöglicht hat.
Übersetzt von Michael Schmidt, überarbeitet von Christoph Engemann und Florian Sprenger Reproduced by permission of SAGE Publications Ltd., London, Los Angeles, New Delhi, Singapore and Washington DC, from: Jennifer Gabrys, »Programming environments. Environmentality and citizen sensing in the smart city«, in: Environment and Planning D: Society and Space 32 (2014), S. 30-48; www.sagepub.co.uk
Eine geteilte Stadt Affekt, Technologie und Visuelle Kultur in London 2012 Jussi Parikka
1. W ir machen die S piele Da ist die Stadt, und da ist noch mal die Stadt. Die Politik des Urbanen ist nicht nur eine Herausforderung der bewussten Entscheidungsfindung, sondern sie hängt auch mit einer fundamentalen Ebene von Wahrnehmung und Empfindung zusammen. Was betrachten wir als das Unsrige? Was teilen wir? Was konstituiert die gemeinschaftliche Wahrnehmung aller Individuen, der Bewohner einer Stadt? Der Anspruch einer Politik des Urbanen liegt in dem, was Jacques Rancière als eine Politik der Ästhetik1 versteht: einerseits einer Aufteilung des Gemeinschaftlichen [common] als Sinnlichem und andererseits den Bedingungen der Partizipation. Der einleitende Satz dieses Aufsatzes ist eine Zeile aus China Miévilles Roman Die Stadt & die Stadt von 2009, einer unheimlichen Geschichte über die Zwillingsstädte Beszél und UI Qoma, die im physikalischen Raum nahezu identisch sind, doch als zwei verschiedene Städte wahrgenommen werden.2 Die Zugehörigkeit zu einer dieser Städte besteht unter anderem in der Möglichkeit, die andere Stadt und das, was in ihr vorgeht, nicht zu sehen – auf der Ebene der Wahrnehmung wird in komplexer, unterschwelliger Weise verhandelt, was man sehen und was man nicht sehen darf. Diese Verhandlung erzeugt eine Spannung zwischen dem Gemeinsamen und dem Nicht-Gemeinsamen. Miéville gelingt es so zu veranschaulichen, wie fein der Raum und das Gemeinschaftliche in Bezug auf die Körper reguliert sind, die diese Räume bewohnen, sinnlich erfahren und somit stiften. Aber die Bereitstellung der räumlichen Gemeingüter (spatial commons) wie des Nicht-Gemeinsamen, der Wahrnehmungen und des zeitweise un1 | Rancière, Jacques: Die Aufteilung des Sinnlichen. Die Politik der Kunst und ihre Paradoxien, Berlin: b-books 2006. 2 | Miéville, China: Die Stadt & die Stadt, Köln: Bastei Lübbe 2010.
344
Jussi Parikka
vermeidbaren Nicht-Sehens ereignet sich in der Alltagsproduktion des gelebten Gemeinsamen und der entsprechenden Räume. Sie ereignet sich in den urbanen Verstrickungen des Abstrakten (wie etwa Software-Layern) und des Konkreten. Wenn wir uns mit einer solchen Produktion von Raum befassen, ist es wichtig zu verstehen, dass diese vielleicht in die Topologien der Wahrnehmung eingebettet sind. In Miévilles Roman ist der Akt der Bewegung von einem Raum in die andere Stadt ein physischer Akt im doppelten Sinne: Neben dem physischen Akt, der sich geografisch kartieren ließe, erfordert er auch eine Veränderung von Topologie und Wahrnehmung und kann somit geografisch oder »gesamttopisch« [grosstopical] bezeichnet werden. Tatsächlich besteht eine große Nähe zwischen Vilém Flussers Aufforderung, Städte nicht nur geografisch, sondern topografisch anzugehen,3 um die Gravitationskraft ihrer Krümmung zu begreifen, und dem Aufruf der Situationisten zu folgen, diejenigen Kräfte der Subjekte zu untersuchen, aus denen sich die Stadt zusammensetzt. Aber vielleicht ist ein weiterer Schritt erforderlich. In diesem Text befasse ich mich mit dem Thema der Gemeingüter und des Gemeinsamen,4 der visuellen Produktion der urbanen Sphäre und den technologischen Zusammenhängen, die wie das Internet der Dinge die Infrastruktur einer idealtypischen, globalen, kreativen Tech-Stadt stiften sollen. Als primäres Beispiel dient hier London im Olympia-Jahr 2012. Flussers Gedanke erlaubt es, den distribuierten Modus von Subjektivität zu vergegenwärtigen, der heutzutage tatsächlich unseren Individuationsmodus in der Stadt charakterisiert, zumal wenn solche Prozesse durch diverse Hotspots und Vernetzungen von RFID-Welten verstärkt werden.5 Die Stadt wird produziert durch die zunehmend einander überlappenden Ökologien des Internets der Dinge und dessen Doubles: RFID (Radio Frequency Identification Tag) und NFC (Near Field Communications) ermöglichen mit ihren Versprechen von reibungslosen Zugangspunkten, finanziellem Mehrwert dank bargeldloser Bezahlvorgänge, Sicherheit und leicht analysierbaren Logistikketten etc. eine Kontrolllogistik von Raum und Zugang. Darüber hinaus bilden verschiedene Cloud-Lösungen das notwendige Double jedes globalen Ereignisses – sowohl als Testfall dafür, dass eine Plattform riesige Mengen von Downloads zu bewältigen vermag, wie auch als Kommunikationszugang zusätzlicher Wertschöpfung, wo urbane Ereignisse durch die zentralisierten Cloudknoten distribuiert werden. Olympiaden und andere Großevents sind kritische Ereignisse, die bei 3 | Flusser, Vilém: »The City as Wave Through in the Image Flood«, in: Critical Inquiry, 31/2 (2005), S. 320-328. 4 | [Parikka spielt mit der englischen Doppeldeutigkeit des Commons-Begriff der sowohl »Gemeinsames« als auch »Gemeingüter« bezeichnet – siehe unten Anm. C. E.] 5 | Hayles, Katherine N.: »Traumas of Code«, in: Arthur Kroker/Marilouise Kroker (Hg.), Critical Digital Studies. A Reader, Toronto: University of Toronto Press 2008, S. 25-44.
Eine geteilte Stadt
Erfolg auf Jahre hin die Privatisierung von Serviceinformationsinfrastrukturen auszulösen vermögen.6 Es sind diese Infrastrukturen, die Wahrnehmung produzieren, zugleich aber unzugänglich bleiben und keine Gemeingüter bilden. Sie erzeugen jedoch, was uns als das Gemeinschaftliche unserer Wahrnehmungswelt angeboten wird. So auch Miéville, der auf das passagenartige und die permanent prozesshafte Dimension des Sehens und Nicht-Sehens verweist, durch die wir sich ständig verändernde Muster konstituieren. Dabei ist nicht nur das Subjekt abstrakt und wandelbar, sondern auch die konkrete Stadtumgebung.7 Nun also von Die Stadt & die Stadt zu der realen Stadt: London 2012. Der Sommer dieses Jahres zeichnete sich nicht nur durch das aus, was sich in den neu erbauten Stadien in East London abspielte, die Teil einer Umgestaltung eines zuvor wirtschaftlich weniger bedeutenden Stadtteils waren. In diesem Sommer ereignete sich auch eine andere Art von Mobilisierung. Wie bei allen großen globalen Sportevents fanden eine ganze Reihe logistischer und administrativer Operationen statt. Eine dieser Operationen bestand darin, den gigantischen Umbau der Stadt mit glatten, lächelnden Gesichtern in Anzeigen von McDonald’s und anderen offiziellen Sponsoren zu begleiten – Kampagnen mit Wohlfühlwert, eingebettet in die Logik transnationaler Konzerne. Von ähnlichem touristischem und ökonomischem Markenwert wie die stark beworbene East London Tech City – dem Traum der Stadtverwaltung von einem Silicon Valley im Londoner Bezirk Shoreditch –, zeigen diese Kampagnen Großbritannien in einer Kontinuität des Übergangs von der früheren politischen Schwerpunktsetzung auf Kreativindustrien hin zu einem Reformprogramm der Digital Economy. »We make the games«, verkündete McDonald’s auf Plakaten in der City von London wie auf zahlreichen Bildschirmen, von Fernsehern bis zu Mobiltelefonen. In der ganzen Stadt machte sich der Markenslogan auf öffentlichen Plakatwänden, in U-Bahnhöfen und an geeigneten Stellen mit maximaler Sichtbarkeit für die Passanten breit. Der offizielle Hauptsponsor der Spiele versuchte, ein gemeinsames Gefühl zu stiften, einen vorgegebenen unternehmerischen Affektwert als geteilte Sensibilität im öffentlichen urbanen Raum. Analog zur Cloud versuchte die Kampagne, mit ihrer visuellen Markenstrategie »positive Affektströme« durch ihr zentralisiertes System zu garantieren und zugleich teilweise zu produzieren. Und genau diese Spannung ist hinsichtlich der gegenwärtigen Politik des Urbanen so interessant: auf der einen Seite der idealisierte Teil des Gemeinsamen und der Gemeingüter, die in die 6 | Siehe Roethig, Benjamin J.: »SOASTA Global Test Platform Awarded 10-Year Contract for the Olympic Games«, Geekbeat.tv, http://geekbeat.tv/soasta-awarded-10contract-for-cloud-testing-the-olympics/, vom 12. Februar 2014. 7 | Siehe auch V. Flusser, The City as Wave.
345
346
Jussi Parikka
Begriffe der politischen Debatten der letzten Jahre verkleidet wurden, und auf der anderen Seite deren Approbation und Reduktion hin zu einem flüchtigen, emotionalen Gemeinsamen in den verschiedenen Techniken und Diskursen des affektiven und kognitiven Kapitalismus im Zeitalter der Soziabilität. Mithin eine massive Mobilisierung eines Wir-Seins als einer unerschöpflichen Ressource menschlichen Wohlergehens, der Kreativität und der Inspiration, die von den Kreativindustrien über große Sportereignisse bis ins alltägliche Leben reicht und nicht zuletzt den Technikdiskurs umfasst. Genauso gut können wir jedoch wie der Theoretiker und Blogger K-Punk8 von der »autoritären Abriegelung und Militarisierung der Stadt« sprechen, die ebenfalls eine Rolle bei der Erzeugung des Wohlfühlgeistes der Spiele spielte, wobei »jedes Unbehagen über London 2012 als ›Nörgelei‹ oder ›Zynismus‹ denunziert wird«. Mit Sicherheit erweist sich diese Produktion von Stimmungen als flächendeckend – sie reicht von Medienberichten bis zu den erwähnten öffentlichen Räumen, von BBC-Kommentatoren und ihrem überstrapazierten Gebrauch von Worten wie »unglaublich«, »unvorstellbar«, »fantastisch«, »genial«9 bis hin zu einem affektiven Management des öffentlichen Raums als emotionalem Raum. Sie wird durch straff organisierte Sicherheitsregime unterstützt. Vor den Spielen und während der ersten Tage kursierten in einigen Medien Berichte über »Markenüberwachung«. Die Nutzung des öffentlichen Raums durch die Sponsoren – ebenso wie die privilegierte Verwendung einer Reihe von Symbolen und Worten wie »Gold«, »Silber«, »Bronze«, »Sommer« – wurde durch die Funktionäre des olympischen Komitees geschützt. Doch eine solche Kontrolle konzentrierte sich nicht nur auf unsachgemäße Verwendung, sondern noch sorgfältiger auf »Assoziationen«: Niemand außer den offiziellen Sponsoren (Adidas, McDonald’s, Coca-Cola, BP, EDF und Lloyds TSB) durfte den Vorteil einer Verbindung mit der olympischen Stimmung nutzen. Diese Durchsetzung eines spezifischen Markenschutzes wurde durch Sonderverfügungen legalisiert und auf eine Reihe von Alltagsprozessen und -aktivitäten der Stadt ausgeweitet. So berichtete The Independent, eine von vielen Zeitungen, die sich mit dem Problem befassten, dass nicht nur die visuellen, sondern auch ausgesprochen körperlichen Prozesse urbanen Lebens in London durch Vorschriften zu Essen und Trinken eingeschränkt wurden: Kneipenwirten ist angeraten worden, dass auf Schwarzen Brettern, die für eine TVLiveübertragung werben, nicht ohne eine Vereinbarung mit dem IOC auf Biermarken oder Brauereien hingewiesen werden darf. Zugleich wurde Caterern und Gastronomen 8 | Fisher, Mark: »The London Hunger Games«, K-Punk Blog, gepostet am 08. August 2012, http://kpunk.abstractdynamics.org/archives/011918.html, vom 11. Juli 2015. 9 | Marqusee, Mike: »At the Olympics: Hype vs. Reality«, Blog, gepostet am 04. August 2012, www.mikemarqusee.com/?p=1296, vom 11. Juli 2015.
Eine geteilte Stadt erklärt, sie dürften nicht für Gerichte werben, denen eine Verbindung mit dem Event unterstellt werden könnte. An den 40 olympischen Austragungsorten ist es 800 Kleinhändlern verboten worden, Chips anzubieten, um eine Verletzung der Fast-Food-Rechte zu vermeiden, die sich McDonald’s gesichert hat.10
Die Unterlassung visueller Markenwerbung wurde auf diese Weise auch auf eine ganze Reihe anderer banaler Alltagsprozesse ausgedehnt, wie sie in London und überall auf der Welt üblich sind. In diesem Sinn war die Markenkontrolle nicht bloß eine passive Beobachtung des sichtbaren Raums, sondern sie verwies auch nachdrücklich darauf, dass große Sportveranstaltungen und andere globale Events und Gipfeltreffen stets aktive Eingriffe in die Infrastruktur und auch in die Gewohnheiten sind, welche die urbane Dynamik einer Großstadt wie London ausmachen.11 Außerdem waren die Spiele der erste wichtige Testfall für das neue Intel Collaborative Research Institute for Sustainable & Connected Cities zur Untersuchung smarter Städte, das in Zusammenarbeit mit dem Imperial College und dem University College London eingerichtet wurde.12 Derartige Veranstaltungen sind urbane Laboratorien für verschiedene Tests, vom Internet der Dinge und smarten Lösungen fürs Alltagsleben bis hin zu Sicherheits- und Überwachungstechnologien. Kein Wunder, dass dieses Intel-Labor, das sich für die Implementierung des Internets der Dinge interessiert, ein großes Interesse an den Spielen hatte. Die Zusammenarbeit von Universität und Privatwirtschaft erweist sich geradezu als ideal, wenn es darum geht, nach Anwendungsmöglichkeiten für eine »Optimierung« des Lebens dort zu suchen, wo Ereignisse wie die Olympischen Spiele urbane Dynamiken durch Datensammlungen zu analysieren erlauben. Das Institut geht seiner Selbstbeschreibung zufolge der Frage nach, wie sich: die verborgenen oder vergessenen Ressourcen urbaner Umgebungen ausfindig machen, einsetzen und fördern lassen. Und wie können wir die Zunahme an Mensch-ComputerInteraktionen dafür nutzen, Menschen zu helfen, in ihrem Alltag informierte Entscheidungen zu treffen? Intels Kapazitäten, auf einem Fundament von gemeinschaftlicher Architektur aufzubauen und End-to-End-Lösungen zu liefern, die notwendig sind, um
10 | Hickman, M.: »Britain flooded with ›brand police‹ to protect sponsors«, in: The Independent, 16. Juli 2012. 11 | Siehe auch Renzi, Alessandra/Elmer, Greg: Infrastructure Critical. Sacrifice at Toronto’s G8/G20 Summit, Winnipeg: Arbeiter Ring Publishing 2012 und Lash, Scott/Lury, Celia: Global Culture Industry: The Mediation of Things, Cambridge: Polity Press 2007. 12 | Wakefield, Jane: »Intel to use London as a smart city lab«, in: BBC News, 24. Mai 2012. www.bbc.com/news/technology-18189986, vom 11. Juli 2015.
347
348
Jussi Parikka Daten zu visualisieren, zu teilen, zu analysieren und anzuwenden, kann die Art von Innovation fördern, die wir brauchen, um diese Fragen anzugehen.13
Eine Analyse der Gemeingüter und des Gemeinsamen – des urbanen Lebens – liefert in dieser Hinsicht informationell optimierte Lösungen, die der Privatwirtschaft Zugang zu dieser sozialen Dynamik erlauben. Im Hintergrund der Ermächtigung steht das Versprechen der Optimierung. Es charakterisiert den Diskurs des quantifizierten Selbst ebenso wie das Internet der Dinge und bietet damit eine Möglichkeit, herauszufinden, wie man die Dynamik des Lebens als Geldquelle anzapfen kann. Im Internet der Dinge wird die Stadt »Intel Inside®« haben. Da es nicht nur um visuelle Marken geht, stellt sich die Frage, ob die Markenlandschaften der in Entwicklung befindlichen urbanen Situationen nur im Visuellen verortet sind. Vielleicht verweist dies auf eine Markenüberwachung, die nicht nur durch eine solche spezielle Taskforce erfolgt, sondern durch eine größere Erfassung des Lebensmilieus durch Rhythmen der Unterlassung und des Verbots,14 die symptomatisch für den gegenwärtigen urbanen Raum ist. Marken erschaffen Territorien, Zonen, die räumliche wie zeitliche Ausdehnung haben: Obwohl das Markenmanagement ursprünglich großenteils abstrahiert und deterritorialisiert war […], infiltriert es inzwischen zunehmend die Art und Weise, wie wir Räume wahrnehmen und gestalten. Und während die Verräumlichung von Marken zuerst in der Bildung isolierter Flagshipstores und Shopping Malls realisiert wurde, hat sie im Lauf der letzten beiden Jahrzehnte eine andere Ebene erreicht – als eine allgegenwärtige Formel der Marktkultur, die urbane Zentren ebenso wie Randstädte und Wohngemeinschaften durchdringt.15
In diesem Beispiel wird die Verbindung zwischen Militarisierung, Securitisierung und Markenengagement von Städten deutlich. Das Maß an Sicherheit in Verbindung mit der Sichtbarkeit von Konzernen ist nicht bloß zufällig, sondern begleitet die gegenwärtige Stadtplanung, die experimentelle Atmosphäre und die Bereitschaft, auch in Städten Ausnahmezustände zu erklären.16 Die Über13 | The Internet of Things Worldwide with Intel Inside ®, Projekt-Internetseite des Instituts, www.intel.com/content/www/us/en/internet-of-things/smart-city-london.html, vom 11. Juli 2015. 14 | Wood, Murakami David/Ball, Kirstie: »Brandscapes of Control: Surveillance, Marketing and the Co-Construction of Subjectivity and Space in Neo-Liberal Capitalism«, in: Marketing Theory 3 (2013), S. 47-67; Klingman, Anna: Brandscapes: Architecture in the Experience Economy, Cambridge, MA: MIT Press 2007. 15 | Ebd., S. 81. 16 | A. Renzi/G. Elmer: Infrastructure Critical.
Eine geteilte Stadt
wachung bleibt daher eine entscheidende Möglichkeit, diese Zentralität der Organisation des Visuellen zu verstehen – und damit auch der Organisation von Körpern, Dingen, Bewegungen, Gewohnheiten und Prozessen, die den urbanen Raum konstituieren. Die Verfahren des Internets der Dinge sind für diese Organisationsform wesentlich, bieten sie doch im Hinblick auf Zugang und Logistik sowohl Sicherheit wie ökonomischen Mehrwert an. Die Markenlandschaften werden nicht bloß im Hinblick auf ihr visuelles Grafikdesign produziert, sondern auch als infrastrukturelle Informationslogiken mit analytischen Durchgangskapazitäten. Rancières Konzepte von Polizei und Überwachung sind im Hinblick auf diese visuelle wie informationelle Kontrolle weiterhin gültig. Sie beziehen sich auf eine Allozierung des visuellen Gemeinsamen der Stadt, verstanden als eine Kraft des Teilens der Ressourcen, welche gemäß einer urbanen Informatik wie beispielsweise der Wertschöpfung der Olympischen Spiele als immanenter Teil einer Schöpfung eines strategischen »gemeinsamen Wir« besonders deutlich wird. Dieses hat weniger mit dem vordergründigen nationalen Diskurs zu tun, der den olympischen Geist umgibt, als vielmehr mit einem eher vagen, scheinbar kosmopolitischen »Wohlgefühl«. Oder wie es in Rancières Einführung der Idee der Überwachung heißt: Die Polizei ist […] zuerst eine Ordnung der Körper, die die Aufteilungen unter den Weisen des Machens, den Weisen des Seins und den Weisen des Sagens bestimmt, die dafür zuständig ist, dass diese Körper durch ihre Namen diesem Platz und jener Aufgabe zugewiesen sind; sie ist eine Ordnung des Sichtbaren und des Sagbaren, die dafür zuständig ist, dass diese Tätigkeit sichtbar ist und jene andere es nicht ist, dass dieses Wort als Rede verstanden wird und jenes andere als Lärm.17
Die Überwachung von Tun und Sein ist bereits in der Überwachung des Sehens enthalten. In dieser doppelten Bedeutung von Allokation und Erschaffung affektiver Situationen können wir London 2012 als eine ästhetische und politisch-ökonomische Operation von Überwachung dechiffrieren. Die affektive Mobilisierung erreichte ihren Höhepunkt in der staatlich gesponserten Markenkampagne »Great«, die die Hochzeit von William und Kate, das Thronjubiläum der Queen und die Olympischen Spiele miteinander verknüpfen sollte. Während im selben Jahr die englische Wirtschaft fast schon bankrott erschien, sollte diese dringend benötigte Wohlfühlatmosphäre Großbritannien als die globale Marke verkaufen, die es gerne wäre.
17 | Rancière, Jacques: Das Unvernehmen. Politik und Philosophie, Frankfurt a.M.: Suhrkamp 2002, S. 41.
349
350
Jussi Parikka
Abbildung 1: Sport is Great aus der »Great«-Kampagne. Im Dezember 2012 am Flughafen Gatwick fotografiert.
© Jussi Parikka
2. D ie nicht- gemeinsame S tadt Blicken wir ein Jahr zurück ins London des Jahres 2011 – das London der berüchtigten Unruhen, in dem das Gefühl des Nicht-Gemeinsamen den von Kreativindustrien und Erfolgsmarken besetzten Bezirk Shoreditch umtrieb. Bis Ende August kam es dem britischen Justizministerium zufolge zu 5.175 strafbaren Handlungen und fast 4.000 Verhaftungen.18 Die Vorgänge lösten ein breites Medienecho aus und in der Folge wurden so detaillierte Untersuchungen wie das vom Guardian initiierte Projekt »Reading the Riots« gestartet. Die Ästhetik der Aufstände brachte Werke wie das Musikvideo des Rappers Plan B und einen Film über die Augustaufstände hervor. Statt Statistiken und detaillierter sozialwissenschaftlicher Analyse zeigen sie einen ästhetischen Mix aus urbanem Raum, Affekten und Großbritannien im Jahr der Olympiade. In Ill Manors – dem Song und dem Musikvideo wie dem Film vom Sommer 2012 – verschaffte Plan B der Welt der »Uncommons«, der Nicht-Dazugehörigen, der 18 | Berman, Gavin: »The August 2011 riots: a statistical summary – Commons Library Standard Note«, 26. Oktober 2011, www.parliament.uk/, vom 11. Juli 2015.
Eine geteilte Stadt
Stadt und der anderen Stadt Gehör. Diese Unterteilung beginnt auf der Ebene der Wahrnehmung und artikuliert die Nähe von Ästhetik, Politik und Raum. Kids on the street no they never miss a beat, never miss a cheap Thrill when it comes their way Let’s go looting No not Luton The high street’s closer, cover your face
Dem Film und dem Musikvideo zufolge geht es hier um die Politik der Sprache (den pejorativen Gebrauch von »chav«, »Proll«), um Plünderung, Stadtplanung und die Rhetorik der Tory-Regierung, die auf die Londoner Olympiade und die Markenkampagnen ebenso wie auf die Architekturpolitik des visuellen Raums und die Verteilung von Lebensräumen abzielt. Solche allgemeineren ästhetischen Details sind Angebote einer kleinräumigeren Ästhetisierung der Teilungen des Raums und der Zuordnungen des Visuellen. Es lässt sich mit Sicherheit sagen, dass die Jahre 2011 und 2012 zu einer neuen Artikulation von Politik inspirierten – ungeachtet der Tatsache, dass den Vorgängen vom August 2011 offensichtlich ein politisches Narrativ fehlte und sie im fröhlichen Kontinuum der allgemeineren Lifestyle-Sehnsüchte der Konsumgesellschaft mündeten.19 Neben Beispielen wie Plan B ist auch interessant, was Miéville 2012 über London geschrieben hat: Die Olympischen Spiele werden die Steuerzahler schätzungsweise 9,3 Milliarden Pfund kosten. In dieser Zeit der ›Austerität‹ sind Jugendclubs und Bibliotheken überflüssiger Firlefanz – die Ausgaben hingegen sind nicht verhandelbar. Die aufrührerische Jugend von London, beteiligt an außergewöhnlichen Unruhen, die das Land letzten Sommer erschüttert haben, kann rechnen. ›Ganz klar, weil man Gastgeber der Olympiade sein will‹, erklärte ein Teilnehmer gegenüber Forschern, ›damit dein Land besser aussehen und dastehen kann, müssen wir leiden.‹ 20
Diese Art von »Commonwealth« – was sich sowohl auf das britische Commonwealth wie auf die kritischen Diskurse um Gemeingüter bezieht – hängt mit der umfassenden Privatisierung der Gemeingüter und des Gemeinsamen in der kulturellen und ökonomischen Produktion zusammen. Die von harter Austerität geprägte Wirtschaftspolitik der gegenwärtigen Regierung Großbritanniens unterhält eine eigene Beziehung zu den Gemeingütern der Umwelt 19 | Winlow, Simon/Hall, Steve: »A Predictably Obedient Riot: Postpolitics, Consumer Culture and the British Riots of 2011«, in: Cultural Politics 8/3 (2012), S. 465-488. 20 | Miéville, China: London’s Overthrow. Internetessay, 2012, auf www.londonsover throw.org/, vom 11. Juli 2015.
351
352
Jussi Parikka
(mit für die Umwelt zweifelhaften politischen Entscheidungen), zu den urbanen Gemeingütern (in Form von Privatisierungen und Securitisationen von öffentlichem Raum mit Hilfe von Privatunternehmern und neuen Technologien wie dem Internet der Dinge) und zu den digitalen Gemeingütern (die Markenorientierung der digitalen Wirtschaft und ein allgemein kommerziell motiviertes Verständnis des Digitalen, Förderung eines eng definierten »Software-Englands« in der Schulbildung wie in Unternehmen). Dort, wo wichtige Projekte der öffentlichen Hand teilweise durch Hardwareanbieter und Softwareservices bzw. von Anbietern von ›Smart City-Lösungen‹ geschaltet [circuited] werden, besteht die Gefahr, dass die Markenorientierung der digitalen Wirtschaft ein Vehikel für die Privatisierung der Infrastruktur wird. Sowohl die Cloud wie die Sensorhardware für die intelligenten Städte des Internets der Dinge stellen andere Formen des Doubles der Stadt dar, die letztlich auch die Idee des Öffentlichen verändern. Angesichts der Pläne der britischen digitalen Wirtschaft werden immer mehr Forschungsgelder für die Universitäten in die Zusammenarbeit mit Unternehmen investiert. Dies wiederum bedeutet die weitere Verstärkung der Verbindung zwischen Privatunternehmen und Universitäten als Option, sich mit Fragen des Soziallebens zu befassen. Der Diskurs um das Internet der Dinge unterhält in diesem Kontext eine besondere Beziehung zu Städten. Städte spielen eine wichtige, ja entscheidende Rolle bei der Reproduktion von Kapital. Es ist daher nicht verwunderlich, dass in den gegenwärtigen Theoriediskussionen um Gemeingüter und die politische Ökonomie der Wertschöpfung aus urbanen Dynamiken Kulturgeografen führende Positionen innehaben. Wissenschaftler wie David Harvey artikulieren die Spannung zwischen kapitalistischer Stadtplanung und dessen Wertschöpfung aus den Gemeingütern der als sozialem, politischem und lebenswertem Milieu verstandenen Stadt.21 Wie bereits angeführt, sind Markenlandschaften in der Lage, spezifisch Zonen der Intensität zu erschaffen und als Teil der urbanen Architektur und der Lebensdynamik zu territorialisieren22 – und derartige Prozesse erfahren während bestimmter Events Verstärkung. Sie können zu effektiven Testumgebungen für Unternehmensstrategien und natürlich auch für technische Anwendungen wie das Internet der Dinge werden. Die wirklich beachtenswerte Tatsache ist, dass die Wertschöpfung in diesem Double-Bind von nichtmenschlichen Architekturen, Straßen, Mauern, Infrastrukturen aus Beton und eher ephemeren Dingen wie drahtlosen Netzwerken und den lebendigen Realitäten von Menschen erfolgt, die in dieser Dynamik zusammenhängen. Als solches sind die Gemeingüter, zu denen wir als ›Stadt‹ beitragen, stets eine dynamische Kopplung der Flektionen, um Flussers Begriff aufzugreifen, wobei es jedoch um ein konstantes Verhandeln zwischen 21 | Harvey, David: Rebel Cities. From the Right to the City, London: Verso 2012. 22 | A. Klingman: Brandscapes.
Eine geteilte Stadt
dem Konkreten und dem Abstrakten geht. Das Abstrakte haust nicht allein in den verstreuten Handlungen des Menschlichen, wie Flusser so treffend darstellt, sondern auch in den Dynamiken des Nicht-Menschlichen, die für die Lebenskräfte, in denen wir leben, eine zentrale Rolle spielen. Für Michael Hardt und Antonio Negri ist das Gemeinsame an sich ein Konzept, das davor bewahrt werden sollte, auf das Private oder das Öffentliche reduziert zu werden. Vielmehr sollte sich das »politische Projekt der Instituierung des Gemeinsamen« quer stellen und »dem politischen Handeln einen neuen Raum […] eröffnen«.23 In ihrem typischen Stil karikieren Hardt und Negri das Kapital als Parasit sozialer Beziehungen. In der Tat wird eben dieses parasitäre Verhältnis an den Beispielen der Erzeugung eines Gefühls von »Wir-Sein« im Großbritannien von 2012 sichtbar. Dies gilt besonders hinsichtlich der Techniken der Stiftung, Investition in und Ausbeutung von Sozialleben in seiner Gesamtheit, um noch einmal Hardt und Negri zu paraphrasieren.24 Diejenigen Informationsinfrastrukturen, die Affekte als Kommunikationsereignisse kanalisieren, sind diesbezüglich besonders einschlägig. In diesem Kontext nun möchte ich nachdrücklich darauf hinweisen, dass wir bereits auf der Ebene des Gemeinsamen nach Produktionsmodi Ausschau halten müssen; wie man es etwa auch bei Hardt und Negri finden kann. Doch möchte ich in Bezug auf diese Produktion auf deren Komplexitäten aufmerksam machen. Mit Sicherheit bildet das affektive Gemeinsame – seine Produktion, Inspiration, Kreativität, sein Teilen und seine Teilhabe – den Kern der Produktion des gefühlsbetonten Geistes der Spiele und des durchorganisierten Raums gesponserter globaler Ereignisse und Veranstaltungen. Dies entspricht Yann Moulier Boutangs Analyse des kognitiven Kapitalismus.25 Kritischer jedoch als Boutang geht Matteo Pasquinelli in Animal Spirits vor – einem Buch über »die dunkle Seite des Gemeinsamen und der Kulturindustrie«26 und die substanziellere Dimension [fleshy side] der häufig idealisierten Diskurse des »Teilens«. Pasquinelli gelingt es, die Ökonomien des Politischen und der Energien zu beleuchten, welche die idealisierten Vorstellungen vom Gemeinsamen fördern. Er zeigt aber auch die affektive Mobilisierung eines geteilten »Wir-Seins«, welches selbst eine Form affektiver Gemeingüter darstellen könnte. Pasquinellis Begriff der »animal spirits« ist dem Versuch geschuldet, »Biopolitik« davor zu bewahren, ein fleischloser und gezähmter Begriff für dis23 | Hardt, Michael/Negri, Antonio: Common Wealth, Frankfurt a.M.: Campus 2010, S. 11. 24 | Ebd. 25 | Boutang, Yann Moulier: Cognitive Capitalism, Cambridge: Polity Press 2012. 26 | Pasquinelli, Matteo: Animal Spirits. A Bestiary of the Commons, Amsterdam: Institute of Network Culture/NAi publishers 2008.
353
354
Jussi Parikka
kursive Kritik zu werden – vielmehr soll Biopolitik wieder einige Aspekte von lebendiger Arbeit erfassen, die zur Erzeugung und Wiedergewinnung der Gemeingüter beitragen. Biopolitik ist für Pasquinelli das »biomorphe Unbewusste der immateriellen und kulturellen Produktion« und die »Physiologie überzähliger und überschüssiger Energien, die unter jeder technischen Umgebung fließen«, ja mehr noch: der »produktive Motor der Massen, der endlich in all seinen Varianten beschrieben wird: dem Kognitiven, Affektiven, Libidinösen und Physischen«.27 Pasquinelli betrachtet den Unterschied zwischen dem ›Gemeinsamen‹ (wie es eine Reihe autonomer Marxisten bevorzugen) und dem ›Gemeingut‹, das zurückverweist auf die eher historische und auch auf die Natur bezogene Bedeutung von ›Allmende‹ – Wälder, Luft, Flüsse, Fischereigewässer oder Weideland, die man teilt und gemeinsam hegt. Die Gemeingüter umfassen jedoch auch das Animalische, wovon Pasquinelli zufolge die für die digitalen Ökonomien aufgeschlossenen ›Creative Commons‹ oft zugunsten eher immaterieller Idealisierungen gesäubert sind. Wo jedoch ein Begriff von Gemeingütern erzeugt wird, sind immer auch physische Kräfte und Investitionen beteiligt. Folglich bietet ein Blick auf die »dunklere Wirklichkeit der Gemeingüter«28 eine Möglichkeit, die Verwaltung und Regulierung dieser Kräfte zu verstehen. Die Architekturen des Lebens29 und ihre affektiven Regulierungen sind unserem Verständnis auch und gerade dort zugänglich, wo sie in Beziehung zu den Affektkampagnen stehen, die für diese Massenveranstaltung das Bauchgefühl des olympischen Geistes hervorkitzeln sollen. Für diese ansteckende, somnambule und affektive Politik sind die Vorstellungen von Teilen, Gemeinsamem, Raum und Ästhetik am Grunde von Politik – und Überwachung – tatsächlich charakteristisch. Tony Sampson hat ausführlich dargelegt, wie typisch ein solcher Prozess der unfreiwilligen, habituell ansteckenden Soziabilität für die Verbreitung von Affekten als »geteilten« Phänomenen ist.30 Doch in seinem von Gabriel Tarde beeinflussten Verständnis von Soziabilität bildet das soziale Sein dieses umgebungsbezogene Merkmal des Affekts, im Sinne einer Feinabstimmung, des Primings und der Erfassung der Bereitschaft des Subjekts für bestimmte Muster. Im Unterschied zu den Massentheorien etwa von Le Bon befindet sich das somnambule Subjekt, wie es von Sampson dargestellt wird, bereits im Zustand der Beeinflussbarkeit. Gewiss überträgt Sampson Tardes Soziologie der aufkommenden urbanen Sphäre auf heutige Kulturtechniken des technologischen Kapitalismus – vom Neuromarketing bis zur affektiven 27 | Ebd., S. 27. 28 | Ebd., S. 29. 29 | M. Fisher: The London Hunger Games. 30 | Sampson, Tony D.: Virality. Contagion Theory in the Age of Networks, Minneapolis: University of Minnesota Press 2012.
Eine geteilte Stadt
Mensch-Computer-Interaktion und zu Netzwerkpraktiken wie dem Internet der Dinge –, aber dennoch greift er auf diesen Double-Bind von Affekt und Ansteckung im Herzen dieser ständigen Erschaffung des Sozialen zurück. Doch lassen wir uns nicht von einem Diskurs täuschen, der sich so traumwandlerisch abwegig anhört: Tardes Orientierungen des urbanen Somnambulisten sind heute umso straffer konstruiert und reguliert. Sie gehorchen einem Muster von sicherheitsorientierter, konsumfixierter und neoliberaler Umgebungsstiftung – einem Milieu von Subjektivierung, das sich die affektiven und nicht nur die höheren kognitiven Funktionen zu Nutze macht. In der Tat sollten wir in einem gewissen Sinn wie Sampson von einem nichtkognitiven Kapitalismus sprechen. Für unser Nachdenken über den Zusammenhang von Affekten und den architektonischen Environments, in denen Gemeingüter erzeugt und die Politiken ihrer Teilung distribuiert werden, erweist sich Maurizio Lazzaratos noch politischer eingestellte Anlehnung an Tarde als hilfreich. Typisch für Lazzarato ist eine von Tarde inspirierte politische Ökonomie der Unternehmensumwelten affektiver Milieustiftung, welche präzise Instrumente liefert, um die umfassenden Settings zu verstehen, in denen solche Subjekte erschaffen und deren somnambule Qualitäten des Erlebens gestaltet werden: »Erstens erschafft das Unternehmen nicht sein Objekt (Waren), sondern die Welt, in der das Objekt existiert. Und zweitens erschafft das Unternehmen nicht seine Subjekte (Arbeiter und Konsumenten), sondern die Welt, in der das Subjekt existiert.«31 Solche Welten haben räumliche Ausdehnung und sind zugleich in die technischen Produkte und Praktiken eingebettet. Mit Sicherheit zielt etwa Pasquinellis Kritik auf die programmierbetonten Diskurse ab – das gegenwärtige Digital-Economy-Programm in Großbritannien ist ein gutes Beispiel dafür. Inzwischen werden Diskurse zur Kreativität, die das Gemeinsame und die Gemeingüter nutzen, stärker in Verbindungen mit technischen Aspekten wie Softwarekompetenzen und Unternehmen der Informationsrevolution gefördert. Und doch würde ich gerade hier mit Pasquinelli und anderen darauf bestehen, dass wir umso mehr auch die anderen Aspekte betrachten müssen: die Infrastrukturen, wie die des Internets der Dinge, statt bloß die phänomenologischen Interpretationen von visueller Kultur. Was trägt und konstituiert also die harte Seite technischer Objekte und Praktiken und somit vielleicht auch der Gemeingüter und des Gemeinsamen, die sich nicht auf die gezähmte Geselligkeit von Softwareplattformen sozialer Medien reduzieren lassen? Wir müssen dies als einen größeren Trend verstehen, der etwas mit der oben beschriebenen durchgestalteten und überwachten Beschaffenheit des Stadterlebens zu tun hat. Diese wird während solcher Laborsituationen von konsum- und si31 | Lazzarato, Maurizio: »From Capital-Labour to Capital-Life«, in: Ephemera 4/3 (2004), S. 187-208, hier S. 188.
355
356
Jussi Parikka
cherheitsorientierten Spektakeln, wie den großen globalen Sportereignissen, stets multipliziert. Aufschluss darüber was mit den digitalen Architekturen und ihrer Beziehung zu globalen Stadtarchitekturen auf dem Spiel steht, bietet Benjamin Bratton, der die Konzentration »privater, stark gestalteter und gesicherter Umgebungen« als auserwählte Räume für »ein Erleben vorzugsweise für die Wohlhabenden« bezeichnet.32 Hier nimmt die Vorstellung vom Programmieren (von Technik) eine Wendung, die konkrete Praktiken und Diskurse ebenso wie das Design von Technik mit ihrer lokalen Verortung verknüpft. Als Teil solcher affektiven Nutzungen der Stadt sind diese Verortungen überaus relevant für unser Thema: »Disney war der Pionier des Top-Down-Designs der Umgebung, aber mit Sicherheit ist dies ein globales Programm: von Apple bis Dubai. (Ich sehe schon, wie sich das theologische Schisma Android versus iOS letztlich auf der Ebene der digitalen Umgebungen abspielt, die wir programmieren wollen. Die Hardware, um die es geht, ist die Stadt selbst.)«33
3. D as N icht-G emeinsame von (Tech -)S tädten Kehren wir zum Anfang unserer Überlegungen zurück, um die Idee aus Miévilles Roman Die Stadt & die Stadt umzusetzen: Nämlich über zwei sich überlappende Städte nachzudenken, die aber durch einen komplexen Prozess dessen, was als gemeinsam und was als nicht-gemeinsam gilt, wahrnehmbar und nichtwahrnehmbar sind. Die Infrastruktur produziert diese Territorien als überwachte ästhetische und ontologische Realitäten. Die Karte solcher Realitäten ist das Territorium.34 Dieser Vorstellung entspricht auch die Tatsache, dass es nicht nur Karten von Städten, vom Land oder vom Meer gibt, sondern auch von technischen Infrastrukturen. Die berühmte Londoner U-Bahn-Karte, die ihren 150. Geburtstag Anfang 2013 feiern konnte, ist ein Register zugleich der Stadt selbst als auch ihrer Unterwelt. Sie wurde 2012 vom Künstler Yuki Suzuki unter dem Titel London Underground Circuit Maps auf eine Leiterplatte übertragen. Aber wie wäre es, wenn wir uns diese Karte nicht nur als allegorisches Designbeispiel vorstellen, sondern als Infrastruktur, die London als eine Reihe abstrakter, doch realer Verbindungen ebenso wie als Set politischer und ökonomischer Begehren definiert? Suzukis Projekt verweist darauf, dass wir dem Netzplan von London Aufmerksamkeit schenken müssen, der neben 32 | Bratton, Benjamin: »Interview with Benjamin H. Bratton, director of the Center for Design and Geopolitics«, in: The Guardian, 05. April 2011. www.guardian.co.uk/activate/ interview-benjamin-bratton-better-design, vom 11. Juli 2015. 33 | Ebd. 34 | Siegert, Bernhard: »The Map is the Territory«, in: Radical Philosophy 169 (2011), S. 13-16.
Eine geteilte Stadt
dem ikonischen Projekt der London Underground Circuit Maps die unsichtbaren Kreisläufe der Stadt sichtbar macht. Hauptstädte werden tatsächlich nicht mehr durch ihre zentrale Position mittels Straßen oder Eisenbahnstrecken aufrechterhalten, sondern als eine andere Art von Knoten: als Relais digitaler Datennetzwerke. Wenn Städte versuchen, sich einen solchen Knotenstatus zuzulegen, müssen sie dennoch davon ausgehen, dass die Informationsvektoren des Finanzkapitalismus, die durch Glasfaserkabel operieren, eine provisorische Heimstatt benötigen – daher ist es eines von Londons strategischen Schlüsselzielen, dafür zu sorgen, dass das »the City« genannte Finanzzentrum in der Hauptstadt bleibt. In einem ähnlich gearteten Geist versucht die »Tech-City«, die Anziehungskraft der Hauptstadt für die Kreativen der Digital Economy auf sich zu lenken. Statt daher nur den Routen der Transportwege zu folgen, wie es Harold Innis in seiner für die Medientheorie grundlegenden Studie über die Bedeutung des kanadischen Pelzhandels tat, benötigen wir ökologische Kartierungen des Informationskreislaufs – des Internets der Dinge –, die von fundamentaler Bedeutung für die digitale Urbanität des 21. Jahrhunderts sind. Sie basieren weiterhin auf räumlichen Verortungen, wie es London 2012 exemplarisch belegte. Die Stadt ist in der Tat ein Medium, worauf Friedrich A. Kittler uns nachdrücklich hingewiesen hat, und zwar nicht nur als Erweiterung des optischen Regimes, sondern als eine Vielzahl von Netzwerken: Seitdem Städte nicht mehr vom Münsterturm oder Schloss aus zu überblicken und nicht mehr von den Mauern oder Befestigungen eingeschlossen sind, durchzieht und verschaltet sie ein Netz aus lauter Netzen – auch und gerade an Rändern, Tangenten und Fransen. Gleichviel, ob diese Netze Information oder Energie übertragen, also Telefon, Radio, Fernsehen oder Wasserversorgung, Elektrizität, Autobahn heißen – Information sind sie allemal. (Schon weil jeder moderne Energiefluss parallel dazu ein Steuernetz braucht.) 35
Und doch darf die Bedeutung des Visuellen als Teil des größeren finanziellen, urbanen und sicherheitstechnischen Regimes nicht als eine Faltung im topologischen Kontinuum zwischen räumlichen und informationellen Architekturen vernachlässigt werden. Beide werden zunehmend durch einen Trend hin zu firmeneigenen, geschlossenen und bewachten Zugangspunkten bestimmt. An die Seite von aus der Architektur entlehnten Begriffen wie ›gates‹ (›logic gates‹), mit denen frühe Computerpioniere wie Claude Shannon und John von Neumann fundamentale Computersysteme definieren wollten, treten heute angesichts der notwendigen Bewachung von Zugang und Sicherheit ›Brand35 | Kittler, Friedrich A.: »Die Stadt ist ein Medium«, in: ders., Die Wahrheit der technischen Welt. Essays zur Genealogie der Gegenwart, Frankfurt a.M.: Suhrkamp 2013, S. 181-197, hier S. 182.
357
358
Jussi Parikka
mauern‹ (›firewalls‹). Sie gehen mit der in die Cloud verlegten Informationskontrolle des urbanen Raums einher. Diese Erkenntnis verschafft uns ein zusätzliches Motiv, den Verbindungen zwischen Information, Kontrolle und Kapitalismus nachzugehen. Sie verweist auch auf die Parallelität der Gemeingüter und der Nicht-Gemeingüter in solchen architektonischen Arrangements. Abbildung 2. London Underground Circuity Maps von Yuri Suzuki.
Foto ©Hitomi Kai Yoda
Hängt eine Wiedervergemeinschaftung, ein Zurückführen, Zurückgewinnen und Rekombinieren der Nicht-Gemeingüter mit der Wiederbelebung des DoIt-Yourself-Geistes zusammen? Mit den Hackingpraktiken und -techniken auf Hardwareebenen, wie sie verschiedene Hackerspaces und auch Diskurse wie »Critical Engineering« seit kurzem fordern? Dies könnte eine interessante Schiene für neuartige Ansätze des Hackens der Stadt sein. Natürlich müssen wir uns der verschiedenen Herkünfte von Hackerspaces, Hacklabs und so vieler damit verwandter Begriffe bewusst sein, die von »Co-Working-Spaces« und »Innovationslaboratorien« über »Medienlabore« und »FabLabs« bis hin zu »Makerspaces« reichen.36 Tatsächlich kann man die jeweiligen Genealogien von Medienaktivisten und autonomen Hacklabs von denen der liberaler orien36 | Maxigas: »Hacklabs and Hackerspaces: Tracing Two Genealogies«, in: Journal of Peer Production 2 (2012), http://peerproduction.net/issues/issue-2/peer-reviewed-papers/ hacklabs-and-hackerspaces/, vom 11. Juli 2015.
Eine geteilte Stadt
tierten und vielleicht in jüngster Zeit noch mehr ins Gespräch gekommenen Hackerspaces unterscheiden.37 Ja, man kann von der Erschaffung von Gemeinschaftsräumen für eine Reihe von technischen Aktivitäten sprechen, die sich der Entfaltung technischer Angebote widmen, indem sie neue und alte Techniken mischen und zum Beispiel als Hackerspaces die »Entwicklung kostenloser Software, Computerrecycling, drahtlose Mesh-Netzwerke, Mikroelektronik, offene Hardware, 3-D-Druck, Maschinenwerkstätten und Kochen« betreiben.38 Offen bleibt natürlich die Frage nach den massiv verteilten Infrastrukturen: Es ist viel leichter, individuelle Objekte anzusprechen, als zu überdenken, wie sich mit derartigen Praktiken auf einer höheren Ebene eine Politik des Internets der Dinge ansprechen ließe – natürlich können verschiedene kritische Lösungen konstruiert werden, doch wie gelangt man an die Infrastruktur? Die demokratische Praxis steht in Einklang mit den Praktiken digitaler Gemeinwerdung, die eine alternative Möglichkeit offerieren, die Rolle der Technik als Basis digitaler Teilhabe zu verstehen. Demgegenüber stehen die eher staatlich orientierten Versionen, die ›Tech-Cities‹ als Zugänge zu Anwendungen und Infrastrukturen idealisieren. Mich interessiert, wie das Konzipieren solcher Räume und Labors in Zusammenhang mit der Idee des Gemeinsamen die Verbindung zwischen dem Begriff der Gemeingüter und konkreten technischen Praktiken und Fertigkeiten stärkt. Dies verweist entschieden auf die konkreten und spezifischen Prozesse, in denen Gemeingüter produziert, aber auch reproduziert, recycelt und akribisch zusammengefügt werden. Dabei werden die spezifischen Praktiken der Gemeinschaft und der Räume bejaht – die potenziell erschöpften, aber immer noch lebendigen Energien in relevanten Kulturtechniken. Wie Dan McQuillan darlegt, fördern solche Praktiken und Räume sogar die Pädagogik der Technik.39 Tatsächlich ist das, was wir teilen, was teilbar ist und teilbar gemacht werden kann, eng mit den konkreten physischen Räumen, Praktiken und Energien, die Pasquinelli fordert, verbunden. Dies ist auch im Kontext der ›City‹ von London und allgemeiner von Großbritannien von Bedeutung: Die politische Forcierung der Londoner ›Tech-City‹ fällt mit der Korporatisierung des Technikdiskurses und technischer Fertigkeiten zusammen. Bei dieser Form der Arbeit benötigen wir sehr sorgfältige und kritische Einblicke in die Konzepte von Gemeingütern und sollten verstehen, welche Rolle sie in Bezug auf die Technikcluster und -diskurse einer Stadt spielen. Dieser Einsatz hängt mit dem Focus auf die so eng mit der Stadt verknüpfte Verschränkung von Sicherheit und Affekten zusammen, von der Brat37 | Ebd. 38 | Ebd. 39 | McQuillan, Dan: »Could prototyping be the new policy?«, in: The Guardian, 28. Mai 2012, www.guardian.co.uk/culture-professionals-network/culture-professionals-blog/ 2012/may/28/prototyping-replaces-policy-arts-culture, vom 11. Juli 2015.
359
360
Jussi Parikka
ton im Hinblick auf das Design des Digitalen spricht. In manchen Fällen, wie in London mit seiner geballten Konzentration von Hi-Tech-Industrie, kommt es zu dieser Verknüpfung zugleich im technischen Diskurs wie in seiner Verortung in spezifischen urbanen Umgebungen wie dem Silicon Roundabout und Shoreditch.40 Wir dürfen nicht davon ausgehen, dass Gemeinschaftlichkeit einfach so existiert. Sie wird sogar ständig penibel überwacht und verortet. Das gilt auch für die angeblich geteilten affektiven urbanen Räume im London des Sommers 2012. Solche Gemeinschaftlichkeit wird fortwährend auf der grundlegenden körperlichen Ebene von Wahrnehmungen, Empfindungen und Affekten ausdifferenziert und produziert. Dies resoniert mit Rancières Verständnis der Aufteilung des Sinnlichen, die nicht ausschließlich eine Verortung dessen ist, was bereits existiert, sondern eher eine fundamentale Begründung – sie errichtet das Gemeinsame, von dem sie spricht, mit all seinen Ein- und Ausschließungen. »Diese Verteilung der Anteile und Orte beruht auf einer Aufteilung der Räume, Zeiten und Tätigkeiten, die die Art und Weise bestimmt, wie ein Gemeinsames sich der Teilhabe öffnet, und wie die einen und die anderen daran teilhaben.«41 Somit stellt das Erschließen von Aspekten der existentiellen Bedingungen solcher Welten – eine Aufgabe, die oft zumindest von Seiten einer bestimmten deutschen Tradition von Medientheorie, der Medienarchäologie, gefordert wird – eine Möglichkeit dar, das Gemeinsame auf eine etwas andere Art als gewöhnlich tatsächlich zu konzeptualisieren. Dies differiert zwar mit Sicherheit mit einigen der Debatten über das Gemeinsame, kann jedoch vielleicht selbst Möglichkeiten eröffnen, Städte und Städte und Städte und Technologien zu verstehen. Ebenso wie die Übergänge zwischen den beiden Städten in Miévilles Roman Die Stadt & die Stadt vielleicht nicht bloß geografisch kartiert, sondern gesamttopisch erschaffen sind, müssen wir uns der vielfachen Schichten und physischen, materiellen Möglichkeiten bewusst sein, durch die auch das Gemeinsame selbst erzeugt werden. Miéville liebt Neologismen, und als solche verweisen sie bereits auf die sich kreuzenden Gassen und physischen Bereiche, durch die man verhandeln und produzieren muss, was gemeinsam und was nicht gemeinsam ist. Neben den gesamttopischen Kreuzungen spricht er von »Topolgängern«, Objekten an den Rändern mehrerer Welten, die sich in verschiedenen Welten widerspiegeln. Vielleicht bieten solche Ideen Möglichkei40 | Ein wenig zufällig ist der Markenname The Silicon Roundabout für diese Gegend entstanden und anschließend von der Tory-Liberalen-Regierung als Teil ihrer Tech-CityVision übernommen worden, die ihrerseits zum allgemeineren unternehmerisch gefärbten Diskurs über die Digital Economy gehört, die zum Teil die zentrale Rolle der Rhetorik und Politik der früheren Kreativindustrien übernahm. Siehe dazu auch http://gigaom. com/2012/12/11/how-londons-silicon-roundabout-really-got-started, vom 11. Juli 2015. 41 | J. Rancière: Die Aufteilung des Sinnlichen, S. 25 f.
Eine geteilte Stadt
ten, sich Objekte, Räume, die Politik der Wahrnehmung sowie das, was geteilt und das, was nicht-gemeinsam bleibt, vorzustellen. Gemeingüter und das Gemeinsame wie das Nicht-Gemeinsame werden ständig überwacht, und zwar auf die gleiche Weise, wie Rancière das Überwachen als einen Eingriff in die zu bestimmenden Sichtbarkeiten und Unsichtbarkeiten versteht.42 Im Rahmen dieser Überwachung ereignen sich Akte von Gewalt auf der Ebene von verwundeten Körpern, abgefeuerten Schüssen, eingeschlagenen Fenstern, niedergebrannten Werkstätten, aber auch Visualitäten, welche als Materialitäten affizierend und beeinflussend in die Massen wirken. Nicholas Mirzoeff interpretiert Rancières Position von polizeilicher Überwachung als den Befehl »Weitergehen! Hier gibt es nichts zu sehen!« und nicht als die erzwungene Beobachtung des disziplinierten Körpers oder des Althusser’schen Subjekts von Ideologie: »Die Polizei spricht das westliche Subjekt nicht als Individuum an, sondern als Teil des Verkehrs, der sich durch das, was nicht zu sehen ist, durch das Objekt oder Nicht-Subjekt, weiterbewegen muss.«43 Genau in diesem Entzug der Sichtbarkeit erschafft die Macht auch durch die technische Infrastruktur Welten der Wahrnehmung – Welten der Ästhetik und der Überwachung. Das Technische ist die Logik der algorithmischen Führung beim Produzieren des Sozialen und des Visuellen. Diese Unsichtbarkeit hat zunehmend etwas mit der proprietären Logik geschlossener Plattformen (Software), Geräte (Hardware) und Infrastrukturen (smarte Städte und das Internet der Dinge) zu tun. Hierbei kommt den technischen Fertigkeiten, die sich der kritischen Untersuchung einer solchen ›Nichts zu sehen‹-Logik der technischen wie der urbanen Sichtbarkeit zuwenden, eine besondere Bedeutung zu. Selbst wenn Infrastrukturen auf der Ebene des Internets der Dinge sich mehr und mehr entziehen, sind sie dennoch zunehmend präsent in der Art und Weise, wie wir die gemeinsame Welt der Empfindungen und die Stadt sehen und begreifen.
Übersetzt von Michael Schmidt, überarbeitet von Christoph Engemann Eine frühere Fassung dieses Textes ist erschienen in Berry, David M./Dieter, Michael (Hg.): Postdigital Aesthetics: Art, Computation and Design, London: Palgrave Macmillan 2015.
42 | Rancière, Jacques: On the Shores of Politics, London: Verso 2007. Siehe auch Lazzarato, Maurizio: Les révolutions du capitalisme, Paris: Le Seuil 2004. 43 | Mirzoeff, Nicholas: »Invisible Empire: Visual Culture, Embodied Spectacle and Abu Ghraib«, in: Radical History Review 95 (2006), S. 21-44, hier S. 23.
361
Smart Homes Zu einer Medienkultur des Wohnens Stefan Rieger »In the near future, we also expect that meeting room tables and walls will act as computer displays. Eventually, virtually all the surfaces of architectural space will function as computer displays.«1 »Daraus folgt, daß die Sprache erst das Zweithaus des Seins ist – ein Haus innerhalb der häuser-ermöglichenden, häuser-fordernden Dimension, die wir hier das Ge-Häuse, das Treibhaus oder die Anthroposphäre nennen.« 2
I. W ohnen S ie noch oder leben S ie schon ? »Zum Wohnen, so scheint es, gelangen wir erst durch das Bauen. Dieses, das Bauen, hat jenes, das Wohnen, zum Ziel.«3 Mit diesem ersten Satz aus Martin Heideggers Aufsatz »Bauen Wohnen Denken« wird schnell deutlich, was es aus Philosophensicht mit dem Wohnen in der Mitte des 20. Jahrhunderts auf sich hat. Und nur einen Schritt und ein emphatisches Verb weiter kommt mit 1 | Rekimoto, Jun/Masanori, Saittoh: »Augmented Surfaces: A Spatially Continous Work Space for Hybrid Computing Environments«, in: Proceedings of Conference on Human Factors in Computing Systems, New York 1999, S. 378-385, hier S. 378. 2 | Sloterdijk, Peter: Das Menschentreibhaus. Stichworte zur historischen und prophetischen Anthropologie, Weimar: VDG 2001, S. 46. Vgl. dazu auch Rieger, Stefan: »Treibhaus«, in: Benjamin Bühler/ders.: Kultur. Ein Machinarium des Wissens, Berlin: Suhrkamp 2014, S. 232-246. 3 | Heidegger, Martin: »Bauen Wohnen Denken«, in: ders., Vorträge und Aufsätze, Pfullingen: Neske 1985, S. 139-156.
364
Stefan Rieger
der Frage eines schwedischen Möbelherstellers, ob man einfach nur wohne oder bereits zu leben begonnen habe, das anthropologische Gewicht des Themas vollends zum Tragen. Das Reden über das Wohnen scheint dabei zwangsläufig mit den Gepflogenheiten des Menschen verbunden zu sein und daher schnell in die Nähe von Überlegungen zu geraten, bei denen die Wirkmacht historischer Semantiken das Sagen hat. Für den römischen Architekturtheoretiker Vitruv wird der Häuserbau gar zur Urszene der Selbstkultivierung des Menschen. Er markiert so den Beginn seiner Sozialität und als Ausgangspunkt der Wissenschaften zugleich auch den seiner Überlegenheit gegenüber der Restschöpfung. Begabt mit Gedanken und Überlegungen führe der Häuserbau »Schritt für Schritt […] zu den übrigen Künsten und Wissenschaften« und so »von einem wilden und tierhaften zu einem friedfertigen, gesitteten Leben.«4 Wer wohnt, so scheint es, kommt zum Denken und so, als Mensch, zu sich. Knapp zweitausend Jahre später, im Jahr 1805, stellt der dem Philanthropismus nahestehende Reformpädagoge Christian Hinrich Wolke folgerichtig ein so genanntes Denklehrzimmer zur Disposition, das die Kultivierung des Menschen in einzelne Erziehungsschritte übersetzt. Als pars pro toto eines funktionalen Smart Homes soll es in der Lage sein, unbeschwert aufgeklärt durch den bloßen Aufenthalt und ohne die Mühsal aufwendiger Instruktionen Wissen zu vermitteln. Er erwartet von dem Aufenthalte gutartiger Kinder in einem solchen wirklich vorhandenen Zimmer […], daß sie darin Anlässe zum Erwerbe nützlicher Kenntnisse und Künste finden, mit Vergnügen zum Rechnen […], zum Vergleichen oder Denken gelangen werden, wenn sie nämlich mit ihrer wohlbelehrten und verständigen Mutter, oder mit irgend einer andern Lehrperson […], täglich einige Stunden darin leben. Seid ihr begierig, l. K., ein solches Denklehrzimmer kennen zu lernen? Ich kann euch aber noch nicht in ein wirkliches einführen, sondern besitze nur erst eine Abbildung davon. A. Wie sollten wir nicht wünschen, 1. M. (l. L), mit der Vorstellung eines solchen Zimmers bekannt zu werden! Sie wissen ja, daß das Besehen und Besprechen der Bilder uns immer anzieht und vergnüget. Aber der Blick in ein Denklehrzimmer läßt uns ein neues und vorzügliches Vergnügen erwarten. Uns ist es noch etwas ganz Fremdes, wie ein lebloses Zimmer die Stelle eines Lehrers vertreten könne. 5
Zwei Aspekte stechen dabei ins Auge: Die vorgeschlagene Form der Wohnraumbewirtschaftung setzt zum einen auf die architektonische Inszenierung von Latenz. Klugheit wird dem Menschen dort im Modus der Unmerklichkeit zu eigen. 4 | Vitruvii: De architectura libri decem – Zehn Bücher über Architektur, hg. von Curt Fensterbusch, Darmstadt: Wissenschaftliche Buchgesellschaft 1964. 5 | Wolke, Christian Hinrich: Anweisung für Mütter und Kinderlehrer, die es sind oder werden können, zur Mittheilung der allerersten Sprachkenntnisse und Begriffe, von der Geburt des Kindes an bis zur Zeit des Lesenlernens, Leipzig: Voß 1805, S. 475.
Smar t Homes
So werden etwa die Wände zum Display für den pädagogischen Lehrstoff – wie in einer Vorwegnahme späterer Überlegungen, die der konsequenten Nutzung architektonischer Elemente zur Informationsvermittlung gelten.6 Und es kommt zum anderen, wie Wolke auch ausdrücklich festhält, ohne das gemeinhin für solche Vermittlungen zuständige Personal aus. Der leblose und informierende Raum ersetzt am Ende der Tage die klassischen Agenten des Erziehungsgeschäftes und adressiert zugleich die Affektstruktur seiner noch unaufgeklärten Klientel. Abb. 1: Denklehrzimmer nach Wolke, Christian Hinrich: Anweisung für Mütter und Kinderlehrer, die es sind oder werden können, zur Mittheilung der allerersten Sprachkenntnisse und Begriffe, von der Geburt des Kindes an bis zur Zeit des Lesenlernens, Leipzig: Voß 1805.
Und nur rund hundert Jahre später beschreibt der Psychologe und Psychotechniker Friedrich Giese ein Psychologisches Übungszimmer, das den Bogen 6 | Vgl. dazu etwa Mignonneau, Laurent/Sommerer, Christa: »Media Facades as Architectural Interfaces«, in: dies. (Hg.), The Art and Science of Interface and Interaction Design, Berlin/Heidelberg: Springer 2008, S. 93-104.
365
366
Stefan Rieger
zwischen dem Aufschreibesystem 1800 zu dem von 1900 schlägt und dabei Resultate abfragt, deren Implementierung bereits Ziel von Wolkes Bemühungen war.7 Jene Intelligenz, die man sich wie von selbst durch den Aufenthalt in entsprechenden Räumlichkeiten aneignet und die große Teile dessen beinhaltet, was später so genannte IQ-Tests aus den Köpfen und Körpern ableiten, soll jetzt operativ als eine dem Menschen eigene Smartness umsetzbar sein. Selbstredend verfährt Giese dazu nicht mehr nur im Modus dessen, was Wolkes feinziselierter Kupferstich an Einzelmaßnahmen im Raum verteilt, sondern mit dem geballten Rüstzeug der ihm zur Verfügung stehenden zeitgenössischen Psychotechnik – von Apparaten zur Tiefenwahrnehmung über Tachistoskope zu Spezialmöblierungen wie dem Handprüf- und Akkordarbeitstisch. Gieses Psychologisches Übungszimmer ist das Arsenal, die material gewordene Summe all jener Vorrichtungen, Techniken und Verfahren, mit deren Hilfe die angewandte Psychologie den Menschen dem großen Spiel der Differenzierung zuführt. Damit haben diese Strategien Anteil an einer der diversen Differenzierungstheorien, die, wie prominent bei Georg Simmel, zur Bestimmung des Menschen auf Kriterien der Unterscheidung und nicht der Identität setzen.8 Im Übungszimmer werden auf der Grundlage individueller Differenzen und zum Teil latenter Befähigungen ganze Biografien entschieden – an der Geschicklichkeitstafel etwa zeigt sich die Befähigung zur Telefonistin und am Reaktionsmesser die zum Lokomotivführer. Was die idealen Konstrukte der Goethezeitpädagogik und die öffentlichen Untersuchungsräume der Psychologie in der klassischen Moderne sichtbar machen und auch sichtbar halten, sind die Verweisstrukturen zwischen einer Smartness, die im ersten Fall durch intelligente Umgebungen an Menschen ver- und im zweiten Fall aus diesen ermittelt werden. Diese gehen einher mit Strategien gezielter Transrationalisierung und funktionieren im Modus von operativen Unmerklichkeiten, die bei Giese zu Allianzen von Psychoanalyse und Psychotechnik führen.9 Aber nicht nur die Menschen sind Anlass diverser Optimierungsbemühungen. Auch das Wohnen wird zunehmend von Aspekten der Taylorisierung bestimmt. Seit Wolke, Giese und Heidegger ste7 | Vgl. Giese, Friedrich: »Das psychologische Übungszimmer«, in: Zeitschrift für die gesamte Neurologie und Psychiatrie 58 (1920), S. 133-160. 8 | Vgl. dafür stellvertretend Simmel, Georg: »Über sociale Differenzierung. Sociologische und psychologische Untersuchungen«, in: ders., Gesamtausgabe, Bd. 2, Aufsätze 1887-1890, Frankfurt a.M.: Suhrkamp 1989, S. 109-295; sowie dazu Rieger, Stefan: Die Individualität der Medien. Eine Geschichte der Wissenschaften vom Menschen, Frankfurt a.M.: Suhrkamp 2001. 9 | Vgl. dazu Giese, Fritz: Psychoanalytische Psychotechnik, Leipzig u.a.: Internationaler Psychoanalytischer Verein 1924; sowie ders.: Das außerpersönliche Unbewußte. Theoretische Bemerkungen zum intuitiven Denken, Braunschweig: Vieweg 1924.
Smar t Homes
Abb. 2: Laufwege nach Kitchen Stories (NOR 2003, Regie: Bent Hamer).
hen unsere Wohnräume nämlich nicht nur unter der ästhetischen Ägide von immer neuen Initiativen zur Wohnraumverschönerung, stellvertretend zu nennen wäre das Fernsehformat Einsatz in vier Wänden der RTL-Wohnsachverständigen Tine Wittler, sondern auch unter der einer betriebswirtschaftlich ausgerichteten Effizienzsteigerung. So ließe sich eine Sozialgeschichte der Küche nachzeichnen, die von offiziellen Stellen wie dem Reichsausschuss für Wirtschaftlichkeit in den Hochzeiten der klassischen Moderne angestoßen wird und bis zu konkreten Umsetzungen etwa in Form der Frankfurter Einbauküche durch die Architektin Margarete Schütte-Lihotzky reicht. Wunderbar karikiert werden derartige Bemühungen um die Verwissenschaftlichung privater Wohnraumnutzung im Film Kitchen Stories (NOR 2003, Regie: Bent Hamer), in dem unter anderem die Laufwege in norwegischen Küchen ermittelt werden, was wiederum Anlass für launige Kommentierungen gibt – so etwa die politisch wenig korrekte Feststellung, dass die typische Hausfrau im Laufe ihres Lebens eine Gesamtstrecke zurücklegt, die, würde man ihr Be-
367
368
Stefan Rieger
wegungsprofil aus den Wiederholungsmustern ihrer noch nicht optimierten heimischen Küche entlassen, bis ins ferne Afrika reichte. Natürlich ist bei dieser Durchdringung von realen Räumen mit Rationalisierungsmaßnahmen auch der ganze Apparat optischer und anderer Medien anzitiert, die im Psychologischen Übungszimmer bei Giese versammelt sind. Aufgerufen ist damit ein von der Medienwissenschaft Kittlerscher Prägung gut erforschter Einsatzort von Medien, der in der wissenschaftlichen Betriebsführung mit (Psycho-)Techniken wie der Chronofotografie sicht- und eben auch optimierbar macht, was Walter Benjamin einmal anlässlich der Kinematografie das Optisch-Unbewusste genannt hat. In Techniken implementiert erschließt es einen Zugriff auf motorische Abläufe jedweder Art.10 Mit dieser Anlehnung an die Psychoanalyse Freuds ist, so Benjamin, ein Gegenstandsbereich sui generis, nämlich eine zweiten Natur gegeben. Diese folgt der ersten nicht im Dienstbarkeitsverhältnis der Repräsentation nach, sondern eröffnet vielmehr ein Interventionsfeld für Optimierungsmaßnahmen, mit der die wissenschaftliche Betriebsführung Einzug auch in die Welt des privaten Wohnens hält.11
II. A mbient A ssisted L iving Den Kern der folgenden Überlegungen und die wohl jüngste Station in der Geschichte operativer Wohnräume bildet ein Phänomen, das unter dem Akronym AAL (Ambient Assisted Living) für Aufsehen sorgt, und das, obgleich es deutlich prosaischer ausgerichtet ist als es die Denk- und Lebenslehrzimmer oder die nostalgischen Filmküchen analoger Vergangenheiten waren. Dieses Aufsehen ist dennoch begründet, zielt das umgebungsbetreute Wohnen mit der schwer zu übersehenden Fülle an Einzelmaßnahmen doch ins Zentrum gesellschaftspolitischer Großdebatten – dorthin nämlich, wo mit der Veränderung demografischer Strukturen ganze Sozialsysteme und deren Finanzierbarkeit betroffen sind.12 Diese Diskussionen um AAL spielen also nicht in den 10 | Vgl. Benjamin, Walter: »Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit«, in: ders., Gesammelte Schriften, I.2, Frankfurt a.M.: Suhrkamp 1980, S. 471-508. 11 | Besonders augenfällig dafür sind die Bildgebungen bei Gilbreth, die im technischen Modus der Chronozyklografie den Unterschied unangeleiteter und angeleiteter Bewegungsabläufe unmittelbar sichtbar machen. Vgl. dazu Gilbreth, Frank Bunker: Motion Study for the Handicapped, London: Routledge 1920; sowie ders./Gilbreth, Lillian M.: »The Effect of Motion Study upon the Workers«, in: The Annals of the American Academy of Political and Social Science LXV (1916), S. 272-276. 12 | Einen guten Einblick verschafft Augusto, Juan Carlos et al.: Handbook of Ambient Assisted Living. Technology for Healthcare, Rehabilitaition and Well-being, Amsterdam: Ios 2012.
Smar t Homes
Spiegelkabinetten post- oder transhumanistischer Theoriebildung, sondern in den sehr lebensweltlichen Praxen westlicher Industrienationen und einer immer älter werdenden Bevölkerung. Was aus medientheoretischer Sicht am AAL und der mit ihm verbundenen Diskussion ins Auge sticht, ist der besondere Aufwand, der im Werben um Akzeptanz für diese neugestalteten Wohnräume betrieben wird und werden muss. An den Begründungsmaßnahmen argumentativer, rhetorischer, semantischer und designtechnischer Art wird nämlich zugleich ein medienanthropologisches und medienethisches Paradoxon des AAL sichtbar: die Unhintergehbarkeit dessen, was man als freiwillige Fremdkontrolle beschreiben könnte.13 Man kommt nicht umhin, zur Wahrung seiner Autonomie im altersgemäßen Wohnen zugleich Autonomie an technische Systeme abzugeben. Der grundlegende Verdacht einer ›feindlichen‹ Übernahme des Eigenen, mit dem Medien ja gerne überzogen werden, schleicht sich so in einen Bereich ein, dem im Verlauf der Kulturgeschichte ein besonderes Maß an Intimität zugeschrieben und darauf seine nachgerade topische Schutzbedürftigkeit begründet wurde.14 Diese Aushandlungen von Akzeptanz gehen die Betroffenen unmittelbar an, finden sie doch im kleinmaschigen Betrieb des privaten Wohnens und nicht auf der Ebene einer globalen Technikfolgenabschätzung statt, deren Beispiele von der Atomkraft bis zur grünen Gentechnik sich ihrer gesellschaftlichen Aufmerksamkeit immer schon sicher sein konnten. Das AAL kann und soll daher benutzt werden, um an ihm ein verändertes Verständnis technischer Medien zu entwickeln – und zwar nicht auf der phänomenalen Ebene dessen, was sich architektonisch zeigt. Es geht also nicht um ein Narrativ der Komplexitätssteigerung von der Steinzeithöhle zum amerikanischen Wolkenkratzer; auch geht es nicht um eine Sozialgeschichte des Wohnens, die von den Repräsentationsbauten des Absolutismus über die Mietskasernen der Industrialisierung und den sozialen Wohnungsbauten bis hin zu den Gartenstadtbewegungen reicht und damit zugleich den Verkehrswegeplänen der modernen Urbanistik (bis hin zu den Formen der Kunsterfahrung in Hybrid Cities) zu folgen hätte.15 Vielmehr geht es darum, das Verhältnis des Wohnens selbst anders zu bestimmen: Durch das Wohnen schützt sich der Mensch nicht (mehr) vor einer ihn bedrohenden Umwelt, sondern er lebt in Wohnumwelten, angesichts deren technischer Durchdringung er selbst als 13 | Dies war Gegenstand des von Michael Andreas, Dawid Kasprowicz und mir veranstalteten Workshops Unterwachen und Schlafen. Anthropophile Medien nach dem Interface (Lüneburg, MECS, 29.1.2015). 14 | Vgl. dazu topisch Groys, Boris: Unter Verdacht. Eine Phänomenologie der Medien, München: Hanser 2000. 15 | Vgl. Boj, Clara/Díaz, Diego: »The Hybrid City: Augmented Reality for Interactive Artworks in the Public Space«, in: L. Mignonneau/Ch. Sommerer (Hg.), The Art and Science of Interface and Interaction Design, Berlin/Heidelberg: Springer 2008, S. 141-161.
369
370
Stefan Rieger
schutzbedürftig erscheint – und zwar als schutzbedürftig gegenüber der ihn umgebenden Technik.16 Dieser Befund ist bemerkenswert, weil er einen Reflex gerade nicht bedient, demzufolge das Wohnen (ähnlich der Bekleidung) einer prothetischen Erweiterung des Körpers nahekommt und damit Teil der Tradition von Medientheorien in der Linie von Ernst Kapp bis Marshall McLuhan wäre. Anders gesagt erlaubt dieses schützende Wohnen eine veränderte Positionierung des medientheoretischen Geschäfts, etwa im Sinne einer Re-Evaluierung der Grenzen des von der Medienwissenschaft wahrgenommenen Materials und eine Neubestimmung ihrer Aufgaben – und zwar in einer Lage, die für das Fach als durchaus prekär erkannt wird. Kurz gesagt: Einer Medienwissenschaft, die sich vorrangig mit der Geschichte technischer Apparate oder mit der Ästhetik der Erzeugnisse medialer Apparate beschäftigt, ist ihre gesellschaftliche Relevanz, jenseits ihrer stets gegebenen archivalischen und archäologischen Dimension, problematisch geworden – so problematisch, dass sich Stimmen hören lassen, die einer solchen Medienwissenschaft gar ihr baldiges Ende vorhersagen.17 Der Blick auf das AAL und die Rückspiegelung der dort beobachtbaren Phänomene in die Theoriebildung könnte trotz oder vielleicht sogar wegen des ästhetisch wenig geschmeidigen Themas zu einer Neupositionierung beitragen. Auch wenn das AAL noch nicht die Aufmerksamkeit gefunden hat, die etwa das Internet der Dinge auf sich zu ziehen wusste, auch wenn es in Kontexten diskutiert wird, die nicht das Kerngeschäft der Medienwissenschaft ausmachen, so sind beide dennoch Teil derselben Epistemologie und einer ihr zugehörigen Reflexion. Das wird zum einen deutlich in der Ausrichtung auf veränderte Modelle von Handlung und Agency, zum anderen in der Ausrichtung auf die Belange der Ökonomie. Im Gegensatz zur Debatte um irgendwelche Cyberspace-Szenarien mitsamt ihrer zum Teil utopischen oder dystopischen Dramatik ist die Diskussionslage im Fall des AAL höchst konkret und nicht zuletzt wegen der ökonomischen Dimension in ihren Argumentationslinien ausgesprochen praxisorientiert. Mit Blick auf die immer weiter steigende Zahl der Betroffenen und der damit verbundenen Kostenexplosion vermuten einige der Protagonisten im AAL nicht weniger als das Allheilmittel für die Zukunftsfähigkeit einer alternden Gesellschaft.18 Als Teil tatsächlich realisierter und nicht einfach nur behaupteter 16 | Zu den damit verbundenen Implikationen vgl. Bohn, Jürgen et al.: »Social, economic, and ethical implications of ambient intelligence and ubiquitous computing«, in: Werner Weber/Jan Rabaey/Emile Aarts (Hg.), Ambient Intelligence, Berlin/Heidelberg: Springer 2005, S. 5-29. 17 | Vgl. Jungen, Oliver: »Irgendwas mit Medien«, in: FAZ vom 02. Januar 2013, Nr. 1, S. N 5. 18 | Vgl. dazu d’Angelantonio, Marco/Oates, John (Hg.): Is Ambient Assisted Living the Panacea for Ageing Population?, Amsterdam: Ios 2013.
Smar t Homes
smart environments liefert die Diskussion um das AAL somit ein bestens geeignetes Operationsfeld für die Aushandlung der gesellschaftlichen Akzeptanz mediatisierter Umwelten. Abb. 3: Bewegungsmuster nach Kerns, William, Fozard, James L.: »Tracking Natural Human Movements Identifies Differences in Cognition and Health«, in: Juan Carlos Augusto et al., Handbook of Ambient Assisted Living. Technology for Healthcare, Rehabilitaition and Well-being, Amsterdam: Ios 2012, S. 331-345, hier S. 338.
Ziel solcher Systeme ist es, ältere Menschen oder genauer Menschen mit Beeinträchtigungen aller Art möglichst lange in ihren Wohnungen und damit ambulant betreuen zu können. Das Spektrum möglicher Adressaten ist vielfältig und reicht von einfachen bis zu schwersten motorischen Störungen, über die graduell gestaffelte Beeinträchtigung kognitiver Fähigkeiten bis hin zu ausdifferenzierten Krankenbildern mit einer finalen Verlaufsform wie etwa dem der Demenz.19 Mit ihren jeweiligen Maßnahmen kommen die Systeme einem 19 | Zu den Details sei noch einmal pauschal auf die Überblicksdarstellung bei J. C. Augusto et al.: Handbook of Ambient Assisted Living 2012 verwiesen.
371
372
Stefan Rieger
postulierten Grundbedürfnis der Betroffenen entgegen, denen der Aufenthalt in ihren eigenen vier Wänden als so außerordentlich erstrebenswert gilt, dass man dafür eben auch in Kauf nimmt, ein gewisses Maß an gewohnter Privatheit und Entscheidungsautonomie Preis zu geben. Neben sattsam bekannten und (ob ihrer Anwendung im öffentlichen Raum) auch hinreichend umstrittenen Verfahren wie der Rundum-Video-Überwachung setzen solche Systeme verstärkt auf direktere Formen der Interaktion. So werden neben erwartbaren Verfahren der Steuerung raumrelevanter Parameter oder der Überwachung körperbezogener Daten neue Schnittstellen eingezogen, die sehr viel unvermittelter und unter Ausnutzung weiterer Datenkanäle wie der Haptik ansetzen. Eines dieser Programme etwa handelt von einem mitdenkenden Fußboden (smart floor), der in der Lage ist, Bewegungsmuster zu tracken und auf etwaige Störfälle unmittelbar zu reagieren. Diese Intelligenz wird so erreicht, indem mehrere Sensoren im Fußboden eingebettet werden. Diese erfassen unmerklich die Position und Bewegungsdaten des Bewohners, und arbeiten mit weiteren Hard- und Software-Komponenten zusammen um dem Benutzer mehr Sicherheit (z.B. Sturzerkennung, Fluchtwegplanung, Abschalten gefährlicher Geräte) und Komfort zu bieten. 20
Diese metaphorische Auf- und technische Ausrüstung von Wohnräumen schlägt in einer wunderbar stimmigen Formulierung zu Buche, in der diese Intelligenz außerdem mit dem ihr zugehörigen Organ benannt wird – Building Brains for Rooms: Designing Distributed Software Agents.21 Bei anderen Programmen erfolgt der Anschluss an die Technik sogar noch direkter, sitzen die Sensoren doch als Kleidungsstück eng am Körper oder gar unmittelbar auf der Haut. Biometrische Datenerhebung und intelligente Wohnraumbewirtschaftung arbeiten zusammen oder, um es anthropomorph zu formulieren, Hand in Hand. Derartige Spezial- und Einzelmaßnahmen sind in dieser verstreuten Form allerdings kaum geeignet, die Gemüter einer breiten Öffentlichkeit zu erregen, die nachgerade habituell auf Medienkritik eingestellt ist. Ganz anders fiel die öffentliche Reaktion aus, als Google die amerikanische Firma Nest Labs aufkaufte und damit in den Bereich des Wohnens vordrang. Bei dieser Transaktion, die einem Unternehmen der Hausautomatisierung galt, »welches sich 20 | Kachroudi, Nadhem: »Ambient Assisted Living«, in: Florian Schaub et al. (Hg.), Proceedings of the Seminar Research Trends in Media Informatics, Ulm 2010, S. 13-18, hier S. 16. http://vts.uni-ulm.de/docs/2010/7214/vts_7214_10167.pdf, vom 11. Juli 2015. 21 | Coen, Micheal H.: »Building Brains for Rooms: Designing Distributed Software Agents«, http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.49.6989&rep=r ep1&type=p df, vom 27. August 2013.
Smar t Homes
mit selbstlernenden Raumthermostaten und Rauchmeldern beschäftigt«22, wurden die Gefahren eines systematischen Vordringens in den privaten Wohnbereich sofort erkannt: »Google will in Ihr Schlafzimmer« titelte z.B. Spiegel Online.23 Prekär ist in dieser Übergangszone von einfachen Maßnahmen zur Steigerung des Komforts bis zu solchen der Wohnraumunterstützung allerdings der Punkt der Entscheidungsgewalt: zum einen, weil die Ausgestaltung häuslicher Umgebungen inzwischen so weit gediehen ist, dass es zunehmend schwierig wird, das Zusammenspiel der Einzelkomponenten sowie die Logik ihrer Steuerung und Entscheidungsfindung nachzuvollziehen; zum anderen, weil im Fall des AAL die Betroffenen nicht oder nicht mehr in der Lage sind, für sich zu entscheiden. Wenn das Wohnen agentenbasiert ist wie in MavHome: an agentbased smart home, wird die sprichwörtliche Entscheidung darüber, wer Herr im eigenen Haus ist, zunehmend erschwert oder gar vollends verunmöglicht: »The goal of the MavHome (Managing An Intelligent Versatile Home) project is to create a home that acts as an intelligent agent.«24 Aber mit der Basierung auf Agenten ist es nicht getan, brauchen Entscheidungs-Agenten doch ihrerseits Kriterien, die es ihnen erlauben, aus einem Spektrum möglicher Handlungen eine bestimmte auszuwählen und diese auch zu realisieren. Damit steht die Automatisierung von Entscheidungsprozessen zur Disposition, die von Algorithmen zum decision-making übernommen wird. Gesammelte Daten und das von ihnen erschlossene konjekturale Wissen werden zur Grundlage der selbsttätigen Intervention der jeweiligen Umgebung in der Zukunft. Für die praktische Umsetzung heißt das vor allem eines: Daten zu sammeln, jedweder Art und so viele wie nur irgend möglich. Die entsprechenden Publikationen in diesem Bereich veranschaulichen eindrucksvoll eine umtriebige Forschungslandschaft, deren Interventionsfeld sich 22 | So die prägnante erste Zeile bei Wikipedia zum Stichwort Nest Lab (http://de.wiki pedia.org/wiki/Nest_Labs, vom 06. April 2015). 23 | Stöcker, Christian: »Nest-Übernahme: Google will in Ihr Schlafzimmer«, in: Spiegel Online vom 14. Januar 2014 (www.spiegel.de/netzwelt/gadgets/nest-uebernahme-goo gle-will-in-ihr-schlafzimmer-a-943406.html, vom 11. April 2015). Mit der Biosurveillance stehen auch dem Gesundheitswesen neue Möglichkeiten zur Verfügung. Vgl. dazu Brown stein, John S. et al.: »Digital disease detection – harnessing the Web for public health surveillance«, in: The New England Journal of Medicine 360/21 (2009), S. 2153-2157. 24 | Cook, Diane J. et al.: »MavHome: An Agent-Based Smart Home«, in: IEEE Computer Society (Hg.), Proceedings of the First IEEE International Conference on Pervasive Computing and Communications (PerCom 2003), Los Alamitos S. 521-524, hier S. 521. Vgl. ferner Mozer, Michael C.: »Lessons from an Adaptive Home«, in: Diane J. Cook/Sajal K. Das (Hg.), Smart Environments: Technologies, Protocols, and Applications, Hoboken: Wiley 2005, S. 273-294.
373
374
Stefan Rieger
nicht auf das private Wohnen beschränkt und stattdessen die Ausgestaltung von Arbeitsumgebungen in den Blick nimmt. So bringt ein System unter dem Namen Pepys eine kulturell durchsetzte Semantik ins Spiel – im Namen jenes englischen Staatssekretärs Samuel Pepys (*1633 †1703) also, dessen autobiografische Aufzeichnungen zu Weltruhm gelangten, weil sie Ereignisse wie The Great Fire of London aus zeitgenössischer Perspektive präsentieren.25 Ein Blick hinter die von Niklas Luhmann so trefflich beschriebene Individualisierungssemantik und ihre literaturgeschichtliche Sachdienlichkeit nimmt sich vergleichsweise bescheiden aus und fördert Maßnahmen zu Tage, die dem habituell getrübten Erinnerungsvermögen von Büroangestellten auf die Sprünge helfen sollen.26 Die Protokolle, die unter dem vollmundigen Titel Pepys: Generating Autobiographies by Automatic Tracking verhandelt werden, wirken dabei so hölzern wie ihre Aufgabenstellungen beschränkt – nämlich die tagebuchartige Aufstellung, wer, wann, was, wo und unter Zuhilfenahme welcher Bürotechnik gemacht hat. Dieser Befund fällt umso stärker ins Gewicht, wenn man die Schilderung der wenig hölzernen Erotikeskapaden ihres berüchtigten Namensgebers im Hinterkopf behält. So vielfältig die Anlässe, so verstreut die Anliegen und so schwer überschaubar die Vorschläge auch sein mögen: Bei all dieser vermeintlichen Heterogenität zeichnet sich das Bild einer groß angelegten Forschungsinitiative ab, die – gerade im Fall von AAL – sozialpolitisch gewollt ist. Publizistisch spielen die einzelnen Vorschläge auf unterschiedlichen Bühnen – in Handbüchern, die das hohe Maß an funktionaler Ausdifferenzierung und damit die synergetische Verquickung mit anderen Initiativen etwa aus der Luft- und Weltraumforschung dokumentieren oder in Broschüren deutscher Bundesministerien wie dem für Bildung und Forschung, die entsprechende Projekte fördern. Dabei geht es neben allgemein gehaltenen Hinweisen für die Sicherstellung eines unabhängigen Lebens in der Zukunft um ganze Kataloge von Einzelmaßnahmen wie etwa ein vom Institut für Textiltechnik der RWTH Aachen und mit finanziellen Mitteln des Bundesministeriums für Bildung und Forschung unterstütztes Telemedizinprojekt namens NutriWear. Was in der BMBF-Bro25 | Vgl. Newman, William M./Eldridge, Margery A./Lamming, Michael G.: »Pepys: Generating Autobiographies by Automatic Tracking«, in: Proceedings of ECSCW, Amsterdam 1991, S. 175-188. Ein weiteres Beispiel für den Einsatz hochkultureller Verweise wäre ein System namens Moby Dick. Vgl. dazu Smit, Gerard J. M./Havinga, Paul J. M.: »Lessons Learned From the Design of a Mobile Multimedia System in the Moby Dick Project«, in: Handheld and Ubiquitous Computing, 2nd International Symposium, Bristol 2000, S. 85-99. 26 | Vgl. dazu den klassischen Text von Luhmann, Niklas: »Individuum, Individualität, Individualismus«, in: ders., Gesellschaftsstruktur und Semantik. Studien zur Wissenssoziologie der modernen Gesellschaft, Bd. 3, Frankfurt a.M.: Suhrkamp 1993, S. 149-258.
Smar t Homes
schüre als ein in die Kleidung verbrachtes System zum Ernährungsmanagement beschrieben wird, macht zwei Aspekte deutlich: Zum einen ist das pervasive Potential sehr hoch, ist doch sogar davon die Rede, das System möglichst körpernah und daher in die Unterwäsche zu verbauen. Der zweite Aspekt wird deutlich, wenn man sich die Zielsetzung ansieht, die zur Entwicklung geführt hat. Wie es dort – im Begründungsvorfeld von NutriWear – weiter heißt, sind vor allem alters- und krankheitsbedingte Mangelernährungen ein Problem, das im konventionellen Betreuungsbetrieb nur durch teure Hausbesuche behoben werden kann.27 Mit Bezug auf Wohnung und Kleidung wird eine doppelte Umhüllung des Körpers sichtbar, was nicht zuletzt darauf verweist, dass man nicht weniger als von einer Medienkulturgeschichte des Wohnens an dieser Stelle auch von einer solchen der Kleidung hätte sprechen können und vielleicht auch hätte müssen. Was gerade bei den aufs Textile angelegten Projekten zum Tragen kommt, ist eine großangelegte Flexibilitätsoffensive, ein wearable computing, bei dem intelligente Materialien dem Körper und seiner Umgebung so angepasst sind, dass sie – abseits möglichst hoher Vollständigkeit bei der Datenerfassung – bestimmte Kriterien erfüllen: Flexibilität, Mobilität und Unmerklichkeit. Rechentechnik und Alltagskleidung sollen verschmelzen und im Zeichen der Saum- und Nahtlosigkeit die Altlasten der Störung, der Behinderung und Beeinträchtigung abstreifen. Wollte man es mit Kriterien der medientheoretischen Diskussion fassen, so sind ubiquitousness, seaminglessness und Unmerklichkeit im Fall solcher Adaptionen so weit gediehen, dass negativ besetzte Redeweisen wie die von der Verschmelzung und der Cyborgisierung nicht lange auf sich warten lassen würden, doch gerade diese kommen hier nicht zum Zug.28
27 | Vgl. Projektinformation: Textilintegriertes, intelligentes System zum Ernährungsund Wasserhaushaltsmanagement – NutriWear www.iat.eu/ehealth/downloads/23_ NutriWear.pdf?PHPSESSID=014345 f 7a3096894ce4abe5006097790, vom 23. April 2015. 28 | Vgl. zum Verhältnis von ubiquitous und wearable computing Weiser, Mark: »Seamful Interweaving: Heterogeneity in the Design and Theory of Interactive Systems«, Vortrag, CM DIS ’04 Proceedings of the 5th conference on Designing interactive systems: processes, practices, methods, and techniques, AC 2, New York 2004. Zu einer kleidungsgestützten Neufassung von Foucaults Konzept der Überwachung vgl. Mann, Steve/Nolan, Jason/Wellman, Barry: »Sousveillance: Inventing and Using Wearable Computing Devices for Data Collection in Surveillance Environments«, in: Surveillance & Society 1/3 (2003), S. 331-355.
375
376
Stefan Rieger
III. H ome S wee t H ome Was in diesen Diskussionen und der Fülle ihrer Umsetzungen stattdessen sichtbar wird, ist nicht die apokalyptisch-phantastische, sondern eine nachgerade hausbackene Antwort auf die Frage, unter welchen Oberflächen und in welchen Formen man geneigt ist, Technik und diejenigen, die sich mit ihr verbinden, zu akzeptieren, wie also Umgebungen auszusehen und sich anzufühlen haben, die einem mehr und mehr – in Kooperation von kluger Kleidung und intelligentem Raum – auf den Leib rücken. Neben den Möglichkeiten in ihrer bunten Kasuistik und betriebsamen Marktförmigkeit ist in den technischen Manualen und Selbstbeschreibungen der Hersteller die Reflexion auf die Schnittstelle und damit die Frage nach der Inszenierung des Medialen als Kaschiertes oder als Wahrnehmbares ein gewichtiger Punkt. Die sorgfältige Abwägung der Sicht- und Fühlbarkeit des Sensors wird zwischen allen Schaltbildern des operativ Möglichen explizit mitgeführt und ist für performative Aspekte wie etwa die Wahl von Begriffen, Namensgebungen und argumentativen Strategien zuständig. Besonders greifbar ist dies dort, wo das Konzept home in Frage steht und das Bollwerk individueller Vertrautheit des angloamerikanischen Sprachraums (home sweet home) in Formulierungen wie Easy Home, Happy Healthy Home und anderen zugleich adaptiert und variiert wird – nun allerdings nicht als gestickter Schriftzug auf Sofakissen, sondern zur Bewerbung entsprechender Produktpaletten. In der Rede vom home wird überspielt, dass aus dem Haus, das man wie die sprichwörtliche Westentasche kennt, längst eines geworden ist, das man nicht mehr kennen kann. Aus dem Home Sweet Home ist so ein Entscheidungshaus und dieses damit ein Stück weit auch unheimlich geworden.29 Nicht zuletzt die gewählte Terminologie und die Rede vom smart home als heimelige Variante dessen, was als intelligent environment auch medientheoretisch für einige Aufmerksamkeit gesorgt hat, sind zunächst dazu angetan, bestehende Unterschiede zwischen Pflegebedürftigkeit und einem breiteren Segment zu kaschieren, das nur auf Steigerung des Wohnkomforts bedacht ist. Unter den Titel smart home fallen eben nicht nur hochpervasive Verfahren wie beim AAL, sondern auch ganze Bündel an Maßnahmen zu dem, was als intelligente Wohnraumbewirtschaftung Gegenstand einer ganzen Industrie ist. Diese zielt vor allem auf eines: auf Bequemlichkeit, die man sich von ortsunabhängigen Steuerungsmöglichkeiten untereinander vernetzter Komponenten erhofft. Damit wird zugleich aber auch deutlich, dass die Bemühungen um Akzeptanz im Fall von AAL deutlich höher ausfallen müssen als im Fall bloßer Komfortsteigerungsmaßnahmen. Neben einer performativen Behutsamkeit 29 | Vgl. zum Konzept des Unheimlichen Bartneck, Christoph et al.: »My Robotic Doppelgänger – A Critical Look at the Uncanny Valley«, Vortrag, The 18th IEEE International Symposium on Robot and Human Interactive Communication Toyama, Japan 2009.
Smar t Homes
in der Wahl von Namensgebungen ist ein Trend umsichtiger Semantisierung zu beobachten: Allerorten brechen sich Formulierungen Bahn, die neben der behaupteten Leichtigkeit von Ergänzung, von support, von collaboration, von assistence reden und deren weitere Bemühungen auch von Personifizierungen unter Verwendung positiv besetzter Sozialbeziehungen nicht zurückschrecken. Für das umworbene Projekt eines gemeinsamen Altwerdens empfehlen sich Pflegeroboter gar als Weggefährten (ally und companion), die allerdings, anders als die unsichtbar verbauten und dezent handelnden Techniken, Fragen nach der Sichtbarkeit und nach der Gestaltung aufrufen. Diese Aushandlungsprozesse finden im Zeichen oft preisgegebener, altertümlich klingender Begriffe wie comfort, trust, privacy, security, anonymity oder acceptance statt. Welche Sorgfalt auf diese Aspekte gelegt wird, zeigen durchnummerierte Kataloge, die sich wie ethische Gebrauchsanweisungen für das Leben in smarten Wohneinheiten ausnehmen: Richtlinien zu freiwilliger Selbstkontrolle und Benutzertransparenz sind Gegenstand eigener Abhandlungen. Entsprechend einer Arbeit Privacy by Design – Principles of Privacy Aware Ubiquitous Systems lassen sich Richtlinien aufzählen, die sich wie eine umgekehrte Spielart der Asimowschen Robotergesetze lesen, insofern sie den Menschen betreffen und nicht die Maschine – eine Benutzer-Ethik für den mediatisierten Raum.30 So werden speziell für den Aspekt des persönlichen Datenschutzes (privacy) gleich sieben Kriterien angesprochen und für das Design solcher intelligent environments werden weitere sechs Punkte erörtert, die es dort zu beachten gilt. Da diese Richtlinien meistenteils Fragen betreffen, die für den Umgang mit Datensicherheit überhaupt diskutiert werden, unterscheiden sie sich kaum von Diskussionen, die über den Anlass von AAL hinaus flächendeckend geführt werden. Doch eine der Richtlinien macht ein Problem sichtbar, das gerade Formen intelligenter Umgebungen eigen ist. Wie es im Beitrag von Marc Langheinrich heißt, soll der Benutzer nämlich auf eine besondere Weise eingebunden sein. Neben einer allgemeinen Zustimmungspflicht für die jeweiligen Maßnahmen gibt es auch eine solche zur allgemeinen Aufklärung, zu der unter der wunderbaren Formulierung einer awareness infrastructure gleich noch ein technisches Pendant geliefert wird. So heißt es in einer Arbeit Intelligent Environments von Timo Müller mit explizitem Bezug auf Langheinrich: »Notice: The user has to be well informed so that he can make the privacy decisions. The so-called ›awareness infrastructure‹ is a baseline technology for smart environments«.31 30 | Vgl. Langheinrich, Marc: »Privacy by Design – Principles of Privacy-Aware Ubiquitous Systems«, in: Gregory D. Abowd/Barry Brumitt/Steven Shafer (Hg.), Ubicomp 2001: Ubiquitous Computing. International Conference Atlanta Georgia, USA, September 30 – October 2, 2001, Berlin: Springer 2001, S. 273-291. 31 | Müller, Timo: »Intelligent Environments«, in: Schaub et al. (Hg.), Research Trends in Media Informatics, hier S. 9.
377
378
Stefan Rieger
Recht besehen wäre damit eine Bewusstseinstruktur behauptet oder geschaffen, die nicht nur beim Leben hilft, sondern die mithilft, zu bedenken, welche Lebenshilfe überhaupt akzeptabel sein soll – kurz: die mitdenkt und dabei die Entscheidungsmacht der Umgebung, die zu limitieren die ›baseline‹ antritt, zugleich auf eine Metaebene transponiert. Kurz: die helfen will, zu entscheiden, welche Entscheidungen sie treffen darf und treffen soll. Hinter der Fülle dieser Einzelmaßnahmen macht sich allerdings ein Punkt bemerkbar, der durch entsprechende Kataloge weder aus der digitalen Welt geredet noch durch wohlgemeinte Aufklärungsappelle wegempfohlen werden kann. So ist unter der Überschrift A. Anforderungen an die Assistenzsysteme etwas zu lesen, das schwerlich zu dem zu passen scheint, was die Folgeüberschrift als B. Anforderungen an die Akteure auflistet. An die Adresse der Technik gerichtet wird zunächst vor allem ›Dezenz‹ gefordert. Die Uniform, in der solche Systeme ihren Marsch zur Unterstützung des Menschen antreten, soll nach Möglichkeit so unsichtbar wie möglich ausfallen. Es soll kaschiert werden, dass Hilfe geleistet und dass Hilfe überhaupt vonnöten ist: »1) Unauffällige Überwachung: […] Der Benutzer des AAL-Systems soll seinen Alltag ganz normal führen können, ohne dabei von den integrierten Unterstützungs- und Überwachungseinheiten körperlich oder seelisch eingeschränkt oder gestört zu werden.«32 – dies jedoch geschieht (B.) – bei höchster awareness. Die Betroffenen sollen also gleichzeitig wissen und nicht wissen, sollen über die getroffenen Maßnahmen aufgeklärt sein und dennoch so tun können, als ob sie weder um sie wüssten noch sie eigens wahrnehmen würden oder sie wahrzunehmen in der Lage wären. Paradoxien dieser Art sind für den Umgang mit Medien kennzeichnend. Natürlich ist die nicht wahrgenommene, weil unauffällige Intervention durch die intelligenten environments eine Preisgabe von Autonomie, sie ist nachgerade konstitutiv für die Umsetzung solcher Umgebungen. Auf eine schwierig zu beschreibende Weise wird der Mediennutzer, der früher gerne noch mit dem Epitheton ›kritisch‹ versehen und damit aus den Vorwürfen eines unterstellten Autonomieverlustes gerettet wurde, mit diesen Umgebungen verbunden. Sie machen die Trennung von Körper und Technik hinfällig und weisen in der Praxis Medien als allgegenwärtig und unsichtbar aus. Zur Disposition stehen damit Kriterien einer Akzeptanz von Technik, die man zugleich wissen und nicht wissen soll, einer Technik, die sich gegenüber der Antiquiertheit ihres Gegenübers, des Menschen, so sehr bewusst ist, dass sie gar nicht zu erkennen sein will, dass sie sich unauffällig in einem Hinter- und Untergrund hält, im Backstage, um ihr Zielpublikum nicht allzu sehr zu beunruhigen. Mit Blick auf die Benutzerseite kommt darum gerade ein Begriff ins Spiel, der – nach Luhmann – immer 32 | N. Kachroudi: »Ambient Assisted Living«, in: Schaub et al. (Hg.), Research Trends in Media Informatics, S. 14.
Smar t Homes
schon als Mechanismus zur Reduktion von Komplexität greifen konnte: das Vertrauen: B. Anforderungen an die Akteure 1) Akzeptanz und Vertrauen: Die Akzeptanz der innovativen Dienstleistungen sowie das Vertrauen auf die im Hintergrund agierenden Technologien ist ein wesentlicher Faktor für den Erfolg des AAL-Konzeptes. 33
Es ist dieses Vertrauen, das nicht zuletzt Strukturen wie die Baseline der awareness infrastructure implementieren und evozieren sollen, um das jedoch auch auf dem Wege höchst überkommener anthropologischer Reflexe geworben wird, wie sie etwa zoomorphe Oberflächen mit flauschigen Robben, Topfpflanzen und Fotos der engsten Familie hervorrufen. Wie Untersuchungen ergeben haben, hat auch in der Altenbetreuung die Stunde der Tiere längst geschlagen – so jedenfalls konstatiert es ein Beitrag zum Thema tierischer Sozialarbeit, der die Tierroboter nicht nur zur Überwachung empfiehlt, sondern ganz besonders auf deren Eignung als Gefährten in der Altenhilfe hinweist. Was unter dem Titel Technik in animalischer Gestalt verhandelt wird, ist damit kein performativer Nebenkriegsschauplatz in einem Pflegedesign, das alte Menschen mit Stofftierrobben versieht.34 Vielmehr zielt er auf eine bestens erforschte Schnittstellendiskussion, die das Tier-, Pflanze- und Naturwerden so genannter Natural Human-Computer-Interfaces ganz oben auf ihrer Agenda hat. Ein Beitrag eines Handbuchs zum AAL stellt eine entsprechende Variante vor, die sich über die Natur hinaus gar der klassischen Sentimentalitätsmedien und damit der Kultur selbst bedient: Der Beitrag Happy Healthy Home setzt dazu auf das Digital Family Portrait. Dieses Verfahren soll Familienmitgliedern aus der Distanz ermöglichen, was im Englischen ganz unverblümt »›to keep an Eye‹ out for their family members in a casual, lightweigt manner«35 heißt. Das Bild einer älteren Dame, technisch umgesetzt als LCD Display, ist 33 | Ebd. 34 | Vgl. Weiss, Astrid: »Technik in animalischer Gestalt. Tierroboter zur Assistenz, Überwachung und als Gefährten in der Altenhilfe«, in: Jutta Buchner-Fuhs/Lotte Rose (Hg.), Tierische Sozialarbeit. Ein Lesebuch für die Profession zum Leben und Arbeiten mit Tieren, Wiesbaden: Springer 2012, S. 429-442. 35 | Do, Ellen Yi-Luen/Jones, Brian D.: »Happy Healthy Home«, in: Julie Maitland et al. (Hg.), The Handbook of Ambient Assistive Technologies for Healthcare, Rehabilitation and Well-being, Amsterdam: Ios 2012, S. 195-210, hier S. 197. Zur Familiarisierung vgl. auch Sack, Oliver/Röcker, Carsten: »›Like a Family Member Who Takes Care of Me‹. Users’ Anthropometric Representations and Trustworthiness of Smart Home Environments«, in: International Journal of Virtual Worlds and Human-Computer Interaction 2/1 (2014), S. 28-36.
379
380
Stefan Rieger
dabei umgeben von Schmetterlingen. Diese verändern sich nach Datenlage dessen, was im Haus der Verwandten passiert und informieren darüber, was diese gerade tut: ob sie sich schont, ob sie in der Küche werkelt oder fernsieht.
Abb. 4: Happy Healthy Home nach Do, Ellen Yi-Luen/Jones, Brian D.: »Happy Healthy Home«, in: Juan Carlos Augusto et al., Handbook of Ambient Assistive Technologies for Healthcare, Rehabilitation and Well-being, Amsterdam: Ios 2012, S. 195-210, hier S. 197. Spätestens hier, im Performativ von Unterstützung und Assistenz, von aufgeklärter und sich selbst kaschierender Mediennutzung, das beim AAL so überdeutlich greif bar wird, werden Bezugnahmen virulent, die in der Diskussion um die Theoriefähigkeit neuer Medien das Reflexionsniveau einer zukünftigen Medientheorie mitbestimmen werden. Es wird nicht mehr allein um den Entzug und das Transparentwerden von Medien in Akten der Mediatisierung gehen, sondern um die Frage, inwieweit wir ihrem Verschwinden zustimmen, bzw. ob wir überhaupt noch von ihm wissen können und wollen.36 Das Wohnen ist damit um seiner selbst willen, also um seine Bewohnbarkeit zu sichern, um das gebracht, was integraler Teil seiner Semantik war: Heimeligkeit und ein bewusst ausgeübtes Hausrecht. Doch diese Unmerklichkeit mündet nicht zwangsläufig in jenes Unheimliche, das auszubuchstabieren Sache von literarischen wie filmischen Bezugnahmen ist – um von Freuds Bemühungen an dieser Stelle gar nicht erst zu reden.37 So stellt Ray Bradbury 1950 in der 36 | Diese gerade auch der Arbeitsteilung und Ausdifferenzierung geschuldeten Aspekte zurückzunehmen, ist Gegenstand eines eigenen Maßnahmenkatalogs. Vgl. dazu de Roeck, Dries et al.: »I would DiYSE for it!: a manifesto for do-it-yourself internet-ofthings creation«, Vortrag, Proceedings of the 7th Nordic Conference on Human-Computer Interaction: Making Sense Through Design, New York, NY 2012. 37 | Vgl. dazu Freud, Sigmund: »Das Unheimliche«, in: ders., Gesammelte Werke. Zwölfter Band, Frankfurt a.M.: Fischer 1999, S. 227-268.
Smar t Homes
Erzählung Das Kinderzimmer (The Veldt) einen Raum vor, dessen hypertrophe Virtual Reality-Möglichkeiten schlicht zur Bedrohung der in ihm Lebenden wird. In einer radikalen Form der Weiterentwicklung von pädagogischen Vermittlungstechniken, wie sie Wolke entworfen hat, ist dieses Zimmer Teil eines automatisierten Wohnkomplexes, der unter dem Namen The Happylife Home die Familienangehörigen schlicht in den Wahnsinn treibt.38 Und in der filmischen Variation Smart House USA 1999 (dt. als Das Haus der Zukunft) übernimmt das Haus PAT gleich noch die Rolle einer Übermutter. Neben solchen dystopischen Szenarien eröffnet das Unmerkliche im AAL neue Möglichkeiten und damit dem Wohnen im Modus des Unmerklichen eine utopische Dimension. Konnten Denklehrstuben, psychologische Übungszimmer und taylorisierte Küchen eine wie auch immer geartete Klugheit sichtbar und manifest halten, ist sie im neuen Wohnen in Bereiche einer neu zu beschreibenden Latenz abgewandert. Herr im eigenen(!) Haus bleibt der Mensch jedenfalls nur im Modus einer gezielten Souveränitätspreisgabe. Und gerade in dieser Preisgabe liegt ein Zugewinn an Selbstbestimmung, die ihrerseits einen ungewohnten Blick auf Theorie und Ethik von Medien zur Folge hat.
38 | Vgl. Bradbury, Ray: »Das Kinderzimmer (The Veldt)«, in: ders., Der illustrierte Mann, Zürich: Diogenes 2008, S. 15-38. Zu konkreten Applikation in der Pädagogik vgl. Jarmon, Leslie: »An Ecology of Embodied Interaction: Pedagogy and homo virtualis«, in: Journal of Virtual Worlds Research, 2/1 (2009), S. 3-9.
381
Ein Internet der Dinge Keller Easterling
I. Der Ausdruck Internet der Dinge beschreibt eine Welt, in die eine Vielzahl digitaler Geräte so tief eingebettet ist, dass der Raum zwischen ihnen nicht aus verborgenen Schaltkreisen besteht, sondern vielmehr den Raum der Stadt selbst bildet. Der Computer ist der Box längst entwachsen und gewöhnliche Gegenstände fungieren im Raum als Träger digitaler Signale. Diese Kapazität scheint die Träume einiger Künstler und Architekten der zweiten Hälfte des 20. Jahrhunderts endgültig zu erfüllen: unter ihnen Jack Burnham, Cedric Price, Archigram und Christopher Alexander, die alle mit kybernetischen Apparaturen zur Modellierung des Raums experimentiert haben. Das Internet der Dinge könnte auch eine Antwort auf die Suche von Nicholas Negropontes Architecture Machine Group sowie mit Artificial Intelligence beschäftigten Architekten sein. Sie fragen nach dem Zusammenspiel digitaler Maschinen mit den Räumen der Stadt und des Körpers – sie interessiert das gegenseitige Modellieren, welches die Möglichkeiten beider Seiten zu potenzieren vermag. In den gegenwärtigen Auseinandersetzungen imaginieren Schriften wie Carlo Rattis Manifest Open Source Architecture, dass im digitalisierten Raum dieses Netzes der Dinge Architekturen auf ähnliche Weise wie ein Wiki generiert werden könnten. So wie Kunst und Architektur neue Technologien adaptieren, um eine neue Vorstellungswelt zu eröffnen oder eine neue Beziehung zur Welt zu modellieren, sind digitale Technologien oftmals die grundlegenden Parameter für die Ideen der Formgebung. Nichtsdestotrotz stoppen die genannten sehr fruchtbaren und produktiven Projekte häufig, bevor eine umfassende Auseinandersetzung überhaupt zu Stande kommen kann. Selbst wenn man dem blutsaugenden Impuls der Moderne zu trotzen vermag, ein neues Zeitalter auszurufen, würden sich diese Projekte wohl als aussichtslose Unterfangen erweisen. Ihre Produktion von Artefakten läuft Gefahr, zu einem anekdotischen, sogar marginalen Zwischenschritt in einer schlichten Aufeinanderfolge von Ideen zu werden.
384
Keller Easterling
Eine nicht-moderne Frage lautet, inwiefern Raum auch ohne digitale oder mediale Erweiterungen selbst Information ist. Dies betrifft die Artefakte, die uns bereits von jeher begleiten, die Grenzen, welche die oben genannten Experimente beschränken, aber auch überschreiten, und die Antworten, die wir bereits kennen.1 Wir sind nicht an die Idee gewöhnt, dass nichtmenschlichen, unanimierten Objekten Handlungsmacht oder eine Art Aktivität innewohnt; ebenso wenig sind wir daran gewöhnt, diese als Informationsträger wahrzunehmen, es sei denn, sie generieren sich aus code- oder textbasierten Informationstechnologien. Während wir mobile Telekommunikation als größte gemeinsam genutzte Plattform des Informationsaustauschs nutzen, sind wir weitaus weniger daran gewöhnt, Raum als Technologie oder als Medium der Information zu verstehen – einer gleichsam nichtdeklarierten Information, die nicht in Text oder Code zergliedert wird. In der Tat, je allgegenwärtiger code- und textbasierte Informationsnetzwerke werden, desto schwieriger wird es, raumbasierte Technologien und Netzwerke, die unabhängig von digitalen Infrastrukturen bestehen, als solche zu erkennen. Wenige würden den statischen Arrangements eines konkreten Highway-Systems oder eines elektrischen Stromnetzes Handlungsmacht zusprechen. Diese wird allenfalls sich bewegenden Autos oder elektrischen Flüssen zugeschrieben. Räume und urbane Arrangements werden gemeinhin als Versammlung verschiedener Objekte oder Mengen behandelt, nicht aber als Entitäten mit je spezifischer Handlungsmacht. Und doch gilt: Organisation selbst ist aktiv. Sie macht etwas. Veränderungen in der Organisation erzeugen Information. Entsprechend lautet die Intuition dieses Textes, dass Information als Aktivität oder als das, was wir hier active form nennen wollen, prozessiert wird, mit machtvollen Gewohnheiten des Denkens konfrontiert ist.
II. Die Projekte von Cedric Price und Christopher Alexander stehen an der Schwelle, an der Architektur bereits als Information designt wird. Es ist aufschlussreich, der Frage nachzugehen, warum ihre Praktiken bisweilen als historische Kuriositäten behandelt werden und immer noch den Reiz des Neuen versprühen. Price, ein Londoner Architekt, dessen Schaffensperiode von den 1960er Jahren bis zum Beginn des 21. Jahrhunderts reicht, präfiguriert in seinem Werk kunstvoll die Diskussionen der active form und einer Art räumlicher Software oder räumlicher Protokolle. Fasziniert von Netzwerken, Infrastruk1 | Den Ausdruck ›nicht-modern‹ entlehne ich aus Latour, Bruno: Wir sind nie modern gewesen, Frankfurt a.M.: Fischer 1998.
Ein Internet der Dinge
turen und den Bewegungen von Populationen, tüftelte Price an einer variablen Mischung fragmentierter Autorenschaft und Improvisation. Er designte ein Repertoire an Raumelementen, infrastrukturelle Netzwerke, Spiele und Spielzeuge. Seine Konstruktionen waren im Wesentlichen zeitbasierte Choreografien menschlicher und nichtmenschlicher Akteure. Price rückte seine Arbeiten damit fort von Objekten, seine Handschrift tragenden Gebäuden und Denkmälern hin zu einer Architektur, die als Bewegung und Performanz gedacht war. Er fühlte sich durch das »noch Unbekannte beflügelt«. Er war interessiert daran, »weniger zu tun« und schrieb, dass »kalkulierte Gleichgültigkeit von Seiten des Architekten großartige Arbeiten anderer hervorbringe.«2 Price entschied sich, wie ein Performance-Künstler zu arbeiten und notierte, dass der Architekt an sich einen »schlechten Performer abgibt, der sich fortwährend schlecht darstellt«3. Price konzentrierte sich auf das Zwischenspiel. Er selbst genoss es, sich inmitten des Austauschs von Objekt-Form und active form zu verorten, um zu beobachten, wie diese beiden Größen in einer Art eigener Dynamik ineinandergreifen, um im Environment zu wirken. Er hielt dazu fest:
Quelle: Alexander, Christopher: »A City is not a Tree«, in: Design 206 (1966), S. 46-57, hier: S. 48. 2 | Price, Cedric: Works II, London: Architectural Association 1984, S. 18. 3 | Price, Cedric/Obrist, Hans-Ulrich: Re:CP, Basel: Birkhäuser Architecture 1999, S. 64.
385
386
Keller Easterling Ich halte es für unwahrscheinlich, dass Architektur und Stadtplanung den Beiträgen entsprechen werden, die Hush Puppies [ein Hersteller bequemer Schuhe – Anm. d. Ü.] für die heutige Gesellschaft geleistet haben, nicht zu sprechen von den Transistoren und Rückkopplungen, bis ihnen eine grundlegende Neubewertung ihrer Kompetenzen gelingt oder von außen aufgezwungen wird. Designer und Architekten sollten sich besser damit beschäftigen, neue Sprachen mit Computern zu entwickeln, anstatt sie zu verwenden um das Offensichtliche zu bestätigen. Ich möchte vorschlagen, die sozio-umweltlichen Faktoren, die einsame ältere Menschen davor bewahren, verrückt zu werden, in die Berechnung der ökonomischen Realisierbarkeit einer Vermietung von leerstehenden Bürogebäuden einzubeziehen – nur ein Vorschlag. 4
Im besten Fall entfalteten sich die Entwürfe von Price zeitbasiert, ihre lokalen Orte oder Bühnen überschreitend und dazu gedacht, die holistischen Träume der Kybernetik durcheinanderzubringen. Wie auch immer, einige seiner Projekte strebten die Berechenbarkeit und Vorhersagbarkeit holistischer, kybernetischer Abläufe an, die homöostatisch reguliert sein sollten. Beispielsweise waren die Projekte Potteries Thinkbelt und Fun Palace, die in Zusammenarbeit mit dem Theaterdirektor Joan Littlewood und dem Kybernetiker Gordon Pask entstanden, als theatrale und pädagogische Räume in London geplant, wurden jedoch niemals umgesetzt. Price, der sich auch mit den Landschaften des Verkehrs auseinandersetzte, integrierte in seine Arbeiten die Ausrüstung, die beim Transport von Containern verwendet wird, um seine programmatischen Bauelemente als kinetisch, interaktiv und responsiv zu gestalten. Sein Generator-Projekt, eine Landschaft mit minimalem Konstruktionsaufwand, die als Teil eines bewaldeten Areals in Florida geplant war, reflektierte ein ComputerSpiel, welches mehreren Spielern und Objekten in der Landschaft ein Repertoire an Bewegungen zuordnet. Das Ausmaß, in dem diese Projekte als streng integrierte, vielleicht vorhersagbare Kybernetik gedacht waren, verhinderte möglicherweise ein weiterführendes Experimentieren mit ihnen.
III. Christopher Alexanders direkte Anwendung der Mengenlehre und der Netzwerktopologie auf urbane Morphologien illustriert auf ähnliche Weise die Tücke von Codes und Vorhersagbarkeit. Alexander, der eine multidisziplinäre Ausbildung in Physik, Mathematik, Informatik und Architektur genossen hat, richtete seine Arbeit sowohl auf die Objektform und active form als auch auf menschliche und nichtmenschliche Akteure. Indem er sich dieser Techniken 4 | Price, Cedric: »Cedric Price Talks at the AA«, in: AA Files 19 (1990), S. 33.
Ein Internet der Dinge
bediente, schaffte er eine Wissenschaft, die gleichzeitig das Feld, das er erobern wollte, verschloss. In seinem 1965 erschienen Artikel »The City is not a Tree« kritisiert Alexander die infrastrukturelle und organisatorische Schablone vieler Siedlungen und Städte. Ein Baum, so Alexander, sei eine sich verästelnde Struktur, in der Mengen (sets) entweder strikt voneinander getrennt sind oder zu einer Menge ohne Überlappung mit anderen Mengen gehören. Die Zweige wachsen nicht zusammen, sondern einzeln von einem einzigen Stamm aus. Alexander demonstrierte, dass Greenbelt, Maryland, Levittown, der Plan Londons, Brasilia, Kenzo Tanges Entwurf für Tokyo, Chandigarh, Ludwig Hilberseimers Siedlungspläne und andere allseits bekannte Stadtpläne als ›Bäume‹ gedacht waren. Er behauptete, dass Siedlungen in »traditionellen Gesellschaften« sich durch Querverbindungen und Überlappungen entwickelt hätten, die keine baumähnliche Struktur aufweisen, und zwar vornehmlich aufgrund der Aktivitäten der Bewohner und weniger den Ideen der Stadtplaner oder der Autoritäten folgend. Autorität bringt nach Alexander immer eine Baumstruktur und daher eine ›artifizielle‹ Stadt hervor.5 Alexander betrachtete die Aktivität innerhalb des urbanen Raumes als Information. In »The City is not a Tree« gab er folgendes berühmtes Beispiel: Dazu ein Beispiel. In Berkeley, an der Ecke Hearst- und Euclid Street, liegt ein drug store, davor befindet sich eine Verkehrsampel. Im Eingang zum drug store steht ein Zeitungsständer, an dem Tageszeitungen ausgehängt sind. Wenn die Ampel Rot zeigt, stehen die Leute, die darauf warten, die Straße zu überqueren, untätig neben der Ampel; und weil sie nichts zu tun haben, schauen sie die auf dem Ständer ausgehängten Zeitungen an, die sie von ihrem Standort aus sehen können. Einige von ihnen lesen nur die Schlagzeilen, andere kaufen während der Wartezeit eine Zeitung. Dieser Effekt bringt den Zeitungsständer und die Ampel in gegenseitige Abhängigkeit. Der Zeitungsständer, die Zeitungen daran, das Geld, das von den Taschen der Leute in den Münzschlitz wandert, die Leute, die an der Ampel stehenbleiben und die Zeitungen lesen, die Verkehrsampel, die elektrischen Impulse, die die Ampel schalten, und der Gehweg, auf dem die Leute stehen, bilden ein System – sie wirken alle zusammen. 6
Für Alexander stellt das urbane System eine Art Halbverband (semi-lattice) im Sinne der Mengenlehre dar. Zwei Mengen von Objekten und Aktivitäten überlappen sich hierbei am beschriebenen Kiosk. Übersetzt in eine diagrammatische, sich verästelnde, aber nicht baumartige Struktur überlagern sich die Zweige. Diagramme von in diesem Sinne verteilten Verbünden findet man in ›natürlich gewachsenen Städten‹ wie Sienna, Liverpool, Kyoto oder Manhattan. 5 | Vgl. Alexander, Christopher: »Die Stadt ist kein Baum«, in: Bauen + Wohnen, 7 (1967), S. 283-290. 6 | C. Alexander: »Die Stadt ist kein Baum«, S. 283.
387
388
Keller Easterling
Quelle: Alexander, Christopher: »A City is not a Tree«, in: Design 206 (1966), S. 46-57, hier: S. 49.
Die Baumstruktur untergliedert dabei urbane Funktionen in eine Organisation, während der Halbverband eine Art ›Ambiguität‹ oder ›Mulitplizität‹ anbietet und sich als eine Struktur herausstellt, die »dick, widerständiger, unterschwelliger und komplex« ist. Einerseits erweitert Alexander das gängige Repertoire des Designs um Aktivitäten. Andererseits erfahren diese Aktivitäten eine sofortige Kodifizierung und Klassifizierung. Er nähert sich dem Gegenstand seiner eigenen Kritik an, indem er das künstliche durch ein ›natürliches‹ Korrektiv ersetzt – an die Stelle des Baums tritt der Verband. Trotz Alexanders Bestreben, active form und Information zu integrieren, schafft er letztlich eine weitere bewegungsunfähige Form.
Ein Internet der Dinge
IV. Weit von obskuren Experimenten entfernt, ist die weltweit folgenreichste Architektur bereits Information geworden. Aufgrund seiner überwältigenden Ubiquität immer noch ungewohnt, ist der Raum selbst eine infrastrukturelle Technologie geworden. Mobil und kommerziell, überzieht dieser Raum als sich wiederholendes Phänomen die ganze Welt. Verglichen mit dem Bruchteil des Raums, um den sich die meisten Fachleute kümmern, gleichen diese Technologien einer Feuersbrunst. Die radikalsten Veränderungen der globalisierten Welt sind als Protokolle oder als Software des infrastrukturellen Raums verfasst. Einige moderne Gewohnheiten vermeidend, die den Projekten von Price und Alexander noch zugrunde lagen, vermag ein aufkommendes künstlerisches Bestreben die neue globale Infrastruktur zu adressieren. Es basiert weder auf digitaler Durchdringung noch auf vorhersagbaren kybernetischen Systemen. Es handelt sich um keine neuartige, aber dennoch um eine extra art und einen Modus des Denkens, in dem Aktivität die Form selbst ist. Aktivität ist nicht notwendigerweise Bewegung, sondern vielmehr in Beziehungen verkörpert, in relationalen Positionen und Potentialen innerhalb von Organisationen. Aktivität ist der Anordnung (disposition) einer Organisation immanent. Es gibt kein Rezept für eine Architektur, nur für eine Technik, die diese Aktivität durchführen könnte. Active forms gestalten Anordnungen als Sets von Möglichkeiten, Räumen in der Zeit Form zu geben. Active forms sind Formen für den Umgang mit Form. Der Hinwendung vom nominativen zum aktiven Modus, der einiges an Ideenbildung und Analyse in den Denkweisen des Designs verlangt, ist in anderen Disziplinen weitgehend üblich und natürlich – man denke etwa an das Theater. Wie schon Price erkannte, könnte das ästhetische Training in der extra art dem des Theaters ähneln. Es benötigt keine besonderen technologischen Vorrichtungen. Die Erzeugung von Aktivität ist das Handwerk des Schauspielers. Er hält sich an ein Script, dieses aber fungiert lediglich als Spur oder Artefakt, das auf die dahinter liegenden Aktionen verweist. Eine Szene ist eine Kette von Aktionen, die Bedeutung vermitteln. Schauspieler haben es nur selten mit nominativen oder deskriptiven Ausdrücken oder Stimmungen zu tun. Niemand kann beispielsweise ›Mutter-Sein‹ spielen. Der Versuch, einen solchen Zustand zu spielen, zählt im Theater zu dem, was ›anzeigen‹ (indicating) genannt wird. Wie Deleuze anführt, müssen »mediokre Schauspielerinnen weinen, um Trauer zu zeigen« 7. Im Theater sind die unzähligen Ausdrucksformen und nicht die Repräsentationen die Währung. So fragt der Regisseur den Schauspieler: »Was wirst du tun?« Es ist gemeinhin verbreitet, dass Handlung die Worte trägt und nicht umgekehrt. Es ist wichtig zu ver7 | Deleuze, Gilles: Proust and Signs, Minneapolis: University of Minnesota Press 2000, S. 39.
389
390
Keller Easterling
stehen, dass die Aktivität, die die Aufführung leitet, nicht notwendigerweise Bewegung ist oder einer Geste entspringt. Es handelt sich eher um die treibende Kraft eines aktiven Verbs. Eine Schauspielerin würde demnach nicht das ›Mutter-Sein‹ spielen, sondern eher ein Kind liebkosen. Unsicherheit oder die Unmöglichkeit, Bedeutung festzuhalten, paralysieren den Schauspieler nicht, sondern erlauben ihm mehr Freiheit und eröffnen einen Interaktionsraum mit den anderen Schauspielern. Aktivität ist der Träger von Information, Nachwirkungen, Wandel und Ereignissen. Aktivität ist das Material, aus dem Dinge gemacht sind und Bedeutung erzeugt wird. Der Schauspieler geht mit Variablen und Intentionen um, die die Information eines Stücks formen. Während das Modell von Software als Computer-Code lebendig ist, kann man an die Stelle dieses Modells auch eine Software setzen, die auf active forms, Deltas und Variablen im Raum basiert. So hat beispielsweise Bruno Latour architektonische Manipulationen mittels digitaler Technologien wie CAD kritisiert, in denen »Objekte sich bewegen, ohne eine Transformation zu erfahren« und »in geometrischer Hinsicht manipuliert und projiziert werden« 8. Sich von diesen Praktiken abgrenzend, bekundet Latour, dass man sich »mit dieser Art von Projekt nicht einen Zentimeter aus dem Rahmen löst, den die Moderne vorgegeben hat. Man ist weiterhin vorrangig auf das Objekt und nicht auf das Ding fokussiert.« Latour hat über eine Art aktiver Software (active software) sinniert, die nicht einfach Form als Geometrie verdinglichen würde, sondern intelligent genug sei, um unmittelbar ein Netz kultureller, politischer und ökonomischer Information zu erzeugen. Dadurch würde ein erweiterter Bereich der Objekt-Form mit der active form zusammengeschlossen. Mit noch ein wenig mehr Abstand betrachtet, kann diese von Latour imaginierte Software als eine Erweiterung seines größeren Konzepts des Zusammenspiels innerhalb der Actor-Network-Theory verstanden werden, eine Theorie, die nicht über Software oder spezifische Technologien zu verfügen braucht, um zu existieren. Die Aktivität innerhalb eines räumlichen Environments steht also nicht in Abhängigkeit zu einem digitalen Environment. Sie mag mittels Code-/Text-basierter Software erweitert werden. Eine raumbasierte Software oder ihr Protokoll wären Plattformen, die Variablen für Raum als Information bereitstellen. Dispositionelle Ausdrucksweisen und active forms können als raumbasierte Software, als Protokolle oder als Diagramme in Erscheinung treten. Ein Diagramm, so Deleuze und Guattari, ist keine repräsentative Skizze eines singulären Arrangements, sondern vielmehr eine »abstrakte Maschine«, die »etwas zukünftig Reales«9 generiert. In ähnlicher Weise diskutiert Deleuze Foucaults Verständnis des Dispositivs und des sozialen Apparats als »Kräftelinien«, Tra8 | Prieto, Mara J./Youn, Elise S.: »Interview with Bruno Latour: Decoding the Collective Experiment«, in: Agglutinations.com, vom 05. Juli 2004 (nicht mehr online). 9 | Deleuze, Gilles/Guattari, Felix: Tausend Plateaus, Berlin: Merve 1992, S. 196.
Ein Internet der Dinge
jektorien oder »Namen für Variablen«.10 Gregory Bateson schrieb: »Der Schalter existiert nur in dem Augenblick, wo seine Einstellung verändert wird, und daher hat der Begriff ›Schalter‹ ein besonderes Verhältnis zur Zeit. Er ist eher der Vorstellung ›Veränderung‹ als der Vorstellung ›Objekt‹ verwandt.«11 Active forms können im urbanen Raum als Ausdrucksweisen von Variabilität und Interdependenz dienen, gleichsam einer Rechenfunktionen oder des Cosinus von X – gleichsam als eine Software, die es ermöglicht, Relationen entstehen zu lassen, ohne dabei die Resultate zu kontrollieren. Der Cosinus steuert als expliziter Ausdruck nur eine multiple Menge von Werten. Es ist weniger wichtig, diese Werte zu kennen, als die Disposition zu verstehen, welche als Graph eine bestimmte Kurve formt. Diese extra art ist nicht-modern, denn die active form muss die Objekt-Form nicht zuerst beseitigen, um selbst zu existieren. Es gibt daher keine Notwendigkeit zur Hierarchisierung, Vereinzelung oder zum Wettkampf zwischen diesen beiden Ideen, die ohnehin bereits als Kontinuitäten koexistieren. Die ObjektForm kann von der active form ebenso befreit werden, wie sie selbst zur active form werden kann – wie ein Stein im Wasser. Es gibt keine Notwendigkeit, active forms zu generieren, und ebenso keine Notwendigkeit, ein starres System neuer Bedeutungen unter einem neuen Begriff zu fassen.12 Die Beobachtung lautet lediglich, dass es Modi der Formgenese gibt, die die Objekt-Form auf substantielle Weise zu übersteigen vermögen – also einzig die Notwendigkeit, auf ein Projekt zu verweisen, das künstlerischen Genuss und politische Macht versprechen. Die extra art der active form und die Disposition setzen so ein Internet der Dinge in Szene, ohne das Internet als Voraussetzung zu haben.
Übersetzt von Regina Wuzella Dieser Text wurde zuerst veröffentlicht in der Zeitschrift e-flux13, Ausgabe 31, 1/2012. Wir danken den Herausgebern für die freundliche Erlaubnis zur Veröffentlichung.
10 | Deleuze, Gilles: »Was ist ein Dispositiv?«, in: François Ewald/Bernhard Waldenfels (Hg.), Spiele der Wahrheit. Michel Foucaults Denken, Frankfurt a.M.: Suhrkamp 1991, S. 153-162, hier: S. 154, 155. 11 | Bateson, Gregory: Geist und Natur. Eine notwendige Einheit, Frankfurt a.M.: Suhrkamp 1982, S. 136. 12 | Dieses Argument ist darum bemüht, moderne Vorentscheidungen zu vermeiden und eine integrative Position einzunehmen. In eine ähnliche Richtung geht Nicolas Bourriauds Begriff der Form mit einer ›altermodernen‹ Position. Dennoch soll dieses Argument das Feld seiner Anwendung und vergleichbarer Begriffe erweitern. Bourriaud, Nicolas: Relational Aesthetics, Paris: Les Presses du Réel 2002. 13 | www.e-flux.com/
391
Autorinnen und Autoren
Adamowsky, Natascha, Professorin für Medienkulturwissenschaft an der AlbertLudwigs-Universität Freiburg, Forschungsschwerpunkte: Epistemologie der Partizipation, zivile Sicherheitsforschung, Ästhetik und Medialität von Spezialeffekten. Andersch, Tammo, WP, MBA, Vorstandsvorsitzender der Andersch AG Wirtschaftsprüfungsgesellschaft. Bogost, Ian, Doppelprofessur für Media Studies an der School of Literature, Media and Communication und für Interactive Computing am College for Computing, Georgia Institute of Technology. Forschungsschwerpunkte: Kulturen des Computerspiels, objektorientierte Philosophien und Spieledesign. Bolinski, Ina, Wissenschaftliche Mitarbeiterin am Institut für Medienwissenschaft der Ruhr-Universität Bochum im DFG-Projekt »Das verdatete Tier. Zum Animal Turn in der Medienwissenschaft«, Forschungsschwerpunkte: Kulturgeschichte der elektronischen Tierkennzeichnung, Human-Animal-Studies, Smarte Umwelten und Tracking-Technologien, Techniken des Precision Farming. Brown, John Seely, war bis 2002 Forschungsdirektor der Firma Xerox und leitete zwischen 1992 und 2000 das Palo Alto Research Center (PARC). Derzeit ist er Senior Fellow an der Annenberg School of Communication der University of Southern California sowie Aufsichtsratsmitglied bei Amazon und dem »Centers for the Edge«-Forschungslabor der Unternehmensberatung Deloitte. Bunz, Mercedes, Senior Lecturer an der University of Westminster, London. Forschungsschwerpunkte: Soziologie digitaler Medien, Technikphilosophie und Critical Theory.
394
Internet der Dinge
Easterling, Keller, Architektin und Professorin für Architekturtheorie, Yale University. Forschungsschwerpunkte: Politiken der Infrastrukturen, Kritik der Stadtentwicklung, Konzepten privater Behausung. Engemann, Christoph, Wissenschaftlicher Mitarbeiter am der DFG-Kollegforschergruppe Medienkulturen der Computersimulation Leuphana Universität Lüneburg. Forschungsschwerpunkte: digitale Identität, Authentifikationsmedien, Genealogie der Transaktion, Ruralität und Scheunen. Fritsch, Dorothée E., Expertin für Markt- und Wettbewerbsanalysen, vorwiegend im Rahmen von Restrukturierungsprojekten. Gabrys, Jennifer, Reader and Principal Investigator, Goldsmiths, University of London. Forschungsschwerpunkte: Environmental Sensing, Medien und Materialität, Science and Technology Studies Gießmann, Sebastian, Wissenschaftlicher Koordinator des DFG-Graduiertenkollegs Locating Media, Universität Siegen. Forschungsschwerpunkte: Mediengeschichte der Kreditkarte und des Bezahlens, Internet- und Digitalisierungsforschung, Rechtsanthropologie. Hoffmann, Max, Dipl.-Ing. M. B. A., Academic Researcher am IMA/ZLW & IfU, RWTH Aachen. Forschungsschwerpunkte: Produktionstechnik, Automatisierungstechnik sowie Informationsmanagement im Maschinenbau. Hofmann, Kai, Wissenschaftlicher Mitarbeiter am Lehrstuhl für Öffentliches Recht, Informationstechnologierecht und Rechtsinformatik der Universität Passau. Forschungsschwerpunkte: Datenschutzrecht, Arbeitsrecht, Schutz von Unternehmensgeheimnissen, E-Learning. Hornung, Gerrit, Professor für Öffentliches Recht, IT-Recht und Umweltrecht an der Universität Kassel, Forschungsschwerpunkte: Verfassungsrecht und Grundrechte in der Informationsgesellschaft, Datenschutz- und IT-Sicherheitsrecht, rechtswissenschaftliche Innovationstheorie. Jeschke, Sabina, Professorin, Direktorin des Institutsclusters IMA/ZLW & IfU – RWTH Aachen. Forschungsschwerpunkte: Robotik und Automatisierungstechnik, Industrie 4.0 sowie komplexe IT-Systeme. Kaerlein, Timo, Wissenschaftlicher Mitarbeiter am Institut für Medienwissenschaften der Universität Paderborn, Forschungsschwerpunkte: Digitale Nah-
Autorinnen und Autoren
körpertechnologien, Interfaces: Theorie, Ästhetik und Kritik, Medienkulturen der Obsoleszenz. Marquardt, Katharina, verfügt über langjährige Erfahrung in der Restrukturierungs- und Transaktionsberatung. Branchenschwerpunkte umfassen neben dem Maschinen- und Anlagenbau die Automobilindustrie sowie Druckereien und das Verlagswesen. Meisen, Tobias, Juniorprofessor, Geschäftsführer des Lehrstuhls für Informationsmanagement im Maschinenbau IMA – RWTH Aachen. Forschungsschwerpunkte: Modernes Informationsmanagement in cyber-physischen Systemen und Industrie 4.0, Interoperabilität in heterogenen Systemlandschaften sowie Artificial Intelligence und Machine Learning. Neumann, Linus, Dipl.-Psych., ist Hacker und einer der Sprecher des Chaos Computer Clubs. Forschung zur IT-Sicherheit, insbesondere zu deren menschlichen Faktoren. Als Experte für IT-Sicherheit Sachverständiger in Ausschüssen des Deutschen Bundestags. Parikka, Jussi, Professor in Technological Culture and Aesthetics, Winchester School of Art/University of Southampton. Forschungsschwerpunkte: Medienarchäologie, Digitale Kulturen, Environmental Humanities. Rieger, Stefan, Professur für Mediengeschichte und Kommunikationstheorie, Ruhr-Universität-Bochum. Forschungsschwerpunkte: Geschichte der Kybernetik, mediale Anthropologien und Utopien der Kommunikation. Schröter, Jens, Professor für Medienkulturwissenschaft, Universität Bonn. Forschungsschwerpunkte: Theorie und Geschichte digitaler Medien, Kritische Medientheorie, Dreidimensionale Bilder. Schulze, Karsten, verfügt über langjährige Expertise in der Beratung von Unternehmen in Umbruch- und Restrukturierungssituationen. Sein Schwerpunkt liegt in der Erstellung von Restrukturierungs- und Performancekonzepten sowie der Begleitung ihrer Umsetzung. Seemann, Michael, ist Kulturwissenschaftler und Publizist in Berlin und arbeitet zum Kontrollverlust im Internet und seinen Folgen. Sprenger, Florian, PostDoc am Digital Cultures Research Lab der Leuphana Universität Lüneburg und ab Oktober 2015 Juniorprofessor für Medienkulturwissenschaft, Goethe-Universität Frankfurt. Forschungsschwerpunkte: Geschichte
395
396
Internet der Dinge
künstlicher Environments, Medien der Medien, Theorien medialer Kontrolle in der Gegenwart. Tummel, Christian, Dr.-Ing. Dipl.-Inform., Research Group Leader des Institutsclusters IMA/ZLW & IfU – RWTH Aachen. Forschungsschwerpunkte: Agiles Management in Technologie und Organisation, Logistische Optimierung sowie Datenexploration und -management. Weiser, Mark (1952-1999), war Leiter des Computer Science Laboratory am Xerox Palo Alto Research Center und prägte dort den Begriff Ubiquitous Computing.
X-Texte bei transcript Dierk Spreen
Upgradekultur Der Körper in der Enhancement-Gesellschaft
Juli 2015, 160 Seiten, kart., 19,99 €, ISBN 978-3-8376-3008-4 E-Book: 17,99 €, ISBN 978-3-8394-3008-8 Enhancement, Prothesen, Körper-Upgrade – in letzter Zeit ist einetechnologische Durchdringung des Körpers zu beobachten, die als Symptom eines tiefgreifenden gesellschaftlichen, ökonomischen und kulturellen Wandels hin zu einer Optimierungs- und Upgradekultur zu begreifen ist. Warum sollten die sich generalisierenden Optimierungsimperative vor dem Leib Halt machen? Im Kontext einer zunehmenden technischen Reproduzierbarkeit des Körpers scheint das Individuum von den Schranken seiner natürlichen Konstitution befreit: Medikamentöse und chirurgische Optimierungsmöglichkeiten werden unabhängig von medizinischen Indikationen ebenso aktiv genutzt wie technologisches Enhancement oder verdatete Leistungs- und Gesundheitskonzepte. Dierk Spreen rekonstruiert die Entstehungskontexte des Wertewandels zu einer Upgradekultur und diskutiert Möglichkeiten der sozialtheoretischen Stellungnahme.
www.transcript-verlag.de
Kaffee trinken und Zeitung lesen ist eine wunderbare Kombination. Eine Zeitung sollte unabhängig sein. Und der Kaffee fair gehandelt. www.taz.de/tazshop