143 60 2MB
German Pages 161 [166] Year 2018
Petra Grimm / Oliver Zöllner (Hg.)
Medienethik Franz Steiner Verlag
Schriftenreihe Medienethik - Band 17
Mensch – Maschine Ethische Sichtweisen auf ein Spannungsverhältnis
Petra Grimm / Oliver Zöllner (Hg.) Mensch – Maschine
Herausgegeben von Rafael Capurro und Petra Grimm Band 17
Petra Grimm / Oliver Zöllner (Hg.)
Mensch – Maschine Ethische Sichtweisen auf ein Spannungsverhältnis
Franz Steiner Verlag
Redaktion: Karla Neef Umschlagabbildung: Valeria Henkel Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar. Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist unzulässig und strafbar. © Franz Steiner Verlag, Stuttgart 2018 Druck: Laupp & Göbel, Nehren Gedruckt auf säurefreiem, alterungsbeständigem Papier. Printed in Germany. ISBN 978-3-515-12271-9 (Print) ISBN 978-3-515-12272-6 (E-Book)
INHALTSVERZEICHNIS
Oliver Zöllner Wer sind die Roboter? Eine popkulturell abgeleitete Sicht auf das Mensch-Maschine-Verhältnis – und eine Einführung in dieses Buch..............7 Bernhard Debatin Die Maschine, des Menschen bester Freund? Philosophische und ethische Überlegungen zum Mensch-Maschine-Verhältnis ....................19 Klaus Wiegerling Warum Maschinen nicht für uns denken, handeln und entscheiden ..............33 Jessica Heesen Wer entscheidet für uns? Big Data, intelligente Systeme und kluges Handeln ........................................................................................47 Rudolf Drux Es „machen die Maschinen allezeit gute Arbeit und laufen den Menschen weit vor“ – Maschinenängste als Thema der Literatur ..........59 Christopher Koska Autonomes Fahren vor dem Durchbruch: Künstliche Intelligenz und Big Data als Antwort auf ethische Dilemma-Situationen .......................73 Petra Grimm, Susanne Kuhnert Narrative Ethik in der Forschung zum automatisierten und vernetzten Fahren ...........................................................................................93 Rudi Schmiede Animal laborans digitalis oder homo faber digitalis? Zur Dialektik von technischem Fortschritt und Arbeitsorganisation ........... 111 Wolfgang Schuster Arbeiten 4.0 – warum Deutschland eine Bildungsoffensive braucht ...........129 Lene Rachel Andersen Will Technological Development Lead to Authoritarianism? – On the Necessity of Bildung.........................................................................143 Kurzbiografien ....................................................................................................157
WER SIND DIE ROBOTER? Eine popkulturell abgeleitete Sicht auf das Mensch-Maschine-Verhältnis – und eine Einführung in dieses Buch Oliver Zöllner
Es war letztlich ein Zufall, der für diesen essayistischen Einstieg sorgte. Als ich gerade mit der Arbeit an dieser Einleitung zum vorliegenden Band „Mensch – Maschine“ begann, lief im Radio der Titel „Die Mensch-Maschine“ von der Band Kraftwerk. Ein Stück, das sich tatsächlich gut zur Untermalung eines Beitrags über Robotik eignet und irgendwo zwischen Avantgarde und Synthesizer-Pop mäandert. 1Für mich ein schöner Moment der „Serendipity“2 – humanoide Algorithmen lernen ja zunehmend, auch Zusammenhänge zu entdecken, nach denen sie gar nicht gesucht haben. Die Gruppe Kraftwerk ist mit ihrer Art der Musik und mit ihren computerisierten Performances weltberühmt geworden und hat – diese These kann man auch stützen, wenn man nicht unbedingt Freund dieser Art der Tonkunst ist – die populäre Musik ab den 1970er-Jahren weltweit stilbildend geprägt. Dies soll nun aber primär kein Text über Popmusik sein, sondern über das Verhältnis von Mensch und Maschine und unser Nachdenken darüber. Dieses Nachdenken kristallisiert sich oft besonders augenfällig in künstlerischen und kulturellen Diskursen, die außerhalb akademischer Zirkel stattfinden, aber nichtsdestotrotz die gesellschaftliche Wahrnehmung von Phänomenen prägen und die Spur für eine Art Alltagsethik des Umgangs mit ihnen legen. Es ließe sich formulieren: Die künstlerische Praxis der Düsseldorfer Formation spiegelt dies dokumentarisch wieder. 1 EINE SCHALLPLATTE ALS MENSCH-MASCHINEN-DOKUMENT Der Titel, den ich im Radio gehört habe, gehört zum gleichnamigen Album Die Mensch-Maschine, das 1978 zeitgleich als The Man-Machine auch in einer englischsprachigen Fassung herauskam.3 Es ragt bis heute aus dem Werkkanon der Gruppe Kraftwerk heraus und nimmt einen bedeutenden Platz in der Geschichte der Popmusik ein.4 Das Album ist ein Grundpfeiler des Elektropop und hat zahlreiche Nachahmer beeinflusst.5 Als Dokument seiner Zeit und seiner Gesellschaft betrach1 2 3 4 5
Vgl. Ossowicz 2016. Merton/Barber 2004. Kraftwerk 1978a und 1978b. Vgl. Stubbs 2018, S. 221ff. Vgl. Bussy 1993, S. 106; Poschardt 2001, S. 32 u. 229ff.; Reynolds 2005, S. 334; Stubbs 2018.
8
Oliver Zöllner
tet, verweist Die Mensch-Maschine, so meine These, auf einen „Wesenssinn“ von Personen, eines Kollektivs, eines Milieus oder auch einer Epoche, mithin auf eine spezifische „Weltanschauung“, die sich in das Dokument eingeschrieben hat.6 Eine solche Weltanschauung ist, wie jede Ideologie, ein Ordnungsprinzip: Im Sinne einer Reduktion von Komplexität soll etwas Wesentliches ausgesagt werden bzw. sagbar sein. Wir finden dieses reduktionistische Prinzip z. B. in Kunstwerken wieder, die oft öffentliche Debatten anstoßen. Eine solche Ordnung ist konzeptionell anschlussfähig zur Vorstellung des „Habitus“ als Analyse der Struktur- und Rahmenbedingungen von Akteuren und ihres Handelns in der Gesellschaft, das Bourdieu (aufbauend auf Mannheim) entwickelt hat.7 In den Habitus schreibt sich die Gesellschaft mit ihren meist unbewussten und oft unhinterfragten Verhaltens- und Bewertungsmustern ein: Er erscheint als das „inkorporierte Soziale“.8 Die Gesellschaft und ihre ordnenden Leitbilder sind in ihren Artefakten, ihren Dokumenten und Narrationen zu finden.9 Das Kraftwerk-Album Die Mensch-Maschine ist ein solches Artefakt, das aus einer multimedialen Kombination von Tönen (Musik), Texten, Bildern (Hüllengestaltung), einer materiellen Haptik (den Trägermaterialien Kartonpappe und Vinyl bzw. Compact Disc) und nicht zuletzt bis heute einer Aufführungspraxis (den Konzerten) besteht und sie ordnend und sinnstiftend zusammenfügt. In Die MenschMaschine treffen um 1978 Hoffnungen einer bequemeren, von Arbeit weitgehend entlasteten, frischen Moderne wie auch Ängste vor einer dehumanisierten, sinnentleerten und totalitären Zukunft aufeinander. „Kraftwerk’s Man-Machine coincided with a particularly high tide of anxiety.“10 Die Ebenen der Musik und der Texte bringen diese Narration deutlich zum Ausdruck.11 Dieses popkulturelle Produkt ist also unschwer als ein Dokument und eine Narration zu erkennen, in das sich um 1978 zeitgenössische Hoffnungen und Befürchtungen rund um das Verhältnis von Mensch und Maschine prominent eingeschrieben haben. Als solches ist dieses mediale Dokument für uns in der Gegenwart, rund 40 Jahre später, offensichtlich nach wie vor relevant. Es häufen sich seit einigen Jahren nicht nur die Publikationen über die Band Kraftwerk und das genannte Album,12 sondern die Produzenten des Dokumentes selbst wenden allergrößte Sorgfalt auf, um sich und ihr (nicht mehr ganz taufrisches) Werk zu musealisieren und damit den von ihnen angestoßenen Diskurs aktuell zu halten. Dies geschieht mit enormem Publikumserfolg in Form von regelmäßigen Konzerten (oft tatsächlich in Museen) und immer wieder neu aufgelegten 6 7 8 9
10 11 12
Vgl. Mannheim 1980, S. 155ff. Vgl. Bourdieu 2014, S. 277ff. Bourdieu/Wacquant 2013, S. 160; Bourdieu 2014, S. 729ff. Dies ist in den Sozialwissenschaften der Ansatzpunkt der dokumentarischen Methode als rekonstruktives Analyseverfahren; vgl. Bohnsack 2010 und 2011. Siehe auch den weit anschlussfähigen Beitrag von Grimm/Kuhnert zur narrativen Ethik in diesem Band wie auch Nida-Rümelin/Weidenfeld 2018. Stubbs 2018, S. 231f. Die Plattenhüllengestaltung und die Videoproduktionen der Gruppe Kraftwerk sollen im Folgenden nicht näher betrachtet werden, wiewohl sie ebenso zentrale Bedeutungsträger sind. Hier ragen besonders die akademischen Sammelbände von Albiez/Pattie 2011, Matejovski 2016 und Schütte 2018a heraus.
Wer sind die Roboter?
9
bzw. neu abgemischten Editionen ihres mutmaßlich abgeschlossenen Gesamtwerks.13 Die konzertante Aufführungspraxis von Kraftwerk besteht im Kern aus einem Bombardement mit Grafikanimationen und Filmelementen, wobei die vier Bandmitglieder – dies ist für unseren Zusammenhang wichtig – als statisch und emotionslos wirkende „Maschinenarbeiter“ die Knöpfe und Regler ihrer Instrumente (Computer) bedienen, gekleidet in entindividualisierende Schlauchanzüge, oder sich von animierten Puppen ohne Unterleib (Schaufensterpuppen mit den Gesichtern der Musiker) vertreten lassen.14 Man mag das aus heutiger Sicht als Retrokitsch bezeichnen, doch aus künstlerischer Sicht ist diese Praxis konsequent.15 Die realen Menschen treten hinter Roboter zurück; die Musik selbst ist so synthetisiert und automatisiert, dass es streng genommen auch keiner Menschen mehr bedürfte, um sie in einem Konzertsaal aufzuführen – wenn da nicht die ganz traditionellen Vorstellungen und Erwartungen von Konzertbesuchern wären, die für ihr Geld natürlich eine individuelle, nicht programmierte, originäre Darbietung und Performance von ‚echten‘ Menschen erwarten. Die Mensch-Maschine: Das ist längst nicht nur ein Album dieses Titels von 1978, sondern das ist die Gruppe Kraftwerk selbst, die dieses Image seither in den letzten vier Jahrzehnten kultiviert und sorgfältig kuratiert hat. Es geht bei Kraftwerk thematisch und musikalisch um die Interaktion zwischen Menschen (Musikern) und Maschinen (klangerzeugenden elektronischen Apparaten). Dieses Verhältnis ist unschwer als „Figuration“ zu erkennen, in dessen Zentrum „ein fluktuierendes Spannungsgleichgewicht“ steht, „das Hin und Her einer Machtbalance, die sich bald mehr der einen, bald mehr der anderen Seite zuneigt“.16 Die Fragen, die diese popkulturell codierte und medial dokumentierte Anordnung aufwirft, sind nicht neu, ergeben aber nichtsdestotrotz für die Gegenwart eine hochaktuelle Erzählung. 2 DER HABITUS DER „MENSCH-MASCHINE“ Drei der insgesamt sechs Titel der Langspielplatte haben einen besonders augenfälligen Bezug zum Mensch-Maschine-Thema. Das wohl berühmteste Stück ist der Eröffnungstitel „Die Roboter“. Die Musik klingt „like a transcription of a Fernand Léger picture, with its clockwork whirrs and shamelessly visible circuitry.“17 Im Intro des Songs und in seiner Brücke ist der maschinenartige, russischsprachige Einwurf „Я твой слуга я твой работник“ (Ja tvoj sluga ja tvoj rabotnik) zu hören („Ich bin dein Diener, ich bin dein Arbeiter“).18 Auf dem slawischen Wortstamm „rabot/robot“ basiert das moderne Kunstwort „Roboter“, das über die tschechische Literatur in den 1920er-Jahren Eingang in den weltweiten Wortschatz gefunden
13 14 15 16 17 18
Vgl. Lorenzen 2018. Vgl. Cunningham 2011, S. 47. Vgl. Stubbs 2018, S. 248; Schütte 2018b, S. 89. Elias 1970, S. 142f. Stubbs 2018, S. 226. Zu Kraftwerks Kompositionsprinzipien vgl. Ossowicz 2016. In der abgedruckten Version steht kein Komma.
10
Oliver Zöllner
hat.19 Mit diesem Motto, das auch auf der Rückseite der im Stile des sowjetischen Konstruktivismus der 1920er-Jahre gestalteten Plattenhülle abgedruckt ist, findet Die Mensch-Maschine ihr Kernthema. Mit dem recht simplen, eingängigen Refrain „Wir sind die Roboter“ und den deutschen Textzeilen „Wir sind auf alles programmiert / und was du willst wird ausgeführt“20 zeichnet sich bereits programmatisch ein Verschmelzen der Bandmitglieder mit Robotern ab. Tatsächlich hat die Gruppe ab 1978 bei ihren Konzerten und PR-Events ja zunehmend robotergleiche Dummies als Stellvertreter ihrer selbst eingesetzt und dies in den folgenden Jahrzehnten geradezu perfektioniert und als Markenkern genutzt.21 Längst bewirbt sich Kraftwerk als „Mensch-Maschine“. Die ungeklärte Frage des Stückes „Die Roboter“ ist die nach dem im Text angesprochenen „Ich“ bzw. „Du“: Ist das der Mensch oder der Apparat? Wer ist hier der Roboter? Wer ist hier wessen Diener bzw. wessen Arbeiter? Werkimmanent geben der Text und die maschinenartig rhythmisierte elektronische Musik mit dem vocoderisierten Sprechgesang deutliche Hinweise. Ein weiteres Stück des Albums, das fast gesanglose „Metropolis“,22 verweist mit seinen pulsierenden, repetitiven Rhythmen auf den gleichnamigen deutschen Spielfilm von 1927 unter der Regie von Fritz Lang, der als Diskurs über die industrielle Moderne und eine vorstellbare dystopische Zukunft ebenfalls den Ersatz von Menschen durch Maschinenwesen und die Manipulation der Menschheit thematisiert.23 Das Bild von der Mensch-Maschine Maria als apokalyptischer Roboter hat sich ins kulturelle Gedächtnis der Menschheit eingeschrieben.24 Es erscheint als eine Auseinandersetzung mit der Furcht vor technologischen und gesellschaftlichen Umschwüngen und der Dehumanisierung.25 Den Abschluss des Albums bildet das Titelstück „Die Mensch-Maschine“, das mit Ralf Hütters stark verfremdetem, vocoderisiertem Sprechgesang über synkopierten Synthesizer- und Sequencer-Rhythmusmustern die Textzeilen „Die MenschMaschine / halb Wesen und halb Ding“ bzw. im späteren Verlauf „Die MenschMaschine / halb Wesen und halb Überding“ wiederholt.26 Gesanglich ein maschinisierter Doo-wop, fängt dieses Stück die Vergangenheit ein (die 1950er- und 60erJahre) und weist zugleich in die Zukunft.27 Sichtbar wird in der lyrischen Anordnung ein „hybrides Geschöpf“, dessen „ontologischer Status in einer ‚unnatürlichen‘ Schnittmenge zwischen [...] belebt und unbelebt, organisch und anorganisch 19 20 21 22 23 24 25 26 27
Vgl. hierzu Misselhorn 2018, S. 7; Nida-Rümelin/Weidenfeld 2018, S. 16 sowie den Beitrag von Drux in diesem Band. Kraftwerk 1978a, Stück A1. Erstmals angedeutet wurde diese Metamorphose 1977 im Titel „Schaufensterpuppen“ auf dem Vorgängeralbum „Trans Europa Express“ (Refrain: „Wir sind Schaufensterpuppen“; Kraftwerk 1977, Stück A3). Kraftwerk 1978a, Stück A3. Vgl. hierzu auch Schütte 2018b; Nida-Rümelin/Weidenfeld 2018, S. 61ff. Eine sehr ähnlich aussehende und rasch berühmte Figur, der humanoide Roboter „C-3PO“, tauchte als freundlicher Wiedergänger der Roboter-Maria just 1977 in George Lucas‘ Spielfilm STAR WARS auf. Vgl. die Beiträge in Minden/Bachmann 2000. Kraftwerk 1978a, Stück B3. Buckley 2012, S. 131.
Wer sind die Roboter?
11
liegt“.28 Die „Mensch-Maschine“ erscheint als eine neue Kategorie von Wesenhaftigkeit. Es steht noch nicht fest, ob sie ein beherrschbares Ding bleibt oder als „Überding“ über den Menschen hinauswächst, sich seiner Kontrolle entzieht und letztlich ihn beherrscht. Die Fragestellung, wie diese Figuration zu sehen sei, ist nach wie vor aktuell. „Die Mensch-Maschine“ fügt sich ein „in den kulturhistorischen Kontext des [...] materialistisch fundierten Nachdenkens über den Menschen im Verhältnis zur Maschine [...].“29 Wer sind die Roboter? Wer herrscht hier? Die Ungeklärtheit dieser Fragen bilden im Kern den Habitus dieses popkulturellen Dokuments, das einen Diskurs zwischen verschiedenen historischen Epochen vermittelt. 3 ABLEITUNG VON FRAGESTELLUNGEN Vor diesem Hintergrund erscheinen die vorgestellten exemplarischen Stücke und das Album Die Mensch-Maschine bis heute als pointierter Ausgangspunkt für die weitere Erörterung des Verhältnisses von Mensch und Maschine. Die Düsseldorfer Gruppe erzählt nicht nur von den Maschinen. An Kraftwerk „lässt sich das Geheimnis des narrativen Gestus studieren, eine schlichte semantische Setzung pro Stück, eine Wiederholung von immer wieder demselben“.30 Die ambige Sicht der Produzenten der Musik auf „Mensch-Maschinen“, die auf der Textebene teils dystopisch, teils auch bejahend utopisch ist, zugleich aber von den Musikern in ihrer Aufführungs- und Selbstdarstellungspraxis geradezu inkorporiert wird, erscheint als Helldunkel ihrer künstlerischen Auseinandersetzung mit dem Sujet der Modernisierung und des gesellschaftlichen Wandels. Wie auch das Plattencover von Die MenschMaschine mit seinen Gegensätzen von Hell und Dunkel, so verfolgt auch die Narration der Musikstücke eine Strategie des clair-obscur.31 Wirklich geklärt im Sinne von aufgeklärt ist hier nichts. Dies macht letztlich die heutige Faszination vieler Menschen mit Blick auf die Band, ihre Musik und das hier vorgestellte Album aus. Die Mensch-Maschine und vor allem die drei hier vorgestellten Titel schwingen als populärer Soundtrack der Maschinisierung und Roboterisierung der Gegenwart im Hintergrund mit und werden daher auch in den Medien hierfür gerne illustrativ eingesetzt. Das Album Die Mensch-Maschine figuriert einen Diskurs über die Zukunft, dessen Konturen noch nicht feststehen. Die Produktion erschien zum Zeitpunkt des Übergangs von der Moderne mit all ihren Verheißungen hin zur Postmoderne, deren Weltsicht wir heute eher als Programm der Herausforderungen und Unsicherheiten begreifen.32 Das musikalisch-produktionstechnische Hauptmotiv des Albums ist daher denn auch Kontrolle: die Kontrolle von Tönen (über die syntheti28 29 30 31 32
Schütte 2018b, S. 105. Schütte 2018b, S. 107; vgl. auch Nida-Rümelin/Weidenfeld 2018, S. 23ff. Ungeheuer 2016, S. 103. Die Kraftwerk-Musiker selbst haben eine Symbiose von Mensch und Maschine in zeitgenössischen Interviews zum Ausdruck gebracht, möglicherweise aber als Ausweichargumentation; vgl. Buckley 2012, S. 130; Grönholm 2011, S. 74. Vgl. Bridle 2018.
12
Oliver Zöllner
sierte Präzision der rhythmischen Muster) und die Kontrolle von Umwelten (mit steuerbaren Robotern als Ersatz für Menschen). Schon das folgende KraftwerkAlbum, Computerwelt (1981), basierte weitgehend auf digital erzeugten automatisierten Klangschleifen.33 Die Musiker der Band Kraftwerk waren ab diesem Zeitpunkt vorrangig Programmierer ihrer Musik, also mehr Bediener ihrer Computer denn handwerkliche Musiker im traditionellen Sinne. Eine solche Figuration ist für uns rund 40 Jahre später, in den digitalisierten Kontexten der Gegenwart, längst normal geworden – es ist unsere „Weltanschauung“. Unser Blick von heute auf solche musikalische Narrationen ist ein Blick auf die Vergangenheit der Zukunft. Was in der Gesellschaft Ende der 1970er-Jahre bereits als Vision des Mensch-Maschine-Verhältnisses angelegt war, bestimmte den weiteren Diskurs und erscheint heute zugleich nostalgisch verklärt und retrofuturistisch. Only retrospectively can we see how, in 1978, Kraftwerk stood four-square at a threshold that would determine the course of both [...] pop and art, soul and artifice, the impending structures of pop, as well as broader considerations about work and leisure in an increasingly automated age whose volatile anxieties were in stark contrast to the studied, bland serenity affected by Ralf Hütter’s vocals.34
Aus dem Dokument Die Mensch-Maschine heraus lassen sich dabei Stück für Stück die folgenden werkimmanenten Themen ableiten, die auch im vorliegenden Buch, wenn auch ohne Rekurs auf Musikproduktionen, behandelt werden: – das Verhältnis zwischen Mensch und Maschine/Roboter, – Arten der Maschinisierung, Automatisierung und Entmaterialisierung, – Herausbildung neuer Formen von Individualität und Humanität, – Transformationen der Gesellschaft, – Herrschaftsverhältnisse im digitalen Zeitalter, – Arbeit(en) im digitalen Zeitalter, – kreative Ausdrucksformen einer Maschinen-/Roboterästhetik, – Ethik und Reflexion dieser Prozesse. Unser Nachdenken über die Existenz im Zwischenraum zwischen Mensch und Maschine (oder in ganz anderen Figurationen) hat im Grunde erst begonnen.35 Diese Figuration wirft auch ethische Fragen über die betrachteten Musikproduktionen hinaus auf: Entwickeln sich Maschinen zu „expliziten moralischen Akteuren“?36 Lösen sie als solche den Menschen als „aktive moralische Personen“ ab?37 Sind Maschinen in Zukunft oder teils auch bereits jetzt vollumfänglich fähig, das eigene Verhalten moralisch zu steuern? Dies berührt auch weitergehende Fragen nach Identität(en) und Empowerment – und nicht zuletzt nach Verantwortung: „As machines become increasingly autonomous, self-directing, and inter-connected, we 33
34 35 36 37
Vgl. Kraftwerk 1981. Die Sujets der Stücke dieses Albums gingen passenderweise auf Digitalisierung, Beschleunigung, Überwachung, Kontrolle, Identität, Datenschutz, Vereinzelung, Online-Dating, Gamification usw. ein, verwiesen also stark auf eine Zukunft, die man seinerzeit allerdings noch für Science Fiction hielt. Stubbs 2018, S. 226f. Vgl. Gunkel 2000, S. 347 und mit zahlreichen weiteren Hinweisen. Misselhorn 2018, S. 118. Misselhorn 2018, S. 119.
Wer sind die Roboter?
13
will also need to consider where responsibility lies.“38 Doch wie sieht diese Verantwortung aus – für wen und für was? Welcher Ausdruck von (künstlicher) Intelligenz ist dies?39 Wie wird das von manchen Autoren ausgerufene „zweite Maschinenzeitalter“ aussehen?40 Von der avantgardistischen elektronischen Musik der 1970erJahre (prä-Kraftwerk) ist überliefert, dass miteinander verschaltete Synthesizer aleatorisch anfangen konnten, selbständig zu komponieren und zu musizieren.41 Wenn schon eine solche recht primitive programmierte Anordnung beginnt, den Menschen teilweise entbehrlich zu machen, wie sieht es dann bei komplexeren soziotechnischen Systemen aus, die längst in unseren Alltag integriert sind (wenn auch oft undurchdacht) und von denen es in Zukunft wohl noch viel mehr geben wird?42 Längst gibt es dystopische Visionen einer Bedrohung der Menschheit durch vielfach überlegene Roboter und künstliche Intelligenzen, ebenso „utopische Hoffnungen auf eine neue digitale Welt“, in denen Menschen „durch die Bereitstellung eines künstlichen Körpers, mit dem das menschliche Hirn vernetzt werden könnte, eine unsterbliche Existenz ermöglicht wird“.43 Für Szenarien dieser Art bedarf es Möglichkeiten, sie hinterfragen zu können. Als Menschen begeben wir uns auf die Suche nach geeigneten Fragestellungen und denkbaren Antworten. 4 DIE BEITRÄGE DES BANDES Bernhard Debatin (Institute for Applied and Professional Ethics, University of Ohio, Athens, USA) fragt eingangs, inwieweit die Maschine des Menschen bester Freund sei und stellt philosophische und ethische Überlegungen zum Mensch-Maschine-Verhältnis an. Trotz aller Faszination für den technologischen Fortschritt vergäßen wir oft „die Tatsache, dass unsere Abhängigkeit von Technik immer größer wird und damit auch das Nachdenken über Technik immer wichtiger wird“. Mit Rückgriff auf Martin Heidegger und die zeitgenössische Technikphilosophie gelangt Debatin zu der Frage, „welche Konzepte und Konsequenzen hinter den technischen Utopien stehen, die uns vorgelegt werden“. Auch wenn diese Utopien nicht in der angezeigten Form wahr würden, so bereiteten sie doch „oft den Boden, auf dem sich die Realität der Technisierung materialisiert“. Hier stelle sich dann die Frage, „ob und wie andere Formen der Welterschließung an die Stelle der Technik treten können“. Der von Debatin in seinem Beitrag neben anderen Autor*innen auch zitierte Klaus Wiegerling (Universität Kaiserslautern und Institut für Technologiefolgenabschätzung und Systemanalyse im KIT Karlsruhe) erörtert, „warum Maschinen nicht für uns denken, handeln und entscheiden“. Er legt dar, dass die Auswirkungen, die intelligente Maschinen auf den Menschen jetzt und in der Zukunft haben, „nicht 38 39 40 41 42 43
Murdoch 2018, S. 366. Vgl. Ramge 2018, S. 7ff.; Misselhorn 2018, S. 17ff.; Nida-Rümelin/Weidenfeld 2018, S. 82ff. Vgl. Brynjolfsson/McAfee 2014. Vgl. White Noise 1975 gegen Ende der Seite B. Vgl. Misselhorn 2018, S. 129ff.; allgemein hierzu Bridle 2018. Nida-Rümelin/Weidenfeld 2018, S. 19.
14
Oliver Zöllner
notwendigerweise von den tatsächlichen Potenzialen der Technologie herrühren, sondern wesentlich von Projektionen, die mit ihr und ihrer Vision verknüpft werden“. Der Blick sei nicht allein auf Technologien als solche zu richten, sondern nicht zuletzt auf den Prozess ihrer Implementierung, der sich in einem Zusammenwirken von Gesellschaft und Technologieanwendung vollziehe. „Die Interaktion mit Maschinen“, so Wiegerling, werde „wesentlich unsere Selbsteinschätzung und unser Welt- und Wirklichkeitsbild prägen.“ Jessica Heesen (Internationales Zentrum für Ethik in den Wissenschaften der Universität Tübingen) stellt die Frage, wer für den Menschen entscheidet und nimmt dafür Big Data, intelligente Systeme und die Maßgabe klugen Handelns ins Visier. Die Öffentlichkeit mit ihren Diskursen als Instanz zur „institutionellen Absicherung einer gemeinschaftlichen Handlungsfolgenkontrolle in gesellschaftlicher Verantwortung“ steht hierbei besonders im Mittelpunkt. Trotz letztlich einiger begründeter Skepsis mit Blick auf die Effektivität von Big-Data-Analysen an sich sieht Heesen in Datenanalysen „viele Ansatzpunkte für die Bereicherung der politischen Auseinandersetzung“. Sie könnten „Ansatzpunkte für neue Wendungen in der gesellschaftlichen Bewertung von Problemlagen bieten“, gerade indem sie häufig „keine Begründungen nach womöglich etablierten oder auch festgefahrenen Analysemustern“ böten, „sondern überraschende (oder auch unsinnige) Korrelationen verschiedener Phänomene“. Man könnte dies auch als ein Plädoyer für den eingangs erwähnten Ansatz der „Serendipity“ von Merton/Barber lesen. Rudolf Drux (Institut für deutsche Sprache und Literatur I der Universität zu Köln) zeichnet die Geschichte der Maschinenängste als Thema der Literatur nach. Es „machen die Maschinen allezeit gute Arbeit und laufen den Menschen weit vor“, so dachte man auch früher schon – und die Band Kraftwerk würde das womöglich unterschreiben. Doch Drux zeigt noch weitere Quellen unserer aktuellen, teilweise ja in der Tat sehr angstbesetzten Auseinandersetzung mit dem Mensch-MaschinenVerhältnis auf, bei der Musizierapparate und Schachcomputer wohl eher eine Nebenrolle spielen. Maschinenangst scheint „ein menschliches Urphänomen“ zu sein, „quasi ein Archetypus einer kollektiven Erfahrung“, so Drux. Nicht zuletzt sei diese Angst allerdings „ein signifikantes Merkmal zur Unterscheidung zwischen ihm und der angstfreien Maschine“ – und damit wiederum eben sehr menschlich. So lasst uns denn unsere Ängste als etwas Positives sehen, möchte man ausrufen! Christopher Koska (Berater in Fragen der Digitalisierung, IT-Projektleiter und freier Forschungsmitarbeiter am Zentrum für Ethik der Medien und der digitalen Gesellschaft, zem::dg) analysiert das im öffentlichen Diskurs sehr präsente und teils gefürchtete „autonome Fahren“ und seine Dilemmata. Sind Künstliche Intelligenz und Big Data hier eine Antwort? Koska blickt auf die Geschichte des autonomen Fahrens und steckt gestaltungstechnische Möglichkeiten und Rahmenbedingungen selbstfahrender Fahrzeuge ab. Seine Darlegungen lassen deutlich werden, „dass sich die theoretische Auseinandersetzung mit ethischen Dilemma-Situationen zunehmend auf eine Beobachtung der Interaktionspraxis zwischen Mensch und Maschine verschiebt“. Viele Dilemmata im Straßenverkehr blieben nicht lösbar, so Koska. Der Ansatz, mit Big-Data-Anwendungen und Künstlicher Intelligenz die Sicherheit im Straßenverkehr zu erhöhen, führe „derzeit zu keiner direkten Antwort
Wer sind die Roboter?
15
für ethische Dilemma-Situationen, da die steigende Komplexität und Dynamik zugleich die Opazität der Systeme erhöht“, so die skeptische Einschätzung des Autors. Es besteht also die Gefahr, so lässt sich schlussfolgern, dass der Mensch und seine Entscheidungsfähigkeit hinter die Logik des technischen Systems zurücktritt. Petra Grimm und Susanne Kuhnert (beide am Institut für Digitale Ethik an der Hochschule der Medien Stuttgart) stellen das Konzept der Narrativen Ethik in der Forschung zum automatisierten, vernetzen und autonomen Fahren vor. Sie zeigen, „wie eine narrative Ethik die etablierten Argumentations- und Kommunikationsformen der Ethik – speziell in der interdisziplinären Forschung – ergänzen kann“. Mit Analysen von Narrationen, die man etwa im Marketing, in der Kunst und durch die Medien vermittelt vorfinde, „kann man die impliziten und expliziten Wertvorstellungen“ einer Gesellschaft „deutlich machen und weiterhin die Illusion der Wertneutralität von Technik auflösen“. Die Autorinnen machen das an zahlreichen Beispielen deutlich und legen ihren methodischen Ansatz dar. „Eine moderne narrative Ethik könnte (und sollte) im Prinzip alle medial vermittelten Kommunikate untersuchen“, postulieren Grimm und Kuhnert – und der popkulturell basierte Einstieg der Einleitung des vorliegenden Buches schließt sich da gerne an. Rudi Schmiede (Emeritus am Institut für Soziologie der Technischen Universität Darmstadt) zeichnet in einem Rückgriff auf Karl Marx und Hannah Arendt den konzeptionellen Konflikt zwischen „Animal laborans digitalis“ und „Homo faber digitalis“ nach und analysiert damit die Dialektik von technischem Fortschritt und Arbeitsorganisation, von System und Individuum im Kontext der „vierten industriellen Revolution“ („Industrie 4.0“). Schmiede diskutiert zum einen die aktuellen Debatten rund um die Beschäftigungswirkungen der Computerisierung (als Neuauflage der Automatisierungsdebatte der 1950er- und 60er-Jahre), zum anderen „die Bedeutung des gegenwärtigen Wandels der Arbeit für die gesamte Lebensweise und die gesellschaftliche Stellung der menschlichen Subjekte“. Sein besonderes Augenmerk gilt dabei den digitalen Technologien, denen eine „Schlüsselrolle für die Gestaltung des Verhältnisses von Arbeit und Organisation“ zukomme. Angesichts der Veränderungen der Arbeitswelt unter den Bedingungen der Digitalisierung („Arbeiten 4.0“) tritt Wolfgang Schuster (Vorsitzender der Deutsche Telekom Stiftung) vehement für eine Bildungsoffensive ein. Er zeigt auf, was lebenslanges Lernen und digitales Lernen bedeuten. Er kombiniert diese Vorstellungen mit dem Konzept der Digitalen Ethik, die er auch als „Teil des nachhaltigen Handelns von Unternehmen“ sieht. Ethisch orientiert ist ebenso Schusters Kernforderung: Ganz gleich, „wie intelligent die Maschinen auch immer sein mögen, sie müssen stets Hilfsmittel des selbstbestimmt arbeitenden Menschen bleiben“. Die Futuristin Lene Rachel Andersen (Unternehmensberatung Next Scandinavia, Kopenhagen) vertieft diesen Freiheitsansatz. Sie hebt in ihrem Beitrag ebenfalls die Notwendigkeit von Bildung im digitalen Zeitalter (und seinen nicht zu leugnenden autoritären Tendenzen) hervor und zeigt die mittel- und nordeuropäischen Wurzeln dieses Konzeptes auf. „Bildung is more than education; it is personal development, which has been described in philosophical, pedagogical and psychological terms in the wake of the German Idealists.“ Nie war Bildung so wertvoll wie heute, könnte man sagen – gerade und nicht zuletzt, um mit den vielfältigen
16
Oliver Zöllner
Innovationsprozessen der Gesellschaft angemessen umzugehen. Man muss Bildung allerdings ganz klassisch größer fassen als bloß instrumentelle Bildung. Andersens Beitrag ist letztlich ein Plädoyer für die Freiheit des Menschen, die ohne eine ethisch fundierte Bildung nicht denkbar ist: „The path away from authoritarianism goes through Bildung that allows individuals to become self-authoring, i.e., develop a personal, inner, independent, individual moral compass. Bildung of this type is obviously rooted in ethics.“ Eine solche ethische Richtschnur durchzieht den Band. Die Beiträge dieses Sammelbandes haben ihren Ursprung als Vorträge auf den drei Tagungen „Arbeiten 4.0 – Wer oder was unsere Zukunft bestimmt“, „MenschSein 4.0: Ist die Maschine der bessere Mensch?“ und „In Pursuit of (Virtual) Happiness? – Mensch, Maschine, Virtuelle Realität“, die 2016 bzw. 2017 an der Hochschule der Medien in Stuttgart stattfanden. Die Herausgeber danken den Autorinnen und Autoren für ihre Vorträge, die Überlassung der Manuskripte und ihre Geduld. Kraftwerk-Musik haben wir nicht gehört, aber wertvolle Diskussionen über das Verhältnis von Mensch und Maschine geführt und sie in diesem Band vertieft. Wir sind Menschen. BIBLIOGRAFIE Albiez, Sean/Pattie, David (Hrsg.) (2011): Kraftwerk: Music Non-Stop. New York/London: Continuum. Bohnsack, Ralf (2010): Rekonstruktive Sozialforschung. Einführung in qualitative Methoden. 8. Aufl. Opladen/Farmington Hills: Budrich. Bohnsack, Ralf (2011): Qualitative Bild- und Videointerpretation. Die dokumentarische Methode. 2. Aufl. Opladen/Farmington Hills: Budrich. Bourdieu, Pierre (2014): Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft. 24. Aufl. Frankfurt am Main: Suhrkamp. Bourdieu, Pierre/Wacquant, Loïc J. D. (2013): Die Ziele der reflexiven Soziologie. Chicago-Seminar, Winter 1987. In: Dies.: Reflexive Anthropologie. 3. Aufl. Frankfurt am Main: Suhrkamp, S. 95–249. Bridle, James (2018): New Dark Age: Technology and the End of the Future. London/Brooklyn: Verso. Brynjolfsson, Erik/McAfee, Andrew (2014): The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. New York/London: Norton. Buckley, David (2012): Kraftwerk: Publikation. A Biography. London u.a.: Omnibus Press. Bussy, Pascal (1993): Kraftwerk: Man, Machine and Music. Wembley: SAF Publishing. Cunningham, David (2011): Kraftwerk and the Image of the Modern. In: Albiez, Sean/Pattie, David (Hrsg.): Kraftwerk: Music Non-Stop. New York/London: Continuum, S. 44–62. Elias, Norbert (1970): Was ist Soziologie? (= Grundfragen der Soziologie, Band 1). München: Juventa. Grönholm, Pertti (2011): Kraftwerk – the Decline of the Pop Star. In: In: Albiez, Sean/Pattie, David (Hrsg.): Kraftwerk: Music Non-Stop. New York/London: Continuum, S. 63–79. Gunkel, David (2000): We Are Borg: Cyborgs and the Subject of Communication. In: Communication Theory, Vol. 10, No. 3, S. 332–357. Lorenzen, Alke (2018): Konzerte im Loop. Die Katalog-Konzerte in der Neuen Nationalgalerie, Berlin. In: Schütte, Uwe (Hrsg.): Mensch-Maschinen-Musik. Das Gesamtkunstwerk Kraftwerk. Düsseldorf: Leske, S. 314–332.
Wer sind die Roboter?
17
Mannheim, Karl (1980): Strukturen des Denkens (hrsg. v. David Kettler). Frankfurt am Main: Suhrkamp. Matejovski, Dirk (Hrsg.) (2016): Kraftwerk – Die Mythenmaschine. Konzeption und Ästhetik eines popmusikalischen Gesamtkunstwerks (= acoustic studies düsseldorf, Bd. 2). Düsseldorf: Düsseldorf University Press. Merton, Robert K./Barber, Elinor (2004): The Travels and Adventures of Serendipity: A Study in Sociological Semantics and the Sociology of Science. Princeton/Oxford: Princeton University Press. Minden, Michael/Bachmann, Holger (Hrsg.) (2000): Fritz Lang‘s Metropolis: Cinematic Visions of Technology and Fear. Rochester/Woodbridge: Camden House. Misselhorn, Catrin (2018): Grundfragen der Maschinenethik. Stuttgart: Reclam. Murdoch, Graham (2018): Media Material[i]ties: For a Moral Economy of Machines. In: Journal of Communication, Vol. 68, No. 2, S. 359–368. Nida-Rümelin, Julian/Weidenfeld, Nathalie (2018): Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz. München: Piper. Ossowicz, Jan (2016): Die musikalische Poetik der Roboter – Kraftwerk in der Kompositionstradition der Musik des 20. Jahrhunderts. In: Matejovski, Dirk (Hrsg.): Kraftwerk – Die Mythenmaschine. Konzeption und Ästhetik eines popmusikalischen Gesamtkunstwerks (= acoustic studies düsseldorf, Bd. 2). Düsseldorf: Düsseldorf University Press, S. 159–180. Poschardt, Ulf (2001): DJ-Culture. Diskjockeys und Popkultur. 2. Aufl. Reinbek bei Hamburg: Rowohlt. Ramge, Thomas (2018): Mensch und Maschine. Wie Künstliche Intelligenz und Roboter unser Leben verändern. 2. Aufl. Stuttgart: Reclam. Reynolds, Simon (2005): Rip It Up and Start Again: Postpunk 1978-1984. London: Faber and Faber. Schütte, Uwe (Hrsg.) (2018a): Mensch-Maschinen-Musik. Das Gesamtkunstwerk Kraftwerk. Düsseldorf: Leske. Schütte, Uwe (2018b): „Halb Wesen und halb Ding“. Nostalgische Vergangenheit und posthumane Zukunft in Die Mensch-Maschine. In: Ders. (Hrsg.): Mensch-Maschinen-Musik. Das Gesamtkunstwerk Kraftwerk. Düsseldorf: Leske, S. 88–115. Schütte, Uwe (2018c): Wir sind die Roboter! Über Kraftwerk und Karel Čapeks Roboter-Drama RUR. In: Ders. (Hrsg.): Mensch-Maschinen-Musik. Das Gesamtkunstwerk Kraftwerk. Düsseldorf: Leske, S. 301–313. Stubbs, David (2018): Mars by 2018: The Story of Electronic Music. London: Faber and Faber. Ungeheuer, Elena (2016): Kraftwerks Umgang mit Technik: Innovation? Botschaft? Magie? In: Matejovski, Dirk (Hrsg.): Kraftwerk – Die Mythenmaschine. Konzeption und Ästhetik eines popmusikalischen Gesamtkunstwerks (= acoustic studies düsseldorf, Bd. 2). Düsseldorf: Düsseldorf University Press, S. 91–108.
DISKOGRAFIE Kraftwerk (1977): Trans Europa Express. Langspielplatte: EMI/Kling Klang (Deutschland), 1C 064-82 306. Kraftwerk (1978a): Die Mensch-Maschine. Langspielplatte: EMI/Kling Klang (Deutschland), 1C 058-32 843. Kraftwerk (1978b): The Man-Machine. Langspielplatte: Capitol (Großbritannien), E-ST 11728. Kraftwerk (1981): Computerwelt. Langspielplatte: EMI/Kling Klang (Deutschland), 1C 064-46 311. White Noise (1975): White Noise 2: Concerto for Synthesizer. Langspielplatte: Virgin Records (Großbritannien), V 2032.
DIE MASCHINE, DES MENSCHEN BESTER FREUND? Philosophische und ethische Überlegungen zum Mensch-Maschine-Verhältnis Bernhard Debatin
Wir leben in einer Zeit einer sich immer schneller entwickelnden Technik, vor allem in den Feldern der digitalen Technologie und der Biomedizin. Im Bereich der Digitaltechnologie sind die zurzeit am schnellsten wachsenden Bereiche die Künstliche Intelligenz, das Internet der Dinge und Augmented Reality sowie Automatisierung, Cybercrime und Cloud-Computing.1 Und der Trend der sich immer weiter beschleunigenden Entwicklung scheint ungebrochen: Die technologische Evolution, so stellte der Futurologe Ray Kurzweil fest, folgt einem exponentiellen Verlauf. Dass diese exponentielle Kurve nicht in eine sich verlangsamende S-Kurve umschlägt, wenn die Möglichkeiten einer spezifischen Technologie erschöpft sind, liegt daran, dass es dann in der Regel zu einem technologischen Paradigmenwechsel kommt, der ganz neue Möglichkeiten eröffnet und das exponentielle Wachstum weiter vorantreibt.2 Im Bereich der Mikroprozessoren gilt z. B. seit 1965 Moore’s Law, eine Faustregel, der zufolge sich die Chiptechnologie alle 18 bis 24 Monate um die Hälfte verkleinert, womit sich die Prozessorkapazität jeweils verdoppelt. Jedoch wird Mitte der 2020er-Jahre die Miniaturisierung des Mikrochips an physikalische Grenzen stoßen, da man dann auf atomarer Größe operiert. Dem Ende des Moorschen Gesetzes kann zunächst durch Umstellen von zweidimensionaler auf dreidimensionale Chipstruktur entgegengewirkt werden, was die Anzahl möglicher Verbindungen exponentiell erweitern und damit einen Aufschub der physikalischen Grenze bedeuten würde. Ein Paradigmenwechsel wäre dennoch nötig, sobald die Möglichkeiten dieses Aufschubs ausgeschöpft sind. Dies könnte erreicht werden, indem neue Technologien die herkömmliche Chiptechnologie ersetzen, wie QuantumComputing, Nanocomputing, Neurocomputing, optisches Computing und BioComputing. Das Mooresche Gesetz könnte so unter neuen technologischen Bedingungen in seinem exponentiellen Verlauf weitergeführt werden.3 Was bei aller Faszination des technologischen Fortschritts jedoch oft vergessen wird, ist die Tatsache, dass unsere Abhängigkeit von Technik immer größer und damit auch das Nachdenken über Technik immer wichtiger wird. Die folgenden 1 2 3
Vgl. Harvey 2017. Vgl. Kurzweil 2006. Vgl. Gruber 2016 sowie Murugesan/Colwell 2016.
20
Bernhard Debatin
Überlegungen drehen sich in erster Linie um die anthropologischen und ethischen Grundlagen der Technik und speziell der Mensch-Maschine-Interaktion. Um dies zu tun, will ich zunächst etwas ausholen und über Technik im Allgemeinen nachdenken, um diese Überlegungen dann auf die Mensch-Maschine-Interaktion zu beziehen. Sodann wird es vor allem um die von Heidegger identifizierte Funktion des Entbergens mit Hilfe der Technik gehen. Abschließend werde ich dann diskutieren, wie dies im Blick auf Virtual Reality, Ubiquitous Computing und Ambient Intelligence zu verstehen ist. 1 TECHNIKPHILOSOPHISCHE GRUNDLAGEN Technik im aristotelischen Sinne ist das vom gestaltenden Menschen hervorgebrachte Artefakt. Sie ist aber nicht nur künstlicher Gegenstand, sondern stets auch, wie Arnold Gehlen gezeigt hat, zweckgerichtetes Instrument der Organverlängerung, der Organverstärkung und des Organersatzes.4 Technische Mittel zur Erreichung von Zwecken sind so stets auf die Erweiterung und Überwindung der natürlichen Grenzen des menschlichen Wirk- und Wahrnehmungsraumes gerichtet. Dies bezieht sich nicht nur auf räumliche und zeitliche Grenzen, sondern auch auf kognitive und soziale Begrenzungen und damit auf die Informations- und Kommunikationstechnologien, Schrift, Buchdruck, elektronische Medien, Computernetzwerke etc. Mit der fortschreitenden wissenschaftlich-technischen Entwicklung unserer Welt wird das menschliche Handeln selbst zunehmend instrumentell ausgerichtet. Durch seine Effektivität und Zweckdienlichkeit enthält das instrumentelle Handeln eine unmittelbare Erfolgskontrolle. Im Unterschied zum magischen Handeln, etwa dem Regenzauber, oder zum religiösen Handeln, z. B. dem Beten, ist beim instrumentellen Handeln der Effekt als Teil der Kausalitätskette in den Handlungsprozess selbst eingebaut. Natürlich geht es auch in der Magie und beim Beten um Effekte, jedoch sind letztere akzidentell und nicht notwendige Folge dieses Handelns. Beim instrumentellen Handeln dagegen sind die angezielten Effekte notwendige Folgen der eingesetzten Mittel, es geht also nur darum, dass die jeweiligen Mittel den angezielten Zwecken und Effekten angemessen sind, also um die korrekte Bestimmung des Zweck-Mittel-Verhältnisses. Effektivität und Zweckdienlichkeit sind somit die zuverlässigen Erfolgsgaranten dieses Handlungstyps. Technisch-instrumentelles Handeln, so könnte man zuspitzen, wird dadurch zur anthropologischen Grundkonstante des Menschen. Aus technikphilosophischer Perspektive können wir das technisch-instrumentelle Handeln idealtypisch in drei kategorielle Stufen unterteilen, nämlich Werkzeug – Maschine – System.5 Diese sind durch einen Anstieg an Komplexität, die Erweiterung des Handlungsraums sowie eine Einschränkung der Freiheitsgrade individueller Handlungsoptionen gekennzeichnet: Werkzeuge erlauben individuelle, autonome Handlungen und sind in ihrem Ursache-Wirkungs-Schema transpa4 5
Vgl. Gehlen 1950. Vgl. zum Folgenden auch Hubig 1993, S. 53ff.
Die Maschine, des Menschen bester Freund?
21
rent. Sie werden nach Belieben benutzt. Maschinen sind zweckmäßig festgelegte Kombinationen von Mitteln – ich nenne diese Zweckgefüge. Sie erlauben über die Verwendung von festgelegten Handlungsschemata die autonome und effektive Verfolgung von Handlungszwecken. Die Vorgänge in der Maschine sind als intrinsische Zweckgefüge in der Regel intransparent und müssen dem Benutzer auch nicht bekannt sein. Maschinen werden deshalb über besondere Zugangsmittel, nämlich Schnittstellen, bedient. Systeme stellen schließlich die Bedingung der Möglichkeit und damit den Handlungsrahmen für bereits festgeschriebene Handlungsschemata bereit. Sie geben deshalb sowohl die Mittel als auch die Zwecke vor. In Systeme können wir uns nur einklinken und ihre verschiedenen Dienste verwenden, während die individuelle Freiheit bestenfalls auf die angemessene Bedienung von Benutzungsoberflächen des Systems beschränkt ist, die uns die Auswahl dieser Dienste ermöglichen (z. B. der Fahrkartenautomat der U-Bahn). In der Realität kommen Maschine und System meist im Verbund vor und es ist oft schwierig zu unterscheiden, auf welchem Level man sich jeweils befindet. So kann man das Auto einerseits als handlungsraumerweiternde Maschine sehen, die über Steuerung, Pedale und Kontrollinstrumente bedient wird, andererseits ist es aber auch in der Regel nur verwendbar im Rahmen des Straßenverkehrssystems und als Teil von ihm. Es liegt z. B. außerhalb unserer Kontrolle, ob es irgendwo Staus gibt oder ob wir dauernd auf rote Ampeln treffen. Die Technisierung der Welt schreitet von der bloßen Werkzeugnutzung zum Einsatz von Maschinen und schließlich zur Implementierung von komplexen technosozialen Systemen fort. Durch die Technisierung entsteht eine instrumentelle Zwischensphäre, da immer mehr Dinge in der Welt technische Artefakte sind und gleichzeitig Teil unseres Zugangs zur Welt werden. Mit wachsender Ausbreitung der instrumentellen Zwischensphäre bedarf es zunehmend einer technischen Vermittlung, die selbst erst den Zugriff auf Technik erlaubt. Dies bedeutet, dass Technik sich dann nicht mehr allein auf die zweckgerichtete Beherrschung und Umwandlung von Natur bezieht, sondern reflexiv wird und sich auf sich selbst bezieht, z. B. durch Steuer-, Regelungs- und Systemtechnik sowie durch Bedienungsoberflächen, denn der menschliche Wirk- und Wahrnehmungsraum wird durch dessen Technisierung immer komplexer und zunehmend intransparent und muss durch spezifische Bedienungsoberflächen zugänglich gemacht werden. Damit richtet sich das Interesse auch immer mehr auf die Mensch-Maschine-Interaktion. Wenn ich hier, der allgemeinen Gepflogenheit folgend, „Maschine“ sage, müssen wir eigentlich immer und gerade auch die dritte Stufe, also Systemtechnik, mitdenken. Dies werde ich im dritten Teil noch mehr ausführen. Zunächst möchte ich jedoch den Begriff der Technik und dessen Implikationen mit Hilfe der Philosophie von Martin Heidegger analysieren. 2 MARTIN HEIDEGGER UND DAS WESEN DER TECHNIK Martin Heidegger hat herausgestellt, dass die Technik neben ihren instrumentellanthropologischen Dimensionen eine noch tiefere Bedeutung hat, nämlich die der
22
Bernhard Debatin
Welterschließung. Bereits in seinem Hauptwerk Sein und Zeit ist Welterschließung vom instrumentellen Umgang mit Werkzeugen, dem „zuhandenen Zeug“, her verstanden. Zuhandenheit bedeutet hier, dass das Werkzeug unproblematisch und unmittelbar zur Benutzung da ist und nicht erst eigens und quasi-theoretisch als Vorhandenes begriffen werden muss.6 In der Verwendung von Werkzeugen bauen wir ihm zufolge eine zweckorientierte Verweisungsstruktur des „Um-zu“ auf und erschließen die Welt nach Kriterien der „Dienlichkeit, Beiträglichkeit, Verwendbarkeit, Handlichkeit“.7 In seiner Spätschrift „Die Frage nach der Technik“ faltet Heidegger diesen Umstand noch weiter auf. Als eine Form des Hervorbringens ist hier Technik als „eine Weise des Entbergens“ gefasst, also des Findens der Wahrheit durch das Aufschließen und Verstehen von zweckhaft-kausalen Zusammenhängen.8 Bei der modernen Technik kommt hinzu, dass diese nicht mehr bloß entbirgt, also etwa im Hebel ein direktes Ursache-Wirkungs-Verhältnis hervorbringt und anwendet, sondern durch die Verkettung von instrumentellen Zweckgefügen komplexe und indirekte Wirkzusammenhänge erzwingt, die sonst nicht da wären. Kategoriell verweist dies auf den oben erwähnten Unterschied zwischen einem einfachen Werkzeug und der als intrinsisches Zweckgefüge konstruierten Maschine. Heidegger spricht hier vom herausfordernden Entbergen: „Das in der modernen Technik waltende Entbergen ist ein Herausfordern, das an die Natur das Ansinnen stellt, Energie zu liefern, die als solche herausgefördert und gespeichert werden kann.“9 Die Zweckgefüge zur Erreichung von komplexen und indirekten Wirkzusammenhängen werden als Herausforderung in und an die Natur gestellt, denen die Natur sich zu fügen hat. Gleichzeitig wird, wie Heidegger am Beispiel des Hydrokraftwerks im Rhein zeigt, die Natur in sie verbaut: „Das Wasserkraftwerk ist nicht in den Rheinstrom gebaut wie die alte Holzbrücke, die seit Jahrhunderten Ufer mit Ufer verbindet. Vielmehr ist der Strom in das Kraftwerk verbaut. Er ist, was er jetzt als Strom ist, nämlich Wasserdrucklieferant, aus dem Wesen des Kraftwerks.“10 Natur wird damit durch ihre Einbindung in die Technik zur bloßen Ressource umdefiniert. Durch das herausfordernde Entbergen der modernen Technik wird, so Heidegger, alles in bereitstehenden Bestand umgewandelt, der zur Verfügung steht, um bei Bedarf bestellt, erschlossen, umgeformt, gespeichert, verteilt und umgeschaltet zu werden. Dies aber ist kein ungerichteter Vorgang, sondern ein gesteuerter und gesicherter Prozess, denn hinter ihm steht die Steuerungstechnik: „Steuerung und Sicherung werden sogar die Hauptzüge des herausfordernden Entbergens“11, stellt Heidegger fest, und in dem posthum veröffentlichten Interview mit dem Spiegel wird er die Kybernetik sogar als Nachfolgerin der Philosophie bezeichnen.12 Dies 6 7 8 9 10 11 12
Heidegger 1986 [1927], § 15, v. a. S. 68ff. Ebd., S. 68. Heidegger 1988 [1954], S. 12. Ebd., S. 14. Ebd., S. 15. Ebd., S. 16. Vgl. Heidegger 1976.
Die Maschine, des Menschen bester Freund?
23
zeigt einen Perspektivenwechsel an vom mechanisch-technischen und werkzeugbasierten Weltverständnis hin zum steuerungstechnisch und informationsbasierten Verständnis. Der Semiotiker Max Bense sprach in diesem Zusammenhang vom Ende der Technik als Oberflächenphänomen und dem kybernetisch begründeten Anbruch der „Tiefentechnik“, die „in die Feinstrukturen der Welt“ eindringt und damit, wie wir heute sagen würden, ubiquitär wird.13 Die technologische Kondition des Menschen wird von Heidegger nun als „bestellendes Verhalten“ verstanden, das die Dinge durch technisches Handeln in abrufbaren und steuerbaren Bestand umwandelt. Diese als Ge-stell bezeichnete Kondition erst zeigt das Wesen der Technik, nämlich den hinter allem technischen Handeln stehenden Drang, alles im Sinne der Nutzbarmachung in ein instrumentelles Zweckgefüge zu bringen und durch Steuerungstechnik verfügbar zu machen.14 Es ist bemerkenswert, dass Heidegger den Begriff des Ge-stells in Analogie zum Gemüt („die Weisen, nach denen uns so und so zumute ist“) entwickelt, also als eine Haltung oder Verfassung, nämlich den „herausfordernden Anspruch, der den Menschen dahin versammelt, das Sichentbergende als Bestand zu bestellen“.15 Das „Walten des Ge-stells“, so Heidegger, verlangt „die Bestellbarkeit der Natur als Bestand“– und mehr noch, es verlangt, „dass sich die Natur in irgendeiner rechnerisch feststellbaren Weise meldet und als ein System von Informationen bestellbar bleibt“.16 Damit wird alles in berechenbare Ursache-Wirkungs-Verhältnisse gebracht, und was sich diesem Kalkül nicht fügt, fällt aus der Welterschließung heraus. Deshalb sieht Heidegger in der schicksalhaft waltenden Vorherrschaft des Ge-stells drei Hauptgefahren: Erstens läuft der Mensch Gefahr, „nur das im Bestellen Entborgene zu verfolgen“ und alles nur noch unter Ursache-Wirkungs-Kriterien, nach Verwendbarkeit und Verwertbarkeit zu betrachten.17 Er wird sich dann nicht mehr auf andere Weisen des Entbergens einlassen, wie etwa Kunst oder Meditation und Reflexion auf die eigene Existenz. Zweitens besteht die Gefahr, dass auch der Mensch zum bloßen Bestand wird und sich selbst verliert, auch und gerade wenn er sich als Herr der Erde missversteht.18 Wenn wir also alles nur unter technisch-instrumentellen Gesichtspunkten betrachten, laufen wir Gefahr, die Welt und den Menschen selbst nur noch als Bestand und vom Menschen Gemachtes zu betrachten. Dies ist die Grundlage der technizistischen Allmachts- und Allwissenheitsvorstellung.19 Die dritte und wohl schwerwiegendste Gefährdung liegt im genuin weltverschließenden Potential der kybernetischen Tiefentechnik: „Wo das Gestell waltet, prägen Steuerung und Sicherung des Bestandes alles Entbergen. Sie lassen sogar ihren eigenen Grundzug, nämlich dieses Entbergen als solches, nicht 13 14 15 16 17 18 19
Bense 1998 [1951], S. 436. Vgl. Heidegger 1988 [1954], S. 19ff. Ebd., S. 19. Ebd., S. 22. Der letztzitierte Halbsatz bezieht sich im Text zwar direkt auf die Physik, aber die kann hier berechtigterweise als Ausdrucksform der technologischen Bedingung, also des Gestells betrachtet werden. Ebd., S. 25f. Vgl. ebd., S. 26f. Vgl. Debatin 1999.
24
Bernhard Debatin
mehr zum Vorschein kommen.“20 Das Ge-stell verbirgt damit „das Entbergen als solches und mit ihm Jenes, worin sich die Unverborgenheit, d. h. die Wahrheit ereignet.“21 Mit anderen Worten, im bloß technischen Entbergen bleibt die eigentliche Wahrheit der Welt verschlossen und wird sogar verborgen. Die Idee einer weltverschließenden Funktion von Technik und Wissenschaft wurde freilich nicht allein von Heidegger vertreten. In der langanhaltenden Diskussion über Wertfreiheit der Wissenschaften und über die Rolle von Technik und Wissenschaft als Ideologieträger kamen andere zu ganz ähnlichen Diagnosen. Schon Max Weber kritisierte die zunehmende Herrschaft des zweckrationalen Denkens und Handelns in der modernden Gesellschaft und bereitete so den Boden für die von Max Horkheimer und Theodor W. Adorno entwickelte Kritik der instrumentellen Vernunft, der zufolge die moderne technisch-wissenschaftliche Zivilisation sich auf die Bestimmung geeigneter Mittel für unhinterfragte und nicht weiter begründete Zwecke eingeengt hat.22 Diese rein instrumentelle Vernunft ist allein an der Optimierung technischer Prozesse und der Erfindung immer effektiverer Maschinen interessiert, während die wert- und zielsetzenden Aspekte der menschlichen Vernunft in den Hintergrund treten. In der „allumspannenden Ratio des längst irrational gewordenen ökonomischen Systems“ werden Vernunft und Verantwortung systematisch ausgeblendet.23 Der später vom Soziologen Helmut Schelsky eingeführte Begriff des Sachzwangs, demzufolge die inneren Zwänge einer „Apparatur, die sachgemäß bedient sein will“, die Herrschaft übernommen haben,24 ist dann nur noch eine positive Wendung derselben Diagnose: nämlich dass Verantwortungslosigkeit über angeblich unvermeidbare Sachzwänge in das moderne technisch-wissenschaftliche System „eingebaut“ ist. Der scheinbare Naturcharakter der Sachzwänge wurde dann jedoch von Jürgen Habermas als moderne Form von Ideologie identifiziert und vehement kritisiert, da sie politisch-verantwortliches Handeln neutralisiert und Technik und Wissenschaft in den Dienst von technokratischen Eliten und ökonomischen Interessen stellt.25 Soweit die technikphilosophischen Gedanken. Ich will nun zur Mensch-Maschine-Interaktion übergehen. 3 TECHNIKPHILOSOPHISCHE PERSPEKTIVEN ZUR MENSCH-MASCHINE-INTERAKTION Wie anfangs erwähnt ist unser Zugang zur Technik, zumal bei Maschinen und Systemen, über Benutzerschnittstellen bzw. Benutzungsoberflächen vermittelt. Erforschung und Gestaltung von Schnittstellen zur Mensch-Maschine-Interaktion reichen weit zurück. Letztlich können alle Bedienelemente an einer Maschine als 20 21 22 23 24 25
Ebd., S. 27. Debatin 1999, S. 27. Vgl. Horkheimer/Adorno 1986 [1944]. Ebd., S. 98. Schelsky 1965, S. 457. Vgl. Habermas 1968.
Die Maschine, des Menschen bester Freund?
25
Schnittstelle zur Mensch-Maschine-Interaktion betrachtet werden, ganz gleich, ob es sich um einen Lichtschalter handelt, um die Cockpiteinrichtung im Flugzeug, um Bildschirmikons, Touchpads und Maus beim Computer oder um Datenanzug und Screen in einer Virtual-Reality-Applikation. Sie alle dienen dazu, eine mehr oder minder komplexe Maschine bedienen bzw. steuern zu können. Die Schnittstelle soll dabei neben dem Zugang zu den Funktionen der Maschine auch eine angemessene Komplexitätsreduktion bieten. Um Autofahren zu können, muss ich nicht wissen, wie der Viertaktverbrennungsmotor funktioniert oder wie das Zusammenspiel von Motor, Getriebe und Rädern zu erklären ist. Ich muss aber Steuerungselemente haben, um lenken, beschleunigen, bremsen, kuppeln etc. zu können, und entsprechende Feedback-Geräte, z. B. Geschwindigkeits- und Drehzahlmesser, um die Effekte der Steuerung beobachten und anpassen zu können. Im Idealfall ist die Schnittstelle so angelegt, dass sie unproblematisch im Hintergrund bleibt und die notwendigen Interaktionen optimal unterstützt. Sie soll also keine eigenen Probleme erzeugen, was ja nur die Aufmerksamkeit weg von der Benutzung der Maschine und auf die Schnittstelle lenken würde, und sie soll auch die relevanten Funktionen der Maschine in zutreffender und zugleich vereinfachter Form modellieren. In Heideggers Diktion könnte man sagen, dass die Schnittstelle der Entbergung dessen dient, was mit der Maschine möglich ist. Es handelt sich also um eine sekundäre Entbergung, denn die primäre Möglichkeit zur Entbergung liegt ja in den Funktionen der Maschine selbst: Ich benutze das Auto, um zu meinen Freunden zu fahren, oder den Computer, um einen Text zu schreiben oder online einzukaufen. Dagegen gewährt die Schnittstelle in erster Linie den entbergenden Zugang zu der Maschine selbst, um so die dahinterliegende Welt manipulieren zu können. Die Entbergungsfunktion wird damit in die Verantwortung der Technik gestellt. Es handelt sich hierbei um die eingangs schon diskutierte Zwischensphäre, bei der Technik reflexiv zur Vermittlung des Zugriffs auf andere Technik verwendet wird, die selbst so komplex ist, dass sie dieser Vermittlung bedarf. Gerade bei Computern ist das Komplexitätsproblem so groß, dass auch die Schnittstellen nicht unproblematisch sind. Lochkarten und befehlsgesteuerte Computerzugänge erforderten Spezialwissen und waren durch ihre starre Syntax extrem fehleranfällig. Sie verlangten die volle Aufmerksamkeit des Benutzers und machten ihn zum bloßen Anhängsel des Systems, also zu einem Teil des Bestands im Zweckgefüge des Computersystems. Deshalb wurde seit den 1980ern zunehmend die Entwicklung von natürlichsprachlichen Systemen und visuellen Schnittstellen verfolgt.26 Vor allem die Entwicklung von graphischen Benutzungsoberflächen (Graphic User Interfaces, GUI) stellte einen großen Durchbruch dar, da diese mit visuellen Metaphern und anderen ikonischen und indexikalischen Interaktionssystemen die Bedienungs- und Funktionsmöglichkeiten des Systems so repräsentieren, dass sie vom Benutzer zutreffend verstanden und ohne großen kognitiven Aufwand verwendet werden können.27 Bekanntlich ermöglichte dies, zusammen mit den im-
26 27
Zum Überblick der Entwicklung vgl. Heilige 2007. Vgl. Johnson 1997.
26
Bernhard Debatin
mensen Fortschritten in der Chip-Technologie, die Ausbreitung und Kommerzialisierung des Personal Computer. Allerdings stellte sich hierbei auch heraus, dass die durch solche intelligenten Benutzerschnittstellen erreichte Komplexitätsreduktion stets Komplexitäten in anderen Bereichen nach sich zieht, die systematische Intransparenzen erzeugen. Dies wird auf zwei Weisen deutlich: Zum Einen zeigt sich in krassen Fehlfunktionen und Zusammenbrüchen die intransparente Komplexität des Computers, da dieser im Zusammenbruch seine durch die Schnittstelle erzeugte Zuhandenheit verliert. Wie oben gesehen, ist nach Heidegger Zuhandenheit die unmittelbare Selbstverständlichkeit, in der uns die Dinge in ihrem Verweisungszusammenhang begegnen. Heidegger nennt diese unproblematische Zuhandenheit der Dinge in ihrem normalen Verwendungskontext auch den Bewandniszusammenhang.28 Geht die Zuhandenheit des Computers durch einen Zusammenbruch verloren, dann ist der Computer nur noch als Objekt vorhanden, zumeist als Objekt der Frustration, steht uns aber nicht mehr in seinem unproblematischen Verweisungs- und Verwendungszusammenhang zur Verfügung. Zum anderen aber erscheint Intransparenz auch in der Normalfunktion, sobald man sich als Benutzer nämlich außerhalb der in der Schnittstelle vorgesehenen Funktionalität bewegt. Solche Fehlkommunikationen in der Mensch-Computer-Interaktion können durch ungenaue Vorstellungen des Benutzers über die tatsächlichen Funktionen und Zustände des Computers entstehen, etwa weil diese in der Schnittstelle nicht zutreffend repräsentiert sind oder der Nutzer sich über den Computer ein falsches Modell gebildet hat.29 Die Folge davon sind in der Regel Fehler, Datenverluste und andere frustrierende Erfahrungen. Die beiden Hauptformen dieser Fehlkommunikation sind bekannt unter dem Titel „Gulf of Execution“ (Ausführungskluft), wenn das System nicht in der vom Benutzer antizipierten Weise reagiert, und „Gulf of Evaluation“ (Evaluationskluft), wenn das System dem Nutzer nicht die zur erfolgreichen Nutzung notwendigen Informationen gibt.30 Auch hier verliert der Computer seine Zuhandenheit und wird zum bloß vorhandenen Objekt. Häufig treten die beiden Formen der Fehlkommunikation in Kombination auf. Ein bekanntes Beispiel dafür ist das Papierkorb-Icon der GUI des 1988er Atari-Computer, das eigentlich eher ein Reißwolf als ein Papierkorb war: Was man hineinschob wurde unerbittlich zerstört und konnte nicht wieder herausgeholt werden. Gleichzeitig wurde auch keine Information darüber angeboten, wie man das Problem umgehen oder anders lösen könnte. Zur Behebung der Ausführungs- und Evaluationskluft wurden präzisere und quasi-adaptive Benutzerschnittstellen konzipiert, die kontextabhängig „perceptible affordances“ bereitstellen, also die jeweils im System erlaubten Aktionen explizit machen.31 Durch perceptible affordances gewinnen die Nutzer in der Tat präzisere Vorstellungen über die Systemfunktionen, womit sich die Ausführungs- und Evalu28 29 30 31
Vgl. Heidegger 1986 [1927], S. 355ff. Vgl. Debatin 1994. Norman 2013, S. 39. Novak et al. 2016.
Die Maschine, des Menschen bester Freund?
27
ationskluft schließt. Aber auch hier bleibt es letztlich bei der Anpassung der Nutzer an die Systemanforderungen: The perceptible affordance of the technology prompts the human to adapt their intentions to fit the limitations of the technology. Even though well designed, the human is still operating under the constraints of technology.32
Anders ausgedrückt wird der Zugriff auf den Computer hier durch besseres Feedback und genauere Informationen über Systemzustände und -möglichkeiten gesichert, dies aber erfordert eine höhere Aufmerksamkeit des Benutzers und erzeugt damit eine erhöhte Schnittstellenkomplexität, was die Zuhandenheit des Computers vermindert. Abhilfe soll hier nach Novak et al. die Einführung der „Human Augmentics“ als Methode des fortgeschrittenen Designs der Mensch-Maschine-Interaktion bieten. Dabei würden mithilfe von Applikationen aus der Virtual- und AugmentedReality-Forschung „hidden affordances“ in „perceived affordences“ umgewandelt. Die konkreten Anwendungen hierfür sind sicherlich noch im Anfangsstadium, aber die Entwicklung geht klar in Richtung auf Erhöhung von Autonomie und Aktionsoptionen, indem dem Nutzer z. B. hilfreiche Umweltdaten durch unauffälliges Körperfeedback gegeben werden: Human Augmentics devices collect information about the environment and people imperceptible to humans and then relay this information in ways that expand a human’s sense for potential actions.33
Problematisch ist jedoch, wie die Autoren zugeben, dass mit solchen augmentiertperzeptiven Schnittstellen die Phänomene und die Materialität der Schnittstelle selbst verdeckt werden. Die augmentiert-perzeptive Schnittstelle legt sich wie eine zweite Haut über den sensorischen Apparat des Menschen34 und läuft damit Gefahr, das Entbergen als solches zu verbergen, wie Heidegger die dritte Gefährdung durch Weltverschließung beschrieb.35 In der Tat ist das Verschwinden der Schnittstelle ein zentrales Problem nicht nur der Human Augmentics, sondern des Ubiquitous Computing überhaupt. Klaus Wiegerling stellt fest, dass diese Unsichtbarkeit der Systemfunktionen neue Abhängigkeiten schafft, da die Welt sich uns nun gleichsam widerstandslos und „immer schon“ im augmentierten Zustand zeigt, wobei dies jedoch oft nur bestimmte Aspekte betrifft, z. B. ökonomische, die dann fälschlich für die Wirklichkeit insgesamt gehalten werden.36 Ich habe hier die Human Augmentics in den Vordergrund gestellt, da sie spezifisch die Perspektiven der Mensch-Maschine-Interaktion thematisieren. Ähnliches lässt sich aber auch über andere fortgeschrittene Virtual- und Augmented-RealitySysteme aussagen. Virtual Reality (VR) wird oftmals als Werkzeug der Welterschließung gefeiert, da sie neue und phantastische Ansichten und Ausflüge ermögliche. Doch schon Mitte der 1990er-Jahre stellte Richard Coyne fest, dass Virtual 32 33 34 35 36
Novak et al. 2016, S. 17. Ebd., S. 27. Vgl. Leigh et al. 2017, S. 12. Vgl. Heidegger 1988 [1954], S. 27. Wiegerling 2015, S. 39.
28
Bernhard Debatin
Reality gerade nicht der Welterschließung diene, da sie zu sehr auf einem korrespondenztheoretischen und datenorientierten Modell der Wahrnehmung beruhe, „as though the whole thing is simply a matter of direct mappings between objects, computer models, and something in the mind“37. Damit wird unsere lebensweltliche Situiertheit, unser In-der-Welt-Sein vernachlässigt zugunsten einer artifiziell nachgebauten, sekundären Realität. Auf einer viel konkreteren Ebene kritisiert Mark Koltko-Rivera mögliche psychosoziale Nebenfolgen der Ausbreitung von „seamless VR“:38 So bestehe die Gefahr, dass durch die Möglichkeit der unmittelbaren Befriedigung in VR-Umgebungen Triebaufschub und Realitätsprinzip in den Hintergrund treten und dass in VR ausgelebte aggressive Impulse dann auch im Normalleben weniger kontrolliert würden. Ähnliches gelte auch im Bereich von Sexualbeziehungen, da nun statt Aushandlung von Bedürfnissen und kooperativem Handeln nur die einseitige „instant virtual gratification“ verfolgt würde. Denn, so der Autor, „much sexuality in the VR realm is likely to include interactions with AI characters, not human ones, [...] [who] will be programmed specifically to satisfy the human user’s expressed desire, acting essentially as a VR sex slave.“39 Virtual-Reality-Technik würde hier, so ließe sich mit Heidegger formulieren, allein zur Konstruktion und zum Entbergen einer künstlichen, technisch geformten Wirklichkeit verwendet. Das so virtuell-technisch Bestellte, der Bestand der virtuellen Realität, würde damit den Menschen noch mehr dazu bringen, „nur das im Bestellen Entborgene zu verfolgen“40. In ganz anderer Hinsicht liegt die Sorge von O’Brolcháin et al., die im Zusammenwachsen von Virtual Reality und Social Networks schwerwiegende Bedrohungen der Privatsphäre und der persönlichen Autonomie sehen.41 Hier geht es v. a. darum, dass VR-gestützte Soziale Netzwerke Formen des Entbergens favorisieren, die dann systematisch auch für Dritte bereitstehen und von diesen ausgebeutet werden, woraus sich Datenschutzprobleme aller Art sowie Probleme des Verlusts von Autonomie und Authentizität ergeben. Dies hat, wie ich unten noch genauer aufzeigen werde, weitreichende Konsequenzen für die Ethik solcher Systeme. Und schließlich sei noch darauf verwiesen, dass generell durch die Ausbreitung des Ubiquitous Computing und der Ambient Intelligence eine integrierte und intransparente Maschinenumwelt geschaffen wird, die selbst nicht mehr Gegenstand eines vernünftigen technikbasierten Entbergens sein kann. Unter vernünftigem Entbergen sei, wie eingangs erwähnt, die Form von Entbergung verstanden, bei der wir Wahrheit durch das Aufschließen und Verstehen von zweckhaft-kausalen Zusammenhängen finden. Das Problem, das ich hier nur andeuten kann, besteht darin, dass Umwelt und Technik sich hier untrennbar vermischen und damit intransparent werden. Systeme der Ambient Intelligence weisen nämlich folgende Merkmale auf: Erstens sind sie voll integriert in die Umwelt (embedded), zweitens erkennen sie den situationalen Kontext des Benutzers (context aware), drittens können sie auf 37 38 39 40 41
Coyne 1994, S. 71. Vgl. Koltko-Rivera 2005. Ebd., S. 4f. Heidegger 1988 [1954], S. 25. Vgl. O’Brolcháin et al. 2016.
Die Maschine, des Menschen bester Freund?
29
individuelle Nutzerbedürfnisse zugeschnitten werden (personalized), viertens passen sie sich aktiv und responsiv an (adaptiv) und fünftens antizipieren sie Nutzerbedürfnisse ohne bewusste Intervention (anticipatory).42 Zweifellos sind all dies fast utopisch anmutende Vorteile. Wer wollte nicht in einer Umgebung wohnen, die sich automatisch an uns anpasst und unsere Wünsche vorwegnimmt? Doch besteht hier das Problem, dass in einer solchen automatisierten und vorwegnehmenden Bedürfnisbefriedigungsumwelt das Entbergen durch die Technik gerade nicht mehr zum Vorschein kommt. In einem solchen Schlaraffenland fehlt schlicht die tätige Auseinandersetzung mit dem zuhandenen Zeug. Dies mag überzogen klingen, denn wir sind heute noch weit von einem solchen Zustand entfernt. Jedoch muss man fragen, welche Konzepte und Konsequenzen hinter den technischen Utopien stehen, die uns vorgelegt werden. Und wenn auch die Utopie nicht in der angezeigten Form wahr wird, so bereitet sie doch oft den Boden, auf dem sich die Realität der Technisierung materialisiert. Hier stellt sich dann die Frage, ob und wie andere Formen der Welterschließung an die Stelle der Technik treten können. Heidegger ist hier nicht besonders optimistisch, fragt aber immer wieder, ob nicht Kunst, Kultur, Reflexion, Geschichten und Meditation diesen Platz einnehmen könnten. Und schließlich ergibt sich auch die Frage, wie wir aus ethischer Sicht mit diesen neuen Herausforderungen umgehen werden. Denn in Virtual-Reality- und Ambient-Intelligence-Umgebungen wird nicht mehr nur die Natur in die Technik verbaut, wie Heidegger am Beispiel des Kraftwerkes zeigte, sondern der Mensch selbst wird in die Technik verbaut. Damit besteht die Gefahr, dass der Mensch nur mehr zum Bestand wird, der bei Bedarf bestellt, erschlossen, umgeformt, gespeichert, verteilt und umgeschaltet werden kann. Die dabei entstehenden Probleme können in drei Hauptgruppen zusammengefasst werden:43 1. Verlust von Autonomie, Privatsphäre und Selbstbestimmung; 2. Zuschreibung und Verwässerung von Verantwortung und 3. Probleme der Verteilungsgerechtigkeit. Vor allem aber stellt sich als durchgehender Grundzug das Problem des technologischen Paternalismus, d. h. die Delegation von Entscheidungen an automatisierte Routinen intelligenter Systeme, die durch ihre eigene Lernfähigkeit zunehmend beanspruchen, uns mit Informationen und Handlungsoptionen zu versorgen, die „gut für uns“ sind. Sicher können hier Vorkehrungen getroffen und Sicherungen eingebaut werden, um negative Folgen und nichtintendierte Konsequenzen abzuwenden. Doch die bereits vor zehn Jahren geforderten „Safeguards in a World of Ambient Intelligence“44 sind bislang nicht implementiert worden. Und generelle ethische Richtlinien für die Gestaltung und Implementierung von Ambient Intelligence und Ubiquitous Computing sind ebenfalls kaum zu finden.45 So scheint auch hier zu gelten, dass vorausschauende Technikbewertung eher selten zu finden ist und wir uns auch in diesem Feld eher um Schadensbegrenzung denn um Vorsorge bemühen werden. 42 43 44 45
Vgl. Sharma/Kumar/Bhardawaj 2014 sowie Bibri 2015, S. 33f. Vgl. Hilty 2015. Wright et al. 2008. Zu den wenigen Ausnahmen gehören: Kinder-Kurlanda/Ehrwein Nihan 2015 sowie Ikonen/ Kaasinen/Niemelä 2009.
30
Bernhard Debatin
BIBLIOGRAFIE Bense, Max (1998 [1951]): Kybernetik oder Die Metatechnik einer Maschine. In: Ders.: Ausgewählte Schriften, Bd. 2 (hrsg. v. E. Walther). Stuttgart/Weimar, S. 429–446. Bibri, Simon Elias (2015): The Human Face of Ambient Intelligence: Cognitive, Emotional, Affective, Behavioral and Conversational Aspects. Paris: Atlantis Press. Coyne, Richard (1994): Heidegger and Virtual Reality: The Implications of Heidegger’s Thinking for Computer Representations. In: Leonardo, Vol. 27, No. 1, S. 65–73. Debatin, Bernhard (1994): Zur Modellierung der Mensch-Computer-Interaktion. Anlage zum 3. Arbeitsbericht des Teilprojekts Philosophie der Forschergruppe Konstruktionshandeln (DFGProjekt). Berlin: Technische Universität. Debatin, Bernhard (1999): Allwissenheit und Grenzenlosigkeit: Mythen um Computernetze. In: Wilke, Jürgen (Hrsg.): Massenmedien und Zeitgeschichte. Schriftenreihe der DGPuK, Bd. 26. Konstanz: UVK Medien, S. 481–193. Gehlen, Arnold (1950): Der Mensch. Seine Natur und seine Stellung in der Welt. 4. Aufl. Bonn: Athenäum Verlag. Gruber, Angela (2016): Kleiner geht’s nicht. Physikalische Grenze der Chip-Entwicklung. Spiegel Online, 26. März 2016. Online: http://www.spiegel.de/netzwelt/web/moore-s-law-die-goldeneregel-der-chiphersteller-broeckelt-a-1083468.html (Abruf: 16.08.2018). Habermas, Jürgen (1968): Technik und Wissenschaft als „Ideologie“. In: Ders: Technik und Wissenschaft als „Ideologie“. Frankfurt: Suhrkamp, S. 48–119. Harvey, Cynthia (2017): 5 Fast Growing Technology Trends for 2017. In: Network Computing, 11.01.2017. Online: https://www.networkcomputing.com/cloud-infrastructure/5-fast-growingtechnology-trends-2017/1457633776 (Abruf: 16.08.2018). Heidegger, Martin (1976): Nur noch ein Gott kann uns retten. SPIEGEL-Gespräch. In: Der Spiegel, 31. Mai 1976, 30. Jg., Nr. 23, S. 193–214. Heidegger, Martin (1986 [1927]): Sein und Zeit. Tübingen: Max Niemeyer. Heidegger, Martin (1988 [1954]): Die Frage nach der Technik. In: Ders.: Die Technik und die Kehre. Pfullingen: Neske, S. 5–36. Heilige, Hans Dieter (2007): Grundlinien der Geschichte des Mensch-Computer-Interface. artecpaper Nr. 150, Dezember 2007. Online: https://www.uni-bremen.de/fileadmin/user_upload/sites/ artec/Publikationen/artec_Paper/150_paper.pdf (Abruf: 16.08.2018). Hilty, Lorenz M. (2015): Ethical Issues in Ubiquitous Computing –Three Technology Assessment Studies Revisited. In: Kinder-Kurlanda, Katharina/Ehrwein Nihan, Céline (Hrsg.): Ubiquitous Computing in the Workplace. New York: Springer, S. 45–60. Horkheimer, Max/Adorno, Theodor W. (1986 [1944]): Dialektik der Aufklärung. Frankfurt: Fischer. Hubig, Christoph (1993): Technik- und Wissenschaftsethik. Ein Leitfaden. Berlin: Springer. Ikonen, Veikko/Kaasinen, Eija/Niemelä, Marketta (2009): Defining Ethical Guidelines for Ambient Intelligence Applications on a Mobile Phone. In: Proceedings of the 1st International Conference on Intelligent Environments (IE09), 20–21 July 2009, Technical University of Catalonia, Barcelona, Spain. Online: https://www.dora.dmu.ac.uk/handle/2086/5295 (Abruf: 16.08.2018). Johnson, Steven (1997): Interface Culture: How New Technology Transforms the Way We Create and Communicate. San Francisco: HarperEdge. Kinder-Kurlanda, Katharina/Ehrwein Nihan, Céline (Hrsg.) (2015): Ubiquitous Computing in the Workplace. What Ethical Issue? An Interdisciplinary Perspective. New York: Springer. Koltko-Rivera, Mark (2005): The Potential Societal Impact of Virtual Reality. In: Stanney, K. M./ Zyda, M. (Hrsg.): Musings on Design, Evaluation, and Applications. HCI International 2005: 11th International Conference on Human Computer Interaction (CD-Rom, Vol. 9). Mahwah, NJ, Lawrence Erlbaum. Kurzweil, Ray (2006): The Singularity is Near: When Humans Transcend Biology. New York: Penguin.
Die Maschine, des Menschen bester Freund?
31
Leigh, Sang-won/Sareen, Harpreet/Kao, Hsin-Liu (Cindy)/Liu, Xin/Maes, Pattie (2017): BodyBorne Computers as Extensions of Self. In: Computers 2017, 6(1), S. 1–17. Online: http:// www.mdpi.com/2073-431X/6/1/12/htm (Abruf: 16.08.2018). Murugesan, San/Colwell, Bob (2016): Next-Generation Computing Paradigms. In: Computer, Vol. 49, Issue 9, S. 14–20. Online abrufbar unter: https://ieeexplore-ieee-org.proxy.library.ohio.edu/ stamp/stamp.jsp?tp=&arnumber=7562318. Norman, Don (2013): The Design of Everyday Things. New York: Basic Books. Novak, John/Archer, Jason/Meevisti, Victor/Jones, Steve (2016): Communication, Machines & Human Augmentics. In: Communication+1, Vol. 5, Article 8, S. 1–33. O’Brolcháin, Fiachra/Jacquemard, Tim/Mnaghan, David/O’Connor, Noel/Novitzky, Peter/Gordijn, Bert (2016): The Convergence of Virtual Reality and Social Networks: Threats to Privacy and Autonomy. In: Science and Engineering Ethics, Vol. 22, S. 1–29. Schelsky, Helmut (1965): Der Mensch in der wissenschaftlichen Zivilisation. In: Auf der Suche nach Wirklichkeit. Düsseldorf/Köln: Diederichs, S. 439–480. Sharma, Anjali/Kumar, Ankit/Bhardawaj, Avdesh (2014): A Review of Ambient Intelligence System: Bringing Intelligence to Environments. In: International Journal of Information & Computation Technology, Volume 4, Number 9, S. 879–884. Wiegerling, Klaus (2015): The Question of Ethics in Ambient Intelligence. In: Kinder-Kurlanda, Katharina/Ehrwein Nihan, Céline (Hrsg.): Ubiquitous Computing in the Workplace. New York: Springer, S. 37–44. Wright, David/Gutwirth, Serge/Friedewald, Michael/Vildjiounaite, Elena/Punie, Yves (Hrsg.) (2008): Safeguards in a World of Ambient Intelligence. New York: Springer.
WARUM MASCHINEN NICHT FÜR UNS DENKEN, HANDELN UND ENTSCHEIDEN Klaus Wiegerling
Es soll im Folgenden auf die Frage eingegangen werden, welche Auswirkungen intelligente Maschinen auf uns als Mensch haben und künftig haben werden. Es wird sich dabei zeigen, dass diese Auswirkungen nicht notwendigerweise von den tatsächlichen Potenzialen der Technologie herrühren, sondern wesentlich von Projektionen, die mit ihr und ihrer Vision verknüpft werden. Es geht zum einen darum Geltungsansprüche, die mit einer Technik verbunden werden, zu überprüfen. Zum anderen soll eine Art Hermeneutik der Zukunft betrieben werden.1 Das heißt, wir wollen mögliche Auswirkungen einer Technologie in den Blick nehmen und auch im Hinblick auf unser Selbst- und Gesellschaftsverständnis auslegen. Dies können wir aber nur, wenn wir uns gegenüber der Technologie positionieren, wenn wir wissen, was wir mit ihrer Nutzung bewirken und was wir definitiv nicht bewirken wollen. Der Blick ist aber nicht allein auf Technologien als solche zu richten, sondern auch auf den Prozess ihrer Implementierung, der sich in einem Zusammenwirken von Gesellschaft und Technologieanwendung vollzieht und dabei auf beide Elemente des Zusammenspiels zurückwirkt. Keine moderne informatische Anwendung wird einfach in der Entwicklungsabteilung geschaffen und dann distribuiert, sondern sie befindet sich quasi immer in der ‚Beta-Phase‘. Sie wird weiterentwickelt und in Reaktion auf ihre Nutzung gestaltet, woraus wiederum neue und andere Nutzungsmöglichkeiten und Nutzungswirklichkeiten resultieren können. Das bedeutet, dass auch die Mensch-System-Interaktion bei der Auslegung der Technologie berücksichtigt werden muss. Wir positionieren uns nicht nur gegenüber einer Technologie, wir gehen mit gegenwärtigen Technologien, auf denen künftige basieren, auch schon um. Dieser Umgang muss in der Beurteilung Berücksichtigung finden. Mensch-System-Interaktionen sind nicht nur rational und zweckmäßig auf das Notwendige und Nützliche gerichtet, sondern auch emotional disponiert. Der begeisterte Autofahrer kennt die ‚Mucken‘ seines Fahrzeugs und weiß mit ihnen umzugehen. Mensch-Maschine-Interaktionen geben gerade in ihrem modernen, erweiterten Gebrauch, der nicht nur ökonomische Produktivität und Funktionalität kennt, sondern auch Spiel hat – also Momente der Unterhaltung, der lernenden Aneignung und sogar der Selbstgestaltung umfasst – Aufschluss über unsere lebensweltliche Verfassung. Und diese Verfassung muss als Boden unserer Auslegung und als inten1
Vgl. Grunwald 2012; Wiegerling 2014 und Wiegerling 2017.
34
Klaus Wiegerling
dierter Zielbereich im Fokus bleiben. Wir leben künftig nicht nur mit Systemen, die anders eingebettet sind, anderes können und anders aussehen, sondern auch anders bedient und erfahren werden – etwa, wenn ihre Smartness weiter zunimmt und die Schnittstelle der Interaktion weiter schwindet, oder wenn Maschinen quasi mit unserer körperlich-organischen Existenz verknüpft sind.2 Jede Auslegung hat ihre Basis in der gegenwärtigen Praxis im Umgang mit Maschinen, hat also eine praktisch-lebensweltliche Disposition, die uns oft nur bei Störung im Sinne einer Aufsässigkeit bewusst wird. Und jede Auslegung macht Aussagen über künftige Technologien und die Weise, wie wir mit ihnen umgehen und wie sie unsere Lebensweise und unser Selbstverständnis verändern. Entscheidende Kriterien für die Bewertung möglicher Auswirkungen sind zum einen metaethischer Natur. Das heißt, sie betreffen nicht direkt Ethisch-Normatives, sondern die Bedingungen der Möglichkeit eines ethisch-normativen Diskurses, also a) die Identität des Handlungssubjekts, das verantwortlich handeln soll, b) die Bestimmung der Wirklichkeitssphäre, in der verantwortlich gehandelt werden soll, sowie c) die Möglichkeit der Wahl, denn wir können nur verantworten, was wir auch tatsächlich gewählt haben. Es geht bei den metaethischen Kriterien um drei Fragen: 1) ob das Handlungssubjekt durch eine Technik gestärkt oder geschwächt wird, 2) ob die Bestimmung der Wirklichkeit durch sie verbessert oder verschlechtert wird und 3) ob uns ein System Wahlmöglichkeiten gibt oder nimmt. Andererseits sind die Kriterien ethisch-normativer, allerdings auch handlungsbegrenzender Natur. In ihnen artikuliert sich unser Selbst- und Gesellschaftsverständnis, wie es etwa in den Vermächtniswerten des Grundgesetzes formuliert ist. Dies ist 1) die Idee der Würde als Recht, immer in seiner Einzigartigkeit, nie nur in einer Rolle anerkannt zu werden, 2) die Idee der Autonomie als Recht, das eigene Leben führen zu können, indem man sich eigene Vernunftgesetze gibt und sich an diese auch verbindlich hält, und schließlich 3) die Idee der Subsidiarität als Sicherung gegen jede Form der Entmündigung, also der Bevormundung und des Paternalismus. 1 MASCHINEN, DIE FÜR UNS DENKEN, ENTSCHEIDEN UND HANDELN Prinzipiell rechtfertigt sich die Entwicklung von Technik durch ihre Entlastungsfunktion und durch neue Handlungsmöglichkeiten, die sie uns gibt. Es gilt aber zu fragen, ob eine Technik auch entmündigende bzw. entmächtigende Wirkungen zeitigt. Dann nämlich wäre deren Entwicklung gemäß dem genannten Kriterienkatalog kaum zu rechtfertigen. Es steht nun außer Frage, dass informatische Techniken, insbesondere wenn sie mit Aktoren ausgestattet sind bzw. es sich um robotische Systeme im engeren Sinne handelt, ein enormes Veränderungspotenzial für die Arbeitswelt, aber auch für die 2
Vgl. Wiegerling 2015c und Wiegerling 2018.
Warum Maschinen nicht für uns denken, handeln und entscheiden
35
private Alltagswelt haben. Nicht nur die Entwicklung der Industrierobotik, auch die der Servicerobotik – man denke an den Pflegebereich – erfährt derzeit einen Schub.3 Nicht zuletzt findet durch die moderne Implantate- und Prothesentechnik eine technische Aufrüstung unserer organischen Disposition statt, die die Rede vom Menschen, wie wir ihn bisher verstanden haben, problematisch erscheinen lässt. Zunehmend steht der Mensch nicht nur in einer biologischen Deszendenzlinie, sondern infolge seiner Aufrüstung durch Implantate und Prothesen auch in einer technischen Entwicklungslinie.4 Informationstechnik dringt mehr und mehr in den menschlichen Körper und verändert damit unsere Leib- und Selbsterfahrung. Was auch immer man nun unter intelligenten Maschinen verstehen mag, wir erleben, dass uns immer mehr Handlungsfelder, die wir bisher als spezifisch menschlich, da mit intellektuellen Fähigkeiten verknüpft, gehalten haben, von intelligenten Maschinen streitig gemacht bzw. von ihnen übernommen werden. Maschinen sind nicht nur der verstärkte Arm, der verfeinerte Finger und die verstärkte Faust5, sondern auch der erweiterte, beschleunigte und präzisierte Verstand. Es scheint nun so, dass ‚Maschinen‘ für uns denken, handeln und entscheiden. Es soll aber gezeigt werden, dass dies tatsächlich nicht der Fall, sondern Ausdruck einer unangemessenen sprachlichen Projektion ist – die aber schwer zu vermeiden ist, da wir die Leistung von Maschinen nur durch sprachliche Übertragungen und Zuschreibungen fassen können.6 2 DENKEN Es wäre vermessen sozusagen in nuce zu explizieren, was denken heißt. Damit beschäftigt sich die Philosophie seit ihren Anfängen. Dies wäre also ein nicht eingrenzbarer und wohl auch nicht enden wollender Diskurs. Der Fokus soll deshalb nur auf einem einzigen charakteristischen Moment liegen, nämlich auf dem des Transzendierens einer gegebenen Situation. Nun können Systemtechnologien längst Handlungssituationen erkennen und durchaus situationsangemessen agieren. Sie tun das, indem man ihnen Schemata implementiert, mit deren Hilfe solche Situationen erkannt werden und dem Handelnden entsprechende Systemunterstützungen gewährt werden können. Um eine Situation transzendieren zu können, muss auf einem Template explizit gemacht worden sein, bei welcher Konstellation ein Schritt auf eine Metaebene gegangen werden muss, auf der es dann neue Aktionsmöglichkeiten gibt. Solche Verfahren werden im Rahmen der üblichen informatischen Problemlösungsstrategien angewendet.7 Bei selbstlernenden Systemen stellt sich die Sache komplizierter dar, aber auch dort geht es letztlich um ein Explizitmachen von Aktionsregeln, wenn das System 3 4 5 6 7
Vgl. Decker 2015 und Decker 2013. Vgl. Wiegerling 2012. Vgl. Kapp 1877. Vgl. Gutmann/Knifka 2015 und Wiegerling 2015a. Vgl. Wiegerling 2011, Kap. II, 1: Vom Kontextproblem zur Frage nach der Benutzerstereotype.
36
Klaus Wiegerling
berechenbar bleiben soll. Lernende Systeme müssen das Erlernte ja in ähnlichen Situationen wiederholen können, basieren also auf der Erfassung von Redundanzen und der Wiederholbarkeit von Abläufen. Dies ist nur möglich, wenn Abläufe explizit gemacht werden, also in Regeln gefasst werden können. Beim Menschen dagegen müssen Handlungsmöglichkeiten offensichtlich nicht explizit gemacht werden. Der Mensch verfügt über ein nicht zuletzt auch leibbasiertes implizites Wissen und über intuitive Fähigkeiten, die sich auch aus besonderen kulturellen Dispositionen speisen. Eine Metarahmung muss also nicht explizit vorliegen. Es sei angemerkt, dass das im gegenwärtigen Big-Data-Diskurs bedeutsame Maschinelle Lernen sich dadurch auszeichnet, dass es selbstorganisiert und autoadaptiv ist, also auf unbekannte externe Sensor- oder sonstige Eingabedaten reagieren kann. In gewisser Weise handelt es sich um ein Reiz-Reaktions-Lernen, das Sebastian Harrach nach Lernstrategien klassifiziert. Er unterscheidet zwischen einem zielorientierten und einem ergebnisoffenen neugierigen Lernen. Zielorientiertes Lernen ist durch einen strategisch-autonomen Autoadaptionsprozess gekennzeichnet, bei dem mithilfe einer Vorstrukturierung Probleme gelöst werden sollen.8 Ergebnisoffenes ‚neugieriges‘ Lernen ist darüber hinaus in der Lage, die eigene Programmstruktur zu verändern, um ein Problem zu lösen, indem es nach statistischen Kriterien zu Wahrscheinlichkeitsbefunden gelangt.9 Diese Form maschinellen Lernens eignet sich in besonderer Weise zur Suche nach Mustern in großen bzw. ‚fließenden‘ Datenmengen. Für Harrach stellt dieses Lernen ein „Werkzeug zur Welterzeugung“10 im Sinne Goodmans dar. Selbstlernende Systeme sind Hilfsmittel für Forscher und Spezialisten, nicht aber unbedingt geeignet für eine Unterstützung bei Alltagsproblemen. Hier von einem impliziten Wissen zu reden, wäre verfehlt. Das System reagiert in gewisser Weise nur auf ein tatsächlich oder scheinbar erkanntes Analysat, also auf etwas, was sich als Struktur explizit machen lässt. Das Analysat selbst muss aber immer durch den Nutzer auf seine Sinnhaftigkeit überprüft werden. Ein die Handlungssituation transzendierendes leiblich disponiertes Wissen liegt entsprechend nicht vor. Grundsätzlich ergibt sich aus dem maschinellen Lernen das Problem, dass Ergebnisse nur sehr begrenzt zurückverfolgt werden können, was die Ergebnisse für den wissenschaftlichen Gebrauch durchaus auch problematisch erscheinen lässt, schließlich ist die Rekonstruierbarkeit von Ergebnissen ein zentraler Anspruch wissenschaftlicher Wahrheitsansprüche. Aber auch der Alltagsgebrauch ist keineswegs unproblematisch, benötigt er doch Ablaufsicherheit und Systemvertrauen, also Vertrauen in die Erfüllung bestimmter Funktionen, die bei einem sich permanent wandelnden System nicht mehr ohne weiteres gewährleistet wären.
8 9 10
Vgl. Harrach 2014, S. 276ff. Vgl. ebd., S. 14. Ebd., S. 284.
Warum Maschinen nicht für uns denken, handeln und entscheiden
37
3 ENTSCHEIDEN Kann ein System nun wirklich Entscheidungen treffen? Zunächst entscheidet ein System natürlich nicht, sondern es rechnet. Eine Entscheidung impliziert immer die Möglichkeit eines Fehlens und eröffnet damit auch den Blick auf die Folgenverantwortlichkeit. Wir entscheiden nur etwas, wenn wir in der Entscheidung auch fehlen können. Eine Entscheidung hat also immer Auswirkungen, nicht zuletzt auf uns selbst. De facto finden nun aber in dem Sinne ‚Entscheidungen‘ mit unmittelbaren persönlichen und gesellschaftlichen Folgen statt, als Systeme beispielsweise eigenständig über die Bonität von Bankkunden entscheiden. Bei sogenannten Scoringverfahren werden bestimmte Daten zur Beurteilung einer Person herangezogen und ein Bewertungsschema, das bestimmte Gewichtungen von Daten vornimmt, in das System implementiert. Die Auswahl der relevanten Daten sowie das Bewertungsschema werden aber letztlich nicht vom System vorgenommen. Was Bonität überhaupt bedeutet, wurde von den Systementwicklern bzw. von denen, die die Entwicklung beauftragten und steuern, schon bevor es zu Rechenvorgängen kommt, festgelegt. Das heißt nichts anderes, als dass die automatisierte Evaluierung von den eigentlichen Entscheidern anerkannt und im Einzelnen nur in Ausnahmefällen überprüft wird. Bei der Überprüfung wird das informatische Verfahren selbst aber nicht transparent gemacht, weil – wie vom Schufa-Urteil des BGH von 2014 festgestellt – die verwendeten Algorithmen unter das Betriebsgeheimnis fallen. Es sei hier aber ausdrücklich darauf hingewiesen, dass sich die vermeintliche ‚Entscheidung‘ durch das System durchaus auf eine personale oder allgemeine gesellschaftliche Anerkennung stützt, insofern sie nicht allein Bank- bzw. Geschäftsinteressen dient, sondern durchaus auch der Stabilisierung gesamtwirtschaftlicher Prozesse. Es entscheiden also letztlich die, die das Rechenergebnis des Systems als Entscheidung anerkennen. Das sind im genannten Fall zum einen die direkten Nutznießer der kreditgebenden Banken, aber zuletzt auch andere Teilnehmer des Wirtschaftssystems, schließlich ist dessen Stabilität für jeden Teilnehmer von Nutzen. 4 HANDELN Kommen wir zur letzten Zuschreibung: In Bezug auf die Rede von Maschinen, die für uns handeln, ist zu sagen, dass Handeln immer an drei Kriterien gebunden ist, die sich im Sinne Peter Janichs11 so beschreiben lassen: Zum ersten muss es eine eigenständige ‚Zwecksetzungskompetenz‘ des Handelnden geben. Dies wäre bei intelligenten Maschinen nur dann der Fall, wenn sie eigene Intentionen verfolgen würden. Hier stellt sich aber die Frage, warum wir solche Maschinen überhaupt entwickeln sollten? Die Verfolgung eigener Intentionen ist konnotiert mit der Autonomie des Systems, das dann aber natürlich nicht mehr unser Werkzeug wäre und uns entsprechend auch Dienste verweigern würde. Die eigenen Zwecke des Sys11
Vgl. Janich 2006, Kap. I, 1: Technik und Kulturhöhe.
38
Klaus Wiegerling
tems müssen ja nicht kompatibel sein mit denen der Entwickler und Nutzer. Des Weiteren müsste ein wirklich handelndes System über eine ‚Mittelwahlkompetenz‘ verfügen, wovon sich in einem gewissen Grade durchaus reden lässt. Selbstlernende Systeme können innerhalb einer bestimmten Rahmung über die Anwendung unterschiedlicher Mittel zur Lösung eines Problems verfügen. Die Rahmung muss aber explizit vorliegen. Die Schritte, bei denen eine neue Ebene zur Problemlösung erreicht werden soll, müssen formal benannt sein. Dass auch historische Umstände bei der Mittelwahl eines Systems Berücksichtigung finden, hängt wiederum von dessen tatsächlicher Autonomie ab. Autonomie gibt es nicht jenseits von Historizität. Zuletzt würde die Rede von Handeln auch die ‚Folgeverantwortlichkeit‘ des Akteurs voraussetzen. Wie soll man sich die aber bei einem Artefakt vorstellen? Wollen Sie einem Roboter für eine Fehlhandlung die Energiezufuhr sperren? Für welche Folgen könnte also ein System gerade stehen? Halten wir fest, dass die verbreitete Zuschreibung menschlicher Fähigkeiten wie Denken, Entscheiden und Handeln nicht in der Technologie angelegt sind, solange letztere nicht den Anspruch erhebt, mehr als ein Werkzeug zu sein. Andererseits müssen wir konstatieren, dass diese Fähigkeiten tatsächlich Technologien zugeschrieben und anerkannt werden. Wir beugen uns ja ihren ‚Entscheidungen‘, also dem errechneten Ergebnis des Systems und der Aktion, die daraus erfolgt. Vielleicht tun wir das mit gutem Grund, schließlich können Systeme mehr Daten verarbeiten als es selbst der versierteste Fachmann kann. Damit gehen Auswirkungen auf unser Selbst- und Gesellschaftsverständnis einher. Es ist also nicht allein die Technologie als solche, die zu Veränderungen in unserem Selbst- und Gesellschaftsverhältnis führt, sondern das, was mit einer Technologie verknüpft bzw. assoziiert wird. Technologien sind niemals neben ihrer kulturellen, ökonomischen und politischen Einbettungen zu beurteilen. Sie wirken in einem Wirkverbund, in dem sie ein wichtiges, aber eben nur ein Moment sind. Es gibt Wirkungen, die allein auf Zuschreibungen basieren, nicht auf sachlichen Faktoren. Nicht zuletzt können, wie Klaus Kornwachs feststellte, sogar Stimmungen, also situative oder zeitgeistige Faktoren bei der Wirkung einer Technologie eine Rolle spielen.12 Es kann immer wieder zu Verwerfungen von technischen Entwicklungen kommen, weil die Zeit nicht reif für sie ist, oder andererseits zu Förderungen bestimmter technischer Entwicklungslinien, weil man sich für die bestehende Lebensart einen Vorteil oder eine Entlastung verspricht. Stimmungen sind keineswegs subjektive Emotionslagen, sondern etwas, was man mit anderen, und zwar vor allem nahen anderen teilt; sie können aus Bedrohungslagen oder Euphorien resultieren. Man blickt hoffnungsvoll oder ängstlich in die Zukunft, mit Gleichgültigkeit oder mit Kalkül. Stimmungen spielen also auch bei der Beurteilung von Technologien eine Rolle und gehen mit Auswirkungen auf unser Selbst- und Gesellschaftsverständnis einher; etwa solchen Auswirkungen, die bei als autonom eingeschätzten Technologien die menschlichen Fähigkeiten zur Steuerung und Gestaltung des Artefakts eher gering einschätzen; oder solchen Auswirkungen, die die bisher als indisponibel erachteten schicksalhaften Ereignisse wie Krankheiten oder Unfälle als prinzipiell beherrschbar erachten. 12 Vgl. Kornwachs 2012, S. 52ff.
Warum Maschinen nicht für uns denken, handeln und entscheiden
39
Letzteres kann sich z. B. auf Rücksichtserwartungen auswirken. Krankheit könnte auch als Schuld aufgefasst werden, wenn bestimmte Präventionsverpflichtungen nicht beachtet und medizinische Besserungsoptionen wie Implantate nicht genutzt werden.13 5 GRENZEN MASCHINELLER WAHRNEHMUNG, KALKULATION UND AKTION Gehen wir in Ergänzung der Frage, ob Maschinen denken, entscheiden und handeln können, noch auf das Problem ein, ob Maschinen in ihrem Wahrnehmen, Kalkulieren und Agieren grundsätzliche Grenzen haben. Die Frage lässt sich freilich nur schwer beantworten, weil sie von vielen Faktoren abhängt, etwa von der Architektur des Systems, aber auch von der Einbettung des System in den Alltag. Ob ein System etwa einen Sinn für das Altern von Begriffen und Gesten hat, spielt hier eine Rolle. Für den gegenwärtigen Status von intelligenten Systemen gilt allerdings, dass sie keine Bewertung der eigenen Rechenergebnisse vornehmen können. Das System kommt zu einem Ergebnis innerhalb eines bestimmten Rahmens, ja innerhalb einer bestimmten Ontologie, in der Wert- bzw. Bewertungshierarchien festgelegt sind. Die Bewertung des Ergebnisses obliegt aber letztlich den Nutzern der Ergebnisse. Dies betrifft wohlgemerkt nicht die Richtigkeit der Rechenvorgänge; diese können sehr wohl, etwa durch Verifikationssysteme oder parallele Rechnerstrukturen überprüft werden. Die Ergebnisse selbst können aber durch neue Erkenntnisse über die Relevanz zugrunde liegender Daten, aber auch durch historische Wandlungsprozesse eine Neubewertung erfahren. Ein weiteres Missverständnis ergibt sich aus der Tatsache, dass Daten, mit denen Systemtechnologien arbeiten, entgegen der verbreiteten Meinung nun einmal keine Rohstoffe sind. Vielmehr entstehen Daten aufgrund von reduzierenden und skalierenden Verfahren. Wert erlangen sie durch eine Relationierung und Hierarchisierung, die auf einem Template artikuliert ist. Entscheidend für jede Berechnung sind also immer die als relevant ausgewählten Daten und – trotz Big-Data-Algorithmen und Data-Mining – nicht notwendigerweise die Datenmassen. Die Relevanz zeigt sich in der Artikulation eines Datums, dem immer Desartikulationen korrespondieren. Das Röntgengerät artikuliert den Knochenbau und innere Organe, nicht aber die Haut. Immer bleibt etwas ausgeblendet. Dies ist kein Mangel, sondern eine Notwendigkeit in jedem Erkenntnis- bzw. Nachbildungsprozess. Alle Erkenntnis ergibt sich aus der Artikulation von Momenten und vom Weglassen vernachlässigbarer Momente. Erkenntnis ist immer auch eine Bewertung eines Sachverhalts. Jedes Funktionsmodell beruht auf einer Reduktion von Prozessen auf zentrale Faktoren. Die Nachbildung eines Organs artikuliert nicht alle Prozesse, die in einem Organ stattfinden, sondern nur die, die als relevant angesehen werden.
13
Vgl. Wiegerling 2015b.
40
Klaus Wiegerling
6 MENSCH-MASCHINE-INTERAKTION UND DIE GRENZEN DER SPIELIFIZIERUNG Wir stellten bereits fest, dass wir mit Maschinen und Systemen immer schon Umgang haben und auch künftig mit ihnen Umgang haben werden, selbst wenn die Smartness der technischen Unterstützung und damit die Unsichtbarkeit der Schnittstelle zunehmen wird. Es ist zunächst zu konstatieren, dass das Verschwinden der Schnittstelle mit der fortschreitenden Autonomie der Technik einhergeht.14 Zur Smartness moderner Technologien gehört, dass sie quasi ohne ausdrückliche Bedienung agieren können. Sie erkennen uns in einer bestimmten Handlungssituation und unterstützen unsere Intentionen unaufdringlich. Das System agiert auch ohne unser Zutun entsprechend der Handlungsrolle, in dem es uns erkennt. Da eine ausdrückliche Bedienung des Systems hier nicht stattfindet, spielen auch Fragen einer spielerischen Gestaltung der Mensch-Maschine-Interaktion keine Rolle. Nun ist aber denkbar, dass in der zweckorientierten Bedienung von Maschinen bewusst Spielräume für den Nutzer zugelassen werden. Dies kann etwa geschehen, um ihre Handhabung besser erlernen zu können oder andere Einsatzmöglichkeiten kennenzulernen. In der Anlernphase können also Spielräume zugelassen werden, die allerdings, wenn die Handhabung der Maschine mit Gefahren verbunden ist, besser simulativ gewonnen werden sollten. Es gibt darüber hinaus aber gute Gründe, den Umgang mit einem robotischen System nicht nur simulativ, sondern in einer realen Einsatzsituation zu erlernen. Es könnte sinnvoll sein, spielerische Elemente bei der Bedienungserlernung einzubauen, um einen Sinn für die Möglichkeiten und Grenzen eines Systems zu erlangen, aber auch um die eigene Bedienungsfähigkeit zu schulen. In der Regel sind solche Spielräume in Produktionsprozessen aber problematisch, weil es dort auf Präzision und die exakte Wiederholung von Abläufen ankommt. Der steuernde Eingriff ist hier die Ausnahme und bleibt Notfallmaßnahmen oder Maßnahmen zur Justierung oder Erneuerung von sensorischen oder aktorischen Elementen vorbehalten, soweit diese nicht von intelligenten Maschinen selbst vorgenommen werden können. Anders könnte es bei Mensch-Maschine-Interaktionen aussehen, die entweder einer Kompetenzerweiterung des Nutzers oder dem Zweck dienen, das System selbst weiter auszugestalten bzw. auszudifferenzieren. Im ersten Falle könnten bei der Rückmeldung des Systems durchaus quasi ‚rhetorische‘ Momente zum Einsatz kommen, mit deren Hilfe eine Verhaltensänderung bzw. Selbstreflexion des Anwenders bewirkt werden soll. Dies könnte schlimmstenfalls den Nutzer in eine autoritätsgläubige Schülersituation bringen, bestenfalls in eine Position der Systembeherrschung, die auch die Sinnhaftigkeit und die Grenzen des Systemeinsatzes zum Gegenstand macht. In einer Lernsituation kann die Didaktisierung der MenschSystem-Interaktion sinnvoll sein, außerhalb wäre sie nahe an einer Bevormundung.
14
Vgl. Hubig 2015, Kap. 3: Neue Formen der Hybridisierung – Autonomie, Kontrolle und die ‚Kolonialisierung‘ der Lebenswelt.
Warum Maschinen nicht für uns denken, handeln und entscheiden
41
Der vermehrte Umgang mit Systemen, die innerhalb eines bestimmten Rahmens auch zu quasi-eigenständigen Aktionen imstande sind, wird vermehrt unseren Alltag prägen. Systemaktionen werden unseren beruflichen und privaten Alltag begleiten. Viele Verrichtungen werden komplett den Systemen überlassen werden, andere müssen mit dem System, wenn nicht ausgehandelt, so doch abgestimmt werden. Hier wiederum könnten Kommunikationsweisen, die sozusagen Spiel lassen, durchaus hilfreich sein. Es sind Möglichkeiten der Interaktion vorstellbar, in denen das System dem Nutzer Angebote macht bzw. dem Nutzer Eingriffsmöglichkeiten in die Systemkonfiguration angezeigt werden, die die Funktionalität des Systems nicht gefährden und auch für den Laien ohne Risiken nachvollziehbar und handhabbar sind. Dies wäre überall da möglich, wo es nicht um reine Produktionsprozesse geht, sondern um den kreativen Einsatz von Systemen zur Problemlösung, wobei auch Lerngruppenprozesse bei der Mensch-Maschine-Interaktion berücksichtigt werden könnten.15 Ob die Adaptivität des Systems auch emotionale Befindlichkeiten des Nutzers, berücksichtigen sollte, ist allerdings fraglich. Es stellt sich hier schnell das Problem der Fetischisierung des Systems durch den Nutzer einerseits bzw. der Informationsvorenthaltung seitens des Systems andererseits ein. Welchen Zweck soll die Berücksichtigung emotionaler Befindlichkeiten – so man sie denn überhaupt fassen kann – haben? Einfach sind emotionale Befindlichkeiten keineswegs durch messende Verfahren zu bestimmen. Wie komplex und situativ, wie kultur- und physiologiebedingt sind sie? Konstatieren können wir nur, dass es sich bei Emotionen um komplexe Phänomene handelt, die stark von kulturellen, individualgeschichtlichen und physiologischen Voraussetzungen abhängen.16 Oft ungeklärt bleibt die Grenze zwischen vermeintlich subjektiver Emotion und Stimmung, die ja keineswegs nur subjektiver Natur ist. Man kann sich zwar bei der Alten- oder Krankenpflege vorstellen, dass gewisse Aktionen eines Pflegesystems innerhalb von Zeitfenstern verrichtet bzw. entsprechend dem emotionalen Zustand verzögert werden können. Gewiss ist auch denkbar, dass bei extremen emotionalen Belastungen die Interaktion seitens des Systems reduziert wird, um die Möglichkeit einer Fehlbedienung bzw. Fehlentscheidung durch den Nutzer gering zu halten. Systemfestlegungen des Nutzerzustandes sind allerdings mit Vorsicht zu genießen. Ein System leistet keine Hermeneutik der Einstellungen und emotionalen Zustände des Nutzers, sondern legt den Nutzer in einer Rolle fest. Über Stimmungen, die immer auch kollektive und zeitgeistige Elemente implizieren, kann ein System keine Aussagen machen, es sei denn das System lebt mit uns und hat seinen Werkzeugcharakter hinter sich gelassen. Die Möglichkeit eines spielerischen Eintauchens in simulierte Sphären kann hilfreich für die Einschätzung sein. Von Immersionsgewinnen zu sprechen kann aber nur in bestimmten Handlungssituationen sinnvoll sein. Jede Form von Immersion birgt auch die Gefahr von Widerständigkeits- und damit Wirklichkeitsverlusten. Widerständigkeit gegen unseren Formwillen ist ja das zentrale Charakteristi15 16
Vgl. Mühlhäuser/Sesink/Steinle/Kaminski 2011. Vgl. Deighton/Traue 2003.
42
Klaus Wiegerling
kum von Wirklichkeit. In simulierten Welten können wir wie Superman Wände verschieben und Erprobungen unseres Handelns vornehmen, wir können aber auch im Schwindel der Simulation quasi unsere Orientierung verlieren und den Anschluss an die widerständige Welt verlieren.17 Grenzen der Spielifizierung der Mensch-Maschine-Interaktion liegen da, wo das Design die eigentliche Anforderung und den eigentlichen Zweck des Systemeinsatzes verstellt. Spielerische Elemente müssen sich vom Zweck des Systemeinsatzes her rechtfertigen lassen. Immersive Momente können die Urteilskraft, die ja ein Distanzvermögen ist, auch trüben. Rechtfertigbar erscheinen spielerische Momente nur in Lernsituationen und in Situationen kreativer Nutzung von Systemen. Was heißt das nun für unser Selbst- und Weltverständnis? Es besteht prinzipiell die Gefahr der Fetischisierung des Systems, sozusagen die Gefahr eines ELIZAEffektes, den Josef Weizenbaum einst in seinen Interaktionsversuchen mit Rechnern konstatiert hat.18 Wenn wir das System als Spielpartner ansehen, kann dies dazu führen, dass wir unangemessene Systemzuschreibungen vornehmen. Wir dürfen aber nie den Werkzeugcharakter des Systems außer Acht lassen. Große Gefahr kann auch von adaptiven Fähigkeiten des Systems ausgehen, die Widerständigkeit scheinbar zum Verschwinden bringen, weil nichts mehr in seiner Aufsässigkeit erkannt wird und Widerstände quasi im Vorfeld umschifft werden. Wir würden uns dann bei der Systemnutzung der Gefahr aussetzen, Wirklichkeit fehleinzuschätzen. Jede technische Unterstützungsmöglichkeit geht aber von einem besonderen Verhältnis zwischen Nutzer und System aus. Dieses Verhältnis wird aber nur in einer ausdrücklichen Positionierung zum System sichtbar. Wir verstehen uns als Wesen, die in eine Handlungswelt hineingeboren werden, die uns auch neue Handlungs- bzw. Gestaltungsmöglichkeiten bietet. Diese müssen aber innerhalb eines bestimmten Rahmens explizit gemacht werden. Unser Weltverständnis kann durch neue Interaktionsmöglichkeiten auch eine neue Qualität erlangen. So wie jedes neue Medium, vom Fernrohr bis zum Mikroskop, von der Photographie bis zur Kinematographie uns neue Einsichten in die Welt gewährte, so gewähren uns auch weltvermittelnde Maschinen möglicherweise neue Einsichten in Weltverhältnisse.19 Sie können aber auch Einsichten verstellen. Apparaturen können Welt verengen, können Welterkenntnisse, wie im Falle von Big-Data-Algorithmen, typologisch sichtbar machen, aber auch Erkenntnisse suggerieren, die gar nicht bestehen, wie der berühmte Fall im CERN belegt, als man bei der Analyse großer Datensätze glaubte, die Relativitätstheorie widerlegen zu können, tatsächlich aber nur einem defekten Kabel auf den Leim gegangen war.20 Die Interaktion mit Maschinen, auch mit solchen, die künftig selbstverständlicher Bestand unserer Lebenswelt sein werden, wird also wesentlich unsere Selbsteinschätzung und unser Welt- und Wirklichkeitsbild prägen. Interaktive Faktoren, die sich in Fragen fassen lassen wie: Was wird bedienbar sein? Was kommt ohne Bedienung aus? Wie kompliziert wird die Systembedienung sein? Wie tief kann in 17 18 19 20
Vgl. Dilthey 1990 [1890]. Vgl. Weizenbaum 1978 (engl. Original 1977). Vgl. Wiegerling 1998. Vgl. Seidler 2012.
Warum Maschinen nicht für uns denken, handeln und entscheiden
43
das System eingegriffen werden? Wie selbständig werden künftige Systeme agieren können? spielen eine zentrale Rolle bei der Einschätzung der Technologie wie für die Selbsteinschätzung und Weltwahrnehmung. Wir nehmen uns und die Welt zunehmend in Vermittlung mit technischen Artefakten wahr. Dabei sind nicht immer tatsächliche technische Möglichkeiten entscheidend, sondern auch Zuschreibungen, die sich aus Interaktionen ergeben. 7 ZUR METAPHYSIK VON MASCHINEN, DIE FÜR UNS DENKEN, ENTSCHEIDEN UND HANDELN KÖNNEN Wenn wir nun die neue Maschinenwelt zu unserem Gegenstand machen, zeigt sich eine Metaphysik im Sinne unartikulierter Voraussetzungen der technischen Vision. Es sollen einige dieser Voraussetzungen benannt werden: (1) Es gehört zum Programm einer datenbasierten Welt, dass alles, was in Daten erfasst werden kann, einem Kalkül unterworfen wird. Um es in einer heideggerschen Diktion zu sagen: Alles Seiende – ob physikalisch, soziologisch oder psychisch kodiert – soll berechen- bzw. kalkulierbar werden. In diesem Sinne wäre die Informationstechnologie die Endgestalt des, wie Heidegger sagt, stellenden metaphysischen Denkens, da sie der eigentliche Ausdruck einer kalkulierenden Unterwerfung alles Seienden ist.21 (2) Nach dieser Vision geht es um eine Optimierung des Bestehenden, nicht um dessen Verbesserung oder gar Veränderung, was Substitution und Neukonstituierung einschließt. Wir können aber nur Optimieren, was wir im Prinzip als gut anerkannt haben. Intelligente Maschinen werden da eingesetzt, wo es um eine Optimierung des Bestehenden, nicht wo es um Substitution oder Neubegründung geht. (3) Maschinen operieren entsprechend Modellen, die die Wirklichkeit repräsentieren sollen und Ablaufprozesse festlegen. Wirklichkeit geht aber nicht in einem Modell auf. Sie ist widerständig und fügt sich in ihrer permanenten Wandlung nicht einem Modell. Immer wieder kommt es zu Verwechslungen von Realität als konkrete singuläre Gegebenheit und widerständig gegebene Wirklichkeit, was exemplarisch und leider fatal in der Trennung von siamesischen Zwillingen 2003 in Singapur sichtbar wurde, als man der immersiven Kraft von durch Kernspintomographen gewonnenen Bildern mehr glauben schenkte als der widerständig gegebenen Wirklichkeit. Man verwechselte schlichtweg die dreidimensional in den Raum projizierten Simulationen der verwachsenen Schädel mit der Wirklichkeit und ihrer tatsächlichen Widerständigkeit.22 (4) Zuletzt kann es zu Verantwortungsverschiebungen kommen, die verschleiern, dass es Menschen mit speziellen Interessen und Weltsichten sind, die für die Einrichtung und den Einsatz intelligenter Maschinen Verantwortung tragen. Und natürlich kann ein Effekt sein, dass es zu schleichenden Entmündigungen und Ent-
21 22
Vgl. Heidegger 1953. Vgl. Müller-Jung 2003.
44
Klaus Wiegerling
mächtigungen kommt, wenn wir bedingungslos die Vorgaben und Aktionen der uns herausfordernden Maschinen anerkennen. Es kommt insofern darauf an, immer wieder die Frage nach der menschlichen Verantwortung in den Fokus zu rücken; das heißt konkret, Verantwortung für die Einrichtung der Systeme und deren Einsatzfelder einzufordern. Dass von Artefakten eine besondere Suggestivkraft ausgeht, die auch Projektionen evoziert, ist nicht neu und in der Literatur von E.T.A. Hoffmanns „Sandmann“ bis zu Lems „Golem“ mannigfach variiert worden. Was Maschinen, die uns künftig im Berufsleben und im Alltag begleiten werden, für uns bedeuten, entscheiden wir, nicht die Maschinen. Solange wir sehen, dass diese Maschinen, so selbständig sie in bestimmten Nutzungsfeldern auch agieren mögen, unsere Werkzeuge sind und eben auch als Werkzeuge genutzt werden, solange sie wirklich eine Entlastung ohne Entmündigung bieten und uns neue Handlungsmöglichkeiten eröffnen, lassen sich schwer Argumente gegen ihre Entwicklung und ihren Einsatz vorbringen. Problematisch, wenngleich nur schwer vermeidbar, ist, dass der Mensch sich an seine Hervorbringungen anmisst und diese zum Maßstab seiner selbst macht. In diesem Falle würden wir wahrhaftig einem sich verselbständigenden Kalkül ausgesetzt und untergeordnet sein. Solange wir Maschinen hervorbringen und nicht Maschinen uns, solange bewegen wir uns noch im Felde der Entlastung. Die Unterwanderung der Maschinen und Systeme hat aber bereits begonnen, wenn wir an die Möglichkeit denken, dass wir bereits körperlich eine Aufrüstung durch Implantate und Prothesen erfahren und uns nicht mehr allein auf unsere Intelligenz als Alleinstellungsmerkmal stützen können.23 Der Abstand zwischen intelligenter Maschinenleistung und intelligenter Leistung des Menschen ist nicht nur geschrumpft, er hat sich in vielen Bereichen zugunsten der Maschine verschoben. Der entscheidende Unterschied scheint allein in der Fähigkeit des Menschen zum Transzendieren des Gegebenen zu liegen, ohne dass die transzendente Sphäre in irgendeiner Weise explizit gemacht werden muss. Denken als Transzendieren ist allen Maschinen, allen Systemtechnologien verschlossen, solange sie Werkzeuge sind. Erst unter der Bedingung des Verlustes der Werkzeughaftigkeit wären systemische Möglichkeiten des Denkens wirklich zu erproben. Die Frage wäre aber, ob dieses seiner Werkzeughaftigkeit verlustig gegangene System sich – wie in Lems „Golem“ – noch einer Erprobung unterziehen ließe. BIBLIOGRAFIE Decker, Michael (2015): Robotik. In: Sturma, D./Heinrichs, B. (Hrsg.): Handbuch Bioethik. Stuttgart/ Weimar: J. B. Metzler, S. 373–378; zusätzlich in: Grunwald, A. (Hrsg.) (2013): Handbuch Technikethik. Stuttgart/Weimar: J. B. Metzler, S. 354–358. Deighton, Russell/Traue, Harald C. (2003): Emotion und Kultur im Spiegel emotionalen Wissens. In: Stephan, A./Walter, H. (Hrsg.): Natur und Theorie der Emotion. Paderborn, S. 240–262. Dilthey, Wilhelm (1990 [1890]): Beiträge zur Lösung der Frage vom Ursprung unseres Glaubens an die Realität der Außenwelt und seinem Recht. In: Ders.: Gesammelte Werke. Bd. V, Göttingen, S. 90–138. 23
Vgl. Wiegerling 2016.
Warum Maschinen nicht für uns denken, handeln und entscheiden
45
Grunwald, Armin (2012): Technikzukünfte als Medium von Zukunftsdebatten. Karlsruhe. Gutmann, Mathias/Knifka, Julia (2015): Biomorphic and Technomorphic Metaphors – Some Arguments Why Robots Do not Evolve, Why Computing Is not Organic, and Why Adaptive Technologies Are not Intelligent. In: Gutmann, M./Decker, M./Knifka, J. (Hrsg.): Evolutionary Robotics, Organic Computing and Adaptive Ambience: Epistemological and Ethical Implications of Technomorphic Descriptions of Technologies. Wien: LIT, S. 53–78. Harrach, Sebastian (2014): Neugierige Strukturvorschläge im maschinellen Lernen – Eine technikphilosophische Verortung. Bielefeld. Heidegger, Martin (1953): Die Technik und die Kehre. Pfullingen. Hubig, Christoph (2015): Die Kunst des Möglichen III: Macht und Technik. Bielefeld. Janich, Peter (2006): Kultur und Methode – Philosophie in einer wissenschaftlich geprägten Welt. Frankfurt am Main. Kapp, Ernst (1877): Grundlinien einer Philosophie der Technik. Zur Entstehungsgeschichte der Kultur aus neuen Gesichtspunkten. Braunschweig. Kornwachs, Klaus (2012): Strukturen technischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin. Mühlhäuser, M./Sesink, W./Steinle, J./Kaminski, A. (Hrsg.) (2011): Interdisciplinary Approaches to Technology-enhanced Learning (Proceedings IATEL Konferenz 2009). Münster/W. Müller-Jung, Joachim (2003): Verblutete Zwillinge – Eine Operation, die nicht hätte stattfinden dürfen. In: Frankfurter Allgemeine Zeitung, 10.07.2003. Seidler, Chr. (2012): Neutrino-Experiment: Loses Kabel blamiert Teilchenphysiker. Spiegel Online, 23.02.2012. Online: www.spiegel.de/wissenschaft/natur/neutrino-experiment-loses-kabel-blamiert-teilchenphysiker-a-817077.html (Abruf: 09.08.2018). Weizenbaum, Josef (1978): Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt am Main (engl. Original 1977). Wiegerling, Klaus (1998): Medienethik. Stuttgart/Weimar. Wiegerling, Klaus (2011): Philosophie intelligenter Welten. München. Wiegerling, Klaus (2012): Der technische aufgerüstete Mensch und die Frage nach der Gesundheit. In: Dualitäten – Aspekte der Medizinphilosophie. In: Hoffstadt, Chr./Peschkle, F./Nagenborg, M./Müller, S. (Hrsg): Dualitäten. Bochum/Freiburg i.B., S. 137–154. Wiegerling, Klaus (2014): Grundprobleme einer Hermeneutik der Leiblichkeit in Zeiten der Transformation des menschlichen Körpers. In: Filozofija i društvo XXV (4) 2014, S. 50–68. Online: http:// www.doiserbia.nb.rs/img/doi/0353-5738/2014/0353-57381404050W.pdf (Abruf: 09.08. 2018). Wiegerling, Klaus (2015a): Artificial Bodies and Embodiment of Autonomous Systems. In: Gutmann, M./Decker, M./Knifka, J. (Hrsg.): Evolutionary Robotics, Organic Computing and Adaptive Ambience: Epistemological and Ethical Implications of Technomorphic Descriptions of Technologies. Wien: LIT, S. 97–106. Wiegerling, Klaus (2015b): Ermächtigung und Entmündigung – Zur institutionellen Rahmung eines technisch normierten Gesundheitsverständnisses und ihre Rolle für die narrative Subjektivierung. In: Filozofija i društvo XXVI (3) 2015, S. 499–518. Online: http://instifdt.bg.ac.rs/wpcontent/ uploads/2015/09/Klaus-Wiegerling.pdf (Abruf: 09.08.2018); zusätzlich in: Hubig, Chr./Jovanov, R./Müller, J. /Radinkovic, Z. (Hrsg.) (2016): Biopolitische Horizonte. Macht – Identität – Technik. Belgrad, S. 137–159. Wiegerling, Klaus (2015c): Leib und Lebenswelt im Zeitalter informatischer Vernetzung. In: Adam, M.-H./Gellai, Sz./Knifka, J. (Hrsg.): Technisierte Lebenswelten. Über den Prozess von Mensch und Technik. Bielefeld, S. 139–158. Wiegerling, Klaus (2016): Grenzen von Leib und Leben. In: Klose, J./Voigt, R. (Hrsg.): Grenzen in Zeiten der Entgrenzung. Dresden, S. 93–111. Wiegerling, Klaus (2017): Zur Hermeneutik der Leiblichkeit – Zum Verständnis des Leibes in Zeiten der Transformation des menschlichen Körpers. In: Arnold, R./Neuser, W. (Hrsg.): Beobachtung des Wissens – Das Wissen des Beobachters: Annäherung an eine systemische Hermeneutik. Baltmannsweiler, S. 47–66.
46
Klaus Wiegerling
Wiegerling, Klaus (2018): Zur Anthropologie des körperlich aufgerüsteten Menschen – Auswirkungen der technischen Aufrüstung des menschlichen Körpers auf unser Selbst- und Weltverständnis. In: Friedrich, Volker (Hrsg.): Technik denken. Philosophische Annäherungen. Festschrift für Klaus Kornwachs. Stuttgart, S. 115–216.
WER ENTSCHEIDET FÜR UNS? Big Data, intelligente Systeme und kluges Handeln Jessica Heesen
Die Möglichkeit zur Auswertung großer Datenmengen wird immer häufiger im Zusammenhang ihres Nutzens für die Verbesserung politischer Entscheidungen und der gesellschaftlichen Wohlfahrt genutzt. Big Data-Analysen stehen dementsprechend mehr und mehr in Konkurrenz zu einem demokratischen Begriff von öffentlichem Diskurs und Meinungsbildung. Big Data-Analysen einerseits und ein normativer Begriff von Öffentlichkeit andererseits beziehen sich auf ganz unterschiedliche Vorstellungen davon, wie gute oder kluge Entscheidungen herbeigeführt werden können. Zum Verständnis der neuen Kategorien der Entscheidungsfindung sollen zwei für Big Data charakteristische Konsequenzen erläutert werden: die Entstehung einer numerischen Allgemeinheit, die durch maschinelle Kommunikation hergestellt wird, sowie das Aufkommen einer totalen Politisierung verbunden mit dem Verlust einer negativen Meinungsfreiheit. 1 DISKURSIV ENTSCHEIDEN: ÖFFENTLICHKEIT „Öffentlichkeit“ in einer allgemeinen Bestimmung definiert sich über ihre Funktion zur Findung und Darstellung sozialer und moralischer Normen (Heesen 2008: 35). Die Beobachtung und Teilhabe an der öffentlichen Kommunikation dient einerseits der Sozialisierung und Integration auf individueller Ebene und steuert andererseits auf gesellschaftlicher Ebene Politik und institutionelles Handeln.1 Für den dominierenden, politischen Begriff von Öffentlichkeit, steht ein normatives Konzept im Vordergrund, das sich auf die Bedeutung von Öffentlichkeit für die gesellschaftliche Selbstorganisation wie auch die Kritik und Kontrolle staatlicher Einrichtungen konzentriert (Habermas 1996). Öffentlichkeit bietet demnach die Folie für eine gelingende Sozialintegration und sie ist gleichzeitig Forum des allgemeinen Diskurses, wie er für den Bestand eines demokratischen Gemeinwesens konstituierend ist. Nach dieser normativen Bestimmung dient Öffentlichkeit der Ermöglichung innergesellschaftlicher Verständigung sowie dem effektiven institutionellen und individuellen gesellschaftlichen Handeln als Bedingungen zur Reproduktion einer funktionsfähigen Demokratie (ebd.: 31f.). Entsprechend dient Öffentlichkeit auch zur 1
Die Funktion von Öffentlichkeit für die Konstituierung von Realitätsvorstellungen (vgl. Luhmann 1990; Arendt 1960: 57) soll hier nicht ausführlicher thematisiert werden.
48
Jessica Heesen
institutionellen Absicherung einer gemeinschaftlichen Handlungsfolgenkontrolle in gesellschaftlicher Verantwortung (Dewey 1996: 112). Lange Zeit haben die Massenmedien das Bild von öffentlicher Kommunikation bestimmt. Längst jedoch ist die Mediennutzung und damit auch das Zustandekommen von Öffentlichkeiten vielschichtiger geworden. Der Öffentlichkeitsbegriff ändert nicht nur seinen Zuschnitt von der großen Öffentlichkeit hin zu den pluralen Erscheinungsformen verschiedener Teilöffentlichkeiten, neue Informations- und Kommunikationstechniken bringen auch Öffentlichkeitsformen hervor, die sich strukturell grundlegend vom etablierten Konzept der öffentlichen Kommunikation in demokratischen Rechtsstaaten unterscheiden. Mehr und mehr fließt neben Prozessen der öffentlichen Meinungsbildung zudem die Erhebung von Daten in die politische Entscheidungsfindung ein. Dazu gehört, dass nicht nur bedeutend ist, was wie über Medien verbreitet wird. Stattdessen geraten verstärkt die technische Dokumentation und Vermittlung von individueller Mediennutzung und des Verhaltens allgemein in den Fokus. Das heißt, die Übermittlungsfunktion von Medien kehrt sich zunehmend um. Digitale Informationstechniken ermöglichen Informationsverbreitung in zwei Richtungen: durch ihre Nutzer und über ihre Nutzer. Mehr und mehr können durch die Analyse und Auswertung von digitalen Plattformen (Clickstream, Metadaten, Social Graphs etc.) Informationen über das Verhalten und die Kommunikation der Nutzerinnen und Nutzer gewonnen werden. Durch die Auswertung von Massendaten ist mit den digitalen Informationstechniken ein Mittel zur Erzeugung vorgeblich gesicherten und unmittelbaren Wissens an die Hand gegeben. Entsprechend werden Algorithmen und moderne Datenindustrie zunehmend für die Entscheidung über wahre Information und richtige Handlungsempfehlungen genutzt. Diese Formen von Entscheidungen ersetzen zum Teil Verfahren der öffentlichen Kommunikation und Meinungsbildung. Mit Erhebungen über gesellschaftliche Lebens-/Arbeits-/Umgebungssituationen treten jedoch Prozesse in den Vordergrund, die theoretische und normative Konzepte zur demokratischen Bedeutung des Diskurses schwächen könnten. 2 SELF-TRACKING DER DEMOKRATIE Big Data bezeichnet das Zusammenspiel verschiedener technischer Entwicklungen. Zum einen ist damit die Möglichkeit gemeint, große Datenmengen effizient zu speichern und zu verwalten. Dazu kommt die ständig wachsende Anzahl von Quellen digitaler Informationen durch die Verbreitung von Datenbanken, verteilten Systemen und Mobilgeräten sowie die zunehmende informationstechnische Durchdringung von Umwelten, Maschinen und Kommunikation. Big Data bedeutet aber nicht nur mehr Daten, die an mehr Orten erhoben werden, sondern auch neue Methoden, diese auszuwerten. Davon erhofft man sich neue Zusammenhänge oder – wie es der Begriff „knowledge discovery“ (Fayyad u.a. 1996) ausdrückt – über verschiedene Stufen der Modellierung und Interpretation neues Wissen aus Daten zu generieren (Heesen/Matzner 2015). Vor diesem Hintergrund und dem möglichen
Big Data, intelligente Systeme und kluges Handeln
49
zukünftigen Nutzen ist dann potenziell alles wichtig und gerechtfertigt, was an Daten gesammelt und zu neuen Analysemustern zusammengefügt werden kann. Big Data-Analysen entsprechen somit der Erwartung, ein allgemein gültiges Bild von gesellschaftlich relevanten Themen und Prozessen zu geben. Die Möglichkeiten zur Auswertung großer Datenmengen werden insofern immer häufiger im Zusammenhang ihres Nutzens für die Verbesserung politischer Entscheidungen und der gesellschaftlichen Wohlfahrt diskutiert. Kennzeichnend hierfür sind zum Beispiel die Auseinandersetzungen mit den Chancen und Risiken von Datenauswertungen für die gesellschaftliche Regulierung auf verschiedenen Ebenen, wie dies etwa die US-amerikanische Regierung (Executive Office of the President 2014), die Europäische Union (Europäisches Parlament, Bericht 20.02.2017) und auf lokaler Ebene mehr und mehr Städte und Kommunen unterschiedlichster Größe (Zanouda u. a. 2017) praktizieren. Im Gegensatz zu den häufig komplexen Situationen in öffentlichen Diskursen, erscheinen Datenerhebungen häufig als evident und neutral. Unter Umständen können Daten sogar eine größere Realitätsnähe beanspruchen und ein genaueres, „wahreres“ empirisches Wissen hervorbringen. So zeigen viele empirische Untersuchungen, dass Menschen bei Selbstauskünften häufig ihr Verhalten ganz anders bewerten und andere Wünsche angeben als es tatsächlich der Fall ist (z. B. in Bezug auf das Essverhalten oder die Mediennutzung). Darüber hinaus ist vorstellbar, dass eine allgemeine Datenerfassung auch diejenigen berücksichtigt, die in der diskursiv und medial verfassten Öffentlichkeit sonst kaum Beachtung finden (z. B. sogenannte Randgruppen, vgl. Hermanin/Atanasove 2013). Auch ein Desinteresse der Bevölkerung an demokratischen Verfahren könnte gegebenenfalls durch Verhaltensanalysen ausgeglichen werden. Darüber hinaus können politische Informationen dorthin kommen, wo sie am meisten Wirkung entfalten und dazu beitragen, Wahlkämpfe und (Aufklärungs-)Kampagnen zielführender zu organisieren.2 Zahlreiche Initiativen haben sich aufgrund solcher und anderer Vorteile das Potenzial von Datenanalysen für Gemeinwohl und Politik zu eigen gemacht, Stichworte sind hier beispielsweise evidence based policy und smart city (Cukier/Mayer-Schönberger 2013; Kitchin 2014; Richter 2015). Und tatsächlich könnte eine konsequente Anwendung von Big Data-Analysen Vorteile haben in Bezug auf die politische Entscheidungsfindung: Datenauswertungen beziehungsweise ein self-tracking der Demokratie bietet ebenso wie die zahlreichen Selbstvermessungsapps auf individueller Ebene Chancen auf gesellschaftliche Selbstreflexion und Selbstverbesserung. Im Widerspruch zur Argumentation der Diskursethik für ein normatives Konzept von Öffentlichkeit kann hier insofern der zwanglose Zwang der besseren Datenauswertung in Anschlag gebracht werden.3 Anders gewendet kann man in Bezug auf die neuen Datenerhebungspraktiken aber auch von einem neu optimierten technokratischen Verfahren sprechen. „Technokratie“ bezeichnet ursprünglich ein Konzept zur Regulierung der gesellschaftlichen Organisation (Bell 1963, Ellul 1953, Lenk 1973). Danach übernehmen „me2 3
Als Beispiel für die zahlreichen kritischen Auseinandersetzungen mit der manipulativen Wirkung von Datenerhebungen auf die Meinungsbildung vgl. Hersh 2015. Zum zwanglosen Zwang des besseren Arguments vgl. Habermas 1988, S. 324.
50
Jessica Heesen
chanische“ Elemente der wissenschaftlichen und technologischen Zivilisation die Rolle von politischen Regelungen. Der Vorteil liegt aus dieser Perspektive in einer effizienten gesellschaftlichen Steuerung, die vor unsachgemäßen ideologischen Strukturen und Entscheidungen geschützt sei. Oder wie es der IBM-Manager Sam Palmisano (2010) ausdrückt, „[b]uilding a smarter planet is realistic precisely because it is so refreshingly non-ideological“. Statt des politischen Souveräns steht in einer Technokratie die optimierte Selbstorganisation des Menschen durch Wissenschaft und Technik im Vordergrund. Technokratische Regierungsformen werden vor dem Werthorizont und dem Rechtsverständnis demokratischer Rechtsstaaten wie auch der flankierenden politischen Theorie weitgehend zurückgewiesen, insbesondere weil sie die Rolle des politischen Souveräns und den Grundsatz der demokratischen Selbstorganisation unterlaufen. Darüber hinaus belegen zahlreiche Konzepte, dass das Wie und Ob des Einsatzes von Techniken als auch die Technologien an sich eben nicht neutral bzw. nicht unideologisch sind, sondern immer auch Ausdruck bestimmter teils impliziter Wertentscheidungen (Brey 2010; Nissenbaum 2005). Trotzdem oder auch gerade deshalb beinhalten demokratische Rechtsstaaten bedeutende technokratische Verwaltungselemente. Demokratien orientieren sich oft mit gutem Grund an der Eigenlogik und den Ergebnissen wissenschaftlich-technischer Systeme, wie man an ihrem Einfluss auf soziale Regelungen und Prozesse erkennen kann. Zum Beispiel ist dies sichtbar bei der Festlegung von Klimaschutzzielen, die auf naturwissenschaftlichen Prognosen beruhen, aber weitreichende wirtschaftliche und politische Folgen haben, oder bei der Entstehung neuer demokratischer Verfahren durch neue technische Möglichkeiten wie E-Democracy oder Open Data. Dass es von Seiten der Politik sinnvoll und geboten ist, empirische, naturwissenschaftliche und allgemein wissenschaftliche Erkenntnisse einzubeziehen, ist unbestritten. Wie könnte man anders zu einer wohlinformierten Entscheidung kommen. Trotzdem entfalten die avancierten Formen der Datenanalyse eine eigene Dynamik (Mau 2017; O’Neil 2016: 15-31; Porter 1996). Es wird in diesem Zusammenhang oft verkannt, dass sowohl die Erhebung von Daten, ihre Interpretation als auch Repräsentation keinesfalls neutral sind, sondern selbst bestimmten Rahmungen durch Normen und Technik unterliegen (Rosenberg 2013: 35). Die Kennzeichnung einer Aussage oder eines Befunds als Datum ist ein rhetorisches Mittel, das mit der Erzeugung von Evidenz verbunden ist (ebd.: 18). Im Laufe der Geschichte des Begriffs „Datum“ stand dabei nicht immer der Bezug zu einem empirischen Faktum im Vordergrund. Vielmehr galten Daten allgemein als etwas Gegebenes, was sich aber nicht unbedingt auf Fakten oder evidente Schlüsse beziehen musste, sondern sich auch auf anerkanntes Wissen und Beschlüsse beziehen konnte, zum Beispiel religiöse Verhaltensregeln. Gleichbleibend ist jedoch die Funktion des Begriffs zur Kennzeichnung einer unantastbaren Voraussetzung für Begründung und Diskurs. „[...] from the beginning, data was a rhetorical concept. Data means – and has meant for a very long time – that which is given prior to argument“, führt der Datenhistoriker Daniel Rosenberg aus (ebd.: 36). Mit anderen Worten, die Verortung der Evidenz von Daten in einem dem Diskurs vorgeordneten Bereich ist ein machtvolles Instrument, um Daten gegen die Verhandlung von Geltungsansprüchen
Big Data, intelligente Systeme und kluges Handeln
51
zu immunisieren. Dabei ist die Neutralität von Daten ein umstrittenes Terrain, das ähnlich wie der Objektivitätsanspruch der journalistischen Berichterstattung immer wieder neu vermessen werden muss. Kriterien sind beispielsweise Ort und Zeit der Datenerhebung, die Art der Fragestellung, die durch eine Datenerhebung beantwortet werden soll, oder die Form des Interpretationsprozesses (Gitelman 2013; Kitchin 2014a; Manovich 2014). Die Bewertung von Daten ist somit immer auch ein politisches Thema, das verbunden ist mit der Frage nach Deutungshoheit und Zweck der rhetorischen Zuschreibung von „Daten“. Was unterscheidet nun aber im Einzelnen die Nutzung von Daten-Analysen für die gesellschaftliche Steuerung von einer gesellschaftlichen Selbststeuerung durch politische Öffentlichkeit? Was ist wichtig an öffentlicher Kommunikation, was eine bloße Verhaltens- und Zustandsanalyse nicht bedienen kann? 3 NUMERISCHE ALLGEMEINHEIT – DISKURSIVE ÖFFENTLICHKEITEN Big Data-Analysen fußen auf den vieldimensionalen Verwendungsweisen digitaler Informations- und Medientechniken. Digitale Techniken sind sowohl Dienste der sozialen Verständigung als auch Werkzeuge unserer alltäglichen Handlungspraxis. Quellen für die massenhafte Datenerhebung sind somit sowohl die bewusste und unbewusste Interaktion mit einem technischen System als auch die Interaktion von Mensch zu Mensch über die natürliche Sprache in Sozialen Medien, Fernsehen, Presse oder E-Mail. In der normativen Vorstellung von Öffentlichkeit bestimmt jedoch nur diese letztgenannte Kommunikation zwischen „natürlichen“ Personen oder Personengruppen (mittels Medien) über den politischen Diskurs und Vorstellungen zum Allgemeinwohl. Zum Zustandekommen kommunikativer, normativer Öffentlichkeitsformen gehören insbesondere zwei Kennzeichen: die bewusste Teilhabe an öffentlicher Kommunikation und die Orientierungsfunktion von Öffentlichkeit für individuelle und allgemeine Handlungsnormen. Die individuelle Entscheidung, an Öffentlichkeit teilzuhaben, also die bewusste Teilhabe, geht einher mit der kognitiven Einstellung der Kommunikationspartner zu ihrer Kommunikation als öffentliche. Sie drückt sich aus im Verhalten der Kommunikationspartner und der Wahl des Kommunikationsgegenstands. Sie zeigt sich entsprechend als überindividuelle Themenwahl, die in der Regel mit politischer Relevanz verbunden ist. Aus der Kommunikationssituation als öffentlicher, die zugleich auch immer eine Kommunikation zwischen Personen ist, gehen außerdem bestimmte Reziprozitätsannahmen hervor. Die Kommunizierenden haben insofern gegenseitige Erwartungen aneinander, die konzeptionell vor allem in der Diskursethik offengelegt und formuliert werden. Sie betreffen die Wahrheit, die Wahrhaftigkeit und die normative Richtigkeit von verständigungsorientierter Kommunikation (Habermas 1986: 588). Öffentliche Kommunikation unterliegt daher dem Anspruch, in besonderer Weise „wertvolle“ Kommunikation in Hinsicht auf Verständigung und das Bemühen um gültige und durchdachte Diskursformen zu sein. Zu den Charakteris-
52
Jessica Heesen
tika normativer Vorstellungen von öffentlicher Kommunikation gehören also die Annahmen, in einem gewissen Maß vernunftgeleitet zu sein, auf gegenseitige Erwartungshaltungen zu rekurrieren und sich auf bestimmte Themen zu fokussieren. Wichtig ist darüber hinaus, dass sich die Beteiligten an der Herstellung von Öffentlichkeit ihrer Situation bewusst sind und ihr Handeln danach ausrichten (Öffentlichkeitseffekt, vgl. Schulz 1989: 144). Big-Data-Analysen gehen demgegenüber von anderen Prämissen aus: In Form der Sammlung und Auswertung von Datenmaterial wird hier Wissen generiert, das nicht dem Diskurs, sondern den alltäglichen Handlungsroutinen von Menschen bzw. aus Datenbanken der Wissenschaft, Industrie und Verwaltung entstammt. Die Nutzung von Big Data baut auf den zahlreichen direkten und indirekten Spuren des individuellen Handelns auf, die durch die Durchdringung der Alltagswelt mit Informationstechniken zu erfassen sind. Im Unterschied zum öffentlichen Diskurs, der die Möglichkeit zur Steuerung der individuellen Teilhabe bietet, findet hier eine Erfassung und Veröffentlichung insbesondere der alltäglichen und privaten Verhaltensweisen statt. Im Vordergrund stehen also nicht Themenwahl und Diskurs, sondern Erhebungen zum Verhalten einer abstrakten Allgemeinheit. Es handelt sich um eine Allgemeinheit, die bei einer letztlich maschinellen Modellierung dessen, was (vermeintlich) „der Fall ist“, verharrt, aber nicht selbstreflexiv ist in dem Sinne, dass sie ihre eigene Funktionsweise und Wirkung kognitiv als „vereinigter Wille aller“ (Kant 1956 [1797]: 432) oder als volonté general (Rousseau 2010 [1762]) einbeziehen würde. Dieser Einbezug aber hat Auswirkungen auf die Art der Kommunikation in Form und Inhalt sowie letztlich auf das Ergebnis der individuellen Meinungs- wie der allgemeinen Willensbildung. Man kann hier insofern im Gegensatz zu einer diskursiven Öffentlichkeit von einer numerischen Allgemeinheit sprechen, und damit einer Allgemeinheit, die sich selbst nicht als intersubjektiv oder selbstreflexiv versteht und dennoch eine Wirkung in Hinsicht auf politische und wirtschaftliche Entscheidungsprozesse entfaltet. Auf diesem Wege werden individuelle und private Handlungen durch ihre technische Agglomeration und Auswertung zu überindividuellen und öffentlichen Strukturbedingungen. Big Data-Analysen beruhen auf der Auswertung von immensen Datenmengen in Hinsicht auf Korrelationen. Es geht hier nicht um das Auffinden von Begründungen und die Priorisierung von Bedeutungen, sondern um das Erkennen von Mustern in Massendaten. Eine konsequente Nutzung von Big Data für das politische Handeln impliziert insofern, die Analyse von kontrafaktischen und gegebenenfalls auch moralischen Motiven und Begründungszusammenhängen aus der politischen Reflexion auszuschließen. Statt einer bewussten (innovativen oder kritischen) Steuerung der Themen im öffentlichen Diskurs, schreibt Big Data gesellschaftliche Analysen auf das empirisch Vorhandene fest. Es handelt sich nicht um eine öffentliche Kommunikation „unter Fremden“ (Sennett 1983: 33) als bewusste kognitive Haltung, sondern um die Erfassung öffentlicher und privater, kollektiver und individueller Verhaltensweisen. Insofern reproduzieren Datenanalysen immer nur das ohne-
Big Data, intelligente Systeme und kluges Handeln
53
hin vorhandene und reduzieren die Darstellung der gesellschaftlichen Verhältnisse auf eine affirmative, bestätigende Perspektive.4 Neben den genannten Unterscheidungen zwischen Öffentlichkeit und Datenanalysen auf Ebene der Funktionen Willensbildung, Kritik und Verständigung tritt noch ein zweiter Punkt, der mit der Orientierungsfunktion von Öffentlichkeit angerissen ist. Er umfasst die Frage nach der Sichtbarkeit von Öffentlichkeit und ihrer Funktion für die oder den Einzelne/n, zu beobachten und zu lernen, in welcher Weise Geltungsansprüche formuliert und durchgesetzt werden bzw. Anerkennung finden. Die Orientierungsfunktion von Öffentlichkeiten (Heesen 2008) umfasst die Herstellung eines Wissens vom Wissen der Anderen und ist insbesondere durch die Beobachtungsmöglichkeit der Massenmedienkommunikation gegeben (Luhmann 1996: 17ff.). Dieses Orientierungswissen umfasst nicht nur die Kenntnis von faktischen und historischen Zusammenhängen, sondern umfasst ebenso das Wissen über normative Regeln und nicht zuletzt über die Prozesse als solche, die zum Zustandekommen gesellschaftlicher Verständigung führen. Die Orientierungsfunktion öffentlicher Kommunikation ist somit notwendige Bedingung zur Einschätzung und Verwirklichung der jeweils individuellen Chancen auf gesellschaftliche Teilhabe und Mitbestimmung. Mehr noch, das Nicht-Wissen über das Zustandekommen von Entscheidungen betrifft nicht nur die mögliche Marginalisierung von öffentlichen Diskursen im Zuge von data driven management und evidence-based politics, sondern auch die mangelnde Nachvollziehbarkeit der Resultate von algorithmischen Prozessen insgesamt (Napoli 2014). 4 TOTALE PARTIZIPATION UND VERLUST DER NEGATIVEN MEINUNGSFREIHEIT Fragt man nach dem Stellenwert der Teilhabe in einer digitalen Gesellschaft, so könnte man in einer unvoreingenommenen Betrachtungsweise sagen: Wenn möglichst viele Daten individueller Verhaltensweisen in Erhebungen zur gesellschaftlichen Steuerung einfließen, dann hat auf diesem Wege jede/r Einzelne teil am Prozess der entsprechenden politischen Entscheidungsfindung, zum Beispiel hat dann mein individuelles Mobilitätsverhalten Einfluss auf kommunale verkehrspolitische Entscheidungen. Die Mitwirkung an der Herstellung eines allgemeinen Datenpools ist also einerseits tatsächlich partizipativ, andererseits ist damit jedoch dem Eindringen einer 4
Um sich diesen Mechanismus anhand eines Beispiels vor Augen zu führen: Smarte Fernseher dokumentieren die individuelle Senderwahl. Wenn hier nun aufgezeichnet wird, dass ein Nutzer gerne Volksmusiksendungen sieht, könnte man daraus den Schluss ziehen, dass dieser Nutzer für noch mehr Volksmusikangebote im Fernsehen ist, aber auch empfänglich sein wird für entsprechende personalisierte Werbung oder passende Vorschläge seines Musikstreamingangebots. Vielleicht ist dieser Nutzer jedoch nicht mit dem Inhalt der Sendung einverstanden und schaut aufgrund anderer Motive, außerdem ist er generell vielleicht Befürworter von attraktiveren Dokumentationen und politischen Bildungsangeboten, die er in der jetzigen Form aber zu langweilig findet – diese Situation kann durch eine reine Aufzeichnung des Nutzungsverhaltens nicht adäquat wiedergegeben werden.
54
Jessica Heesen
politischen oder, wenn man so will in der Sprache des Historikers R. Koselleck, einer ideologischen Komponente in den privaten Bereich der technische Weg gebahnt.5 Die Partizipation an der Herstellung umfassender Datenbestände kann für das individuelle Handeln zu einer Form der Totalpolitisierung führen. Politisierung jedoch nicht verstanden als reziprokes Verhältnis von Diskurs, Kritik und Kontrolle in Hinblick auf einen umfassenden Begriff von Allgemeinwohl, sondern als anonyme Vergemeinschaftung (Hubig 2003) des Handelns in unterschiedlichen gesellschaftlichen Kontexten (z. B. Politik, Markt, Versicherungen etc.). Ein totales technisches Partizipationskonzept führt somit folgerichtig zu einer Auflösung von „unpolitischen“ privaten und gesellschaftlichen Räumen und somit auch zu einer Auflösung der Grenzen von privat und öffentlich. Das heißt, jeder Lebensbereich kann bewertet werden, bei gleichzeitiger Relativierung von politischer Öffentlichkeit als gemeinwohlorientiertem diskursiven Prozess. Der Trend in diese Richtung zeigt sich bereits jetzt in der Überhöhung des Kaufverhaltens als moralischem Statement, das nicht nur für die Konsument/innen unfreiwillig über zahlreiche privatwirtschaftliche Trackingmechanismen weiterverarbeitet wird, sondern auch von vielen Konsument/innen in Sozialen Medien selbst dokumentiert und verbreitet wird. Privates Handeln wird somit strukturell öffentlich bedeutsam und steht in Konkurrenz zu einem Begriff des Politischen als gesellschaftlichem Aushandlungsprozess institutioneller Normen. Mehr noch: Politische Einstellungen und Haltungen zu Einzelthemen können durch die Verknüpfung verschiedener Daten und entsprechender Auswertungsverfahren, wie sie etwa im Zusammenhang von zielgruppenspezifischer Öffentlichkeitsarbeit oder der Wahlkampfoptimierung genutzt werden, relativ leicht ermittelt werden. Die strukturelle Einbindung von Big Data in die Gesellschaft und in Prozesse der politischen Regulation führt somit in letzter Konsequenz zu einem Verlust der negativen Meinungsfreiheit, also dem Recht, Meinungen nicht zu äußern oder zu verbreiten (Art. 5 Abs. 1 Grundgesetz). Der Rückgriff auf Big Data für die politische Agenda erweist sich somit als konträr zu einem normativen Öffentlichkeitsbegriff und den hiermit verbundenen Leitvorstellungen von Diskurs und Kritik, aber auch von der Trennung verschiedener kommunikativer Sphären, repräsentiert durch die Unterscheidung zwischen privat und öffentlich. 5 PRIMAT DES WOHLINFORMIERTEN DISKURSES Für den Vergleich von diskursiven Verfahren der politischen (Selbst)regulierung mit datengetriebenen Entscheidungsprozessen können wir festhalten: Big DataAnalysen an sich bieten – keine Möglichkeit zur Steuerung der individuellen Teilhabe, sondern arbeiten mit der Erfassung und Veröffentlichung der alltäglichen Verhaltensweisen; 5
Vgl. Koselleck 1979, S. 138f. Koselleck spricht in Bezug auf die Autorität und Omnipräsenz von Öffentlichkeit und öffentlicher Meinung von diesem Eindringen in den privaten Bereich, ihm geht es um einen anderen Zusammenhang, nämlich um radikale basisdemokratische Ansätze.
Big Data, intelligente Systeme und kluges Handeln
55
– keine innovative oder kritische Einführung von Themen, sondern eine positivistische Festschreibung der Analysen auf das Gegebene; – keine Beobachtung und kein Lernen aus öffentlicher Verständigung, kein Verständnis von Partizipationsmöglichkeiten, sondern die Rezeption von Verhaltensanalysen und Handlungsprognosen. Trotzdem aber bieten Datenanalysen viele Ansatzpunkte für die Bereicherung der politischen Auseinandersetzung. Gerade weil sie häufig keine Begründungen nach womöglich etablierten oder auch festgefahrenen Analysemustern bieten, sondern überraschende (oder auch unsinnige) Korrelationen verschiedener Phänomene, können sie Ansatzpunkte für neue Wendungen in der gesellschaftlichen Bewertung von Problemlagen bieten. Auch ist auf einer praktischen Ebene bislang noch kein umfassenderes technokratisches Primat der Datenverarbeitung gegenüber demokratischen Verfahren zu sehen. Gleichwohl bestimmen jetzt bereits zum Beispiel insbesondere im Bereich der Sicherheits- und Energiepolitik die Möglichkeiten der Informationstechnik viele Handlungsoptionen. Um solche Handlungsoptionen zu reflektieren und als wohlinformierte Entscheidung zu rechtfertigen, ist ihre Einbindung in den öffentlichen Diskurs unerlässlich. Um dies zu gewährleisten, die Möglichkeiten der Datenerhebungen verständlich darzustellen, aber auch ihre zivilgesellschaftlichen und allgemeinwohlorientierten Potenziale aufzuzeigen, beginnt sich der so genannte Datenjournalismus (Gray/Bounegru/Chambers 2012) zu etablieren. Daneben bleibt es aber auf einer grundsätzlicheren Ebene ebenfalls weiterhin unerlässlich, die Grenzen des Einsatzes und der Verwendung von Big DataAnalysen zu hinterfragen und die Dosierung ihres Einsatzes wie auch die Art ihrer Verwendung entsprechend demokratischer Verfahren zu legitimieren. BIBLIOGRAFIE Arendt, Hannah (1960): Vita Activa oder Vom tätigen Leben. Stuttgart: Kohlhammer. Bell, Daniel (1980): Veblen and the Technocrats: On the Engineers and the Price System. In: The Winding Passage: Sociological Essays and Journeys 1960–1980, Cambridge: Harvard University Press, S. 69–90. Big Data: Seizing Opportunities, Preserving Values. Executive Office of the President. Online: https://obamawhitehouse.archives.gov/sites/default/files/docs/20150204_Big_Data_Seizing_ Opportunities_Preserving_Values_Memo.pdf (Abfrage: 30.11.2017). Brey, Philipp (2010): Values in technology and disclosive computer ethics. In: Floridi, Luciano (Hrsg.): The Cambridge handbook of information and computer ethics. Cambridge: Cambridge University Press, S. 41–58. Cukier, Kenneth/Mayer-Schoenberger, Viktor (2013): The Rise of Big Data. In: Foreign Affairs, 43 Jg., H. 4, S. 28–40. Dewey, John (1996): Die Öffentlichkeit und ihre Probleme. Aus dem Amerikanischen von WolfDietrich Junghanns. Hrsg. und mit einem Nachwort versehen von Hans-Peter Krüger, Bodenheim: Philo. Ellul, Jacques (1954): La technique ou l’enjeu du siècle. Paris: Armand Colin. Europäisches Parlament 2014–2019, Bericht (2017): Bericht über die Folgen von Massendaten für die Grundrechte: Privatsphäre, Datenschutz, Nichtdiskriminierung, Sicherheit und Rechtsdurchsetzung (2016/2225(INI)), Ausschuss für bürgerliche Freiheiten, Justiz und Inneres, Berichterstatterin: Ana Gomes, Plenarsitzungsdokument, A8-0044/2017. Online: http://www.eu-
56
Jessica Heesen
roparl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0044+0+ DOC+XML+V0//DE (Abfrage: 13.11.2017). Fayyad, Usama M. u. a. (Hrsg.) (1996): Advances in Knowledge Discovery and Data Mining. Amer. Assn. for Artificial Intelligence, Menlo Park, CA, USA, AI-Magazin, S. 37–54. Gitelman, Lisa (Hrsg.) (2013): „Raw Data“ Is an Oxymoron. Cambridge, Massachusetts: The MIT Press. Gray, Jonathan/Bounegru, Liliana/Chambers, Lucy (2012): The data journalism handbook. Online: http://datajournalismhandbook.org/1.0/en/ (Abfrage: 29.11.2017). Habermas, Jürgen (1982): Erläuterungen zum Begriff des kommunikativen Handelns. In: Ders. (Hrsg.): Vorstudien und Ergänzungen zur Theorie des kommunikativen Handelns. Frankfurt a. M.: Suhrkamp Verlag, S. 571–606. Habermas, Jürgen (1988): Moralität und Sittlichkeit: Treffen Hegels Einwände gegen Kant auch auf die Diskursethik zu? In: Revue Internationale de Philosophie, Vol. 42, No. 166/3, S. 320–340. Habermas, Jürgen (1996): Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Mit einem Vorwort zur Neuauflage 1990. Frankfurt a. M.: Suhrkamp Verlag. Heesen, Jessica (2008): Medienethik und Netzkommunikation. Öffentlichkeit in der individualisierten Mediengesellschaft. Frankfurt a. M.: Humanities Online. Heesen, Jessica/Matzner, Tobias (2015): Politische Öffentlichkeit und Big Data. In: Richter, Philipp (Hrsg.): Privatheit, Öffentlichkeit und demokratische Willensbildung in Zeiten von Big Data. Baden-Baden: Nomos, S. 147–164. Hermanin, Costanza/Atanasove, Angelina (2013): Making “Big Data” Work for Equality. Online: http:// www.opensocietyfoundations.org/voices/making-big-data-work-equality-0 (Abfrage: 30.11.2017). Hersh, Eitan (2015): Hacking the electorate: How campaigns perceive voters. Cambridge: Cambridge University Press. Hubig, Christoph (2003): Selbstständige Nutzer oder verselbstständigte Medien – Die neue Qualität der Vernetzung. In: Mattern, Friedemann (Hrsg.): Total vernetzt. Szenarien einer informatisierten Welt. Heidelberg: Springer Verlag, S. 211–229. Kant, Immanuel (1956 [1797]): Die Metaphysik der Sitten, Rechtslehre § 46. In: Weischedel, Wilhelm (Hrsg.): Immanuel Kant. Werke VIII, Schriften zur Ethik und Religionsphilosophie 2. Frankfurt a. M.: Suhrkamp Verlag. Kitchin, Rob (2014): The Real-Time City? Big Data and Smart Urbanism. In: GeoJournal, Nr. 79 (1), S. 1–14. Kitchin, Rob (2014a): Big Data, new epistemologies and paradigm shifts. In: Big Data & Society, Nr. 1(1), S. 1–12. Lenk, Hans (Hrsg.) (1973): Technokratie als Ideologie. Sozialphilosophische Beiträge zu einem politischen Dilemma. Stuttgart: Kohlhammer. Luhmann, Niklas (1990): Gesellschaftliche Komplexität und öffentliche Meinung. In: Ders. (Hrsg.): Soziologische Aufklärung 5. Konstruktivistische Perspektiven. Opladen: Westdeutscher Verlag, S. 153–170. Luhmann, Niklas (1996): Die Realität der Massenmedien. Opladen: Westdeutscher Verlag. Manovich, Lev (2014): Trending: Verheißungen und Herausforderungen der Big Social Data. In: Reichert, Ramón (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie. Bielefeld: Transcript Verlag, S. 65–83. Mau, Steffen (2017): Das metrische Wir: Über die Quantifizierung des Sozialen. Berlin: Suhrkamp Verlag. Napoli, Philip M. (2014): Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption. In: Communication Theory, Vol. 24 (3), S. 340–360. Nissenbaum, Helen (2005): Values in Technical Design. In: Mitcham, Carl (Hrsg.): Encyclopedia of science, technology and ethics. Detroit: Macmillan Reference, S. lxvi–lxx. O’Neil, Cathy (2016): Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy. New York: Penguin Random House LLC.
Big Data, intelligente Systeme und kluges Handeln
57
Palmisano, Sam, IBM CEO and chairman (2010): “Welcome to the Decade of Smart”, remarks presented at Chatham House, London, January 12, 2010. Online: https://www-304.ibm.com/ jct03001c/ibm/history/ibm100/us/en/icons/smarterplanet/words/ (Abfrage: 13.11.2017). Porter, Theodore M. (1996): Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. Princeton. Princeton University Press. Porter, Theodore M. (1996): Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. New Jersey: Princeton University Press. Richter, Philipp (2015): Big Data und demokratische Willensbildung aus verfassungsrechtlicher Sicht. In: Ders. (Hrsg.): Privatheit, Öffentlichkeit und demokratische Willensbildung in Zeiten von Big Data. Baden-Baden: Nomos, S. 45–68. Rosenberg, Daniel (2013): Data before the fact. In: Gitelman, Lisa (Hrsg.): „Raw Data“ Is an Oxymoron. Cambridge, Massachusetts: The MIT Press, S. 15–40. Rousseau, Jean-Jacques (2010): Du contrat social ou Principes du droit politique. Vom Gesellschaftsvertrag oder Grundsätze des Staatsrechts. Französisch/Deutsch. Stuttgart: Philipp Reclam jun. GmbH & Co. KG. Schulz, Winfried (1989): Massenmedien und Realität. Die „ptolemäische“ und die „kopernikanische“ Auffassung. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie, S. 135–149. Sennett, Richard (1983): Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität. Frankfurt a. M.: S. Fischer Verlag. Zanouda, Tahar/AL Emadi, Noora/Abbar, Sofiane/Srivastava, Jaideep (2017): The Quantified City: Sensing Dynamics in Urban Setting. Online: https://arxiv.org/abs/1701.04253 (Abfrage 13.11.2017).
ES „MACHEN DIE MASCHINEN ALLEZEIT GUTE ARBEIT UND LAUFEN DEN MENSCHEN WEIT VOR“ Maschinenängste als Thema der Literatur Rudolf Drux
Gebote über das sittliche Verhalten und Handeln sind der Grundstock der Ethik, der Kerndisziplin der praktischen Philosophie. Und wenn diese Gebote nicht für den Menschen, sondern wie in den berühmten drei Grundregeln, die der Science-Fiction-Autor und promovierte Biochemiker Isaac Asimov 1942 erlassen hat,1 für Roboter gelten, dann liegt es nahe, kurz über deren Bestimmung nachzudenken. Zwar scheint über den so bezeichneten Gegenstand heutzutage Klarheit zu herrschen: Es handle sich dabei um „eine technische Apparatur, die dazu dient, dem Menschen die Arbeit abzunehmen“, definiert der allzeit abrufbare Eintrag in Wikipedia und fügt hinzu: „Roboter können sowohl stationäre als auch mobile Maschinen sein und werden von Computerprogrammen gesteuert“.2 Genauere Anhaltspunkte zu seiner Definition aber liefert – dem Philologen zumindest – die Geschichte des Begriffs, die bis ins späte Mittelalter zurückgeht. Das ihm zugrundeliegende slawische Wort ‚robot‘ (f.)3 ist nämlich schon um 1500 belegbar und bedeutet ‚Frondienst, Fronarbeit‘, d. h. eine ‚unentgeltliche Dienstleistung für die Herrschaft‘.4 So wurden 1513 vier junge Männer wegen eines unchristlichen Streiches dazu verur1
2 3
4
Asimov 1988 [1942], S. 379: „1. Ein Roboter soll ein menschliches Wesen nicht verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. 2. Ein Roboter muss den Weisungen menschlicher Wesen gehorchen, ausgenommen den Fall, dass die Weisungen dem ersten Gebot widersprechen. 3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.“ https://de.wikipedia.org/wiki/Roboter (Abfrage: 15.09.2017). Zu Definition, Einteilung, Funktion und methodischer Fundierung der verschiedenen Roboter-Arten und -Typen vgl. Zeller 2005. Das Grimmsche Wörterbuch (DWB, Bd. 14, Sp. 1087) notiert unter ROBAT ‚robate‘ f.: „frohndienst, frohnarbeit, knechtsdienst. das slav. rabota (von rob, rab, knecht) ist urverwandt mit dem germanischen arbeit, vielleicht auch mit dem lat. labor“. Der Lexer (MHW, Bd. 2, Sp. 478) verzeichnet ‚robâte, robât‘ „Frohnarbeit“ aus slav. ‚robóta, rabóta‘ von slav. ‚rob, rab‘ nhd. „knecht“ als „böhm.-poln. lehnwort aus rechtsbüchern meist des 15. jahrh.; im 14. jahrh. hiesz es die robolt, rowolt; im 16. robat, aber 1540 auch robot“. Das Pfälzische Wörterbuch definiert Fron f., m., Fröne f.‚ u. a. als „unentgeltliche Arbeit für die Gemeinde bei Ausbesserung von Wegen u. dgl.“ (1 a) und „Frondienst für die Herrschaft“ (1 c. α.), z. B. a. 1580: so zum Hauß oder sonsten zur Frohn gebotten würdt, sollen die Underthanen samptlich zu rechter Zeit bei einander sein, der Oberkeit getreuen Frondienst leisten (PfWB, Bd. 2, S. 1607).
60
Rudolf Drux
teilt, „drei halb tag zuerobathen wo es der pfarrer haben will“5. Aus dem tschechischen Wort für Frondienst bzw. Knechtsarbeit ‚robota‘ hat dann der böhmische Schriftsteller Josef Čapek den uns geläufigen Begriff ‚Roboter‘ gebildet, den sein berühmterer Bruder Karel, gleichfalls Literat, in seinem technikkritischen „Kollektivdrama“ RUR (Rossums Universal Robots) 1921 so popularisiert hat, dass er inzwischen in die Lexika aller Industrienationen der Welt Eingang gefunden hat. 1 ÜBER MENSCHENÄHNLICHKEIT UND DIE ERLEDIGUNG UNANGENEHMER ARBEITEN Einem Roboter, der Dienstleistungen verrichtet (mhd. ‚robotet‘), wurde nicht nur in der Literatur und bildenden Kunst, sondern auch in der technischen Wirklichkeit zumeist eine menschliche Gestalt verpasst; denn eine anthropomorphe Maschine, meint Isaac Asimov, sei besser mit einer Welt kompatibel, die sich der Mensch nach seinen Bedürfnissen eingerichtet habe. Außerdem erlaube die Gleichgestaltigkeit eher die Identifikation mit einem künstlichen Gebilde, das immerhin „tun soll, was der Mensch tun kann“.6 Eine solche lösten wohl schon die beweglichen Statuen aus der Fabrikation des sagenhaften Baumeisters Dädalus aus, der durch die Erfindung des Fluggerätes, mit dessen Hilfe er und sein Sohn Ikarus dem Reich des kretischen Königs Minos entflohen, traurige Berühmtheit erlangt hat; denn jene wirkten, wie der sizilianische Geschichtsschreiber Diodor berichtet, so lebensecht, dass „das Bild für ein beseeltes Geschöpf“ gehalten wurde.7 Des Dädalus Wunderwerke fanden dann im 3. Jahrhundert v. Chr. eine handfeste Bestätigung in den Automaten der Mechanikerschule von Alexandrien, die auf pneumatischer und hydraulischer Basis funktionierten. Das Wissen seiner Vorgänger gab ca. 300 Jahre später Heron von Alexandria sowohl in seinen Schriften weiter als auch in angewandter Form, indem er u. a. einen Herkules, der einen Pfeil auf eine zischende Schlange abschießt, und Trankopfer bereitende Priesterfiguren baute.8 Es war ihre Menschenähnlichkeit bzw. nach Diodor „Lebensechtheit“, die in der Frühen Neuzeit zur Prägung des Begriffs „Android“ (aus dem Griechischen von „anér, andrós“ = Mann, Mensch) führte, und die Übereinstimmung mit ihren natürlichen Vorbildern war das Gütesiegel für jene Androiden, die, angetrieben von komplizierten Uhrwerken, im Zeitalter der Aufklärung entstanden. Ihre enorme Wertschätzung hing mit der umfassenden Bedeutung 5
6 7 8
Deutsches Rechtswörterbuch (DRW), XI, Sp. 1165f. Dort finden sich unter dem Stichwort ‚Robot, f.‘ folgende Definitionen: „I. einem Herrn geschuldete Leistung in Form von Frondienst“ […]; ein Beleg dafür aus dem Niederösterreichischen (gleichfalls 1516): welchem der richter in die robat sagt und zu rechter weil und zeit nicht erscheint, ist dem richter verfallen 12 (pfennig) und sol dannoch die robat richten. […] „II. Handlangerdienst, Tagelohnwerk“, mit einem Beleg aus dem 17. Jh.: die außländer aber, so keine herren haben, wie auch andere leüte, die sich sonst mit ihrer handarbeit und robot wol ernehren oder denen leüten dienen können, sollen [...] abgewisen werden (1627). Asimov 1988 [1942], S. 378. Diodor’s von Sizilien historische Bibliothek. In: Menschen aus Menschenhand 1988, S. 5. Zu den Automaten des Heron von Alexandria vgl. Heckmann 1982, S. 28–33.
Maschinenängste als Thema der Literatur
61
der Mechanik zusammen, die damals alle Felder theoretischen und praktischen Wissens durchdrang: Der Staat, die Natur und damit auch der Mensch, jedenfalls sein Körper, seien, so die Ansicht der aufgeklärten Materialisten, mechanische Systeme, die ausschließlich den Gesetzen der Physik gehorchten. So konnte der französische Arzt, Anatom und Philosoph Julien Offray de La Mettrie, da er vom maschinellen Wesen des Menschen ausging, was der Titel seiner 1747 erschienenen Abhandlung L’homme machine bezeugt, die Androiden des genialen Automatenbauers Jacques de Vaucanson als modellhaft für den Menschen erklären. Insbesondere dessen von der Königlichen Akademie der Wissenschaften in Paris 1738 ausgezeichneten mechanischen Flötenspieler, der zwölf Melodien auf seinem Instrument zu spielen vermochte,9 hatte es La Mettrie angetan. Wenn der Ingenieur etwas „mehr Kunst anwenden“ würde, dann könne, meinte er, aus einem Androiden, der Flöte spielt, sogar ein „Sprecher“ werden und sich damit die größte Leistung der Natur, die dem Menschen vorbehaltene Sprache, auf technische Weise erschließen. Von daher kann es nicht verwundern, dass La Mettrie den Automatenbauer Jacques de Vaucanson in mythische Dimensionen rückt und in ihm einen „neuen Prometheus“ sieht.10 Damit reklamiert er gleichsam die Wiederkehr des mythischen Menschenschöpfers, des klassischen Demiurgen für seine Zeit. (Mary Shelley wird den Titelhelden ihres Romans, Victor Frankenstein, der von den anorganischen Maschinen abrückt und sich dem organischen menschlichen Körper, wenn auch einem aus Leichenteilen zusammengeflickten, zuwendet, d. h. wissenschaftsgeschichtlich betrachtet, von der Mechanik zur Anatomie und Physiologie fortschreitet, dann als „the Modern Prometheus“ bezeichnen.)11 Es frage sich allerdings, gibt Asimov des Weiteren zu bedenken, ob die Menschenähnlichkeit grundsätzlich von der Gestalt des menschlichen Körpers abhängig, also anthropomorph sein müsse.12 Da den Menschen, den homo sapiens, als dominantes Gattungsmerkmal doch das Denken auszeichne, sei diesem eine Maschine, die geistige Fähigkeiten perfektioniert (zu denen auch das Schreiben und Musizieren gehören, das die Androiden der aufgeklärten Mechaniker imitierten),13 eher verwandt als eine technisch vollkommene Nachbildung des menschlichen Körpers und seiner physischen Eigenschaften. Schon die ersten Kunstmenschen, die in der abendländischen Kultur in Erscheinung treten, können als fiktive Beispiele für diese Überlegung herangezogen werden: In der Ilias erzählt Homer von beweglichen „Jungfrauen“, die sich der kunstfertige Schmiedegott im Olymp, Hephaistos, aus Gold angefertigt hat. Die goldigen Mädchen besitzen aber nicht nur 9 10 11 12 13
Jacques de Vaucansons Darstellung „Le Mécanisme du flûteur automate“ ist auszugsweise wiedergegeben in Heckmann 1982, S. 220–226; zur Urteilsbegründung der Académie Royale des Sciences s. Menschen aus Menschenhand 1988, S. 35. Vgl. auch Sutter 1997. La Mettrie 2001 [1747], S. 83. Shelley 1986 [1818]. Asimov 1988 [1942], S. 180. Zu diesem war die zierliche Harmoniumspielerin in der Lage, zu jenem der ebenfalls von Vater und Sohn Jaquet-Droz konstruierte Schreiber, der seine und seiner Mitautomaten Identität schriftlich festzuhalten wusste: „Les androides Jaquet Droz a‘ neuchatel“, brachte er zu Papier. Vgl. seine gründliche Präsentation mit präzisen Erklärungen und anschaulichen Bilddokumenten in Heckmann 1982, S. 269.
62
Rudolf Drux
einen herrlichen Körper, auf den sich der hinkende Zeussohn stützen konnte, sie sind darüber hinaus, wie Homer ausdrücklich betont, mit „Verstand in der Brust und redender Stimme“ (vox articulata) begabt,14 und das weist sie (bei aller Künstlichkeit) als Angehörige der menschlichen Gattung aus. Das trifft ebenfalls auf Pandora zu, der wohl berühmtesten Kunstfrau der griechischen Mythologie; auch sie wird, nachdem sie auf Geheiß des Zeus zum Verderben der Geschöpfe des Prometheus, der Menschen bzw. Männer, aus Lehm geformt wurde, zuerst mit „des Menschen Stimme und Lebenskraft“ versehen, wie Hesiod in seinen Werken und Tagen berichtet.15 So macht bereits der Mythos deutlich, dass erst die Sprache als lautliche Manifestation des Denkens das anthropomorphe Artefakt zum Menschen macht. Demnach hätte der Schachcomputer Deep Blue, der den früheren Weltmeister Kasparow gleich zweimal im Schach, also auf dem Schlachtfeld des logischen Denkens schlechthin besiegte, das höchste Maß an Menschenähnlichkeit erreicht. Zugleich macht er den gewaltigen Unterschied zwischen den mechanischen Androiden und den elektronischen Replikaten in der Beherrschung spezifisch menschlicher Fähigkeiten sichtbar: In den Jahrzehnten vor und nach 1800 erzielte ein Automat in der exotischen Gestalt eines mit Wasserpfeife und Turban geschmückten Türken (konstruiert von dem Maschinenbauer und Erfinder Wolfgang von Kempelen, einem Beamten im österreich-ungarischen Staatsdienst) in der Alten und Neuen Welt große Bewunderung, weil er mit anscheinender Leichtigkeit die meisten seiner menschlichen Gegenspieler (darunter angeblich auch Napoleon) besiegte.16 Seine Aufsehen erregenden Erfolge rührten jedoch schlicht daher, dass in seinem Innern ein zwergwüchsiger Mann verborgen war, der, versiert im Schachspiel, durch ein Sichtfenster aus Gaze in der Brust des Automaten die einzelnen Züge seines Gegners beobachten und mittels einer mechanischen Vorrichtung zur Betätigung des Kunstarms seine eigenen ausführen konnte.17 Ohne derartige Tricks haben moderne Schachcomputer inzwischen das Niveau von Großmeistern erlangt. „Noch vor ein paar Jahren“, schreibt Garri Kasparow, hätte er „gelacht über die Frage, ob Computer über eine Art Intelligenz verfügen“.18 Doch er musste sich eines Besseren belehren lassen, als er bei seinem „Match gegen das Computer-Monster [!] Deep Blue“ im Februar 1996 das erste Spiel verlor, weil sich sein Kontrahent für einen Rechner untypisch verhielt: Statt wie üblich „nach schlichten Materialvorteilen“ vorzugehen, opferte Deep Blue einen Bauern, ohne dass er „davon sichtlich profitiert hätte“. Viel später im Verlauf der Partie wurde klar, welch gewaltiger strategischer Vorteil sich aus diesem Zug ergab, der Kasparow als intuitiv richtig, originell und hochintelligent erschien. Natürlich hatte die Schachmaschine (die Millionen Stellungen in wenigen Sekunden zu überprüfen vermag) den genial wirkenden Zug, „den der Mensch aus einem Gefühl heraus gemacht hätte“, auf seine Bedeutung für die Matt-Setzung des Gegners hin berechnet, was Kasparow zu der 14 15 16 17 18
Homer: Ilias XVIII, 417–422. Hesiod: Werke und Tage, 82. Vgl. hierzu Felderer/Strouhal 2004 und Drux 2011. Seine Entlarvung leistete, gestützt auf Aufzeichnungen von Josef Friedrich zu Racknitz, mit detektivischem Scharfsinn E. A. Poe 1836. Vgl. Poe 1987. Kasparow 1997, S. 222 u. 224.
Maschinenängste als Thema der Literatur
63
Vermutung veranlasst: „Von einem bestimmten Punkt an scheint, zumindest im Schach, immense Quantität in Qualität umzuschlagen. [...] Anhand der Züge kann man kaum noch herausfinden, ob ein Mensch oder ein Computer spielt.“ Verständlicherweise werden den maschinellen Knechten Aufgaben zugewiesen, deren Bewältigung gemeinhin als unangenehm oder schwierig gelten. Auch das ist der antiken Mythologie zu entnehmen: Die Bewachung der großen Insel Kreta wird z. B. einem eisernen Riesen aufgetragen, der sie mit schnellen Schritten durchmessen kann;19 den heiklen Dienst beim Gastmahl der launischen Götter verrichten als mechanische Kellner automatische Dreifüße,20 und in Sparta drückt säumige Steuerzahler eine Frau aus Eisen innig an die mit Stahlnägeln bespickte Brust, eine ziemlich harte Maßnahme des fiskalischen Strafvollzugs. In postmythischer Zeit findet sich leicht Vergleichbares: Ein „Dampfbedienter“, im Zeitalter der industriellen Revolution (Arbeit 1.0) als eine besondere Art der Dampfmaschine geschaffen, d. h. „angefacht von Kohlenfeuer“, lässt sich z. B. willig als Gepäckträger verwenden.21 Doch mit der Industrialisierung um und verstärkt nach 1800 verliert sich das praktische Interesse der Techniker am Bau von Androiden, die wie in der Aufklärung als Modelle für den Menschen in seiner Gesamtheit figurierten. Obgleich deren handwerkliche Brillanz und einfallsreiche Ausstattung nach wie vor bewundert werden, widerspricht es nach Meinung des Physikers Hermann von Helmholtz (1854) dem kapitalistischen Gebot der Profitmaximierung, „solche Maschinen zu bauen, welche die tausend verschiedenen Dienstleistungen eines Menschen vollziehen, sondern wir verlangen im Gegenteil, dass eine Maschine nur eine Dienstleistung, diese aber an Stelle von tausend Menschen, verrichte“.22 Genau dies wird von den Industrierobotern erfolgreich praktiziert, z. B. in der Kraftfahrzeugproduktion oder im Maschinenbau. Im Kleinformat, sozusagen auf den Privatbereich beschränkt, finden sie sich als Gehilfen im Haushalt wieder, wo sie durchaus selbstständige Arbeiten verrichten; als Staubsauger, Fensterputzer und Rasenmäher sind sie schon lange im Handel. Wie diese zeigen auch die elektronisch gesteuerten Arme in der Kraftfahrzeugproduktion, die Stahlnähte schweißen oder Karosserien lackieren, an, dass mit der erheblichen Ausweitung der Einsatzfelder von Arbeitsmaschinen aufgrund der Veränderung ihrerAntriebsart vom Uhrwerk über die Dampfmaschine bis hin zur elektronischen Steuerung eine Segmentierung des Körpers bzw. Reduzierung auf diejenigen Organe oder Körperteile und deren Funktionen, die für die zu erbringende Leistung in der Praxis der Arbeitswelt jeweils maßgeblich sind, stattfindet. Allerdings scheint die sich im Rahmen der Arbeit 4.0 entwickelnde Gig Economy, „eine Welt, in der jeder viele Jobs erledigt“23 und als Crowdworker, in einem weltweiten Netzwerk abrufbar, bei passender Gelegenheit eingesetzt wird, wieder eine gewisse Multifunktionalität des Einzelnen zu verlangen, die bei manchen Tä19 20 21 22 23
Vgl. Apollonius v. Rhodos: Die Argonauten IV, 1638f. Homer: Ilias XVIII, 373–379. Vgl. Immermann 1971 [1830], S. 465f. Helmholtz 1988 [1854], S. 190. Dettmer/Hesse 2016, S. 17.
64
Rudolf Drux
tigkeiten durchaus auch auf ganz spezielle Leistungen konzentriert werden kann. Vor allem aber müsste jener Assistenzroboter (AAL-Robot)24, der im Gefolge demografischer Verschiebungen unverzichtbar zu sein scheint, Züge einer geistigkörperlichen Ganzheitlichkeit aufweisen, soll er doch nicht nur zur erhöhten Mobilität von älteren behinderten oder kranken Menschen beitragen, sondern ihnen überhaupt das alltägliche Leben erleichtern.25 2 MASCHINENÄNGSTE Mit dieser jüngsten Entwicklung in der Robotik geht eine soziale Verschiebung der Ängste einher, die die programmierten Megamaschinen in den Fabriken hervorgerufen haben und die von der Rationalisierung der Arbeitsplätze bis zur Unkontrollierbarkeit der stählernen Handlanger reichen: „Bedroht sind nicht mehr nur Tätigkeiten in der Werkhalle, jetzt trifft die Digitalisierung auch qualifizierte Kräfte in Büros, Kanzleien und Praxen.“26 Die Feststellung einer technologisch bedingten Verlagerung des Angstpotenzials auf die Mittelschicht, das sich auch in neuen Symptomen der „prometheischen Scham“ ausdrückt, worunter der Kulturphilosoph und -kritiker Günther Anders die „Scham vor der ‚beschämend‘ hohen Qualität der selbstgemachten Dinge“27 versteht, sollte aber nicht darüber hinwegtäuschen, dass diese Angst im Kern schon seit den Anfängen unserer Kultur auszumachen ist: Ja, im Grunde lösten sogar Automaten und Maschinen, die bloß in der Fiktion existieren, also realiter (noch) gar nicht herstellbar (waren) sind, Wunsch- oder Albträume aus: So haben die erwähnten selbstbeweglichen Gebilde des Hephaistos in Homers Ilias schon den Philosophen Aristoteles in seiner Politik zu Gedanken über die Lösung des Sklavenproblems und Entspannung des Herr-und-Knecht-Verhältnisses angeregt: Wenn nämlich jedes einzelne Werkzeug, auf einen Befehl hin oder einen solchen gar im voraus erahnend, sein Werk verrichten könnte, wie man das von den Standbildern des Dädalus oder
24
25
26 27
Diese Abkürzung steht für „Ambient Assisted Living“. Unter dem Stichwort „Personal Robot“ vermerkt Wikipedia: „Der Assistenzroboter FRIEND, der am Institut für Automatisierungstechnik der Universität Bremen entwickelt wurde, soll behinderte und ältere Personen bei den Aktivitäten des täglichen Lebens (z. B. dem Zubereiten einer Mahlzeit) unterstützen und ihnen eine Reintegration ins Berufsleben ermöglichen. Er führt vom Benutzer gestartete Aufgaben autonom aus und nimmt dabei seine Umgebung durch eine Vielzahl von Sensoren wahr und erkennt Objekte, die gegriffen werden sollen, selbständig.“ Online: https://de.wikipedia.org/ wiki/Personal_Robot (Abfrage: 13.10.2017). So preist die Fraunhofer-Gesellschaft ihren „service-roboter care-o-bot“ als „neues Modell eines universellen [!] Helfers an“, der „als Basis für kommerzielle Serviceroboter-Lösungen dienen“ könne. Während der Serviceroboter über Jahre hinweg bloß „eine lockende Verheißung“ geblieben sei, werde nun „der smarte Helfer, der in der Wohnung Dienstbotenarbeiten verrichtet oder im Krankenhaus die Pfleger unterstützt, […] langsam immer greifbarer“. Online: https://www.fraunhofer.de/de/forschung/forschungsfelder/gesundheit-umwelt/assistenzsysteme/ service-roboter-care-o-bot.html (Abfrage: 13.10.2017). Dettmer/Hesse 2016, S. 10. Anders 1980, S. 23.
Maschinenängste als Thema der Literatur
65
den Dreifüßen des Hephaistos erzählt, von denen der Dichter sagt, sie seien von selbst zur Versammlung der Götter erschienen, wenn also auch das Weberschiffchen so webte und das Plektron die Kithara schlüge, dann brauchten allerdings die Handwerker keine Gehilfen und die Herren keine Sklaven.28
Das auf spezielle Aufgaben programmierte automatische Weberschiffchen wird etliche Jahrhunderte später entscheidend an der industriellen Revolution beteiligt sein und fern jeder mythischen Vision die Zahl der Arbeiter in den Textilmanufakturen ganz real reduzieren. Der geniale Automatenbauer Jacques de Vaucanson konstruierte nämlich einen von Lochkarten gesteuerten Webeapparat für die Seidenmanufakturen zu Lyon,29 zu deren königlichem Inspektor er 1741 ernannt wurde. In dieser Position konzentrierte er sein an den mechanisch-modellhaften Lebewesen erprobtes Talent auf Nutzmaschinen und beförderte so einen technikgeschichtlichen Prozess, in dessen Verlauf – so Hans Magnus Enzensberger 1975 in seiner Mausoleums-Ballade über Vaucanson – „von der Haspelei bis zum Walkwerk / ein integrierter industrieller Komplex, / gut ausgeleuchtet, voll klimatisiert“, entstand.30 Der technische Fortschritt führt aber nicht nur die Verbesserung der Maschinen im Sinne größerer Wirtschaftlichkeit herbei,31 sondern treibt auch die Möglichkeiten zur Veränderung der gesellschaftlichen Verhältnisse voran. „Wenn die Weber sich wehren“, dann richtet sich ihre aufgestaute Wut ebenso gegen das Instrumentarium wie den Urheber ihrer Ausbeutung: „Zerbrecht das Haspelwerk! / Steinigt den Blutsauger!“ An den Webern von Lyon, die 1793 tatsächlich zum Sturm auf die Seidenmanufakturen (wie 30 Jahre später die Textilarbeiter in den Midlands) ansetzten, wird die geschichtsmächtige Dialektik von technischem Fortschritt und sozialem Aufruhr sichtbar. Diese wird in Enzensbergers Ballade durch zwei hart miteinander konfrontierte Begriffe anschaulich erfasst: „Fortschritte, / Barrikaden“.32 Ein knappes Jahrzehnt zuvor verfasst der zeit seines Lebens an technischen Innovationen interessierte Romancier Jean Paul eine eher harmlose Satire auf aristokratische Oberflächlichkeit und selbstvergnügliche, von jeder Sozialrelevanz befreite Tätigkeiten des Adels, nämlich klatschen und tratschen sowie Karten spielen, worin sich dieser durch die damals gerade erfundenen Sprach- und Spielmaschinen des bereits erwähnten W. von Kempelen massiv bedroht fühlt;33 doch plötzlich ändert er die spöttische Tonlage, indem er ein generelles Problem der Arbeitswelt festhält: 28 29 30 31
Aristoteles: Politik I, 4 b 32–40. Vgl. Richter 1989, S. 104. Enzensberger 1975, S. 35, V. 34–37. Die Arbeit des Erfinders amortisiert sich, wie Enzensberger (in einem zweizeiligen durch runde Klammern als Kommentar des Autors gekennzeichneten Aussagesatz, V. 38f.) nüchtern vermerkt: „(Zwischen Rendite und Ingenium / finden gewisse Verbindungen statt)“. 32 Enzensberger 1975, S. 36, V. 58f. Durch ihre jeweilige Position im Vers – der eine Begriff steht am Versende (58) dem anderen am Anfang des nachfolgenden (59) deutlich markiert gegenüber – wird die Unausweichlichkeit dieses verheerenden Konnexes betont. 33 Jean Paul bezieht sich auf den ‚getürkten‘ Schachautomaten des Barons Wolfgang von Kempelen und seine weit weniger betrügerische „Sprechmaschine“, die aber diese Bezeichnung kaum verdient, konnte sie doch nur wenige Wörter und eine Lobadresse an den Herrscher mühsam artikulieren. Vgl. hierzu Drux 2011.
66
Rudolf Drux Was aber uns Damen und Spielern allzunahe geht, ist, dass er uns Brot und Arbeit aus den Händen schlagen will. […] Schon von jeher brachte man Maschinen zu Markt, welche die Menschen außer Nahrung setzten, indem sie die Arbeiten derselben besser und schneller ausführten. Denn zum Unglück machen die Maschinen allezeit recht gute Arbeit und laufen den Menschen weit vor.34
Das ist eigentlich keine genuine Sorge des Adels, auch wenn in Jean Pauls Jugendsatire die Hofdamen und Offiziere in Klatsch und Tratsch und Kartenspiel, die sie ehrlichen „Handwerken“ wie der Weberei und Druckerei zurechnen, von den Maschinen verdrängt zu werden glauben; sondern wie das Konkurrenzdenken ist die Angst um den Arbeitsplatz eine genuin bürgerliche Emotion. Sie stellt quasi die Schattenseite einer hellen Begeisterung der Bürger für die Möglichkeiten der mechanischen Künste dar, für deren hoch entwickelten Standard eben die Androiden der sinnlich-sichtbare Ausdruck waren. Darüber hinaus leisteten sie einen gewichtigen Beitrag für eine effektivere Arbeit und damit eine erhöhte Produktivität: Das ist ein wichtiger Faktor für einen Stand, der sich durch ökonomische Stärke gegen den politisch dominanten Adel behaupten musste und sich von dessen amoralischen Ausschweifungen durch Strebsamkeit und Ehrlichkeit absetzte, Tugenden, die eine geregelte und wirtschaftliche Arbeit beförderte. Nach dem Katechismus des aufgeklärten Kapitalismus, der Abhandlung von Adam Smith über den Wohlstand der Nationen (1776), hängt die Steigerung der Produktivkräfte wesentlich von „der Erfindung einer Reihe von Maschinen [ab], welche die Arbeit erleichtern, die Arbeitszeit verkürzen und den einzelnen in den Stand setzen, die Arbeit vieler zu leisten“.35 Das zeichne sich in den neuen Manufakturen ab, und diese hat ja Jacques de Vaucanson mit seinen wirtschaftlich und arbeitspolitisch folgenreichen Instrumenten bereichert, für deren Erfindung ihm die Technologie seiner preisgekrönten Automaten zugute kam. Mit der existenziellen Angst vor dem Verlust von Arbeitsplätzen durch „höllische Maschinenungeheuer“,36 die die Weber von Lyon 1793 und die in den Midlands 1822 zum blutigen Aufruhr bewegt, verbindet sich im Fortgang der industriellen Revolution als weitere Belastung das mörderische Tempo des Arbeitsvorgangs im Sinne der Zielsetzung von A. Smith, das den Arbeiter dazu zwingt, sich dem Rhythmus der Maschinen anzupassen37 (womit die mythische Nachahmungsrelation endgültig verkehrt ist), was auf eine ebenso humorvolle wie wahrlich bewegende Weise Charly Chaplin in seinem Spielfilm Modern Times (1926) darstellt. Und schließlich ist er beständig mit der Undurchschaubarkeit der Verrichtungen, auf die er festgelegt ist, konfrontiert. „Indem die Maschine nicht den Arbeiter von der Arbeit befreit, sondern seine Arbeit vom Inhalt“, stellt Karl Marx 1867 fest, findet „seine Verwandlung in einen Automaten“ statt.38 Dieses Angst einflößende,
34 35 36 37 38
Jean Paul 1927 [1785], S. 276. Smith 2009 [1776], S. 12. Toller 1988 [1922], S. 272. Der Vergleich mit roboterhaft agierenden Pop-Musikern und Breakdancern ist insofern schief, als sich diese der rhythmischen Vorgabe ihrer elektronischen Instrumente freiwillig fügen. Marx 1988 [1867], S. 195.
Maschinenängste als Thema der Literatur
67
weil Identität zerstörende Resultat entfremdeter Arbeit kann als ein signifikantes Symptom des Hochkapitalismus im industriellen Zeitalter gelten. Neben den manifesten Ängsten, die reale Maschinen im Laufe der Technikund Sozialgeschichte ausgelöst haben, sollte eine literaturwissenschaftliche Studie noch die jeweils zeitbedingten Schrecknisse oder Bedrückungen aufführen, die erst durch die metaphorische Verwendung von anthropomorphen Maschinen und Automaten nachzuvollziehen sind. Das sei an zwei Figuren aus Erzählungen des frühen 19. und späten 20. Jahrhunderts exemplarisch erläutert: a) Gegen Ende des 18. Jahrhunderts hatte der Automat in Menschengestalt als Zeugnis der hoch entwickelten Uhrmacherkunst mit deren ökonomischer Bedeutsamkeit längst abgedankt, und zuvor schon war die Diskussion um das an diesem belegte maschinelle Wesen des Menschen weitgehend verstummt: Vaucansons berühmten Flötenspieler fand Goethe, als er die Kunst- und Kuriositätensammlung des Hofrats Beireis in Helmstedt besichtigte, im August 1805 „durchaus paralysirt“, und die mechanischen Grundlagen der Automatenkonstruktion hielt er für längst überholt, während der gelehrte Sammler „von diesen halbzerstörten Dingen mit solchem Behagen und so wichtigem Ausdruck [sprach], als wenn seit jener Zeit die höhere Mechanik nichts frisches Bedeutenderes hervorgebracht hätte“.39 Dagegen läuft der aufziehbare Automat in der romantischen Literatur auf Hochtouren und ist als Verkörperung des Kunstmenschen im Grunde konkurrenzlos. An seiner Programmiertheit durch ein inwendiges Räderwerk lassen sich nämlich die sozialen Zwänge und individuellen Ängste, die sich aus den gesellschaftlichen Veränderungen im Gefolge der industriellen Revolution ergeben, bestens veranschaulichen. Zugleich ist er aber noch kein Gebrauchsgegenstand des alltäglichen Lebens, was ihn gerade für die Fiktion wertvoll macht. Pragmatisch nicht eingebunden, also weder auf eine Sache noch eine Funktion fixiert, kann er mit fantastischen, d. h. mit der Alltagswelt nicht kompatiblen Erscheinungsformen und Verhaltensweisen in Verbindung gebracht und ganz unterschiedlichen Diskursen zugeordnet werden.40 Das erklärt im Wesentlichen die große Anziehungskraft, die die zierliche automatische Holzpuppe Olimpia aus E.T.A. Hoffmanns Nachtstück Der Sandmann (1816) noch heute auf Künstler, Literaten, Filmemacher und Textwissenschaftler ausübt. Als wandelnde Karikatur eines heiratsfähigen ‚Frauenbildes‘ macht sie (qua Überzeichnung) die Verhaltensweisen deutlich, die des Bildungsbürgers höhere Tochter auszeichnet: Sie vermag Klavier zu spielen, ganz ‚taktvoll‘ zu singen und zu tanzen, hat ein angenehmes Äußeres und vor allem keine eigene Meinung, lauscht vielmehr ohne Widerrede und Nebenbeschäftigungen den poetischen Ergüssen ihres narzisstischen Verehrers, weshalb dieser im Umgang mit ihr auch sein 39 Goethe 1988 [1805], S. 79. 40 Als Erzählfigur wird er so zum Sinnbild z. B. für die erstarrte und, wie bei Jean Paul, oberflächliche und im Grunde nutzlose alte Adelsmacht oder das sozial angepasste biedermeierliche Kleinbürgertum in den Epochen der politischen Restauration nach dem Wiener Kongress, symbolisiert später u. a. den seiner Tätigkeit entfremdeten, von der Geschwindigkeit des Fließbandes abhängigen Fabrikarbeiter oder den durch Kontrollmechanismen in seiner Bewegungsfreiheit eingeschränkten Untertanen eines modernen Überwachungsstaates.
68
Rudolf Drux
„ganzes Selbst“ bestätigt findet. Bezeichnenderweise suchen nach ihrer Demontage die „eleganten“ Herren in den „vernünftigen Teezirkeln (Olimpia hatte sie mit Glück besucht)“41 sich davon zu überzeugen, „daß man keine Holzpuppe liebe“, indem sie verlangte[n], daß die Geliebte etwas taktlos singe und tanze, daß sie beim Vorlesen sticke, stricke, mit dem Möpschen spiele u.s.w., vor allen Dingen aber, daß sie nicht bloß höre, sondern manchmal in der Art spreche, daß dieses Sprechen wirklich ein Denken und Empfindungen voraussetze.42
Dass „Olimpia gegen alle Sitte öfter genieset, als gegähnt hatte“, sei schon verdächtig gewesen, meinte im Nachhinein einer der „eleganten Teeisten“; denn dies sei ein deutliches Anzeichen für „das Selbstaufziehen des verborgenen Triebwerks gewesen“. b) Ein solches spielt auch eine entscheidende Rolle in Günter Kunerts Geschichte Im Uhrzeigersinn aus dem Erzählband Zurück ins Paradies.43 Dabei setzt er – immerhin im Orwell-Jahr 1984, in dem die Entwicklung der elektronischen Medien längst jeden Zweifel an der Realisierbarkeit von dessen Schreckensvision eines Überwachungsstaates beseitigt hat – auf elementare Mechanik, um das vage, aber letztlich nicht mehr abzuweisende Gefühl einer unheimlichen sozialen Kontrolle zu schildern. Dabei hatte doch das 20. Jahrhundert zur besseren technischen Ausstattung des Homo machinosus eine Reihe von Erfindungen zur Verfügung gestellt – ich nenne hier nur den Ultrakurzwellen-Sender (1917), den ElektronenVerstärker (1920), die Fernseh-Kathodenstrahlröhre (1923), das PermanentmagnetMikrophon (1925), den elektromechanischen Analogrechner (1930), das Hochfrequenz-Tonbandgerät (1940), das Mikrowellen-Radargerät (1942), den HalbleiterTransistor (1947), den Computer mit Magnetplatten-Speicher (1956) und Mikrochips und Laserstrahl (1958).44 Schon zu Ende der 1950er-Jahre also ist der medial optimierte Kunstmensch denkbar, und dank weiterer Fortschritte der Medientechnik bis ins Jahr 1984 hat George Orwells Schreckensvision totaler Überwachung und Programmiertheit längst Praktikabilität erlangt. Kunert hingegen verlässt nicht den Boden solider Mechanik: Der Protagonist seiner Erzählung leidet, wie er selbst berichtet, unter seltsamen geistigen Absenzen und nimmt eines Tages beim „Wiedereintritt in die Wirklichkeit“ ein schnarrendes Geräusch wahr, das „dem Aufziehen einer Spiralfeder mittels eines Schlüssels glich“. Bei der Untersuchung seines Körpers auf die Quelle dieses „akustischen Phänomens“ hin entdeckt er schließlich „eine runde Druckstelle unter dem rechten Schulterblatt“ in der „Größe einer Flaschenöffnung“. Da er dafür weder medizinische noch metaphysische Ursachen auszumachen vermag, kommt er zu dem Schluss, dass seine verlorenen Energien „durch einen mechanischen Vorgang“ erneuert werden, und zwar indem ihn jemand wie ein „stehengebliebenes“ Uhrwerk aufzieht. In seinem Betrieb meint er die Per41 42 43 44
Hoffmann 2004 [1816], S. 38. Ebd., S. 39. Kunert 1987. Eine Zusammenstellung dieser Erfindungen bietet Hans H. Hiebel in seiner umfangreichen „Tabelle zur Geschichte der Medien-Technik“ in Elm/Hiebel 1991, S. 186–224.
Maschinenängste als Thema der Literatur
69
son, die dieses besorgt, am ehesten aufzufinden, zumal er Metaphern aus dem Sinnbereich der Mechanik, die seine Kollegen in ihren Reden verwenden, z. B. „gesellschaftlicher Motor“ oder „Anstöße geben“, als Zeichen eines auf ihn gemünzten Geheimcodes versteht. Sein Verdacht erweist sich aber als unhaltbar, wird doch sein Zustand ebenfalls reguliert, wenn er sich nicht an seinem Arbeitsplatz aufhält. Letztlich bleibt „eine Fülle von Fragen“ unbeantwortet, und da „die Sache selber ihrer Ungeheuerlichkeit halber“ ihm eine öffentliche Erörterung verbietet, wird er „weiter schweigen müssen, bis die Feder bricht und der Mechanismus stillesteht“.45 Bis dahin wird er ein Leben „im Uhrzeigersinn“ führen, d. h., er wird ein gesellschaftlich korrektes Verhalten an den Tag legen, das ein Energie verschwendendes Abtauchen in Traumwelten nicht gestattet. Den Titel als Metapher und die ihn narrativ entfaltende Geschichte als Allegorie zu verstehen,46 das verlangt die realitätsferne Vorstellung, dass ein menschlicher Organismus mit einer Kurbel oder einem Schlüssel heimlich manipuliert wird. Der didaktische Aspekt, der der Allegorie eigen ist, ist offenkundig: Eine 1984 angemessenere elektronische Steuerung hätte sich in die Welt der Erfahrungen integrieren lassen und die Erzählung vereindeutigt (monosemiert); der simple mechanische Eingriff hingegen verleiht dem Gefühl, beständig kontrolliert und reguliert zu werden, sinnliche Anschaulichkeit und unterstreicht die Bedrohlichkeit eines Zustandes, der, rätselhaft zwischen Alltäglichem und Fantastischem schwebend,47 dem Ich-Erzähler „aussichtslos“ erscheint.48 Auf weitere Beispiele für Ängste, die durch Maschinen ausgelöst oder ausgedrückt werden, will ich hier verzichten. Dass sie aber von Homer bis heute durchgängig nachzuweisen sind, obwohl sich die Art der Arbeit wie der Standard der sie jeweils prägenden Technologien merklich, z. T. völlig verändert haben, das zeigt doch, dass die Maschinenangst ein menschliches Urphänomen, quasi ein Archetypus einer kollektiven Erfahrung ist. Da aber Ängste immer abhängig sind von der leiblich-organischen Verfasstheit von Lebewesen im Allgemeinen und des Menschen im Besonderen, sind sie ein signifikantes Merkmal zur Unterscheidung zwischen ihm und der angstfreien Maschine. Könnte die Einsicht in diese Differenzqualität nicht zu sozialen und sittlichen Verbesserungen führen? Etwa indem gangbare Wege zum Abbau solcher Ängste aufgezeigt würden: eine umfassende digitale Weiterbildung, eine finanzielle Grundsicherung für alle, fiskalische Maßnahmen gegenüber Roboterarbeiten, intensivere 45 Kunert 1987, S. 126. 46 Die klassische Rhetorik definiert die Allegorie als „erweiterte Metapher“: Während diese „in einem einzigen übertragenen Wort besteht“, beruht die Allegorie „auf der Verknüpfung mehrerer aneinandergereihter [ex pluribus continuatis conectitur], so dass etwas anderes gesagt wird als verstanden werden soll“, führt Cicero, de oratore III, 41, 166, aus. 47 Vgl. Drux 1992. 48 Überhaupt haben mechanistische Vorstellungen (wie die von einem im Innern des Menschen installierten Uhrwerk, die schon in der Anthropologie der Renaissance anzutreffen ist) einen sehr suggestiven Charakter, der wesentlich zu ihrem poetischen Überleben beiträgt, auch wenn ihre empirischen Korrelate nur noch der Technikgeschichte angehören. So wird auch im Zeitalter subtiler Steuerungssysteme z. B. die traditionelle Marionetten-Metaphorik immer noch herangezogen, wenn Abhängigkeitsverhältnisse jedweder Art dargestellt werden.
70
Rudolf Drux
Bemühungen um die Behebung des Pflegenotstands usw.; vor allem wäre dafür jedoch ein gesellschaftlicher Konsens darüber hilfreich, dass die stärkste Maschine, wenn Empathie geboten ist, nicht besser sein kann als ein schwacher Mensch. Die beruhigende und tröstende Hand eines lebendigen und mitfühlenden Menschen, die die eines Kranken oder Verzweifelten hält, vermag wohl kaum ein noch so perfekter elektronischer Greifarm zu ersetzen. BIBLIOGRAFIE Anders, Günther (1980): Die Antiquiertheit des Menschen. Bd. 1. 5. Aufl. München: Beck. Asimov, Isaac (1988 [1942]): Die perfekte Maschine. In: Menschen aus Menschenhand, S. 376-384. Dettmer, Markus/Hesse, Martin u.a. (2016): Mensch gegen Maschine. In: Der Spiegel 36/03.09.2016. Drux, Rudolf (1992): „Zurück ins Paradies“. Über das Phantastische in Günter Kunerts Geschichten. In: Durzak, Manfred/Steinecke, Hartmut (Hrsg.): Günter Kunert. Beiträge zu seinem Werk. München/Wien: Hanser, S. 169–192. Drux, Rudolf (2011): Wolfgang von Kempelens ‚Sprechmaschine‘ nebst seinem Schachautomaten. Musterstücke für einen interdisziplinären Zugang zur Spätaufklärung. Lichtenberg-Jahrbuch, S. 33–47. Elm, Theo/Hiebel, Hans H. (Hrsg.) (1991): Medien und Maschinen. Literatur im technischen Zeitalter. Freiburg: Rombach Verlag. Enzensberger, Hans Magnus (1975): Mausoleum. Siebenunddreißig Balladen aus der Geschichte des Fortschritts. Frankfurt a. M.: Suhrkamp, S. 34–36. Felderer, Brigitte/Strouhal, Ernst (2004): Zwei Maschinen: Texte, Bilder und Modelle zur Sprechmaschine und zum schachspielenden Automaten Wolfgang von Kempelens. Wien: Sonderzahl Verlag. Goethe, Johann Wolfgang (1988 [1805]): Tag- und Jahreshefte 1805. In: Menschen aus Menschenhand, S. 79. Helmholtz, Herrmann von (1988 [1854]): „Von den Androiden zu den Dienstleistungsmaschinen“. In: Menschen aus Menschenhand, S. 189–192. Hoffmann, E.T.A. (2004 [1816]): Der Sandmann. Hrsg. von Rudolf Drux. Stuttgart: Reclam. Immermann, Karl L. (1971 [1830]): Tulifäntchen. Ein Heldengedicht in drei Gesängen. In: Werke in fünf Bänden. Hrsg. von Benno von Wiese. Bd. 1. Frankfurt a. M.: Athenäum, S. 465–467. Jean Paul (1927 [1785]): Unterthänigste Vorstellung unser, der sämmtlichen Spieler und redenden Damen in Europa, entgegen und wider die Einführung der Kempelischen Spiel- und Sprachmaschinen. In: Jean Pauls sämtliche Werke. HKA. Erste Abteilung. Erster Bd.: Satirische Jugendwerke. Hrsg. von Eduard Berend. Weimar: Hermann Böhlaus Nachfolger, S. 275–292. Kasparow, Garri (1997): Einsteins Muskel. In: Der Spiegel 18/28.04.1997. Kunert, Günter (1987): Zurück ins Paradies. Geschichten. München: dtv, S. 119–126. La Mettrie, Julien Offray de (2001 [1747]): Der Mensch eine Maschine. Aus dem Franz. übers. v. Theodor Lücke. Nachwort von Holm Tetens. Stuttgart: Reclam. Marx, Karl (1988 [1867]): Das Kapital. Bd. I. 13. Kap. 4. Abschnitt: Die Fabrik. In: Menschen aus Menschenhand, S. 193–197. Menschen aus Menschenhand (1988). Zur Geschichte der Androiden – Texte von Homer bis Asimov. Hrsg. von Rudolf Drux. Stuttgart: Metzler. Poe, Edgar Allan (1987 [1836]): Mälzels Schachspieler. In: Brief an B. Essays. Deutsch von Reinhild Böhnke. Leipzig: Reclam, S. 12–38. Richter, Siegfried (1989): Wunderbares Menschenwerk. Aus der Geschichte der mechanischen Automaten. Leipzig: Edition Leipzig. Shelley, Mary (1986 [1818]): Frankenstein oder Der moderne Prometheus. Aus dem Engl. übersetzt von Ursula und Christian Grawe. Stuttgart: Reclam.
Maschinenängste als Thema der Literatur
71
Smith, Adam (2009 [1776]): Der Wohlstand der Nationen. Eine Untersuchung seiner Natur und seiner Ursachen. Buch 1. Kap. 1. Aus dem Engl. übertragen und mit einer umfassenden Würdigung des Gesamtwerkes. Hrsg. von Horst Claus Recktenwald. 11. Auflage. München: dtv. Sutter, Alex (1997): Vom spektakulären Objekt zum Produktionsmittel – der Automat im 18. Jahrhundert am Beispiel des Werks von Jacques Vaucanson. In: Söring, Jürgen/Sorg, Reto (Hrsg): Androiden. Zur Poetologie der Automaten. 6. internationales Neuenburger Kolloquium 1994. Frankfurt a. M: Peter Lang, S. 133–144. Toller, Ernst (1988 [1922]): Die Maschinenstürmer. In: Menschen aus Menschenhand. S. 272–276.
AUTONOMES FAHREN VOR DEM DURCHBRUCH Künstliche Intelligenz und Big Data als Antwort auf ethische Dilemma-Situationen Christopher Koska
1 EINLEITUNG Der Begriff Automobil entstand am Ende des 19. Jahrhunderts. Die beiden Eigenschaften, die in diesem Wort zusammengeführt wurden, „selbst“ (griechisch: αὐτός) und „beweglich“ (lateinisch: mobilis), bezogen sich ursprünglich nur auf die Antriebsart von Fahrzeugen. Darauf deutet auch die heute gängige Bezeichnung eines Autos als Kraftfahrzeug hin. Im Unterschied zu Kutschen und allen anderen Landfahrzeugen verfügten Automobile erstmals über eine eigene Antriebsmaschine, so dass sie nicht mehr gezogen oder geschoben werden mussten, sondern in gewisser Weise selbstfahrend waren. Bezeichnungen, wie „selbstfahrende Autos“ oder gar „automatisch fahrende Autos“, welche Gegenwartsjournalisten im Kontext ihrer Berichterstattung häufig nutzen, erscheinen mit Blick auf die semantische Verdoppelung sicherlich etwas merkwürdig. Letztlich bringt die inhaltliche Wiederholung aber auch das Bedürfnis zum Ausdruck, eine sprachliche Steigerung im Vergleich zur Selbstbeweglichkeit der ersten Autos zu finden. Wenn wir im 21. Jahrhundert von selbstfahrenden Fahrzeugen sprechen, bedarf es demnach zunächst einer weiteren Präzisierung zur Bestimmung dessen, was in der ursprünglichen Bedeutung des Begriffs schon immer vorhanden war. Im Zentrum dieser Betrachtung befindet sich nun nicht mehr die Antriebskraft, sondern die autonome Steuerung der Fahrzeuge. Die Rede vom autonomen Fahren, hinter dem Vorzeichen einer selbstständigen Kontroll- und Steuereinheit zu führen, beinhaltet wiederum die Gefahr, den Blick auf zentrale Aspekte des Autonomiebegriffs zu verstellen: Wenn wir heute von autonomen Fahrzeugen sprechen, blenden wir beispielsweise die Funktion der personalen Selbstbestimmung aus, die für unser anthropologisches Autonomieverständnis und damit auch für die Ethik seit Immanuel Kant elementar ist. „There is no ‚I‘ in ‚Robot‘“1 nach dem heutigen Stand der Technik und deshalb verfügen auch „autonome Automobile“ in absehbarer Zukunft, wie später zu zeigen ist, nicht über die notwendige Voraussetzung, um selbst ethisch zu handeln. Während sich die erste Stufe der Selbstbeweglichkeit eines Autos vielleicht am besten damit beschreiben lässt „energetisch autark“ zu sein, geht es in diesem Beitrag vor allem darum, die Möglichkeiten und Grenzen von 1
Grau 2006.
74
Christopher Koska
selbstfahrenden Fahrzeugen zur „Selbstgesetzgebung“ zu beleuchten. „Autonom“ bedeutet, in Anlehnung an die Begriffsanalyse von Gottschalk-Mazouz, in diesem Beitrag „(weitestgehend) umweltunabhängig“, „adaptiv“, „lernend“, aber auch „opak“ und somit „unvorhersagbar“.2 Dieser Beitrag skizziert zunächst die Entwicklung von selbstfahrenden Fahrzeugen, um in einem nächsten Schritt diejenigen ethischen Fragestellungen und Problemfelder freizulegen, die mir bei der bereits stattfindenden Einführung des autonomen Fahrens am dringendsten erscheinen und für die ich, in einem dritten Schritt, die gestaltungstechnischen Möglichkeiten und Rahmenbedingungen abstecken möchte. Im Mittelpunkt meines Interesses befindet sich dabei die Konstitution des „moralischen Betriebssystems“ selbstfahrender Fahrzeuge. Verkürzt zusammengefasst entsteht es aus der Interaktion zwischen dem (selbst-)lernenden System der Fahrzeuge und den menschlichen Fahrzeugführern. Die Veränderung der technischen Möglichkeiten, speziell die umfangreiche Erfassung und Analyse von Fahrdaten, schaffen die binäre Grundlage, um die Steuerungs- und Kontrollalgorithmen von Autos dahingehend zu trainieren (supervised learning) und zu optimieren (reinforcement learning), dass sich selbstfahrende Fahrzeuge in bestimmten Verkehrssituationen auf eine ganz bestimmte Weise verhalten (können). Die zentrale These des Beitrags lautet, dass dieses Vorgehen zwangsläufig zu naturalistischen (Sein-Sollen)-Fehlschlüssen führt, wenn von dem Verhalten der Autofahrer in konkreten Gefahren- und Unfallsituationen automatisiert auf normative Verhaltensweisen geschlossen wird, und dass mit diesem Ansatz tendenziell ein utilitaristisches Nutzenkalkül zur Geltung kommt, dessen Entscheidungskriterien uns Menschen zunehmend undurchsichtig werden. Indem abschließend das Recht betroffener Personen, „nicht einer ausschließlich auf einer automatisierten Verarbeitung […] beruhenden Entscheidung unterworfen zu werden“ (Art. 22 DSGVO),3 thematisiert wird, soll mit Blick auf den neuen europäischen Rechtsrahmen zudem der wirtschaftspolitische Gestaltungsraum im Kontext des autonomen Fahrens aus einer ethischen Perspektive skizziert werden. 2 AUTONOMES FAHREN IN SEINER GESCHICHTLICHEN ENTWICKLUNG: EINE PROBLEMORIENTIERTE BESCHREIBUNG DER DEBATTE ÜBER MORALISCHE DILEMMA-SITUATIONEN Gebannt blickten die Besucher der Weltausstellung 1939 in New York auf kleine Modellautos, die sich wie von Geisterhand über zahlreiche Highways durch die Häuserschluchten einer Modellstadt bewegten. Mit dem Pavillon „Futurama“, der von dem Architekten Norman Bel Geddes für General Motors konzipiert wurde, wagte die Automobilindustrie einen avantgardistischen Blick in die Zukunft des fahrerlosen Fahrens, um aufzuzeigen, wie dieses innerhalb von 20 Jahren, d. h. bis 1959/60, umzusetzen wäre. Die Reise in die Vergangenheit selbstfahrender Autos 2 3
Gottschalk-Mazouz 2008, S. 5f. Gola et al. 2017.
Autonomes Fahren vor dem Durchbruch
75
mit diesem Ereignis zu beginnen, rückt die ideengeschichtliche Vision in den Mittelpunkt, Mobilität in einem global vernetzten Verkehrsleitsystem effizienter und sicherer zu gestalten. Dreh- und Angelpunkt war bei diesem Ansatz das Straßennetz selbst, welches zur induktiven Führung und Ladung von Elektrofahrzeugen neu konzipiert werden sollte. Die massiven Investitionskosten, die für eine flächendeckende Realisierung „smarter Highways“ notwendig gewesen wären, verhinderten jedoch die Umsetzung, sodass dieser Ansatz das Prototypstadium nie verlassen konnte. Charakterisiert man selbstfahrende Fahrzeuge, wie eingangs geschehen, als energetisch autarke Fahrzeuge, die nicht von Muskel- oder Windkraft gezogen oder geschoben werden, so lassen sich auch die im 18. Jahrhundert erfundenen Dampfwagen und Dampflokomotiven bereits den „Auto-Mobiles“ zuordnen. Dies sei an dieser Stelle vor allem deshalb erwähnt, da gerade die Geschichte der dampfbetriebenen Wagen die stetig anwachsenden Anforderungen der Steuerung und Kontrolle bei zunehmender Leistungssteigerung verdeutlichen. So endete zum Beispiel eine der ersten Vorführfahrten des 1769 von Nicholas Cugnot für die französische Armee entwickelte Dampfblockwagens bereits an der Kasernenmauer. Eine Lösung bestand deshalb schon bald darin, die Spurführung des dampfbetriebenen „voiture automobile“ durch Schienen zu gewährleisten. Die Erfolgsgeschichte der Eisenbahn startete hier ihren Lauf bis in unsere Gegenwart. In Anbetracht der Möglichkeiten des vordigitalen Maschinenzeitalters ist es nicht weiter verwunderlich, dass auch der von General Motors 1939 vorgestellte Ansatz des fahrerlosen Fahrens zunächst auf diesem Prinzip beruhte. Das grundlegende Konzept der Spurführung wurde von Bel Geddes aber durch elektrotechnische Innovationen zu einem automatisierten Highway System weiterentwickelt, welches zusätzlich zur Energieversorgung der Fahrzeuge genutzt wurde und in einer überarbeiteten Version sogar die Geschwindigkeit und den Abstand zwischen den Autos regeln konnte, wodurch das erste fahrerlose Fahren mit Elektroantrieb ermöglicht wurde. Heute, rund 80 Jahre nach den hier skizzierten Anfängen der selbstfahrenden Fahrzeuge, haben sich die Rahmenbedingungen für die Steuerungs- und Kontrollsysteme grundlegend verändert. Mit der exponentiellen Wachstumsphase der Mikroprozessorsysteme, dem Siegeszug des Internets und der Weiterentwicklung der Sensortechnik verspricht die digitale Vernetzung von allem mit jedem eine neue Infrastruktur für ein autonomes Fahren. Ein moralisches Dilemma, welches die ethische Debatte bis heute dominiert, stammt seinem Ursprung nach jedoch ebenfalls aus der Frühzeit des letzten Jahrhunderts. So zeigte der Rechtswissenschaftler Karl Engisch schon 1930 in seiner Habilitationsschrift, dass die Steuerung des Schienenverkehrs in unvermeidlichen Unfallsituationen moralische Wertabwägungsfragen implizieren kann.4 Das als Trolley-Problem (englisch für Straßenbahn) bekannt gewordene Gedankenexperiment beschreibt eine Situation, in der ein Weichensteller durch sein aktives Eingreifen – den Spurwechsel einer Bahn – einen Unfall mit Todesopfern zwar nicht verhindern, jedoch die Anzahl der Opfer verringern könnte. 4
Vgl. Engisch 1930, S. 288.
76
Christopher Koska
Die moralische Bewertung solcher Situationen, die in ihrem ursprünglichen Kontext auch als Weichenstellerfall bezeichnet werden, ist bekanntermaßen davon abhängig, welche ethische Theorie man vertritt.5 Ziel dieses Beitrags ist es allerdings nicht, die verschiedenen ethischen Positionen im Detail nachzuzeichnen und zu bewerten. Im Gegenteil geht es mir darum, zu zeigen, dass der alte philosophiegeschichtliche Disput zwischen den Vertretern unterschiedlicher Theorien bei der gegenwärtigen Verbreitung automatisierter Fahrsysteme derzeit in den Hintergrund tritt und bestenfalls noch eine untergeordnete Rolle spielt, wenn es später um die konkrete Ausgestaltung geht. Wenngleich das Massachusetts Institute of Technology (MIT) eine „Moral Machine“ (MM) für eine Online-Umfrage entwickelt hat, die in ihrem Variantenreichtum eines ganz klar verdeutlicht: Mit der massenhaften Erfassung und Verarbeitung von Daten (Big Data) wäre theoretisch eine gewaltige Ausdifferenzierung hinsichtlich der „Kosten-Nutzen-Maximierung“ denkbar. Denn je mehr wir über die potentiell betroffenen Opfer wissen, desto genauer ließe sich natürlich auch die utilitaristische Steuerung von selbstfahrenden Fahrzeugen programmieren. Sobald ein selbstfahrendes Auto Zugriff auf die Persönlichkeitsmerkmale der betroffenen Personen hätte,6 könnte man bei einem plötzlichem Bremsversagen konkrete Verhaltensregeln für das Fahrzeug formalisieren, beispielsweise ob das Überleben einer Gruppe mit einem Arzt, einer weiblichen Führungskraft und zwei älteren Damen einer Gruppe mit einer älteren Frau, einem älteren Mann und einem Obdachlosen vorzuziehen sei – oder, wie bei einer anderen Variante der MM des MIT, ob das Leben einer männlichen gegenüber dem einer weiblichen Führungskraft schützenswerter ist. Theoretisch ermöglichen die digitalen Profile von heute also eine wesentlich differenziertere Entscheidung, als sie dem traditionellen Weichensteller beim Spurwechsel des Zugs zur Verfügung standen. Zudem könnten aufgrund der ständig wachsenden Rechenkapazität selbst die komplexesten Gruppen- und Besatzungskonstellationen von einem Computer schon bald in Echtzeit berechnet werden. Meines Erachtens ist der Fokus auf die theoretische Auseinandersetzung mit den unterschiedlichsten Varianten des Trolley-Dilemmas aber falsch gesetzt, da er sich zu wenig mit der tatsächlichen Praxis der Autohersteller beschäftigt. Die Klassifizierung des autonomen Fahrens wird nach einer Festlegung der SAE International7 in bis zu sechs Stufen vorgenommen. SAE Level 0 steht in diesem Zusammenhang für „no automation“, das heißt, dass sämtliche Führungsaufgaben von einem menschlichen Fahrer ausgeübt werden. Level 1 bis 3 unterscheidet 5
6 7
Vertreter des Konsequentialismus bewerten den moralischen Wert einer Handlung an dem Ergebnis der Handlung, beispielsweise fragen Utilitaristen nach dem größten Nutzen für die Allgemeinheit. Vertreter der deontologischen Ethik lehnen diese Argumentation mit dem Verweis auf ganz bestimmte Normen und Prinzipien, wie den Schutz der Privatsphäre als Bedingung für die menschliche Freiheit oder die Unantastbarkeit der menschlichen Würde, ab. Ein Blick in die Kundedatenschutzrichtlinie von Tesla zeigt, dass sich Tesla unter anderem offenhält, auch auf soziale Netzwerke und andere „öffentlichen Datenbanken“ zuzugreifen, um Daten über ihre Kunden zu gewinnen. Vgl. https://www.tesla.com/de_DE/about/legal. Die SAE International (ehemals die „Society of Automotive Engineers“) ist eine gemeinnützige Organisation, die sich dem Fortschritt der Mobilitätstechnologie widmet. Vgl. http//www. sae.org.
Autonomes Fahren vor dem Durchbruch
77
verschiedene Stufen von Assistenzsystemen (wie Tempomat, Einparkhilfen oder Spurhalteassistenten) bis hin zum bedingten Autopilotsystem, bei dem sich der Fahrer jederzeit bereithalten muss, um in schwierigen Situationen eingreifen zu können. Ab Level 4 („high automation“) ist ein angemessenes Eingreifen des Fahrers nicht mehr vorgesehen, kann aber nach Systemaufforderung erfolgen. Die Bundesanstalt für Straßenwesen klassifizierte das SAE Level 4 deshalb bereits als „fully automated“8, während die amerikanische SAE noch ein Level 5 für vollständig autonomes Fahren unterscheidet, in welchem die Führung des Fahrzeugs unter allen Umgebungsbedingungen „that can be managed by a human driver“ auch vollständig vom Computersystem ausgeführt werden kann9. Wir befinden uns heute am Übergang zwischen SAE Level 2-3 (Assistentzsysteme) und SAE Level 4 (hochautomatisiert). Auf einigen Weblogs wird immer mal wieder behauptet, dass Tesla seit Oktober 2016 auch schon Fahrzeuge mit SAE Level 5 ausliefere. Allerdings bezieht sich diese Klassifizierung, nach eigenen Angaben von Tesla, nur auf die verbaute Hardware. Denn anders als bei Level 5 vorgesehen, muss der Fahrer „auch im Autopilot-Modus [Anmerkung: der neuen Modelle] jederzeit den Überblick und die Kontrolle über das Auto behalten“.10 Richtig ist, dass die Hardware der Fahrzeuge bereits sämtliche Aktivitäten des Fahrzeugs protokolliert. Unter der Annahme, dass es sich bei der Hardware, mit Blick auf die Sensorik und Elektronik der Autos, wirklich um eine Level 5-Klassifizierung handelt, verfügen die Fahrzeuge sogar schon über die technische Ausstattung, um alle relevanten Datenpunkte zu erfassen, die für eine völlig autonome Steuerung notwendig sind.11 Tesla nennt diese Funktion Schatten-Modus. Dabei übertragen die Fahrzeuge mit Autopilot und Online-Verbindung alle Fahrdaten direkt an den Hersteller, wo sie zentral ausgewertet werden können. Erkenntnisse, die dann zu einer Verbesserung des Autopiloten beitragen, können mit einem Software-Update wieder vom Hersteller zurück auf die Fahrzeuge übertragen werden. Mit der Zeit können auf diese Weise alle Fahrsituationen erkannt werden, die einem bestimmten Muster entsprechen.12 Entscheidend für die Weiterentwicklung des autonomen Fahrens ist es, so lautet meine These hier, mit möglichst vielen authentischen Nutzern echte Daten unter realen Bedingungen zu sammeln. Das ist auch ein wichtiger Grund dafür, dass Tesla die Beta-Version des neuen Auto-Piloten nicht im Labor (mit einer verhältnismäßig kleinen Nutzergruppe) testet, sondern schon jetzt in den Fahrzeugen verbaut. Die Möglichkeit, mit den vernetzte Autos eine KI-Software zu trainieren, nennt Tesla Fleet-Learning. Die aktuell vorherrschende Debatte über das Trolley-Dilemma, so wie sie uns exemplarisch auf dem Internetportal des MIT suggeriert wird, führt aus meiner Sicht deshalb an der eigentlichen Thematik vorbei, weil sie nur einen kleinen Ausschnitt der tatsächlichen Problematik beleuchtet, indem sie die Praxis der techni8 9 10 11 12
Bundesanstalt für Straßenwesen 2014, S. 7. SAE International 2014, S. 2. Frankfurter Allgemeine Zeitung 2016. Das ist aber vermutlich nicht der Fall. Theoretisch können natürlich ebenso alle Objekte und Personen erkannt werden, die einem bestimmten Muster entsprechen.
78
Christopher Koska
schen Informationsbeschaffung durch die Hersteller ausblendet.13 In der Realität verhält es sich nicht so, dass für jedes denkbare Dilemma ein philosophischer Reflexionsprozess angestoßen wird, um das „richtige“ Verhalten dann „hard-coded“ in die Steuerungssoftware der Fahrzeuge zu schreiben. Schließlich kann auch der Rückzug in den philosophischen Elfenbeinturm, wie die Philosophiegeschichte zeigt, moralische Dilemmata nicht objektiv auflösen. Eine konservative Auseinandersetzung mit fiktiven Dilemma-Situationen könnte die Weiterentwicklung deshalb zum Stillstand bringen.14 Wesentlich effektiver ist es, in großem Stil Daten zu sammeln, um (im Schattenmodus) herauszufinden, wie sich menschliche Fahrzeugführer intuitiv in solchen Situationen verhalten. Das „richtige Verhalten“ kann anhand realer Gefahren- und Unfallsituationen dann immer noch in einem zweiten Schritt (in Form von erfolgreichen Lösungsstrategien) evaluiert werden. Eine Bestätigung des populären Bildes von Ulrich Beck daraus abzuleiten, der die Wirkung der Ethik mit einer Fahrradbremse an einem Interkontinentalflugzeug verglichen hatte, greift aber zu kurz. Denn viele Menschen empfinden die Einführung automatisierter Systeme gerade aus ethischen Gründen als verantwortbar oder sogar geboten. 3 ZUR BEURTEILUNG AUTOMATISIERTER FAHRSYSTEME: EINE RISIKOENTSCHEIDUNG ZWISCHEN SICHERHEIT, PERSÖNLICHER ENTSCHEIDUNGSFREIHEIT UND ZUNEHMENDEM KONTROLLVERLUST Weltweit sterben laut einer Studie der WHO seit 2007 jedes Jahr 1,25 Millionen Menschen durch Verkehrsunfälle.15 Nach Angaben der EU kommen zu jedem Toten noch einmal vier mit bleibenden Behinderungen (beispielsweise durch Wirbelsäulen- oder Gehirnverletzungen), acht Schwerverletzte und fünfzig Menschen mit leichten Verletzungen hinzu.16 276.524 von insgesamt 366.448 Unfällen mit Personenschaden, das heißt gut 75%, konnten in Deutschland (2015) direkt auf das Fehlverhalten des Fahrzeugführers zurückgeführt werden (darunter Alkoholeinfluss, falsche Straßenbenutzung, nicht angepasste Geschwindigkeit, ungenügender Abstand, Fehler beim Überholen, Nichtbeachten der Vorfahrt etc.).17 Andere Quellen gehen sogar in mehr als 90% aller Fälle von menschlichem Versagen als Ursache aus.18 Elon Musk, der Gründer und CEO von Tesla, bezeichnet es mit einem Ver13 14
15 16 17 18
Vgl. ADAC 2017. Vor allem in Deutschland, wo der derzeit gültige Rechtsrahmen zwischen der bewussten Ausführung einer Handlung und dem Unterlassen klar unterscheidet, könnte eine utilitaristische Optimierung der Steuerung als eine aktive „Targeting-Strategie“ (Lin 2015, S. 73) ausgelegt werden, für die sich die Hersteller (oder Programmierer) dann möglicherweise alleine verantworten müssten. Schon deshalb macht es für die Hersteller derzeit keinen Sinn, das Lenkrad aus dem Wagen zu entfernen und vorab Regeln für Dilemma-Situationen zu implementieren. Vgl. World Health Organization 2015. Vgl. European Commission 2016. Vgl. Statistisches Bundesamt 2016. Vgl. Peitsmeier 2015 und Becker 2016.
Autonomes Fahren vor dem Durchbruch
79
weis auf das Gemeinwohl angesichts solcher Zahlen als „moralisch verwerflich“19, den Zeitpunkt der Markteinführung für autonome Fahrzeuge weiter aufzuschieben. Gleichermaßen sieht die Bundesanstalt für Straßenwesen „im steigenden Automatisierungsgrad einen wachsenden Nutzen für die Verkehrssicherheit“, denn durch die zunehmende Fahrzeugautomatisierung „verringert sich der Spielraum für ein Fehlverhalten des Fahrzeugführers“.20 Der Bundesminister für Verkehr und digitale Infrastruktur setzte vor diesem Hintergrund im Jahr 2016 eine Ethik-Kommission ein, die im Juli 2017 ihren Bericht über „Automatisiertes und Vernetztes Fahren“ offiziell der Öffentlichkeit präsentierte. Von dem Ergebnis zeigten sich viele überrascht. Erste Irritationen löste bereits eine Passage im Vorwort aus, in der das Expertengremium schreibt: „Es ist nicht ausgeschlossen, dass am Ende der Entwicklung Kraftfahrzeuge stehen, die inhärent sicher sind, also unter allen Umständen einen Unfall vermeiden können.“21 Als „interessengeleitete Fiktion“ bezeichnet dies Florian Rötzer, der Chefredakteur der Online-Zeitschrift Telepolis, „schließlich kann wohl niemals ausgeschlossen werden, dass einem technischen System unter allen Umständen keine Panne oder Störung unterlaufen wird, wodurch aus internen oder externen Ursachen ein Unfall verursacht werden könnte“.22 Mit dem einschränkenden Folgesatz wird sichtbar, worauf sich die internationale Forschung und Entwicklung derzeit konzentriert. So wird als Ursache, weshalb „eine vollständige Unfallvermeidung“ aktuell noch nicht möglich sei (neben dem an dieser Stelle nicht weiter ausgeführten technischen Niveau), insbesondere die „Wirklichkeit eines heterogenen und nicht miteinander vernetzten Straßenverkehrs“23 genannt. Die vielleicht größte Überraschung löste die etwas paradox anmutende Auseinandersetzung mit Dilemma-Situationen aus. Der Einstieg in die Thematik findet sich im zweiten Satz von Ziffer 5: „Die Technik muss nach ihrem jeweiligen Stand so ausgelegt sein, dass kritische Situationen gar nicht erst entstehen, dazu gehören auch Dilemma-Situationen, also eine Lage, in der ein automatisiertes Fahrzeug vor der ‚Entscheidung‘ steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen.“ Die Einschränkung im vorangegangenen Satz, dass Unfälle „so gut wie praktisch möglich“ nicht stattfinden sollten, verweist indessen auf die Aussage in Ziffer 3: „die Vermeidung von Unfällen ist [Anmerkung: nur ein] Leitbild“. Denn, wie oben bereits erwähnt, kann und wird die Technik vermutlich niemals hundertprozentig sicherstellen können, dass kritische Situationen „gar nicht erst entstehen“. Letztlich kommt das Gremium selbst zu dem Schluss, dass „technisch unvermeidbare Restrisiken“ bestehen, aber „einer Einführung des automatisierten Fahrens bei Vorliegen einer grundsätzlich positiven Risikobilanz nicht entgegenstehen“.24
19 20 21 22 23 24
McGoogan 2016. Bundesanstalt für Straßenwesen 2012, S. 2. Ethik-Kommission 2017, S. 6. Rötzer 2017. Ethik-Kommission 2017, S. 6. Ebd., S. 10.
80
Christopher Koska
130 Millionen Kilometer ist der Tesla Model S unfallfrei mit dem Autopiloten unterwegs gewesen, bis im Mai 2016 der erste tödliche Unfall passierte. Weltweit kommt ein tödlicher Unfall im Schnitt auf 60 Millionen Kilometer. Sollte sich der Wert als stabil erweisen, verfügen die autonomen im Vergleich zu den herkömmlichen Fahrzeugen also bereits über eine (um den Faktor 2,17) bessere Risikobilanz. Hinzu kommt, dass die Unfallursache, nach Angaben von Tesla, mit einem Software-Update25 bereits behoben wurde (wir erinnern uns an die Möglichkeit des „Fleet-Learnings“). Gleichwohl macht der Unfall auf eines der drängendsten Probleme aufmerksam: Die Übergabe der Steuerung zwischen Mensch und Technik, speziell in Gefahrensituationen, im Ethikbericht auch „Overruling“ genannt. Selbst wenn die Rechtsgrundlage bei dem tödlichen Tesla-Unfall klar zu sein scheint – es handelte sich um ein als Level 2-3 eingestuftes Fahrzeug, das heißt, der Fahrer hätte reagieren müssen – kritisieren Experten, dass die Aufmerksamkeit und Antizipationsfähigkeit der Fahrer, die zur Lösung schwieriger Situationen notwendig sind, zwangsläufig degenerieren, wenn sie nur lang genug unfallfrei mit dem Autopiloten unterwegs waren.26 In Ziffer 17 vermerkt die Ethik-Kommission dazu folgende Regel: „Software und Technik hochautomatisierter Fahrzeuge müssen so ausgelegt werden, dass die Notwendigkeit einer abrupten Übergabe der Kontrolle an den Fahrer („Notstand“) praktisch ausgeschlossen ist. Um eine effiziente, zuverlässige und sichere Kommunikation zwischen Mensch und Maschine zu ermöglichen und Überforderung zu vermeiden, müssen sich die Systeme stärker dem Kommunikationsverhalten des Menschen anpassen und nicht umgekehrt erhöhte Anpassungsleistungen dem Menschen abverlangt werden.“27 Nun kann man sich fragen, wie eine Mensch-Maschine-Schnittstelle so gestaltet werden kann, dass sie diesem Anspruch auch wirklich Genüge leisten kann. Wie können Überforderung und abrupte Übergabeprozesse in einer immer komplexeren hochtechnisierten Welt vermieden werden? Wie kann sichergestellt werden, dass der Mensch beim autonomen Fahren nicht seiner eigenen Autonomie beraubt wird? Lässt sich eine immer stärker werdende künstliche Intelligenz transparent in das Kommunikationsverhalten von uns Menschen einbinden, so dass wir in Gefahrensituationen die Hoheit über die Steuerung und Kontrolle jederzeit nahtlos übernehmen können? Ein Blick auf die gegenwärtigen Investitionsstrategien der großen Technologiekonzerne zeigt, wie man sich dort die Zukunft der Mensch-Maschine-Schnittstelle vorstellt. Neben Facebook, Microsoft und vielen weiteren, die bereits mit dem Auslesen von Gedanken direkt aus unserem Gehirn experimentieren,28 arbeitet auch Elon Musk mit seinem neugegründeten Unternehmen Neuralink schon an einer 25 26
27 28
Vgl. Hull 2016. In Abhängigkeit von der zuvor ausgeführten Tätigkeit zeigen Experimente, dass menschliche Fahrzeugführer bis zu 40 Sekunden benötigen, um sich in eine Verkehrssituation wieder hineinzufinden. In jedem Fall aber länger als die durchschnittliche Reaktionszeit von 1 bis 2 Sekunden bei typischen Unfallsituationen. Vgl. Lin 2015, S. 72. Ethik-Kommission 2017, S. 13. Vgl. Rixecker 2017.
Autonomes Fahren vor dem Durchbruch
81
Gehirn-Maschine-Schnittstelle, die einen schnelleren und reibungsloseren Zugriff auf die maschinelle Steuereinheit von Robotern ermöglichen soll. Die Symbiose zwischen Mensch und Maschine, die Neuralink derzeit mit einer invasiven Methode für Patienten mit Gehirnschädigungen erforscht, soll nach dem Willen von Elon Musk in zehn Jahren auch als massentaugliches Produkt für Nichtbehinderte zur Verfügung stehen.29 Denn Musk betrachtet die direkte Vernetzung unserer Gehirne mit Computern scheinbar als die einzige Möglichkeit, um die Menschen vor der Entmündigung durch eine künstliche Superintelligenz zu bewahren: „We’re going to have the choice of either being left behind and being effectively useless or like a pet – you know, like a house cat or something – or eventually figuring out some way to be symbiotic and merge with AI.“30 Eine detaillierte Auseinandersetzung mit diesem Argument, dem Transhumanismus und der Singularität würde den Rahmen dieses Beitrags schnell sprengen und muss deshalb an anderer Stelle erfolgen. Der Verweis darauf, soll in diesem Text nur als eine Randnotiz verstanden werden, ein kurzer Seitenblick auf einen weiteren Bestandteil des Ökosystems eines Automobilherstellers, der offensichtlich erkannt hat, dass die gegenwärtigen Technologien zu einem zunehmenden Kontrollverlust führen und die persönliche Entscheidungsfreiheit in absehbarer Zukunft extrem einschränken könnten, der bei der Lösung dieses Problems aber auch in ganz anderen Dimensionen denkt als die traditionelle Fahrzeugindustrie. Gegenwärtig wirft die umfangreiche Datenerfassung über die elektronische Hardware der Autos bereits die ethisch zentrale Frage nach der digitalen Selbstbestimmung der Nutzenden auf. So belegen Untersuchungen des ADAC und der Stiftung Warentest, dass inzwischen alle modernen Autos umfangreich Fahrdaten erfassen und an ihre Hersteller (Anmerkung: teilweise über das Smartphone auch an Dritte, wie Google und Apple) übertragen.31 Nach dem ernüchternden Fazit der Stiftung Warentest („Die ganze Branche sammelt über ihre Kunden mehr Daten als erforderlich und lässt sie darüber im Unklaren, was mit den Informationen passiert.“32) stellt sich also – auch ohne direkten Zugriff auf unsere mentalen Gehirnprozesse – bereits die Frage, wie die Autonomie und Datenhoheit der Verkehrsteilnehmer künftig gewährleistet werden soll. Die Ethik-Kommission schränkt in ihrem Bericht die persönliche Entscheidungsfreiheit durch eine Wertabwägung mit dem Thema Sicherheit ein.33 „Eine vollständige Vernetzung und zentrale Steuerung sämtlicher Fahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur“ bezeichnet das Gremium zwar einerseits als „ethisch bedenklich“, insofern „sie Risiken einer totalen Überwachung der Verkehrsteilnehmer und der Manipulation der Fahrzeugsteuerung nicht sicher auszu29 30 31 32 33
Urban 2017. Ebd. ADAC 2017 und Stiftung Warentest 2017. Stiftung Warentest 2017. „In einer freien Gesellschaft erfolgt die gesetzliche Gestaltung von Technik so, dass ein Maximum persönlicher Entscheidungsfreiheit in einer allgemeinen Entfaltungsordnung mit der Freiheit anderer und ihrer Sicherheit zum Ausgleich gelangt.“ Ethik-Kommission 2017, S. 10, Ziffer 4.
82
Christopher Koska
schließen vermag“,34 anderseits kommen die Experten infolge einer solchen Wertabwägung aber zu dem Schluss, dass „lernende und im Fahrzeugbetrieb selbstlernende Systeme sowie ihre Verbindung zu zentralen Szenarien-Datenbanken ethisch erlaubt sein [können], wenn und soweit sie Sicherheitsgewinne erzielen“35. Im Zuge der Vernetzung und Zentralisierung (und an dieser Stelle sei angemerkt, dass ab 31. März 2018 bereits eine Sim-Karten-Pflicht für alle Neuwagen in Deutschland besteht) lautet die Empfehlung der Kommission: „Es erscheint sinnvoll, relevante Szenarien an einen zentralen Szenarien-Katalog einer neutralen Instanz zu übergeben, um entsprechende allgemeingültige Vorgaben, einschließlich etwaiger Abnahmetests, zu erstellen.“36 Die Ausschnitte aus dem Bericht der Ethik-Kommission verdeutlichen, dass die von der deutschen Bundesregierung eingesetzten Experten auf einer ganz grundsätzlichen Ebene dazu tendieren, die Einführung automatisierter Fahrsysteme zu befürworten. Das Thema Verkehrssicherheit gewinnt am stärksten Kontur durch die absehbare Reduzierung der Unfallwahrscheinlichkeit, während die vagen und in vielen Teilen unterbestimmten Regeln offenlassen, wie sich Fahrzeuge in DilemmaSituationen konkret verhalten sollen. 4 ZUR GESTALTUNG DES MORALISCHEN BETRIEBSSYSTEMS IN SELBSTFAHRENDEN FAHRZEUGEN Aus rein pragmatischer Sicht spricht vieles dafür, der Empfehlung der Ethik-Kommission Folge zu leisten und – wie es sich international bereits abzeichnet – die Konstitution des moralischen Betriebssystems vor allem lernenden und selbstlernenden Systemen zu überlassen. Denn die Erstellung von Szenarien-Katalogen kann durch die maschinelle Datenverarbeitung wesentlich effizienter und detaillierter vorangetrieben werden. Ebenso umgeht man das Problem mit Dilemma-Situationen. Initial könnten Programmierer gleichwohl die Regeln, die beispielsweise von einer Ethik-Kommission definiert wurden, zunächst für eine begrenzte Anzahl von Anwendungsszenarien mit Hilfe von „Constraints“ (deontologisch) oder „Costs“ (utilitaristisch) festlegen.37 Erste ethische Kriterien zur Beurteilung bestimmter Szenarien finden sich bereits in dem nun vorliegenden Bericht der deutschen Ethik-Kommission. So wurde in Ziffer 7 beispielsweise festgehalten, dass „der Schutz menschlichen Lebens in einer Rechtsgüterabwägung höchste Priorität“ besitzt: „Die Programmierung ist deshalb im Rahmen des technisch Machbaren so anzulegen, im Konflikt Tier- oder
34 Ethik-Kommission 2017, S. 12. 35 Ebd., S. 13, Ziffer 18. Ausdrücklich zustimmungspflichtig ist die Nutzung der Daten hingegen für geschäftliche Zwecke, insofern die Ethik-Kommission in diesem Kontext die Datenhoheit ganz klar den Verkehrsteilnehmern zugesteht. Vgl. ebd., S. 12, Ziffer 15. 36 Ebd., S. 13, Ziffer 18. 37 Siehe bspw. Gerdes/Thornton 2015, S. 87–102.
Autonomes Fahren vor dem Durchbruch
83
Sachschäden in Kauf zu nehmen, wenn dadurch Personenschäden vermeidbar sind.“38 Wesentlich komplizierter wird es jedoch, wenn man aus dem Ethikbericht konkrete Regeln zum richtigen Verhalten in Gefahren- oder Unfallsituationen ableiten möchte, in die ausschließlich Personen involviert sind. Einerseits heben die Experten mehrfach hervor, dass die Würde des Menschen unantastbar ist (Art. 1 Abs. 1 GG), sie bezeichnen das Individuum als „sakrosankt“, und führen vor diesem Hintergrund in Ziffer 9 aus, dass „bei unausweichlichen Unfallsituationen […] jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt“ ist, und in diesem Zuge folglich „eine Aufrechnung von Opfern […] untersagt“ ist.39 Andererseits finden sich neben dem Verweis auf scheinbar unumstößliche deontologische Normen und Prinzipien immer auch utilitaristische Überlegungen. So heißt es im nächsten Satz: „Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein.“40 Bei der vorab programmierten Schadensminimierung innerhalb der Kategorie von Personenschäden findet sich im nächsten Satz zunächst die Regel, dass „die an der Erzeugung von Mobilitätsrisiken Beteiligten […] Unbeteiligte nicht opfern“41 dürfen. Zusätzlich werden in den nachgestellten Diskussionsergebnissen des Gremiums folgende Abwägungen aufgelistet: „Sachschäden vor Personenschäden, Verletzung von Personen vor Tötung, geringstmögliche Zahl von Verletzten oder Getöteten.“42 Daten sind eine Abstraktion der Wirklichkeit. Sie repräsentieren einen Ausschnitt der Wirklichkeit (Closed World Assumption), der ihnen aufgrund der technischen Möglichkeiten und aufgrund von bestimmten Vorentscheidungen von Programmierern zugänglich ist. Sie können die Wirklichkeit aber nie in ihrer ganzen Fülle erfassen (Open World Assumption). Die faktische Vergleichbarkeit zwischen unterschiedlichen Szenarien findet deshalb auch dort ihre Grenzen, wo sie unmittelbar auf die Realität trifft. So räumt auch die Kommission ein, dass „Entscheidungen, wie die Entscheidung Leben gegen Leben, […] von der konkreten tatsächlichen Situation unter ‚Einschluss unberechenbarer‘ Verhaltensweisen Betroffener abhängig“ und sie „deshalb nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar“ sind.43 Die Modellierung von Sachverhalten stößt also relativ zügig an Grenzen, die bei folgeschweren Entscheidungen, wie DilemmaSituationen, äußerst unangenehme Fragen aufwerfen könnten. Der Bericht der Ethik-Kommission zeigt, wie man die Entwicklung des autonomen Fahrens weiter vorantreiben kann und zugleich diesem Problem elegant aus 38 Ethik-Kommission 2017, S. 11, Ziffer 7. So einleuchtend sich das an dieser Stelle auch anhören mag – in der Realität ist die Abschätzung der Folgekosten eines Sachschadens in Echtzeit (noch) nicht möglich, weshalb auch das Expertengremium in den nachfolgenden Diskussionsergebnissen darauf verweist, „dass eine Normierung aller Situationen nicht möglich ist“. EthikKommission 2017, S. 17. 39 Ebd., S. 11, Ziffer 9. 40 Ebd. 41 Ebd. 42 Ebd., S. 18. 43 Ebd., S. 11, Ziffer 8.
84
Christopher Koska
dem Weg geht. Im Hinblick auf die Programmierbarkeit werden drei Möglichkeiten in Betracht gezogen, die das Verhalten in konkreten Gefahrensituationen regeln könnten: i) „In Notsituationen muss das Fahrzeug autonom, d. h. ohne menschliche Unterstützung, in einen ‚sicheren Zustand‘ gelangen. Eine Vereinheitlichung insbesondere der Definition des sicheren Zustandes oder auch der Übergaberoutinen ist wünschenswert.“44 Diese Regel zur Lösung von Unfällen zäumt das Pferd in gewisser Weise von hinten auf, indem hier die eingangs zitierte Vorstellung erneut zum Ausdruck kommt, „dass am Ende der Entwicklung Kraftfahrzeuge stehen, die inhärent sicher sind, also unter allen Umständen einen Unfall vermeiden können.“ Wenngleich das technisch (noch) nicht realisierbar ist, wie mehrfach mit Bezug auf die Restrisiken an anderen Stellen ersichtlich wird, bleibt diese Anforderung die deutlichste Aussage zu diesem Thema im gesamten Bericht. Eine weiterführende Überlegung, die diesem Umstand Folge leistet, tritt in den ethischen Regeln nur sehr holzschnittartig auf. Letztlich geht es dabei ii) um eine mathematische Gleichverteilung des Risikos: „Hier ist nämlich eine Wahrscheinlichkeitsprognose aus der Situation zu treffen, bei der die Identität der Verletzten oder Getöteten (im Gegensatz zu den Trolley-Fällen) noch nicht feststeht. Eine Programmierung auf die Minimierung der Opfer […] könnte insoweit jedenfalls ohne Verstoß gegen Art. 1 Abs. 1 GG gerechtfertigt werden, wenn die Programmierung das Risiko eines jeden einzelnen Verkehrsteilnehmers in gleichem Maße reduziert. Solange nämlich die vorherige Programmierung für alle die Risiken in gleicher Weise minimiert, war sie auch im Interesse der Geopferten, bevor sie situativ als solche identifizierbar waren.“45 Wie sich das konkret ausgestalten lässt, bleibt aber, wie bereits erwähnt, in weiten Teilen noch unklar. Während die Autoren im nächsten Absatz erneut unterstreichen, dass Menschenleben auch in Notstandssituationen nicht gegeneinander „verrechenbar“ sind, gewinnt das utilitaristische Prinzip im darauffolgenden Absatz wieder die Oberhand, in dem Situationen angeführt werden, in denen es durchaus vertretbar scheint „zu fordern, es solle die Handlungsvariante gewählt werden, die möglichst wenig Menschenleben kostet“.46 Insgesamt bleibt die Position der Kommission deshalb in vielerlei Hinsicht entweder unentschieden oder unterbestimmt. Das Ringen zwischen Qualität (keine Identität, aber Unbeteiligte vor Beteiligten, Verletzung vor Tötung etc.) und Quantität (Handlungsvariante mit geringster Opferzahl) verdeutlicht an dieser Stelle aber auch, dass hier kein völlig vorurteilsfreier Zufallsgenerator diskutiert wird, der laut einer Bitkom-Studie47 übrigens die geringste gesellschaftliche Zustimmung im Kontext von unvermeidbaren Unfällen besitzt, sondern ein ziemlich smarter. Allein die Tatsache, dass aktuell weder i) die automatische Überführung der Fahrzeuge in einen „sicheren Zustand“ universell gewährleistet werden kann, noch ii) eine allgemeingültige Einigung zu Wertkonflikten in Aussicht gestellt werden kann, führt uns zur dritten Möglichkeit: iii) dem Sammeln und Analysieren weiterer Fahrdaten. Denn theoretisch ermöglicht der sogenannte Schattenmodus, richtiges 44 45 46 47
Ethik-Kommission 2017, S. 13, Ziffer 19. Ebd., S. 18. Ebd. Vgl. Bitkom e.V. 2017, S. 9.
Autonomes Fahren vor dem Durchbruch
85
und falsches Verhalten von menschlichen Fahrzeugführern systematisch zu verarbeiten. Für diese Lösung spricht zudem, dass mit dem Autofahrer, im Vergleich zum derzeit technisch möglichen Niveau, eine zur moralischen Reflexion fähige Entscheidungsmoral bestimmte Verkehrssituationen beurteilen würde. So schlägt auch das Expertengremium in diesem Zusammenhang vor: „Es wäre gerade deshalb wünschenswert, durch eine unabhängige öffentliche Einrichtung (etwa einer Bundesstelle für Unfalluntersuchung automatisierter Verkehrssysteme oder eines Bundesamtes für Sicherheit im automatisierten und vernetzten Verkehr) Erfahrungen systematisch zu verarbeiten.“48 Die abstrakte Diskussion von Dilemma-Situationen wird damit vom Elfenbeinturm direkt auf die Straße verlagert und der bereits erwähnte Szenarien-Katalog äußerst effizient erweitert. Die Erhebung und Analyse von Fahrzeugdaten wird im Bericht der Ethik-Kommission folglich auch nur im Zusammenhang mit geschäftlichen Zwecken so geregelt, dass sie einer Freigabe durch die Eigentümer unterliegt.49 Wer intelligente Assistenzsysteme bis hin zum Autopiloten nutzt, wird sich künftig bereits mit den AGBs des Kaufvertrags dazu bereit erklären müssen, dass seine Fahrdaten (zumindest anonymisiert) ausgewertet werden. Dieser Sachverhalt erschließt sich bereits aus der Tatsache, dass den Herstellern und Betreibern von fahrerlosen Systemen, bei ordnungsgemäßen Gebrauch durch die Kunden, die Verantwortung für deren Funktionsfähigkeit zukommen soll.50 Die Datenschutzrichtlinien von Tesla zeigen, welche Daten in diesem Zusammenhang (und darüber hinaus) bereits erhoben werden. Genannt werden unter anderem Kameradaten, beispielsweise Videoaufnahmen von Unfällen oder Aufnahmen von den Außenkameras, um Dinge wie Straßenmarkierungen, Straßenschilder und Ampelstellungen zu erkennen, Brems- und Beschleunigungsdaten, Informationen über die Verwendung und den Betrieb des Autopiloten, wie zu den Übergabeprozessen vom Autopiloten an den Fahrer (Summon) u.v.m. Wenngleich den Kunden von Tesla eine Wahlfreiheit bzgl. der Datenfreigabe eingeräumt wird, weist das Unternehmen auch in aller Deutlichkeit darauf hin, dass durch den Widerspruch zur Datenerfassung „ernsthafte Schäden oder Funktionsunfähigkeit eintreten können“.51 Selbstfahrende Fahrzeuge sind auf Bild- und Sensordaten angewiesen. Die Kamerabilder werden aber weniger mit den Ansätzen der herkömmlichen Objekterkennung ausgewertet. Die Automobilindustrie investiert derzeit massiv in KI-Abteilungen, die „tiefe“ neuronale Netze trainieren (deep learning), um Verkehrsszenen zu analysieren. Die theoretischen Grundlagen wurden dafür bereits in den 1950erund 1980er-Jahren gelegt, aber erst die riesigen Datenmengen, die inzwischen von allen modernen Autos gesammelt werden (siehe oben), sowie die stetige Leistungssteigerung der Computer ermöglichen es, mehrschichtige neuronale Netze für die automatische Analyse von Verkehrsszenen zu nutzen. Millionen von unterschiedlichen Szenen können nach bestimmten Mustern durchsucht werden, indem sie in 48 49 50 51
Ethik-Kommission 2017, S. 11, Ziffer 8. Vgl. ebd., S. 12, Ziffer 15. Vgl. ebd., S. 12, Ziffer 11. Vgl. Teslas Kundendatenschutzrichtlinie, online abrufbar unter https://www.tesla.com/de_DE/ about/legal.
86
Christopher Koska
mehrdimensionale Vektorräume übertragen werden. Die Ähnlichkeit zwischen potenziellen Gefahren- oder Unfallsituationen kann in dem mathematischen Modell dann über ähnlich ausgerichtete Vektoren bestimmt werden. Mit Blick auf die Funktionstüchtigkeit sowie die Leistungsfähigkeit des Autopiloten ist der Zugang zu den (anonymisierten) Fahrdaten für die Hersteller selbstfahrender Fahrzeuge deshalb essenziell. Wer über einen detaillierten Datenkorpus verfügt, besitzt gewissermaßen auch einen Wettbewerbsvorteil gegenüber Mitbewerbern. Dieser Umstand ist auch eine Erklärung, weshalb Tesla am Aktienmarkt so hoch bewertet wird. Sollte sich das autonome Fahren durchsetzen, müssen sich die klassischen Automobilhersteller als Softwarehersteller und Datenanalysten neu beweisen, um nicht aus dem Markt gedrängt zu werden. Unter den Vorzeichen der aktuellen Entwicklungsansätze kann die Konstitution des moralischen Betriebssystems autonomer Fahrzeuge derzeit also als ein Spiegelbild der kollektiven Moral all jener verstanden werden, die die Systeme mit Daten füttern. Das drängendste Problem besteht bei diesem Vorgehen aus meiner Sicht darin, dass es Gefahr läuft, einen naturalistischen Fehlschluss zu implizieren, indem von der Analyse der Wirklichkeit auf eine normative Regelung geschlossen wird. Hinzu kommt, dass Autofahrer in Gefahren- und Unfallsituationen in den meisten Fällen sicherlich nicht über die notwendige Zeit verfügen, um die Kriterien für eine ethische Entscheidung gegeneinander abzuwägen, sondern in vielen Fällen einfach nur im Affekt handeln. Einrichtungen, die auf nationaler und internationaler Ebene als Kontrollinstanz für Szenarien-Kataloge fungieren und die Ethik der Algorithmen überprüfen, sind deshalb dringend notwendig. 5 TRANSPARENZ, VERANTWORTUNG UND VERTRAUEN Der Blick auf die schrittweise Einführung des autonomen Fahrens hat gezeigt, dass sich die theoretische Auseinandersetzung mit ethischen Dilemma-Situationen zunehmend auf eine Beobachtung der Interaktionspraxis zwischen Mensch und Maschine verschiebt. Im Wechselspiel von Autopilot und menschlichem Fahrer entstehen riesige Mengen an Fahrdaten (Big Data), die auf zentralen Servern gesammelt und mit Verfahren der künstlichen Intelligenz ausgewertet werden.52 Mit Hilfe von neuronalen Netzen (Deep Learning) kann der anwachsende Datenkorpus nach bestimmten Mustern durchsucht und ein Szenarien-Katalog erstellt bzw. erweitert werden. Erfolgreiche Lösungsstrategien können von selbstlernenden Steuerungsund Kontrollsystemen adaptiert werden, wodurch die Abhängigkeit von einem menschlichen Fahrer mit der Zeit verringert wird. Der Mensch, als moralfähige 52
Allein in den ersten 18 Monaten seit Einführung des Autopiloten (2014) sammelte Tesla 780 Millionen Meilen an „Realworld-Fahrdaten“ (Simonite 2016). Im September 2016 waren etwa 90.000 Fahrzeuge von Tesla unterwegs, die dem Unternehmen täglich Daten zu weiteren 1,5 Millionen Meilen schickten (Hull 2016). Inzwischen dürfte der Datenkorpus also nochmals beträchtlich größer sein, da die Modelle S und X von Tesla, laut einer inoffiziellen Schätzung, bereits an über 250.000 Kunden ausgeliefert wurden (siehe http://live-counter.com/TESLA, abgerufen am 20.11.2017).
Autonomes Fahren vor dem Durchbruch
87
Instanz, muss bei potenziellen Gefahren- und Unfallsituationen aber bis auf Weiteres die Steuerung vom Autopiloten übernehmen und sich im Schadensfall für sein Handeln verantworten. Wenngleich automatisierte Fahrsysteme sich bis zu einem gewissen Grad sowohl deontologisch als auch utilitaristisch programmieren lassen,53 wird der historische Streit, ob die Tat selbst (bzw. die Unterlassung) oder deren Konsequenz im Zentrum einer moralischen Bewertung stehen sollte, durch die Nutzung intelligenter Systeme zunächst weitestgehend ausgeklammert.54 Denn weder die Politik noch die Wirtschaft scheinen derzeit dazu bereit, den Vorteil der Zeitdehnung umfassend nutzen zu wollen, um vorab Entscheidungen zu treffen, für die sie später zur Verantwortung gezogen werden könnten. Derzeit deuten deshalb alle Anzeichen darauf hin, dass die Einführung des autonomen Fahrens sich als eine „stille Revolution“55 vollziehen wird, bei der die Algorithmen zur Steuerung und Kontrolle äußerst behutsam im Verborgenen optimiert werden. Gleichwohl dieses Vorgehen eine elegante Antwort auf das Dilemma mit den Dilemma-Situationen ist und sicherlich auch weniger Gegenwehr bei all jenen auslösen wird, die weiterhin „Freude am Fahren“ (BMW) empfinden wollen (Gewährleistung der persönlichen Entscheidungsfreiheit), bleiben wichtige Fragen offen. So kann mit gutem Recht daran gezweifelt werden, inwiefern ethische Grundprinzipien wie Transparenz, Diskursivität und Reflexivität von menschlichen Fahrzeugführern in einer unmittelbaren Gefahren- oder Unfallsituation gewährleistet werden können, da in solchen Szenarien eher aus dem Affekt heraus gehandelt bzw. reagiert wird. Die Beobachtung des Verhaltens der Fahrer allein führt also noch nicht zu einem ethisch begründeten Betriebssystem für selbstfahrende Fahrzeuge, sondern zu einem Sein-Sollen-Fehlschluss. In einem nächsten Schritt wäre es deshalb notwendig, Transparenz für eine Rückschau zu schaffen, das heißt, wir müssten die Entscheidungskriterien für ein bestimmtes Fahrverhalten zurückverfolgen können und über handhabbare Verfahren verfügen, um den Datenkorpus nachträglich zu „kurieren“. Denn die Rückführbarkeit und Nachvollziehbarkeit sind eine zentrale Voraussetzung für die Zuschreibung von Verantwortung. Die Komplexität und Undurchdringbarkeit von mehrschichtigen neuronalen Netzen stellt die Transparenzforderung jedoch vor große und derzeit unüberwindbare Hindernisse.56 Komplexe Netzwerk-Informations-Algorithmen könnten für den menschlichen Verstand möglicherweise gänzlich unerforschbar und ihr Verhalten für uns unvorhersagbar bleiben. Einige Forscher rufen deshalb bereits dazu auf, das ethische Ideal der Transparenz besser komplett fallen zu lassen.57 Andere su53 54
55 56 57
„Constraints“ und „Costs“, vgl. Gerdes/Thornton 2015. „I should add a note here to explain why Tesla is deploying partial autonomy now, rather than waiting until some point in the future. The most important reason is that, when used correctly, it is already significantly safer than a person driving by themselves and it would therefore be morally reprehensible to delay release simply for fear of bad press or some mercantile calculation of legal liability.“ Musk 2016. Bunz 2012. Vgl. Mittelstadt et al. 2016. Vgl. Ananny/Crawford 2016.
88
Christopher Koska
chen nach neuen Wegen, um die personale Autonomie, beispielsweise auf einem höheren Abstraktionslevel, zu gewährleisten.58 Abzuwarten bleibt, wann wir den Punkt erreichen, an dem wir einer künstlichen Intelligenz mehr Vertrauen schenken als einem menschlichen Fahrzeugführer, das heißt, dass wir dem Autopiloten, gerade auch in kritischen Situationen, irgendwann unser Leben vermutlich lieber anvertrauen als uns selbst. Vor diesem Hintergrund lässt sich zusammenfassend feststellen: Das Motiv, mit Big Data und künstlicher Intelligenz die Sicherheit im Straßenverkehr zu erhöhen, führt derzeit zu keiner direkten Antwort für ethische Dilemma-Situationen, da die steigende Komplexität und Dynamik zugleich die Opazität der Systeme erhöht. Die gegenwärtige Einführung des Schattenmodus sowie Fleet Learnings geben gleichwohl eine indirekte Antwort auf die Nichtlösbarkeit von Dilemmata im Straßenverkehr: Das vorübergehende „Outsourcing der Moral“ – von den Experten über die Schwarmintelligenz der Autofahrer bis hin zur künstlichen Intelligenz – ist Ausdruck eines Pragmatismus, der ein utilitaristisches Nutzenkalkül befördert, ohne zwingende Evidenzen für konkrete Einzelsituationen sichtbar einzufordern. Die Ethik ist in diesem Kontext also aufgefordert, das traditionelle Verständnis von Verantwortung und Vertrauen zu erweitern. 6 SCHLUSSGEDANKEN Abschließend möchte ich in diesem Kontext die Sinnhaftigkeit des Rechts, „nicht einer ausschließlich auf einer automatisierten Verarbeitung […] beruhenden Entscheidung unterworfen zu werden“ (Art. 22 DSGVO), thematisieren.59 Fraglich ist, ob herkömmliche Ansätze, wie die Überwachung einer „Whitelist“ für erfolgreiche Lösungsstrategien oder einer „Blacklist“ für falsche Verhaltensweisen, bereits ausreichen, um diesem Recht genüge zu leisten. Wenn es darum geht, eine abgrenzbare Institution oder konkrete Person im Schadensfall zur Verantwortung zu ziehen oder darum, die Zuschreibung von Vertrauen an eine personale Identität zu knüpfen, so mag dies ein profanes Mittel sein, um den Anspruch der traditionellen Ethik weiterhin zu gewährleisten. Möglicherweise kommt in diesem Gesetz aber in erster Linie die Kränkung des menschlichen Selbstverständnisses zum Ausdruck, dass Maschinen uns bereits in vielen Bereichen überlegen sind. Maschinen können sich selbst nicht in ein normativ-wollendes Verhältnis zu bestimmten Werten setzen.60 Deshalb ist es richtig und wichtig, dass Menschen vor Entscheidungen, die ausschließlich auf einer automatisierten Verarbeitung beruhen, geschützt werden. Doch falls Maschinen aufgrund einer verbesserten Sensorik und eines umfangreicheren Datenschatzes den ideellen Wert einer Sache schneller erfassen und komplexe Gefahrenoder Unfallsituationen eines Tages wesentlich besser in Echtzeit bewältigen können
58 Vgl. Doshi-Velez et al. 2017. 59 Siehe bspw. Gola et al. 2017, S. 411ff. 60 Vgl. Gransche et al. 2014, S. 45 bzw. Gottschalk-Mazouz 2008, S. 7.
Autonomes Fahren vor dem Durchbruch
89
als Menschen, welche Rolle spielt es dann noch, ob sie zusätzlich über die Fähigkeit verfügen, diesen Wert (im Sinne Immanuel Kants) auch anzuerkennen?61 Der Anspruch, solch enge Kriterien als Maßstab für eine maschinenoperable Ethik zu verwenden, führt schnell zu dem ökonomischen Einwand, ob wir es uns in Europa und vor allem auch in Deutschland leisten können, den wirtschaftspolitischen Gestaltungsraum für die Entwicklung autonomer Fahrzeuge unnötig, das heißt aufgrund eines „diffusen allgemeinen Unbehagens“62, zu beschränken – so hart das auch klingen mag: Die Weiterentwicklung des autonomen Fahrens wird sich dadurch sicherlich nicht aufhalten lassen. Das Festhalten an traditionellen Überzeugungen kann, wie oben bereits erwähnt, sogar als moralisch verwerflich ausgelegt werden, wenn der „Human-in-the-Loop“ die Reaktion der Maschine ausbremst und andere Menschen deshalb unnötig sterben oder schwer verletzt werden. Eine systematische Auswertung des Szenarien-Katalogs könnte dazu beitragen, diejenigen Verkehrssituationen einzugrenzen, bei denen dies der Fall ist, und eine Übernahme der Steuerung durch den Autopiloten rechtfertigen – selbst wenn die persönliche Entscheidungsfreiheit dadurch partiell eingeschränkt werden würde. Aus ethischer Perspektive erfordert der digitale Imperativ des autonomen und vernetzten Fahrens deshalb den Gegenstandsbereich des Artikels 22 der DSGVO wesentlich differenzierter zu betrachten. Insofern sich die Informatik hier zunehmend zur angewandten „Echtzeit-Ethik“ entwickelt, muss dieser Gegenstandsbereich sowie die Methoden und Heuristiken in einem interdisziplinären Team professionell erschlossen werden.63 Für die Gestaltung eines ethischen Betriebssystems für autonomes und vernetztes Fahren bedeutet dies eine kontextbezogene Veränderung im Umgang mit bestimmten Daten (Datenethik) sowie eine kontinuierliche Anpassung bzw. Erweiterung der maschinellen Auswahl- und Entscheidungsprozesse an die allgemeinen Prinzipien einer humanen Gesellschaft (Ethik für Algorithmen). Autonome Steuerungs- und Kontrollsysteme in Orientierung an der menschlichen Person zu gestalten64 bedeutet auch, den Menschen als Selbstzweck zu achten, d. h. ihn nicht ungefragt bzw. unwissend (im Schattenmodus) zu benutzen, um die KI-Software der Autos zu trainieren. Menschliche Fahrzeugführer liefern durch ihr Fahrverhalten bereits Daten, welche die eingangs vom Hersteller festgelegten Entscheidungskriterien von Algorithmen verändern können (Fleet Learning). Ohne eine ethische Begründung der angewandten Praxis ist das, nach unserem bisherigen Verständnis, aber vermutlich nicht ausreichend, um dem Recht aus Artikel 22 der DSGVO („nicht einer ausschließlich auf einer automatisierten Verarbeitung […] beruhenden Entscheidung unterworfen zu werden“) gerecht zu werden – auch wenn die Unfallstatistik dadurch weiter gesenkt werden würde. Um den absehbaren Mehrwert automatisierter Steuerungssystemen auch in kritischen Situationen zu legitimieren, müssen die
61 Vgl. Kant 1999 [1785/86]. 62 Gola et al. 2017, S. 411. 63 Inwiefern der Aspekt der Echtzeit-Ethik darüber hinaus auch im Kontext von Echtzeit-Öffentlichkeiten thematisiert werden sollte, zeigen u. a. Altmeppen et al. 2015. 64 Vgl. Koska/Filipović 2017, S. 188ff.
90
Christopher Koska
Verantwortungsrelationen für Mensch-Maschine-System-Schnittstellen also konkreter erfasst und der rechtliche Rahmen sinnvoll ergänzt werden. BIBLIOGRAFIE ADAC (2017): ADAC-Untersuchung: Datenkrake Pkw. Online: https://www.adac.de/infotestrat/ adac-im-einsatz/motorwelt/datenkrake_auto.aspx (Abruf: 10.12.2017). Altmeppen, Klaus-Dieter/Bieber, Christoph/Filipović, Alexander/Heesen, Jessica (2015): EchtzeitÖffentlichkeiten. Neue digitale Medienordnungen und neue Verantwortungsdimensionen. In: Klaus-Dieter Altmeppen, Andreas Büsch und Alexander Filipović (Hrsg.): Communicatio Socialis. Zeitschrift für Medienethik und Kommunikation in Kirche und Gesellschaft, 48, Nr. 4. Online abrufbar unter: http://ejournal.communicatio-socialis.de/index.php/cc/article/view/1099/ 1097. Ananny, Mike/Crawford, Kate (2016): Seeing without knowing. Limitations of the transparency ideal and its application to algorithmic accountability. In: New Media & Society, Vol. 20 (3), S. 973–989. Online abrufbar unter: https://doi.org/10.1177/1461444816676645. Becker, Joachim (2016): Bequem chauffiert – oder ferngesteuert ins Verderben? In: Süddeutsche Zeitung, 17.07.2016. Online: http://www.sueddeutsche.de/auto/automatisiertes-fahren-bequemchauffiert-oder-ferngesteuert-ins-verderben-1.3075944 (Abruf: 10.12.2017). Bitkom e.V. (2017): Autonomes Fahren und vernetzte Mobilität. Berlin, 15.02.2017. Online: https:// www.bitkom.org/Presse/Anhaenge-an-PIs/2017/02-Februar/Bitkom-Charts-Mobility15-02-2017-final.pdf. Bundesanstalt für Straßenwesen (Hrsg.) (2012): Rechtsfolgen zunehmender Fahrzeugautomatisierung. Forschung kompakt 11/12. Online abrufbar unter: http://www.bast.de/DE/Publikationen/ Foko/Downloads/2012-11.pdf. Bundesanstalt für Straßenwesen (Hrsg.) (2014): Mobility & ITS. CEDR Transnational Road Research Programme, Call 2014. Description of Research Needs (DoRN). Dezember 2014. Online abrufbar unter: http://www.bast.de/DE/BASt/Forschung/Forschungsfoerderung/Downloads/cedr_call_2014_2.pdf. Bunz, Mercedes (2012): Die stille Revolution. Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen. Orig.-Ausg., 2. Aufl. Berlin: Suhrkamp. Doshi-Velez, Finale/Kortz, Mason et al. (2017): Accountability of AI Under the Law. The Role of Explanation. 21.11.2017.Online: http://arxiv.org/pdf/1711.01134v2 (Abruf: 10.12.2017). Engisch, Karl (1930): Untersuchungen über Vorsatz und Fahrlässigkeit im Strafrecht. Berlin: O. Liebmann. Ethik-Kommission (2017): Automatisiertes und vernetztes Fahren. Bericht. Bundesministerium für Verkehr und digitale Infrastruktur. Juni 2017. Online abrufbar unter https://www.bmvi.de/ SharedDocs/DE/Publikationen/DG/bericht-der-ethik-kommission.pdf. European Commission (2016): Mobility and Transport. Road Safety. Statistics – accidents data. Hrsg. v. European Commission. Online: http://ec.europa.eu/transport/road_safety/specialist/ statistics_en (Abruf: 23.12.2017). Frankfurter Allgemeine Zeitung (2016): Nächstes Jahr fährt das Auto alleine nach New York. 20.10.2016. Online: http://www.faz.net/aktuell/wirtschaft/tesla-chef-musk-kuendigt-komplettautonome-autos-fuer-naechstes-jahr-an-14489505.html (Abruf: 10.12.2017). Gerdes, J. Christian/Thornton, Sarah M. (2015): Implementable Ethics for Autonomous Vehicles. In: Maurer, Markus et al. (Hrsg.): Autonomes Fahren. Technische, rechtliche und gesellschaftliche Aspekte. Berlin/Heidelberg: Springer Vieweg, S. 87–102. Online abrufbar unter: https:// link.springer.com/content/pdf/10.1007%2F978-3-662-45854-9_5.pdf. Gola, Peter/Eichler, Carolyn/Franck, Lorenz/Klug, Christoph/Lepperhoff, Niels (Hrsg.) (2017): Datenschutz-Grundverordnung. VO (EU) 2016/679: Kommentar. München: C.H. Beck.
Autonomes Fahren vor dem Durchbruch
91
Gottschalk-Mazouz, Niels (2008): „Autonomie“ und die Autonomie „autonomer technischer Systeme“. Deutsche Gesellschaft für Philosophie. Essen, 18.09.2008. Online: http://www.dgphil2008. de/fileadmin/download/Sektionsbeitraege/07_Gottschalk-Mazouz.pdf (Abruf: 10.12.2017). Gransche, Bruno/Shala, Erduana/Hubig, Christoph/Alpsancar, Suzana/Harrach, Sebastian (2014): Wandel von Autonomie und Kontrolle durch neue Mensch-Technik-Interaktionen. Grundsatzfragen autonomieorientierter Mensch-Technik-Verhältnisse. Stuttgart: Fraunhofer Verlag. Grau, C. (2006): There Is No „I“ in „Robot“. Robots and Utilitarianism. In: IEEE Intelligent Systems, Vol. 21 (4), S. 52–55. Online abrufbar unter: https://doi.org/10.1109/MIS.2006.81. Hull, Dana (2016): Musk Says Tesla’s New Autopilot Could Have Saved Driver. Bloomberg, 11.09.2016. Online: https://www.bloomberg.com/news/articles/2016-09-11/tesla-alters-autopilot-to-emphasize-radar-images-over-cameras (Abruf: 10.12.2017). Kant, Immanuel (1999 [1785/86]): Grundlegung zur Metaphysik der Sitten. Herausgegeben von Bernd Kraft und Dieter Schönecker. Hamburg: Meiner (Philosophische Bibliothek, 519). Koska, Christopher/Filipović, Alexander (2017): Gestaltungsfragen der Digitalität. Zu den sozialethischen Herausforderungen von künstlicher Intelligenz, Big Data und Virtualität. In: Bergold, Ralph/Sautermeister, Jochen/Schröder, André (Hrsg.): Dem Wandel eine menschliche Gestalt geben. Sozialethische Perspektiven für die Gesellschaft von morgen. Freiburg: Herder Verlag. Lin, Patrick (2015): Why Ethics Matters for Autonomous Cars. In: Maurer, Markus et al. (Hrsg.): Autonomes Fahren. Technische, rechtliche und gesellschaftliche Aspekte. Berlin/Heidelberg: Springer Vieweg, S. 69–85. Online abrufbar unter: https://link.springer.com/content/pdf/10.10 07%2F978-3-662-45854-9_5.pdf. McGoogan, Cara (2016): ‚You’ re killing people‘: Elon Musk attacks critics of self-driving cars. The Telegraph, 20.10.2016. Online: http://www.telegraph.co.uk/technology/2016/10/20/youre-killing-people-elon-musk-attacks-critics-of-self-driving-c/ (Abruf: 10.12.2017). Mittelstadt, B. D./Allo, P./Taddeo, M./Wachter, S./Floridi, L. (2016): The ethics of algorithms. Mapping the debate. In: Big Data & Society, Vol. 3 (2). Online abrufbar unter: https://doi.org/ 10.1177/2053951716679679. Musk, Elon (2016): Master Plan, Part Deux. Tesla, 20.07.2016. Online: https://www.tesla.com/de_ DE/blog/master-plan-part-deux?redirect=no (Abruf: 10.12.2017). Peitsmeier, Henning (2015): Der Autopilot will endlich ans Steuer. Frankfurter Allgemeine Zeitung, 02.06.2015. Online: http://www.faz.net/aktuell/wirtschaft/neue-mobilitaet/selbstfahrende-wagen-der-autopilot-will-endlich-ans-steuer-13624203.html (Abruf: 10.12.2017). Rixecker, Kim (2017): Facebook will unsere Gedanken auf den Computer bringen. t3n, 20.04.2017. Online: http://t3n.de/news/facebook-gedanken-computer-816174/ (Abruf: 10.12.2017). Rötzer, Florian (2017): Brauchen Roboter eine Ethik und handeln Menschen moralisch? Telepolis, 31.10.2017. Online: https://www.heise.de/tp/features/Brauchen-Roboter-eine-Ethik-und-handeln-Menschen-moralisch-3876309.html (Abruf: 10.12.2017). SAE international (2014): Automated Driving. Levels of driving automation are defined in new SAE international standard J3016. OEM Off-Highway, 18.06.2014. Online abrufbar unter: https:// www.oemoffhighway.com/electronics/smart-systems/automated-systems/document/12183694/ automated-driving-levels-of-driving-automation-are-defined-in-new-sae-international-standard-j3016 (Abruf: 13.01.2017). Simonite, Tom (2016): Tesla Tests Self-Driving Functions with Secret Updates to Its Customers’ Cars. MIT Technology Review, 24.05.2016. Online: https://www.technologyreview.com/s/601567/ tesla-tests-self-driving-functions-with-secret-updates-to-its-customers-cars/ (Abruf: 10.12.2017). Statistisches Bundesamt (Hrsg.) (2016): Unfallursachen. Fehlverhalten der Fahrzeugführer bei Unfällen mit Personenschaden. Online: https://www.destatis.de/DE/ZahlenFakten/Wirtschaftsbereiche/TransportVerkehr/Verkehrsunfaelle/Tabellen/FehlverhaltenFahrzeugfuehrer.html (Abruf: 08.12.2017). Stiftung Warentest (2017): Connected Cars: Die Apps der Auto hersteller sind Daten schnüffler. test. de, 26.09.2017. Online abrufbar unter: https://www.test.de/Connected-Cars-Die-Apps-derAutohersteller-sind-Datenschnueffler-5231839-0.
92
Christopher Koska
Urban, Tim (2017): Neuralink and the Brain’s Magical Future. Wait But Why, 20.04.2017. Online: https://waitbutwhy.com/2017/04/neuralink.html (Abruf: 28.12.2017). World Health Organization (Hrsg.) (2015): Global Status Report on Road Safety 2015. WHO, Genf. Online: http://docs.dpaq.de/9791-2015_who_sicherheit_stra_enverkehr_.pdf (Abruf: 10.12.2017).
NARRATIVE ETHIK IN DER FORSCHUNG ZUM AUTOMATISIERTEN UND VERNETZTEN FAHREN Petra Grimm, Susanne Kuhnert
1 ETHIK IN DER INTERDISZIPLINÄREN FORSCHUNG Eine zukunftsorientierte Technikforschung braucht die Einbindung von Ethik für die Qualitätssicherung ihrer Ergebnisse. Dass die Technik für ein gutes Leben der Menschen sorgen sollte, ist kein triviales Diktum, allein schon deshalb, weil die Möglichkeiten von neuen Technologien den Menschen und sein Selbstverständnis zunehmend in Frage stellen. Es muss über das Menschliche und das Zwischenmenschliche reflektiert werden, denn mögliche Zukunftsentwürfe verändern die Aufgaben und das Dasein der Menschen.1 In der Technikforschung steht die Mensch-Maschine-Interaktion im Mittelpunkt, sie wirft die meisten Fragen über das neue Verhältnis von Menschen und Maschinen auf. Aufgabe der Ethik ist es, sich damit auseinanderzusetzen sowie sinnvolle Argumente für gelungene Lebensentwürfe und eine humangerechte Technikgestaltung zu liefern, damit ein Diskurs über mögliche Zukunftsentwürfe stattfinden kann. Die Mobilität der Zukunft könnte revolutionäre Auswirkungen auf die Gesellschaft haben und die Forschung ist dazu angehalten, hierbei die Folgen und Auswirkungen aus ethischer Perspektive zu berücksichtigen. In diesem Artikel wird ein neuer Ansatz für die Anwendung einer narrativen Ethik am Beispiel der Forschung über das automatisierte und vernetzte Fahren vorgestellt. Es wird versucht zu zeigen, wie eine narrative Ethik die etablierten Argumentations- und Kommunikationsformen der Ethik – speziell in der interdisziplinären Forschung – ergänzen kann. Zunächst wird hierfür auf das Verhältnis von Narrationen und Werten eingegangen, um anschließend die Rolle von Geschichten in der Wissenschaft und Forschung zu thematisieren. Neue Erzählungen über die menschliche Zukunft, die Zukunft von Automaten, die Zukunft unseres Planeten und über die Zukunft des Automobils entstehen durch den Einfluss der Automobilhersteller, durch das Marketing, die Kunst und durch die Medien. Anhand der Analyse von Narrationen kann man die impliziten und expliziten Wertvorstellungen, die der Gesellschaft vermittelt werden, deutlich machen und weiterhin die Illusion der Wertneutralität von Technik auflösen. 1
Die Autorinnen werden in dem folgenden Text aus Gründen der Leserlichkeit häufig eine geschlechtsneutrale Form verwenden, wenn von bestimmten Personengruppen die Rede sein wird. Die Autorinnen möchten jedoch betonen, dass in diesen Fällen selbstverständliche alle Geschlechter gemeint sind oder angesprochen werden sollen.
94
Petra Grimm, Susanne Kuhnert
Es soll argumentiert werden, dass ein wertebasiertes Design – das in vielen Forschungsverbünden durch die Einbindung der Ethik angestrebt wird – durch eine narrative Ethik in zweifacher Hinsicht profitieren kann: Mithilfe der Analyse von Narrationen, ihrer anschließenden Kritik und der Formulierung von narrativen Alternativen kann nicht nur der Diskurs über neue Technologien und deren Ausgestaltung bereichert werden, auch die Vermittlerfunktion der Ethik kann durch eine narrative Ethik verstärkt werden. 2 WERTE IN GESCHICHTEN Werte sind Vorstellungen, Ideen bzw. Ideale. Sie bezeichnen, was wünschenswert ist. Nach Lautmanns (1971: 105) sprachanalytischer Begriffsanalyse der Fachliteratur, in der er 180 verschiedene Wertdefinitionen fand, ist unter dem Wertbegriff ein „Maßstab der guten Gegenstände“, ein „Kriterium zur Auswahl der Objekte, die wir anstreben sollen“, ein „normativer Standard zur Beurteilung von Objekten“ sowie ein „Kriterium für normativ gebilligte Gegenstände“ zu verstehen. In der soziologischen und psychologischen Werteforschung werden den Werten bestimmte Funktionen zugeschrieben: Werte können eine Steuerungsfunktion von Handlungen und Verhaltensweisen innehaben (vgl. Scholl-Schaaf 1975: 58). Ebenso können sie die Wahrnehmung der Welt und deren Beurteilung beeinflussen (vgl. Oerter 1970: 115). Nach Reichart (1979: 24) beeinflussen Werte die Motive des Einzelnen und sind inhaltlich mit einem hohen Allgemeinheits- bzw. Abstraktionsgrad ausgestattet (was eine semantische Vagheit des jeweiligen Wertes impliziert); tendenziell sind sie für größere Bevölkerungsgruppen maßgeblich. Zusammengefasst haben Werte somit im Wesentlichen drei Funktionen: Sie können Handlungen steuern, sie sind an unserer Wirklichkeitskonstruktion beteiligt und sie stellen Handlunggründe dar. Die Konstruktion und Hierarchisierung von Werten ist kulturell, historisch und milieubedingt variabel. Allerdings wird aus Sicht der Wert-Ethik von der Gültigkeit historisch übergreifender Grundwerte, die auf das sittliche Gute ausgerichtet sind, ausgegangen. Allgemeingültige Werte sind mit der 1948 durch die Vereinten Nationen beschlossenen Erklärung der Allgemeinen Menschenrechte konsensuell festgeschrieben worden. Aus ethischer Sicht lassen sich moralische Werte von vormoralischen unterscheiden. „Moralische Werte sind“ nach Funiok (2012: 98–99) Gesinnungen, Einstellungen und gute Gewohnheiten (Tugenden): in der Internetethik beispielsweise kluge Zurückhaltung bei der Einstellung persönlicher Daten, Achtung der Urheberrechte anderer, Ehrlichkeit bei der Mitteilung über gespeicherte Daten. Solche moralischen Einstellungen finden sich in Grundsätzen der wirtschaftlichen und politischen Ordnung, wo sie zum Beispiel Demokratie und Menschenrechte sichern helfen. Mit Werten bemühen wir uns, die genannten Güter zu erreichen, sie zu schützen und zu erhalten.
Allein auf sich gestellt bleiben Werte allerdings abstrakt, erst in einer Narration werden sie erfahrbar, weil ihre Bedeutung konkretisiert wird und sie kontextuell eingebunden sind. Geschichten, m. a. W. narrative Kommunikate, vermitteln Werte implizit oder explizit; bei ersterem lassen sie sich durch die narrative Struktur abstra-
Narrative Ethik in der Forschung zum automatisierten und vernetzten Fahren
95
hieren, bei letzterem werden sie im narrativen discours direkt thematisiert.2 So vermittelt z. B. folgende Narration implizit durch die Handlung eine Reihe von Werten: An einem Montag im Frühjahr 2025 fährt ein autonomes Fahrzeug in der Innenstadt eine Straße entlang, am Straßenrand parken Autos. Plötzlich reißt eine junge, gestylte Frau, die auf dem Weg zu ihrem Casting als Model ist, ihre Autotür auf und steigt schnell aus. Gleichzeitig will gegenüber gerade eine ältere Professorin, die in Gedanken vertieft ist, die Straße überqueren. Der Bremsweg ist für das Fahrzeug zu kurz, das Fahrzeug muss entweder ausscheren und würde damit die Professorin anfahren oder es bleibt „auf Kurs“ und würde das Model überfahren. Wie das Fahrzeug tatsächlich reagiert, erzählt ein Fußgänger, der die Situation beobachtete, seinem Freund am nächsten Tag ... Diese Geschichte (mit offenem Ende) adaptiert das Trolley-Dilemma, das in der öffentlichen Diskussion über autonomes Fahren vielfach und variantenreich (aber bislang nicht in dieser Variante) zitiert wurde. Auch wenn in dieser Geschichte nicht von Werten explizit erzählt wird, transportiert die Erzählung dennoch Werte: So stehen die Werte ‚Jugend‘, ‚Schönheit‘, die das Model verkörpert, dem Wert ‚Wissenschaft‘, repräsentiert durch die Professorin, gegenüber. Ebenso wird der Wert ‚Verantwortung‘ ex negativo thematisiert. Denn die Handlung des autonomen Fahrzeugs hat zwar schwerwiegende Folgen, wie den Verlust von ‚Gesundheit‘ oder gar ‚Leben‘, aber der Handlungsakteur, das Auto, kann diese Verantwortung nicht übernehmen; denn es ist eine Sache und kein Mensch. Verantwortlich ist allenfalls derjenige, der das Fahrzeug programmierte, bzw. das Unternehmen. Diese hier über die Handlung vermittelten Werte könnten nun auch explizit von einem Erzähler benannt werden, z. B. indem er die moralische Frage stellt: „Darf ein Algorithmus den Wert eines Menschen beurteilen? Ist Wissen weniger oder mehr wert als Jugend und Schönheit?“ 3 NARRATIVE STRATEGIEN UND WERTE IN GESCHICHTEN ÜBER DAS AUTOMATISIERTE FAHREN Anhand des Trolley-Beispiels wird ersichtlich, dass narrative Kommunikate zentrale Bedeutungsvermittler sind und Werte transportieren, ebenso können sie abstrakte Sachverhalte und Prozesse veranschaulichen und Emotionen auslösen. Narrative Kommunikate weisen zudem gewisse Strategien auf, die den Status bzw. die Bedeutung der Werte kennzeichnen. Bevor diese dargelegt werden, bedarf es einer Begriffsdefinition, was unter „narrativ“ zu verstehen ist, denn im herkömmlichen Sprachgebrauch wird der Begriff zunehmend inflationär gebraucht. Aus Sicht der Narratologie (Erzähltheorie) heißt „narrativ“, dass eine Erzählstruktur existiert. Nicht die Vermittlungsart einer Geschichte definiert, ob es sich um ein Narrativ handelt, sondern die Existenz einer (minimalen) Geschichte. Das heißt, nicht nur Märchen, Mythen, Romane oder Novellen sind narrativ, sondern auch in Dramen, Filmen, Serien, Werbespots, Nachrichten, Alltagstexten, Inter2
Vgl. zum Begriff „discours“ Müller/Grimm 2016, S. 55f.
96
Petra Grimm, Susanne Kuhnert
views etc. können Narrative enthalten sein. Ein Kommunikat, sei es ein Text, ein Video oder ein Anwendungsfall, ist als narrativ zu bezeichnen, wenn es mindestens eine minimale Erzählstruktur aufweist. Diese kann vereinfacht als triadische Struktur beschrieben werden: Ausgangssituation (AS) → Transformation (T) → Endsituation (ES). Das heißt, eine Situation X verändert sich in eine Situation Y derart, dass beide mindestens durch ein charakteristisches Merkmal unterschieden werden können. Würde nun die oben beschriebene unvollständige Geschichte zu Ende erzählt werden, wäre sie ein Beispiel für eine solche minimale Erzählstruktur: Eine ältere Professorin und ein junges Model wollen die Straße gleichzeitig überqueren (AS), dann kommt plötzlich ein Auto und fährt die Professorin an (T), infolgedessen liegt die Professorin verletzt auf der Straße (ES). Es bedarf also immer einer Transformation des Zustands, kurz gesagt eines Ereignisses, um von einem „Narrativ“ sprechen zu können. Narrative Kommunikate können mittels verschiedener Strategien den Status, die Funktion und die Bedeutung von Werten festlegen. Vier Strategien lassen sich unterscheiden: – Strategie 1: Wertefragen stellen – Strategie 2: Werte infrage stellen oder negieren – Strategie 3: Werte positiv setzen – Strategie 4: Werte-Ambivalenz 3.1 Strategie 1: Wertefragen stellen Eine solche Strategie findet sich par excellence in Geschichten, in denen moralische Dilemmata erzählt werden, wie etwa das Trolley-Beispiel. Es handelt sich hierbei im eigentlichen Sinn um eine ethische Kommunikation, denn der Leser wird direkt mit Wertefragen konfrontiert und zur Reflexion aufgefordert. Geschichten können aber auch indirekt Wertefragen formulieren. Beispielhaft hierfür ist eine Szene zum autonomen Fahren in dem dystopischen Roman QUALITYLAND von Marc-Uwe Kling (2017: 14–16). Der Held des Romans, Peter Arbeitsloser, lässt sich in dieser Szene von einem Auto namens Carl nach Hause fahren. Das Auto, das zu einer Premiumklasse gehört, kann er sich eigentlich gar nicht leisten. Während der Fahrt unterhält sich Peter mit dem Auto, das auf seine Wünsche jederzeit reagiert, z. B. den Small Talk zu beenden, und Peters Vorlieben kennt, z. B. Kuschelrock hören. Nach einer Weile bremst es allerdings unerwartet und fordert Peter auf, auszusteigen: „Es tut mir sehr leid“, sagt das Auto, „aber neue Versicherungsrichtlinien haben ihr Stadtviertel als zu gefährlich für selbstfahrende Autos meiner Qualität eingestuft. Sie werden sicherlich verstehen, dass ich Sie darum bitten muss, hier auszusteigen.“ Der Erzähler dieser Geschichte vermittelt auf ironische Weise, dass Datenschutz und Privatsphäre in dieser Dystopie keinen Wert mehr haben und autonomes Fahren vor sozialer Diskriminierung keinen Halt macht. Implizit stellt er damit die Frage, welche Werte in einer hochdigitalisierten Welt gelten sollen.
Narrative Ethik in der Forschung zum automatisierten und vernetzten Fahren
97
3.2 Strategie 2: Werte infrage stellen bzw. negieren Auf einer entgegengesetzten Strategie basieren Geschichten, die Werte selbst infrage stellen oder gar negieren. Ein Beispiel hierfür ist der ‚Werbespot‘ „Mercedes Benz ADOLF“3, der 2013 von Studierenden der Filmhochschule Ludwigsburg produziert und nicht von Daimler autorisiert wurde: Die Handlung spielt Ende des 19. Jahrhunderts in Braunau am Inn. In der 1. Sequenz zeigt der in Sepia-Braun gehaltene Spot, wie eine neue Mercedes-Luxuslimousine in einer ländlichen Gegend auf einfachen Landstraßen fährt und an einem Gehöft vorbeikommt. Plötzlich stehen zwei junge Mädchen auf der Straße und dank des automatischen Bremssystems bleibt der Mercedes kurz vor ihnen stehen. In der 2. Sequenz fährt der Mercedes weiter und kurz darauf läuft ein Junge auf die Straße. Jetzt bremst der Mercedes nicht, denn er „erkennt“, dass es sich um Adolf Hitler handelt und überfährt den Jungen. Der Junge ist tot, die Mutter schreit verzweifelt: „Adolf“. In der 3. Sequenz wird die Werbebotschaft eingeblendet: „Erkennt Gefahren, bevor sie entstehen.“ Diesem Spot liegt folgende Argumentation zugrunde: Ein Mercedes mit automatischem Bremssystem funktioniert immer, sodass er die Gefahr erkennt, wenn Kinder über die Straße laufen, und folglich bremst. Von dieser Norm weicht er nur in außergewöhnlichen Fällen ab, nämlich dann, wenn es um die Rettung vieler Menschen geht. Der Spot suggeriert also, dass das Auto hier in einem weiteren Sinn, nämlich historisch gesehen, vorausschauend gehandelt hat. Der Wert des Lebens wird in dieser Geschichte sowohl qualitativ (das Leben der Mädchen im Unterschied zum Leben des jungen Adolfs) als auch quantitativ (das Leben des jungen Adolfs gegen das Leben von Millionen Menschen) skaliert. Im Unterschied zur ersten Strategie wird hier ein Wert selbst verhandelt, also die Frage gestellt, ob das Leben jedes Einzelnen gleich viel wert ist. 3.3 Strategie 3: Werte positiv setzen Die Strategie, Werte positiv zu setzen, ist die wohl am häufigsten in Geschichten anzutreffende. Hier werden weder Werte hinterfragt noch Wertefragen gestellt. Werte werden bei solchen Geschichten nicht selten mit dem Wunschobjekt des Helden synkretisiert und sind handlungsleitend. Das heißt, das Ziel des Helden besteht darin, einen wertegeladenen Zustand zu erreichen. Ein Beispiel hierfür ist der Werbespot „Audi – Das Comeback“4, in dem ein T-Rex-Dinosaurier seine Geschichte erzählt. Sie handelt davon, dass er einstmals ein „König der Welt“ war, vor dem sich alle fürchteten, aber jetzt (die Handlung spielt in der Gegenwart) nichts mehr wie zuvor sei. Man würde über ihn lachen, weil er nichts könne (z. B. kein Geld am Automaten abheben), ihm selbst gelinge nichts richtig (z. B. beim PfannkuchenBacken) und auch die Tipps seiner Freunde, es mit Sport zu versuchen, würden scheitern. T-Rex ist zutiefst deprimiert. Doch dann sieht er eines Tages im Schau3 4
Online abrufbar unter: https://www.youtube.com/watch?v=bEME9licodY. Online abrufbar unter: https://www.youtube.com/watch?v=I2j2-DqcPfM.
98
Petra Grimm, Susanne Kuhnert
fenster eines AUDI-Händlers ein Auto mit Autopilot stehen, was sein Leben verändert. Denn er fährt mit ihm dank des Autopiloten davon und fühlt sich frei und glücklich. Diese Geschichte setzt Werte (unhinterfragt) positiv, sie sind das Wunschobjekt des Helden. Das Auto dient hier in der Funktion des Helfers dazu, dieses Ziel zu erreichen. Das heißt, die Werte Glück und Freiheit werden mit dem Produkt gekoppelt, was einer gängigen Werbestrategie entspricht (vgl. Grimm 1996). 3.4 Strategie 4: Werte-Ambivalenz Geschichten, die Werte ambivalent verhandeln, sind im Unterschied zur ersten Strategie nicht darauf angelegt, Wertefragen beim Rezipienten zu evozieren. Vielmehr vermitteln sie ein inkohärentes Wertesystem, das nicht selten erst in der Analyse zum Vorschein kommt; m. a. W. sie ‚bügeln‘ in der Narration die Ambivalenz der Werte glatt. Beispielhaft hierfür ist das Ende des Films THE CIRCLE (2017, R.: James Ponsoldt, USA). Im Unterschied zur literarischen Vorlage des gleichlautenden Romans von Dave Eggers (2013) propagiert die Protagonistin, nachdem sie die geforderte totale Transparenz der Konzernchefs von Circle als falsch entlarvt, ebenfalls eine Welt ohne Privatheit. Die Inszenierung dieser Schlussszene suggeriert, dass ihr Weltentwurf eine demokratische Alternative zu dem der Konzernchefs darstellt. Gleichwohl widerspricht damit der Schluss der gesamten vorherigen Handlung, in der Privatheit als Wert positiv semantisiert wird. Der Film bewertet also Privatheit letztendlich ambivalent. Vergleicht man die in den oben beschriebenen Beispielen enthaltenen Wertesysteme, so lassen sich diese wie folgt skizzieren: Extrahiert man das in QUALITYLAND transportierte Wertesystem, so handelt es sich um eines, das demokratische Grundrechte wie Autonomie, Privatheit, Chancengleichheit als essenziell bewertet. Der „Adolf“-Spot enthält dagegen ein radikales Wertesystem, das moralische Reaktionen hervorrufen will. Demgegenüber favorisiert die AUDI-Geschichte ein hedonistisches Wertesystem. Allein das Wertesystem des CIRCLE-Films bleibt unbestimmt. Narrative verfügen also nicht nur über bestimmte Strategien, um Werte zu transportieren, sie konstruieren auch bestimmte Wertesysteme. 4 NARRATIVE IN DER WISSENSCHAFT UND IN ENTWICKLUNGSPROZESSEN: DER NUTZEN VON SZENARIOS UND USE-CASES Zukunftsforschung, verstanden als „strukturierter Umgang mit gestaltbaren Zukünften“ (Gransche 2015: 36), ist ohne Rückgriff auf narrative Elemente kaum zu verwirklichen, denn um über die Zukunft reden zu können, muss erst eine Vorstellung von einer Zukunft gegeben sein – diese muss beschrieben und vermittelt werden, und das geschieht meist in narrativer Form.Narrationen begleiten und prägen unseren Alltag und stellen eine wichtige Form der Kommunikation dar, weshalb sie auch zu einem wesentlichen Kommunikationsmedium in interdisziplinären Forschungsverbünden geworden sind.
Narrative Ethik in der Forschung zum automatisierten und vernetzten Fahren
99
Menschen entwerfen und erzählen sich Geschichten darüber, wie eine mögliche Zukunft beschaffen sein könnte. Geschichten umschreiben dabei prinzipiell zunächst nur Ideen, Wünsche und Vorstellungen – sie repräsentieren Möglichkeiten und weniger die Fakten. Sie sind keine Wissenschaft, können jedoch von und für die Wissenschaft instrumentalisiert werden. Narrationen dienen deshalb in wissenschaftlichen und industriellen Projekten dazu, Entwürfen, Plänen und Zielen eine verständlichere Form zu geben. Botschaften können so formuliert werden, dass sie auch nach Außen transportiert werden können, um somit auch von einem fachübergreifenden Publikum absorbiert zu werden. Dies bezieht sich vor allem auch auf die Arbeit mit Anwendungsfällen aus der IT-Entwicklung, den sogenannten Szenarios und Use-Cases. Use-Cases haben die Form von kurzen Geschichten, die verschiedene Szenarios erörtern und zusammenfassen; sie dienen oft als gemeinsame Arbeitsgrundlage in Forschungsverbünden oder bei Entwicklungsprozessen.5 Use-Cases zeigen, dass Narrationen in Innovationsprozessen bereits selbstverständlich sind und eine narrative Ethik nicht erst Narrative einführen, sondern auf bereits vorhandene zurückgreifen kann. Use-Cases können bestimmte, meist gewohnte und alltägliche Situationen beschreiben und dadurch aufzeigen, wo oder wie eine Innovation greifen kann. Hier ist demnach der erste Ansatzpunkt für eine narrative Ethik gegeben, denn sie kann mit diesen Use-Cases arbeiten. Die Strukturanalyse der Use-Cases bietet eine Möglichkeit, implizite Wertvorstellungen aufzudecken. Dies ist deshalb so wichtig, da gerade durch informationstechnologische Innovationen bestimmte Werte wie Privatheit oder Privatautonomie eingeschränkt oder bedroht werden, diese aber nach wie vor als selbstverständlich angenommen oder vorausgesetzt werden, weil es die Menschen bisher noch gewohnt sind, dass diese Werte natürlich (weiter) existieren. Beispielhaft kann hier die voranschreitende Nutzung der Spracherkennung und -steuerung in automatisierten Fahrzeugen aufgeführt werden.6 Eine Sprachsteuerung, die jedes Gespräch aufzeichnet, ist eine starke Überwachungstechnologie, die die Privatheit der Fahrzeuginsassen aufzulösen droht. Fahr5
6
„Scenarios, being concrete, and easy to understand and use, provide the means to describe the design vocabulary. They are used to focus on episodic cases, exchange ideas and thoughts about them effectively, and generally describe requirements and designs for a new artefact from the user’s perspective.“ Filippidou 1998, S. 1. „Use cases can and should be used to drive software development. They do not prescribe how you should plan or manage your development work, or how you should design, develop, or test your system. They do, however, provide a structure for the successful adoption of your selected management and development practices.“ Jacobson et al. 2016, S. 95–96. Ein Beispiel ist das neue System von Daimler „Hey Mercedes“, das während einer Automesse in Las Vegas vorgestellt wurde: „Auf der CES hat Mercedes jetzt einen lernfähigen Assistenten vorgestellt, der das Command-System in der A-Klasse ablöst. Die neue Generation des Infotainment-Systems wird von diesem Frühjahr an erstmals zwei hochauflösende 10-Zoll-Bildschirme mit einer intuitiven Sprachsteuerung kombinieren: Wo gibt es die beste Pizza der Stadt und welche Termine stehen heute im Office-Kalender? Der Sprachassistent auf dem Niveau von Apple Siri und dem Google-Assistenten weiß Bescheid und funktioniert einfacher als die Touch-Bedienung. Die schicke Anzeige der Suchergebnisse auf der Bildschirmbühne und die direkte Verknüpfung mit dem Navigationssystem machen das neue Kompaktauto, zumindest aus Sicht der Stuttgarter, zum ultimativen mobilen Endgerät.“ Becker 2018.
100
Petra Grimm, Susanne Kuhnert
zeuge, die auf Zuruf reagieren sollen, deren Sprachaufzeichnung muss konstant aktiviert sein. Gespräche, die in einem privaten Raum stattfinden und beispielweise Sorgen und Probleme bei der Arbeit, Ärger mit dem Kollegen oder dem Chef, finanzielle Sorgen oder Nöte und gesundheitliche Probleme umfassen, werden zukünftig ebenfalls aufgezeichnet. Wie werden diese Daten ausgewertet, verwertet, gespeichert oder weitergeleitet? Werden hier Einschränkungen in Bezug auf den privaten Raum wahrgenommen oder mitgedacht im Innovationsprozess? Wird die notwendige Transparenz für die Nutzer thematisiert und eine umfassende Aufklärung schon während der Entwicklungsphase mit in Erwägung gezogen? Werden diese Folgen in Entwicklungsszenarios überhaupt mit erzählt? Wie stellt man sich eine Welt ohne private Räume und Rückzugsmöglichkeiten vor? Wertekonflikte dieser Art müssen von der Ethik thematisiert und vergegenwärtigt werden, und die Analyse von Narrativen ist eine Methode, um dies zu erreichen. 5 GESCHICHTEN RUND UM DAS AUTOMOBIL DER ZUKUNFT: ZWISCHEN MARKETING UND WISSENSCHAFT Mobilität ist ein zentrales Thema für eine Gesellschaft und für die einzelnen Menschen. Es existieren daher unzählige Geschichten rund um das Automobil und es kommen ständig neue Geschichten hinzu. In der Forschung zum automatisierten und autonomen Fahren ist von besonderem Interesse, […] das Verhältnis von technischen und bildlichen Entwürfen, von industriellen Forschungsprojekten und kulturellen Imaginationen. Es wird gezeigt, wie sich die Logik des automatischen Automobils als fantastisches Objekt zwischen Wunderbarem und Unheimlichem entfaltet. (Kröger 2015: 43)
Werte und Wertekonflikte sind maßgebend verantwortlich für die Darstellung des Automobils und des menschlichen Fahrers. Industrielle Interessen und das Marketing sehen sich besonders vor die Herausforderungen gestellt, alte Geschichten über die „Freude am Fahren“ zu ersetzen durch die „Freude am Gefahrenwerden“,7 denn letztlich wird die Akzeptanz der Nutzer davon abhängen, wie überzeugend die neuen Geschichten sind und welche Werte überwiegen. Both und Weber thematisieren diesen Umstand und dessen Bedeutung für die ethische Perspektive hinsichtlich der 7
Die Presse und die Automobilhersteller erzählen unterschiedliche Geschichten über das automatisierte Fahrvergnügen und über das Zusammenspiel zwischen Mensch und Technik. Die Prognose eines Vertreters der BMW Group hinsichtlich des Fahrvergnügens beim automatisierten Fahren lautet beispielsweise: „Der neue Ansatz führt dazu, dass der Fahrer zukünftig zwischen den verschiedenen Fahrmodi wechseln kann, wenn er dies möchte. Diese Wahlmöglichkeit erhält auch die heutige Freude am Fahren in schönen, entspannten Fahrsituationen und korreliert mit den technischen Möglichkeiten der Umwelterfassung.“ Wisselmann 2015, S. 12. In einem Artikel für das Spiegel-Magazin schildert ein Reporter folgendes Fahrerlebnis: „Ich war auf alles gefasst. Deshalb dauerte es ein paar Stunden, bis etwas geschah, das mich wirklich erschreckte. Am Abend des ersten Tages drängte mein Auto plötzlich von der Straße, es lenkte energisch nach rechts. Richtung Graben. Am Steuer des BMW war der Computer. Bislang hatte er, ausgestattet mit Kameras und Radarsensoren, ganz ordentlich gelenkt. Aber plötzlich glaubte mein Kopilot, er müsse quer über die Wiese pflügen.“ Dworschak 2017, S. 98.
Narrative Ethik in der Forschung zum automatisierten und vernetzten Fahren
101
Gestaltung der Mensch-Maschine-Interaktion, denn diese muss sich auch daran orientieren, wie das Verhältnis von Menschen und Maschinen in der Wahrnehmung der Menschen verankert ist. Am Beispiel eines Werbespots aus dem US-Fernsehen zeigen sie auf, welche Schwierigkeiten bei der Einführung von autonomen Fahrsystemen in dieser Hinsicht noch überwunden werden müssen. Mit Hilfe einer kurzen Analyse eines Werbespots für ein Automobil der Marke DODGE SUPER CHARGER aus dem Jahr 20118 beschreiben sie, mit welchen Ängsten und Überzeugungen die Macht von Robotern und Automaten in der menschlichen Vorstellung behaftet sein kann. Der Werbespot zeigt einen Wagen, der durch einen dunklen Tunnel fährt und ein Sprecher aus dem Off umreißt eine düstere Zukunftsvision, in der autonome Fahrzeuge die Kontrolle über die Menschheit übernehmen, bis der menschliche Fahrer eingreift und durch ein Überholmanöver die Kontrolle über das Lenkrad zurückerlangt und der Sprecher aus dem Off das beworbene Automobil am Ende als „Leader of the human Resistance“ bezeichnet. Das Marketing eines Automobilherstellers nutzt hierbei vorhandene Narrative, auch indem es auf bekannte Science-Fiction-Filme wie den Film MATRIX referiert, um ein sogenanntes „Muscle-Car“ zu bewerben, das den menschlichen Fahrer und das Fahrvergnügen in den Mittelpunkt stellt. Hierbei wird erkenntlich, dass existierende Geschichten über das Verhältnis von Menschen und Automaten auch für die Ethik relevant sind. Both und Weber (2013: 180) konkludieren in Bezug auf den Werbespot: Trotz aller Überzeichnung und Ironie greift diese TV-Werbung ein wirkmächtiges Narrativ auf. Das Entmündigungsnarrativ ist eine sinnstiftende Erzählung, welches Fahrzeugautomatisierung auf spezifische Weise diskursiv rahmt und deutet. Automatisiertes Fahren geht einher mit einer grundlegenden Rekonfiguration der Mensch-Maschine-Verhältnisse im Straßenverkehr.
Narrationen sind von großer Bedeutung für die Ethik in einem Feld, das weitreichende gesellschaftliche Transformationen anstoßen kann. Der Einfluss und die Wirkung von bestimmten Motiven sollte offenbart werden, denn auch die Forschung und die einzelnen Entwickler werden dadurch beeinflusst. Insbesondere der Dialog zwischen Marketing und Ethik ist bisher zu stark vernachlässigt worden. Eine narrative Ethik könnte hier wirksam werden. Das Automobilmarketing hat sich zukünftig vermehrt mit dem Thema Datenschutz auseinanderzusetzen, aber auch die Verheißung der Freude am Fahren wird durch das automatisierte Fahren angegriffen und ein verantwortungsvolles Marketing darf wiederum keine Versprechungen äußern, die die Gefahren beim automatisierten Fahren verschweigen.9 Der Austausch zwischen der Ethik und dem Marketing sollte notwendigerweise erfolgen und ist als Teil eines gesellschaftlichen Innovationsprozesses zu begreifen, in dem die verschiedenen Disziplinen immer stärker vernetzt werden müssen. 8 9
Online abrufbar unter https://www.youtube.com/watch?time_continue=1&v=QWy6A6bLSW0. Vgl. dazu einen Bericht aus der Süddeutschen Zeitung vom 25.01.2018: „Erst vor ein paar Tagen raste in den USA ein Autofahrer in seinem Tesla mit Tempo 100 in das Heck eines parkenden Feuerwehrautos. Von der Front des Elektrowagens blieb nicht viel übrig. Verletzt wurde glücklicherweise niemand. Die Ausrede des Fahrers: Er sei nicht schuld. Der Autopilot war zum Unfallzeitpunkt aktiviert. Ein anderer Tesla-Fahrer hatte in der vergangenen Woche nach einem Unfall dieselbe Erklärung. Die Polizei stellte kurz danach doppelt so viel Alkohol im
102
Petra Grimm, Susanne Kuhnert
6 WERTNEUTRALITÄT UND WERTEBEWUSSTSEIN – AUFGABEN EINER NARRATIVEN ETHIK Die Analyse von Narrationen bringt vor allem eines deutlich zu Tage: Technik ist immer eingebunden in einen Wertekontext. Technologien sind die Träger von bestimmten Wertvorstellungen. Der Erfolg oder Misserfolg einer Technologie entscheidet sich auch dadurch, inwieweit die transportierten neuen Wertvorstellungen in den aktuellen gesellschaftlichen Wertekanon passen oder überhaupt von der Gesellschaft akzeptiert werden (können). Ethik untersucht die Moral und manchmal eben auch die Moral von Geschichten – in diesem Fall spricht man dann von einer narrativen Ethik. Die narrative Ethik ist eine Analyse von der Konstruktion einer erzählten Welt und eine Reflexion darüber, welche Einflüsse durch diese spezifische Konstruktion auf die erlebte Welt und das menschliche Handeln entstehen (können). Im Zentrum einer narrativen Ethik stehen Narrationen bzw. narrative Strukturen.10 Diese können prinzipiell in allen medial vermittelten Inhalten vorhanden sein, und auch das Leben selbst oder der menschliche Zugang zum Leben könnte als primär narrativ strukturiert aufgefasst werden und die Ausrichtung einer narrativen Ethik prägen.11 Narrationen können analysiert werden im Hinblick auf ethische Gesichtspunkte, es können im Rahmen einer narrativen Ethik jedoch auch ethische Narrative selbst gebildet werden. Der Begriff der narrativen Ethik scheint daher sehr weit gefasst und unpräzise zu sein, eine einheitliche Richtung hat sich bis jetzt jedenfalls noch nicht herausgebildet. Karen Joisten (2007: 10) spricht daher von einer „missverständlichen Wendung“, da eine „etablierte Begriffsbestimmung“ bis jetzt fehle, und diesen Mangel bestätigt auch Hille Haker.12 Die ersten Ansätze zu einer narrativen Ethik bildeten sich in den USA in den Theorien von Martha Nussbaum und Richard Rorty heraus (vgl. Fenner 2012/2013), während in Deutschland Dietmar Mieth (2007) den Begriff entscheidend prägte. In Deutschland ist die Entstehung der narrativen Ethik deshalb auch mit der christlichen Moraltheorie verbunden (vgl. Haker 2009). Narrationen in den Fokus der Ethik zu rücken, beruht unter anderem auf dem Umstand, dass Narrationen tatsächBlut des Unfallfahrers fest wie erlaubt. Der Standard-Kommentar von Tesla zu Vorfällen wie diesem: ‚Der Autopilot soll das Fahren auf der Autobahn nicht nur sicherer, sondern auch stressfreier machen. Das System ist aber nur für einen vollkommen aufmerksamen Fahrer konzipiert.‘ Der Konzern weist also alle Schuld von sich. So einfach ist das aber nicht.“ Reek 2018. 10 „Es muss also unterschieden werden zwischen narrativen (erzählenden) Texten (wie Erzählung, Roman, Ballade usw.) und Texten mit narrativer Struktur, auch nicht-narrative Texte wie das Drama können partiell oder total narrative Strukturen haben. [...] Narrative Strukturen können also in beliebigen sprachlichen Texten auftreten und sind an keinen Texttyp, keine Gattung gebunden. [...] Narrative Strukturen sind also auch nicht an ein Zeichensystem, an ein Medium gebunden.“ Titzmann 2013, S. 115. 11 Karen Joisten führt Wilhelm Schapp, Louis O. Mink, Hayden White, Alasdair MacIntyre und David Carr an, um eine „Leseart“ der narrativen Ethik einzuführen, die das menschliche (Er-) Leben durch seine narrative Struktur charakterisiert sieht. Vgl. Joisten 2007, S. 11–12. 12 „Beide Formen der ethischen Reflexion – die narrative Darstellung und Reflexion der Moral, und die Narration als Medium, das von der Ethik kritisch analysiert und reflektiert wird, werden im etwas unglücklichen Begriff der narrativen Ethik verbunden.“ Haker 2009, S. 332, Hervorh. i. Orig.
Narrative Ethik in der Forschung zum automatisierten und vernetzten Fahren
103
lich Gefühle und Emotionen bei den Rezipienten provozieren und in unserer Vorstellungskraft ganz eigene Erfahrungen gemacht werden können (vgl. Mieth 2007). Rorty betont deshalb in seiner pragmatistischen Philosophie der Solidarität sogar das Primat der Narration vor der Moraltheorie.13 Rortys provokante Thesen führen leicht zum Verständnis einer narrativen Ethik, die in der Kritik stehen würde, Gefühle gegen rationale Prinzipien auszuspielen (vgl. Fenner 2012/2013) und die theoretisch-rationale Formulierung von Begriffen, Werten und Normen durch das reine Einfühlungsvermögen ersetzen zu wollen. Dies kann jedoch nicht das erklärte Ziel einer narrativen Ethik sein, denn [s]ogar unser Mitgefühl im Hinblick auf menschliches Leid, das womöglich wie ein zuverlässiger Teil unseres Gefühlsgerüsts wirkt, beruht stets auf einer gesellschaftlich bedingten Interpretationsgrundlage und bedarf daher der rationalen Prüfung. [...] Ohne eine Prüfung durch die Vernunft ist also selbst das Mitgefühl kein zuverlässiger Boden. (Nussbaum 2000: 68–69)
Analyse und Abstraktion sind in der Ethik notwendige Verfahren für die Systematisierung von Einzelerkenntnissen, um dadurch zu allgemeinen Handlungsempfehlungen gelangen zu können (ebd.: 28–29). Narrative Ethik definiert sich nach Mieth (2002: 277) dadurch, dass sie „die moralisch wichtige Kategorie der Erfahrung mit rationalem Handeln und eigener Identitätsbildung“ verbinde. Auch Rorty (2001: 12) betont, dass man „moralischen Fortschritt als eine Form der Veränderung der moralischen Identität zu begreifen“ habe. Erzählungen haben die Kraft, nicht nur einen Perspektivenwechsel durch Reflexion herbeizuführen, sondern durch die Verbindung von Gefühl und Rationalität die gesamte Identität einer Person zu verändern. Dies sei möglich, weil beim Erzählvorgang die „ethische Autonomie“ (Mieth 2002: 285) eines Subjekts gewahrt werde. Eine Narrative Ethik entwerfe deshalb auch „ethische Modelle“ und nicht nur Begriffe (ebd.: 287), die eine handlungsanleitende Funktion übernehmen können. Daher sei eine wichtige didaktische Funktion der narrativen Ethik, „ethische Lernprozesse in Gang [zu] setzen, ohne normative Verbindlichkeit zu artikulieren“ (ebd.: 296). Unabhängig von den bereits existierenden, unterschiedlichen Ansätzen sollte der Grundsatz einer narrativen Ethik in der Technikforschung sein: Implizite Wertvorstellungen bewusst machen, diese zu hinterfragen und Alternativen anzubieten sowie Narrative und deren Strukturelemente zu untersuchen und den Aufbau ver13
„Der Prozeß, in dessen Verlauf wir allmählich andere Menschen als ‚einen von uns‘ sehen statt als ‚jene‘, hängt ab von der Genauigkeit, mit der beschrieben wird, wie fremde Menschen sind, und neubeschrieben, wie wir sind. Das ist eine Aufgabe nicht für Theorie, sondern für Sparten wie Ethnographie, Zeitungsberichte, Comic-Hefte, Dokumentarstücke und vor allem Romane. Bücher wie die von Dickens, Olive Schreiner oder Richard Wright liefern uns Details über Leid, das Menschen ertragen, auf die wir vorher nicht aufmerksam geworden wären. Romane von Choderlos de Laclos, Henry James oder Nabokov zum Beispiel zeigen uns im Detail die Art von Grausamkeit, deren wir selbst fähig sind, und bringen uns auf diese Weise dazu, uns selbst neuzubeschreiben. Das ist der Grund, warum Roman, Kino und Fernsehen langsam aber sicher Predigt und Abhandlung in der Rolle der Hauptvehikel moralischer Veränderungen und Fortschritte abgelöst haben. In meiner liberalen Utopie würde diese Ablösung die Anerkennung erfahren, die ihr jetzt noch fehlt. Die Anerkennung wäre Teil einer allgemeinen Wendung gegen die Theorie und zur Erzählung.“ Rorty 1992, S. 16.
104
Petra Grimm, Susanne Kuhnert
ständlich darstellen. Implizite Annahmen und Werte können dadurch deutlich gemacht und offengelegt werden. Wovon wird ausgegangen, was wird als selbstverständlich angenommen? Angestrebt werden sollte eine möglichst einfache Beschreibung der Werte, um eine gewisse Wertneutralität zu erzeugen, die eine rationale Diskussion über diese Werte ermöglicht. Die folgenden Schritte werden daher für die Arbeit in Forschungsverbünden vorgeschlagen: – Analyse der Narrationen/Use-Cases. – Implizite und explizite Wertvorstellungen benennen und kommunizieren. – (Gemeinsame) Formulierung von alternativen Narrativen. Als Ziele der Verwendung der narrativen Ethik werden angestrebt: – Wertvorstellungen benennen und hinterfragen. – Kommunikation und Austausch in Forschungsverbünden fördern. – Verantwortungsbewusstsein schaffen und Values by Design ermöglichen. – Raum für Kreativität und Innovationen begünstigen. Gerade in Bezug auf den Datenschutz im Automobil wäre es dringend notwendig, offenzulegen, wie Erzählungen über die Zukunft demokratische Werte wie die Autonomie des Selbst und bestimmte Freiheitsrechte als ganz selbstverständlich annehmen, diese Werte aber gerade durch jene Technologien bedroht werden, die beispielsweise in einem Werbespot oder in einem Use-Case als positiv und freiheitsbewahrend dargestellt werden. Diese Diskrepanz könnte durch eine narrative Ethik besser herausgearbeitet und für den Wertediskurs fruchtbar gemacht werden. Es mangelt am Bewusstsein dafür, was einerseits als natürliche Voraussetzung angenommen wird, andererseits aber keineswegs einer natürlichen Ordnung entspricht und in Zukunft zerbrechen könnte. Die Demokratie ist nicht die natürliche Grundordnung der Welt und sie ist schützenswert. Das Recht auf informationelle Selbstbestimmung wird durch die neue Generation an vernetzten und automatisierten Fahrzeugen infrage gestellt: Ob es gelingt, die neue Generation von datensammelnden Fahrzeugen mit dem deutschen Datenschutzrecht in Einklang zu bringen, ist noch offen. Wahrscheinlicher ist, dass uns die technische Entwicklung die Entscheidung abverlangt, entweder das Datenschutzrecht grundlegend zu reformieren oder aber so gewaltige Vollzugsdefizite in Kauf zu nehmen, dass von einem wirksamen Schutz des Rechts auf informationelle Selbstbestimmung wenig übrig bleibt. (Hilgendorf 2015: 30)
Die Mobilität der Zukunft wird sich grundlegend ändern und Selbstverständlichkeiten werden verschwinden. Welche Opfer ist die Gesellschaft bereit zu erbringen? Welche Opfer möchten ihr Entwickler durch ihre Innovationen tatsächlich abverlangen? Welche versteckten Potenziale können stärker gefördert werden und wie kann aus Hindernissen eine Bereicherung werden? Eine narrative Ethik bietet Methoden, um darüber offen zu diskutieren.
Narrative Ethik in der Forschung zum automatisierten und vernetzten Fahren
105
7 ETHIK IN DER (ZUKUNFTS-)FORSCHUNG – USE CASES, RICHTLINIEN UND DER WILLE ZUM EXPERIMENT Die Bedeutung der Ethik innerhalb der interdisziplinären Forschung wächst. Die sogenannten ELSI-Aspekte14 werden auch vom Bundesministerium für Bildung und Forschung in wachsendem Ausmaß gefördert. Angestrebt wird eine erfolgreiche Einbindung der Ethik, um dadurch eine Formel für eine prosperierende Zukunft mit ethisch verantwortlichen Innovationen zu erhalten. Der Wille zur Kommunikation und zum Austausch ist hierfür notwendig, aber auch der Mut zum Experiment. Eine narrative Ethik ist eine experimentelle oder experimentierfreudige Ethik, die sinnvolle Ergänzungen zu den etablierten Methoden der Ethik bietet. Die Arbeitsergebnisse einer Ethik werden zumeist in Handreichungen und Richtlinien zusammengefasst und veröffentlicht, um ethische Parameter für die Forschung zu liefern, denn Ethik ist die kritische Reflexion moralischen Handelns. Als Wissenschaft des moralischen Urteilens kann sie Kriterien erarbeiten, die dort, wo moralische Urteile unsicher sind, Orientierung bieten; dort wo moralische Urteile sicher und selbstverständlich erscheinen, werden sie von ethischer Reflexion hinterfragt. (Ammicht Quinn et al. 2014: 278)
So haben Ammicht Quinn et al. (ebd.) beispielsweise einen detaillierten Fragenkatalog für die „Forschung für die zivile Sicherheit“ erarbeitet: Diese Handreichung bietet in kompakter Form einige grundlegende Überlegungen. Die Liste von ‚Reflexionskriterien‘ und der ‚Fragenkatalog‘ am Ende des Textes sind Instrumente, anhand derer geplante oder sich bereits in der Durchführung befindende Forschungen auf mögliche ethisch relevante Konflikte hin überprüft werden können.
Die Ethik-Kommission zum automatisierten und vernetzten Fahren, die im Jahr 2016 von Bundesverkehrsminister Alexander Dobrinth berufen wurde, hat einen Richtlinienkatalog erarbeitet, der spezielle Vorgaben für die Entwicklung der Mobilität der Zukunft bieten kann. Diese „Ethischen Regeln für den vernetzen und automatisierten Fahrzeugverkehr“ wurden im Juni 2017 in einem Bericht veröffentlicht (Bundesministerium für Verkehr und digitale Infrastruktur 2017). Eines der Ziele wurde damit umschrieben, Antworten auf die Frage zu finden: Welche technischen Entwicklungsleitlinien sind geboten, um die Konturen einer humanen Gesellschaft nicht zu verwischen, die den einzelnen Menschen, seine Entfaltungsfreiheit, seine körperliche und geistige Integrität, seinen sozialen Achtungsanspruch in den Mittelpunkt der Rechtsordnung stellt? (Ebd.: 6)
Richtlinien und Handreichungen sind demnach ein wichtiges Instrument der Ethik. Aber was soll und kann die Ethik in der Forschung noch bewirken? Wie muss die Ethik gestaltet oder in die Technikforschung integriert werden, um grundlegende und dauerhafte Veränderungen zu erzielen? Werner Heisenberg beschreibt in seinem berühmten Aufsatz „Über die Verantwortung des Forschers“ die Situation des einzelnen Forschers und seine Aufgabe und nimmt damit eine gute Beschreibung dessen vor, was auch die Aufgabe der 14
ELSI ist ein Akronym und steht für Ethical, Legal and Social Implications.
106
Petra Grimm, Susanne Kuhnert
heutigen Technikethik sein sollte. Sie muss allen Beteiligten das Bewusstsein für deren gesellschaftliche Verantwortung aufzeigen, es schaffen, dass die Entwickler in Zusammenhängen denken und die Kontexte erkennen. Dies ist die Aufgabe der Ethik, die sie momentan leisten muss, oder wie Heisenberg es umschreibt: […] daß es für den Einzelnen, dem der wissenschaftliche oder technische Fortschritt eine wichtige Aufgabe gestellt hat, nicht genügt, nur an diese Aufgabe zu denken. Er muß die Lösung als Teil einer großen Entwicklung sehen, die er offenbar bejaht, wenn er überhaupt an solchen Problemen mitarbeitet. Er wird leichter zu den richtigen Entscheidungen kommen, wenn er diese allgemeinen Zusammenhänge mit bedenkt. (Heisenberg 2003: 89)
Die hierfür notwendigen Perspektivenwechsel, die die Komplexität der Zusammenhänge und die Kontextabhängigkeit von Sachverhalten erkennbar machen, können mithilfe von Narrationen durchgeführt werden. Aus diesem Grund sollte das Wagnis eingegangen werden, dass eine digitale Ethik, eine Technik- und Medienethik – kurzum eine Ethik, die sich mit dem automatisierten und vernetzten Fahren befasst – vermehrt mit Narrationen arbeitet oder sich zumindest damit auseinandersetzt. Ethik in der Forschung kann von den Methoden einer narrativen Ethik profitieren, insbesondere um den einzelnen Forschern ihre eigene Verantwortung bewusst werden zu lassen.15 Der wesentliche Vorteil einer narrativen Ethik ist hierbei der experimentelle Rahmen, in dem Reflexionsprozesse ablaufen können, da Narrationen in einem fiktiven Raum verortet sind. Handlungsspielräume und Möglichkeiten lassen sich dadurch vielschichtiger ausloten, denn das Erzählen „ist auch nicht an Konventionen der Moral gebunden und ermöglicht so deren Durchdringung mit Fragwürdigkeit und Experimentierfreude“ (Mieth 2007: 215). Dies ist von besonderer Bedeutung, wenn der Blick der Ethik sich hin zu einer ungewissen Zukunft richten soll, da die Zukunft nur innerhalb eines fiktiven Raumes beurteilt werden kann. Wahrscheinlichkeitsrechnung als Technik des umsichtigeren Bedenkens von Unsicherem ist eine Fiktion wie moderne Romane, da sie sich beide auf gegenwärtige Zukünfte, also auf unsere Zukunftsvorstellungen und damit wieder nicht auf die Realität, sondern auf die fiktive Sphäre unseres Vorstellens beziehen. (Gransche 2015: 245)
Eine narrative Ethik kann dazu dienen, neue und alternative Wege und Möglichkeiten der Zukunft auszuleuchten. Die Zukunft ist qua ihrer „Natur“, ihres noch nicht vorhandenen Seins, spekulativ und deshalb braucht man auch die Möglichkeit zu einer spekulativen, fiktiven Ethik. Zukunft beinhaltet – ebenso wie die Geschichte – Transformationen. Geschichte und Geschichten schreiben sich durch den Wandel und mit diesem bricht gleichzeitig und unaufhaltsam die Zukunft an. Die Vergan15
Eine Studie von Hadar et al. (2017) beschäftigt sich mit dem Verständnis von Softwaredesignern in Bezug auf Datenschutz und Datensicherheit und konnte aufzeigen, dass ein Mangel an Verständnis hinsichtlich der Differenzierung der Begriffe bei dieser Berufsgruppe zu bestehen scheint. Solange es kein ethisches Bewusstsein für Datenschutz bei den Designern gibt, bliebe auch die Umsetzung von Datenschutzkonzepten mangelhaft. Dies macht deutlich, dass neue Wege gefunden werden müssen, um rechtlich-ethische Themen im informationstechnologischen Umfeld zu thematisieren. Eine narrative Ethik könnte hier einen Beitrag leisten, um den Wert der Privatheit deutlicher und verständlicher zu vermitteln, als es abstrakte philosophischethische Texte und Richtlinien allein vermögen.
Narrative Ethik in der Forschung zum automatisierten und vernetzten Fahren
107
genheit zählt verpasste Chancen und die Zukunft auf unendliche Möglichkeiten – und all dies in der Vorstellungskraft des Menschen. Die Zeugnisse dieser Vorstellungskraft werden erzählt und in Form von Geschichten übermittelt. Eine Ethik, die sich mit der Zukunft befassen möchte, muss sich zwangsläufig mit den Vorstellungen der Menschen über die Zukunft auseinandersetzen. So werden die Geschichten automatisch zu einem Bestandteil der Ethik und die Genealogie der Moral wird zu einer Futurologie der Moral. Das Abwägen von möglichen Handlungsfolgen und die Beurteilung von Wahrscheinlichkeiten wird dann zur grundlegenden Herausforderung für die Ethik, und obwohl das bisherige Augenmerk hauptsächlich auf Narrationen aus der Literatur und Kunst gerichtet war, bedeutet dies nicht, dass eine narrative Ethik auf die Analyse von Romanen, Balladen oder Prosa beschränkt sein müsste (vgl. Fenner 2012/ 2013). Eine moderne narrative Ethik könnte (und sollte) im Prinzip alle medial vermittelten Kommunikate untersuchen. Dieser Ansatz findet sich auch bei Haker (2010). Sie deutet ebenso bereits auf die Möglichkeit der narrativen Ethik hin, als ein „interdisziplinäres Analyseinstrument“ funktionieren zu können. Der Einsatz der narrativen Ethik in der Zukunftsforschung und speziell in der Forschung zum automatisierten und vernetzten Fahren bietet neue Möglichkeiten, um implizite, aber prägende, existierende Wertvorstellungen zu thematisieren und um alternative Modelle entwerfen zu können. Die gemeinsame Verantwortung von Forschungsverbünden besteht darin, Folgenabschätzungen zu unternehmen und die Ergebnisse auf gesellschaftlichen Nutzen und Akzeptanz zu überprüfen. Die Methoden der narrativen Ethik können sich in diesem Zusammenhang als wert- und sinnvoll erweisen und sollten deshalb stärker von der Wissenschaft berücksichtig werden. BIBLIOGRAFIE Ammicht Quinn, Regina/Nagenborg, Michael/Rampp, Benjamin/Wolkenstein, Andreas F.X. (2014): Ethik und Sicherheitstechnik. Eine Handreichung. In: Ammicht Quinn, Regina (Hrsg.): Sicherheitsethik. Wiesbaden: Springer VS (Studien zur Inneren Sicherheit, 16), S. 277–296. Becker, Joachim (2018): Autos wandeln sich zu Quasselstrippen. Süddeutsche Zeitung, 12.01.2018. Online: http://www.sueddeutsche.de/auto/trends-der-ces-autos-wandeln-sich-zu-quasselstrippen-1.3818384 (Abruf: 29.01.2017). Both, Göde/Weber, Jutta (2013): Hands-Free Driving? Automatisiertes Fahren und Mensch-Maschine Interaktion. In: Hilgendorf, Eric (Hrsg.): Robotik im Kontext von Recht und Moral. Bd. 3. Baden-Baden: Nomos, S. 171–189. Bundesministerium für Verkehr und digitale Infrastruktur (Hrsg.) (2017): Ethik-Kommission: Automatisiertes und vernetztes Fahren. Bericht, Juni 2017. Online abrufbar unter: https://www. bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.pdf?__ blob=publicationFile. Dworschak, Manfred (2017): Pling! Eine neue Ära der Mobilität hat begonnen. In: Der Spiegel (20), S. 98–101. Fenner, Dagmar (2012/2013): Ethik und Ästhetik. Die beiden Perspektiven der Ethik und der Ästhetik. Kulturelle Bildung Online. Online: https://kubi-online.de/artikel/ethik-aesthetik (Abruf: 08.06.2017).
108
Petra Grimm, Susanne Kuhnert
Filippidou, Despina (1998): Designing with scenarios. A critical review of current research and practice. In: Requirements Engineering 3(1), S. 1–22. Online abrufbar unter: https://doi.org/ 10.1007/BF02802918. Funiok, Rüdiger (2012): Wertorientierte Strategien zum Schutz der Privatheit in Sozialen Netzwerken. In: Grimm, Petra/Zöllner, Oliver (Hrsg.): Schöne neue Kommunikationswelt oder Ende der Privatheit? Die Veröffentlichung des Privaten in Social Media und populären Medien. Stuttgart: Franz Steiner Verlag, S. 97–118. Gransche, Bruno (2015): Vorausschauendes Denken. Philosophie und Zukunftsforschung jenseits von Statistik und Kalkül. 1. Aufl. Bielefeld: transcript (Edition panta rei). Grimm, Petra (1996): Filmnarratologie. Eine Einführung in die Praxis der Interpretation am Beispiel des Werbespots. München: diskurs film. Hadar, Irit/Hasson, Tomer/Ayalon, Oshrat/Toch, Eran/Birnhack, Michael/Sherman, Sofia/Balissa, Arod (2017): Privacy by designers. Software developers’ privacy mindset. In: Empirical Software Engineering 76(7), S. 259–289. Online: https://doi.org/10.1007/s10664-017-9517-1 (Abruf: 29.01.2017). Haker, Hille (2009): Identität erzählen – Zum Verhältnis von Ethik und Narrativität. In: Hofheinz, Marco (Hrsg.): Ethik und Erzählung. Theologische und philosophische Beiträge zur narrativen Ethik. Tagung zum Thema „Narrative Ethik“ in Bern vom 29. Juni bis 1. Juli 2007. Zürich: TVZ Theol. Verl., S. 329–343. Haker, Hille (2010): Narrative Ethik. Academia.edu. Online abrufbar unter: https://www.academia. edu/7232720/2010_Narrative_Ethik. Heisenberg, Werner (2003): Über die Verantwortung des Forschers. In: Ders./Busche, Jürgen (Hrsg.): Quantentheorie und Philosophie. Vorlesungen und Aufsätze. Stuttgart: Reclam, S. 76–90. Hilgendorf, Eric (2015): Teilautonome Fahrzeuge: Verfassungsrechtliche Vorgaben und rechtspolitische Herausforderungen. In: Ders./Hötitzsch, Sven/Lutz, Lennart S. (Hrsg.): Rechtliche Aspekte automatisierter Fahrzeuge. Beiträge zur 2. Würzburger Tagung zum Technikrecht im Oktober 2014. 1. Aufl. Baden-Baden: Nomos (Robotik und Recht, Bd. 5), S. 15–32. Jacobson, Ivar/Spence, Ian/Kerr, Brian (2016): Use-Case 2.0. The Hub of Software Development. In: ACM Queue 14(1), S. 94–123. Joisten, Karen (2007): Möglichkeiten und Grenzen einer narrativen Ethik. Grundlagen, Grundpositionen, Anwendungen. In: Dies. (Hrsg.): Narrative Ethik. Das Gute und das Böse erzählen. Berlin: Akad.-Verl. (Deutsche Zeitschrift für Philosophie Sonderband, 17), S. 9–25. Kröger, Fabian (2015): Das automatisierte Fahren im gesellschaftsgeschichtlichen und kulturwissenschaftlichen Kontext. In: Maurer, Markus/Gerdes, J. Christian/Lenz, Barbara/Winner, Hermann (Hrsg.): Autonomes Fahren. Berlin/Heidelberg: Springer, S. 41–67. Lautmann, Rüdiger (1971): Wert und Norm. Begriffsanalysen für die Soziologie. 2. Aufl. Opladen: Westdeutscher Verlag. Mieth, Dietmar (2002): Rationalität und Narrative Ethik. Eine Erweiterung der rationalen Zugänge in der Ethik. In: Karafyllis, Nicole Christine/Schmidt, Jan C. (Hrsg.): Zugänge zur Rationalität der Zukunft. Stuttgart: Metzler, S. 277–303. Mieth, Dietmar (2007): Literaturethik als narrative Ethik. In: Joisten, Karen (Hrsg.): Narrative Ethik. Das Gute und das Böse erzählen. Berlin: Akad.-Verl. (Deutsche Zeitschrift für Philosophie Sonderband, 17), S. 214–234. Müller, Michael/Grimm, Petra (2016): Narrative Medienforschung. Einführung in Methodik und Anwendung. Konstanz/München: UVK Verlagsgesellschaft. Nussbaum, Martha Craven (2000): Vom Nutzen der Moraltheorie für das Leben. Dt. Erstausgabe, aus dem Amerikanischen von Joachim Schulte. Wien: Passagen Verlag. Oerter, Rolf (1970): Struktur und Wandlungen von Werthaltungen. München/Basel: Oldenbourg. Reek, Felix (2018): Der Mensch ist noch zu kindisch für autonomes Fahren. Süddeutsche Zeitung, 25.01.2018. Online: http://www.sueddeutsche.de/auto/tesla-der-mensch-ist-noch-zu-kindischfuer-autonomes-fahren-1.3839832 (Abruf: 29.01.2018).
Narrative Ethik in der Forschung zum automatisierten und vernetzten Fahren
109
Reichardt, Robert (1979): Wertstrukturen im Gesellschaftssystem – Möglichkeiten makrosoziologischer Analysen und Vergleiche. In: Klages, Helmut/Kmieciak, Peter (Hrsg.): Wertwandel und gesellschaftlicher Wandel. Frankfurt/New York: Campus Verlag, S. 23–40. Rorty, Richard (1992): Kontingenz, Ironie und Solidarität. 1. Aufl. Frankfurt am Main: Suhrkamp. Rorty, Richard (2001): Philosophie & die Zukunft. Essays. Orig.-Ausgabe, 2. Aufl. Frankfurt am Main: Fischer. Titzmann, Michael (2013): Narrative Strukturen in semiotischen Äußerungen. In: Krah, Hans/Titzmann, Michael (Hrsg.): Medien und Kommunikation. Eine interdisziplinäre Einführung. 3., stark erw. Aufl. Passau: Stutz, S. 115–142. Wisselmann, Dirk (2015): Technische Fahrzeugentwicklung – Hochautomatisiertes Fahren ab 2020? In: Hilgendorf, Eric/Hötitzsch, Sven/Lutz, Lennart S. (Hrsg.): Rechtliche Aspekte automatisierter Fahrzeuge. Beiträge zur 2. Würzburger Tagung zum Technikrecht im Oktober 2014. 1. Aufl. Baden-Baden: Nomos (Robotik und Recht, Bd. 5), S. 11–14.
ANIMAL LABORANS DIGITALIS ODER HOMO FABER DIGITALIS? Zur Dialektik von technischem Fortschritt und Arbeitsorganisation1 Rudi Schmiede
Das Verhältnis von Arbeit und Technik – weniger das beider zur Organisation – beschäftigt die Sozialwissenschaften seit ihrer Entstehung. Dabei wurden und werden zahlreiche Fragen und Zusammenhänge thematisiert und debattiert, die hier nur kursorisch angesprochen werden können. Die tiefgreifende Veränderung des Verhältnisses von Technik und Arbeit gilt als ein zentrales Merkmal der industriellen Revolution zu Beginn des 19. Jahrhunderts; ebenso wurden auch deren weitere Etappen unter Rekurs auf epochale Veränderungen in den Bereichen von Arbeit und Technik definiert. War man gegen Ende des 20. Jahrhunderts noch mit der Analyse der dritten industriellen Revolution beschäftigt2, so ist heute bereits von der vierten industriellen Revolution die Rede – oder kurz von Industrie 4.0.3 Eine wichtige Rolle spielte dabei stets die enorme Bedeutung, die Technik und Arbeit für Entwicklung und Wohlstand der Gesellschaften beigemessen wurde: Von Adam Smith bis hin zu Joseph A. Schumpeter wurde der Fortschritt der Industrie – das heißt von Arbeit und Technik – gleichgesetzt mit dem Fortschritt auf zahlreichen anderen Gebieten, verband sich mit dem Glauben an technische Neuerungen und Innovationen die Hoffnung auf wachsenden Wohlstand, bessere Versorgung und einen Zugewinn individueller Chancen. Auch wenn seit Beginn des 19. Jahrhunderts die innere Widersprüchlichkeit dieser Produktionsweise in Form von Krisen und in Gestalt sozialer (und auch internationaler) Ungleichheit zunehmend sichtbar wurde, wurden diese Phänomene als negative Begleiterscheinungen eines an sich gleichwohl notwendigen säkularen Fortschrittsprozesses begriffen. Mit der immer stärker in die gesellschaftliche Wahrnehmung drängenden Manifestation der inneren Widersprüche der kapitalistischen Produktionsweise stellte 1
2 3
Der vorliegende Text ist die gekürzte, aber auch leicht ergänzte Fassung eines früheren Beitrags: Rudi Schmiede (2015): Homo faber digitalis? Zur Dialektik von technischem Fortschritt und Arbeitsorganisation. In: Mittelweg 36, Jg. 24, Heft 6, S. 37–58. Der vorliegende Text ist zudem unter einem etwas modifizierten Titel und für ein anderes Leserpublikum in einem Tagungsband erschienen: Animal laborans digitalis oder homo faber digitalis? Sozialstruktur, Arbeit und Organisation in der Wirtschaft 4.0. In: Hermann-Josef Blanke/Gerald Grusser (Hrsg.) (2016): Industrie und Wirtschaft 4.0. Politische, rechtliche sowie wirtschaftliche Herausforderungen. Staatswissenschaftliches Forum e.V., Tagungsberichte 2/2016. Erfurt, S. 22–33. Vgl. Hack 1988. Siehe dazu Pfeiffer 2015.
112
Rudi Schmiede
sich jedoch auch das Verhältnis von Arbeit und Technik in zunehmendem Maße als ein Problem dar, das genauer sich anzuschauen ebenso erforderlich wie lohnend erschien. Galt im 19. Jahrhundert die Technik als Materie gewordene Vernunft, meinten die Sozialtheoretiker Anfang des 20. Jahrhunderts, in der einsetzenden Verwissenschaftlichung der Produktion, in den science-based industries, die unabweisbare Form der zunehmend rationalen Organisation der gesellschaftlichen Reproduktion und des Zusammenlebens erblicken zu können. Nicht zufällig bezeichnete Frederick W. Taylor das von ihm entwickelte Managementkonzept, das die Enteignung des Produktionswissens der Arbeiter und dessen Konzentration bei einer neuen Schicht der Unternehmensführung und Organisation zur Folge hatte, als „wissenschaftliche Betriebsführung“4. Zuvor hatte schon Marx in den Grundrissen der Kritik der politischen Ökonomie die bedeutende Rolle hervorgehoben, die die Technik bei der Unterwerfung der Arbeiter und des Arbeitsprozesses unter die Verwertungsinteressen des Kapitals spielt: Der Produktionsprozeß hat aufgehört Arbeitsprozeß in dem Sinn zu sein, daß die Arbeit als die ihn beherrschende Einheit über ihn übergriffe. [...] Das Aufnehmen des Arbeitsprozesses als bloßes Moment des Verwertungsprozesses des Kapitals ist auch der stofflichen Seite nach gesetzt durch die Verwandlung des Arbeitsmittels in Maschinerie und der lebendigen Arbeit in bloßes lebendiges Zubehör dieser Maschinerie; als Mittel ihrer Aktion.5
Später im Kapital formulierte Marx mit Blick auf diesen Prozess dann seine These von der „reelle[n] Subsumtion der Arbeit unter das Kapital“6, die in ihrem Kern besagt, dass der Kapitalismus durch den Einsatz von Technik und Organisation auf jeder Stufe seiner historischen Entwicklung zusammen mit dem jeweils erforderlichen Typus von Arbeitskraft auch die zu ihrer Verausgabung geeigneten Bedingungen hervorbringt. Dieser These zufolge sind also sowohl das Zusammenspiel von Technik und Organisation als auch die aus dieser Interaktion resultierenden Formen und Spielräume der Arbeitskraft eingebettet in die Entwicklungsdynamik des Gesamtprozesses der Kapitalakkumulation, der sie damit auch unterliegen. Das ist nun keineswegs so zu verstehen, als würden die Arbeiter im Kapitalismus nach Art Pawlow’scher Hunde oder dressierter Affen in ihrem Verhalten gleichsam determiniert. Vielmehr wird die Verhaltenssteuerung indirekt durch die anonymen ökonomischen Mechanismen der bürgerlichen Gesellschaft und die ihr innewohnende Dialektik von Unterordnung und Kooperation bewirkt – also mittels der Bereitstellung und ökonomischen Sanktionierung von Formen des Sozialverhaltens, an die sich das Individuum interessengeleitet und um des eigenen Vorteils willen, aber oft durchaus in Form unerwarteter und selbstgewählter Strategien anpaßt beziehungsweise innerhalb derer es Formen der kompromißhaften Koexistenz mit den gesellschaftlichen Zwängen sucht und findet.7
Diese allgemeinen Bemerkungen sollen einen theoretischen Hintergrund skizzieren, der es erlaubt, die der kapitalistischen Produktionsweise innewohnende Dia4 5 6 7
Siehe Schmiede/Schudlich 1976. Marx 1974, S. 585. Marx 1962, S. 533. Schmiede 1989, S. 29.
Animal laborans digitalis oder homo faber digitalis?
113
lektik von System und Individuum angemessen zu reflektieren, ohne in die – leider für große Teile der sozialwissenschaftlichen Diskussion charakteristischen – Sackgassen zu laufen, die ihren Ausgang entweder von der wirklichkeitsfremden Annahme der absoluten, technikvermittelten Systemdominanz nehmen oder von der nicht weniger unrealistischen Unterstellung der prinzipiell unbegrenzten, zuweilen sogar als dominant erachteten sozialen Gestaltung von Arbeit, Organisation und Technik ausgehen. Diese Thematik wurde in der neueren Debatte über die Zukunft der Arbeitsgesellschaft – oft unbewusst – wieder aufgegriffen. Hannah Arendt hat in ihrem Buch Vita activa8, das 1958 zuerst unter dem englischen Titel The Human Condition erschien, einen kritischen Begriff der Arbeitsgesellschaft entwickelt, den sie für eine dekadenztheoretische Analyse der Gegenwart nutzt. In dieser Analyse beschreibt Arendt die Gegenwart als vorläufige Endstufe eines zweistufigen Verfallsprozesses, in dem während der Neuzeit zunächst die spezifisch menschliche Praxis des (kreativen) Handelns durch die zweckgerichtete Tätigkeit des Herstellens (des homo faber) verdrängt wird, an deren Stelle schließlich in der Moderne die sich immer weiter ausbreitende, nur noch auf bloße Reproduktion gerichtete Arbeit (des animal laborans) tritt. Damit kommt dem Begriff der Arbeitsgesellschaft in Arendts Verfallstheorie eine ähnlich kritische Funktion zu wie dem Begriff der Entfremdung im Frühwerk von Marx9. Die entscheidende Gemeinsamkeit, in der die Theorien der beiden ansonsten so verschiedenen Denker übereinstimmen, besteht in der Diagnose einer zunehmenden Verarmung des menschlichen Erfahrungswissens im Zuge der voranschreitenden Ökonomisierung aller Lebensbereiche. Noch düsterer als ihre Bilanz für die Gegenwart fällt Arendts Prognose für die Zukunft aus. So ist sie der Meinung, dass man angesichts der rasant voranschreitenden technischen Entwicklung bereits den Moment voraussehen kann, an dem auch die Arbeit und die ihr erreichbare Lebenserfahrung aus dem menschlichen Erfahrungsbereich ausgeschaltet sein wird. [...] In ihrem letzten Stadium verwandelt sich die Arbeitsgesellschaft in eine Gesellschaft von Jobholders, und diese verlangt von denen, die ihr zugehören, kaum mehr als ein automatisches Funktionieren.10
Diese Passagen machen unmittelbar deutlich, dass es vor allem die Prozesse der zunehmenden Arbeitsteilung und Mechanisierung bis hin zur Automatisierung sind, die ihrer Kritik zugrunde liegen. Nach diesen knappen Bemerkungen, die daran erinnern sollen, dass auch der Diskurs über die Zukunft der Arbeitsgesellschaft mittlerweile eine Vergangenheit besitzt, wende ich mich nun zwei zentralen Fragen dieses Diskurszusammenhangs zu, die die zukünftige Arbeitsmarktentwicklung und die veränderte Qualität der Arbeit betreffen. Zum einen diskutiere ich die heutigen Debatten über die Beschäftigungswirkungen der computerisation als eine ihrer selbst unbewusste Neuauflage der Automatisierungsdebatte vor gut einem halben Jahrhundert; zum anderen geht es mir – durchaus in den angesprochenen kritischen Traditionen – darum, nach der 8 9 10
Arendt 2014. Vgl. Marx 1985, S. 465–588, insbesondere S. 510–522. Arendt 2014, S. 314.
114
Rudi Schmiede
Bedeutung des gegenwärtigen Wandels der Arbeit für die gesamte Lebensweise und die gesellschaftliche Stellung der menschlichen Subjekte zu fragen. Mein besonderes Augenmerk wird dabei den digitalen Technologien gelten, denen aus meiner Sicht eine Schlüsselrolle für die Gestaltung des Verhältnisses von Arbeit und Organisation zukommt. 1 AUTOMATISIERUNG UND COMPUTERISIERUNG Im Hinblick auf die heutigen Prognosen zu den Folgen der Computerisierung lohnt es sich, einen kurzen Blick zurück auf die Automatisierungsdebatte der 1950erJahre zu werfen. Sie stand noch ganz im Zeichen der sich seit Beginn des 20. Jahrhunderts rasant ausbreitenden Rationalisierungsbewegung und ihrer von Taylorismus und Fordismus geprägten Methoden der hoch arbeitsteiligen Massenproduktion (bei niedrigen Wachstumsraten und hoher Arbeitslosigkeit). Als die beiden wichtigsten Probleme wurden – vor allem mit Blick auf die US-amerikanischen Erfahrungen – die drohende „technologische Arbeitslosigkeit“ und, wenn auch zögerlicher, die Gefahr einer Polarisierung der Qualifikationen und Arbeitsverhältnisse diagnostiziert.11 Als technologische Arbeitslosigkeit wurden die negativen Auswirkungen der diagnostizierten beziehungsweise prognostizierten höheren Wachstumsraten der Arbeitsproduktivität auf das Beschäftigungsvolumen bezeichnet, wobei eher optimistische und stärker pessimistische Prognosen miteinander konkurrierten. Schaut man sich die Debatten rückblickend noch einmal an, kommt man nicht umhin, kritisch anzumerken, dass hier in stark vereinfachender Weise eine bestimmte technologische Entwicklungstendenz und die Entwicklung des Beschäftigungsvolumens in falscher Unmittelbarkeit zusammengebracht wurden, denn tatsächlich hängt die Entwicklung von Beschäftigung und Arbeit nur sehr vermittelt mit der von Technologie und Innovation zusammen. Solange die gesamtwirtschaftliche Produktion ebenso wächst wie die (schwierig zu messende) Arbeitsproduktivität, bleibt das Arbeitsvolumen ceteris paribus gleich; in der Zeit des ‚Wirtschaftswunders‘ oder allgemeiner der internationalen Prosperität der beiden Nachkriegsjahrzehnte, in der das Sozialprodukt eher stärker anstieg als die Produktivität und zudem deutliche Arbeitszeitverkürzungen stattfanden, stieg mithin die Beschäftigung trotz eines Produktivitätswachstums, von dem die Wirtschaft heute nur noch träumen kann. Eine Diskussion darüber, was die Bedingungen des Wirtschafts- beziehungsweise des Produktivitätswachstums und wichtige sie beeinflussende Faktoren sind, sucht man in den zeitgenössischen Beiträgen zur Diskussion jedoch weitgehend vergeblich. Und auch die Erfahrung und das Bewusstsein, dass eine Veränderung der Produktionsweise bei entsprechend gegebenen äußeren Wachstumsbedingungen zur nicht prognostizierbaren Entstehung ganz neuer Geschäftsfelder, Branchen und Arbeitstätigkeiten führen kann, sind in der Diskussion der Zeit noch nicht präsent.
11
Vgl. etwa Pollock 1964, S. 189ff. und 149ff.
Animal laborans digitalis oder homo faber digitalis?
115
Ein vom Prinzip her ähnlicher Argumentationsgang findet sich auch in aktuellen ökonomischen Analysen zum Verhältnis von Technologie und Beschäftigung. So kommen die Oxforder Ökonomen Frey und Osborne in einer umfangreichen Analyse des US-amerikanischen Arbeitsmarkts zu dem Ergebnis, dass „47 percent of total US employment is in the high risk category, meaning that associated occupations are potentially automatable over some unspecified number of years, perhaps a decade or two“12. Für die erste Welle der fortschreitenden Computerisierung, die Frey und Osborne innerhalb der nächsten Dekade erwarten, prognostizieren sie „that most workers in transportation and logistics occupations, together with the bulk of office and administrative support workers, and labour in production occupations, are likely to be substituted by computer capital“13. Diese Prognosen werden im Text mit einigen technologischen Plausibilitäten begründet und im Fall der Produktionsarbeiter zudem als Fortsetzung einer schon seit längerer Zeit anhaltenden Entwicklung charakterisiert. Aber auch mit Blick auf die von ihnen erwähnten größeren Beschäftigtengruppen weisen die Ergebnisse von Frey und Osborne eine überraschende Ähnlichkeit mit den von Pollock vor mittlerweile immerhin rund sechzig Jahren gemachten beziehungsweise zitierten Voraussagen auf. Schließlich sollte auch nicht unerwähnt bleiben, dass die lange Zeit vorherrschende Sichtweise, die in der technologischen Arbeitslosigkeit ein drängendes gesamtgesellschaftliches Problem erblickte, einer eurozentristischen Perspektive entsprang, denn weltweit nahm (und nimmt) das Arbeits- und Beschäftigungsvolumen – nicht nur durch die Tertiarisierung, sondern auch in der industriellen Güterproduktion (im Sprachgebrauch der internationalen Statistik: im manufacturing) – weiterhin zu.14 Erst die jüngsten Wachstumseinbrüche in Ost- und Südostasien könnten diesen Trend vorläufig stoppen. Nun ist überhaupt nicht auszuschließen, dass die von Frey und Osborne prognostizierten Entwicklungen in den nächsten Jahren mehr oder weniger so eintreten werden. Für den Fall, dass sich die seit einiger Zeit zu beobachtenden Abschwächungstendenzen der weltweiten makroökonomischen Entwicklung fortsetzen sollten, ist das sogar sehr wahrscheinlich. Schließlich handelt es sich bei der globalen Finanzkrise ja nur bei oberflächlicher Betrachtung um ein reines Finanzproblem: Tatsächlich entstand der gegenwärtige Finanzkapitalismus mit seiner enormen Aufblähung fiktiven Kapitals ja nicht zuletzt als Antwort auf die anhaltenden Investitions- und Verwertungsprobleme des Kapitals im produktiven Sektor.15 Schaut man genauer hin, so lassen sich unter der Oberfläche die klassischen Probleme der rück12
Frey/Osborne 2013. Für eine auf zusätzliche Daten der International Labour Organization (ILO) gestützte Diskussion der Computerisierung und ihrer Auswirkungen auf den europäischen Arbeitsmarkt vgl. Bowles 2014. 13 Frey/Osborne 2013. 14 Siehe dazu die Zahlen und Argumente bei Castells 2001, S. 282ff. In Deutschland wurde nach einer Erhebung des Instituts für Arbeitsmarkt- und Berufsforschung (LAB) im Jahr 2013 mit 58,1 Mrd. Stunden das höchste Arbeitsvolumen seit 1994 erzielt, die Erwerbstätigkeit erreichte mit 41,8 Milliarden Stunden sogar den höchsten Stand seit dem Zweiten Weltkrieg. Vgl. WolfBraun 2014. 15 Zu den Ursachen der Entstehung des Finanzkapitalismus und seiner Krise vgl. u. a. Krugman 2009 und Sinn 2009; außerdem zur breiteren Krisendiagnose Mattick 2012 sowie Kliman 2012.
116
Rudi Schmiede
läufigen Profitabilität und Kapitalakkumulation sowie – damit einhergehend – des abnehmenden Produktivitätswachstums erkennen.16 Inwieweit die Prognose Realität wird, dürfte also vor allem vom weltweiten Wirtschaftswachstum abhängen, das wiederum von vielen Faktoren – nicht zuletzt vom verkappten Keynesianismus der führenden Notenbanken mit ihrer Politik der Geldschwemme – beeinflusst wird. Ganz ähnliche Schwierigkeiten stellen sich ein, wenn es um Prognosen zur zukünftigen Entwicklung der Beschäftigungsstruktur geht. Pollocks im Anschluss an Bright formulierte Diagnose einer Polarisierung der Qualifikationen wurde in Deutschland durch die bekannte, methodisch ebenfalls an Bright orientierte Studie von Kern und Schumann empirisch bestätigt,17 allerdings nur als schwach ausgeprägte Tendenz. Auch die erwähnten Untersuchungen von Frey und Osborne sowie die weiterführende Studie von Bowles weisen – ihrerseits freilich mit sehr viel stärkerer Ausprägung – in diese Richtung. Es gibt denn auch keinen Grund, daran zu zweifeln, dass viele der bestehenden Berufsbilder und Tätigkeitsprofile sich den Prognosen entsprechend verändern werden. Doch auch hier gilt: Prognosen über die mögliche Entwicklung derzeit bestehender Tätigkeitsprofile erlauben keine Aussagen über das Entstehen neuer Berufsbilder und die künftige Gestaltung der Arbeitsteilung – zumal diese in rasch zunehmendem Ausmaß grenzüberschreitende oder sogar weltumspannende Formen annehmen wird. Es erscheint deshalb sehr viel sinnvoller, die Entwicklung ganzer Produkt- oder Wertschöpfungsketten zu verfolgen. Im Feld der ökologischen Forschung ist dies seit Jahrzehnten ein anerkanntes Verfahren, in der Technik- und Arbeitsforschung hingegen ist es bislang nur ansatzweise in einigen Studien zum IT-Sektor zum Einsatz gekommen.18 Die genannten Studien zur Automatisierung und zur Computerisierung sind zwar interessant, erfassen aber nur bestimmte, eher enge Ausschnitte des viel komplexeren Zusammenhangs zwischen Arbeit, Organisation, Technik und Ökonomie. Die Fokussierung auf das – selbstverständlich wichtige – Problem der Arbeitslosigkeit verstellte nicht nur in den älteren Debatten über die Arbeitsgesellschaft den Blick auf den inneren, qualitativen Wandel der Arbeit als der wichtigsten menschlichen Tätigkeit in der modernen Gesellschaft, sondern tut das teilweise auch heute noch. Um diesen qualitativen Wandel der Arbeit in den Blick zu bekommen, bedarf es einer differenzierten Analyse der Informatisierung und ihrer Einbettung.
16
17 18
In Deutschland ist die gesamtwirtschaftliche Produktivität (reales BIP je Erwerbstätigenstunde) seit Mitte der 2000er-Jahre kaum noch gewachsen. Vgl. Deutsche Bundesbank 2015, S. 24. Der Modernitätsgrad des Anlagevermögens in Deutschland ist zwischen 1991 und 2010 um 4 Prozentpunkte zurückgegangen (Institut der deutschen Wirtschaft Köln 2013, Tab. 2.10), ebenso der Anteil der Bruttoanlageinvestitionen am BIP (ebd., Tab. 2.8). Der Produktivitätsrückgang gilt auch international für die meisten Länder (ebd., Tab. 12.12). Vgl. Pollock1964, S. 254–256. Pollock beruft sich auf Bright 1958, S. 85–98. Vgl. ferner Kern/ Schumann 1970. Vgl. dazu u. a. Hürtgen/Lüthje/Schumm/Sproll 2009; Wittke/Hanekop 2011.
Animal laborans digitalis oder homo faber digitalis?
117
2 DIE INFORMATISIERTE ARBEITSGESELLSCHAFT Die Informatisierung ist Bestandteil und Kern einer grundlegenden Veränderung der kapitalistischen Produktionsweise, die ihren Ausgang von der Weltwirtschaftskrise Mitte der 1970er-Jahre und der damit verbundenen Krise der tayloristischfordistischen Massenproduktion genommen hat. Sie ist eng verschränkt mit der Globalisierung und der mit ihr einhergehenden neuen und verfeinerten internationalen Arbeitsteilung sowie mit der externen und internen Finanzialisierung von Unternehmen und vielen anderen Organisationen.19 Die vertiefte und filigrane internationale Arbeitsteilung, die es ermöglicht, dass nicht mehr nur die großen internationalen Konzerne, sondern auch kleinere und mittlere Unternehmen sich am Weltmarkt entfalten können, ist nicht ohne die weltumspannende informationelle Vernetzung denkbar und hat sich erst auf ihrer Grundlage entwickelt. Der organisatorische Raum für diese Art der Vernetzung wurde durch die Deregulierung der internationalen Produkt-, Geld- und Kapitalmärkte unter der Ägide des Neoliberalismus geschaffen. Technisch möglich wurde sie jedoch erst mit der Ausbreitung des World Wide Web ab Mitte der 1990er-Jahre. Über diesen in der Tat umstürzenden Prozess wird freilich oft vergessen, dass die von der Informatisierung getragene Globalisierung auch revolutionäre Folgen für die Entwicklung der materiellen Logistik und Mobilitätsströme im realen – und nicht nur im virtuellen – Raum zeitigte und das auch weiterhin tut.20 An diesem wie auch an anderen Phänomenen wird deutlich, dass die digitale Welt – ungeachtet aller Verselbständigungstendenzen – letztlich doch untrennbar mit der materialen Welt verbunden bleibt. Was das Phänomen der externen Finanzialisierung betrifft, so ist dieses im Zuge der Finanzkrise von 2008 schlagartig sichtbar und nachhaltig bekannt geworden. Es zeigt sich in der bereits erwähnten ökonomischen Notwendigkeit einer gigantischen Schöpfung von (weitgehend fiktivem) Geldkapital sowie in der damit einhergehenden wirtschaftspolitischen Führungsrolle und dem großen politischen Einfluss der internationalen Finanzorganisationen. Infolge dieser Entwicklungen ragt der Finanzmarkt- oder Kasinokapitalismus heute weit in die Unternehmen und viele andere Organisationen hinein. Das weniger sichtbare und auch weniger bekannte Korrelat der externen ist die interne Finanzialisierung. Sie bezeichnet die Gesamtheit aller Maßnahmen, Strukturen und Prozesse, die dazu beitragen, die dominierende Rolle des Finanzkapitals im Inneren von Unternehmen und Organisationen zu verankern, sei es in Form von Eigentumsstrukturen oder durch die Art der Unternehmensleitung. Letztere wird von Seiten des Managements zunehmend mittels finanzieller Kennziffern ausgeübt, die zumeist einer Logik der raschen Profit19 20
Für einen Überblick vgl. Schmiede 2015b. Eine detailliertere Auseinandersetzung mit der Problematik findet sich schon in Schmiede 2006, S. 437–490 (jetzt auch in Schmiede 2015a, S.167–200). Ein Blick auf einen modernen Tiefseehafen mit seinen endlosen Containergebirgen und den zugehörigen Riesenschiffen, für die ja erst unlängst sowohl der Suez- als auch der Panamakanal erweitert wurden, macht das für den weltweiten Transport ebenso deutlich wie das überproportionale Wachstum des Frachtflugverkehrs; die Okkupation der Autobahnen und größeren Landstraßen durch Lastwagen ist das Korrelat für geringere Entfernungen.
118
Rudi Schmiede
maximierung gehorchen und die Übernahme kurzfristiger Handlungs- und Entscheidungsperspektiven begünstigen. Dies erfolgt oft auf der Basis sogenannter Enterprise Resource Planning- oder ERP-Systeme, deren wichtigstes in Deutschland unter dem Namen SAP R/3 bekannt ist. Diese Systeme zielen auf eine möglichst enge und lückenlose Verknüpfung von materiellen und finanziellen Größen und Prozessen ab und machen gerade dadurch die finanzorientierte Unternehmensleitung überhaupt erst möglich. Sowohl die Verantwortung für die keineswegs vollautomatische Übersetzung zwischen materiellen und finanziellen Prozessen als auch das damit verbundene Risiko werden im Zuge der Durchsetzung dieser Systeme in der Unternehmenshierarchie nach unten in die Fachabteilungen, profit centres oder selbständigen Betriebsteile verlagert.21 Das Ziel, das damit verfolgt wird, liegt in der Gewährleistung einer möglichst engen Marktnähe aller Unternehmensaktivitäten; der Effekt, der sich dabei einstellt, besteht in einer ausgeprägten Unmittelbarkeit der Ökonomie, das heißt, die Zwänge der Märkte werden für jede Arbeitsgruppe, an jedem Arbeitsplatz spürbar und die Beschäftigten so zu marktkonformem Verhalten veranlasst. Sowohl die Globalisierung als auch die Finanzialisierung in ihren beiden Dimensionen gehen mit ständigen Prozessen der Verdoppelung der Realität in abstrakter (digitaler) Form einher.22 Trotzdem muss zwischen beiden Ebenen immer wieder rückvermittelt werden. Die vermehrten Vermittlungstätigkeiten zwischen den abstrakten Welten der Finanzen und der symbolisierten Information einerseits und der realen Welt mit ihren materialen und immateriellen Prozessen und Tätigkeiten andererseits haben auch Veränderungen im Bereich der Arbeit zur Folge, die Gegenstand zahlreicher Studien und Debatten der Arbeitsforschung sind.23 Zu den wichtigsten Neuerungen gehören die Ausbreitung vielfältiger Formen der Teamund Projektarbeit sowie – damit einhergehend – gesteigerte Anforderungen an die Flexibilität, Kreativität und sozialen Kompetenzen der Beschäftigten, von denen zunehmend die Mobilisierung und der Einsatz zentraler Eigenschaften ihrer Persönlichkeit erwartet werden. Diese in der arbeitssoziologischen Forschung als „Subjektivierung“ und als „Entgrenzung“ von Arbeit analysierte Entwicklung hat strukturelle Gründe, die in den beschriebenen Veränderungen der Produktionsweise zu finden sind: So ziehen die veränderten Produktionsbedingungen nicht nur einen erhöhten Informations-, Kommunikations- und Koordinationsaufwand nach sich, sondern darüber hinaus bedürfen auch die in Netzwerken immer vorhandenen structural holes zusätzlicher menschlicher Verbindungs- und Überbrückungsanstrengungen.24 Die Verknotung der Finanzen sowie der Struktur- und Prozessinformationen mit den realen Produktions- und Servicevorgängen findet in den realen Arbeitsprozessen „vor Ort“ statt, und zwar sowohl auf den erwähnten unteren Organisations21 Vgl. dazu die gute Studie von Hohlmann 2007. 22 Weitere theoretische Ausführungen dazu finden sich in Schmiede 1996, S.15–47 (jetzt auch in Schmiede 2015a, S. 107–142) sowie Schmiede 2006. 23 Für einen Überblick vgl. Schmiede/Schilcher 2009, S.11–38 (jetzt auch in Schmiede 2015a, S. 289–310). 24 Zum Theorem der structural holes und seiner Bedeutung in der Netzwerktheorie vgl. Burt 1995.
Animal laborans digitalis oder homo faber digitalis?
119
ebenen – in den Fachabteilungen, profit centres, Projekten etc. – als auch am einzelnen Arbeitsplatz, an dem zunehmend kostenbewusstes und effizienzorientiertes Arbeitsverhalten gefordert ist. Die mit digitalen Bearbeitungs-, Planungs-, Konstruktions- und Entwicklungstätigkeiten befassten Beschäftigten müssen zum einen zwischen realen und finanziellen Größen hin und her übersetzen und vermitteln; zum anderen müssen sie die von ihnen ausgeübten Tätigkeiten beständig kontextualisieren, das heißt, ihre Ursachen und ihre Wirkungen in der realen Welt bedenken, was eine stetige Kommunikation zwischen allen an der jeweiligen Aufgabe beteiligten Kollegen erforderlich macht. Diese dreifache Aufgabe der Überbrückung von Brüchen in der Organisationsstruktur und den Netzwerken, der Vermittlung zwischen finanziellen und realwirtschaftlichen Größenordnungen sowie zwischen informationellen und realen Prozessen ist ein wesentliches strukturelles Merkmal heutiger Wissensarbeit. Der Begriff der Wissensarbeit wird mittlerweile zur Beschreibung einer Reihe neuartiger Arbeitsformen verwendet, bleibt aber in der Regel eben deshalb zugleich vage und unbestimmt. Nicht selten dient er dazu, das für eine Tätigkeit erforderliche Maß an Bildung und Qualifikation zu umreißen, in den letzten Jahren oft erweitert um die Perspektive auf vorhandene beziehungsweise erwartete Kompetenzen. Tatsächlich umfasst der zugrunde liegende Wissensbegriff, wie das besonders Michael Polanyi mit seinem Konzept des Personal Knowledge25 hervorgehoben hat, jedoch ein viel breiteres Spektrum an Erfahrungen, Emotionen, körperlichen Empfindungen und anderen wichtigen Eigenschaften und Ausdrucksformen der gesamten Person. Deswegen ist die Unbestimmtheit von Wissensarbeit doppelt bedingt: Zum einen durch den Charakter des Wissens selbst, zum anderen durch die strukturelle Unbestimmtheit, die den genannten Vermittlungsaufgaben zugrunde liegt. Sabine Pfeiffer bringt diese in der Person liegende Begründung von Wissensarbeit in ihrer Analyse des Arbeitsvermögens, das sie als zugehörige Gebrauchswertkategorie dem Begriff der Arbeitskraft als Wertgröße gegenüberstellt, zum Ausdruck.26 Entgegen der weitverbreiteten Ansicht, dass subjektives Wissen im Zuge der Informatisierung entwertet und durch gespeicherte Informationen ersetzt wird, ist vielmehr davon auszugehen, dass die Prozesse der Informatisierung und der Subjektivierung der Arbeit sich gegenseitig verstärken, also zwei Seiten derselben Medaille darstellen. Die heute gängige Forderung nach einer stärkeren Flexibilisierung von Arbeit zielt ja nicht nur auf die Ausdehnung der zeitlichen Verfügbarkeit der Arbeitenden, sondern darüber hinaus auch auf die Mobilisierung der subjektiven Potenziale ihres Arbeitsvermögens. Die Ausbreitung von Strategien und Verfahren des soft management erzeugt einen wachsenden Druck auf die Beschäftigten, der sowohl in Richtung des verstärkten Einsatzes als auch der möglichen Preisgabe der eigenen Subjektivität wirken kann. Dieser „Kampf um das Subjekt“27 ist insofern ambivalent, als er sowohl Chancen (zu einer stärker an Beschäftigteninteressen orientierten Mitgestaltung) als auch Gefahren (der Überforderung durch die Internali25 Vgl. Polanyi 1995 [1958]. 26 Vgl. Pfeiffer 2004 sowie 2014, S. 599–619. 27 Schmiede 2006, S. 481f.
120
Rudi Schmiede
sierung von Leistungsvorgaben mit der Folge einer corrosion of character28 und anderer Identitätsprobleme) mit sich bringt; beide sind in der Arbeitsforschung des letzten Jahrzehnts thematisiert, aber nicht hinreichend untersucht worden. 3 INFORMATISIERUNG UND ORGANISATION Die zunehmend enge Verknüpfung von informations- und kommunikationstechnischen Strukturen in und zwischen Organisationen sowie mit der Funktionsweise und den Prozessstrukturen der Organisationen selbst wurde schon im Hinblick auf die interne Finanzialisierung erwähnt. Es lohnt sich, diesen Zusammenhang noch einmal genauer in den Blick zu nehmen. Wie bereits bemerkt, wurde schon früh sichtbar, dass die Welt der vernetzten Computer zugleich eine neue „Organisationstechnologie“ darstellt,29 die an Bedeutung und Prägekraft kontinuierlich gewinnt, aber auch neue Vermittlungsprobleme schafft. Diese Organisationstechnologie gewinnt an Bedeutung, weil sich im Zuge des beschriebenen Wandels der Produktionsweise zunehmend kleinteiligere, aber oft weltumspannende Wertschöpfungsketten herausbilden, die überhaupt nur mittels moderner Informations- und Kommunikationstechniken organisierbar und beherrschbar sind. Die Schwierigkeiten der möglichst effizienten Organisation solcher Ketten kommen in der von Unternehmen wie von Beratern immer wieder als Lösung propagierten „Konzentration auf die Kernkompetenzen“ zum Ausdruck, was nichts anderes als die Selbstbeschränkung auf die beherrschbaren Wertschöpfungsketten bedeutet. Die Kleinteiligkeit oder der zunehmend filigrane Charakter der Ketten bewirkt, dass diese die Form der Ausbreitung netzwerkförmiger Kooperationsbeziehungen in und zwischen Organisationen annehmen. Netzwerke erweisen sich somit als die Organisationsform, die diesen hochgradig veränderlichen und komplexen neuen Markt- und Wertschöpfungsstrukturen angemessen ist. Sie haben sich nicht nur in der Wirtschaft, sondern in allen gesellschaftlichen Bereichen ausgebreitet, sodass Castells mit Recht von einer Tendenz zur „Netzwerkgesellschaft“ spricht. Diese Netzwerke finden sich (als interorganisationelle Netzwerke) ebenso zwischen Organisationen wie auch (als innerorganisationelle Netzwerke) innerhalb von Organisationen sowie (als mikrostrukturelle Netzwerke) in unmittelbaren Kooperationszusammenhängen.30 Gemeinsam ist ihnen, dass sie in mehr oder weniger ausgeprägter Weise immer auch technische Form annehmen; dieser innere Zusammenhang von Technik und Kooperation gehört allerdings leider eher zu den Stiefkindern der Arbeits- und Organisationsforschung, so dass über ihn bislang nur punktuelle Kenntnisse vorliegen.31 28 29
Vgl. Sennett 1998. So schon Brandt et al. 1978. Für eine ausführliche Begründung und Erläuterung dieser Sichtweise vgl. Beniger 1986. 30 Für genauere Ausführungen zu dieser Thematik vgl. Schmiede 2006, S. 466ff. 31 Pfeiffer (2013, S. 50f.) zog unlängst die Bilanz, dass „es bislang jedoch zu keiner Reaktivierung einer Debatte um einen arbeits- und industriesoziologischen Technikbegriff“ gekommen sei. Die enge Überschneidung und innere Zusammengehörigkeit von Organisation und IT-System
Animal laborans digitalis oder homo faber digitalis?
121
Diese und ähnlich argumentierende Interpretationen sehen sich nicht selten mit dem gängigen Vorwurf des Technikdeterminismus konfrontiert, stehen aber tatsächlich in einer gegenteiligen Tradition, die Technik als soziales Projekt oder allgemeiner als Resultat sozialer Interessen und sozialen Handelns versteht. Die Frage, die es zu stellen gilt, lautet also: Von welchen gesellschaftlichen Kräften beziehungsweise aus welchen Gründen werden dominante technologische Entwicklungen, wie in unserem Kontext die Informatisierung, vorangetrieben und geprägt? Die lange vorherrschende Antwort von Ingenieuren und Informatikern machte Effizienzgesichtspunkte, also Kriterien der technologischen Rationalität als maßgebliche Ursache für technische Innovationen, insbesondere in Prozessen der Produktion und Erbringung von Dienstleistungen, geltend. In der Softwareindustrie wird diese Zielsetzung unter dem Titel des Standardisierungsproblems diskutiert und unter anderem in Form von Plattformkonzepten implementiert.32 Eine andere Antwort, die sich in vielen techniksoziologischen Analysen findet und durchaus auf der Linie von Technik als sozialem Projekt argumentiert, versteht und benennt Technologien als sozio-technische Systeme, die gleichermaßen aus der Interaktion der Beteiligten wie aus vorhandenen technischen Zwängen und Grenzen begriffen werden müssen. Dieser Untersuchungsansatz wurde zum einen auf verschiedene großtechnische Systeme wie Energie-, Verkehrs- und Kommunikationssysteme angewandt,33 zum anderen findet er sich in dem noch relativ jungen, aber doch schon eigenständigen Forschungszweig der Science, Technology and Society Studies (STS) wieder, bei dem nicht zuletzt die Interessen und das Handeln der an der Technikentwicklung unmittelbar Beteiligten im Vordergrund stehen. Beide Untersuchungsrichtungen beziehen sich allerdings in erster Linie auf Fragen der Technikgenese, nicht auf die nach dem Verhältnis von Arbeit, Organisation und Technik. Mir geht es hier vor allem darum, den inneren Zusammenhang zwischen Technologie und Organisation zu betonen und zu verdeutlichen, in welchem Ausmaß Fragen der Organisation unter den heutigen Bedingungen der Durchdringung aller Arbeitsprozesse mit digitalen Technologien durch Entscheidungen über den Einsatz bestimmter Technologien beeinflusst werden. Im Umkehrschluss bedeutet das, dass Versuche der nachhaltigen Gestaltung von Organisation zukünftig nur noch über Eingriffe in die Anfänge ihrer digitalen Abbildung beziehungsweise Komponenten möglich sein werden. Zugespitzt könnte man auch sagen: Ist eine bestimmte Informations- und Kommunikationstechnologie erst einmal realisiert und zum Einsatz gebracht worden, wird ihre Abänderung in zunehmendem Maße unwahrscheinlich und jegliches Bemühen darum illusorisch. Die bisher gemachten Erfahrungen zeigen deutlich, dass die nachträgliche Anpassung einmal etablierter Organisationstechnologien an Änderungswünsche der Arbeitenden oder veränderte Erfordernisse der Organisation in der Regel an der Komplexität der Aufgabe beziehungsweise an wird in der erwähnten Studie von Hohlmann (2007) sowie von Remer (2009) sehr anschaulich herausgearbeitet. 32 Vgl. dazu Buxmann/Diefenbach/Hess 2011, S. 23ff. und S. 189ff. 33 Für eine Zusammenfassung vgl. Hirsch-Kreinsen 2013, S. 454–461. Eine ausführliche Darstellung bietet Weyer 2008.
122
Rudi Schmiede
dem zu ihrer Bewältigung erforderlichen Arbeits- und Kostenaufwand scheitert. Die erwähnte Untersuchung der ERP-Systeme, die mit der Informatisierung der Ingenieursarbeit in der Automobilindustrie entstehenden Probleme,34 die Prägekraft der ICD 10 (der International Classification of Diseases), die immer wieder Ärzte zu unklaren Ersatzdiagnosen veranlasst und ihren Niederschlag in den digitalisierten Patientenakten findet,35 oder die mittlerweile auch in der Öffentlichkeit breit diskutierten digitalen Logistiksysteme des Internet-Handels und ihr physisches Transport-Korrelat sind eindrucksvolle Beispiele für die Wirkmächtigkeit solcher Organisationstechnologien. Entscheidend für die weitere Entwicklung wird sein, ob es gelingt, die prägenden Technologien unserer Epoche, die unser gesamtes Arbeits- und Alltagsleben durchziehenden Informations- und Kommunikationstechnologien, aktiv zu beherrschen oder nicht. Die Aufforderung, dass sich Nutzer und Betroffene frühzeitig in die Gestaltung dieser Techniken einmischen beziehungsweise an ihr beteiligen sollen, scheint gegenwärtig kaum Gehör zu finden. So fehlt es denjenigen, die ein aktives Interesse an der Gestaltung von Organisation und Gesellschaft haben, häufig nach wie vor an einem hinreichenden Verständnis der betreffenden technischen Prozesse, während die mit der Entwicklung und Umsetzung der neuen Technologien befassten Spezialisten Partizipationsansprüche von Nutzerseite nicht selten als eher überflüssig oder sogar lästig erachten. Dass hier ein Umdenken erforderlich ist, zeigt nicht zuletzt die Praxis selbst. Sowohl die Erfolgsprobleme von Projekten der Systementwicklung als auch deren Anwendungsschwierigkeiten nach der Entwicklung, die häufig auf eine unzureichende Berücksichtigung des Einsatzkontextes zurückzuführen sind, lassen sich als interne und externe Kritik an der gängigen Form der Technikgestaltung, das heißt als ihre innere Widersprüchlichkeit, formulieren und damit als Argumente für eine anthropozentrische Technikentwicklung starkmachen.36 Ansätze dazu finden sich in jüngster Zeit auch im Bereich der technologischen Innovation selbst. Die Systementwicklung ist im vergangenen Jahrzehnt stärker modularisiert worden – was aufgrund der kleineren, leichter überschaubaren und kurzfristiger zu erledigenden Arbeitsschritte einerseits mehr Offenheit ermöglicht, andererseits aber auch eine stärkere Standardisierung dieser kleineren Module zur Folge hat. Beide Tendenzen kommen in der Entwicklungsarbeit sichtbar zum Ausdruck. Die erwähnte grundlegende Analogie zwischen Strukturen der Organisation 34 Will (2011, S. 250ff.) stellte in ihrer Untersuchung eine deutliche Gewichtsverschiebung von den spezifisch fachlichen Entwicklungs- und Organisationstätigkeiten hin zu allgemeinen Aufgaben wie Dokumentation, Information und Kommunikation fest, die alle eng mit der Organisationstechnologie verwoben sind und von vielen Ingenieuren als relativer Abbau ihrer fachlichen Fähigkeiten zugunsten eher abstrakter allgemeiner Tätigkeiten empfunden werden. 35 Vgl. dazu Manzei 2014, S. 219–239. Für die Anfänge dieser Entwicklung vgl. die Beiträge in Kaltenborn 1999. Es gibt in der ICD 10, die Ärzte für ihre Diagnose zwingend heranziehen müssen, zum Beispiel nach wie vor keine zureichende Beschreibung und Klassifikation der Massenerkrankung Burnout beziehungsweise Depression, sodass diese oft eher unspezifisch umschrieben wird. 36 Siebe dazu und zum folgenden Argument Schmiede 2006, S. 482ff. Für eine knappe Zusammenfassung vgl. auch Schmiede 2015b.
Animal laborans digitalis oder homo faber digitalis?
123
und der Informationstechnologie legt den Schluss nahe, dass offene und modulare Systemstrukturen den heutigen dezentralen Organisations- und Arbeitsformen angemessener sind als hochkomplexe zentralisierte Systeme. Als zweite folgenreiche Veränderung ist die seit etwa Mitte der 2000er-Jahre zu beobachtende Entwicklung und Ausbreitung kurzzyklischer, stärker modularer und vor allem stärker partizipativer Verfahren der Systementwicklung zu nennen, die als agile programming zusammengefasst werden.37 Ich vermute, dass diese Veränderungen der Grund dafür sind, warum sich die lange Zeit katastrophalen Ergebnisstatistiken von Projekten aus dem Bereich der Informationstechnologie38 im letzten Jahrzehnt zwar nicht dramatisch, aber doch sichtbar gebessert haben. Diese Tendenzen öffnen die Systementwicklung zumindest partiell für soziale Mitgestaltungsinteressen; nur müssen diese eben auch wahrgenommen und genutzt werden. 4 ANIMAL LABORANS DIGITALIS ODER HOMO FABER DIGITALIS? Kehren wir am Schluss dieser Ausführungen noch einmal zu Hannah Arendts eingangs thematisierter Verfallsdiagnose zurück – die sie ja mit den Begriffen des Wegs vom homo faber zum animal laborans bezeichnet –, so springt deren anhaltende Aktualität nach dem Gesagten ins Auge. Auch in der Gegenwart ist der Arbeitsalltag vieler Menschen nicht durch kreative oder herstellende, sondern in erster Linie durch rein reproduktive Tätigkeiten gekennzeichnet, erfahren Beschäftigte die ihrer Mitwirkung entzogene Ausgestaltung ihrer Arbeitsbedingungen als äußerliche Beschränkung ihrer Autonomie. Die Informatisierung hat die bis heute prägendste gesellschaftliche Entwicklungstendenz der Neuzeit, die Degradierung vieler Lohnabhängiger zum animal laborans, keineswegs grundlegend durchbrochen, sondern in vielen Fällen lediglich um die Variante des animal laborans digitalis erweitert. Zudem hat die Ausbreitung der Wissensarbeit nicht, wie man aufgrund 37
38
Die populärste Version ist gegenwärtig das sogenannte Scrum-Verfahren, bei dem die aus allen Beteiligten zusammengesetzten Arbeitsteams im Rahmen kurzzeitiger Rückkoppelungszyklen (von oft nur Stunden oder einem Tag) den vorigen Arbeitsschritt bewerten und den nächsten gemeinsam planen. Vgl. dazu die Einführung von Gloger/Margetich (2014), bei der die erwähnte enge Verbindung zwischen IT-System und Organisation interessanterweise schon im Titel zum Ausdruck kommt, sowie die Übersicht von Komus/Kuberg 2015. Nach zahlreichen und regelmäßig erhobenen US-amerikanischen wie deutschen Statistiken blieben die Erfolgsquoten von IT-Entwicklungsprojekten bis Mitte der 2000er-Jahre über einen Zeitraum von rund 25 Jahren nahezu unverändert. Sie lauteten, grob zusammengefasst: 50% der Projekte scheiterten, weitere 40% kamen nur mit deutlich erhöhten Kosten und/oder eingeschränkter Funktionalität zum Abschluss, und nur etwa 10% konnten wie geplant fertiggestellt werden. Eine Misserfolgsquote, die in anderen Bereichen wie der Bau- oder Verkehrstechnik unvorstellbar wäre! In den vergangenen zehn Jahren konnten diese Zahlen im ein- bis unteren zweistelligen Prozentbereich verbessert werden. Vgl. dazu die Zeitreihe in de.wikipedia.org/ wilei/Chaos-Studie, die allerdings geringere Abbruchquoten aufweist, sowie die Übersichten in Pavlik (o. J.) und Hinz (o. J.). Zur kritischen Diskussion und Überprüfung der Problematik vgl. auch Schäpers 2013. Die Messung und Bewertung der Erfolgskennziffern sind selbst umstritten, daher resultieren die Zahlenunterschiede zum Teil aus methodischen Differenzen im Vorgehen.
124
Rudi Schmiede
zahlreicher Bildungsstatistiken denken könnte, zu einer generellen Entwicklung hin zu höherwertigen Tätigkeiten geführt. Im Gegenteil. Dass während der letzten beiden Jahrzehnte in Deutschland gerade die (in der Regel un- oder geringqualifizierten und entlohnten) Arbeiten im Reinigungs-, Sicherheits- und Logistikgewerbe zu den am stärksten expandierenden Berufsgruppen gehörten, deutet vielmehr auf eine verstärkte Polarisierung der realen Arbeitstätigkeiten hin. Ferner gilt es zu berücksichtigen, dass auch viele digitale Arbeiten – man denke etwa an arbeitsteilige, ITgestützte Sachbearbeitertätigkeiten, wie sie im Bereich der Finanzdienstleistungen oder der Logistik massenhaft zu finden sind – durch eine Kombination aus routinisierten, teilweise repetitiven Arbeitsschritten und stetigen hohen Aufmerksamkeitsanforderungen geprägt sind. Jenseits der Metropolen und unterhalb der mittleren Einkommen weisen der neue und der alte Kapitalismus also durchaus noch deutliche Gemeinsamkeiten auf.39 Aber die gegenwärtige Entwicklung hat auch gegenläufige Tendenzen hervorgebracht, und zwar sowohl mit Blick auf die gesellschaftliche Arbeit (in Form gesteigerter Möglichkeiten der Individualisierung und Subjektivierung auf dem Gebiet der Wissensarbeit) als auch in Bezug auf die Organisationsstrukturen (in Form der Reduzierung formaler hoch-zentralisierter Hierarchien). Auch wenn diese Gegentendenzen durchaus ambivalent sind und ebenso positive wie negative Auswirkungen haben können, eröffnen sie dennoch Möglichkeiten der gesellschaftlichen Gestaltung.40 Dazu bedarf es aber sehr viel stärker der Einsicht und des Bewusstseins, dass heutige Arbeits-, Organisations- und Gesellschaftsstrukturen zugleich technische Form angenommen haben. Ihre Veränderung wird ohne nachhaltige Einflussnahme auf die technische Entwicklung und ihre angemessenere Konzeptionierung nicht zu haben sein. Die Wiederbelebung und Ausweitung der Gestaltungskraft des homo faber, um in der Arendt’schen Terminologie zu bleiben, durch einen neuen Typus des homo faber digitalis liegt als Aufgabe noch vor uns. Systementwicklung und die soziale Gestaltung der Arbeits- und Lebensverhältnisse bilden so gesehen ein Zwillingspaar. Es ist durch die Informatisierung von Arbeit und Gesellschaft für viele Beschäftigte nicht leichter geworden, aus der Rolle der passiv Betroffenen herauszukommen; es gibt aber systemische Widersprüche und Entwicklungstendenzen, die Möglichkeiten zur Verwirklichung dieses Ziels eröffnen. Passivierung muss kein Schicksal sein.
39
Zur These vom neuen Kapitalismus und seinen Auswirkungen auf die Arbeitswelt vgl. Boltanski/Chiapello 2003. Boltanski und Chiapello ist freilich mehr an den Unterschieden als an den Gemeinsamkeiten zwischen neuem und altem Kapitalismus gelegen. Die ihrer These vom tendenziellen Verschwinden der auf die Realisierung von Subjektivität bezogenen Künstlerkritik zugrundeliegenden Befunde lassen sich allerdings auch anders deuten, nämlich als Internalisierung der aus den veränderten Produktionsweisen in Form neuer äußerer und innerer Anforderungen resultierenden ökonomischen Zwänge durch die Subjekte. 40 Pfeiffer/Suphan (2015, S. 205–230) haben einen Analyse-Index für digitalisierte Arbeitstätigkeiten entwickelt, der einen hohen Anteil von im Sinne moderner Wissensarbeit anreicherbaren Arbeitstätigkeiten an der Gesamtzahl der Berufe, also – im Gegensatz zu Frey/Osborne (2013) – ein breites Gestaltungspotenzial von digitalem Arbeiten erkennen lässt.
Animal laborans digitalis oder homo faber digitalis?
125
BIBLIOGRAFIE Arendt, Hannah (2014): Vita activa oder Vom tätigen Leben. München. Beniger, James Ralph (1986): The Control Revolution. Technological and Economic Origins of the Information Society. Cambridge, MA. Boltanski, Luc/Chiapello, Eve (2003): Der neue Geist des Kapitalismus. Übers. v. Michael Tillmann. Konstanz. Bowles, Jeremy (2014): The Computerisation of European Jobs. 17.07.2014. Online: www.bruegel. org/nc/blog/detail/article/1394-the-cornputerisation-of-european-Jobs/ (Abruf: 09.07.2015). Brandt et al. (1978): Computer und Arbeitsprozeß. Eine arbeitssoziologische Untersuchung der Auswirkungen des Computereinsatzes in ausgewählten Betriebsabteilungen der Stahlindustrie und des Bankgewerbes. Frankfurt am Main. Braun, Wolfgang (2014): 58 Milliarden Arbeitsstunden – höchster Stand seit 10 Jahren. In: idw – Informationsdienst Wissenschaft, 12.03.2014. Online: idw-online.de/de/news577055 (Abruf: 12.03.2014). Bright, James R. (1958): Does Automation Raise Skill Requirements? In: Harvard Business Review 36, 4, S. 85–98. Burt, Roland S. (1995): Structural Holes. The Social Structure of Competition. Cambridge, MA. Buxmann, Peter/Diefenbach, Heiner/Hess, Thomas (2011): Die Softwareindustrie. Ökonomische Prinzipien, Strategien, Perspektiven. Berlin/Heidelberg 2011. Castells, Manuel (2001): Das Informationszeitalter. Wirtschaft, Gesellschaft, Kultur. Bd. 1: Der Aufstieg der Netzwerkgesellschaft. Übers. v. Reinhart Kößler. Opladen. Deutsche Bundesbank (2015): Saisonbereinigte Wirtschaftszahlen Juni 2015. Frankfurt am Main. Online: www.bundesbank.de/Redalction/DE/Downloads/Veroeffentlichungen/Statistische_Beihefte_4/2015/2015_06_saisonbereinigte_wirtschaftszahlen.pdf? blob=publicationFile (Abruf: 09.07.2015). Frey, Carl Benedikt/Osborne, Michael A. (2013): The Future of Employment. How Susceptible are Jobs to Computerisation? 17.09.2013. Online: www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of Employment.pdf (Download: 09.07.2015). Gloger, Boris/Margetich, Jürgen (2014): Das Scrum-Prinzip. Agile Organisationen aufbauen und gestalten. Stuttgart. Hack, Lothar (1988): Die Vollendung der Tatsachen. Die Rolle von Wissenschaft und Technologie in der dritten Phase der Industriellen Revolution. Frankfurt am Main. Hinz, Wolfgang (o. J.): Tabu – Misserfolgsquote von Projekten. Online: www.pbi-institut.org/Assets/1407/MIID00000B4D/Tabu.pdf (Abruf: 30.08.2015). Hirsch-Kreinsen, Hartmut (2013): Techniksoziologie. In: Ders./Minssen, Heiner (Hrsg.): Lexikon der Arbeits- und Industriesoziologie. Berlin, S. 454–461. Hohlmann, Brita (2007): Organisation SAP – soziale Auswirkungen technischer Systeme. Aachen. Hürtgen, Stefanie/Lüthje, Boy/Schumm, Wilhelm/Sproll, Martina (2009): Von Silicon Valley nach Shenzhen. Globale Produktion und Arbeit in der IT-Industrie. Hamburg. Institut der deutschen Wirtschaft Köln (Hrsg.) (2013): Deutschland in Zahlen 2013. Köln. Kaltenborn, Karl-Franz (Hrsg.) (1999): Informations- und Wissenstransfer in der Medizin und im Gesundheitswesen, Frankfurt am Main. Kern, Horst/Schumann, Michael (1970): Industriearbeit und Arbeiterbewußtsein. Eine empirische Untersuchung über den Einfluß der aktuellen technischen Entwicklung auf die industrielle Arbeit und das Arbeiterbewußtsein. Zwei Bände. Frankfurt am Main. Kliman, Andrew (2012): The Failure of Capitalist Production. Underlying Causes of the Great Recession. London. Komus, Ayelt/Kuberg, Moritz (2015): Studie „Status Quo Agile“ – wie werden agile Methoden in der Praxis eingesetzt? Online: https://www.projektmagazin.de/artikel/studie-status-quo-agilewie-werden-agile-methoden-der-praxis-eingesetzt_1101303 (Abruf: 30.08.2015). Krugman, Paul R. (2009): The Return of Depression Economics and the Crisis of 2008. New York.
126
Rudi Schmiede
Manzei, Alexandra (2014): Über die neue Unmittelbarkeit des Marktes im Gesundheitswesen. Wie durch die Digitalisierung der Patientenakte ökonomische Entscheidungskriterien an das Patientenbett gelangen. In: Dies./Schmiede, Rudi (Hrsg.): 50 Jahre Wettbewerb im Gesundheitswesen. Theoretische und empirische Analysen zur Ökonomisierung von Medizin und Pflege. Wiesbaden, S. 219–239. Marx, Karl (1962 [1867]): Das Kapital. Kritik der politischen Ökonomie. Erster Band. Buch I: Der Produktionsprozeß des Kapitals. In: Ders./Engels, Friedrich: Werke. Band 23. Berlin. Marx, Karl (1974): Grundrisse der Kritik der politischen Ökonomie (Rohentwurf) 1857–1858. In: Ders.: Grundrisse der Kritik der politischen Ökonomie (Rohentwurf) 1857–1858. Anhang 1858–1859. Berlin, S. 1–764. Marx, Karl (1985 [1844/45]): Ökonomisch-philosophische Manuskripte. In: Ders./Engels, Friedrich: Werke. Band 40. Berlin, S. 465–588. Mattick, Paul (2012): Business as Usual. Krisen und Scheitern des Kapitalismus. Hamburg. Pavlik, Franz (o. J.): Scheitern von IT-Projekten. Online: www.domendos.com/fachlektuere/fachartikel/artikel/scheitern-von-it-projekten/ (Abruf: 30.08.2015). Pfeiffer, Sabine (2004): Arbeitsvermögen. Ein Schlüssel zur Analyse (reflexiver) Informatisierung. Wiesbaden. Pfeiffer, Sabine (2013): Arbeit und Technik: In: Hirsch-Kreinsen, Hartmut/Minssen, Heiner (Hrsg.): Lexikon der Arbeits- und Industriesoziologie. Berlin, S. 48–53. Pfeiffer, Sabine (2014): Digital Labour and the Use-Value of Human Work. On the Importance of Labouring Capacity for Understanding Digital Capitalism. In: tripleC 12 (2014), 2, S. 599–619. Online: triple-c.at/index.php/tripleC/article/ view/545 (Abruf: 11.08.2015). Pfeiffer, Sabine (2015): Warum reden wir eigentlich über Industrie 4.0? In: Mittelweg 36, Jg. 24, Heft 6, S. 14–36 Pfeiffer, Sabine/Suphan, Anne (2015): Industrie 4.0 und Erfahrung – das Gestaltungspotenzial der Beschäftigten anerkennen und nutzen. In: Hirsch-Kreinsen, Hartmut/Ittermann, Peter/Niehaus, Jonathan (Hrsg.): Digitalisierung industrieller Arbeit. Die Vision Industrie 4.0 und ihre sozialen Herausforderungen. Berlin, S. 205–230. Polanyi, Michael (1995 [1958]): Personal Knowledge: Towards a Post-Critical Philosophy. London. Pollock, Friedrich (1964): Automation. Materialien zur Beurteilung der ökonomischen und sozialen Folgen. Vollst. überarb. Neuausgabe. Frankfurt am Main. Remer, Sebastian (2009): Soziale Strukturen und Informationstechnologie. Die organisatorische Bedeutung von „Service Oriented Architectures“. Aachen. Schäpers, Jan (2013): Antizipation und Analyse von Dynamik als Auslöser von Risiken in IT-Projekten. Frankfurt am Main u. a. Schmiede, Rudi (1989): Reelle Subsumtion als gesellschaftstheoretische Kategorie. In: Schumm, Wilhelm (Hrsg.): Zur Entwicklungsdynamik des modernen Kapitalismus. Beiträge zur Gesellschaftstheorie, Industriesoziologie und Gewerkschaftsforschung. Symposium für Gerhard Brandt. Frankfurt am Main/New York, S. 21–38. Schmiede, Rudi (1996): Informatisierung, Formalisierung und kapitalistische Produktionsweise. Entstehung der Informationstechnik und Wandel der gesellschaftlichen Arbeit. In: Ders. (Hrsg.): Virtuelle Arbeitswelten. Arbeit, Produktion und Subjekt in der „Informationsgesellschaft“. Berlin, S. 15–47. Schmiede, Rudi (2006): Wissen und Arbeit im ‚Informational Capitalism‘. In: Baukrowitz, Andrea et al. (Hrsg.): Informatisierung der Arbeit – Gesellschaft im Umbruch. Berlin, S. 437–490. Schmiede, Rudi (2015a): Arbeit im informatisierten Kapitalismus. Aufsätze 1976–2015. Berlin. Schmiede, Rudi (2015b): Die informatisierte Arbeitsgesellschaft. In: Böhme, Gernot/Gahlings, Ute (Hrsg.): Wie lebt es sich in unserer Gesellschaft? Bielefeld, S. 123–146. Schmiede, Rudi/Schilcher, Christian (2009): Arbeits- und Industriesoziologie. In: Kneer, Georg/ Schroer, Markus (Hrsg.): Handbuch Soziologische Theorien. Wiesbaden, S. 11–38. Schmiede, Rudi/Schudlich, Edwin (1976): Die Entwicklung der Leistungsentlohnung in Deutschland. Eine historisch-theoretische Untersuchung zum Verhältnis von Lohn und Leistung unter kapitalistischen Produktionsbedingungen. Frankfurt am Main.
Animal laborans digitalis oder homo faber digitalis?
127
Sennett, Richard (1998): The Corrosion of Character. The Personal Consequences of Work in the New Capitalism. New York/London (dt.: Der flexible Mensch. Die Kultur des neuen Kapitalismus, übers. v. Martin Richter, Berlin 1998). Sinn, Hans-Werner (2009): Kasino-Kapitalismus. Wie es zur Finanzkrise kam, und was jetzt zu tun ist. Berlin. Weyer, Johannes (2008): Techniksoziologie. Genese, Gestaltung und Steuerung sozio-technischer Systeme. Weinheim. Will, Mascha (2011): Wissensarbeit in der Automobilindustrie. Topologie der Reorganisation von Ingenieursarbeit in der globalen Produktentwicklung. Berlin. Wittke, Volker/Hanekop, Heidemarie (Hrsg.) (2011): New Forms of Collaborative Innovation and Production on the Internet. An Interdisciplinary Perspective. Göttingen.
ARBEITEN 4.0 – WARUM DEUTSCHLAND EINE BILDUNGSOFFENSIVE BRAUCHT Wolfgang Schuster
1 AUSGANGSLAGE „Go digital or go home.“ Dieter Zetsche hat dies wiederholt nach seinen Besuchen im Silicon Valley geäußert. Dabei ist die Dominanz der IT-Unternehmen des Silicon Valley mit einer faktischen Monopolstellung – z. B. von Google – im Consumer-Bereich erdrückend. Deshalb spricht Tim Höttges auch davon, dass wir die erste Halbzeit im Digitalisierungsprozess verloren haben. In der zweiten Halbzeit geht es um das Internet der Dinge, d. h. um die Vernetzung von Milliarden von Maschinen, Geräten und Computern in Unternehmen wie im privaten Sektor, z. B. für Smart Homes. Wie immer man diese vielfältigen, schnellen Veränderungen von Produktionsabläufen, Produkten, Dienstleistungen und Wertschöpfungsketten – zunehmend verbunden mit künstlicher Intelligenz – bezeichnet, ob Industrie 4.0 oder digitale Revolution, die globalen digitalen Vernetzungen fordern unsere Unternehmen drastisch heraus, bedrohen bestehende Arbeitsplätze und verändern erheblich Arbeitsinhalte und -abläufe. 2 ZUKUNFT VON ARBEITSPLÄTZEN Über die Zukunft von Arbeitsplätzen gibt es eine Reihe von Szenarien, Prognosen und Untersuchungen. Sicher ist, dass immer „intelligentere“ Maschinen in selbstlernenden, vernetzten Systemen zu massiven Veränderungen von Arbeitsinhalten führen werden. Das betrifft nicht nur Routine-Tätigkeiten, sondern eine Vielzahl von anspruchsvollen beruflichen Aufgaben. Dazu gibt es eine Reihe von Studien, z. B. des Instituts für Arbeitsmarkt- und Berufsforschung (IAB)1, die von 4,4 Mio. gefährdeten Arbeitsplätzen ausgehen. Eine sehr differenzierte Studie der Professoren Frey und Osborne2 der University of Oxford hat 702 Berufe analysiert und die Wahrscheinlichkeit berechnet, inwieweit sie zukünftig ersetzt werden könnten. Zu den Berufen, die mit nahezu hundertprozentiger Sicherheit verschwinden werden, gehören z. B. die Kreditsachbearbeiter, weil Algorithmen die Kreditwürdigkeit eines Kunden viel präziser und vor allem objektiver bestimmen als der Mensch, der sich von unwichtigen Details, wie 1 2
Dengler/Matthes 2015. Frey/Osborne 2013.
130
Wolfgang Schuster
Kleidung, Sprechweise etc. beeinflussen lässt. Verschwinden werden auch LKWFahrer, Näher, Kassierer, medizinisch-technische Assistenten, Versicherungssachbearbeiter, Köche in Schnellrestaurants, Minenarbeiter, Arbeiter in Lagerhäusern, Obstpflücker, Spargelstecher und nicht zuletzt Models, weil Computer die „besseren“ Körper bauen können. 2.1 Förderung von Arbeit – nicht von Arbeitslosigkeit Disruptive Innovationen können zu erheblichen sozialen Verwerfungen führen, wie wir dies z. B. durch die Mechanisierung der Landwirtschaft im 19. Jahrhundert erlebt haben. Deshalb gibt es Initiativen, die diese Verarmung von größeren Teilen der Bevölkerung durch staatliche Alimentierung in Form eines bedingungslosen Grundeinkommens ausgleichen wollen. Diese „Wohltat für alle“ (Der Spiegel) ist kein gangbarer Weg. Zum einen aus finanziellen Gründen. Denn heute schon haben wir in Deutschland und den meisten westlichen Ländern gigantische Schuldenberge aufgehäuft, die aufgrund der Demografie von immer weniger Erwerbstätigen zu bezahlen sein werden. Die Vorstellung, dass die global agierenden IT-Giganten höhere Steuern zahlen, um wegfallende Arbeitsplätze zu subventionieren, ist eine Illusion. Bekanntlich nutzen diese Firmen alle nur denkbaren Schlupflöcher, um Steuerzahlungen zu vermeiden. Das Argument, bei einem bedingungslosen Grundeinkommen könne die „teure staatliche“ Bürokratie gespart werden, ist nicht stichhaltig. Soll denn wirklich jeder, ob Deutscher oder Ausländer, Asylbewerber oder Flüchtling, ob langfristig oder kurzfristig sich in Deutschland aufhaltend, dieses Grundeinkommen praktisch ohne Kontrolle bekommen? Hinzu kommt, dass der Bedarf z. B. von Kranken und Behinderten erheblich höher liegt und nicht berücksichtigt würde. Knüpft die öffentliche Hand das Grundeinkommen an eine Bedingung, z. B. eine Aufenthaltsberechtigung, einen deutschen Pass oder an einen erhöhten Bedarf wegen Behinderung, ist es nicht mehr bedingungslos und bedarf somit weiterhin einer Entscheidung durch die öffentliche Verwaltung. Doch viel bedeutsamer erscheint mir die klare und einfache Erkenntnis von Voltaire: Arbeit hält uns von den drei größten Übeln fern: Langeweile, Laster, Not. Die materielle Not zu lindern, ist eine öffentliche Aufgabe, die wir durch die sozialen Absicherungen wie Arbeitslosengeld, Grundsicherung im Alter, Sozialhilfe in Deutschland und in weiten Teilen Europas gelöst haben. Unser Ziel muss deshalb nicht die Finanzierung der Arbeitslosigkeit, sondern Hilfen zur Förderung der Arbeit sein. Es ist eine soziale und ethische Frage, ob unsere Gesellschaft dem Einzelnen die Möglichkeit eröffnet, seine Talente auch durch seine Arbeitskraft einzubringen und zu entfalten. Arbeit hat bekanntlich neben dem materiellen auch einen ideellen Wert für den Einzelnen: Selbstwertgefühl, Selbstbestimmung, Gemeinschaftsgefühl und die Zugehörigkeit zu einem Betrieb, um etwas Gemeinsames zu erreichen und zu gestalten, auf das man auch stolz sein kann. Sich durch Arbeit einbringen zu können oder von der Arbeit ausgeschlossen zu sein, verändert den gesellschaftlichen Status und das soziale Miteinander in unseren Städten. In Stadtquartieren mit sehr hoher Arbeitlosigkeit zeigen sich häufig
Arbeiten 4.0 – warum Deutschland eine Bildungsoffensive braucht
131
Verwahrlosungserscheinungen, Alkoholprobleme, depressive wie aggressive Verhaltensweisen und nicht zuletzt häufig zerrüttete Familien. Die Antwort auf die Arbeitsplatzveränderungen durch die globale Digitalisierung muss deshalb sein, die Arbeit so zu organisieren und inhaltlich zu gestalten, dass der Einzelne eine Wertschätzung durch und in der Arbeit erfahren kann, selbst wenn die materielle Wertschöpfung geringer wird, weil sie partiell durch Computer oder Roboter ersetzt werden kann. Insgesamt fehlt es ja nicht an sinnvollen Tätigkeiten, sei es im Bereich des Gesundheitswesens, der Altenpflege, der Bildung – z. B. Ganztagsschulen – und vieler sozialer und kultureller Aufgaben. Ganz im Gegenteil: Durch finanzielle Restriktionen werden heute schon viele Aufgaben, die für die Zukunft unserer Gesellschaft und die Lebensqualität des Einzelnen wichtig sind, nicht wahrgenommen. Diese müssen nicht alle von der öffentlichen Hand angeboten werden. Vielmehr können sie nach dem Grundsatz der Subsidiarität auch von gemeinnützigen Organisationen, Bürgerinitiativen und Sozialunternehmen erbracht werden. 2.2 Monopole, Macht und Money des Silicon Valley Neben dem möglichen Verlust von Arbeitsplätzen und erheblichen Veränderungen von Arbeitsinhalten und -strukturen erleben wir durch die dominierenden Softwareplattformen eine Verlagerung der Wertschöpfungsketten vor allem Richtung Silicon Valley. Unabhängig von der Quantität von Arbeitsplatzverlusten und hoffentlich neu entstehenden Arbeitsplätzen erleben wir Verschiebungen der Wertschöpfungsketten innerhalb der Arbeitsprozesse im Sinne von „the winner takes it all“. D. h., dass ganz wenige, deren Software sich auf dem entgrenzten globalen Markt durchsetzt, gigantische Gewinne machen und alle anderen leer ausgehen. Kurzum: Survival of the Smartest – ein digitaler Darwinismus. Wir alle kennen die dominierenden Softwareplattformen, z. B. Airbnb, eine Unterkünftevermittlung ohne eigenes Bett; Amazon, ein Kaufhaus ohne Laden; Uber, ein Taxi-Unternehmen ohne eigenes Auto; Facebook, eine Nachrichtenmaschine ohne eigenen Content. Ihre Unternehmenswerte bestehen aus Algorithmen und gigantisch wachsenden Datenmengen. Seitdem Daten der Rohstoff der Zukunft sind, haben die Unternehmen mit den größten „Datenschätzen“ die höchste Marktkapitalisierung: die Big 4 (Google, Apple, Amazon, Facebook) zusammen rund 1800 Mrd. Euro, im Vergleich dazu die TOP 30-DAX-Unternehmen rund 1100 Mrd. Euro. Angesichts seiner Milliardengewinne hat z. B. Google über 80 Milliarden für den Erwerb von Unternehmen in der Portokasse. Deshalb spricht der ehemalige EU-Kommissar für digitale Wirtschaft und Gesellschaft Oettinger von „Lebensgefahr für die deutsche Industrie“. Insoweit besteht die berechtigte Sorge: „Digitalisierung frisst Arbeitsplätze“ (Die Welt).
132
Wolfgang Schuster
3 TRANSFORMATIONSPROZESSE ALS GESELLSCHAFTSPOLITISCHE AUFGABE Damit aus diesen drastischen Veränderungen der Wirtschaft und Arbeitswelt nicht destruktive soziale Verwerfungen werden, bedarf es einer politischen Gestaltung vor allem in fünf Bereichen: Recht, Infrastruktur, Wirtschaft, Arbeitsmarkt und Bildung (Kap. 4). – Rechtspolitik: Wir brauchen einen Datenschutz nicht nur gegenüber staatlichen Stellen, sondern auch gegenüber privaten Unternehmen, die durch Big Data-Analysen Persönlichkeitsprofile entwickeln und damit tief in die Privatsphäre jedes Einzelnen eingreifen. Die Privatsphäre ist jedoch sowohl im Grundgesetz wie in der EU-Grundrechts-Charta und in der UN-Menschenrechtskonvention geschützt. Insoweit ist der nationale Gesetzgeber gefordert, die EU-Datenschutzgrundverordnung so umzusetzen, dass ein tatsächlicher Schutz persönlicher Daten möglich wird. Der Europäische Gerichtshofs hat in seiner Rechtsprechung einen Weg für ein Recht auf Vergessen aufgezeigt. Die Vermengung von Privatem und Beruflichem nicht nur durch die Flexibilisierung der Arbeitszeiten, sondern vor allem durch den „gläsernen Mitarbeiter“ bedarf ebenfalls rechtlicher Schranken und tarifrechtlicher Vereinbarungen. Denn die hundertprozentige Leistungskontrolle durch die Speicherung aller Tätigkeiten führt zu einem Verschwinden der Privatsphäre im Berufsalltag. – Infrastruktur-Politik: Selbstverständlich werden mit Steuergeldern Straßen, ÖPNV-Angebote, Schienenwege und Flughäfen gebaut. Auch Telefonanschlüsse an jedes Haus wurden vor 30 Jahren hoheitlich geplant und finanziert. Heute ist die Breitbandversorgung zwingend, um die Wettbewerbsfähigkeit auch von kleineren und mittleren Unternehmen zu stärken, und dazu gehört eine Breitbandversorgung in allen Gewerbegebieten, gerade auch im ländlichen Raum. Da in immer mehr Haushalten das Arbeiten zu Hause üblich geworden ist, aber auch die telemedizinische Versorgung angesichts der demografischen Entwicklung und des wachsenden Mangels an Ärzten und Pflegekräften immer notwendiger wird, wird die verlässliche Breitbandanbindung zu einer öffentlichen Aufgabe. Andere Länder sind in dieser Vernetzungstechnik sehr viel weiter. Künftig müssen die Netze um den 5G-Mobilfunk ergänzt werden. – Wirtschaftspolitik: Neben der Förderung angewandter Forschung gilt es, Inkubatoren und Startups zu fördern, damit Innovationen und neue Arbeitsplätze entstehen. Ganz wesentlich ist es, die Wettbewerbsverzerrung zu beseitigen, die gegenüber den amerikanischen Unternehmen besteht, da diese sich faktisch nicht an die nationalen Datenschutzregeln halten. Nach dem Rechtsverständnis dieser Firmen ist alles erlaubt, was nicht ausdrücklich im Detail verboten ist. Aufgrund der Geschwindigkeit der technologischen Entwicklungen werden deshalb die Rechtsnormen immer den technischen Veränderungen hinterherhinken. Als Nachfahren der kalifornischen Goldgräber finden Manche Gesetze ohnehin nur hinder-
Arbeiten 4.0 – warum Deutschland eine Bildungsoffensive braucht
–
3
133
lich. Ein Beispiel ist das Vorgehen der Firma Uber, die sich konsequent über nationale gesetzliche Normen hinwegzusetzen versucht. Die Antwort der in Konkurrenz stehenden deutschen Unternehmen, z. B. der Deutschen Telekom AG, kann nicht eine Kultur des Nichtbeachtens von Vorschriften sein, sondern mittels technischer Möglichkeiten den Datenschutz für den Einzelnen wie für Unternehmen zu garantieren. Cyber-Security ist deshalb die richtige unternehmerische Antwort. Neben großen technischen Anstrengungen lebt die Deutsche Telekom eine Kultur des verantwortlichen Umgangs mit Daten. Dazu gehören z. B. Leitsätze zu Big Data: „Die Deutsche Telekom bekennt sich zur Kultur des Einverständnisses und wird personenbezogene Informationen nur mit Einwilligung des Betroffenen in Big Data-Lösungen einbringen. Sie verarbeitet Daten für Big Data-Lösungen grundsätzlich in anonymisierter Form, so dass eine Rückführung auf einzelne Personen ausgeschlossen ist. Auch stellt die Deutsche Telekom Dritten keine Kundendaten zur Verfügung, sondern lediglich die Ergebnisse eigener interner Auswertungen.“3 Arbeitsmarktpolitik: Neue Arbeitsformen lösen den klassischen Arbeitsvertrag teilweise auf. Immer mehr werden als Freelancer, als Experten projektbezogen engagiert, die in verschiedenen Teams mitwirken. Diese Flexibilisierung hat allerdings auch zur Folge, dass die Loyalität gegenüber dem Auftraggeber nicht mehr so ausgeprägt ist, wie es traditionell in Unternehmen mit festen Anstellungsverträgen der Fall ist. Die Flexibilisierung der Arbeit zu gestalten, ist eine wesentliche Aufgabe der Tarifpartner. Es gilt, ein System der Flexicurity, d. h. Arbeitsplatzsicherheit gegen flexiblen Arbeitseinsatz, zu entwickeln, ein Konzept, das sich bekanntlich in der vergangenen Finanz- und Wirtschaftskrise bestens bewährt hat. Die damit verbundene soziale Absicherung ist auch Grundlage dafür, dass die Mitarbeiter die Chancen der Digitalisierung offensiver ergreifen. Denn Wirtschaft 4.0 wird nur dann ein Erfolg werden, wenn es nicht nur ein EliteProjekt einiger Software-Ingenieure und Manager ist. Dazu gehört eine Unternehmenskultur, die das Mensch-Maschine-Verhältnis klar definiert. Die Maschine ist und bleibt ein intelligentes Hilfsinstrument des selbstbestimmt arbeitenden Menschen. Der Wert menschlicher Arbeit liegt im Ideellen wie im Materiellen. Deshalb brauchen wir auch eine Diskussion über den „gerechten Lohn“. Click-Worker aus Billiglohnländern und working poor bei uns sind keine Lösung. Mindestlohn und soziale Absicherung sind daher notwendige Bestandteile einer fairen Arbeitspolitik. Da dies nicht nur für Deutschland und die EU-Staaten gelten soll, sollte die EU im Rahmen der WTO-Verhandlungen auf einen fairen globalen Arbeitsmarkt mit sozialen- und Umweltstandards drängen. Leider werden diese Standards in den globalen Lieferketten nicht immer eingehalten. Foxconn in China, die Hardware, I-Phones und I-Pads für Apple herstellt, ist ein Beispiel dafür, wie Billiglohn-Arbeiter ausgebeutet werden bei riesigen Gewinn-Spannen der Firma Apple.
Deutsche Telekom 2013.
134
Wolfgang Schuster
4 BILDUNG 4.0 FÜR LEBEN UND ARBEITEN IN DER DIGITALEN WELT 4.0 ist bekanntlich in Deutschland die Chiffre für Digitalisierung. Industrie 4.0 leitet sich historisch aus technischen Innovationsschritten ab: Mechanisierung, Elektrifizierung, Automatisierung und Digitalisierung. Bildung 4.0 lässt sich aus zentralen Innovationsschritten in der Menschheitsgeschichte ableiten: die Entwicklung der Sprachen als Grundlage für menschliche Kommunikation, die Entwicklung der Schriftzeichen als Grundlage für Lesen, Schreiben und Rechnen, die Erfindung des Buchdrucks als Grundlage für die massenhafte Verbreitung von Informationen und Bildungsinhalten und das Internet mit digitalen Medien als Grundlage für global vernetzte Information, Kommunikation und Bildungsangebote. Bildung 4.0 kann aber auch als Chiffre stehen für die vier großen bildungspolitischen Herausforderungen: Bildung für die persönliche, gesellschaftliche, berufliche und politische Entwicklung. Diese vier miteinander vernetzten Bildungsaufgaben haben zum Ziel, die durch eine globale Digitalisierung getriebenen Veränderungsprozesse so zu gestalten, dass möglichst alle Menschen 1. eigenverantwortlich und selbstbestimmt, d. h. freiheitlich mit einer geschützten Privatsphäre leben können; 2. ihre Potenziale, Kenntnisse, Talente und Fähigkeiten in ein berufliches Umfeld mit fairen Arbeitsbedingungen einbringen können; 3. an unserer Gesellschaft teilhaben und sich gestaltend in sie einbringen können; 4. in einem freiheitlich-demokratischen Rechtsstaat bei Gewährleistung wesentlicher öffentlicher Dienstleistungen, vor allem im Bildungs- und Gesundheitsbereich, leben und teilhaben können. Um dies zu erreichen, bedarf der Einzelne entsprechender Kompetenzen, um sich in dem fortschreitenden globalen Digitalisierungsprozess nicht nur zurechtzufinden, sondern ihn auch aktiv mitgestalten zu können. 4.1 Selbstbestimmtes oder fremdbestimmtes Leben Fakt ist, dass unser Leben heute ohne Internet kaum denkbar ist. Vor allem ohne Smartphone, das inzwischen weltweit von Milliarden von Menschen, besonders intensiv von Kindern und Jugendlichen, genutzt wird. Das Smartphone hat dazu geführt, dass die Digitalisierung praktisch für jeden von uns im Alltag angekommen ist. Damit ist die Nutzung digitaler Medien und somit die Produktion von Daten explosionsartig gestiegen. In einer Minute gibt es im globalen Netz rund vier Millionen Suchanfragen bei Google, rund drei Millionen Einträge bei Facebook, rund 30.000 verkaufte Waren bei Amazon. Was bedeutet dies für unsere Privatsphäre, für unser soziales Miteinander, für unseren demokratischen Rechtsstaat? Dazu gibt es eine Vielzahl von Prognosen, Analysen, Szenarien – häufig verbunden mit warnenden Stimmen, wie „digitaler Burnout“, „digitale Demenz“, „cyberkrank“, „Cybermobbing“, „Überwachungskapitalismus“, „smarte Diktatur“ etc.
Arbeiten 4.0 – warum Deutschland eine Bildungsoffensive braucht
135
Tatsächlich übertrifft das Sammeln von persönlichen Daten und deren Analyse durch private Unternehmen und im Zweifel auch durch staatliche Stellen bei weitem das Orwell’sche Szenario „1984“. Unsere Privatheit und damit persönliche Freiheitssphäre wird durch ausländische IT-Unternehmen beliebig kontrolliert. Der tradierte deutsche Datenschutz, vor allem das Brief- und Telefongeheimnis, ist damit faktisch obsolet geworden. Wir bezahlen die vermeintlich unentgeldlichen Apps und Dienstleistungen im Netz mit unseren Daten und damit mit unserer Privatsphäre. Was persönliche Datensammlungen wert sind, zeigt sich z. B. bei LinkedIn, das 350 Millionen Daten von Arbeitnehmern gesammelt hat, für die Microsoft 26 Milliarden Euro bezahlt, das heißt pro registrierter Person ca. 74 Euro. Jeder von uns wird ausgedeutet und kann damit kommerziell durch gezielte Beeinflussung auch ausgebeutet werden. So sortiert z. B. der amerikanische Datengigant Blue Kay die 300 Millionen Amerikaner in 30.000 Kategorien, um gezielt personalisierte Werbung schalten zu können. Der Einfluss der Social Media auf das Sozialverhalten ist inzwischen vielfältig dokumentiert. Allein durch die Erwartung, dass man seinen „Freunden“ immer wieder mit „Likes“ antwortet und seine Bestätigung sucht, führt zu erheblich veränderten sozialen Verhaltensweisen. Die Videospiele mit ihren Belohnungssystemen bergen Suchtpotenzial und verführen zusammen mit den sozialen Medien vor allem junge Menschen dazu, ihre Zeit, Energie und Fähigkeiten im Gaming und Daddeln zu verlieren. Die Möglichkeiten, die persönlichen Daten zur Beeinflussung von politischen Entscheidungen zu nutzen, werden in Zukunft mehr denn je eingesetzt werden. Erstmals im zweiten Präsidentschaftswahlkampf von Obama getestet, zeigen die Analysen des Präsidentschaftswahlkampfs 2016 in den USA, wie einzelne Wähler unter Nutzung der gesammelten persönlichen Daten beeinflusst werden können. Dies betrifft aber nicht nur Wahlen, sondern künftig viele politische Entscheidungen durch die Verbindung der Nutzung von Big Data und Social Media. So lässt sich z. B. durch Big Data-Analysen sehr gut vorhersagen, wie bestimmte Gruppen auf politische Entscheidungen reagieren werden bzw. welches politische Handeln für sie günstig ist. Wenn der politisch gewählte Bürgermeister oder Abgeordnete diesen Erwartungen nicht entspricht, lässt sich sehr leicht ein Shitstorm in den Social Media organisieren. Durch selektive Information sowie durch Shaming und Denunziantentum unter den Schlagworten Transparenz und Partizipation werden politisch Andersdenkende unter Druck gesetzt. Die neuen Formen der Partizipation und Möglichkeiten politischer Meinungsbildung können sehr nützlich sein, aber auch sehr leicht von einflussreichen, internetaffinen Gruppen für ihre Zwecke ausgenutzt werden.
136
Wolfgang Schuster
4.2 Bildungsoffensive für lebenslanges Lernen für alle Entgegen der landläufigen Vermutung, dass unsere Jugendlichen alle Digital Natives seien, zeigen Untersuchungen andere Ergebnisse. Die ICIL-Studie 20134 (International Computer and Information Literacy Study) zeigt, dass unsere Achtklässler im internationalen Vergleich durchschnittlich nur über mäßige IT-Kompetenzen verfügen. In einer gesonderten Auswertung5, die die Telekom Stiftung in Auftrag gegeben hat, zeigt sich darüber hinaus, dass bildungsferne Jugendliche das Internet vor allem zum Spielen und für soziale Kontakte nutzen. Bildungsnahe Jugendliche setzen digitale Medien sehr wohl für Recherchen und zum Lernen ein. Auch hier zeigt sich das Auseinanderdriften von Bildungschancen abhängig vom Elternhaus. Um die digitale Spaltung zu überwinden und möglichst allen faire Bildungschancen zu eröffnen, bedarf es daher einer systematischen Vermittlung digitaler Kompetenzen. Alle diese Transformationsprozesse können nur dann fair für die Menschen und zukunftsgerichtet für Gesellschaft und Wirtschaft gestaltet werden, wenn wir eine neue Bildungsoffensive starten für lebenslanges Lernen für alle – ob jünger oder älter. Dazu bedarf es einer digitalen Bildung, die das heute weitverbreitete digitale Analphabetentum möglichst beseitigt. Digitale Kompetenzen sind im 21. Jahrhundert selbstverständlicher Teil der Allgemeinbildung, vergleichbar mit Lesen, Schreiben und Rechnen. Daher muss digitale Bildung altersgerecht in allen Bildungseinrichtungen vor allem in den Schulen angeboten werden. Digitale Bildung umfasst mehrere Kompetenzfelder: 1. Lehren und Lernen mit digitalen Medien: – Unterstützung von Unterrichtsprozessen in den einzelnen Fachdisziplinen mit digitalen Werkzeugen, – Unterstützung des Schulalltags mit digitalen Medien und digitaler Infrastruktur. 2. Lernen über digitale Medien und die digitale Welt: – Vermittlung grundlegender Computer- und informationsbezogener Kompetenzen, – Vermittlung des Verständnisses der Funktionsweisen und der Wirkprinzipien der IKT-Systeme, die die digital vernetzte Welt ausmachen, – Vermittlung des Verständnisses der Wirkung digitaler Medien auf Individuen, Gesellschaft und Politik. 3. Lernendes Gestalten mit digitalen Medien und digitaler Technik: – kreatives Nutzen und entdeckendes Lernen mit digitalen und analogen Techniken, – individuelles Gestalten und gemeinsames Gestalten im Team. Um diese Kompetenzen zu vermitteln, bedarf es eines Kompetenzstufenmodells, beginnend in den Kitas über die Grundschulen in die allgemeinbildenden weiterführenden Schulen. In den beruflichen Schulen sowie in der beruflichen Ausbildung gilt es, ergänzend berufsfachspezifische Kompetenzen zu vermitteln. Die KMK hat 4 5
Bos 2014. Eickelmann/Bos/Vennemann 2015.
Arbeiten 4.0 – warum Deutschland eine Bildungsoffensive braucht
137
dazu im Dezember 2016 die Strategie „Bildung in der digitalen Welt“6 beschlossen. Ziel ist es, auf der Grundlage pädagogischer Konzepte mit Hilfe digitaler Medien die Möglichkeiten für individuelles und personalisiertes Lernen sowie das gemeinsame Lernen und Zusammenarbeiten in Teams zu verbessern. Dies ist angesichts einer wachsenden Heterogenität in unserer Gesellschaft von besonderer Bedeutung. Insoweit können digitale Medien als Hilfsmittel zur Integration und Inklusion und zu besseren Bildungschancen für alle beitragen. Um diese Bildungsziele zu erreichen, gilt es, zehn Hausaufgaben zu machen. 5 ZEHN HAUSAUFGABEN FÜR DIGITALES LERNEN 1. Bildung als gesamtgesellschaftliche Aufgabe gestalten Wir werden diese Bildungsoffensive nur dann erfolgreich angehen können, wenn wir dies als gemeinsamen Auftrag von Politik, Bildungseinrichtungen, Wissenschaft, Forschung und von Wirtschaft, d. h. Kammern, Verbänden und Unternehmen, Gewerkschaften und der Zivilgesellschaft – gerade auch von Stiftungen – verstehen. Sieben große deutsche Stiftungen7 haben dazu das „Forum Bildung Digitalisierung“ gegründet, um bei der Suche und Umsetzung von praktischen Lösungen zu helfen. 2. Digitale Kompetenzen vermitteln Digitales Analphabetentum dürfen wir uns nicht leisten. Digitale Kompetenzen müssen in einer digitalen Welt selbstverständlicher Teil der Allgemeinbildung werden wie Lesen, Schreiben und Rechnen. Dazu brauchen wir ein Kompetenzstufenmodell. Es wäre sehr wünschenswert, wenn sich die Kultusministerkonferenz auf ein Kompetenzmodell, einen „Computer- oder Internetführerschein“ oder „Medienpass“, verständigen könnte. Der Medienpass in Nordrhein-Westfalen kann beispielsweise eine Grundlage sein, um entlang der Bildungskette altersgerecht und mit fachspezifischen Ergänzungen digitale Kompetenzen zu vermitteln. Diese Kompetenzstufen müssen pädagogisch hinterlegt und immer wieder an technische Innovationen und Bildungsnotwendigkeiten angepasst werden. 3. Pilotprojekte systematisch auswerten In allen Bundesländern gibt es erfolgreiche Best Practice-Modelle. Dabei hat sich gezeigt, dass digitale Medien neben den großen Herausforderungen wie Inklusion und Umgang mit Heterogenität nicht eine weitere Schulaufgabe sind, vielmehr können digitale Medien dazu dienen, diese Aufgaben durch individualisiertes Lernen und effizienteres Schulmanagement zu erleichtern. Es gilt, die Erkenntnisse daraus zu skalieren, um pädagogische Konzepte sowohl für die Inhalte wie für die Aus- und Weiterbildung der Lehrkräfte verbindlich festzulegen. 6 7
Kultusministerkonferenz 2016. Deutsche Telekom Stiftung, Robert Bosch Stiftung, Dieter Schwarz Stiftung, Bertelsmann Stiftung, Siemens Stiftung, Montag Stiftung und Mercator Stiftung.
138
Wolfgang Schuster
4. Ausbildung von Lehrkräften verbessern Sowohl für die künftigen ErzieherInnen wie für die künftigen LehrerInnen sollte die Integration digitaler Medien in die Kindergartenpädagogik wie in den Schulunterricht selbstverständlich sein. Dazu notwendig sind verbindliche Vorgaben des Landes. Digitale Medien sollten auch an den Universitäten in die Fach-Curricula integriert werden, nicht zuletzt um Lehramtsstudierende für ihre Aufgaben an den Schulen besser vorzubereiten. Deshalb bedarf es motivierter Dozenten und Professoren, die Studieninhalte mit der Nutzung digitaler Medien systematisch, pädagogisch wie fachdidaktisch, verbinden. 5. Lehrkräfte fortbilden Die digitalen Medien sind Hilfsmittel, um in unserer heterogenen Gesellschaft individualisierten Unterricht zu erleichtern und damit den Unterricht besser zu machen. Sie sind kein Ersatz für ErzieherInnen und für LehrerInnen. Die Rolle der Lehrkräfte bleibt zentral – auch wenn ihre Aufgaben sich verändern. Damit die Lehrkräfte die digitalen Medien systematisch nutzen, bedarf es Fortbildungsangeboten als kontinuierliche professionelle Weiterbildung, bei denen die LehrerInnen sich im Sinne des Peer-Learning auch untereinander fortbilden und sich damit stärker als Team verstehen. 6. Digitale Medien als Katalysator für die gemeinsame Schulentwicklung nutzen Der Einsatz digitaler Medien ermöglicht und erfordert die Zusammenarbeit des Lehrerkollegiums. Es ist wichtig, dass unter Federführung der Schulleitung ein gemeinsames Verständnis von Bildung und Digitalisierung in jeder Schule erarbeitet wird. Die Telekom Stiftung hat bereits vor zehn Jahren im Rahmen des Projekts „Schule interaktiv“ gemeinsame Schulentwicklungs-Prozesse gefördert. Auf diesen Erfahrungen wie auf vergleichbaren anderen Projekten lässt sich aufbauen. 7. Bildungspläne anpassen Auch wenn es eine Herkulesarbeit ist, sämtliche Bildungspläne zu überarbeiten, so wird eine Verbindlichkeit des Einsatzes digitaler Medien nur durch Bildungspläne erreicht werden können, die die Nutzung digitaler Medien vorsehen. Hinzu kommt, dass auch die Unterrichtsmaterialen für die Bildungspläne nur dann in digitaler Form und vor allem in fachdidaktischer Qualität von den privaten Verlagen erstellt werden, wenn es eine entsprechende Verbindlichkeit gibt. 8. Berufliche Bildung stärken Die Arbeitswelt von Morgen zeigt die dringende Notwendigkeit, die berufliche Bildung nicht zu vernachlässigen. Aufbauend auf dem Medienkompetenz-Modell lässt sich dies fachspezifisch für einzelne Berufe ergänzen und in den Berufsschulen anbieten. Doch Wirtschaft 4.0 wird nur dann erfolgreich, wenn sich auch die Unternehmen mit ihren Ausbildungsangeboten entsprechend engagieren. Diese Bitte richtet sich gerade auch an die kleineren Betriebe und Handwerker, die nicht dieselben Möglichkeiten haben wie große Unternehmen, z. B. Daimler, Bosch oder Telekom. Hier können überbetriebliche Ausbildungsstätten helfen, die der Bund mitfinanziert.
Arbeiten 4.0 – warum Deutschland eine Bildungsoffensive braucht
139
9. Digitale Ausstattung der Schulen verbessern Dabei gilt: Keine IT-Ausstattung ohne pädagogisches Konzept. Unter dieser Voraussetzung bedarf jede Schule einer Breitband-Versorgung. Der vom Bund initierte „DigitalPakt Schule“ wird einen wesentlichen Schub bei der technischen Ausstattung unserer Schulen bringen, denn ein leistungsfähiges Netz innerhalb der Schulgebäude ist zwingend erforderlich. Weniger zwingend sehe ich die Notwendigkeit, jedem Schüler ein eigenes Tablet zur Verfügung zu stellen. Das Konzept „bring your own device“ ist für die meisten Schüler eine richtige Option. Unabhängig davon bedarf es aber eines IT-Meisters, so wie wir in jeder Schule selbstverständlich einen Hausmeister haben. Dieser IT-Service kann auch durch private Firmen erbracht werden. Was die Ausstattung der Schulen angeht, so könnte eine Initiative der Landesregierungen gegenüber den IT- und Telekommunikations-Firmen hilfreich sein, damit sie sich für eine bessere digitale Ausstattung, sei es Hardware oder Software, engagieren. 10. Partner für die digitale Bildungsentwicklung gewinnen Im Sinne des Grundsatzes der Subsidiarität und der sozialen Verantwortung von Unternehmen und der Zivilgesellschaft gilt es, Partnerschaften einzugehen. Längst hat Schule kein Bildungsmonopol mehr. Vielmehr gewinnen außerschulische Lernorte eine immer größere Bedeutung. Deshalb ist die Vernetzung der Schule in das örtliche, gesellschaftliche und wirtschaftliche Umfeld für den Bildungserfolg des Einzelnen wichtiger denn je. Dazu gehören z. B. Jugendhäuser, Bibliotheken, Sport- und Musikvereine, Kirchengemeinden ebenso wie Handwerksbetriebe und Dienstleistungsunternehmen, um Brücken zwischen Schule und analogen und virtuellen Welten zu bauen. Die zehn Hausaufgaben für digitales Lernen werden wir nur dann in der notwendigen Differenziertheit und Schnelligkeit umsetzen, wenn sich für diese gesamtgesellschaftliche Aufgabe auch gemeinnützige Organisationen, vor allem Stiftungen, engagieren. Die Telekom Stiftung fördert partnerschaftlich seit über zehn Jahren Bildungsprojekte mit dem Fokus MINT. Einige Beispiele dazu: – Die Telekom Stiftung fördert finanziell wie inhaltlich das „Haus der kleinen Forscher“. Dort wird gerade daran gearbeitet, Kita-Pädagogik mit digitalen Medien zu verbinden. – Zur Aufgabe „digitales Lernen in der Grundschule“ hat die Telekom Stiftung einen bundesweiten Wettbewerb ausgelobt. Jetzt arbeiten wir mit sechs Universitäten und sechs Grundschulen daran, pädagogische Konzepte nicht nur zu entwickeln, sondern auch praktisch auszuprobieren. – Da sich die Digitalisierung in allen Berufen niederschlägt, hat die Telekom Stiftung das Projekt „Berufsschule digital“ in Abstimmung mit den Kultusministerien, den IHKs und Handwerkskammern inititert. Dabei geht es vor allem darum, die Entwicklungsprozesse, die Berufsschulen in der Digitalisierung erfolgreich vorangebracht haben, zu erfassen und skalierbar zu machen. – Um faire Bildungschancen auch denjenigen zu eröffnen, die in unserem Schulsystem Schwierigkeiten haben, fördert die Telekom Stiftung das Projekt „Gestaltbar – digitale Werkstatt“. Da die meisten bildungsschwachen jungen Menschen intensiv mit digitalen Medien spielen, wollen wir diesen Spieltrieb nut-
140
–
Wolfgang Schuster
zen, um ihre Kreativität herauszufordern, z. B. um Software-Programme für technische Geräte zu schreiben, die sie selbst zusammenbauen, und damit handwerkliches Geschick und digitale Fertigkeiten zu verbinden. Dabei arbeiten wir mit Hauptschulen, Jugendhäusern und der Agentur für Arbeit zusammen, damit diese neu erworbenen Kompetenzen auch als berufsvorbereitende Qualifizierung dienen. Gemeinsam mit anderen großen Stiftungen habe ich das Forum Bildung Digitalisierung geschaffen, um als Partner der Kultusministerkonferenz und der Kultusministerien wie des Bundesministeriums für Bildung und Forschung an der Aufgabe „Lernen im digitalen Wandel“ gestaltend mitzuwirken. 6 ZEHN GEBOTE DER DIGITALEN ETHIK
Welche Werte stehen hinter den zehn Bildungsaufgaben? Welche Werte wollen wir vermitteln und leben, sowohl als Person, in unserer Gesellschaft wie auch im wirtschaftlichen Handeln? Sieht man von der bekannten goldenen Regel „Was Du nicht willst, das man Dir tu, das füg’ auch keinem anderen zu“ ab, wird es schwierig, gemeinsame Grundsätze eines „Welt-Ethos“ zu finden. Es gibt international vereinbarte Regeln in der UN-Menschenrechtskonvention, UN-Frauenrechtskonvention, UN-Kinderrechtskonvention und UN-Arbeitsrechtskonvention. Doch ein Blick auf die weltweiten Realitäten zeigt, dass diese UN-Konventionen leider häufig nicht eingehalten werden, zumal sie abstrakt formuliert sind. Deshalb bleibt es wichtig, ein gemeinsames Verständnis für die Nutzung digitaler Medien durch jedermann zu entwickeln. Dazu bedarf es Regeln, die leicht verständlich und nachvollziehbar sind – ohne Absolutheits- und Vollständigkeitsanspruch. Dies könnte z. B. in Form von Geboten erfolgen, die jeder von uns als Teil der Alltagskultur leben kann. Gemeinsam mit Frau Prof. Dr. Grimm und in Zusammenarbeit mit Master-Studenten der Hochschule der Medien in Stuttgart haben wir einen Verhaltenskodex für Jugendliche (im Folgenden in Kurzform) entwickelt, die „10 Gebote der Digitalen Ethik“: 1. Gebe möglichst wenig Daten und Informationen preis, denn dein Verhalten im Internet wird ständig beobachtet: Du bist im Netz nicht anonym. 2. Sei dir bewusst, dass andere (z. B. Unternehmen, Institutionen, Staaten etc.) Informationen über dich sammeln, um aus ihnen einen Nutzen zu ziehen. 3. Auch dich kann Cyber-Mobbing treffen. Daher habe Mitgefühl, misch dich ein und sieh nicht weg. 4. Verletze nicht andere durch deine Kommentare, denn die Werte des sozialen Miteinanders gelten auch im Netz. Online-Gewalt ist reale Gewalt. 5. Sei kritisch: Bilde dir deine Meinung mittels verschiedener Quellen. 6. Sei dir bewusst, dass eine „unsichtbare Hand“ die Inhalte filtert und bestimmt, die du (nicht) sehen kannst. 7. Lass nicht zu, dass dein Selbstwert von Likes und Posts bestimmt wird. 8. Reduziere dich nicht auf Messwerte und Statistiken.
Arbeiten 4.0 – warum Deutschland eine Bildungsoffensive braucht
141
9. Schütze dich vor drastischen Inhalten im Internet. 10. Schalte hin und wieder ab und gönne dir auch mal eine Auszeit. 7 DIGITALE ETHIK ALS TEIL DES NACHHALTIGEN HANDELNS VON UNTERNEHMEN Auf den „10 Geboten“ aufbauend gilt es, ethische Grundsätze – einen Code of Conduct für Unternehmen – zu entwickeln, die in besonderer Weise der Verantwortung sowohl für ihre Mitarbeiter, für die Umwelt wie für die Gesellschaft gerecht werden. Wie könnte dies praktisch umgesetzt werden? Ein Lösungsansatz ist, die Grundsätze Digitaler Ethik in die Nachhaltigkeitsstrategien der Unternehmen aufzunehmen. Alle großen Unternehmen haben sich verpflichtet, über ihre Nachhaltigkeitsstrategien Auskunft zu geben. Die Nachhaltigkeitsberichte umfassen nicht nur ökologische und wirtschaftliche Indikatoren, sondern ganz wesentlich auch soziale Fragen. Sie sind damit zugleich wesentlicher Teil der Corporate Responsibility. Die EU hat eine Richtlinie zur nachhaltigen Entwicklung von Unternehmen ab 500 Mitarbeitern erlassen. Diese ist 2017 in dem CSR-Richtlinie-Umsetzungsgesetz nationales Recht geworden. Um dieses Gesetz möglichst pragmatisch anzuwenden, hat der Rat für Nachhaltige Entwicklung den Deutschen Nachhaltigkeitskodex entwickelt. Er enthält Kriterien zur gesellschaftlichen Verantwortung der Unternehmen. Hierbei können Fragen der Digitalen Ethik integriert werden. So muss das Unternehmen berichten, wie es national und international anerkannte Standards der Arbeitnehmerrechte einhält. Dazu gehört z. B., die Privatsphäre der Arbeitnehmer zu respektieren. Ein weiteres Kriterium ist Chancen-Gerechtigkeit. Danach muss das Unternehmen offenlegen, welche Ziele es hat, um z. B. Chancengerechtigkeit und Diversity, angemessene Bezahlung sowie Vereinbarkeit von Familie und Beruf zu fördern. Dazu gehören tarifrechtliche Vereinbarungen zur Flexicurity sowie zur zeitlichen Begrenzung der Arbeit, z. B. bei Home Office. Ein weiteres Kriterium ist Qualifizierung. Dabei geht es um die Förderung der Beschäftigungsfähigkeit, d. h. der Fähigkeit zur Teilhabe an der Arbeits- und Berufswelt für alle Mitarbeiterinnen und Mitarbeiter. Ganz wesentlich ist daher die Fortbildung der Mitarbeiter, damit sie den neuen Anforderungen durch die Digitalisierung gerecht werden können. Dabei geht es nicht nur um digitale Bildung, sondern auch um das Mensch-Maschine-Verhältnis, das sich durch die „künstliche Intelligenz“ verändert. Doch wie intelligent die Maschinen auch immer sein mögen, sie müssen stets Hilfsmittel des selbstbestimmt arbeitenden Menschen bleiben. Denn auch in der digitalen Welt gilt: „ Die Würde des Menschen ist unantastbar.“ Diese zu schützen, bleibt eine wichtige rechtliche Aufgabe für den Staat wie eine ethische Aufgabe für uns als Bürger, als Gesellschaft und als Unternehmen.
142
Wolfgang Schuster
BIBLIOGRAFIE Bos, Wilfried et al. (Hrsg.) (2014): ICILS 2013. Computer- und informationsbezogene Kompetenzen von Schülerinnen und Schülern in der 8. Jahrgangsstufe im internationalen Vergleich. Münster/New York: Waxmann Verlag. Online: https://www.waxmann.com/fileadmin/media/ zusatztexte/ICILS_2013_Berichtsband.pdf (Abruf: 20.07.2016). Deutsche Telekom (2013): Leitsätze der Deutschen Telekom zu Big Data. Oktober 2013. Online abrufbar unter: https://www.telekom.com/resource/blob/310258/40cbb256303a655061c4aaa7 3b31a56f/dl-big-data-leitlinien-data.pdf (Abruf: 20.07.2016). Dengler, Katharina/Matthes, Britta (2015): Folgen der Digitalisierung für die Arbeitswelt. Substituierbarkeitspotenziale von Berufen in Deutschland. IAB-Forschungsbericht 11/2015. Online: http://doku.iab.de/forschungsbericht/2015/fb1115.pdf (Abruf: 20.07.2016). Eickelmann, Birgit/Bos, Wilfried/Vennemann, Mario (2015): Total digital? – Wie Jugendliche Kompetenzen im Umgang mit neuen Technologien erwerben. Dokumentation der Analysen des Vertiefungsmoduls zu ICILS 2013. Münster/New York: Waxmann Verlag. Online: https:// www.telekom-stiftung.de/sites/default/files/files/media/publications/vertiefungsmodul_icils_ 2013_langfassung_20150623.pdf (Abruf: 20.07.2016). Frey, Carl Benedikt/Osborne, Michael A. (2013): The Future of Employment. How Susceptible are Jobs to Computerisation? 17.09.2013. Online: www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of Employment.pdf (Abruf: 20.07.2016). Kultusministerkonferenz (Hrsg.) (2016): Bildung in der digitalen Welt. Strategie der Kultusministerkonferenz. Beschluss der Kultusministerkonferenz vom 08.12.2016. Online: https://www. kmk.org/fileadmin/Dateien/pdf/PresseUndAktuelles/2016/Bildung_digitale_Welt_Webversion.pdf (Abruf: 20.07.2016).
WILL TECHNOLOGICAL DEVELOPMENT LEAD TO AUTHORITARIANISM? On the Necessity of Bildung Lene Rachel Andersen
Technological development is revamping the way that we produce and, consequently, the economic, societal, and power structures and what it means to be human. We are undergoing a transformation from nation-state-based industrialized economies to one global digitized economy where artificial intelligence, surveillance technologies and big data analysis will be capable of monitoring and manipulating us constantly. Science fiction often portrays the future as authoritarian, with power and technological control concentrated in few hands; empirical data points towards that very development as well. Psychological analyses by Erich Fromm suggest that rather than standing up to this development, humans will unintentionally drift towards authoritarianism and endorse their own oppression. The writings of Friedrich Schiller and Johann Heinrich Pestalozzi, however, point out that we do have an alternative: we can take our fate into our own hands and choose what kind of future we want. Søren Kierkegaard’s Existentialism and current developmental psychology support this view. We have to act fast, though, and radically upgrade our educational systems, public discourse and understanding of Bildung in order not to become slaves of our own inventions. 1 TECHNOLOGICAL DEVELOPMENT: OUR CHALLENGE AND BIG CHANCE With no other regulating force than the market, a number of new technologies will be revamping the world as we know it. If we decide to regulate the development wisely, we can create freedom and prosperity for all. Bio-, info-, nano-, and cognitive (BINC) technologies are merging at the nanoscale, which in combination with 3D printers will soon allow us to turn physical goods into code that can be transferred via the Internet and printed out on the other side of the globe at the push of a button. This requires 3D printers that do not exist yet, but the technology that allows printing atom by atom is in the pipeline (3Dprint.com 2018a). Some of these printed-out items will be nano-devices that collaborate with human protein, others will be intelligent prostheses that can collaborate with our nervous system and can be integrated into our bodies (3Dprint.com 2018b). These kinds of technology already exist or have been invented, they are just not widely
144
Lene Rachel Andersen
available yet as printed products. Artificial intelligence (AI) and robots are already about to take over not just menial analysis of big data and routine physical tasks but will also replace chauffeurs and perform a number of tasks today performed by lawyers, doctors, journalists, and other academics (Andersen/Rasmussen 2015; Simon 2017; Future of Life Institute 2018). Digital currencies will compete with national or continental currencies and the strength of a currency will no longer depend on the nation-state (or another kind of political entity) or the economy to back it, but rather on the ingenuity of the app delivering it. Nation-states will be competing over their sovereignty by employing app development (Mourdoukoutas 2017). Blockchain is a software developed as part of Bitcoin, which holds great promise for logging the history of products, data and people (Rosenberg 2015; Miller 2017; Stockton 2017). The latter may in fact be a great advantage since it allows people in developing countries or failed states, and refugees or others who have lost everything, to prove their existence. The Internet of Things (IoT) will allow all human-made products to be online, blockchained and traceable (Burrus 2014). Surveillance technologies will be a combination of the above; some of them will be integrated into insects that will be remote-controlled and indistinguishable from non-modified, natural insects such as flies (Anthes 2013a; Anthes 2013b). It is impossible to put dates of availability on new technologies, but for prediction, consider that the smartphones that we carry in our pockets today have vastly more data-processing capacity than the computers taking Apollo 11 to the Moon and back in 1969. 2 HOW TECHNOLOGIES CHANGE THE ECONOMIC STRUCTURE We are in a transition from nation-based industrialization to global digitization. As the means of production change, so do ownership and the economy. There are several phenomena that are already changing as our economies are becoming increasingly digitized; five of these shall be explored briefly: – Lack of geographic gravity for products: home market economy vs. global market economy, – the ratio of people to creation of market value, – lack of geographic gravity for the company, – concentration of ownership and power, and – border-crossing immateriality dismantling our current macro-economic models. Lack of geographic gravity for products: home market economy vs. global market economy: Physical products have geographical gravity, that is, they need physical transportation, and home-markets are easier to penetrate than any marked beyond state borders. Digital products turn global the moment they are released on the Internet, particularly if they exist in English. Ratio of people to creation of market value: Though industrialization historically meant higher productivity compared to craftsmanship, industrial (value) production was still employment-heavy. It needed lots of workers and employees. With
Will Technological Development Lead to Authoritarianism?
145
digital products, even a small number of people can create high production value in the global market. The sales and market values of two companies, one traditionalindustrial, Volvo, the other digital, Mojang, creators of online game Minecraft, may serve as a telling example: In 2010, the Swedish company producing Volvo cars was sold to the Chinese company Geely (Yan/Leung 2010); in 2014, Mojang, also Swedish, was sold to US software giant Microsoft (Stuart/Hern 2014). These are the key indicators: Volvo (automotive industry)
Mojang (gaming software industry)
– – – –
– – – –
Founded 1927 Bought by Geely 2010 Sales tag: 1.5 billion USD Employees: 23,000
Founded 2010 Bought by Microsoft 2014 Sales tag: 2.5 billion USD Employees: 40
Tab. 1: Basic business figures of Volvo and Mojang
The market value represented by the 40 Mojang employees was higher, within four years after the company’s foundation, than the market value represented by some 23,000 industry workers and engineers at Volvo, some 80 years after starting business operations. Lack of geographic gravity for the company: In stark contrast to a car factory, which is very complicated to move geographically, a software company with some 40 people can move from one country and tax system to another rather quickly. In fact, the employees need not be in the same country at all, and the owners do not have to be located physically in the tax haven to where the company can quickly move its home address. People who create immense economic value can move it around globally within weeks. Concentration of ownership and power: Not only, in the example above, did 40 people (plus very likely some who were no longer with the company when it was sold) create more market value in a period of just four years than 23,000 people and generations of earlier colleagues had created in 83 years; in many startups the company itself has become the product. When Volvo was founded, the cars were the product; to many entrepreneurs today, what the company produces is not the focal point of their business – rather, it is selling the company that brings in the profit. Companies such as Microsoft, Alphabet (Google), Facebook and a handful of other similar-sized corporations buy up competitors and startups like Mojang, thereby amass an immense power over the Internet and create structural and economic hegemonies in cyberspace. Since the Internet and online content are mostly regulated by national and/or European Union legislation, there is no global regulation of the Worldwide Web, the Net economy and the creation of Internet and Internet-enhanced economic monopolies and super-powers. Dismantling of our current macro-economic models: The macro-economic models currently in use have developed from, and are based on, the industrialized economy, nation-states and an assumption of limited resources. These models gene-
146
Lene Rachel Andersen
rally do not include measuring the value added to the economy by recycling and/or cradle-to-cradle design and other circular subsystems in the economy; they just measure output, not the robustness, self-support, longevity and stability of the system. The power and significance of the nation-state is drastically diminished regarding digital products since these can be downloaded worldwide. Nation-states can limit access to certain websites, but turning the Worldwide Web into national intranets would harm any local economy doing so and detach it form the development of the digital economy. Only a big and growing national economy like China’s can afford restricting global Internet access (by way of dictatorial one-party rule), and can do so probably for only a relatively short time. Recycling gets an entirely new dimension and potential economic impact when at some point we can dismantle physical products and recycle them as raw materials in 3D printers. If, on top of that, the dismantlers and the printers can run on renewable energy, then we will have created a path to unlimited abundance. It is unlikely that we reach a situation where absolutely everything can be dismantled and recycled by 3D printing machinery running on renewable energy and thus allow us to consume in unlimited mode, but even getting halfway there, or just 20 per cent of the way, would be a radical game-changer in our economies. The bottom-line is that our macro-economic toolbox currently contains no vocabulary or measurements for progress towards a global economy based on such technologies of the future or for the recycling loops that already exist and ought to be more visible in our macro-economic bookkeeping. The national budgets, macroeconomic models, and accounting do not support environmental sustainability and our economic models thus force us to think along outdated and obsolete patterns. As the technological development continues nevertheless, current macro-economics are not able to give us an accurate picture of what is happening to our economy. The technological development is tearing the economic fabric apart without us knowing exactly how and at what pace. 3 ARTIFICIAL INTELLIGENCE, SURVEILLANCE TECHNOLOGIES AND BIG DATA ANALYSIS While the nation-states that currently serve as guardians of the rule of law, human rights, political and other freedoms, are being side-railed by technological and economic development, the technologies themselves seem to offer the controlling mechanisms making up for the real loss of national/state control and sovereignty if we design them properly. Artificial intelligence, facial recognition software, surveillance technologies, big data analysis, and whatever we do on social media, search for on the Internet, etc., can be combined to be constantly monitoring and manipulating us. We can be nudged, fooled and/or coerced to vote or behave in certain ways, as recent scandals have shown. We can be monitored and manipulated by private companies as well as by our governments, but the algorithms themselves remain the proprietary possession of those private companies. As citizens, we have no democratic control over
Will Technological Development Lead to Authoritarianism?
147
these processes, nor do we have access to see what these companies and their algorithms do. Governments buying such services may have no knowledge about their true mechanisms either. The Chinese government, so far, seems to be the one major exception, but not for the better. The People’s Republic of China has developed its own total surveillance system of “sesame credits” that is being implemented step by step (see Hatton 2015; Kastner 2016; Creemers 2018; Munro 2018). It is a gamified social-mediacum-dating-service-cum-surveillance-tool that ranks the Chinese according to behavior, work performance, conformity of opinion/avoidance of dissent, and whom one is associated with. If you have the wrong friends, eat the wrong food, get into financial debt, walk across a red light, or vent your frustration, you will lose points (and will probably not be able to buy railway tickets to visit relatives, for example). If you do voluntary local community work, or otherwise present yourself as a good citizen, you will gain points (and make yourself eligible for a better apartment, or a passport). The system will eventually include cameras all over the country and facial recognition software that knows the face of every individual Chinese. This is state-directed social ostracizing of whoever does not comply with government rules. Of course, no blood gets spilled, no direct violence is exerted, no police officers carry you away at night as in traditional notions of what constitutes a dictatorship – it’s just algorithms, a plummeting score and a life with no friends that coerce you into being an obedient, compliant citizen. 4 TOTALITARIANISM AND AUTHORITARIANISM – THE ACCURACY OF SCIENCE-FICTION DYSTOPIAS Since Fritz Lang’s movie METROPOLIS (1927), Western civilization has not been lacking in dystopian fictions about totalitarian authoritarian futures. From a dramaturgical perspective, it makes plenty of sense to have the totalitarian authoritarian system as the antagonist while the protagonist is a freedom-loving individual(ist); it makes for good entertainment, particularly as the main characters obtain freedom towards the end of the story. The catharsis and sense of hope contained in such stories feels good to the audience. The question is if there are reasons to take these dystopian predictions as more than just entertainment. Are there mechanisms based on technological development that pull us towards totalitarian authoritarian dystopias and, if so, will we stand up to the development? Or, phrased differently: are we drifting towards totalitarianism collectively in the “outer” world and towards authoritarianism in the individual, emotional, inner world? Let us assess the societal developments that may draw us, collectively speaking, towards totalitarianism. Individual greed and hunger for power aside, it seems that at least two factors or structural mechanisms pull us towards power concentration and totalitarianism: scale-free networks and business monopolies. Systems where entities interact can be characterized as networks and the individual entities as nodes. The way the nodes connect is rarely random but follows a
148
Lene Rachel Andersen
pattern. Self-organizing, open, complex systems tend to develop a scale-free network structure where a few nodes become hubs. The hubs that already have the most connections keep attracting the most new connections (Barabási 2013; Wolfram MathWorld 2018). Thus the main feature distinguishing scale-free networks from random networks is that the distribution of connections between any two nodes in the network follows a power law: one or very few hubs have an extremely high number of connections while the vast majority of nodes have only one or very few connections (Konno 2010). In random networks, the distribution of connections per node follows a normal distribution (see Fig. 1).
Fig. 1: Scale-free networks vs. random networks and their respective distribution of connectivity
Not only does the Internet itself have scale-free network properties with giants such as Google and Facebook being Internet hubs, the economy created by the Internet reflects the structure as such, as does any unregulated market economy: they drift towards monopolies. Could there be a global Internet-based economic and content monopoly that would not become totalitarian in its attempt to protect itself? Since the Internet is too young for the world to have experienced the development of any real online monopoly, any answer to that question will be speculative. Likewise, any answers as to what the developmental phases of such a monopoly would look like remain in the realm of speculation just the same. The most likely outcome would be that a monopoly would go at great lengths to prevent competition and would thus pursue any means of protecting the monopoly. This does not itself imply that it would be violent or abusive, just that it would be totally dominating.
Will Technological Development Lead to Authoritarianism?
149
In Escape from Freedom, first published 1941, Erich Fromm explores how the economic upheavals in the Renaissance and throughout the 1930s lead to not just authoritarian rule in Germany (in the form of Protestantism and Nazism, respectively), but to people developing an authoritarian character (Fromm 1994). As technologies and the economy fundamentally changed and people could no longer provide for themselves and their family based on their existing knowledge and skills, not only did people fear for their economic future and livelihood, the symbols of the old and known world did not suffice anymore and the shared epistemology broke down. This had a deep psychological impact as people suffered from what Fromm (1994: 17–18) calls moral aloneness: To feel completely alone and isolated leads to mental disintegration just as physical starvation leads to death. [...] This lack of relatedness to values, symbols, patterns, we may call moral aloneness and state that moral aloneness is as intolerable as the physical aloneness, or rather that physical aloneness becomes unbearable only if it implies also moral aloneness.
According to Fromm, in order to avoid this horrible feeling, people fell for authoritarian leadership and developed an authoritarian character. As they could no longer navigate their world based on internalized norms and symbols, they went looking for orders from the outside while competing fiercely among each other in order not to sink to the bottom of society. Consequently, social cohesion, trust and loyalty across society broke down, and under these conditions, any kind of weakness would not be tolerated: only strength and power would be perceived as deserving respect – the cornerstones of fascism. According to Fromm, a breakdown of the known economic fabric thus leads to a breakdown of the moral fabric as well. Rather than standing up to power and abuse of power, the majority will succumb to it in a search for security, predictability, and a symbolic world providing a minimum of familiarity. People will endorse their own oppression. 5 ALTERNATIVES TO TOTALITARIAN AUTHORITARIANISM In general, healthy adults neither develop an authoritarian character nor do they long for taking orders from others. After having internalized the norms of society and thus having learned to function productively in our community, we rather tend to develop our own sense of inner, personal authority and become self-authoring. This kind of personal development has been described by, among others, Friedrich Schiller, Johann Heinrich Pestalozzi, Søren Kierkegaard, and Robert Kegan. Friedrich Schiller – Aesthetic Upbringing: When the French Revolution broke out it sent a wave of hope of political freedom through the bourgeoisie across feudal Europe. When the bloodbath followed, the majority of the Revolution’s adherents were appalled and disillusioned: how could this have happened! The French gave themselves freedom and then it ended in tyranny. Friedrich Schiller was among the German intellectuals who struggled with the bloody outcome of the Revolution and in 1792–96 he wrote what is today known as Über die ästhetische Erziehung des Menschen (On the Aesthetic Education of Man; Schiller 2016). He reaches the con-
150
Lene Rachel Andersen
clusion that the adult Mensch can go through three stages of development, which Schiller gives a couple of different names (listed below). In order to lift us from one phase to the next, beauty/aesthetics can lift us and pull the rug away from under our feet so that we have to evolve, and Schiller distinguishes between calming beauty and invigorating beauty: Phase 1:
Savage, emotional, physical man, man of nature (calming beauty is needed to lift us)
Phase 2:
Barbarian, rational man dominated by rules and fashion, man of artifice (invigorating beauty is needed to lift us)
Phase 3:
Gebildet and moral man who is a personality Tab. 2: Schiller’s three phases of Aesthetic Education
According to Schiller, neither emotional/physical man nor the rational man can handle political freedom: only the moral man of Bildung can control his own emotions and put himself beyond the mood of the crowd, and thus think for himself. He is the only person who can handle political freedom and not turn it into a bloodbath. Johann Heinrich Pestalozzi – Human Development: At about the same time as Schiller was writing on aesthetic Bildung, the Swiss pedagogue Johann Heinrich Pestalozzi authored Meine Nachforschungen über den Gang der Natur in der Entwicklung des Menschengeschlechts (My Enquiries into the Course of Nature in the Development of the Human Species), which was published in 1797. Across some 150 pages, he describes three stages of adult maturity: tierischer Zustand, gesellschaftlicher Zustand and sittlicher Zustand (animalistic condition, societal condition and moral condition; see Pestalozzi 1797). The societal condition he also calls bürgerliche Bildung, civic Bildung. The way he describes these conditions, they very much overlap with Schiller’s first two conditions (emotional and rational man) and his moral condition. Pestalozzi (1797: ch. 11; my translation) sums it up as follows: By the work of my nature, I am physical power, an animal. By the work of my family, I am social power, skill. By the work of myself, I am moral power, virtue.
Pestalozzi does not link any of the stages specifically to politics, but it is obvious that only the moral condition leaves people with the ability to control their emotions and stand up to the crowd. Both Schiller and Pestalozzi knew German pedagogue/philosopher Johann Gottlieb Fichte who also wrote about adult development in stages, as did several other German Idealists at the time, but neither Schiller nor Pestalozzi refer to one another or to other contemporary thinkers in their two cited works. Søren Kierkegaard – Stages on Life’s Way: In his seminal work Either-Or (Enten-Eller, orig. 1843), Danish philosopher Søren Kierkegaard (1962a) explores five existential stages of development, which he personifies in five characters:
151
Will Technological Development Lead to Authoritarianism?
– The Petit Bourgeois is a man controlled by the norms of society and the expectations of others. – The Aesthetic would like to be more existentially advanced than the Petit Bourgeois but cannot emancipate himself from the judgment of others. – The Ethic has discovered the existence of the personal moral choice, and once one has seen this choice, one must also choose it; one cannot be morally aware and ignore it. One can try ignoring it, but eventually, one must choose it. – The Ironic refers to Kierkegaard’s previously explored concept of irony as presented in his doctoral thesis, On the Concept of Irony with Continual Reference to Socrates (Om Begrebet Ironi med stadigt Hensyn til Socrates), in 1841 (1962b): showing how something is not of any worth. The Ironic thus lives in an existential limbo where nothing really matters. – The Religious person accepts to let go of human control and hovering at 70,000 fathoms. To Kierkegaard, the conscious existential choice takes place between the Aesthetic and the Ethic: that is where we choose who we are. It is a moral and existential choice and it is thus an act of moral will that lifts us to the next stage. Robert Kegan – Ego-development: According to American developmental psychologist Robert Kegan, ego-development happens in five stages (see Kegan 1982; Kegan 1994; Kegan/Lahey 2009): Stage 1 Age 2–6 Self-discovering*
Stage 2 Age 6–teen Self-consolidating*
Stage 3 Teen and adult Self-governing
Stage 4 Adults Self-authoring
Stage 5 Adults Self-transforming
Authority outside
Authority outside
Internalized norms
Own norms
Mutuality
Needs boundaries
Needs boundaries Searches for group
Conformity Group above principles
Has ideals and values Principles above group
Renewing norms Sees the full picture incl. self
Jumbled thinking
Concrete thinking
Simple abstractions
Abstract thinking
Holistic thinking
The person is had by her ideals and values
Had by personal Sees the process autonomy and “goes tai chi”
The child is had The child is had by her impulses by her emotions
Tab. 3: Stages of ego-development (based on Kegan 1982, 1994, 2009) * Terms not used by Kegan
Between each two stages of mental complexity, there is a phase of transition until the individual has settled into the new mode of being. This phase can be highly
152
Lene Rachel Andersen
frustrating and is often painful: either because one has to let go of previous habits and assumptions, or because previous assumptions turn out to be false and one goes through a personal crisis as a result. Kegan’s fifth stage of mental complexity, “Self-transforming”, is hardest to describe, but most grandparents know it within the family: one can see the psychological and other mechanisms at play among the individual members of the family and one can also see how one affects those dynamics oneself, either by interfering or by staying out of it. It is a consciousness that allows one to “go tai chi” – i.e., to see the dynamics that are already there and use them for the good of the situation (instead of fighting them). According to Andersen/Björkman (2017: 136, 454), Kegan’s five stages of egodevelopment match the stages of Bildung as described by Schiller, Pestalozzi and Kierkegaard in the following ways: – Kegan, mental complexity stage 1: early childhood, ages 2 to 6 – Andersen/Björkman: self-discovering – Schiller: no mentioning – Pestalozzi: no mentioning – Kierkegaard: no mentioning – Kegan: transition phase (no name) – Kegan, mental complexity stage 2: late childhood, age 6 to teenage years – Andersen/Björkman: self-consolidating – Schiller: emotional man – Pestalozzi: animal condition – Kierkegaard: no mentioning – Kegan: transition phase (no name) – Schiller: calming beauty – Pestalozzi: benefits of society attract us – Kegan, mental complexity stage 3: self-governing/socialized mind, teenage years and adulthood – Andersen/Björkman: self-governing (same as Kegan) – Schiller: rational man – Pestalozzi: societal condition – Kierkegaard: Petit Bourgeois – Kegan: transition phase (no name) – Schiller: invigorating beauty – Pestalozzi: by willpower can we change ourselves – Kierkegaard: the Aesthetic – Kegan, mental complexity stage 4: self-authoring mind, adulthood – Andersen/Björkman: self-authoring (same as Kegan) – Schiller: moral man – Pestalozzi: moral condition – Kierkegaard: Ethic – Kegan: transition phase (no name) – Kierkegaard: the Ironic
Will Technological Development Lead to Authoritarianism?
153
– Kegan, mental complexity stage 5: self-transforming mind, adulthood – Andersen/Björkman: self-transforming (same as Kegan) – Schiller: has a description of the mature mind that can handle constant change without dissolving due to it – Pestalozzi: does not have a stage matching it – Kierkegaard: his Religious stage does not quite match it; Schiller’s very short mentioning is closer to Kegan’s description than Kierkegaard’s, which is dependent on Christian dogma Some of the transition phases, which Kegan describes as frustrating or painful, Schiller suggests can be promoted by aesthetics/beauty: the intermittent stage between Kegan’s stages 2 and 3 and stages 3 and 4. Pestalozzi does not deal with the transitions, except that he sees the entirety of stage 3/societal condition as an instable state where the individual is not in touch with his own emotions. Kierkegaard is the only one who names two of the transition phases and explores them extensively: the Aesthetic and Ironic stages, and it is obvious that they are not stages in which one can live a fully satisfying life; they carry each their own frustration and lack of fulfillment. By making the Ethic stage a conscious choice, Kierkegaard aligns himself with Pestalozzi. 6 EGO-DEVELOPMENT AND POLITICAL RESPONSIBILITY By bringing the four descriptions of personal development together, Andersen/ Björkman (2017: 421) first conclude that according to Schiller, one has to be at least self-authoring in order to handle political freedom, second that the self-consolidating stage corresponds with Fromm’s authoritarian character and that during societal upheaval, the self-governing character will regress to an authoritarian one which will in turn undermine democracy. The authors sum up the interplay of personal development and political responsibility along the lines of the following model: Cannot handle political freedom, according to Schiller
Can handle political freedom, according to Schiller
Kierkegaard: Aesthetic Schiller: Calming Beauty Pestalozzi: Benefits
Kierkegaard: Ironic
. Invigorating Beauty Pestalozzi: Willpower
Kegan stage 2 – child Self-consolidating
Kegan stage 3 – teen Self-governing
Kegan stage 4 – adult Self-authoring
Kegan stage 5 Self-transforming
Schiller: Physical Man Pestalozzi: Animal Condition
Schiller: Rational Man Pestalozzi: Societal Condition Kierkegaard: Petit Bourgeois
Schiller: Moral Man Pestalozzi: Moral Condition Kierkegaard: Ethic
Schiller: Handling change
Fromm: Authoritarianism
(Kierkegaard: Religious)
Fromm: Freedom
Fig. 2: Stages of personal development and political responsibility – an overview
154
Lene Rachel Andersen
As self-consolidating/emotional man/animal condition, one is in the throes of one’s passions and cannot be responsible beyond short-term desires. As self-governing/ rational man/societal condition, one conforms to the expectations of others and cannot take an individual stand. In either case, one is not existentially free to vote or act independently and take a stand on behalf of society as a whole; one can be swept away by collective passions, which is what happened to the crowd during the French Revolution. In an established democracy, as the known fabric of society breaks down and the epistemology becomes increasingly insufficient and leaves a growing number of people morally alone, those people previously in a self-governing stage will become increasingly self-consolidating and unable to collaborate for the greater good of society. Having so far navigated according to internalized collective norms rather than according to an individual personal moral compass, they have only their emotions left to fall back on as the collective epistemology and its symbols disintegrate and fail them. Any promise of restoring order and societal cohesion will sound promising and soothing, and the self-governing turned self-consolidating will hail an authoritarian leader’s call for strength, righteous suffering, eradication of the weaker, and the persecution of any convenient scapegoat minority. 7 CONCLUSION Our economy is revamping due to technological development. Under such circumstances, the existing collective epistemology becomes insufficient and is at risk of breaking down. We need new forms of Bildung to tackle this. Bildung is more than education; it is personal development, which has been described in philosophical, pedagogical and psychological terms in the wake of the German Idealists. This means that in the Western academic tradition, we have had some 250 years of descriptions of adult psychological development that matches across time. Based on Fromm’s analysis of the mechanisms leading to the development of an authoritarian character that infuses a population during economic upheaval, there is reason to believe that the current structural changes in the economy due to technological development (digitization et al.) will lead to authoritarianism. The craving for authoritarian leadership due to economic upheaval will be enforced by the technologies that are currently being developed, as they are themselves making totalitarian surveillance and control easier and more efficient than ever. The path away from authoritarianism goes through Bildung that allows individuals to become self-authoring, i.e., develop a personal, inner, independent, individual moral compass. Bildung of this type is obviously rooted in ethics. In order to avoid totalitarian authoritarianism in the face of a revamping of our means of production and the economy, we need to develop new symbols and individual and collective understandings of what is going on, i.e., a new epistemology, so that people do not feel morally alone in the face of changes and upheavals. We also need to develop the individual and collective moral courage among leaders
Will Technological Development Lead to Authoritarianism?
155
who can take the development in a direction that is meaningful to people so that they do not feel lost in the first place. These two demands go together. At the collective level, as a species, becoming self-authoring is the only path that allows us to choose which technologies to develop and implement rather than seeing the technological development and the resulting economic and political development as something “inevitable” or “without alternatives”. BIBLIOGRAFIE Andersen, Lene Rachel/Rasmussen, Steen (2015): Tomorrow’s Technology Will Lead to Sweeping Changes in Society – It Must, For All Our Sakes. In: The Converation, 12 February. Online: https://theconversation.com/tomorrows-technology-will-lead-to-sweeping-changes-in-society-it-must-for-all-our-sakes-36023?sa=google&sq=binc&sr=1 (accessed 6 July, 2018). Andersen, Lene Rachel/Björkman, Tomas (2017): The Nordic Secret: A European Story of Beauty and Freedom. Stockholm: Fri Tanke Förlag. Anthes, Emily (2013a): The Race to Create ‚Insect Cyborgs‘. In: The Observer/The Guardian Online, 17 February. Online: https://www.theguardian.com/science/2013/feb/17/race-to-createinsect-cyborgs (accessed 6 July, 2018). Anthes, Emily (2013b): Frankenstein’s Cat: Cuddling Up to Biotech’s Brave New Beasts. New York: Scientific American/Farrar, Straus & Giroux. Barabási, Albert-László (2003): Linked: How Everything Is Connected to Everything Else and What It Means for Business, Science, and Everyday Life. New York: Plume. Burrus, Daniel (2014): The Internet of Things Is Far Bigger Than Anyone Realizes. In: Wired.com, November 2014. Online: https://www.wired.com/insights/2014/11/the-internet-of-things-bigger/ (accessed 6 July, 2018). Creemers, Rogier (2018): China’s Social Credit System: An Evolving Practice of Control. In: Social Science Research Network, SSRN.com, 22 May. Online: https://papers.ssrn.com/sol3/papers. cfm?abstract_id=3175792 (accessed 6 July, 2018). Fromm, Erich (1994): Escape from Freedom. New York: Holt (originally published in 1941). Future of Life Institute (2018): Benefits and Risks of Artificial Intelligence. Online: https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/ (accessed 6 July, 2018). Hatton, Celia (2015): China ‚Social Credit‘: Beijing Sets Up Huge System. In: BBC News, 26 October. Online: https://www.bbc.com/news/world-asia-china-34592186 (accessed 6 July, 2018). Kastner, Laura (2016): „Sesame-Credits“ – Macht China Überwachung zum Spiel? In: Politik-digital.de, 26 January. Online: https://politik-digital.de/news/sesame-credits-china-ueberwachung -148275/ (accessed 6 July, 2018). Kegan, Robert (1982): The Evolving Self: Problem and Process in Human Development. Cambridge, MA: Harvard University Press. Kegan, Robert (1994): In Over Our Heads: The Mental Demands of Modern Life. Cambridge, MA: Harvard University Press. Kegan, Robert/Lahey, Lisa Laskow (2009): Immunity to Change: How to Overcome It and Unlock Potential in Yourself and Your Organization. Boston, MA: Harvard Business Press. Kierkegaard, Søren (1962a): Enten-Eller. Vols. 1 & 2 (Samlede værker, Vols. 2 & 3). København: Gyldendal (originally published in 1843). Kierkegaard, Søren (1962b): Om Begrebet Ironi med stadigt Hensyn til Socrates. (Samlede værker, Vol. 1). København: Gyldendal (originally published in 1841). Konno, Tomohiko (2010): Imperfect Competition on Scale-Free Networks: Modern Monopolistic Competition. In: Social Science Research Network, SSRN.com, 26 February. Online: https:// papers.ssrn.com/sol3/papers.cfm?abstract_id=1558925 (accessed 6 July, 2018).
156
Lene Rachel Andersen
Miller, Ron (2017): The Promise of Managing Identity on the Blockchain. In: TechCrunch.com, 10 September. Online: https://techcrunch.com/2017/09/10/the-promise-of-managing-identity-onthe-blockchain/ (accessed 6 July, 2018). Mourdoukoutas, Panos (2017): Why China Crushed Bitcoin. In: Forbes.com, 9 September. Online: https://www.forbes.com/sites/panosmourdoukoutas/2017/09/09/why-china-crushedbitcoin/#5084d90e29ef (accessed 6 July, 2018). Munro, Kelsey (2018): China’s Social Credit System ‘Could Interfere in Other Nations’ Sovereignty’. In: The Guardian Online, 27 June. Online: https://www.theguardian.com/world/2018/jun/28/ chinas-social-credit-system-could-interfere-in-other-nations-sovereignty (accessed 6 July, 2018). Pestalozzi, Johann Heinrich (1797): Meine Nachforschungen über den Gang der Natur in der Entwicklung des Menschengeschlechts. Zürich: Geßner. Rosenberg, Scott (2015): How Bitcoin’s Blockchain Could Power an Alternate Internet. In: Wired. com, 13 January. Online: https://www.wired.com/2015/01/how-bitcoins-blockchain-could-power-an-alternate-internet/ (accessed 6 July, 2018). Schiller, Friedrich (2016): On the Aesthetic Education of Man: and, Letters to Prince Frederick Christian von Augustenburg (Keith Tribe, trans.; with an Introduction and Notes by Alexander Schmidt). London: Penguin Books (originally published in 1795). Simon, Matt (2017): What Is a Robot? In: Wired. com, 24 August. Online: https://www.wired.com/ story/what-is-a-robot/ (accessed 6 July, 2018). Stockton, Nick (2017): A Curious Plan to Save the Environment With the Blockchain. In: Wired. com, 22 May. Online: https://www.wired.com/2017/05/curious-plan-save-environment-blockchain/ (accessed 6 July, 2018). Stuart, Keith/Hern, Alex (2014): Minecraft Sold: Microsoft Buys Mojang for $2.5bn. In: The Guardian Online, 15 September. Online: https://www.theguardian.com/technology/2014/sep/15/microsoft-buys-minecraft-creator-mojang-for-25bn (accessed 6 July, 2018). 3Dprint.com (2018a): Company website. Online: https://3dprint.com/?s=nano (accessed 6 July, 2018). 3Dprint.com (2018b): VTT Studying Nanocellulose and 3D Printing for Wound Care and Decoration. Online: https://3dprint.com/188207/vtt-nanocellulose-3d-wound-care/ (accessed 6 July, 2018). Wolfram MathWorld (2018): Scale-Free Network. In: Wolfram.com (last updated 3 July). Online: http://mathworld.wolfram.com/Scale-FreeNetwork.html (accessed 6 July, 2018). Yan, Fang/Leung, Alison (2010). China’s Geely Completes Volvo Buy. In: Reuters.com, 2 August. Online: https://www.reuters.com/article/us-geely/chinas-geely-completes-volvo-buy-idUSTRE66S1TC20100802 (accessed 6 July, 2018).
KURZBIOGRAFIEN
Lene Rachel Andersen Lene Rachel Andersen (b. 1968) is Danish; she has a BA in business economy and studied theology 1993–1997. From 1993 to 2001, she wrote comedy and entertainment for Danish media and went to the US a number of times; she went there a Dane and returned as a European. Since 2005, she has worked as an independent futurist, author, philosopher, and publisher. For her books, she has received the Ebbe Kløvedal-Reich Democracy Baton (2007) and the Danish librarians’ Døssing Prize (2012); among her titles are: Democracy Handbook (2010), Globalt gearskift (2014) and Testosteroned Child. Sad. (2017). Prof. Dr. Bernhard S. Debatin Bernhard Debatin ist Professor an der E.W. Scripps School of Journalism der Ohio University in Athens, Ohio (USA) sowie Direktor des Institute for Applied and Professional Ethics (IAPE) und Direktor des Honors Tutorial Program in Journalism. Seine Lehr- und Forschungsgebiete umfassen Medien- und Internetethik, OnlineJournalismus, Umwelt- und Wissenschaftsjournalismus, Medien- und Öffentlichkeitstheorie sowie qualitative Forschungsmethoden. Von 1996 bis 2000 lehrte er an der Universität Leipzig, davor hatte er eine Gastprofessur an der Berliner Universität der Künste (1994–96) und war in einer Forschergruppe der DFG an der Technischen Universität Berlin (1989–94). Debatin war von 2001 bis 2005 Sprecher der DGPuK-Fachgruppe Kommunikations- und Medienethik. Er ist Autor bzw. Herausgeber von acht Büchern, hat mehr als 80 wissenschaftliche Artikel publiziert und ist journalistisch vor allem im Bereich Umwelt und Politik tätig. Univ.-Prof. i.R. Dr. Rudolf Drux Geb. 1948; Studium der Germanistik, Latinistik, Philosophie und Komparatistik in Köln; 1973 Staatsexamen in den Fächern Deutsch und Latein ebd.; 1976 Promotion, 1984 Habilitation mit der Verleihung der Venia legendi in Neuerer deutscher Philologie; 1985–90 Professor auf Zeit in diesem Fach in Köln, anschließend Lehrstuhlvertretungen in Mannheim, Kiel und Essen; 1992–96 Universitätsprofessor für Deutsche Literatur und Kulturgeschichte an der TH Darmstadt; dort Gründungsmitglied des Graduiertenkollegs „Technisierung und Gesellschaft“ und Dekan des Fachbereichs 2 (1995/96); 1996–2014 Inhaber des Lehrstuhls für Neuere deutsche Literaturgeschichte und Allgemeine Literaturwissenschaft an der Universität zu Köln; in dieser Zeit mehrere Erasmus-Dozenturen an den Universitäten Wroclaw, Polen, und Ca‘ Foscari, Venedig; 2000 Visiting Professor an der Universität von
158
Kurzbiografien
Wisconsin, Madison (USA); seit Oktober 2008 (bis September 2013) Geschäftsführender Direktor des Zentrums für Moderne-Forschung der Philosoph. Fakultät sowie Sprecher der Klasse 2 (Dynamische Netzwerke der Moderne) und Vorstandsmitglied der Graduiertenschule A.R.T.E.S.; 2009–2015 Vorsitzender der Lichtenberg-Gesellschaft. Schwerpunkte in Forschung und Lehre: Deutsche Literatur vom Frühbarock bis zum Vormärz (1618–1848) und im 20. Jahrhundert; Wechselbeziehungen zwischen Poetik und Rhetorik, Dichtung und Musik sowie Literatur- und Technikgeschichte, vor allem im Motivkomplex des künstlichen Menschen. Zu diesen Themenbereichen zahlreiche Buch- und Aufsatzpublikationen. Prof. Dr. Petra Grimm Petra Grimm ist seit 1998 Professorin für Medienforschung und Kommunikationswissenschaft an der Hochschule der Medien (Stuttgart). Sie ist Leiterin des Instituts für Digitale Ethik (IDE) und Ethikbeauftragte (Medienethik) der Hochschule der Medien. Ihre Forschungsschwerpunkte sind „Digitalisierung der Gesellschaft“, „Ethics and Privacy by Design“, „Mediennutzung von Kindern und Jugendlichen“ sowie „Medien und Gewalt“. Hierzu hat sie zahlreiche Publikationen veröffentlicht. Ihr Lehrgebiet ist Medienethik und Narrative Medienforschung in Masterund Bachelor-Studiengängen. Sie ist Preisträgerin des Landeslehrpreises BadenWürttemberg und (Mit-)Herausgeberin der Schriftenreihe Medienethik. Sie ist u. a. Mitglied im Forschungsbeirat des Bundeskriminalamts (BKA), in der AG Big Data der Nationalen Akademie der Wissenschaften Leopoldina und dem Rundfunkrat des SWR. Aktuell forscht sie zu „Privacy by Design in autonomen Fahrzeugen“ (BMBF-Projekt KoFFi), „Präventiver Digitaler Sicherheitskommunikation und Zivilcourage“ (BMBF-Projekt PRÄDISIKO), Sicherheitsethik (BMBF-Projekt „SmartIdentifikation“) und „Learning Analytics“. PD Dr. Jessica Heesen 1988–1995 Magisterstudium der Philosophie, Neueren deutschen Literaturwissenschaft, Theologie und der Theater-, Film- und Fernsehwissenschaft in Köln und Tübingen; 1995–2001 Mitarbeiterin des Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) und Stipendiatin des DFG-Graduiertenkollegs „Ethik in den Wissenschaften“ der Universität Tübingen; 2007 Promotion in Philosophie an der Universität Stuttgart zum Thema Internet und Öffentlichkeit; 2002–2008 Wissenschaftliche Mitarbeiterin am Institut für Philosophie der Universität Stuttgart, ab 2003 im Rahmen des DFG-Sonderforschungsbereichs „Umgebungsmodelle für mobile, kontextbezogene Systeme“ (Nexus); 2008–2010 Akademische Mitarbeiterin im Projekt „Verantwortung wahrnehmen“ des ethisch-philosophischen Grundlagenstudiums der Universität Freiburg; 2010–2013 Wissenschaftliche Mitarbeiterin des BMBF-Forschungsprojekts BaSiD „Barometer Sicherheit in Deutschland“ am IZEW; 2015 Habilitation im Fach Philosophie, Karlsruher Institut für Technologie (KIT) zu den technikphilosophischen Herausforderungen der Medienethik;
Kurzbiografien
159
2013–2017 Leitung der Nachwuchsforschungsgruppe Medienethik am IZEW; seit 2017 Leitung des Forschungsschwerpunkts Medienethik und Informationstechnik am IZEW. Arbeitsschwerpunkte: Technik- und Sozialphilosophie; Ethik; Medien-, Informations- und Sicherheitsethik. Christopher Koska M.A. Geboren 1978 in München; 2001–2002 Studium der Informations- und Medientechnik an der Technischen Universität Cottbus; 2002–2004 Studium der Philosophie und Informatik an der Technischen Universität Berlin; 2004–2008 Studium der Philosophie an der Hochschule für Philosophie München; 2009–2016 IT-Projektleiter bei der Bertelsmann SE & Co. KGaA; seit 2011 Vorstandsmitglied pro philosophia e.V.; 2013–2016 Wissenschaftlicher Mitarbeiter am Lehrstuhl für Medienethik an der Hochschule für Philosophie München; seit 2016 Freier Forschungsmitarbeiter am Zentrum für Ethik der Medien und der digitalen Gesellschaft (zem::dg); seit 2016 Freiberuflicher Berater bei der Striped Giraffe Innovation & Strategy GmbH München; seit 2016 Partner bei der Unternehmensberatung dimension2 economics & philosophy consult GmbH München. Arbeitsschwerpunkte: Daten- und Algorithmenethik, Corporate Digital Responsibility (CDR), Digitale Bildung, Informations- und Mediengestaltung. Susanne Kuhnert M.A. Susanne Kuhnert ist Wissenschaftliche Mitarbeiterin am Institut für Digitale Ethik (IDE) an der Hochschule der Medien in Stuttgart. Sie arbeitet dort auf einer Projektstelle und beschäftigt sich mit den vom Bundesministerium für Bildung und Forschung geförderten Verbundprojekten „Kooperative Fahrer-Fahrzeug-Interaktion (KoFFI)“ und „Smartphone-basierte Analyse von Migrationstrends zur Identifikation von Schleuserrouten (SmartIdentifikation)“. Im Projekt KoFFI werden unter anderem die ethischen Grundsatzfragen zum automatisierten und vernetzten Fahren und die Möglichkeiten zur praktischen Implementierung dieser Vorgaben untersucht. Die Forschungsschwerpunkte von Susanne Kuhnert liegen auf der ethischen Gestaltung der Mensch-Maschine-Interaktion. Ihre Dissertation schreibt sie über anthropologisch-ästhetische Grundlagen für das Privacy by Design im automatisierten Fahren. Die Betreuung erfolgt durch Herrn Prof. Dr. Alexander Filipović an der Hochschule für Philosophie in München. Prof. Dr. Rudi Schmiede Geb. 1946; Fachgebiet: Soziologie | Arbeit, Technik und Gesellschaft, FB Gesellschafts- und Geschichtswissenschaften, TU Darmstadt. 1972–1985 Forschungsassistent, 1985–1987 Heisenberg-Stipendiat Institut für Sozialforschung Frankfurt, 1977 Promotion Goethe-Universität Frankfurt, 1984 Ha-
160
Kurzbiografien
bilitation Goethe-Universität Frankfurt, seit 1987 Professor für Soziologie an der TU Darmstadt, 2005 Visiting Scholar an der University of California Irvine. Seit 10/2011 Professor im Ruhestand an der TU Darmstadt. Forschungsgebiete: Sozialstrukturelle Dimensionen von Ökonomie und Krise, Soziale Dimensionen und Gestaltung von IuK-Technologien, Arbeit in der Informationsgesellschaft, Informatisierung und Wissen, Digitale Bibliotheken und Fachinformation, Bildungssystem und Weiterbildung. Prof. Dr. Wolfgang Schuster Geboren 1949 in Ulm/Donau, studierte Jura und promovierte in Zivilrecht. Im Anschluss daran studierte er an der École Nationale d’Administration (ENA) in Paris. Seine wichtigsten beruflichen Stationen führten ihn 1986 als Oberbürgermeister für sieben Jahre nach Schwäbisch Gmünd und danach nach Stuttgart, wo er bis Anfang 1997 vier Jahre als Bürgermeister für Kultur, Bildung und Sport tätig war und anschließend 16 Jahre lang, von 1997 bis 2013, die Geschicke der Landeshauptstadt als Oberbürgermeister gelenkt hat. Er ist u. a. Mitglied des Rates für Nachhaltige Entwicklung der Bundesregierung, Vorsitzender der European Foundation for Education, Ehren-Präsident des Rats der Gemeinden und Regionen Europas (RGRE) in Brüssel und Ehren-Vize-Präsident des kommunalen Weltverbandes „United Cities and Local Governments“ (UCLG) in Barcelona. Seit Anfang 2015 ist er Vorsitzender der gemeinnützigen Deutsche Telekom Stiftung. Prof. Dr. Klaus Wiegerling Studium der Philosophie, Komparatistik und Volkskunde in Mainz. 1983 Promotion. Langjährige freischaffende Tätigkeiten, Lehraufträge in den Fächern Philosophie, Informatik, Informationswissenschaft, Soziologie und Filmwissenschaft. 2001 Habilitation an der TU Kaiserslautern. Langjährige Tätigkeit im DFG-SFB 627 „Nexus – Umgebungsmodelle für mobile kontextbezogene Systeme“ in Stuttgart. Seit 2013 am Institut für Technikfolgenabschätzung und Systemanalyse am KIT Karlsruhe. AK-Leiter „Ethik“ beim BMBF-Projekt „Abida – Assessing Big Data“. Herausgeber der Springer-Reihe: Anthropologie – Technikphilosophie – Gesellschaft. Monografien: Husserls Begriff der Potentialität, Bonn 1984; Die Erzählbarkeit der Welt, Lebach 1989; Medienethik, Stuttgart 1998; Leib und Körper (mit J. Küchenhoff), Göttingen 2008; Philosophie intelligenter Welten, München 2011; Medienethik und Wirtschaftsethik im Handlungsfeld des Kultur- und Non-Profit-Organisationsmanagements (mit W. Neuser), Kaiserslautern 2013. Prof. Dr. Oliver Zöllner Oliver Zöllner lehrt seit 2006 empirische Medienforschung, Mediensoziologie, internationale Kommunikation, Digitale Ethik und Hörfunkjournalismus an der
Kurzbiografien
161
Hochschule der Medien Stuttgart. Er ist einer der drei Leiter des Instituts für Digitale Ethik (IDE) sowie Vorsitzender des Stuttgarter Hochschulradios HORADS 88,6. Zu seinen Forschungsschwerpunkten zählen Digitalisierung und Gesellschaft, Public Diplomacy und Nation Branding. Seit 2006 ist Zöllner zudem Honorarprofessor für Kommunikations- und Medienwissenschaft an der Heinrich-Heine-Universität Düsseldorf. Zöllner studierte Publizistik- und Kommunikationswissenschaft, Kunstgeschichte, Theater-, Film- und Fernsehwissenschaft sowie Geschichte Chinas an den Universitäten Bochum, Wien und Salzburg. Magisterexamen 1993. Tätigkeit als Journalist. Promotion zum Dr. phil. 1996. Anschließend Medienforscher beim Südwestfunk in Baden-Baden (1996–97), Abteilungsleiter für Markt- und Medienforschung bei der Deutschen Welle in Köln/Bonn (1997–2004) und selbständiger Berater und Trainer für internationale Markt- und Medienforschung in Essen (2004–06). Zahlreiche Lehraufträge an Universitäten (1996–2006).
Petra Grimm / Oliver Zöllner (Hg.)
Ökonomisierung der Wertesysteme Der Geist der Effizienz im mediatisierten Alltag
MeDienetHik – banD 14 Die Herausgeber Petra Grimm ist Professorin für Medienforschung/Kommunikationswissenschaft an der Hochschule der Medien (HdM), Stuttgart. Sie ist eine der Leiterinnen des Instituts für Digitale Ethik (IDE). Oliver Zöllner ist Professor für Medienforschung, internationale Kommunikation und Digitale Ethik an der Hochschule der Medien Stuttgart. Er ist einer der Leiter des Instituts für Digitale Ethik.
Die Rede von der „Ökonomisierung“ ist eines der großen Leitnarrative der Gegenwart. Zu beobachten ist eine Vermarktlichung bzw. Kommodifizierung vieler zentraler Lebensbereiche. In der Politik, in den Medien, in Bildung, Wissenschaft und Kultur werden Effizienzkriterien postuliert und oft als „alternativlos“ verstanden. Der Glaube an eine unsichtbare Hand des Marktes ist geradezu ein Dogma geworden: Statistiken, Rankings und Evaluationen geraten zu öffentlichen und vielfach mediatisierten Leitwährungen. Menschen sollen sich so verhalten, dass sie besser und reibungsloser funktionieren. Wie kann der Mensch unter den Bedingungen solcher Handlungsmuster ein gelingendes Leben führen? Welche Maximen der individuellen Lebensführung sind der Gesellschaft, der Sozialität zuträglich? Wie kann im Kontext der Ökonomisierung eine neue Werteethik aussehen? Das XII. HdM-Symposium zur Medienethik an der Hochschule der Medien in Stuttgart verfolgte das Thema Ökonomisierung der Wertesysteme – Der Geist der Effizienz im mediatisierten Alltag. Die in diesem Band präsentierten Beiträge, ergänzt um zusätzliche Aufsätze, bieten einen Überblick über den Forschungsstand und Fallstudien zur Ökonomisierung aus mehreren disziplinären Perspektiven.
2015 143 Seiten 978-3-515-11078-5 kart. 978-3-515-11080-8 e-book
Hier bestellen: www.steiner-verlag.de
Petra Grimm / Tobias O. Keber / Oliver Zöllner (Hg.)
Anonymität und Transparenz in der digitalen Gesellschaft
MeDienetHik – banD 15 Die Herausgeber Petra Grimm ist Professorin für Medienforschung/Kommunikationswissenschaft an der Hochschule der Medien (HdM), Stuttgart. Sie ist eine der Leiterinnen des Instituts für Digitale Ethik (IDE). Tobias O. Keber ist Professor für Medienrecht und Medienpolitik an der Hochschule der Medien Stuttgart. Oliver Zöllner ist Professor für Medienforschung, internationale Kommunikation und Digitale Ethik an der Hochschule der Medien Stuttgart. Er ist einer der Leiter des Instituts für Digitale Ethik.
Der digitale Alltag bringt neuartige Herausforderungen mit sich. Für den Menschen als Teil einer digitalen Gesellschaft werden Transparenz und Anonymität zu (identitäts-)relevanten Werten. Sichtbarkeit ist grundlegende Bedingung, um an der Gesellschaft teilzuhaben. Doch wie soll man mit der Unsicherheit, die Selbstdarstellung im Netz originär innehat, umgehen, wenn man mit persönlichen Daten (scheinbar) kostenlose Dienstleistungen datenhungriger Firmen bezahlt? Subjekte werden so nur aus einzelnen Puzzleteilen ihrer Identität konstruiert und bewertet, während die restlichen Teile zwangsläufig „unsichtbar“ bleiben. Kann das Ideal der Ermächtigung des Menschen, Herr seiner Werkzeuge zu sein, folglich nur durch ein pseudonymes Auftreten im Internet gesichert werden? Doch wie kann kommunikatives Handeln funktionieren, wenn der Handelnde im Dunkeln bleibt? Kann Transparenz nicht vielmehr dafür sorgen, dass der Einzelne wie auch Institutionen im gesellschaftsbildendenden Diskurs Verantwortung übernehmen und Vertrauen schaffen? Dieses Buch dokumentiert den Auftakt der Tagungsreihe IDEepolis des Instituts für Digitale Ethik (IDE) der Hochschule der Medien Stuttgart.
2015 230 Seiten mit 5 s/w-Abbildungen und 10 Tabellen 978-3-515-11226-0 kart. 978-3-515-11227-7 e-book
Hier bestellen: www.steiner-verlag.de
Petra Grimm / Michael Müller (Hg.)
Erzählen im Internet, Geschichten über das Internet
MeDienetHik – banD 16 Die Herausgeber Petra Grimm ist Professorin für Medienforschung/Kommunikationswissenschaft an der Hochschule der Medien (HdM), Stuttgart. Sie ist eine der Leiterinnen des Instituts für Digitale Ethik (IDE). Michael Müller ist Professor für Medienanalyse und Medienkonzeption an der Hochschule der Medien Stuttgart und leitet dort das „Institut für Angewandte Narrationsforschung“.
Das Internet beeinflusst nicht nur die individuelle Geschichte jedes einzelnen Nutzers – es produziert auch selbst Erzählungen über den Fortschritt, den Nutzen und die Gefahren, die mit der Digitalisierung für die Gesellschaft verbunden sind. Nicht selten haben diese Erzählungen utopischen oder dystopischen Charakter, populärstes Beispiel ist etwa der Roman „The Circle“ des amerikanischen Autors Dave Eggers. Ob aber fiktional oder für wahr gehalten: Narrative des Internets erklären uns den „Sinn“ und „Wert“ der Digitalisierung und beeinflussen damit unsere Erwartungen oder Ängste, die wir mit diesem gesellschaftlichen Prozess verbinden. Darüber hinaus hat das Internet selbst neue Formen des Erzählens hervorgebracht, die unter Stichworten wie „Transmedialität“, „Crossmedialität“ oder „digitales Storytelling“ diskutiert werden. Dieser Band spannt den Bogen von den utopischen und dystopischen Narrativen über das Internet bis zu den Geschichten, die im Internet erzählt werden, und vermisst auf diese Weise das Internet als Raum des Erzählens.
2017 132 Seiten mit 10 s/w-Abbildungen 978-3-515-11615-2 kart. 978-3-515-11617-6 e-book
Hier bestellen: www.steiner-verlag.de
Unser Nachdenken über die Existenz im Zwischenraum zwischen Mensch und Maschine hat im Grunde erst begonnen. Doch was noch vor wenigen Jahren Science-Fiction war, dringt längst in unseren Alltag vor: Pflegeroboter, Kriegsroboter, Sexroboter. Entwickeln sich Maschinen in der Zukunft zu ethischen Akteuren mit Bewusstsein? Werden sie fähig sein, das eigene Verhalten moralisch zu steuern? Dies berührt auch weitergehende Fragen nach Verantwortung. Wer wird in Zukunft Entscheidungen treffen? Längst gibt es dystopische Visionen einer Bedrohung der Welt durch vielfach überlegene künstliche Intelligenzen
ebenso wie utopische Hoffnungen auf eine neue digitale Welt, in der sich der menschliche Geist unsterblich macht. In diesem Band machen sich Ethiker, Literaturwissenschaftler, Soziologen und Futuristen auf die Suche nach relevanten Fragestellungen und denkbaren Antworten. Es geht um das Mensch-Maschine-Verhältnis, Möglichkeiten des klugen Handelns im Maschinenzeitalter, autonomes und vernetztes Fahren und seine Dilemmata sowie Arbeit und Arbeiten in der Zukunft. Am Ende steht ein Plädoyer für eine neu zu denkende Bildung im digitalen Zeitalter.
www.steiner-verlag.de Franz Steiner Verlag
ISBN 978-3-515-12271-9