Schöne neue Welt?: Zwischen technischen Möglichkeiten und ethischen Herausforderungen. Vadian Lectures Band 6 9783839452516

Enhancement, robotics and the world of digitalisation. New technical possibilities raise new ethical questions.

190 61 1MB

German Pages 104 Year 2020

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Cover
Inhalt
Einleitung
Enhancement. Welche Ziele hat die Selbstoptimierung?
Serviceroboter aus Sicht der Ethik
Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung
Autoren
Recommend Papers

Schöne neue Welt?: Zwischen technischen Möglichkeiten und ethischen Herausforderungen. Vadian Lectures Band 6
 9783839452516

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Mathias Lindenau, Marcel Meier Kressig (Hg.) Schöne neue Welt?

Sozialtheorie

Mathias Lindenau (Dr. phil.) ist Professor an der Hochschule für Angewandte Wissenschaften FHS St. Gallen. Seine Forschungsschwerpunkte sind Angewandte Ethik und normative Fragestellungen der Sozialen Arbeit, politische Ideengeschichte, politische Philosophie sowie die Geschichte der Sozialen Arbeit. Marcel Meier Kressig (Dr. rer. soc.) ist Professor an der Hochschule für Angewandte Wissenschaften FHS St. Gallen. Seine Forschungsschwerpunkte sind Gesellschaftstheorien, politische Philosophie der Sozialen Arbeit sowie handlungstheoretische Grundlagen.

Mathias Lindenau, Marcel Meier Kressig (Hg.)

Schöne neue Welt? Zwischen technischen Möglichkeiten und ethischen Herausforderungen. Vadian Lectures Band 6

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© 2020 transcript Verlag, Bielefeld Alle Rechte vorbehalten. Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagkonzept: Kordula Röckenhaus, Bielefeld Druck: Majuskel Medienproduktion GmbH, Wetzlar Print-ISBN 978-3-8376-5251-2 PDF-ISBN 978-3-8394-5251-6 https://doi.org/10.14361/9783839452516 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: https://www.transcript-verlag.de Unsere aktuelle Vorschau finden Sie unter www.transcript-verlag.de/vorschau-download

Inhalt

Einleitung Mathias Lindenau, Marcel Meier Kressig ..................................................... 7

Enhancement. Welche Ziele hat die Selbstoptimierung? Thomas Schramme .............................................................................. 37

Serviceroboter aus Sicht der Ethik Oliver Bendel ...................................................................................... 57

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung Armin Grunwald....................................................................................77

Autoren .......................................................................................... 101

Einleitung Mathias Lindenau, Marcel Meier Kressig

Insbesondere in Zeiten zunehmender Unsicherheit und Unübersichtlichkeit in der Welt, wachsender militärischer Spannungen, drohender Handelskriege, globaler Klimakatastrophen sowie der vermeintlichen Fluidität ehedem stabilitätsgarantierender Regierungsformen tritt das menschliche Bedürfnis nach einer besseren, möglichst sorgenfreien Zukunft deutlich zutage. Es wäre jedoch falsch, die damit verbundenen Suchbewegungen allein als Bewältigungsversuche möglicher Krisen zu lesen. Auch wenn ihn die Abhängigkeit von seiner Um-Welt und die damit verbundene Vulnerabilität dazu zwingen, seine lebensweltlichen Defizite wo immer möglich zu kompensieren oder zu beseitigen, so darf gleichwohl gelten, dass der Mensch auch unabhängig von etwaigen Bedrängnissen fortwährend eine bessere Zukunft für sich erstrebt. Etwa, wenn er gegenwärtig mittels Nanotechnologie, synthetischer Biologie oder Geoengineering dabei ist, in atemberaubendem Tempo die Natur grundlegend zu seinen Gunsten umzugestalten, was uns zugleich staunen und fürchten lässt: »Man lebt in einem Gemisch von Bewunderung der technischen Fortschritte und der Angst vor den eigenen Erfolgen.« (Löwith 1983: 409). Und gerade in diesem Streben nach der bestmöglichen aller Welten scheint sich eines der fundamentalen Merkmale der conditio humana widerzuspiegeln. So überrascht auch nicht die Vielzahl höchst unterschiedlicher Entwürfe über die erhoffte oder befürchtete Zukunft. Ob in den Theologien der unterschiedlichen Religionen, in den Sozial- und politischen Utopien und ihrem Gegensatz, den Dystopien, aber auch in den verschiedenen Erzählungen als Science-Fiction oder den technischen Fortschritts-

8

Mathias Lindenau, Marcel Meier Kressig

ideologien des Silicon Valley: Der Fluchtpunkt all dieser Narrative liegt in einer Zukunft, die aus den Erfahrungen der Vergangenheit und den Herausforderungen der Gegenwart heraus Handlungsanweisungen abzuleiten versucht, um für den Menschen die bestmögliche aller Welten zu verwirklichen. Religiöse Entwürfe können dabei in aller Regel auf defizitäre Weltzustände mit dem Verweis auf ein wie auch immer geartetes transzendentes Paradies antworten, dessen Qualität durch keinen säkularen Entwurf einer bestmöglichen Welt zu erreichen ist. Denn trotz aller Bemühungen des Menschen bleiben die Welt und die in ihr vorfindbaren lebensweltlichen Defizite Signum eines Jammertals. Säkulare Entwürfe hingegen können sich den Luxus der Vertröstung nicht leisten. Sie müssen sich vielmehr als anziehende Alternative gegenüber den unbefriedigenden gesellschaftlichen Verhältnissen präsentieren. Sie zeichnen das Idealbild einer menschlichen Gesellschaft, die nicht illusorisch, sondern denkmöglich ist – und untermauern so die Annahme von der Gestaltbarkeit der sozialen Welt wie auch der politischen Ordnung. Ein kurzer Exkurs zu den politischen Utopien, die paradigmatisch für die säkulare Suche nach der bestmöglichen aller Welten stehen, soll das verdeutlichen. Bekanntlich war es Thomas Morus mit seiner Schrift Utopia, der dieser Art politischen Denkens den Namen gab und den Strukturtypus der Raumutopie begründete: Mit der Beschreibung eines idealen Ortes, dem Nirgend-Wo, soll die Diskrepanz zwischen dem was ist, und dem, was möglich wäre, mittels einer scharfen Sozialkritik sowie der Beschreibung eines Gegenentwurfes aufzeigt werden, »um die Mißstände der hiesigen Städte und Staaten, Völker und Reiche zu verbessern« (Morus 1993: 20). Folge dessen ist, dass gesellschaftliche Zustände – gleichsam als Merkmal der beginnenden Moderne – nicht mehr als gottgegeben, sondern als veränderbar angesehen werden und somit eine andere Gesellschaft durch vernünftiges Handeln der Menschen möglich scheint. Entsprechend steht die Utopie synonym für das zukünftig zu Gestaltende. Die gesellschaftliche Vision, anders leben zu wollen, wird durch die fiktive Gestaltung des Vorhandenseins eines erstrebten Ideal-Landes an einem fernen Ort abgesichert. Für diese Form der

Einleitung

Utopie ist die Zeit gegenstandslos; die Zukunft besitzt noch keine konstruktive Funktion für die Entwicklung einer Alternative zur sozialen und politischen Realität. Dieser Umstand ändert sich jedoch mit dem Einsetzen des Zeitalters der Aufklärung. Ab dem 18. Jahrhundert wird mit Zukunft nicht mehr nur ein Zeitraum, sondern ebenso mögliche oder wahrscheinliche Veränderungen assoziiert; Zukunft wird zum Synonym für das aktive Voranschreiten des Menschen, das im Begriff des Fortschritts seinen prägnanten Ausdruck findet (vgl. Link 2004: 1430). Dieses Verständnis wirkt sich auch auf die Utopie aus. Im Zuge der weitestgehenden Entdeckung der Welt, die keinen Platz mehr für das Vorhandensein eines erstrebten Ideal-Landes ließ, bildet das späte 18. Jahrhundert den Kontext, in dem die »Verzeitlichung der Utopie« (Koselleck 1985: 1) erfolgt. Mit dem Übergang der Raumutopie in die Zeit vollzieht sich ein grundlegender Wandel: »Erst die Auffassung von der unendlichen Vervollkommnungsfähigkeit des Subjektes und der Geschichte erlaubt die (kontrafaktische) Antizipation des Zukünftigen« (Voßkamp 1985: 6). Zukunft ist nun fest mit einen Fortschrittsoptimismus verbunden: Mit unumstößlicher Gewissheit, der Skepsis oder Zweifel fremd sind, wird jetzt davon ausgegangen, die ideale Form des Zusammenlebens irgendwann erreichen zu können; auch wenn sich nicht exakt bestimmen lässt, wie und wann das der Fall sein wird. Das Noch-Nicht des Möglichen verleitet dabei zur Huldigung eines unreflektierten Fortschrittsglaubens, dem allerdings der »kritische Spiegel« (vgl. Hölscher 1990, S. 770) der Selbstreflexivität abhandengekommen ist: Der damit einhergehende Drang zur Perfektibilität der Gesellschaft und der in ihr lebenden Menschen erreichte mitunter totalitäre Züge, worauf die Dystopien in aller Deutlichkeit reagiert haben. Beispielhaft dafür steht der dystopische Roman Schöne neue Welt von Aldous Huxley, der für die diesjährigen Vadian Lectures als Namensgeber fungierte. Diese wunderbare neue Welt, in der die »ständige Furcht vor dem nächsten Tag« (Huxley 2001: 236) nicht mehr existent ist, hat freilich ihren Preis: Sie unterliegt einer neuen Form des »non-violent

9

10

Mathias Lindenau, Marcel Meier Kressig

totalitarianism« (Huxley 1958), einem genormten Glück, das durch eine gewaltfreie, aber dennoch totalitäre Herrschaft garantiert wird – und letztlich den Menschen seiner Freiheit, mithin der Autorenschaft für sein Leben beraubt. In gewisser Weise fragt Huxley danach, ob wir in einer Welt leben wollen, die uns durch das perfekte Zusammenspiel von Wissenschaft und Technologien im Dienst autoritärer Macht vielleicht materielle Sorglosigkeit zu bescheren vermag, jedoch die freie Entfaltung und Selbstverwirklichung der Individuen verhindert (vgl. Brosch 2009). Aber wie lässt sich festlegen, was für alle Menschen eine bessere Zukunft ist? Sind bei der Umsetzung der Verwirklichung einer besseren Zukunft alle Handlungsoptionen erlaubt? Oder welche Optionen sollen warum und von wem eingeschränkt werden? Auf welchen Grundlagen soll entschieden werden, wie die Welt von morgen aussieht: allein auf jenen der von den Ingenieuren geschaffenen? Wer entscheidet überhaupt, wie wir zukünftig leben werden? Wer kontrolliert die Entscheidungsträger und wer besitzt ein Mitspracherecht? Wer vertritt die Interessen der Nach-uns-Geborenen? Dürfen die höchst unterschiedlichen, manchmal gar konträren Auffassungen darüber, was ein gutes Leben auszeichnet, eine Rolle spielen, oder welche universalen Werte und Normen sollen Geltung besitzen? Und wie sollen wir mit den globalen Folgen unseres Handelns in Bezug auf »Klimawandel, nationale und internationale Sicherheit, wirtschaftliche Entwicklung, Atommülllagerung, Artenvielfalt, Umweltschutz, Bevölkerungsentwicklung und die Förderung der wissenschaftlichen und technologischen Forschung« (Bostrom 2018: 11) umgehen? Schließlich: Was bedeutet für uns Fortschritt: eine Entwicklung hin zum Besseren oder Schlechteren, Segen oder Fluch, Erfordernis oder Vergeblichkeit? Vor allem diese letzte Fragestellung verdient Beachtung im Hinblick auf die Bewertung des wissenschaftlichen und technischen Fortschritts. Ähnlich Prometheus, »der vornehmste Heilige und Märtyrer im philosophischen Kalender« (Marx 1968: 263), strebt der Homo Faber durch sein Forschen, Entdecken und Konstruieren beständig danach, sich aus seinem Naturzustand zu befreien und die Herrschaft über diese zu erlangen – mit dem Ziel, mittels der wissenschaftlich-technischen

Einleitung

Erfindungen der Menschheit insgesamt eine bessere, zukünftige Welt zu ermöglichen. Wissenschaftlich-technische Erfindungen gelten dabei als Sinnbild für den Fortschritt schlechthin, der als eine dynamische Bewegung hin zum fortlaufend Besseren positiv bewertet wird. Die im Laufe der Zeit erreichten faktischen Fortschritte, wie z.B. in der Bekämpfung von Seuchen und Krankheiten, führen zu einem Fortschrittsglauben, der mit der Verheißung auf weitere Fortschritte verbunden ist: Der wissenschaftlich-technische Fortschritt wird sich nicht allein materiell niederschlagen, sondern ebenso zur Vervollkommnung einzelner Individuen wie auch zu Fortschritten in Moral und Sitten, Politik und Gesellschaft führen. Daraus resultiert, trotz aller bisher erreichten Erfolge, ein nahezu unstillbares Verlangen nach weiteren Fortschritten. Doch all dem steht ab dem 19. Jahrhundert und verstärkt nach dem Ersten Weltkrieg eine Fortschrittskepsis gegenüber: Es zeigt sich, dass die klassische Annahme, wissenschaftlich-technischer Fortschritt werde gesellschaftlichen Fortschritt automatisch nach sich ziehen, illusionär war und vielmehr die sozio-moralische Entwicklung der Gesellschaft mit dem Voranschreiten des wissenschaftlich-technischen Fortschritts nicht Schritt halten kann – was schließlich zur Anfechtung eines unangefochtenen Fortschrittsoptimismus führt (vgl. hierzu Rid 2016; Kunze 2013: 67-72; Koselleck 1975: 351ff.; Ritter 1972: 1032ff.). Diesem Unbehagen an der immer grösser werdenden Kluft zwischen der Unvollkommenheit des Menschen und der zunehmenden Perfektion der von ihm hervorgebrachten Produkte hat u.a. Günther Anders mit seinem Werk Die Antiquiertheit des Menschen deutlich Ausdruck verliehen: »Es wäre ja durchaus nicht unmöglich, daß wir, die wir diese Produkte herstellen, drauf und dran sind, eine Welt zu etablieren, mit der Schritt zu halten wir unfähig sind, und die zu ›fassen‹, die Fassungskraft, die Kapazität sowohl unserer Phantasie wie unserer Emotionen wie unserer Verantwortung absolut überforderte.« (Anders 1961: 17f., Kursivierung im Original) Die Diskrepanz zwischen dem Leistungsvermögen der von ihm hergestellten Produkte und seiner eigenen Leistungsfähigkeit zeigt Anders

11

12

Mathias Lindenau, Marcel Meier Kressig

zufolge nicht nur ein prometheisches Gefälle auf – der »täglich wachsenden A-Synchronisiertheit des Menschen mit seiner Produktewelt« (ebd.: 16, Kursivierung im Original) –, sondern führt zur prometheischen Scham des Menschen gegenüber seinen Produkten: Der Mensch ist seinen Produkten in Bezug auf Kraft, Tempo, Präzision und Denkvermögen nicht mehr gewachsen, empfindet sich als mangelhaft und das menschliche Leben erscheint ihm als antiquierte Daseinsform. Getrieben von dem Wunsch, seine Unterlegenheit zu überwinden und ebenso potent zu sein, wie seine Produkte, erfahren diese eine Vergottung – mit gravierenden Folgen: Aus dem Umstand, »dass wir im Vergleich mit dem, was wir wissen und herstellen können, [uns] zu wenig vorstellen […] können« (ebd.: 269) – also nicht das Vermögen besitzen, alle Konsequenzen, die aus der Herstellung unserer Produkte folgen, hinreichend zu bedenken – vertraut der Mensch der Maschine eher als seiner eigenen Kompetenz. Nur ihr wird zugetraut, sinnvolle Entscheidungen treffen zu können. Es wäre vorschnell, diese Überlegungen von Günther Anders als blinde Technikfeindlichkeit, die im Fortschrittspessimismus mündet, abzutun. Denn nur zu gerne wird die Problemlösungskompetenz des Menschen an die Technik delegiert: »Viele Menschen glauben [..] immer noch, daß selbst unsere schwierigsten Probleme – Energie, Frieden, Hunger, menschliches Leid und menschliches Glück – rein technisch gelöst werden können, ohne daß wir Opfer bringen, unsere Bedürfnisse und Werte ändern oder unsere Lebensweise umstellen müßten […]« (Alpern 1993: 177). Doch damit nicht genug: Der Mensch erweist sich selbst nicht mehr die Achtung, die ihm eigentlich gebührt, sondern bekundet seine Hochachtung nun gegenüber seinen Produkten. Dadurch verzichtet der Mensch fortan darauf, sich selbst als Maßstab zur Beurteilung des Fortschritts anzusehen; an seine Stelle tritt die obligatorische Aufforderung, »dasjenige zu bieten, was das Gerät benötigt, um so zu funktionieren, wie es funktionieren könnte.« (Anders 1961: 40) Damit verspielt für Anders der Mensch jedoch seine Souveränität und delegiert die Autorenschaft für sein Leben an seine (technischen) Artefakte.

Einleitung

Wie lässt sich mit der hier angesprochenen Ambivalenz der Wirkungen des wissenschaftlich-technischen Fortschritts, auf dessen Segnungen der Mensch einerseits nicht mehr verzichten will, die ihm andererseits aber auch ein »Unbehagen an der Wandlungsbeschleunigung« (Marquard 2015: 237) bereiten, ein Umgang finden? Welches Bewertungskriterium soll für einen wünschbaren Fortschritt Geltung besitzen: Soll der Mensch dem technologischen Imperativ konsequent folgen und alles technisch Machbare bedingungslos auch dann umsetzen, wenn dies immer wieder eine gefährliche »Tendenz zur Selbstvernichtung« (Horkheimer/Adorno 1987: 22) heraufbeschwört? Wie soll er auf die steigende Eingriffstiefe in die innere und äußere Natur sowie die zunehmende Langfristigkeit und das größere Ausmaß der ungewissen Folgen und Nebenwirkungen der rasant fortschreitenden technologischen Entwicklung reagieren (vgl. Hubig 2011)? Was bedeutet es, wenn der Mensch vom Verwalter zum Gestalter der Erde wird? Und wem sollten wir vertrauen, um die Konturen unserer synthetischen Zukunft zu bestimmen (vgl. Preston 2019)? Auf derlei Fragen werden sich keine einfachen Antworten finden lassen. Auch wenn die Meinungen bezüglich der digitalen Transformation divergieren, so darf als unbestritten gelten, dass mit ihr ein enormer gesellschaftlicher Wandel verbunden ist, der sich nicht allein auf die wirtschaftlichen Felder gesellschaftlicher Kooperation auswirkt, sondern einen stetig zunehmenden Einfluss auf alle Bereiche unseres privaten wie gesellschaftlichen Lebens gewinnt. Smarte Technologien werden dabei nicht nur eine Zunahme, sondern ebenso eine qualitative Veränderung erfahren und auch jene Arbeitsgebiete tangieren, von denen man annahm, dass ihre Ausführung ausschließlich dem Menschen vorbehalten sei. Welche Konsequenzen daraus folgen, wie tiefgreifend diese Umwälzungen sein werden und welche Anpassungsleistungen in den einzelnen Bereichen erforderlich sind, seien diese nun individueller, gesellschaftlicher, kultureller, politischer, ökonomischer oder rechtlicher Art, ist kaum abzuschätzen. Denn das Tempo und die qualitativ neuen Möglichkeiten der technischen Erfindungen lassen notwendige Regulierungen und gesellschaftliche Debatten immer ins Hintertreffen geraten (vgl. Specht 2018: 265ff.; Blom 2017).

13

14

Mathias Lindenau, Marcel Meier Kressig

Beispielhaft dafür steht der Umgang mit den Daten, die wir unablässig produzieren. Insbesondere im Zeitalter des Internets der Dinge, in dem mobile Geräte miteinander agieren und Informationen austauschen, muss zwingend geklärt werden, wie die gesammelten Daten genutzt werden und wem der Zugriff darauf erlaubt sein soll: »Solange mein Rasierapparat neue Klingen bestellt, wenn der Vorrat zur Neige geht […] ist das willkommen. Aber will ich, dass meine Fitness-App es der Krankenkasse meldet, wenn ich mich zu wenig bewege? Und geht es irgendjemanden etwas an, wie viel Geld ich für Restaurantbesuche ausgebe?« (Ribi 2016: 35). Wie bedeutsam die Frage nach der Hoheit über die Sammlung, Weitergabe und den Zugriff auf unsere Daten ist, verdeutlicht der Thermostat der Firma »Nest«: Nach der Fusion von Nest mit Google wurde der Thermostat mit Fähigkeiten künstlicher Intelligenz (KI) von Google ausgerüstet. WLAN- und lernfähig sammelt er im vernetzten Haushalt hochsensible persönliche Daten und Informationen, die an Dritte weitergegeben werden. Dem Nutzer wird dieser Sachverhalt benannt, allerdings ist ihm eine genaue Prüfung der einzelnen Konditionen kaum möglich; nach Recherchen der University of London müsste der Nutzer für ein einziges Thermostat fast 1000 Verträge prüfen. Wer hingegen den Nutzungsbedingungen nicht zustimmt, dem werden Support und Updates verweigert, was das zuverlässige Funktionieren des Thermostats verhindern und entsprechende Folgen nach sich ziehen könnte (vgl. Zuboff 2018: 101f.). Neben der Weitergabe von Daten ohne Einwilligung der Nutzer, wie es Facebook u.a. Microsoft, Amazon, Netflix und Spotify gewährte, ist eine gewisse Sorglosigkeit gegenüber einer möglichen Zweckentfremdung der Daten zu beobachten. Nicht nur der Skandal um Cambridge Analytica 2018, in dem die personenbezogenen Daten von 87 Millionen Facebook-Profilen ohne deren Zustimmung verwendet wurden, offenbarte ein eklatantes Versagen von Facebook beim Schutz der Privatsphäre seiner Kunden. Ähnliches lässt sich bei der Verfolgung der Trump-Regierung von undokumentierten Einwanderern in den USA feststellen:

Einleitung

»Die Daten, welche die ICE (Immigration and Customs Enforcement) für ihre Listen benutzt, sind laut Berichten der ›New York Times‹ fast allesamt Anwendungen, die von privaten Zulieferern aus Silicon Valley geschaffen wurden – die ursprünglich also Datensätze von Kunden, nicht von Einwanderern erstellen […].« (Daub 2019: 8) Solche Beispiele fordern uns nicht nur dazu auf, uns Gedanken über die Kontrolle und Verwendung unserer privaten Daten zu machen. Darüber hinaus stellt sich grundsätzlich die Frage nach der Entscheidungsmacht des Menschen im digitalen Zeitalter und der dringlichen Auseinandersetzung mit der Frage, wie wir angemessen auf das unaufhaltsame Voranschreiten der technologischen Entwicklung reagieren können: Das Erfordernis normativ festzulegen, welche Aufgaben in welchen Bereichen für wen und von wem auf smarte Technologien und Maschinen überantwortet werden sollen. Niemand wird ernsthaft behaupten, dass technologische Entwicklungen keine Fortschritte für die Menschen bewirken können, etwa im medizinischen Bereich (vgl. Marquart 2015: 236). Würde ein Diskurs um technische Entwicklungen jedoch allein auf der Applikationsebene verbleiben, also der Frage der technischen Machbarkeit, würde aus dem Blick geraten, welch tiefgreifenden Einfluss technische Entwicklungen für die Verfasstheit einer Gesellschaft besitzen, wie sie zudem das Mensch-Sein und das gesamte gesellschaftliche Arrangement der Menschen verändern. Die darin enthaltene Brisanz zeigt sich insbesondere, wenn smarte Technologien auch Aufgaben übernehmen, die früher allein der menschlichen Intelligenz bzw. dem menschlichen Urteilsvermögen zugetraut wurden: Prüfen, Bewerten, Entscheiden, moralisch Urteilen. Auch wenn zunehmend unklarer wird, worin sich menschliches und maschinelles Denken (noch) unterscheiden, grundsätzlich ist nicht geklärt, ob in Bezug auf die Maschinen in einem umfassenden Sinn überhaupt von Intelligenz gesprochen werden kann. Kognitive Fähigkeiten und die Überlegenheit in Bezug auf die Datenverarbeitung allein sind noch kein hinreichendes Kriterium, um von Intelligenz zu sprechen. Denn emotionale und soziale Intelligenz lassen sich darüber nicht abbilden und sind letztlich an das Menschliche gebunden: An

15

16

Mathias Lindenau, Marcel Meier Kressig

Bewusstsein und Empfindungsfähigkeit für das Zwischenmenschliche, für die Fähigkeit zur Empathie, Intuition und Differenzierung und aus dieser Vielschichtigkeit heraus letztlich Entscheidungen zu treffen (vgl. Ramge 2018; Lobe 2017). Die Frage ist dann, worauf die Entscheidungen und Vorschläge von Maschinen basieren. Bekanntlich funktionieren autonome Softwaresysteme mit Hilfe eines Algorithmus, der wiederum durch Datenakkumulation und Feedbackschleifen lernfähig ist und seine Entscheidungen anhand der Identifizierung von Mustern innerhalb großer Datenmengen generiert. Mag diese Lernfähigkeit auch dazu führen, dass smarte Maschinen rationaler handeln als Menschen und ihnen das Lösen komplizierter Probleme möglich wird, so sind die ihnen zugrundeliegenden Algorithmen dennoch nicht fehlerfrei – und ihre Entscheidungen nicht in jedem Fall objektiv. Erstaunlicherweise wird in der Technikbranche vergleichsweise wenig über handwerklich schlechte Algorithmen nachgedacht, die jedoch verheerende Konsequenzen für einzelne Personen nach sich ziehen können (vgl. Zweig 2019). Denn auch vermeintlich neutrale und objektive datenbasierte Empfehlungen können Vorurteile und Ungerechtigkeiten einschließen und eine »automatisierte Diskriminierung« (Gandy 2010) nach sich ziehen, wie sich über das Scoring in den unterschiedlichen Bereichen immer wieder beobachten lässt. Beispielhaft dafür stehen die Reproduktion sozialer Stigmata mittels fehlerhafter Algorithmen, die auf verzerrten Daten basieren, oder die Verweigerung eines Kredits, weil der Algorithmus aus unerklärlichen Gründen dagegen ist. Hinzu kommt, dass Algorithmen aufgrund der ihnen eingeschriebenen Mustersuche anhand signifikanter statistischer Zusammenhänge das Denken in Schemata und Pauschalisierungen fördern, Ambiguitäten, Kontingenzen und die Besonderheit des Einzelfalls jedoch nicht erfassen können. Folglich beruhen die getroffenen Entscheidungen von Algorithmen auf dem binären Code des »entweder-oder« und suggerieren damit eine Eindeutigkeit, die nicht gegeben ist, da in ihren Rechenoperationen das »sowohl-als-auch« nicht vorkommt (vgl. Bauer 2018; O’Neil 2017).

Einleitung

Und dennoch lassen sich die Menschen in immer mehr Bereichen von Algorithmen leiten: beim Navigieren, der Informationsbeschaffung oder Partnerwahl. Durch ihre unerschöpflich scheinenden Möglichkeiten verführt uns die digitalisierte Welt zur Bequemlichkeit, »alles zu vermeiden, was zu einem menschlichen Leben gehört: Entscheiden, Abwägen, Verantworten, Bücher lesen, das direkte Gespräch, die physische Begegnung« (Kaeser 2018: 54). Die damit einhergehende Gefahr, die Verantwortung für die Gestaltung unserer Welt und unseres Lebens an smarte Maschinen und Technologien zu übertragen, ist nicht zu unterschätzen. Denn die vermeintliche Entlastung würde sich als Danaergeschenk erweisen: Wohl können uns smarte Technologien grundsätzlich von mitunter schwierigen Entscheidungen entlasten und damit von der Verantwortungsübernahme für unser Verhalten. Was für den Einzelnen als bequem erscheinen mag, verändert jedoch fundamental unsere Lebenswelt und damit auch unsere Verantwortungskultur. Unsere Autonomie würde durch maschinelle Entscheidungen nicht gestärkt, sondern minimiert werden. Denn dass smarte Technologien und Maschinen moralisch betrachtet in Bezug auf die unterschiedlichen Situationen menschlichen Lebens die besseren Entscheide und Vorhersagen für ein Individuum treffen als dieses selbst, ist durch nichts belegt. Maschinen halten sich bei ihren Entscheidungen stets an Gesetzmäßigkeiten und können aufgrund der Mustersuche nicht zwischen zwei moralischen Übeln entscheiden. Entsprechend können Maschinen auch keine Verantwortung übernehmen (vgl. Söffner 2019). Wir wären also schlecht beraten, uns blindlings auf die Entscheidungen smarter Technologie und Maschinen zu verlassen und würden deren Fähigkeiten grandios überschätzen. Dennoch fasziniert das immer weiter voranschreitende Können dieser Technologien und Maschinen ebenso, wie z.B. das menschenähnliche Aussehen bei humanoiden Robotern, die sich autonom in ihrer Umgebung bewegen können. Sie lassen das Phänomen des technischen Animismus, den Maschinen einen innewohnenden Geist zuzusprechen, ebenso hervortreten wie einen Anthropomorphismus, der Roboter vermenschlicht (vgl. Mensvoort 2018). In solchen Phänomenen wie auch in der Namensgebung an Arte-

17

18

Mathias Lindenau, Marcel Meier Kressig

fakte zeigt sich eine Dialektik der Aufklärung, der zufolge die rationale (instrumentelle) Vernunft in Irrationalität umschlägt. Mit der Konsequenz, dass schließlich Diskussionen darüber geführt wurden, ob Robotern nicht der Status einer »E-Person« zugestanden werden muss, die über gewisse Grundrechte verfügt (vgl. Žižek 2018: 41). Die gegenwärtigen Debatten und Auseinandersetzungen um technologische Entwicklungen richten sich nicht ausschließlich auf eine mögliche Angleichung von Mensch und Maschine. Sie befassen sich ebenso damit, welche Auswirkungen smarte Technologien und Maschinen auf die unterschiedlichen Lebensbereiche des Menschen besitzen, worauf anhand einiger Beispiele kursorisch eingegangen werden soll. Wenn die gängigen Prognosen digitaler Entwicklungen in diesem Bereich auch nur ansatzweise zutreffen, dann dürften ganze Branchen (z.B. im Retailhandel, physischen Unterstützungsangeboten des Alltags, Finanz- und zumindest einfachen Rechtsdienstleistungen, Übersetzungs- und Dolmetscherdienste) beinahe gänzlich von Algorithmen dominiert und ausgeführt werden. Aber auch Supportleistungen, die klassischer Weise von menschlicher Kommunikation, menschlichem Einfühlungsvermögen und menschlicher Vernunft geprägt waren (z.B. medizinische Beratung, Pflegeleistungen, Sozialberatung oder gar richterliches Entscheiden), werden vonseiten der Digitalisierung zunehmend herausgefordert bzw. – je nach Standpunkt – entlastet (vgl. Hirsch-Kreinsen/Karačič 2019). Davon ist auch eine Entwicklung tangiert, die unter dem Stichwort Industrie 4.0 firmiert. Dass technischer Fortschritt Umwälzungen in der Arbeitswelt nach sich zieht und traditionelle Arbeitsplätze durch Maschinen ersetzt bzw. modifiziert wurden, ist kein neues Phänomen. Was sich jedoch als Veränderung abzeichnet, ist die Stellung des Menschen im Produktionsprozess. Durch die Vernetzung im Internet der Dinge wird eine smarte Produktion möglich, die individuelle anstelle der standardisierten Massenprodukte ermöglich. Allerdings werden in diesen Smart Factories für die Produktion kaum noch Menschen benötigt; sie könnten sich sogar aufgrund ihrer Inkompatibilität mit den digitalen Systemen zum Störfaktor entwickeln. Der digitale Kompetenzdruck wird auf allen Berufsfeldern lasten und auch jene Berufe er-

Einleitung

fassen, die als gut qualifiziert gelten und bisher von solch Umstrukturierungen eher nicht betroffen waren. In der Medizin, Jura aber auch dem Bankenwesen existieren viele Routineaufgaben, die durch Maschinen und Informationstechnologien übernommen werden können. Damit wird die Frage virulent, ob sich auch diesmal der Wegfall von Arbeitsplätzen durch den Transfer von einem Beruf in den anderen kompensieren lässt. Zu befürchten steht, dass solche Transfers, auch unabhängig von der individuellen technischen Begabung, nur noch begrenzt möglich sind, da z.B. die Entwicklung von Robotern in einer smarten Produktion auch von den Robotern übernommen werden würde. Damit zusammenhängend besteht die Sorge, dass die durch die Maschinen nicht vollzogene Arbeit das Crowdworking als Normalität menschlicher Arbeitsverhältnisse zum Durchbruch verhelfen könnte; mit dem Resultat, dass digitale Tagelöhner entstehen und sozialpolitisch die Frage nach einer sozialen Absicherung dieser Menschen aufwerfen. Schon heute werden in der sogenannten Gig-Economy über Internetplattformen Mikrojobs vergeben, die nur für den jeweiligen Auftrag gelten, denen kein dauerhaftes Arbeitsverhältnis zugrunde liegt und die in aller Regel nur geringfügig entlohnt werden. Der unbestritten hohen Freiheit und Flexibilität der Crowdworker steht allerdings auch ein erheblicher Preis gegenüber: permanente Erreichbarkeit, stetiger Wettbewerbsdruck infolge des gegenseitigen Unterbietens, prekäre Lohnverhältnisse und keinerlei soziale Absicherung (vgl. Bertelsmann Stiftung 2019; Mahnkopf 2019; Spiekermann 2019; Flessner 2016; Zweck et al. 2015). Solch unerwünschte Auswirkungen technischen Fortschritts forcieren die Suche nach möglichen Maßstäben, mit dem eine Bewertung des technischen Fortschritts vorgenommen werden kann, um nachteilige Entwicklungen von vornherein zu verhindern. Dazu hat Hans Jonas aus ethischer Perspektive mit seinem Prinzip Verantwortung einen Vorschlag unterbreitet: Zur Bewertung des technischen Fortschritts allein auf die unbestreitbaren Lebensvorteile, die der Fortschritt generiert hat, zu verweisen und einfach ein »Weiter so!« zu fordern, käme für Hans Jonas der Hybris des Menschen gleich. Technische Entwicklungen könnten so zum Selbstzweck geraten und zugleich den Men-

19

20

Mathias Lindenau, Marcel Meier Kressig

schen zum Objekt der Technik werden lassen. Gerade weil »die Beschleunigung technologisch gespeister Entwicklung sich zur Selbstkorrektur nicht mehr die Zeit läßt« (1984: 72), besteht die Verantwortung des Menschen deshalb in der Pflicht um die Sorge des menschlichen Lebens. Um wachsam gegenüber dieser Verpflichtung zu bleiben, plädiert Jonas methodologisch für ein Vorsichtsprinzip, die »Heuristik der Furcht« (ebd.: 63): Sind Einsatz und Konsequenzen von Technologien umstritten oder können Risiken im Umgang mit ihnen nicht ausgeschlossen werden, besitzt im Zweifelsfall die schlechte Prognose den Vorrang vor der guten. Vorausgesetzt, dass sich das Vorsichtsprinzip nicht totalitär gebärdet und mit dem Verbot jeglichen Risikos jede technische Entwicklung verhindern würde (vgl. Lenk/Ropohl 1993: 19), kann das Argument von Jonas nicht einfach von der Hand gewiesen werden. Exemplarisch stehen dafür die Fähigkeiten und Fortschritte in den Biowissenschaften: »Der Fortschritt in den Biowissenschaften und die Entwicklung der Biotechnologien erweitern nicht nur bekannte Handlungsmöglichkeiten, sondern ermöglichen einen neuen Typus von Eingriffen. Was bisher als organische Natur ›gegeben‹ war und allenfalls ›gezüchtet‹ werden konnte, rückt nun in den Bereich der zielgerichteten Intervention. […] Die Grenze zwischen der Natur, die wir sind, und der organischen Ausstattung, die wir uns selber ›geben‹, verschwimmt. […] Wollen wir die kategorial neue Möglichkeit, in das menschliche Genom einzugreifen, als einen normativ regelungsbedürftigen Zuwachs an Freiheit betrachten – oder als die Selbstermächtigung zu präferenzabhängigen Transformationen, die keiner Selbstbegrenzung bedürfen?« (Habermas 2013: 28; Kursivierung im Original) Inwiefern es ethisch vertretbar ist, mit Hilfe der konventionellen Gentechnik gezielt in das menschliche Erbgut einzugreifen, und wo eventuell normative Grenzen in Bezug auf die Manipulation des menschlichen Genoms gezogen werden müssen, ist nach wie vor hoch umstritten (vgl. Hampel/Renn 1999; Birnbacher 1999; Gelhaus 2006; Düwell 2008; Graumann 2011; Chatwick 2012; Schöne-Seifert 2019).

Einleitung

Namentlich der Fall des chinesischen Genforschers He Jiankui von der Southern University of Science Shenzhen hat diese Debatte noch einmal in das Bewusstsein der Öffentlichkeit gerückt. Zur Erinnerung: Ende November 2018 behauptete Jiankui die Geburt zweier genmanipulierter Babys, die HIV-resistent seien. Er habe die Genschere Crispr/Cas9 benutzt, um das Gen CCR5 in zwei Embryonen zu modifizieren, bevor sie in die Gebärmutter der Mutter eingesetzt wurden. Ziel dieser Genmanipulation sei nicht das Erschaffen von Designerbabys mit besonderen Merkmalsausprägungen gewesen. Sondern den Nachweis zu führen, dass mit Hilfe der Gentechnik Kinder künftig gegen schwere Krankheiten geschützt werden können. Weltweit wurde Jiankuis Vorgehen als unverantwortliches wissenschaftliches Experiment scharf verurteilt: Zum einen seien die Neben- und Spätfolgen dieses Eingriffs unabsehbar und zudem werden alle Nachkommen von der Genomveränderung betroffen sein. Zum anderen habe Jiankui das selbst auferlegte Moratorium der Wissenschaftsgemeinschaft missachtet, von solchen Versuchen Abstand zu nehmen, da die Grundlagenforschung noch nicht so weit ist und die Genschere als nicht fehlerfrei gilt (vgl. Saltaline/Sample 2018; Hasson/Darnovsky 2018). Ein weiteres Beispiel ist die Firma Genomic Prediction, die Tests für eine genetische Selektion anbietet, um Embryonen mit einem derart niedrigen IQ zu identifizieren, der als Behinderung eingestuft wird. Die Firma versichert, dass keine Analysen für einen hohen IQ durchführen werden. Aber die Technologie, die das Unternehmen verwendet, würde das im Prinzip erlauben und der Markt dafür ein entsprechendes Potenzial besitzen (vgl. Ball 2018). An diesen Beispielen verdeutlicht sich, wie sehr Gentechnik die Politik und Gesellschaft dazu zwingt, Abwägungen zwischen dem zu treffen, was erlaubt sein soll, vielleicht sogar als geboten erscheint und was verboten werden soll: »What are the most basic moral principles that would guide public policy and individual choice concerning the use of genetic interventions in a just and human society […]?« (Buchanan et al. 2000: 4f.) Diese Fragestellung ist nicht einfach zu beantworten. Denn wie lassen sich individuelle Rechte gegen das abwägen, was für eine Gesellschaft als Ganzes gut ist? Würden wir z.B. die Zeugung eines De-

21

22

Mathias Lindenau, Marcel Meier Kressig

signerbabys auch dann ablehnen, wenn es ohne gravierende Eingriffe in seine Gesundheit ein Geschwisterkind retten könnte? Oder würden wir mit Unverständnis und Ablehnung reagieren, wenn taube Eltern, die ihre Taubheit nicht als Behinderung, sondern als kulturelle Identität auffassen, durch den Einsatz von Reproduktionstechnologien ein taubes Kind zeugen (vgl. Sandel 2015: 43)? Aber ist unsere Empörung über genmanipulierte Designerbabys nicht scheinheilig, wenn wir zugleich als Gesellschaft pränatale Untersuchungen dulden, um Embryonen mit einem Down-Syndrom zu auszuschließen? Auch die synthetische Biologie fordert uns heraus, da sie mit ihrer Zielsetzung, »vorhandene Organismen standardisiert zu manipulieren, umzubauen und mit Eigenschaften auszustatten, die aus der Natur nicht bekannt sind« (Boldt/Müller/Maio 2009: 9), die bisherige Grundunterscheidung zwischen »natürlich« und »künstlich« aufhebt. Die damit verbundene Verschiebung »vom Paradigma der Manipulation zu dem der Kreation« (ebd.: 80) kann zum einen mögliche Gefährdungen im gesundheitlichen, ökologischen und sozialen Bereich nach sich ziehen: sei es die Missbrauchsgefahr bei pathogenen synthetischen Organismen, das höhere Maß an Unkontrollierbarkeit der neuen biotechnischen Produkte gegenüber bereits bekannten Organismen, oder auch die kommerzielle Indienstnahme der Forschung. Zum anderen konfrontiert sie generell unser Verständnis von menschlichem Leben in Abgrenzung zu den von Menschen geschaffenen Artefakten (vgl. Lanzerath 2015). Dieser Punkt ist auch für die Diskussion um Cyborgs zentral. Im Gegensatz zu den Robotern gelten Cyborgs als eine Kombination von lebendigem Organismus und Maschine, wobei unterschiedliche Verschmelzungsgrade möglich sind. In Bezug auf den Menschen kann es sich dabei z.B. um Cochlea- oder Retina-Implantate zur Wiedererlangung der Hör- oder Sehfähigkeit, um Herzschrittmacher, Hightech-Prothesen oder Gehirn-Computer-Schnittstellen, die Locked-In-Betroffenen die Kommunikation mit ihrer Umwelt ermöglichen, handeln (vgl. Quante/Stoppenbrink 2011: 479). Aber auch das Einsetzen von Chips unter die Fingerkuppen zur Aufbewahrung von Informationen und Passwörtern oder der Einbau von Antennen, die

Einleitung

es ermöglichen, Farben zu hören – um nur einige Möglichkeiten zu benennen –, fällt unter diese Kategorie. Da der Einsatzbereich des Technischen zwischen Wiederherstellung und Erweiterung menschlicher Fähigkeiten changiert, fungiert der Cyborg vorrangig als eine Problematisierungsfigur für das technologische Durchdringen des Körpers: Wird eine »Upgradekultur«, in der »ein Optimierungsdispositiv im Vordergrund steht« (Spreen 2015: 8), zum Zwang des Upgradens des eigenen Körpers führen, allein schon, um mithalten zu können? Oder wird die monetäre Leistungsfähigkeit über die Zugehörigkeit zur Gruppe der lowtech- oder hightech-Körper und den entsprechenden Fähigkeiten entscheiden und hier zukünftig die neue Klassengrenze verlaufen? Das Upgraden des Körpers kann jedoch auch als nötige Überwindung der einschränkenden Leiblichkeit und physischen Begrenztheit menschlichen Lebens sowie der Grenzen unseres genetischen Erbes mit Hilfe der Technologie verstanden werden (vgl. More 2013: 4). Solche Denkansätze, die teils nur lose miteinander verbunden sind und ein breites Spektrum an Auffassungen abbilden, werden unter dem Begriff Transhumanismus und in seiner extremen Zuspitzung als Posthumanismus geführt (vgl. Fenner 2019: 52ff.). Charakteristisch für den Trans- und Posthumanismus ist die negative Bewertung der biologischen menschlichen Existenz. Die Unzulänglichkeiten der biologischen Hülle hemmen den Menschen, weshalb es dringend einer Erweiterung seiner Fähigkeiten bedarf, um »in neuartige Dimensionen der Souveränität« (Demuth 2018: 40) vorzudringen. Wirklich souverän wird der Mensch nach dieser Leseart erst dann sein, wenn er keinerlei Begrenzungen seiner Existenz befürchten muss. Dafür muss der auf Kohlenstoff basierende menschliche Körper überwunden und die menschliche Existenz auf eine nichtbiologische Grundlage gestellt werden, was durch das exponentielle technologische Wachstum möglich ist: Durch die Fortschritte in der Gentechnik werden Krankheiten der Vergangenheit angehören und der Alterungsprozess, wenn nicht gestoppt, so doch zumindest verzögert. Durch die voranschreitende Nanotechnologie werden nach und nach die biologischen Organe durch wirksamere künstliche ersetzt, die nicht länger biologischen Ermüdungserschei-

23

24

Mathias Lindenau, Marcel Meier Kressig

nungen unterliegen sowie das Skelett durch Nanobots gestaltet sein, was den Wechsel des Körpers ermöglichen wird. Und schließlich werden die rasanten Entwicklungen in der Robotik und bei der künstlichen Intelligenz dazu führen, dass die künstliche Intelligenz die biologische um ein Vielfaches übersteigt, diese miteinander verschmelzen und die gesamte Gehirnaktivität, Denken wie Bewusstsein, auf nichtbiologischen, beständigeren Substraten gewissermaßen als Datensatz übertragen und weiterexistieren wird. Dieses Ereignis der Singularität wird den Menschen ein nichtbiologisches, aber dafür ewiges Leben ermöglichen (vgl. hierzu Kurzweil 2006). Ob eine Welt wie die hier skizzierte tatsächlich besser wäre, ist vollkommen offen und wird kritisch gesehen. Vor allem, weil den Protagonisten dieser Sichtweise häufig unhinterfragt ein Expertenstatus in wichtigen Zukunftsfragen ohne jede weitere Überprüfung der behaupteten Entwicklung zugestanden wird und sie maßgeblichen Einfluss auf die Entwicklung der künstlichen Intelligenz besitzen. Verbunden mit den Kontroversen um die technische Aufrüstung des biologischen Menschen ist die Entwicklung sogenannter Smart Cities. Durch die Nutzung digitaler Technologien und mittels innovativer Konzepte, so die Hoffnung, wird die Smart City gegenüber herkömmlichen Städten sozial inklusiver und ökonomisch erfolgreicher sein und zugleich eine bessere Umwelt- und höhere Lebensqualität aufweisen. So lassen sich klassische Probleme von Städten, wie z.B. Megastaus, durch intelligente Steuerung des Verkehrs von vornherein verhindern. Damit die Technologie ihr Potenzial entfalten kann, ist freilich eine entsprechende Infrastruktur nötigt, denn eine Smart City kann ohne eine möglichst vollständige Kameraüberwachung und Datenanalyse nicht funktionieren. Die vernetzte Welt, in der sich die Stadtbewohner in permanenter Interaktion mit den sie umgebenden Technologien befinden, wird zum neuralgischen Faktor der städtischen Infrastruktur. Nüchtern gilt es dabei zu konstatieren, dass wir dadurch unsere Lebens- und Umwelt immer mehr den Bedürfnissen der Technik anpassen und immer weniger auf menschliche Bedürfnisse achten bzw. Rücksicht nehmen. Auch wenn der Nutzen smarter Technologien nicht bestritten werden kann, sind gleichwohl auch in Bezug auf die Smart

Einleitung

City kritische Einwände zu formulieren: sei es die Frage nach dem Verhältnis zwischen Privatheit und Öffentlichkeit, oder der zunehmenden Normierung und Optimierung gegenüber der Kreativität, Zufälligkeit und Vitalität einer Stadt, aber auch danach, ob Technologiekonzerne oder der Staat über die Daten und ihren Verwendungszweck entscheiden und diese kontrollieren (vgl. Lobe 2016; Brandt/Läpple 2018; Binswanger/Kolmar 2019). Die technologischen Entwicklungen lassen sich jedoch auch zur nahezu lückenlosen Überwachung nutzen, wie sie bisher nicht als möglich erschien: »Es ist eine der gravierendsten Paradoxien der gegenwärtigen Situation, dass just jene Kommunikationsweisen, die die Autoritären von heute stark machen, einst gerade dazu erdacht wurden, den Autoritarismus zu besiegen. Dieselben Technologien, die gleichberechtigten Zugang zum politischen Spielfeld ermöglichen sollten, haben Troll-Farmen hervorgebracht […]. Und die gleichen Methoden, sich per Netzwerk zu organisieren, von denen so viele den Sturz übelwollender Staaten erhofften, haben […] Autokraten in die Lage versetzt, Protest und Dissens genauer zu überwachen.« (Turner 2019: 41f.) Paradigmatisch für den Missbrauch smarter Technologien steht das chinesische Social-Credit-System, das auf einem online arbeitenden Punktesystem basiert und riesige Datenmengen aus privaten und öffentlichen Quellen auswertet. Durch die Vergabe von Pluspunkten und den Punkteabzug wird das Ziel verfolgt, die Bewohner eines Dorfes, einer Stadt oder eines Stadtteils systematisch zu kontrollieren und im Sinne der Machthaber zu erziehen: Die Bewohner erhalten Punkte für wünschenswertes Verhalten wie die Betreuung älterer Verwandter, das Spenden von Blut, das Spenden für öffentliche Zwecke und die Zusammenarbeit mit der lokalen Verwaltung. Sie verlieren hingegen Punkte, wenn sie unerwünschtes Verhalten an den Tag legen, wie z.B. Streitereien mit Familienmitgliedern, das Zertrampeln öffentlicher Grünflächen, das Abladen von Müll, unerlaubtes Bauen oder die Beeinträchtigung der Regierungsarbeit. Der Punktestand einer Person entscheidet darüber, ob sie Geldprämien erhält und von niedrigeren

25

26

Mathias Lindenau, Marcel Meier Kressig

Busfahrpreisen profitieren kann oder keinerlei Vergünstigungen erhält, Reisebeschränkungen auferlegt bekommt und höhere Steuern zahlen muss. Wie im Fall der Stadt Rongcheng wird die Kontrolle über das Einhalten sozial erwünschten Verhaltens durch das Lokalfernsehen gewährleistet: Jeden Tag werden alle durch Kameras aufgezeichneten Fehltritte der Bewohner der vergangenen 24 Stunden gesendet. Die totale Sozial- und Arbeitsüberwachung erschwert den Bewohnern zunehmend das Treffen freier Entscheidungen und wirkt sich manipulativ auf ihre Entscheidungsfindung aus. Doch auch in westlichen Gesellschaften ist eine Auseinandersetzung über den Einsatz und die Verwendung digitaler Überwachungstechnologien, wie z.B. der Gesichtserkennung, unverzichtbar: Denn zu welchem Preis und auf wessen Kosten sie eingesetzt werden und wie verhindert werden kann, dass sie impulsiv gegenüber unerwünschtem Verhalten von Individuen oder Gruppen zum Einsatz kommt, muss frühzeitig über gesellschaftliche Debatten geklärt werden (vgl. Tang 2018; Bock/Sowa 2019; Raphaël/Xi 2019). So bleibt abschließend und wenig überraschend festzuhalten, dass im Mittelpunkt der Suchbewegungen für den Umgang mit der digitalen Transformation der Mensch stehen muss: »Digitalisierung sollte als das angesehen werden, was sie ist: eine Technik, die manches in unserem Leben erleichtern soll, so wie es die Elektrizität und das Automobil tat. Dabei sollte man aber nicht die Risiken aus dem Auge verlieren und den kulturellen Preis, den wir für ihre Vorteile zahlen. Wir sollten also weniger ein vermeintlich kommendes Paradies oder alternativ die auf uns wartende Hölle im Auge behalten als vielmehr unser Leben auf dieser Erde hier und jetzt humaner, inklusiver und sozialer gestalten. Nicht Digitalisierung um ihrer selbst willen sollte daher das Thema der Stunde sein, sondern digitaler Humanismus. Ein digitaler Humanismus geht davon aus, dass sich an der conditio humana nichts Wesentliches ändert. Er weiß, dass es nicht die Technologien sind, die darüber entscheiden, wie wir leben und wie nicht, sondern der Mensch und seine politische ökono-

Einleitung

mische und kulturelle Praxis.« (Weidenfeld 2019: 18; Kursivierung im Original) Dieser kurze Überblick zeigt zweierlei: Er veranschaulicht die Potenz, die dem Menschen zur Gestaltung seiner selbst und seiner Umwelt durch die aufkommenden Technologien zur Verfügung steht. Und er verweist auf die Notwendigkeit einer Klärung der normativen Rahmung technologischer Entwicklungen, da mit diesen immer eine Zweck- und Zielsetzung verfolgt wird, die wiederum mittel- sowie unmittelbar die Bezugsobjekte (Individuum, Organisation, Gesellschaft) tangieren. Die folgenden Beiträge widmen sich unterschiedlichen Aspekten dieser Materie. Einleitend führt Thomas Schramme eine fundierte Auseinandersetzung zum Thema Enhancement durch. Die oft plakative Bewertung von Enhancement als negativ oder positiv verkennt, dass Enhancement zunächst einmal eine inhaltlich unbestimmte Kategorie darstellt, zu der jede Form von körperlicher oder geistiger Verbesserung gezählt werden kann. Deshalb besteht die eigentliche Herausforderung darin, dass richtige Maß des Enhancement zu bestimmen, ohne dabei auf die kulturell und gesellschaftlich geprägten Vorurteile zurückzugreifen. Daraus folgt, so Schramme, zweierlei: Wenn Enhancement für gewöhnlich etwas ist, in dem Menschen einen Ausdruck ihrer individuellen Freiheit sehen, kann diese sinnvoll nicht abgelehnt werden. Wenn Enhancement jedoch nicht etwas Selbstgewähltes, sondern durch gesellschaftliche Vorgaben Erzwungenes ist und als »selbstoptimiertes Wettrüsten« im Vergleich zu anderen Menschen durchgeführt wird, ist Enhancement als höchst problematisch einzustufen. Im Anschluss erörtert Oliver Bendel die Herausforderungen im Umgang mit Servicerobotern, die zunehmend sowohl in unserer Lebenswelt als auch im öffentlichen Raum Präsenz markieren. Sie sind nicht länger in Fabriken versteckt oder auf bestimmte Aufgaben begrenzt, sondern als teilautonome oder autonome Maschinen auf Gehsteigen, Wegen, Plätzen und öffentlichen Räumen aller Art anzutreffen, die vorrangig für Passanten gedacht sind. Dabei identifiziert der Autor fünf Problembereiche für das Zusammenleben zwischen

27

28

Mathias Lindenau, Marcel Meier Kressig

Menschen und Servicerobotern: Kollision und Stürze, Teilen des Lebensraumes, Kommunizieren und Interagieren, Unterstützung und Ersetzung von Menschen sowie die Datenerhebung und -auswertung. In diesem Zusammenhang weist Bendel darauf hin, dass ethische Reflexionen allein zur Regelung im Umgang mit den Robotern nicht ausreichen werden, sondern rechtliche Maßnahmen unverzichtbar sind. Abschließend analysiert Klaus Grunwald die Wahrnehmung und Einschätzung der Digitalisierung, die je nach Standpunkt zwischen Fortschrittsgläubigkeit und Technikdämonisierung oszillieren kann. Während die einen vor unbeherrschbaren Technologien warnen, sehen die anderen den Heilsgral gerade in der technologischen Entwicklung. Ein wesentlicher Grund für diese höchst unterschiedlichen Interpretationen besteht in der Ambivalenz des technischen Fortschritts, der sich sowohl positiv als auch negativ für den Menschen auswirken kann. Da Digitalisierung jedoch kein unbeeinflussbares Naturereignis darstellt, sondern durch den Menschen gemacht und von ihm beeinflussbar ist, ist sie ein offener Möglichkeitsraum voller Alternativen, über den entschieden werden muss. Konsequent fordert Grunwald deshalb eine digitale Mündigkeit, die nicht zur Übertreibung des jeweiligen Standpunktes neigt und so den Blick für die tatsächlichen Herausforderungen, die mit der Digitalisierung verbunden sind, offenhält. Die in diesem Band versammelten Beiträge sensibilisieren, jenseits aller übersteigerten Hoffnungen und apokalyptischer Befürchtungen, für die Auseinandersetzung mit einer wünschbaren zukünftigen Entwicklung der schönen neuen Welt: welchen Herausforderungen wir gegenüber stehen, welchen Umgang wir mit dem technischen Fortschritt pflegen wollen, welche normativen Richtlinien gelten sollen, welcher Regulierungen es dazu bedarf. Ohne solch eine Sensibilisierung laufen wir Gefahr, von den technischen Fragen technischer Neuerungen vollständig absorbiert zu werden, ohne dabei ein differenziertes Problembewusstsein an den Tag zu legen: »Was nützen Naturwissenschaften und Technik, wenn sie – wie in China – zur Unterwerfung der Bevölkerung eingesetzt werden? Was

Einleitung

nützen sie, wenn sie, wie bisher, weitgehend ohne ethische Reflexion voranschreiten? Und was nützt Machine Learning, wenn es Cambridge Analytica und soziale Netzwerke hervorbringt, die gerade systematisch zur Selbstzerstörung des demokratischen Rechtsstaates führen?« (Gabriel 2019: 28) Folglich bleibt zu bedenken, dass technische Entwicklungen zum Teil massiv in die Lebenswirklichkeit des Menschen eingreifen können und weiterführende Fragen auswerfen: über die Selbstbeschreibung des Menschen und Formen des Menschseins ebenso, wie über den Menschen und dessen gutes und gerechtes Leben im technologischen Wandel generell. Dabei wird es keine einfachen Antworten geben. Vielmehr zeigt sich, »dass es ethisch nicht hinreicht, sich einer Innovation einfach zu verweigern, wenn sie Risiken oder Nachteile birgt oder bergen kann: Wenn eine Neuerung wichtige Vorteile bietet, braucht es gute Gründe, sie abzulehnen.« (Kunzmann 2006: 265) Im Rahmen dessen, was machbar ist und als möglich erscheint und was davon konkret umgesetzt werden soll, sind schwerwiegende Entscheidungen zu treffen und harte Fragen zu beantworten, was nicht allein den Expertinnen und Experten überlassen bleiben sollte, sondern unter Einbezug der gesamten Bevölkerung geleistet werden muss. Dafür bedarf es eines intensiven Austauschs zwischen Sozial-, Geistes- und Naturwissenschaften, aber auch zwischen den Expertinnen und Experten, den politischen Entscheidungsträgern sowie der Bevölkerung. Um die breite Öffentlichkeit in ihrer sachlichen Urteilsfähigkeit gegenüber dem technologischen Wandel zu fördern, bedarf es einer digitalen Aufklärung, um die Mündigkeit der Bürgerinnen und Bürger in der digitalen Welt zu fördern. Zudem sind viel mehr öffentliche Diskussionsforen notwendig als das gegenwärtig der Fall ist (vgl. hierzu u.a. Loh 2019; Helbing u.a. 2015; Senghass-Knobloch 1998, Ropohl 1996, Sachsse 1993). Das ist keine neue Erkenntnis, sondern eine alte Forderung – aber sie ist längst noch nicht hinreichend erfüllt.    

29

30

Mathias Lindenau, Marcel Meier Kressig

Unser Dank gilt an dieser Stelle weiterhin der Karl Zünd Stiftung, ohne deren großzügige Unterstützung die Realisierung dieses Bandes nicht möglich gewesen wäre.   Le Prese/Balgach, im Februar 2020

Literatur Alpern, Kenneth D. (1993): »Ingenieure als moralische Helden«, in: Hans Lenk/Günter Ropohl (Hg.): Technik und Ethik, Stuttgart: Reclam, S. 177-193. Anders, Günther (1961): Die Antiquiertheit des Menschen. Über die Seele im Zeitalter der zweiten industriellen Revolution. Ungekürzte Sonderausgabe, München: C.H. Beck. Ball, Philip (2018): »Super-smart designer babies could be on offer soon. But is that ethical?«, in: The Guardian vom 19.11.2018, https:// www.theguardian.com/commentisfree/2018/nov/19/designerbabies-ethical-genetic-selection-intelligence (Zugriff: 08.01.2020). Bauer, Thomas (2018): Die Vereindeutigung der Welt. Über den Verlust von Mehrdeutigkeit und Vielfalt, Stuttgart: Reclam. Bertelsmann Stiftung (2019): Plattformarbeit in Deutschland. Freie und flexible Arbeit ohne soziale Sicherung, Gütersloh: Bertelsmann Stiftung. Binswanger, Johannes/Kolmar, Martin (2019): »Auf dem Weg zur digitalen Knechtschaft«, in: NZZ vom 01.04.2019, S. 8. Birnbacher, Dieter (1999): »Genomanalyse und Gentherapie«, in: HansMartin Sass (Hg.): Medizin und Ethik, Stuttgart: Reclam, S. 212-231. Blom, Philipp (2017): Was auf dem Spiel steht, München: Hanser. Bock, Kirsten/Sowa, Aleksandra (2019): »Wie das Scoring die Solidarität untergräbt«, in: Neue Gesellschaft/Frankfurter Hefte 4, S. 40-44. Boldt, Joachim/Müller, Oliver/Maio, Giovanni (2009): Synthetische Biologie. Eine ethisch-philosophische Analyse, hg. v. Eidgenössische Ethikkommission für die Biotechnologie im Ausserhumanbereich (EKAH), Bern: BBL.

Einleitung

Bostrom, Nick (2018): Die Zukunft der Menschheit. Aufsätze, Berlin: Suhrkamp. Brandt, Arno/Läpple, Dieter (2018): »Smart City oder: Die Stadt der Konzerne?«, in: Blätter für deutsche und internationale Politik 11, S. 113-120. Brosch, Renate (2009): »Brave New World«, in: Heinz Ludwig Arnold (Hg.): Kindlers Literaturlexikon, 3., völlig neu bearb. Aufl., Bd. 7, Stuttgart/Weimar: Metzler, S. 803-804. Buchanan, Allen/Brock, Dan W./Daniels, Norman/Wikler, Daniel (2000): From Change to Choice. Genetics and Justice, Cambridge: Cambridge University Press. Chatwick, Ruth (2012): »Gene Therapy«, in: Helga Kuhse/Peter Singer (Eds.): A Companion to Bioethics. 2nd edn. Chichester, West Sussex: Wiley-Blackwell, S. 207-215. Daub, Adrian (2019): »Im Rausch des Sammelns von Einsen und Nullen«, in: NZZ vom 11.11.2019, S. 8. Demuth, Volker (2018): Der nächste Mensch. Berlin: Matthes & Seitz. Düwell, Marcus (2008): Bioethik. Methoden, Theorien und Bereiche. Stuttgart: Metzler. Fenner, Dagmar (2019): Selbstoptimierung und Enhancement. Ein ethischer Grundriss. Tübingen: Narr Francke Attempto. Flessner, Bernd (2016): »Die angekündigte Revolution«, in: Kultur & Technik 3: S. 6-11. Gandy, Oscar. H. Jr. (2010): »Engaging Rational Discrimination: Exploring Reasons for Placing Regulatory Constraints on Decision Support Systems«, in: Ethics and Information Technology 12 (1): 29-42. Gabriel, Markus (2019): »Doch, es braucht Geisteswissenschaften!«, in: NZZ vom 18.11.2019, S. 28. Gelhaus, Petra (2006): Gentherapie und Weltanschauung. Ein Überblick über die gen-ethische Diskussion, Darmstadt: Wissenschaftliche Buchgesellschaft. Graumann, Sigrid (2011): »Reproduktive Medizin, verbrauchende Stammzellforschung und der Status der Embryonen«, in: Ralf Stoecker/Christain Neuhäuser/Marie-Luise Raters (Hg.): Handbuch Angewandte Ethik, Stuttgart: Metzler, S. 424-432.

31

32

Mathias Lindenau, Marcel Meier Kressig

Habermas, Jürgen (2013): Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik?, 4. Aufl., Frankfurt a.M.: Suhrkamp. Hampel, Jürgen/Renn, Ortwin (Hg.) (1999): Gentechnik in der Öffentlichkeit. Wahrnehmung und Bewertung einer umstrittenen Technologie, Frankfurt a.M.:/New York: Campus. Hasson, Katie/Darnovsky, Marcy (2018): »Gene-edited babies: no one has the moral warrant to go it alone«, in: The Guardian vom 27.11.2018, https://www.theguardian.com/science/2018/ nov/27/gene-edited-babies-no-one-has-moral-warrant-go-it-alone (Zugriff: 08.01.2020). Helbing, Dirk/Frey, Bruno S./Gigerenzer, Gerd/Hafen, Ernst/Hagner, Michael/Hostetter, Yvonne/van den Hoven, Jeroen/Zicari, Roberto V./Zwitter, Andrej (2015): »IT-Revolution. Digitale Demokratie statt Datendiktatur«, in: Spektrum der Wissenschaft (Sonderausgabe: Das Digital-Manifest), www.spektrum.de/news/wiealgorithmenundbigdataunserezukunftbestimmen/1375933 (Zugriff: 26.01.2020). Hirsch-Kreinsen, Hartmut/Karačič, Anemari (Hg.) (2019): Autonome Systeme und Arbeit. Perspektiven, Herausforderungen und Grenzen der künstlichen Intelligenz in der Arbeitswelt, Bielefeld: transcript. Hölscher, Lucian (1990): »Utopie«, in: Otto Brunner/Werner Conze/Reinhart Koselleck (Hg.): Geschichtliche Grundbegriffe. Historisches Lexikon zur politisch-sozialen Sprache in Deutschland, Bd. 6, Stuttgart: Klett-Cotta, S. 733-788. Horkheimer, Max/Adorno, Theodor W. (1987): »Dialektik der Aufklärung. Philosophische Fragmente«, in: Gunzelin Schmid Noerr (Hg.): Max Horkheimer. Gesammelte Schriften, Bd. 5, Frankfurt a.M.: Fischer, S. 13-290. Hubig, Christoph (2011): »Technikethik«, in: Ralf Stoecker/Christian Neuhäuser/Marie-Luise Raters (Hg.): Handbuch Angewandte Ethik, Stuttgart: Metzler, S. 170-175. Huxley, Aldous (2001): Schöne neue Welt. Roman, 59. Aufl., Frankfurt a.M.: Fischer.

Einleitung

Huxley, Aldous (1958): »Brave New World Revisted«, https://www. huxley.net/bnw-revisited/(Zugriff: 08.01.2020). Jonas, Hans (1984): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt a.M.: Suhrkamp. Kaeser, Eduard (2018): »…das Werkzeug benutzt den Menschen«, in: NZZ am Sonntag vom 16.09.2018, S. 54. Koselleck, Reinhart (1985): »Die Verzeitlichung der Utopie«, in: Wilhelm Voßkamp (Hg.): Utopieforschung. Interdisziplinäre Studien zur neuzeitlichen Utopie. Bd. 3. Frankfurt a.M.: Suhrkamp, S. 1-14. — (1975): »Fortschritt«, in: Otto Brunner/Werner Conze/Reinhart Koselleck (Hg.): Geschichtliche Grundbegriffe. Historisches Lexikon zur politisch-sozialen Sprache in Deutschland, Bd. 2, Stuttgart: Klett, S. 363-423. Kunze, Rolf-Ulrich (2013): »Krise des Fortschrittsoptimismus«, in: Armin Grundwald (Hg.): Handbuch Technikethik, Stuttgart: Metzler, S. 67-72. Kunzmann, Peter (2006): »Technikethik«, in: Nikolaus Knoepfler/Peter Kunzmann/Ingo Pies/Anne Siegetsleitner (Hg.): Einführung in die Angewandte Ethik, Freiburg i.Br./München: Alber, S. 249-266. Kurzweil, Ray (2006): The Singularity is Near. When Humans Transcend Biology. London: Penguin. Lanzerath, Dirk (2015): »Synthetische Biologie«, in: Dieter Sturma/Bert Heinrichs (Hg.): Handbuch Bioethik, Stuttgart: Metzler, S. 406-414. Lenk, Hans/Ropohl, Günter (1993): »Einführung«, in: Diess. (Hg.): Technik und Ethik. Stuttgart: Reclam, S. 5-21. Link, Christian (2004): »Zukunft; Vergangenheit«, in: Joachim Ritter/Karlfried Gründer/Gottfried Gabriel (Hg.): Historisches Wörterbuch der Philosophie, Bd. 12, Darmstadt: Wissenschaftliche Buchgesellschaft, S. 1426-1436. Lobe, Adrian (2017): »Smart – und völlig gewissenlos«, in: NZZ vom 13.03.2017, S. 27. — (2016): »Auf dem Weg nach Cyborg City«, in: NZZ vom 18.11.2016, S. 41. Löwith, Karl (1983): »Das Verhängnis des Fortschritts« (1963), in: Klaus Stichweh/Marc B. de Launay (Hg.): Karl Löwith. Sämtliche Schrif-

33

34

Mathias Lindenau, Marcel Meier Kressig

ten, Bd. 2: Weltgeschichte und Heilsgeschehen. Zur Kritik der Geschichtsphilosophie, Stuttgart: Metzler, S. 392-410. Loh, Janina (2019): Roboterethik. Eine Einführung, Berlin: Suhrkamp. Mahnkopf, Birgit (2019): »Produktiver, grüner, friedlicher? Die falschen Versprechen des digitalen Kapitalismus«, in: Blätter für deutsche und internationale Politik 10: S. 89-98. Marquard, Odo (2015): »Zukunft braucht Herkunft«, in: Ders.: Zukunft braucht Herkunft. Philosophische Essays, Stuttgart: Reclam, S. 234246. Marx, Karl (1968): »Differenz der demokritischen und epikureischen Naturphilosophie. Vorrede«, in: Karl Marx-Friedrich Engels-Werke (MEW) Bd. 40, Berlin: Dietz, S. 261-263. Mensvoort, Koert (2018): »Anthropomorphismus-Phobie. Eine Erkundung der Grauzone zwischen Mensch und Produkt«, in: Philipp Otto/Eike Gräf (Hg.): 3TH1CS. Die Ethik der digitalen Zeit, Bonn: Bundeszentrale für politische Bildung, S. 172-184. More, Max (2013): »The Philosophy of Transhumanism«, in: Max More/Natasha Vita-More (Eds.): The Transhumanist Reader. Classical and Contemporary Essays on the Science, Technology, and Philosophy of the Human Future, Chichester/West Sussex: WileyBlackwell, S. 3-17. Morus, Thomas (1993): »Utopia«, in: Klaus J. Heinisch (Hg.): Der utopische Staat, Reinbek: Rowohlt, S. 7-110. O’Neil, Cathy (2017): Angriff der Algorithmen. Wie sie Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden, München: Hanser. Preston, Christopher J. (2019): The Synthetic Age. Outdesigning Evolution, Resurrecting Species, and Reengineering our World, Cambridge/Ma.: MIT Press. Quante, Michael/Stoppenbrink, Katja »Roboter, Cyborgs und die Aussicht auf eine posthumane Zukunft«, in: Ralf Stoecker/Christian Neuhäuser/Marie-Luise Raters (Hg.): Handbuch Angewandte Ethik, Stuttgart: Metzler, S. 478-481.

Einleitung

Ramge, Thomas (2018): Mensch und Maschine. Wie Künstliche Intelligenz und Roboter unser Leben verändern, 5. Aufl., Stuttgart: Reclam. Raphaël, René/Xi, Ling (2019): »Der dressierte Mensch«, in: Le Monde diplomatique 1, Januar 2019, S. 18-19 Ribi, Thomas (2016): »Das Flüstern der Dinge. Im Internet der Zukunft kommuniziert alles mit allem – das wird unser Selbstverständnis verändern«, in: NZZ vom 26.04.2016, S. 35. Rid, Thomas (2016): Maschinendämmerung. Eine kurze Geschichte der Kybernetik. Berlin: Propyläen. Ritter, Joachim (1972): »Fortschritt«, in: Joachim Ritter/Karlfried Gründer/Gottfried Gabriel (Hg.): Historisches Wörterbuch der Philosophie, Bd. 2, Darmstadt: Wissenschaftliche Buchgesellschaft, S. 1032-1059. Ropohl, Günter (1996): Ethik und Technikbewertung, Frankfurt a.M.: Suhrkamp. Saltaline, Suzanne/Sample Ian (2018): »Scientist in China defends human embryo gene editing«, in: The Guardian vom 28.11.2018, https://www.theguardian.com/science/2018/nov/28/scientist-inchina-defends-human-embryo-gene-editing (Zugriff: 08.01.2020). Sachsse, Hans (1993): »Ethische Probleme des technischen Fortschritts«, in: Hans Lenk/Günter Rophol (Hg.): Technik und Ethik, 2. rev. u. erw. Aufl., Stuttgart: Reclam, S. 49-80. Sandel, Michael J. (2015): Plädoyer gegen die Perfektion. Ethik im Zeitalter der genetischen Technik. Mit einem Vorwort von Jürgen Habermas, 3. Aufl., Berlin: Berlin University Press. Schöne-Seifert, Bettina (2019): »›Russisches Roulette‹ in der Genforschung am Menschen?«, in: Ethik in der Medizin 31 (1), S. 1-5. Specht, Philip (2018): Die 50 wichtigsten Themen der Digitalisierung. 3. Aufl., München: Redline. Spiekermann, Sarah (2019): Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert, München: Droemer. Spreen, Dierk (2015): Upgradekultur. Der Körper in der EnhancementGesellschaft, Bielefeld: transcript.

35

36

Mathias Lindenau, Marcel Meier Kressig

Senghaas-Knobloch, Eva (1998): »Verantwortungsbewusstsein in Ingenieurberufen: Ingenieure im Dialog für einen erweiterten Handlungshorizont«, in: Walther Ch. Zimmerli (Hg.): Ethik in der Praxis. Wege zur Realisierung einer Technikethik, Hannover: Lutherisches Verlagshaus, S. 30-56. Söffner, Jan (2019): »Das Ende der Verantwortung naht«, in: NZZ vom 21. Juni 2019, S. 36. Tang, Didi (2018): »Rated for social credit by China’s Big Brother«, in: The Times vom 01.11.2018, S. 33. Turner, Fred (2019): »Die trügerische Verheißung. Von der Geburt des Internets zum neuen Autoritarismus«, in: Blätter für deutsche und internationale Politik 3, S. 41-54. Voßkamp, Wilhelm (1985): »Einleitung«, in: Ders. (Hg.): Utopieforschung, Bd. 1, Frankfurt a.M.: Suhrkamp, S. 1-10. Weidenfeld, Nathalie (2019): »Wo bleibt der Mensch? Plädoyer für einen digitalen Humanismus im Zeitalter der künstlichen Intelligenz«, in: Neue Gesellschaft/Frankfurter Hefte 3, S. 16-20. Žižek, Slavoj (2018): »Wer für Roboter Grundrechte fordert, zielt auf die Freiheit des Menschen«, in: NZZ vom 13.05.2018, S. 41. Zuboff, Shoshana (2018): »Der dressierte Mensch. Die Tyrannei des Überwachungskapitalismus«, in: Blätter für deutsche und internationale Politik 11, S. 101-111. Zweck, Axel/Holtmannspötter, Dirk/Braun, Matthias/Hirt, Michael/Kimpeler, Simone/Warnke, Philine (2015): Gesellschaftliche Veränderungen 2030. Ergebnisband 1 zur Suchphase von BMBFForesight Zyklus II. Düsseldorf: VDI. Zweig, Katharina (2019): Ein Algorithmus hat kein Taktgefühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können, München: Heyne.

Enhancement. Welche Ziele hat die Selbstoptimierung?1 Thomas Schramme

1

Einleitung

Unser Thema, Enhancement beziehungsweise Selbst-Optimierung, erregt die Gemüter. Häufig wird das Problem in Verbindung mit modernen medizinischen und technischen Errungenschaften diskutiert. Viele Menschen sind beispielsweise begeisterte Anhänger von Fitness-Trackern, Haarimplantaten oder konzentrationssteigernden Mitteln. Extreme Befürworter von Verbesserungs-Techniken, sogenannte Transhumanisten, träumen gar von einer Überwindung der Beschränkungen menschlicher Natur, bis hin zum Sieg über den Tod. Andere Bürger wiederum sehen gravierende Gefahren, wittern zum Beispiel eine sich einschleichende Pflicht zur Steigerung der eigenen Leistungsfähigkeit, die neue Formen der Ungerechtigkeit hervorbringen kann für diejenigen, die hier nicht mithalten können. Weitere Kritiker sehen eine schöne neue Welt entstehen, die dem Menschen seine natürlichen Defekte und Verletzlichkeiten austreiben will. Unser Thema scheint von uns entsprechend eine Antwort auf die Gretchenfrage »Nun sag, wie hältst Du’s mit dem Enhancement?« zu erwarten. Eines der Ziele meines Beitrags wird sein, das Bekenntnishafte

1

In diesem Vortrag greife ich auf Überlegungen zurück, die in folgenden Beiträgen veröffentlicht wurden: »Das Ideal der Individualität und seine Begründung« (Schramme 2015a) sowie »Die Formung menschlichen Lebens: Nachdenken über Mills Idee der Lebensexperimente« (Schramme 2015b).

38

Thomas Schramme

dieser Frage zu beseitigen. Anders als bei der ursprünglichen Gretchenfrage in Goethes Faust, die ein Bekenntnis zur Religion verlangte, müssen wir Enhancement nicht als entweder-oder Thema verstehen. Ich will argumentieren, dass Enhancement – verstanden als Verbesserung körperlicher und geistiger Fähigkeiten – nicht sinnvoll abgelehnt werden kann; dass es aber gleichzeitig auch keine unbedingte Zustimmung abverlangen kann. In anderen Worten: Verbesserung unserer selbst zu befürworten, heißt nicht, grenzenlose Selbstoptimierung zu befürworten. Die eigentliche Schwierigkeit besteht darin, das sinnvolle Maß des Enhancements zu bestimmen. Falsche Alternativen werden uns regelmäßig präsentiert. Vor kurzem betitelte etwa die Neue Zürcher Zeitung einen einschlägigen Beitrag: »Sollen wir Menschen uns so akzeptieren, wie wir sind?« Die Antwort wurde im Untertitel gegeben: »Nein, wir können uns gar nicht genug optimieren!« (Scheller 2019: 35). Hier wird die Alternative zwischen Akzeptanz des Status Quo und Selbstoptimierung eingeführt – ein beliebter rhetorischer Kniff. Wer ist schon für Selbstzufriedenheit und Stillstand? Niemand, also musst Du Dich für die Optimierung aussprechen! Solche falschen Alternativen gilt es zu vermeiden. Ich bin überzeugt, philosophische Überlegungen können uns dabei helfen. Die Philosophie wird bisweilen dafür gescholten, dass sie Dinge noch komplizierter mache, als diese uns bereits ohne philosophische Aufbereitung erscheinen. Sollte sie Probleme nicht einfacher machen und uns die Antworten erleichtern? Nun, ich glaube, das Thema Enhancement ist ein Beispiel für solche ethischen Fragen, die uns erst dann klarer werden, wenn wir ihre Komplexität völlig durchdrungen haben. Insofern hoffe ich, dass mein philosophischer Beitrag wertvoll sein kann, auch wenn ich kein eindeutiges Bekenntnis für oder gegen Enhancement ablegen werde.

2

Enhancement und Normen der Selbstverbesserung

Wie es in einer philosophischen Herangehensweise üblich ist, sollten wir uns zunächst über den grundlegenden Begriff unserer Untersuchung verständigen: Mit dem Ausdruck Enhancement werden Praktiken

Enhancement. Welche Ziele hat die Selbstoptimierung?

bezeichnet, die auf eine Verbesserung von körperlichen oder geistigen Eigenschaften und Fähigkeiten abzielen. Damit kann eine Steigerung der individuellen Leistungsfähigkeit, etwa ein besseres Gehör, gemeint sein, aber auch – wie in letzter Zeit häufiger diskutiert – eine größere moralische Sensibilität. Enhancement muss also nicht ausschließlich selbstbezogen sein und kann im Interesse der Allgemeinheit liegen. Es gibt nahezu unbegrenzt viele andere Beispiele und auch die Techniken der Enhancement-Praktiken unterscheiden sich zum Teil dramatisch. Sie reichen von der morgendlichen Tasse Kaffee bis zum Gehirnimplantat oder der genetischen Modifikation. Der Ausdruck Enhancement wird häufig im medizinischen Kontext verwendet und dort vom Begriff der Therapie abgegrenzt. Therapie zielt auf die Heilung von Krankheit, Enhancement auf eine Verbesserung der Gesundheit über die Beseitigung der Krankheit hinaus. Bereits mit dieser eigentlich unproblematischen Beschreibung begeben wir uns recht schnell in das Dickicht begrifflicher Unklarheiten. Schließlich ist nicht ausgemacht, worin genau die Norm der Gesundheit besteht und daher, was als Enhancement im Unterscheid zu Therapie gilt. Noch komplizierter wird es, wenn wir den Kontext der Medizin verlassen. Was kann überhaupt als Verbesserung gelten und aufgrund welcher Normen? Um nur ein relativ eingängiges Beispiel zu nennen: Viele medizinisch höchst bedenkliche Körpermodifikationen sind erwünschte und subjektiv wertgeschätzte Verbesserungen des körperlichen Aussehens. Besonders radikale Körpermodifikationen, wie beispielsweise bewusst herbeigeführte, die Haut verzierende Narben, Ganzkörpertätowierungen oder Unterhautimplantate, haben in einigen Fällen sogar Krankheitswert. In anderen Worten: Was dem einen eine Krankheit oder Verstümmelung darstellt, gilt dem anderen als erwünschte Verbesserung der körperlichen Erscheinung. Enhancement scheint demnach eine inhaltlich unbestimmte Kategorie zu sein: Letztlich könnte jede Form von körperlicher oder geistiger Veränderung als Verbesserung gelten, gegeben die passenden Interessen und subjektiven Werturteile. Die Tatsache, dass Enhancement sehr individuell verstanden werden kann und üblicherweise etwas ist, dem Menschen freiwillig und freudig nachgehen, deutet an, dass es sich bei der Praxis um einen Aus-

39

40

Thomas Schramme

druck menschlicher Freiheit handelt. Stärker noch: Der Bezug auf den individuellen Freiheitsgebrauch verdeutlicht in recht schlüssiger Weise, dass Selbstverbesserung und damit auch viele Instrumente des Enhancements ein Grundbedürfnis des Menschen darstellen. Insofern ist eine grundsätzliche Ablehnung jeglichen Enhancements einfach unplausibel. Hinzu kommt die politische Tatsache, dass wir es in liberalen Gesellschaften gewöhnt sind, den individuellen Freiheitsgebrauch recht weitgehend einzuräumen und daher auch unser persönliches Unbehagen so weit wie möglich zu zügeln – falls wir es überhaupt verspüren. Aus dem bisher Gesagten folgt aber keine bedingungslose Befürwortung der Selbstverbesserung oder gar der Selbstoptimierung. Das hat damit zu tun, dass diese Idee von Normen geprägt ist; Normen, welche die richtige Art und das richtige Ziel der Selbstverbesserung betreffen. Es sind allerdings nicht die medizinischen Normen der Gesundheit und Krankheit, die bei der Bewertung von Praktiken des Enhancement entscheidend sind, sondern Normen der vermeintlich richtigen Selbstbestimmung – letztlich der richtigen Art, sein Leben zu leben. Ein hilfreicher Testfall, um die eigenen Intuitionen bezüglich der Verbesserung des eigenen Selbst zu prüfen, ist der Dude. Der Dude, wie er sich auch selbst nennt, ist bekannt unter seinem eigentlichen Namen Jeffrey Lebowski. Viele werden ihn kennen: Er ist der Held des amerikanischen Films The Big Lebowski, den die Brüder Joel und Ethan Cohen im Jahr 1998 veröffentlichten. Der Dude verbringt sein Leben in erster Linie mit dem Konsum von Marihuana und dem Bowlingspiel. Er ist, wie das heutzutage neudeutsch genannt wird, ein slacker. Früher hätte man ihn vielleicht einen Nichtsnutz oder Tagedieb genannt. Der Dude hat wenig Interesse an der Selbstoptimierung, aber er scheint auch glücklich zu sein, zumindest nicht unglücklicher als andere. Verschwendet er sein Leben? Es ist wichtig hier zu betonen, dass unsere Bewertung der Lebensweise des Dudes von den möglichen und natürlich üblichen Aspekten wie Wohlfahrtskosten ferngehalten werden soll. Die Frage lautet, ob es schlecht für den Dude ist, sich nicht zu verbessern und vielleicht noch schlechter, sich nicht einmal verbessern zu wollen. Ich würde denken, dass sehr viele Leute diese Frage bejahen würden. Viele Menschen neh-

Enhancement. Welche Ziele hat die Selbstoptimierung?

men an, dass wir als Menschen danach streben uns zu verbessern, und dass es dabei nicht völlig egal ist, in welche Richtung wir streben. Um ein anderes Beispiel zu verwenden: Das Leben des Sisyphos ist das Paradebeispiel eines sinnlosen Lebens. Auch wenn er die Fähigkeit optimieren würde, Felsbrocken einen Berg hochzuschleppen, würde es sein Leben nicht verbessern. Instruktiv hat dieses Beispiel Joel Feinberg (1992) diskutiert. Meines Erachtens zeigen verbreitete Reaktionen bezüglich solcher Lebensweisen, wie sie uns exemplarisch durch den Dude vorgelebt werden, dass die Idee der Selbstverbesserung von gesellschaftlichen Normen geprägt ist. Wie wir Menschen leben sollen, worin das für uns gute Leben besteht, ist bekanntlich ein Thema, das an den Ursprung der Philosophie zurückreicht. Interessanterweise würden heutzutage viele behaupten, dass jeder für sich selbst entscheiden müsse, wie er sein eigenes Leben lebt. Genauer: Über den Bereich, der nur die Person selbst betrifft, solle sie souverän herrschen können. Genau so hat es bereits John Stuart Mill Mitte des Neunzehnten Jahrhunderts formuliert. Gleichwohl scheint es Grenzen dessen zu geben, was wir als gelingendes Leben verstehen würden. Zugegeben, wo wir der Meinung sind, dass jemand sein Leben verschwendet, müssen wir nicht gleich für paternalistisches Eingreifen plädieren, also die individuelle Freiheit beschneiden, um die betroffene Person vor Fehlern zu bewahren. Nichtsdestotrotz zeigt das verbreitete Urteil, wonach es schlechte Formen der Selbstbestimmung geben kann, dass die Idee der Selbstverbesserung von gesellschaftlichen Normen geprägt ist, die man nicht ohne Weiteres abschütteln kann. Soweit ist das Ergebnis der Überlegung nicht viel mehr als eine soziologische Feststellung. Ob die verbreiteten Normen zur richtigen Form und Richtung der Selbstbestimmung gerechtfertigt sind, ist nach wie vor eine offene Frage. Wir werden sehen, dass es in der Tat gar nicht so einfach ist zu begründen, welche Arten der Selbstverbesserung wertlos sind. Wie gesagt, in liberalen Gesellschaften sind wir gewöhnt, uns wertender Urteile über Lebensweisen weitgehend zu enthalten. Wer sind wir schon, könnte man sagen, über den fanatischen Bodybuilder zu richten, weil er ein vermeintlich wertloses Ziel der Perfektionierung

41

42

Thomas Schramme

verfolgt, aber die ebenfalls besessene Kunstturnerin zu preisen? Wie sollen wir die Standards der richtigen Selbstoptimierung herleiten und begründen, ohne bloß auf unsere eingefleischten, kulturell und gesellschaftlich geprägten Vorurteile zurück zu greifen?

3

John Stuart Mill: Selbstverbesserung in Grenzen

Ich möchte nun, im Hauptteil meines Beitrags, einige Schritte gehen in Richtung einer normativen Theorie der Selbstbestimmung und Selbstoptimierung, wie wir das vielleicht etwas großspurig nennen können. Ich will zwei Aspekte der Bewertung von Enhancement unterscheiden, einen qualitativen und einen quantitativen. Der erste, qualitative Aspekt zielt auf die richtigen Ziele und Arten der Selbstverbesserung: In welche Richtung sollen wir uns verbessern? Der zweite, quantitative Aspekt fragt nach Ausmaß der Optimierungsstrategien: Wie weit sollen wir uns selbst verbessern? Befassen wir uns zunächst mit der qualitativen Frage. In welche Richtung sollen wir uns verbessern oder uns gar optimieren? Nun, wie bereits angesprochen, scheint es zunächst keine inhaltlichen Vorgaben zu geben. Was auch immer eine Person für wichtig erachtet, scheint richtig für sie zu sein. Aber bereits dieser Schritt ist wichtig: Er zeigt uns, dass Selbstverbesserung ein Ziel sein sollte, dass die betroffene Person selbst wertschätzt. Wo jemand bloß Moden hinterherhechelt oder gedankenlos die Aspekte verfolgt, welche ihm vorgelebt werden, dort fehlt der Person ein wesentlicher Bestandteil gelingender Selbstbestimmung, nämlich Individualität. Als erste Annäherung an die Frage, in welche Richtung wir uns entwickeln sollen, können wir also in einer Art Slogan festhalten: Optimiere dich selbst, so wie Du wirklich selbst bist. Das Ideal der Individualität zeigt sich hier in seiner Nähe zum Begriff der Authentizität. Viele philosophische Strömungen und auch profane Alltagsratgeber unterstützen diesen Gedanken. Wir haben jedoch bereits gesehen, dass es eventuell auch dabei Grenzen der sinnvollen Selbstoptimierung gibt. Der authentische Dude mag seine Fähigkeiten zum Mixen eines White Russian

Enhancement. Welche Ziele hat die Selbstoptimierung?

Cocktails und seine Bowlingkünste optimieren, gleichwohl scheint hier etwas zu fehlen, um von gelingender Selbstoptimierung zu sprechen. Hier greifen Normen der Selbstoptimierung, die nicht durch eine rein formale Passung zwischen realem und verbesserten Selbst erfasst werden können – festgehalten im Ratschlag »werde, so optimal es geht, zu demjenigen, der Du bist«. Wir sind jetzt, wie es sich für eine philosophische Untersuchung gehört, in recht abstraktes Gebiet vorgedrungen. Selbstoptimierung, so der Gedanke, hat auf der einen Seite mit Individualität und Authentizität zu tun – eine Art der Übereinstimmung mit einem selbst, spezifisch für einen selbst. Auf der anderen Seite scheint es Weisen der misslingenden Selbstoptimierung zu geben – Selbstoptimierung gelingt nur innerhalb bestimmter Grenzen passender, menschlicher Lebensweisen. Doch woher stammen die relevanten Normen und wie können sie begründet werden? Wie so oft können wir uns auf Vordenker beziehen, um dieses Problem anzugehen. In einer verbreiteten Metapher gesprochen: Wir stehen auf den Schultern von Riesen. Ein solcher Riese der Philosophie ist bereits genannt worden und auf seine Schultern möchte ich mich nun stellen. Die Rede ist vom englischen Philosophen John Stuart Mill. Mill hat in seiner Schrift Über die Freiheit von 1859 eine immer noch enorm moderne Vorstellung von Selbstbestimmung und Selbstentwicklung geprägt. Der zentrale Begriff seiner Überlegungen lautet Individualität. Diese Idee erlaubt zunächst eine vielfältige Auffassung von gelingender Selbstbestimmung. Mill wendet sich entsprechend vehement gegen die im viktorianischen England – und vielleicht bis heute – wirkenden Kräfte kultureller Normen und Gebräuche. Diese können Individualität ersticken. Stattdessen muss eine je eigene Bildung beziehungsweise Entwicklung des Selbst gefunden werden. Mill lehnt also die Idee ab, wonach es eine bestimmte Lebensweise für Menschen gibt, die für alle passend sein könnte. Hierzu passt gut Mills Metapher von Menschen als Bäumen, die in jeweils verschiedener Weise wachsen: »Menschliche Natur ist keine Maschine, die nach Modell gebaut und eingesetzt wird, um genau die Arbeit zu tun, die für sie vorgesehen

43

44

Thomas Schramme

wurde, sondern ein Baum, der wachsen und sich zu allen Seiten entfalten muss, entsprechend der Anlage seiner inneren Kräfte, die ihn zu einem Lebewesen machen.« (Mill 2014a: 373) Auch für Mill ist daher die Authentizität ein wichtiger Aspekt der Individualität. Ein Mensch mit einem eigenen Charakter zu sein verlangt, genau diesen zu verwirklichen und sich nicht zu »verbiegen« oder zurecht gestutzt zu werden. Dazu gehört, für sich selbst zu wählen und nicht blind vorgegebenen Handlungsweisen zu folgen. Wir sollten unser Leben nicht nach den Vorgaben von außen leben, sondern müssen die passende Lebensweise für uns selbst finden. Menschen sind verschieden und daher existiert keine bestimmte richtige Lebensweise, auch wenn uns eine solche Auffassung bisweilen durch Sitten und Gebräuche nahegelegt wird. Sein Leben selbst zu wählen und zu verbessern heißt nicht, sein Selbst zu wählen, also seine Charaktermerkmale in freier Betätigung selbst in einer Art existenzialistischer Wahl gewissermaßen aus dem Nichts zu kreieren. Mill klingt vielmehr an manchen Stellen im Gegenteil so, als glaube er an eine jeweils vorgegebene individuelle Natur einzelner Menschen, die es zu entdecken und in Handlungen zu verwirklichen gälte. Schon die bereits erwähnte Metapher des wachsenden Baums legt dies nahe, da bei diesem die spezifische Weise des Wachstums von den »inneren Kräften« im Zusammenspiel mit den Umweltbedingungen determiniert zu sein scheint. Authentizität hieße demzufolge für Mill, sein einzigartiges, individuelles Wesen zu verwirklichen. Unser Lebensplan soll also Mill zufolge unserem Charakter gemäß entworfen sein. Doch falls wir bei bloßer Authentizität verharren, ergibt sich eine Problematik, die Mill zu unterschätzen scheint. Wie eingangs erwähnt, kennen wir aus unserer Erfahrung Lebensweisen von Menschen, die durchaus authentisch, aber sicherlich nicht gut für sie selbst sind. Ohne irgendeine normative Begrenzung authentischer Selbstwahl scheint Mills Konzeption ins Leere zu laufen und Individualität letztlich einen wenig einleuchtenden – weil unbeschränkten – Eigenwert zu erhalten.

Enhancement. Welche Ziele hat die Selbstoptimierung?

An manchen Stellen seiner Schrift lobpreist Mill beispielsweise Exzentriker und gesellschaftliche Außenseiter, als sei allein schon die bloße Tatsache, dass sie nicht der Norm entsprechen, Ausdruck des besonderen Werts ihrer Lebensweise. Gleichwohl steckt in der Idee der normativen Beschränkung von Lebensentwürfen eine umgekehrte Schwierigkeit: Möglicherweise pressen wir Menschen in gesellschaftlich vorgegebene Lebensformen, die keine Individualität mehr zulassen. In der Tat war genau das zu verhindern Mills Grundanliegen in seiner Freiheitsschrift. Er wandte sich nachdrücklich gegen die »Tyrannei der Mehrheit«. Menschen probieren sich aus, auf der Suche nach der für sie passenden Lebensweise. Mill spricht in diesem Zusammenhang von Lebensexperimenten. Dies ist ein passender Begriff und er lässt uns interessante Analogien zu anderen Arten von Experimenten erkennen. Ebenso wie wissenschaftliche Experimente vermitteln Lebensexperimente Hinweise auf den Wahrheitsgehalt von Annahmen. Was für den Menschen das gute Leben darstellen kann, ist weder etwas, über das wir gar nichts sagen können, noch etwas, wozu wir Wissen aus dem Lehnstuhl heraus generieren können. Für Mill ist das Grundprinzip jedes Wissensfortschritts die Erfahrung – und mit Lebensweisen sammeln wir jeden Tag Erfahrungen. Dass die Menschen sich unterscheiden und daher eine Pluralität von Lebensweisen gesellschaftlich ermöglicht werden muss, um möglichst vielen ein gelingendes Leben zu ermöglichen, ist heutzutage eine Binsenweisheit. Schon für Mill war längst aufgrund menschlicher Erfahrungen deutlich geworden, dass es nicht eine bestimmte Lebensweise gibt, die für Menschen angemessen ist – wenn dies historisch gesehen auch immer wieder bestritten wurde, beispielsweise aufgrund bestimmter religiöser Überzeugungen. Jeder Mensch muss also seine eigene passende Art der Existenz finden. Dazu muss man mit dem Leben experimentieren und auch mal scheitern können. Für die Ermöglichung der individuellen Experimente wiederum bedarf es gesellschaftlicher Rahmenbedingungen, in erster Linie die Garantie weitgehender individueller Freiheit.

45

46

Thomas Schramme

Nun führen Erfahrungen, die wir in Experimenten machen können, zum Verzicht auf bestimmte Hypothesen. Können sich nicht analog auch bestimmte Lebensexperimente ein für allemal als nicht gelingende Weisen herauskristallisieren? Dies könnte in der Konsequenz dazu führen, dass man die soziale Formung des individuellen Lebens in diesen Bereich ausgreifen lässt, um Menschen von »falschen« Existenzweisen abzuhalten. Ein heutzutage virulentes Beispiel sind extrem ungesunde Lebensstile. Diese werden nicht mehr ohne Weiteres als individuell gelingende Lebensexperimente angesehen, selbst dort, wo Menschen offenbar mit dieser Lebensweise zufrieden sind. Trotz der genannten Gefahren liegt in der angestrebten inhaltlichen Kritik an den vermeintlich privaten Aspekten des menschlichen Lebens ein durchaus überzeugendes Grundanliegen: Üblicherweise wollen wir Menschen helfen, das jeweils für sie bestmögliche Leben zu erreichen. Zumindest dort, wo sie das Gute zu verfehlen scheinen, mag eine stärkere Formung von außen – bis hin zur Ausübung von Zwang – durchaus angemessen sein. Die grundlegende Schwierigkeit besteht allerdings in der Bestimmung der Form des gelingenden menschlichen Lebens, ohne die grundlegende Verschiedenheit der Menschen zu leugnen. Anders gesagt: Von welchem Standpunkt aus können wir sinnvoll Kritik an individuellen Lebensweisen leisten? In Bezug auf das genannte Beispiel wird schnell deutlich, dass Gesundheit eben kein überragender Wert ist in dem Sinne, dass er nicht von einer subjektiven Bewertung im Vergleich zu anderen Aspekten des Lebens relativiert werden könnte. Heißt das also in der Konsequenz letztendlich doch, sich jeglichen Urteils über das Gute für den Menschen zu enthalten? Mill verfolgt einen weiteren Aspekt der Individualität, der genau die gewünschte normative Begrenzung von Lebensstilen bereithält. Mit dem Ideal der Selbstentwicklung wird ein Rahmen festgesteckt, innerhalb dessen gelingende Lebensexperimente stattfinden. Für Mill gibt es durchaus abzulehnende Lebensstile, nämlich solche, welche die für die Selbstwahl und Selbstbestimmung notwendigen Fähigkeiten untergraben. Mill übernimmt hier eine an Immanuel Kant erinnernde Argumentation, indem er die Voraussetzungen der menschlichen Freiheit selbst thematisiert. Selbstentwicklung bedeutet Mill zufolge, für den

Enhancement. Welche Ziele hat die Selbstoptimierung?

Menschen wesentliche, sogenannte »höhere« Fähigkeiten auszubilden. Diese Überlegung wiederum bringt ihn nahe an Aristoteles und dessen Konzeption einer dem Menschen spezifischen Tätigkeit. Das Gute für den Menschen wird zwar erreicht durch die Verbesserung seiner selbst. Mill ist überzeugt, dass »Individualität und Entwicklung eins sind« (ebd.: 379). Gleichwohl muss ein genuin menschliches Leben angestrebt werden, was wiederum mit Begrenzungen der Individualität einhergeht.

4

Die Idee spezifisch menschlicher Fähigkeiten

Mills Ausführungen zur Individualität und zu den spezifisch menschlichen Fähigkeiten sind im Zusammenhang mit seinen werttheoretischen Überlegungen zu sehen, die er 1861 in seiner Schrift Utilitarismus veröffentlichte, einem Klassiker der Moralphilosophie. Auch wenn diese Publikation zwei Jahre nach der Freiheitsschrift erfolgte, so waren Mills Überlegungen zu den sogenannten »höheren Freuden« gleichwohl zum früheren Zeitpunkt bereits weitgehend ausgereift. Die wesentliche Überlegung seiner Theorie des Guten für den Menschen besagt, dass es menschliche Fähigkeiten gibt, die notwendigerweise zu einem gelingenden Leben dazu gehören, und die daher für die Idee der Selbstentwicklung eine zentrale Funktion besitzen. Anders als Aristoteles bestimmt Mill diese höheren Fähigkeiten allerdings nicht durch eine Theorie der eigentümlichen Leistung (ergon) des Menschen, also im Sinne einer essentialistischen Theorie des menschlichen Wesens, sondern er sieht sie inhaltlich bestimmt durch die Präferenzen von Personen, die mit den zu vergleichenden Freuden vertraut sind. Die letzte Quelle der Werthaftigkeit also, so könnte man sagen, liegt bei Mill immer in der menschlichen Einstellung. Mill zufolge gilt es anzuerkennen, dass es unterschiedliche Qualitäten von Freuden gibt – bessere bzw. wertvollere – und dass demnach ihr Wert nicht bloß durch quantitative Kriterien festgelegt sei, wie sie Jeremy Bentham zugrunde gelegt hatte – etwa Intensität und Dauer. Als Kriterium für die komparative Unterscheidung von höheren und

47

48

Thomas Schramme

niedrigeren Freuden führt Mill nun einen Test ein, der die Präferenzen derjenigen Menschen involviert, welche mit beiden der zu vergleichenden Freuden vertraut sind: »Wird von zwei Freuden die eine von allen, oder nahezu allen, welche beide durch eigene Erfahrung kennen, entschieden bevorzugt, und zwar ohne Rücksicht auf irgendein Gefühl moralischer Verpflichtung, sie vorziehen zu sollen, so ist diese die wünschenswertere Freude.« (Mill 2014b: 451). Nun sei aber festzustellen, so Mill, dass Menschen derjenigen Lebensweise den Vorzug geben würden, welche die höheren Fähigkeiten einschließt. Kein Mensch würde das Leben eines Schweins leben wollen, oder metaphernfrei gesprochen: Kein Mensch, der einmal in den Genuss der höheren Fähigkeiten gekommen ist, wäre freiwillig bereit, auf diese zu verzichten. Damit begegnet Mill einem zeitgenössischen Vorwurf, er würde einer »Schweinephilosophie« das Wort reden. Mill nimmt einen weiteren Vorwurf vorweg, wenn er hinzufügt, dass das Leben, welches die höheren Fähigkeiten mit umfasst, nicht unbedingt zu größerer Zufriedenheit führen müsse, da die höheren Fähigkeiten vergleichsweise schwerer zu erreichen und auszuüben seien (vgl. ebd.: 452f.). Das Glück des Menschen, so könnte man Mill paraphrasieren, ist prekärer als das des Schweins, weil das menschliche Glück durch seine höheren Ansprüche mehr benötigt, um erreicht zu werden. Das Schwein zu befriedigen, es gewissermaßen in der Ausübung seiner hedonistischen Potenziale zu sättigen, ist vergleichsweise einfach. Doch der Mensch will mehr und er wäre nicht glücklich, würde er wie ein Schwein leben; Glück und Zufriedenheit gelte es also zu differenzieren, da sie nicht dieselben Qualitäten des menschlichen Lebens bezeichnen. So kommt Mill zu seinem berühmten Ausspruch: »Es ist besser, ein nicht vollständig zufriedener Mensch zu sein, als ein restlos zufriedenes Schwein – besser, ein nicht vollständig zufriedener Sokrates als ein restlos zufriedener Narr«. (Ebd.: 453) Die Rede von höheren Fähigkeiten und der damit einhergehenden These, es gebe höhere und umgekehrt niedrigere Freuden, unterstellt einen

Enhancement. Welche Ziele hat die Selbstoptimierung?

potenziell elitären Ansatz. Dies wird insbesondere in dem Vergleich von Sokrates mit dem Narren deutlich. Denn was sind höhere Fähigkeiten und damit höhere Freuden? Es sind offensichtlich intellektuelle Fähigkeiten bzw. geistige Freuden ganz allgemein. Mill sagt das ausdrücklich und es liegt nahe, wie einige Interpreten es tatsächlich tun, dies als Seitenhieb auf Benthams Gleichsetzung der intellektuellen Freude an der Lektüre eines Gedichts mit der körperlichen Freude des Kegelspiels gleichzusetzen. Zugegeben, Mills Liste höherer Freuden umfasst an einer Textstelle neben den Freuden des Intellekts auch solche der Empfindung, der Vorstellungskraft sowie des sittlichen Gefühls (vgl. ebd.: 450). Doch es bleibt dabei: die »bloße Sinnlichkeit«, wie er sich ausdrückt, scheint den höheren Freuden untergeordnet. Mill wird entsprechend bisweilen als typisch viktorianischer Engländer beschrieben, der einem genusslosen, prüden Leben im wahrsten Sinne des Wortes ein Qualitätssiegel verpasse. Dass dieser Vorwurf verfehlt ist, ergibt sich allerdings schon daraus, dass Mill nirgendwo behauptet, man solle auf körperliche bzw. sinnliche Freuden generell verzichten. Mill will vielmehr zeigen, dass kein Mensch freiwillig auf die Ausübung intellektueller Fähigkeiten generell verzichten würde. Hier stehen gewissermaßen Existenzweisen zum Vergleich, nicht einzelne Freuden. Menschen würden auf die Ausübung ihrer intellektuellen und moralischen, eben ihrer höheren Fähigkeiten nicht verzichten wollen, denn sie bevorzugen diese gegenüber einfachen Freuden in einem isolierten, sozusagen kontextlosen Vergleich. Diese Aussage harmonisiert mit Mills Spekulationen bezüglich des Ursprungs dieser Einstellung: Er glaubt nämlich, dass ein Gefühl der Würde Menschen davon abhielte, das Leben eines Schweins führen zu wollen (vgl. ebd.: 452). Sich selbst zu entwickeln ist ein grundlegendes Bedürfnis des Menschen, aber um dieses Ziel zu erreichen, muss man nicht bestimmte Tätigkeiten vollziehen, sondern grundlegende menschliche Fähigkeiten ausbilden. Man kann Mills Gedanken nun folgendermaßen zusammenfassen: Es wäre für Menschen nicht vereinbar mit ihrer Idee eines gelingenden Lebens, wenn sie ihre Fähigkeit zur Selbstentwicklung nicht ausüben

49

50

Thomas Schramme

könnten. Es geht Mill allerdings nicht darum, in elitärer Manier Inhalte des menschlichen Glücks durch Expertentests herbeizuführen, sondern darum, die Minimalbedingungen eines gelingenden Lebens für Menschen in ihrer Verfasstheit als entwicklungsfähige und entwicklungswillige Wesen zu bestimmen. Auch diese elementaren Bestandteile eines menschenwürdigen Lebens sind letztlich bestimmt durch die Bewertungen der Menschen selbst. Daraus ergibt sich folgendes Bild: Für Mill sind Menschen sich selbst entwickelnde Wesen. Diese orientieren sich – in Bezug auf das nur sie betreffende Handeln – an ihren eigenen Präferenzen und an ihrer individuellen Vorstellung vom guten Leben. Allerdings gibt es Lebensweisen, die insofern als nicht gelingend angesehen werden können, als sie die höheren Fähigkeiten des Menschen verfehlen bzw. unterminieren. Diese höheren Fähigkeiten sind solche der Empfindung, der Vorstellungskraft sowie des sittlichen Gefühls. Sie können ebenfalls selbst wieder in Verbindung mit der Selbstbestimmung, dem Treffen von Wahlentscheidungen, gesehen werden. Insofern ist ein nicht gelingendes Leben eines, das nicht durch die Person selbst, also durch ihre eigenen Entscheidungen determiniert wird. Es bleibt hier das Unbehagen, das einige Kritiker Mills verspüren, nämlich ob diese eher formale, an zentralen menschlichen Fähigkeiten orientierte normative Aufladung des Begriffs der Selbstentwicklung ausreicht, oder ob nicht noch stärkere inhaltliche Vorgaben an ein gelingendes menschliches Leben gemacht werden müssen. Mill war offenbar der Meinung, dass Menschen, wo sie ihre höheren Fähigkeiten betätigen, sich also wirklich selbst bestimmen, sowie die entsprechende, an Angeboten für verschiedene Lebensweisen reichhaltige Umgebung genießen, im Großen und Ganzen das für sie Beste tun werden. Anders gesprochen und auf unser Beispiel des Dudes bezogen: In einer anständig eingerichteten Gesellschaft, die Menschen wirklich die Voraussetzungen gestattet, sich selbst zu entwickeln und zu optimieren, würde der Dude wohl nicht das Leben leben, das er tatsächlich lebt, da es ihm nicht ermöglicht, seine höheren Fähigkeiten voll zu entwickeln.

Enhancement. Welche Ziele hat die Selbstoptimierung?

5

Wie weit soll Selbstoptimierung gehen?

Gehen wir nun zum quantitativen Aspekt der Selbstoptimierung über: Wie weit sollen wir uns selbst entwickeln? Auch wenn wir, wie Mill, die Idee der Selbstentwicklung befürworten, müssen wir nicht unbedingt in einem quantitativen Sinne die bestmögliche Entwicklung unserer selbstgewählten Lebensweisen verfolgen. Mit Mills Beispiel gesprochen: Wir müssen nicht zu einem Sokrates werden, um unsere intellektuellen Fähigkeiten zu entwickeln. Eine gute Entwicklung von Fähigkeiten und Eigenschaften kann oft gut genug sein. Gleichwohl scheint es auch hier keine einfach zu begründende Grenze zu geben. Wenn eine Person unbedingt die beste in einem bestimmten Lebensbereich sein will, warum sollten wir das für schlecht halten? Immerhin rühmen wir die besten ihrer Profession oder Art, von Sokrates, über Mutter Theresa, Gertrude Stein oder Bruno Ganz, zu Martina Hingis. Ob sie nun die allerbesten in einem bestimmten Bereich waren bzw. sind, ist dabei nicht so wichtig – darüber lässt sich vortrefflich streiten. Gleichwohl, die Tatsache, dass sie nah an der Perfektion waren, lässt sie uns bewundern. In der bestmöglichen Entwicklung von einschlägigen Fähigkeiten selbst scheint demnach nichts Kritikwürdiges zu liegen. Nebenbei bemerkt scheint mir auch der häufig gemachte Einwand nicht besonders überzeugend, wonach bestimmte Leistungsfähigkeiten nicht vollständig selbst erarbeitet sind und sie daher wertlos seien. Viele Enhancements sind technisch vermittelt. Gerade im Sport verbessern leistungssteigernde Mittel und Ausrüstungsgegenstände die Leistungsfähigkeit. Auch wenn dies ein Problem der Fairness eines Wettbewerbs aufwirft, scheint mir die technisch optimierte Leistungsfähigkeit nicht weniger bewundernswert. Etwas anderes wäre es vielleicht, wenn eine bestimmte Form der Selbstoptimierung gar keine eigene Fähigkeit mehr darstellt, sondern eine rein technisch erreichte Leistung. Wir bewundern beispielsweise niemanden für seine vermeintlich exzellenten mathematischen Fähigkeiten, wenn er bloß auf einen versteckten Taschenrechner zugreift. In dem Hinweis auf Wettbewerbssituationen steckt ein wichtiges Problem des Enhancement, so wie es sich heutzutage präsentiert. Für

51

52

Thomas Schramme

viele Menschen ist das Leben selbst zu einer Art Wettbewerb geworden, so dass Selbstoptimierung nicht etwas selbstgewähltes, sondern etwas durch äußere Gegebenheiten Erzwungenes wird. Will man heutzutage beispielsweise auf dem Jobmarkt mithalten, dann muss man zu den besten Bewerbern gehören. Um dazu zu gehören, scheinen bestimmte Fähigkeiten unerlässlich und diese müssen in bestmöglicher Weise ausgebildet sein. Auf diese Weise wird eine Art selbstverbesserndes Aufrüsten genährt. Damit werden Menschen nicht nur zu Lebensexperimenten getrieben, die sie nicht selbst gewählt haben, sondern die Pluralität an Lebensweisen wird eingeschränkt. Vereinfacht gesagt: Wo alle danach streben, die derzeit gesellschaftlich nachgefragten Fähigkeiten zu verbessern, da bleibt kein Raum für abseitige und exzentrische Lebensexperimente. Das selbstoptimierende Wettrüsten zeitigt einen weiteren Effekt: Die Fokussierung der Aufmerksamkeit auf bestimmte Bereiche der Optimierung führt zu einer Verarmung des individuellen Lebens. Das Phänomen ist bekannt von Beispielen hervorragender, aber einseitiger Talente. Einstein war ein genialer Physiker, aber kein besonders guter Fußballer, Koch oder Filmexperte. Bei vielen Selbstoptimierern führt dies zu keinen gravierenden Problemen, auch wenn sie bisweilen für andere schwer erträglich sein können. Doch die verbreitete einseitige Fokussierung der Lebensexperimente auf wettbewerbsorientierte Lebensweisen in Verbindung mit dem Selbstverbesserungsimperativ führt zu einseitigen und scheiternden Lebensweisen. Nicht jeder kann zu den besten in einem bestimmten Bereich gehören. Wo keine alternativen Lebensexperimente mehr möglich sind, müssen viele in ihrem Bestreben nach Selbstentwicklung scheitern. Mill hatte diese Entwicklung noch durch Sitten und Gebräuche vermittelt gesehen; wir sind heute in einem weitgehend selbsterzeugten Hamsterrad gefangen. Selbstoptimierung wird hier zum Paradoxon, denn in einem vollständig kompetitiven System wird Individualität und damit das eigene Selbst beseitigt. Menschen interessieren sich gar nicht mehr für das, was sie da optimieren. Selbstoptimierung ist hier nur noch die Perfektionierung eines Objekts, mit dem man identisch ist bzw. das man selbst ist, mit dem man sich aber nicht identifiziert.

Enhancement. Welche Ziele hat die Selbstoptimierung?

Somit ergibt sich ein ganz neuer, besonderer Reiz der Figur des Dudes, die ich eingangs als ein vermeintlich scheiterndes Lebensexperiment eingeführt hatte. Der Dude hält unserer Gesellschaft den Spiegel vor; er macht nicht mit bei dem Streben nach Reichtum um des Reichtums Willen. Die Figur ist, ähnlich wie bei Mill der Exzentriker, ein Vehikel der Gesellschaftskritik. Es ist anzunehmen, dass diese Lesart von den Autoren des Films The Big Lebowski, von denen einer philosophisch ausgebildet ist, beabsichtigt war. Selbstoptimierung ist demnach nur innerhalb eines pluralistischen Systems von Lebensexperimenten sinnvoll. Nicht jeder kann der beste in einem bestimmten Bereich sein, aber jeder kann der beste in seinem eigenen Bereich sein. Dazu ist es wichtig, einen weiteren Aspekt der quantitativen Lesart eines Optimums zu beachten. Selbstoptimierung kann auf ein absolutes Optimum zielen, gewissermaßen auf den niemals erreichbaren Endpunkt einer unbeschränkten Skala, oder auf das relative Optimum einer bestimmten Person. Sollte ich persönlich beispielsweise danach streben, ein so guter Philosoph wie Sokrates zu werden, dann müsste ich mir – wie es eine Kollegin einmal treffenderweise formuliert hat – ein zweites Gehirn wachsen lassen. Aber ich kann möglicherweise der bestmögliche Philosoph werden, der in mir steckt. Während das erste kein besonders sinnvolles Ziel zu sein scheint, ist das zweite Ziel, die bestmögliche Ausformung seiner je eigenen Fähigkeiten, dem Menschen naheliegend.

6

Zusammenfassung

Wir können die Ergebnisse des Beitrags folgendermaßen zusammenfassen: Enhancement, die Verbesserung – möglicherweise sogar Optimierung – des eigenen Selbst, ist ein menschliches Grundanliegen und letztlich ein wesentliches Element der Betätigung menschlicher Freiheit. So verstanden können wir Enhancement nicht sinnvollerweise ablehnen. Gleichwohl habe ich argumentiert, dass es Grenzen der gelingenden Selbstentwicklung gibt. Diese habe ich mit Bezug auf John Stuart Mill in grundlegenden, genuin menschlichen Fähigkeiten be-

53

54

Thomas Schramme

stimmt. Wo durch Lebensweisen die Ausübung dieser grundlegenden Fähigkeiten verhindert wird, da kann von keiner gelingenden Weise der Selbstentwicklung gesprochen werden. Zuletzt habe ich mögliche Grenzen des Ausmaßes der Selbstoptimierung diskutiert, also quantitative Gesichtspunkte. Hier scheinen keine klaren Einschränkungen zu gelten. Die größtmögliche Verbesserung von Aspekten des eigenen Lebens geht meist mit einer enorm reduzierten Lebensweise einher. Aber diese Tatsache macht die gewählten Lebensweisen nicht falsch oder schlecht. Hingegen scheint es problematisch, wenn Optimierung nach gesellschaftlich vorgegebenen Vorgaben und im Vergleich zu anderen Menschen vollzogen wird. Insbesondere die heutzutage herrschende Ausrichtung auf vermeintliche und reale kompetitive Vorteile verhindert letztlich Individualität. Sie führt zu einer von äußeren Gesichtspunkten getriebenen Perfektionierung seiner selbst. So schaffen wir durch die vermeintliche Verbesserung unseres Lebens letztlich eine Unmenge an scheiternden Existenzen. Mill hatte die richtigen Gegenbegriffe vor Augen, um gegen solche gesellschaftlichen Zurichtungen vorzugehen. Es sind die Begriffe der Individualität und der individuellen Freiheit. Diese Begriffe und die damit einhergehenden gesellschaftlichen Rahmenbedingungen gilt es zu verteidigen, um allen Menschen ein bestmögliches Leben zu garantieren.

Literatur Feinberg, Joel (1980/1992): »Absurd Self-Fulfillment«, in: Ders.: Freedom and Fullfillment. Philosophical Essays., Princeton: Princeton University Press, S. 297-330. Mill, John Stuart (1859/2014a): »Über die Freiheit«, in: Ders.: Ausgewählte Werke. Bd. 3.1, Hamburg: Murmann Verlag. — (1861/2014b): »Utilitarismus«, in: Ders.: Ausgewählte Werke. Bd. 3.1, Hamburg: Murmann Verlag.

Enhancement. Welche Ziele hat die Selbstoptimierung?

Scheller, Jörg (2019): »Werde immer besser! Selbstoptimierung hat in westlichen Wohlstandsgesellschaften einen schlechten Beiklang – zu Unrecht«, in: NZZ vom 6. Februar 2019, S. 35. Schramme, Thomas (2015a): »Das Ideal der Individualität und seine Begründung«, in: Michael Schefczyk/Thomas Schramme (Hg.): Klassiker Auslegen: John Stuart Mill. Über die Freiheit, Berlin: Akademie Verlag, S. 55-73. — (2015b): »Die Formung des menschlichen Lebens: Nachdenken über Mills Idee der Lebensexperimente«, in: Polar 18, S. 51-55.

55

Serviceroboter aus Sicht der Ethik Oliver Bendel

1

Einleitung

Roboter waren lange Zeit Maschinen, die nur wenige Menschen zu Gesicht bekamen. Sie waren eingesperrt in Käfigen in Fabriken und wurden verwendet als Werkzeuge für bestimmte Aufgaben, sei es zur Bombenentschärfung oder zur Umfelderkundung (vgl. Bendel 2019c). Industrie- und erst recht Weltraum- oder Kampfroboter sind immer noch vielen Menschen nur von Abbildungen bekannt. Anders verhält es sich mit Servicerobotern. Saugroboter sind weit verbreitet, ebenso Mähroboter für Rasenflächen und Poolroboter für Becken aller Art. Sie sind nicht an speziellen Orten im Einsatz, sondern an gewöhnlichen, allerdings an mehr oder weniger klar beschränkten und eingegrenzten, in »halboffenen« sowie in »geschlossenen« Welten (die anders als Computerspiele nicht wirklich geschlossen, sondern durchaus von Zufällen durchdrungen und Personen belebt sind). Eine andere Sorte von Servicerobotern macht sich nun auf, nicht nur einen hohen Bekanntheitsgrad, sondern auch eine hohe Beweglichkeit und Verbreitung zu erreichen. Von solchen Servicerobotern, die den gemeinsamen und öffentlichen Raum erobern, soll hier die Rede sein, und es sollen – im Wesentlichen Bendel (2017) folgend – soziale und moralische Fragen gestellt sowie Lösungen für einzelne Probleme skizziert werden. Denn bestimmte Probleme werden unmittelbar deutlich. Die Serviceroboter, um die es geht, sind in mehr oder weniger komplexen Umgebungen unterwegs und treffen auf viele Objekte, die sie – meist als teilautonome oder autonome Maschinen – ständig

58

Oliver Bendel

einschätzen und bewerten müssen, und sie begegnen Menschen und Tieren und müssen Urteile fällen, womöglich über Leben und Tod. Unfälle, Verletzungen und Missverständnisse sind sozusagen vorprogrammiert. Einige Probleme können von der Informationsethik und von Soziologie und Psychologie adressiert, einige Lösungen von der Maschinenethik, die Ethik, Robotik und Künstliche Intelligenz verbindet, angeboten werden. Es mögen sowohl Handreichungen für Robotiker als auch für gesetzgeberische und politische Instanzen resultieren. Fokussiert wird auf Roboter, mit denen wir uns Gehsteige, Wege aller Art, für Passanten gedachte Plätze und öffentliche Räume in Gebäuden und auf Geländen teilen. Damit fallen beispielsweise Drohnen und selbstständig fahrende Autos weg. Mit ihnen werden z.T. anders gelagerte Probleme aufgeworfen, die bereits vielfach und vielfältig abgehandelt wurden (vgl. Bendel 2019a). Es fallen zudem Roboter heraus, die im Haushalt oder im Garten tätig sind, wie die genannten Saug- und Mähroboter (solche in Bibliotheken, Golfanlagen, Parks etc., die man noch einbeziehen könnte, werden außer Acht gelassen), wie Fenster- und Grillputzroboter, und wie Pflege- und Therapieroboter, die in Krankenhäusern und Pflegeeinrichtungen eingesetzt werden (vgl. Bendel 2015b). Weltraum- und Kampfroboter sind wiederum in zu spezifischen Situationen präsent, als dass sie im vorliegenden Kontext interessant wären. Es geht also um bestimmte teilautonome oder autonome Serviceroboter, die in halboffenen und offenen Welten oder in gemeinsamen und öffentlichen Räumen anzutreffen sind.

2

Robotik und Künstliche Intelligenz

Die Robotik oder Robotertechnik beschäftigt sich mit dem Entwurf, der Gestaltung, der Steuerung, der Produktion und dem Betrieb von Robotern, z.B. von Industrie- oder Servicerobotern (vgl. Bendel 2019c). Bei anthropomorphen oder humanoiden Robotern geht es auch um die Herstellung von Köpfen, Gliedmaßen und Haut, um Mimik und Gestik sowie um natürlichsprachliche Fähigkeiten. Im Fokus sind Hardwareroboter mit Hard- und Software. Reine Softwareroboter

Serviceroboter aus Sicht der Ethik

(Bots) werden in erster Linie in der Informatik entwickelt, Nanoroboter in der Zukunft in der Nanotechnologie. Auf die soziale Robotik wird gesondert eingegangen. Der Begriff »Künstliche Intelligenz« (»KI«; engl. »artificial intelligence«, kurz »AI«) steht für einen eigenen wissenschaftlichen Bereich der Informatik, der sich mit dem menschlichen Denk-, Entscheidungsund Problemlösungsverhalten beschäftigt, um dieses durch computergestützte Verfahren ab- und nachbilden zu können (vgl. Bendel 2019c). Zudem kann man das tierische Denken zum Vorbild nehmen – oder eine ganz andere Vorstellung von Intelligenz. Machine Learning ist ein Teil der Künstlichen Intelligenz und strebt das Selbstlernen der Systeme an. Die Intelligenz von Maschinen selbst kann ebenfalls mit dem Begriff gemeint sein, also die künstliche Intelligenz als Gegenstand und Ergebnis. Diese wird immer mehr mit Robotern verbunden, nicht zuletzt mit Servicerobotern.

3

Die Bereichsethiken und die Maschinenethik

Die Ethik ist eine jahrtausendealte Disziplin der Philosophie, gegründet von Aristoteles, erweitert und geprägt von Immanuel Kant, Arthur Schopenhauer und Jeremy Bentham; sie wendet wissenschaftliche Methoden zur Begründung und Beschreibung an. Ihr Gegenstand ist die Moral, also das Setting aus allgemeinen Handlungsregeln und Wertmaßstäben bzw. persönlichen Überzeugungen in Bezug auf das, was gut und böse ist. Die angewandte Ethik bezieht sich auf praktische Fragestellungen und abgrenzbare Themengebiete und bildet die Bereichs- oder Spezialethiken aus. Im Folgenden werden diese, soweit relevant, kurz dargestellt, und es werden die Maschinenethik und andere relevante Disziplinen skizziert (vgl. Bendel 2019b). Die Informationsethik hat die Moral (in) der Informationsgesellschaft zum Gegenstand (vgl. Bendel 2019b). Sie untersucht, wie wir uns, Informations- und Kommunikationstechnologien (IKT), Informationssysteme, digitale Medien, Roboter und KI-Systeme anbietend und

59

60

Oliver Bendel

nutzend, in moralischer Hinsicht verhalten bzw. verhalten sollen (vgl. Bendel 2019b). Aus einer bestimmten Perspektive ist sie, die Computer-, Netz- und Neue-Medien-Ethik umfasst, im Zentrum der Spezialethiken, denn diese müssen sich zwangsläufig mit ihr beschäftigen, sind doch alle Anwendungsbereiche von IKT und Informationssystemen durchdrungen. Die Technikethik bezieht sich auf moralische Fragen des Technikund Technologieeinsatzes. Es kann sich um die Technik von Gebäuden, Fahrzeugen oder Waffen gleichermaßen drehen wie um Nanotechnologie oder Kernenergie (vgl. Bendel 2019b). In der Informationsgesellschaft, in der immer mehr Technologien Computertechnologien beinhalten, ist die Technikethik besonders eng mit der Informationsethik verbunden bzw. löst sich teilweise in dieser auf. Die Technikfolgenabschätzung nutzt die ethische Kompetenz der Technikethik (wie der Informations- und Wirtschaftsethik). Die Maschinenethik hat die Moral von Maschinen zum Gegenstand, vor allem von (teil-)autonomen Systemen wie intelligenten Softwareagenten, bestimmten Robotern, bestimmten Drohnen und selbstständig fahrenden Autos (vgl. Anderson/Anderson 2001; Wallach/Allen 2009; Bendel 2012b). Sie kann als Pendant zur Menschenethik angesehen werden und ist insofern keine Bereichsethik, sondern eine neue »Hauptethik«. Der Begriff der Moral wird hier durchaus kontrovers diskutiert. Es darf jedoch festgehalten werden, dass teilautonome und autonome Systeme immer mehr Entscheidungen mit moralischer Relevanz treffen müssen und diese auch explizit moralisch begründet werden können, etwa in annotierten Entscheidungsbäumen (vgl. Bendel 2015a). Zudem ist darauf zu verweisen, dass »maschinelle Moral« (wie »moralische Maschine«) ein Terminus technicus ist. Es werden einfach bestimmte Aspekte menschlicher Moral nachgebildet, so wie die KI bestimmte Aspekte menschlicher (oder tierischer) Intelligenz berücksichtigt (»künstliche Intelligenz« ist ebenso ein Terminus technicus, weder falsch noch irreführend, sondern vielfach geklärt und abgegrenzt). Wenn Roboterethik nicht gerade als Teil der Maschinenethik aufgefasst wird, kann sie Informations- und Technikethik zugeordnet werden.

Serviceroboter aus Sicht der Ethik

Die soziale Robotik arbeitet mit Philosophie, Psychologie und Soziologie zusammen und beschäftigt sich mit (teil-)autonomen Maschinen, die in Befolgung sozialer Regeln mit Menschen interagieren und kommunizieren und zuweilen humanoid bzw. anthropomorph realisiert und mobil sind (vgl. Bendel 2019b, 2019c). Manche Experten lassen in diesem Zusammenhang nur physisch vorhandene Roboter gelten, andere ebenso virtuell umgesetzte, Crawler, Chatbots, Voicebots und Social Bots. Soziale Roboter erkennen manchmal Gefühle und täuschen oft Gefühle vor, und man spricht von »emotionaler und sozialer Robotik«. Wenn die Maschinen zu moralisch adäquaten Entscheidungen fähig sein sollen, ist wiederum die Maschinenethik gefragt. Sozialwissenschaften wie Soziologie und Psychologie untersuchen das gesellschaftliche Zusammenleben der Menschen und das individuelle Betroffensein theoriegeleitet und empirisch. Auch die Entstehung oder Ausübung von Moral kann ein Thema sein. Die Soziologie hat die Voraussetzungen, Abläufe und Folgen des Zusammenlebens von Menschen als Subjekten und Objekten von Handlungen zum Gegenstand, die Psychologie das Erleben und Verhalten des Menschen im Verlauf seines Lebens. Dabei ist durchaus von Bedeutung, wie Roboter, auch Serviceroboter, in unser Leben treten und dieses im Positiven wie im Negativen beeinflussen.

4

Beispiele für Serviceroboter

Serviceroboter sind für Dienstleistung, Unterhaltung und Zuwendung zuständig, sie holen Geschirr und Besteck, Nahrungsmittel und Medikamente, überwachen die Umgebung ihrer Besitzer oder den Zustand von Patienten und halten ihr Umfeld im gewünschten Zustand. Wenn sie mit Kameras, Mikrofonen und Sensoren ausgestattet sind, wenn sie über Beobachtungs-, Beurteilungs- und Erinnerungsvermögen verfügen, werden sie nach und nach zu allwissenden Begleitern. Sie wissen, was ihr Besitzer tut, was er sagt, wie er sich fühlt, was er trägt, was in seiner Umwelt geschieht, und sie wissen, was die Passanten in den Städten und Dörfern umtreibt, und melden es womöglich an ihre Be-

61

62

Oliver Bendel

treiber oder an Geräte und Computer aller Art, etwa innerhalb des Internets der Dinge. So wie die Industrieroboter immer mehr ihre Gefängnisse und Behausungen verlassen, so wie sie immer mobiler und universeller geraten, und so wie sie immer mehr an den Menschen heranrücken, so befreien sich die Serviceroboter immer mehr von inneren und äußeren Zwängen und treten in eine Koexistenz mit uns ein. Wenn man die Literatur studiert und mit offenen Augen durch die Welt geht – durch den öffentlichen und halböffentlichen Raum –, trifft man immer häufiger auf Serviceroboter, die man wie folgt unterteilen kann: • • • •

Sicherheits- und Überwachungsroboter Transport- und Lieferroboter Informations- und Navigationsroboter Unterhaltungs- und Spielzeugroboter

Daneben gibt es beispielsweise die erwähnten Pflege- und Therapieroboter sowie Kampfroboter (wenn man diese zu den Servicerobotern zählen will) oder die Haushalts- und Gartenroboter des (halb-)öffentlichen Raums, die hier wie die des privaten Raums nicht weiter thematisiert werden. Manche der Typen sind als Prototypen unterwegs, andere im ständigen und standardisierten Einsatz. Dass man meist mehrere Namen für eine Ausrichtung hat, ist kein Zufall; mit einer bestimmten Spezifizierung sind oft mehrere Aufgaben möglich, und so liegen etwa Beförderung und Lieferung eng zusammen. Im Folgenden werden die Typen kurz in Bezug auf ihre Zwecke und Funktionen skizziert, und es werden beispielhaft Produkte genannt. Sicherheits- und Überwachungsroboter verbreiten sich in den Stadtteilen, in den Shopping Malls, in den Parkgaragen und auf den Firmengeländen, als rollende und fliegende Maschinen (vgl. Bendel 2016). Sie sollen für die Sicherheit der Unternehmen, Besucher und Kunden sorgen. Der K5 von Knightscope beispielsweise ist in der San Francisco Bay Area anzutreffen. Er rollt die ganze Zeit durch die Gegend und meldet Auffälliges und Verdächtiges an eine Zentrale. Diese bewertet die Situation und ergreift gegebenenfalls Maßnahmen.

Serviceroboter aus Sicht der Ethik

Der Sicherheits- und Überwachungsroboter ist in seiner klassischen Variante kegelförmig, 1,20 Meter hoch und über 100 Kilo schwer. Die vierte Generation aus dem Jahre 2019 kommt etwas unförmiger daher, kann dafür aber unebenes Gelände bewältigen. Das chinesische Pendant, der AnBot, verfügt über einen Elektroschocker, der allerdings manuell ausgelöst werden muss. Auch mit humanoiden Robotern wird experimentiert, etwa im arabischen Raum (vgl. Marwan 2017). Ebenfalls als Überwachungsroboter wird Sen.se (Mother) bezeichnet, eigentlich eher ein kleinformatiges Überwachungsgerät, das zudem vor allem für den häuslichen Einsatz vorgesehen ist, oder der 7links Home-Security-Rover HSR-1, der durchaus als Roboter gelten kann. Transport- und Lieferroboter befördern Gegenstände aller Art, etwa Pakete (»Paketroboter«) und Einkäufe, von einem Akteur (oft der Anbieter oder Vermittler) zum anderen (oft der Kunde) oder begleiten und entlasten Fußgänger und Fahrradfahrer. Die Schweizerische Post erprobte ab 2016 in Bern, wie Hermes in Hamburg, kleine Transportroboter von Starship Technologies (vgl. Maron 2016). Diese fahren auf ihren sechs Rädern, so war es der Plan, zu einem Kunden, der mit Hilfe eines Codes, den er per SMS erhalten hat, die Klappe öffnet und das Paket entnimmt. Sie sind recht klein und leicht, einen halben Meter hoch und ca. 20 Kilo schwer. Die Schweizerische Post hat die Tests, für die in ihren Augen keine sinnvolle gesetzliche Grundlage geschaffen wurde, inzwischen ausgesetzt (vgl. Hudec/Baumgartner 2019). Transportroboter finden sich seit 2019 auch in einem Vorort von Seattle und in Irvine in Kalifornien, betrieben von Amazon. Sie werden, wie es in der Schweiz der Fall war, von einem Operator begleitet. A.L.O. ist ein weiteres Beispiel, ein Serviceroboter, der in einem Hotel in Kalifornien den Gästen Bestellungen aufs Zimmer bringt. Er, der zuweilen als »Botlr« bezeichnet wird, ist 91 Zentimeter groß und 45 Kilo schwer (vgl. Hanser 2016). Gita von Piaggio ist ein »self-balancing two-wheeled cargo robot«, der seinem Besitzer strikt folgt oder seiner eigenen Wege geht, also ein selbstrollender Koffer oder ein Bote im Auftrag seines Herrn. Er ist 66 cm hoch, kann bis zu 18 kg laden und erreicht bis zu 35 km/h (vgl. Coxworth 2017).

63

64

Oliver Bendel

Informations- und Navigationsroboter fahren oder gehen über Parks und Gelände, durch Museen, Messen und Verkaufsräume und informieren Besucher und Kunden über Veranstaltungen und Möglichkeiten der Besichtigung und führen sie an die gewünschte Stelle. Nicht zuletzt werden sie in Hotels eingesetzt, etwa an der Rezeption (vgl. Lill 2015). Sie verfügen häufig über Displays und spezielle Touchscreens und über natürlichsprachliche Fähigkeiten. Entsprechend unterbreiten sie textuelle oder visuelle Informationen oder unterhalten sich mit den Benutzern. Zudem verwenden sie Karten und Technologien wie GPS. Ein Beispiel ist Obelix, der in Städten als Fremdenführer fungieren soll, ein Prototyp der Universität Freiburg, der ETH Zürich und anderer Forschungs- und Entwicklungseinrichtungen, so groß wie ein Jugendlicher (vgl. Burgard/Stachniss 2013). Spezielle Geräte sind die sogenannten Beam. Sie rollen allerdings nicht autonom umher, sondern ferngesteuert. Sie sind fast so groß wie erwachsene Menschen. Präsentationsgeräte dieser Art können u.a. mit Lidar ausgeliefert werden. Ein anderes Modell ist Care-O-bot von Fraunhofer (150 Kilo, 158 Zentimeter laut Datenblatt), der nicht nur in Pflegeeinrichtungen eingesetzt wird, sondern z.B. auch – unter Verlust seiner Arme und unter dem Namen Paul – in Einkaufszentren (vgl. Koch 2017). Unterhaltungs- und Spielzeugroboter dienen der Unterhaltung und Zerstreuung von Benutzern, von Kindern und Jugendlichen wie von Erwachsenen. Auch zum Lernen kann man manche von ihnen verwenden. Sie tanzen, singen, spielen Musik, erlauben ihre Konstruktion und Dekonstruktion etc. Manche sind menschen-, andere tierähnlich. Einige sind handgroß, andere haben die Dimensionen von Katzen und Hunden, denen sie nachgebildet sein können, wieder andere von Kindern und Jugendlichen. WowWee und Splash Toys bieten über OnlineHändler elektronische Spielzeughunde an. Cozmo von Anki – die Firma musste 2019 aufgeben (vgl. Heater 2019) – sieht aus wie ein Raupenfahrzeug, hat allerdings ein virtuelles Gesicht in einem physischen Kopf und kann Emotionen zeigen, nicht zuletzt mit seinem Doppelarm, mit dem er aufgeregt oder wütend auf den Boden haut, wenn er nicht gerade Würfel aufnimmt und stapelt. Die LEGO-Roboter (LEGO MINDSTORMS) nehmen je nach Kreativität der Benutzer ganz unter-

Serviceroboter aus Sicht der Ethik

schiedliche Gestalt an. Nao von Aldebaran bzw. SoftBank kann recht universell eingesetzt werden, ebenso Pepper aus dem gleichen Haus, wobei dieser explizit als emotionaler Roboter vermarktet wird, der Gefühle erkennt und zeigt (aber selbstverständlich nicht hat). Roboter dieser Art verlassen selten eine Wohnung oder ein Haus. Da sie teilweise – wie die zuletzt genannten Modelle – recht teuer sind, sind sie durchaus in gemeinschaftlich genutzten Bereichen im Einsatz (Pepper hat gar, allerdings in erster Linie als Informationsroboter, seinen Siegeszug in Einkaufszentren angetreten), häufig auch in Forschungseinrichtungen.

5

Problembereiche von Servicerobotern

Serviceroboter, die sich unter uns mischen, die mit uns zusammenleben, sich mit uns die Wege, Zonen und Plätze teilen und in unseren Gebäuden sind, haben Chancen und Risiken, und einige davon beziehen sich direkt auf uns, unser leibliches Wohl, unsere körperliche Unversehrtheit, unser Weiterleben, womit schon moralische und soziale Aspekte angesprochen sind. Im Folgenden wird auf Probleme fokussiert, und es werden Ansätze zu ihrer Lösung vorgestellt, aber auch offenbar nicht bewältigbare bzw. unverrückbare Grenzen aufgezeigt.

5.1

Kollisionen und Stürze

Die meisten der genannten Serviceroboter variieren in der Größe zwischen Tieren und Menschen. Der Paketroboter von Starship Technologies ist so groß wie ein kleinerer Hund. Wenn er sich auf den Gehsteigen von Städten bewegt, was in der Absicht der meisten Betreiber liegt, dann wird er unweigerlich zur Stolperfalle. Dort befinden sich nämlich Fußgänger, zudem Skater, Roller- und Fahrradfahrer. Wenn ein Roboter dieser Art um die Ecke kommt oder einfach nur übersehen wird, können schwere Stürze die Folge sein. Damit ist die körperliche Unversehrtheit von Menschen gefährdet, insgesamt ein Thema der Ethik. Der Roboter selbst kann ebenfalls in Mitleidenschaft gezogen werden,

65

66

Oliver Bendel

wodurch ein wirtschaftlicher Schaden entstehen kann. Hier wie dort stellen sich Haftungsfragen. Bei größeren Robotern wie dem K5 oder dem AnBot kann es zu Kollisionen kommen. Tatsächlich hat sich in der Shopping Mall in Stanford 2016 ein kleinerer Unfall ereignet, bei dem ein Junge blaue Flecken davongetragen hat (vgl. Bendel 2016). K5 und AnBot sind nicht nur relativ groß, sondern auch relativ schwer, was für den in einen Zusammenprall involvierten Menschen nachteilig sein kann. Zudem bewegen sie sich mit nicht geringer Geschwindigkeit, sodass gegebenenfalls zwei bewegte Körper aufeinandertreffen. Neben den Flächen der Roboter können exponierte Teile wie Knöpfe und Instrumente Verletzungen verursachen. Wiederum ist die Ethik in Bezug auf die moralischen Aspekte dieser Folgen gefragt. Die Lösungsmöglichkeiten liegen auf verschiedenen Ebenen. Zunächst kann man sich am Bau von motorisierten Fahrzeugen orientieren. Diese können i.d.R. durch Licht- und Tonsignale auf sich aufmerksam machen, etwa mittels Lichthupe und Hupe. Die Aktivierung bei den genannten Modellen müsste automatisiert werden. Auf Gehsteigen und öffentlichen Plätzen tritt das Problem auf, dass die Signale u.U. sehr häufig einzusetzen wären, was einerseits zu einer Gewöhnung führen, andererseits eine Belästigung darstellen könnte, vor allem wenn man mehrere Roboter zugleich sieht und hört. Zudem könnten sich Haus- und Wildtiere erschrecken und die Bereiche meiden oder im Affekt wegrennen und Schaden anrichten. Bei Sicherheits- und Überwachungsrobotern ist ein Signal nicht immer die erste Wahl, weil eine informierte Zentrale womöglich einen Vorgang beobachten will, ohne die Aufmerksamkeit auf den Roboter zu lenken. Man könnte den Roboter weiter dazu zwingen, sich sehr langsam zu bewegen, mit einer Art Tempomat oder einem Bremssystem, was ihn allerdings als Stolperfalle nicht beseitigt und keinesfalls das Phänomen rennender und fahrender Menschen aus der Welt schafft. Zudem ist das Zusammenspiel von Sensoren – Kameras, Radar, Lidar, Systemen mit Ultraschall und Infrarot etc. – und Algorithmen so zu gestalten, dass ein Stoppen oder Ausweichen möglichst früh und zielgerichtet erfolgt. Insbesondere beim Ausweichen ergibt sich freilich die Gefahr neuer Kol-

Serviceroboter aus Sicht der Ethik

lisionen. Nicht zuletzt könnte man sich an Ansätzen aus der sozialen Robotik orientieren, etwa die Hülle des Roboters weich gestalten oder ihn gefährliche Instrumente und Teile bei Bedarf zurückziehen lassen. Neben solchen technischen und gestalterischen Ansätzen, die von der Maschine selbst ausgehen bzw. mit ihr zusammenhängen, von und mit ihrem Verhalten und ihrer Beschaffenheit, sind personelle, organisatorische und raumplanerische Maßnahmen vonnöten. Der Roboter kann streckenweise ferngesteuert werden – dies ist beim Paketroboter von manchen Unternehmen vorgesehen, etwa beim Überqueren einer Straße (vgl. Maron 2016) –, und man kann ihn durch wenig belebte Bereiche navigieren, was wiederum von der Uhrzeit und von Informationen zu Veranstaltungen abhängig gemacht werden kann. Die Informationsethik schließlich kann mit ihrer diskursiven Methode, präzisiert von Kuhlen (2004), die unterschiedlichen Interessengruppen zusammenbringen (in Zukunft vielleicht mitsamt den Robotern) und Intentionen und Konflikte offenlegen – ob sich damit weniger Kollisionen und Stürze ereignen, sei dahingestellt.

5.2

Teilen des Lebensraums

Die Serviceroboter teilen sich mit uns, wie schon deutlich wurde, den Lebensraum. Viele Städte sind heute schon sehr komplex, und Fußgänger, Fahrrad- und Autofahrer sowie Tiere müssen ständig etliche bewegte und unbewegte Objekte berücksichtigen und einschätzen. Die Roboter erhöhen diese Komplexität. Wir müssen ihnen ausweichen bzw. sie uns – dies wurde bereits angesprochen –, sie machen die Wege und Plätze voller, die Durchgänge enger. Mit anderen Worten: Unser Lebensraum schwindet weiter, wird weiter eingeschränkt, gefüllt mit Artefakten, die wir schaffen, und je mehr es von diesen gibt, desto enger wird es für uns alle. Nicht nur die Orte sind von Bedeutung, sondern auch die Ressourcen. Roboter sind angewiesen auf Strom, der häufig von Atom- und Kohlekraftwerken erzeugt wird. Sie benötigen diesen Strom direkt, wir indirekt, und da wir alle den Strom zur gleichen Zeit verbrauchen, stehen wir in Konkurrenz zueinander. Alternative und autarke Energiever-

67

68

Oliver Bendel

sorgungen sind eher selten. Der Energetically Autonomous Tactical Robot (EATR), ein prototypischer Kampfroboter, nimmt organische Materialien zu sich, was für Kontroversen gesorgt hat (vgl. Bendel 2012a). Davon abgesehen werden die Roboter aus bestimmten Materialien und Stoffen produziert, wodurch Ressourcen verbraucht werden, wobei dies eher eine ökologische und ökonomische und kaum eine Rolle für den konkreten Einsatz spielt. Es ist schwierig, die Zunahme der Anzahl und des Raum- und Energiebedarfs der Roboter zu kompensieren. Ein Ansatz wäre, sie kleiner und leichter zu machen. Allerdings müssen Serviceroboter aus unterschiedlichen Gründen in vielen Fällen eine gewisse Ausdehnung und ein gewisses Gewicht oder eine gewisse Stabilität haben. Das liegt einerseits an ihren Aufgaben, etwa dem Transportieren von Lebensmitteln und Paketen, andererseits daran, dass sie sich als Artefakte selbst durch Artefakte (wie Straßen und Gebäude) bewegen, die wiederum den Menschen (und allenfalls seine Haus- und Nutztiere) als Maßstab haben. In dieser Hinsicht ist weder ein winziger noch ein riesiger Roboter sinnvoll. Ein anderer Ansatz wäre, Wege zu überdachen und überhaupt in den Städten neue Areale zu schaffen und so Maschinen und Menschen, wo es sinnvoll ist, ein Stück weit zu separieren. Es wurden bereits Straßen mit Straßen überdacht, wobei dies sehr teuer und ressourcenintensiv ist. Solche Doppelspurigkeiten im doppelten Sinne ziehen eine neue Komplexität nach sich und neben der Erweiterung eine Beschränkung von Möglichkeiten. Eine Lösung in Bezug auf die Ressourcen ist, die Roboter (oder die Stationen, an denen sie sich aufladen) mit einer autarken, nachhaltigen, umweltfreundlichen Stromversorgung, etwa mit Solarzellen, auszustatten. Ein Roboter mit integrierter Stromversorgung hat auch den Vorteil, dass er praktisch nie ausfällt, was für Sicherheits- und Überwachungsroboter ebenso wie für Paketroboter von erheblicher Bedeutung ist. Sicherheits- und Überwachungsroboter müssen, wenn sie effektiv sein sollen, in mehreren Ausführungen eingesetzt werden; dies scheidet bei Transport- und Lieferrobotern weitgehend aus, außer wenn sie wie bei einem Staffellauf zusammenarbeiten.

Serviceroboter aus Sicht der Ethik

Die Informationsethik kann wiederum mit ihrer diskursiven Methode die unterschiedlichen Interessengruppen zusammenbringen. In Zukunft mögen Roboter und KI-Systeme selbst darlegen, wie sie sich das Zusammenleben mit uns vorstellen, welche Ressourcen sie für ihren Bau und ihren Unterhalt benötigen und was sie unter einer gerechten Verteilung verstehen. Nur wir selbst als empfindende Wesen werden indes bestimmte existenzielle Ängste und Sorgen formulieren und entsprechende Konsequenzen ziehen können.

5.3

Kommunizieren und Interagieren

Serviceroboter, die sich in den modernen Städten der Informationsgesellschaften bewegen, müssen auf mannigfache Weise kommunizieren und interagieren. Dabei begegnen sie Menschen unterschiedlichster Kulturen, in denen Mimik und Gestik mannigfaltig belegt sind und wo unzählige Sprachen gesprochen werden. Sie treffen zudem auf Vögel, Füchse, Hunde und Katzen, denen sie nicht nur ausweichen oder die sie scheuchen, sondern mit denen sie u.U. auch kommunizieren und interagieren müssen. Teilweise wurde die Thematik schon im ersten Abschnitt dieses Kapitels angesprochen: Signale und Töne dienen u.a. der Kommunikation und Interaktion. Daneben können, was bei Softwarerobotern verbreitet und bei Hardwarerobotern nicht unüblich ist, natürlichsprachliche Fähigkeiten vorhanden sein. Paketroboter könnten etwa nachfragen, ob sie bei der richtigen Person angekommen sind, und um eine sprachliche oder anderweitige Verifizierung bitten. Informations- und Navigationsroboter sollen strukturierte und validierte Informationen anbieten. Es ist wichtig, dass diese schnell und richtig verstanden und genutzt werden können. Auch hier liegt es nahe, die Roboter Texte und Bilder übermitteln und sie sprechen zu lassen. Disziplinen wie Mensch-Computer-Interaktion, Mensch-MaschineInteraktion und -Kommunikation sowie Tier-Maschine-Interaktion liefern in diesem Problemkreis Lösungsansätze. Man kann die Maschinen als adaptive Systeme gestalten, die sich automatisch auf unterschiedliche Menschen und Sprachen einstellen. Spricht ein Be-

69

70

Oliver Bendel

nutzer einen Roboter in einer bestimmten Sprache an, kann dieser in ebendieser antworten, oder nachfragen, ob andere Sprachen möglich bzw. gewünscht sind. Ebenso ist es denkbar, über Gesichtserkennung und Größenbestimmung das Geschlecht oder das Alter der Person zu identifizieren und entsprechend zu kommunizieren, was natürlich Fragen für die Informationsethik aufwirft. Ferner könnte der Roboter als Dolmetscher in gemeinsamen und öffentlichen Bereichen dienen, womit er wiederum zu einer Brücke zwischen Menschen und diesen die Verständigung erleichtern würde. Der Roboter mag ferner Tierstimmen nachahmen und Tiere damit und mithilfe von Signalen, Tönen, Werkzeugen und Blas- und Wedeleinrichtungen anlocken oder vertreiben. Die Zusammenarbeit zwischen Maschinenethik, Tierethik und -schutz kann Systeme hervorbringen, die Tiere qualifizieren und quantifizieren und Tierarten erkennen (vgl. Bendel 2013) und letztlich dazu beitragen, Tierwohl zu erhöhen und -leid zu vermindern. Nicht vergessen darf man direkte Eingreifmöglichkeiten wie das Drücken eines Notfallknopfes (der beim AnBot realisiert ist) und das Drücken eines »Kill Switch«, wie ihn eine Arbeitsgruppe des Europäischen Parlaments vorgeschlagen hat (vgl. Stark 2017). Der eine erlaubt es, menschliche Hilfe herbeizurufen, wenn Gefahr im Verzug ist, der andere, den Roboter auszustellen. Beide sind technische Lösungen, wobei der Notfallknopf in Verbindung mit organisatorischen und personellen Maßnahmen steht. Und beide werfen Fragen auf: Was, wenn der Notfallknopf missbraucht wird? Was, wenn der Kill Switch von einer Person gedrückt wird, die nicht die Kompetenz, die weder die Befähigung noch die Berechtigung dazu hat? Oder wenn die Maschine die richtige Entscheidung treffen würde und man sie dann ausbremst? Bei der Beantwortung mögen die Bereichsethiken hilfreich sein.

5.4

Unterstützung und Ersetzung von Menschen

Ein eher grundsätzliches Phänomen ist, dass Roboter Menschen unterstützen und ersetzen. Automatische und autonome Maschinen machen, wie schon das Präfix ausdrückt, etwas selbst, selbstständig oder

Serviceroboter aus Sicht der Ethik

aus eigenem Antrieb, und sie sind dabei nicht oder für eine Weile nicht auf einen Menschen angewiesen. Dieser ist freilich oft gefragt, wenn es um den Input oder Output geht – oder bei Problemen im Betrieb. In den Bereichen, die hier im Mittelpunkt des Interesses stehen, hat eine Unterstützung oder Ersetzung allerlei Implikationen. Ein Paketroboter vertritt einen Postzusteller beim Transportieren; aber vertritt er ihn ebenso bei der Übergabe, wo es bisher zu sozialen Interaktionen gekommen ist, zu Gesprächen, zu einem Flirt? Ein Sicherheitsroboter unterstützt das Sicherheitspersonal und ersetzt es unter Umständen, aber was ist, wenn ein Verdächtiger oder Überführter aufgehalten werden soll? Muss der Roboter dann mit Seinesgleichen kooperieren, mit dem Sicherheitspersonal, mit zufällig Anwesenden? Diese Überlegungen führen zu drei Haupterkenntnissen. Erstens übernehmen Roboter mitten unter uns Aufgaben von uns. Dadurch fehlen uns diese, wir müssen uns neue suchen, neue bestimmen etc. Zweitens fallen Kommunikation und Interaktion teilweise weg oder verändern sich stark. Dieses Thema wurde im letzten Abschnitt angesprochen. Drittens sind neue Formen der Kooperation notwendig. Teilweise wurde dieses Thema bereits im letzten Abschnitt behandelt, da Kooperation häufig mit Kommunikation einhergeht. Die Lösungen liegen wiederum auf mehreren Ebenen. Es ist eine Frage – die wir in Informations-, Technik- und Wirtschaftsethik diskutieren können –, wie weit wir die Automatisierung und Autonomisierung treiben, welche Aktivitäten wir auslagern und welche wir behalten wollen. Es bedarf damit einer Definition der Eigenschaften und Tätigkeiten von Maschinen und Menschen, und es bedarf einer neuen Definition von Arbeitsausübung und -teilung. In der Kooperation und Kommunikation mit Maschinen braucht es neue Fähigkeiten der Maschinen und Menschen. Die Maschinen müssen die Menschen besser verstehen, die Menschen die Maschinen. Wiederum können Ansätze aus der Maschinenethik und der sozialen Robotik ins Feld geführt werden. Letztlich müssen sich Maschinen und Menschen im Moralischen und Sozialen treffen. Sie müssen sich so zueinander verhalten, dass ein gutes Leben und ein sicherer Betrieb möglich sind.

71

72

Oliver Bendel

5.5

Datenerhebung und -auswertung

Ein weiteres Problem hat mit Daten und Informationen zu tun. Die einen Roboter sind darauf getrimmt, bestimmte Auffälligkeiten zu erkennen, die anderen müssen sich in Standardsituationen zurechtfinden. In beiden Fällen werden Muster analysiert sowie Bilder generiert, die weitergegeben werden können. Das ist wichtig, um die Maschinen zu verbessern und die Sicherheit in ihrem Betrieb zu erhöhen, und manche Maschinen müssen Emotionsanalyse und Gesichtserkennung beherrschen. Insgesamt entsteht dadurch, wie bereits angedeutet, eine Problematik des Datenschutzes und der informationellen Autonomie, in Bezug auf die Menschen, die aufgenommen und deren persönliche Merkmale oder Verhaltensweisen womöglich überprüft und gespeichert werden. Der spezielle Blickwinkel mancher Serviceroboter ist dabei ebenfalls in die Überlegungen mit einzubeziehen. Die Paketroboter schauen uns potenziell unter die Röcke und zwischen die Beine (vgl. Bendel 2016), und das in Zeiten, in denen Upskirting immer mehr geächtet wird. Sie bemerken überdies kaputte Schuhe, mit Krampfadern durchzogene Waden und mit Zellulite überzogene Schenkel. Das ist nicht tragisch, aber es ist uns vielleicht unangenehm und peinlich, und wir wollen kaum, dass entsprechende Daten und Informationen verbreitet werden. Sicherheits- und Überwachungsroboter können mit weit unten sitzenden Sensoren ausgerüstet sein, was eine ähnlich gelagerte Problematik erzeugt. Die Lösungsansätze kommen u.a. aus der Maschinenethik, der Informatik und der KI. Man kann Transport- und Lieferrobotern beibringen, bestimmte Körperregionen und Gesichter nicht aufzunehmen und nicht auszuwerten. Solche Ansätze wurden bereits in Bezug auf Fotodrohnen diskutiert (vgl. Bendel 2015a). Bei Sicherheits- und Überwachungsrobotern ist dies heikler, sollen diese doch im Bedarfsfall gerade persönliche Daten – etwa eines Einbrechers oder Handtaschenräubers – liefern. Aber auch hier können die Daten verschlüsselt werden, um wiederum nur von einem Befugten entschlüsselt werden zu können,

Serviceroboter aus Sicht der Ethik

oder es können Roh- und Anwendungsdaten unterschieden sowie Körperregionen und -teile ausgenommen werden. Wichtig ist es, die Perspektive der Informationsethik einzunehmen und von ihren Begriffen aus zu denken und zu handeln. Die informationelle Autonomie – um einen zentralen Begriff zu nennen – ist die Möglichkeit, selbst auf Informationen zuzugreifen und die Daten zur eigenen Person einzusehen und gegebenenfalls anzupassen (vgl. Bendel 2019b). Gesellschaftliche und politische Gruppen und Einrichtungen müssen auf diese moralische Dimension, jenseits der rechtlichen, immer wieder hinweisen. Die informationelle Notwehr – ebenfalls ein Begriff der Informationsethik – entspringt dem digitalen Ungehorsam oder stellt eine eigenständige Handlung im Affekt dar und dient der Wahrung der informationellen Autonomie und der digitalen Identität (vgl. Bendel 2019b). Es muss diskutiert werden, wann man sich gegen Roboter wehren und in welcher Weise man sich schützen darf.

6

Zusammenfassung und Ausblick

Wenn es nach den Vorstellungen der Wirtschaft, der Wissenschaft und der Politik geht, bevölkern bald tausende Serviceroboter unsere Städte. Sie werden zu Kollegen, Freunden, Bekannten, Begleitern, Konkurrenten, Bedrohern. Sie unterstützen und ersetzen uns, sie kämpfen mit uns um Platz und Energie. Der vorliegende Beitrag hat Serviceroboter, die in den allgemeinen und öffentlichen Bereich vordringen, die über Wege rollen, über Plätze gehen und Räume besetzen, definiert und systematisiert, er hat ihre Einsatzmöglichkeiten skizziert und ausgewählte Problembereiche erkundet. Es wurden Lösungsvorschläge u.a. aus der Perspektive der Informationsethik und der Maschinenethik unterbreitet. Für Politik und Gesetzgebung, aber auch für Städteplaner sowie für Informatiker und Robotiker mögen solche Überlegungen hilfreich sein. Diese wurden eher breit angestellt, um das ganze Spektrum deutlich zu machen. Es geht nun darum, einzelne Fragen weiter zu vertiefen und einzelne Lösungen weiter auszugestalten. Zuweilen mag ein Ver-

73

74

Oliver Bendel

bot von Robotern in bestimmten Bereichen ein probates Mittel sein. Es ist jedoch wichtig – und hier sind ebenfalls weitere Überlegungen notwendig –, neben den erheblichen Risiken die beträchtlichen Chancen wahrzunehmen. Ob die Bevölkerung selbst bei der Gesichts- und Stimmerkennung, die in immer mehr Serviceroboter verbaut wird, Vorteile zu gegenwärtigen vermag, oder ob diese nur den Behörden zukommen, muss kritisch geprüft werden. Es deutet vieles darauf hin, dass Gesichtserkennung, verbunden mit Emotionserkennung, unsere persönliche und informationelle Autonomie gefährden und unsere Persönlichkeitsrechte verletzen kann. Die Kameras und Mikrofone, die früher vor allem an und in Gebäuden und an Straßenlaternen installiert waren, sind nun mit den Servicerobotern mobil geworden und folgen uns überall hin. Hier und anderswo genügen keine ethischen Reflexionen, sondern müssen rechtliche Konsequenzen gezogen werden.

Literatur Anderson, Michael/Anderson, Susan L. (Ed.) (2011): Machine Ethics, Cambridge: Cambridge University Press. Bendel, Oliver (Hg.) (2019a): Handbuch Maschinenethik, Wiesbaden: Springer VS. — (2019b): 400 Keywords Informationsethik. Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik, 2. Aufl., Wiesbaden: Springer Gabler. — (2019c): 350 Keywords Digitalisierung, Wiesbaden: Springer Gabler. — (2017): »Service Robots in Public Spaces«, in: Telepolis (25. Juni 2017), https://www.heise.de/tp/features/Service-Robots-in-PublicSpaces-3754173.html (Zugriff: 15.09.2019). — (2016): »Mehr Unsicherheit mit Sicherheitsrobotern?«, in: SicherheitsForum 6, S. 18-20. — (2015a): »Einfache moralische Maschinen: Vom Design zur Konzeption«, in: Thomas Barton/Burkhard Erdlenbruch/Frank Herrmann et al. (Hg.): Prozesse, Technologie, Anwendungen, Systeme und

Serviceroboter aus Sicht der Ethik

Management 2015. Tagungsband zur 28. AKWI-Jahrestagung vom 06.09.2015 bis 09.09.2015 an der Hochschule Luzern – Wirtschaft, Heide: mana-Buch, S. 171-180. — (2015b): »Sollen Roboter uns pflegen?«, in: IT for Health 1, S. 29. — (2013): »Considerations about the Relationship between Animal and Machine Ethics«, in: AI & SOCIETY (2016) 31 (1), S. 103-108, (OnlineFirst-Artikel auf SpringerLink December 2013). — (2012a): Die Rache der Nerds, Konstanz/München: UVK. — (2012b): »Maschinenethik«, in: Gabler Wirtschaftslexikon, Wiesbaden: Springer Gabler, http://wirtschaftslexikon.gabler.de/ Definition/maschinenethik.html (Zugriff: 15.09.2019). Burgard, Wolfram/Stachniss, Cyrill (2013): »Gestatten, Obelix«, in: forschung 1, S. 4-8. Coxworth, Ben (2017): »›The Vespa of Robots‹ may follow you home«, in: New Atlas, http://newatlas.com/piaggio-gita/47646/(Zugriff: 31.01.2017). Hanser, Kira (2016): »Dieses Personal zickt nicht rum und will kein Trinkgeld«, in: Die Welt vom 9. März 2016, https://www.welt.de/ reise/deutschland/article153085621/Dieses-Personal-zickt-nichtrum-und-will-kein-Trinkgeld.html (Zugriff: 15.09.2019). Heater, Brian (2019): »Cozmo maker Anki is shutting its doors«, in: Techcrunch, 29. April 2019, https://techcrunch.com/2019/04/29/ cozmo-maker-anki-is-shutting-its-doors/(Zugriff: 15.09.2019). Hudec, Jan/Baumgartner, Fabian (2019): »Wütende FussgängerVerbände und fehlende Gesetze – weshalb die Post in Zürich mit autonomen Lieferrobotern aufgelaufen ist«, in: NZZ vom 4. März 2019, https://www.nzz.ch/zuerich/wuetende-fussgaenger-verbaen de-und-fehlende-gesetze-weshalb-die-post-in-zuerich-mitautonomen-lieferrobotern-aufgelaufen-ist-ld.1464001 (Zugriff: 15.09.2019). Koch, Lea (2017): »Frag doch Robo Paul im Zürcher Sihlcity!«, in: TagesAnzeiger vom 5. Oktober 2017, https://www.tagesanzeiger.ch/ wirtschaft/mensch-vs-roboter-wer-findet-das-produkt-schneller/ story/29442899 (Zugriff: 15.09.2019).

75

76

Oliver Bendel

Kuhlen, Rainer (2004): Informationsethik. Umgang mit Wissen und Informationen in elektronischen Räumen, Konstanz: UVK. Lill, Felix (2015): »Sprechen Sie deutlich!«, in: ZEIT ONLINE vom 10. September 2015, www.zeit.de/2015/35/roboter-henn-na-hoteljapan-nagasaki (Zugriff 15.09.2019). Maron, Hans Jörg (2016): »Die gelben Postroboter kommen«, in: inside-it.ch, 23. August 2016, www.inside-it.ch/articles/44765 (Zugriff: 15.09.2019). Marwan, Peter (2019): »Polizisten in Dubai bekommen RoboterKollegen«, in: silicon.de, 23. Mai 2019, https://www.silicon.de/ 41648599/polizisten-in-dubai-bekommen-roboter-kollegen (Zugriff: 15.09.2019). Stark, Jens (2017): »EU-Parlament diskutiert Roboter-Rechte«, in: com! professional, 17. Januar 2017. www.com-magazin.de/news/internet-dinge/eu-parlament-diskutiert-roboter-rechte-1188010.html (Zugriff: 15.09.2019). Wallach, Wendell/Allen, Colin (2009): Moral Machines. Teaching Robots Right from Wrong, Oxford: Oxford University Press.

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung Armin Grunwald

1

Erzählungen zur Digitalisierung – eine Einführung

Die Digitalisierung hat in wenigen Jahrzehnten in großer Geschwindigkeit weitreichende Neuerungen ermöglicht (z.B. Neugebauer 2018): globale Kommunikation in Echtzeit, schnelle Information, Mustererkennung durch Big Data, Effizienzsteigerung und Beschleunigung der Produktion, neue Dienstleistungen und Geschäftsmodelle, bessere medizinische Diagnosen und Therapien, Roboter und Algorithmen als künstliche Assistenten, selbst fahrende Autos und vieles mehr. Hier sind viele neue Möglichkeiten für Gesellschaft und Wirtschaft Realität geworden, und weitere Potenziale sind zu erwarten. Das transformative Potenzial der Digitalisierung betrifft wohl praktisch alle Lebensbereiche. Entsprechend setzt die Digitalisierung die Fantasie in Bewegung wie zurzeit kaum ein anderes Technikfeld (vgl. Grunwald 2019a). Die Digitalisierung ist allerdings, wie der technische Fortschritt generell (vgl. Grunwald 2010), nicht einfach immer nur positiv, sondern in sich ambivalent. Üblicherweise gibt es nicht nur Gewinner, sondern auch Verlierer, z.B. auf dem Arbeitsmarkt, es stellen sich Fragen nach Verantwortung und dem Umgang mit nicht intendierten Folgen, nach Machtverteilung und Kontrolle, nach Ethik und Demokratie (z.B. Hofstetter 2016), ja immer wieder sogar nach der Zukunft des Menschen (vgl. Bostrom 2014; Mainzer 2016). Weitreichende Hoffnungen und Er-

78

Armin Grunwald

wartungen bis hin zu Erlösungsfantasien auf der einen, Sorgen und teils auch Ängste bis hin zu Untergangsbefürchtungen auf der anderen Seite sind in der öffentlichen Debatte gleichzeitig präsent und stehen sich oft schroff gegenüber. Einzelne Geschichten, die immer wieder in den Medien erzählt werden, illustrieren diese Spannung (nach Grunwald 2019a, S. 64). Menschliche Lehrer könnten vielleicht durch digitale ersetzt werden. Der digitale Lehrer schaffe es aufgrund seiner hohen Rechenkapazität, mit dreißig Schülern gleichzeitig individuell zu sprechen, eben nicht mit allen dasselbe wie ein menschlicher Lehrer. Mit Zugang zum weltweit verfügbaren Wissen wäre er sozusagen allwissend. Seine Geduld mit jedem einzelnen Schüler wäre grenzenlos, seine Benotung unbestechlich und objektiv. Analog wird die Geschichte von digitalen Richtern erzählt, die in Sekundenbruchteilen Zugriff auf alle Aktenberge der Rechtsgeschichte hätten und alle Prozesse und alle Daten der beteiligten Personen kennen würden (ebd., S. 180). Der Algorithmus wäre nicht launisch und würden gegenüber den Konfliktparteien weder Sympathie noch Antipathie ausprägen, sondern unparteiisch und unbestechlich, objektiv und rational dem Recht dienen. Während diese Geschichten meist in einer gewissen Faszination erzählt werden, machen sich viele Menschen Sorgen, dass der Mensch gegenüber Robotern, Algorithmen und Künstlicher Intelligenz letztlich den Kürzeren ziehen könnte (vgl. Grunwald 2019a). Sie befürchten, dass auch Ethik und Technikfolgenabschätzung, zivilgesellschaftliches Engagement und kluge Politik möglicherweise nicht ausreichen, um die digitale Entwicklung auf einer guten Bahn zu halten, geschweige denn gar, sie aktiv zu gestalten (vgl. Kap. 5). Verbreitet ist die Sorge, dass wir die digitalen Geister, die wir mit guten Absichten gerufen haben, nicht nur nicht wieder loswerden, sondern dass sie uns zu guter Letzt gar die Kontrolle aus der Hand nehmen könnten (vgl. Mainzer 2016). Teils verschwimmen auch die klaren Unterscheidungen zwischen Untergangsbefürchtungen und Erlösungshoffnungen. Die raschen Erfolge der Digitalisierung haben Transhumanisten, die Protagonisten eines Übergangs von der menschlichen zu einer technischen Zivilisation, zu weitergehenden Vorstellungen motiviert, in denen es um die inten-

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung

dierte Ersetzung des Menschen durch digitale Technik geht. Sie stützen sich auf die mittlerweile weit verbreitete Beobachtung, dass digitale Technik in vielem besser als Menschen ist. Bereits 1995 hat zum ersten Mal ein Schachprogramm den damaligen menschlichen Schachweltmeister Boris Kasparow besiegt, und der Fortschritt geht weiter. Riesige Datenmengen können in Sekundenschnelle miteinander verknüpft werden, um Muster zu erkennen, die Menschen auch bei langem Suchen nicht finden könnten. Mit der Künstlichen Intelligenz ist digitale Technik sogar lernfähig geworden, wenn auch bislang nur in rudimentärer Form, und übernimmt sie die bisher dem Menschen vorbehaltene und vielleicht zentrale Voraussetzung für seinen Aufstieg zur beherrschenden Kraft auf dem Planeten Erde. Im Rahmen der so genannten Großen Singularität wird die Machtübernahme der Künstlichen Intelligenz und die Ausbildung einer Globalen Superintelligenz (vgl. Bostrom 2014) erwartet. Transhumanisten sehen es geradezu als Pflicht der Menschheit an, einer zukünftigen, rein technischen und als besser eingestuften Zivilisation das Heft der Geschichte zu übergeben (vgl. Hurlbut et al. 2016). Viele Menschen machen sich jedoch Sorgen, dass der Mensch gegenüber Robotern, Algorithmen und Künstlicher Intelligenz letztlich den Kürzeren ziehen könnte, z.B. auf dem Arbeitsmarkt (z.B. Börner et al. 2018), aber auch in der Gestaltung der Welt. Fragen wie »Nehmen uns Roboter die Arbeit weg?« sind immer wieder Schlagzeilen in Zeitungsmeldungen und Titel wie »Wann übernehmen die Maschinen?« zieren Bücher (Mainzer 2016). Dabei wird oft nicht einmal mehr die Frage nach dem ›ob‹ gestellt, sondern nur noch nach dem ›wann‹ gestellt. Einige gehen noch weiter und behaupten »Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt« (Hofstetter 2016). Verbreitet ist die Sorge, dass Algorithmen Selbstbewusstsein und Machtwillen entwickeln und den Menschen die Kontrolle aus der Hand nehmen könnten. Trotz des stark spekulativen Charakters dieser Erzählungen in beide Richtungen, optimistisch wie düster, sind sie etablierter Bestandteil der massenmedialen Kommunikation geworden und prägen aktuelle Zukunftsdebatten.

79

80

Armin Grunwald

In diesem Beitrag werde ich zunächst in Kürze die generelle Ambivalenz des technischen Fortschritts charakterisieren, die Anlass sowohl für Fortschrittsoptimismus als auch Technikdämonisierung bietet (Kap. 2), gefolgt von einer kurzen Thematisierung der Technikfolgenabschätzung als Ansatz rationaler Navigation zwischen diesen Extremen (Kap. 3). Sodann werde ich schleichende und daher leicht ins Positive wie auch ins Negative umschlagende Entwicklungen der Digitalisierung erläutern, welche in der öffentlichen Debatte häufig Anlass zu Sorgen und Befürchtungen sind (Kap. 4). Schließlich nehme ich zum grassierenden digitalen Fatalismus kritisch Stellung (Kap. 5) und ende mit einem kurzen Plädoyer für digitale Mündigkeit.

2

Der technische Fortschritt und seine Ambivalenz

Technik ist ein zentrales Element der menschlichen Kulturgeschichte. Vielfach war (und ist) der Stand der technischen Möglichkeiten entscheidend für wirtschaftlichen Erfolg und militärische Macht, ermöglicht aber ebenso kulturelle und künstlerische Entwicklungen. Dabei gilt sie üblicherweise als Mittel zu von Menschen gesetzten Zwecken. Technik soll in der Abwicklung von Lebensvollzügen behilflich sein, die Arbeit erleichtern, Wohlstand und Mobilität befördern, Gesundheit steigern, zu einer nachhaltigeren Entwicklung beitragen und das Leben sicherer machen. Entsprechend werden auch in der Gegenwart verbesserte Umwelteigenschaften und Klimaverträglichkeit, Förderung der Wettbewerbsfähigkeit der deutschen Wirtschaft, verbesserte Gesundheit, Steigerung des Komforts und andere Ziele genannt, zu denen neue Technik geeignete Mittel bereitstellen soll. Im Programm der Europäischen Aufklärung sind wissenschaftlicher und technischer Fortschritt ein zentrales Medium der Emanzipation des Menschen von Natur und Tradition. Auf diesem Weg ist die Menschheit spätestens seit der Industriellen Revolution weit vorangeschritten. Insbesondere seit dem Zweiten Weltkrieg ist die Bedeutung von Wissenschaft und Technik für nahezu alle Bereiche der Gesellschaft (Wirtschaftswachstum, Arbeitswelt, Gesundheit, Militär etc.) drama-

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung

tisch gewachsen. Wissenschaft und Technik verändern gesellschaftliche Traditionen, eingespielte kulturelle Üblichkeiten, kollektive und individuelle Identitäten und Selbstverständnisse und stellen überlieferte moralische Normen in Frage. Der wissenschaftlich-technische Fortschritt erzeugt neue Handlungsmöglichkeiten und Freiheitsgrade. Dieser erheblich gestiegene Einfluss von Wissenschaft und Technik und seine überall sichtbaren Folgen rückt sie stärker in das Blickfeld von Politik und Öffentlichkeit, macht sie zum Gegenstand kritischer Nachfragen, legt insbesondere die Frage nach Folgen, Nebenfolgen und Risiken nahe, verursacht Konflikte und motiviert Mitgestaltungsansprüche der Betroffenen sowie den Bedarf nach gesellschaftlicher und politischer Einflussnahme zur Sicherung öffentlicher Belange. Entscheidungen in Politik und Wirtschaft müssen immer stärker den wissenschaftlich-technischen Fortschritt und seine Folgen in Betracht ziehen. Spätestens seit den 1960er Jahren sind erhebliche Nebenfolgenprobleme von wissenschaftlich-technischen Entwicklungen in teils dramatischen Ausprägungen aufgetreten. Unfälle in technischen Anlagen (Chernobyl, Bhopal), Folgen für die natürliche Umwelt (Luftund Gewässerverschmutzung, Ozonloch, Klimaänderung), soziale und kulturelle Nebenfolgen von Technik (z.B. Arbeitsmarktprobleme als Folge der Automatisierung) und absichtlicher Missbrauch von Technik (Attentate auf das World Trade Center) haben naive fortschrittsoptimistische Zukunftserwartungen im Zusammenhang mit Technik und Technisierung verblassen lassen. Die Ambivalenz der Technik (vgl. Grunwald 2010, Kap. 1) ist zu einem zentralen Topos geworden. Teils wurden und werden sogar technikbedingte apokalyptische Gefahren für den Fortbestand der Menschheit thematisiert (z.B. Jonas 1979). Die stark vergrößerte Reichweite der Technikfolgen in räumlicher und zeitlicher Hinsicht und die dadurch erfolgte immense Ausweitung des Kreises der von Nebenfolgen möglicherweise Betroffenen auf die gesamte gegenwärtige und eventuell auch zukünftige Menschheit haben die Nebenfolgenproblematik als kritisches Element des wissenschaftlich-technischen Fortschritts ins allgemeine Bewusstsein gerückt. Seit den 1960er Jahren sind Wissenschaften, darunter auch die Technikfolgenabschätzung, immer stärker darin engagiert, möglichst

81

82

Armin Grunwald

gute Wege in die weitere technische Zukunft zu finden und mit der Nebenfolgenproblematik möglichst verantwortlich und vorausschauend umzugehen.

3

Technikfolgenabschätzung: Folgenforschung und Politikberatung

Genau die geschilderte Erfahrung von unerwarteten und teilweise gravierenden Technikfolgen, die man gerne im Vorhinein gekannt hätte, um sie verhindern oder um Kompensationsmaßnahmen einleiten zu können, ist eine der Grundmotivationen der Technikfolgenabschätzung (TA) (vgl. Grunwald 2010, 2019b). Sie soll dazu beitragen, systematisch die Voraussicht für die Folgen unserer Handlungen in zeitlicher und thematischer Hinsicht auszuweiten statt sich auf ein Vorgehen nach dem Prinzip von Versuch und Irrtum einzulassen. Zu den Basisüberzeugungen der TA gehört, dass für Entwicklung und Einsatz vieler moderner Technologien dieses Prinzip weder praktikabel noch länger verantwortbar ist. Stattdessen ist die vorausschauende Analyse und Bewertung von Technikfolgen unerlässlich geworden, um Chancen frühzeitig erkennen und Risiken vermeiden oder minimieren zu können. Diese Diagnose bestand bereits, als die Technikfolgenabschätzung vor etwa fünfzig Jahren im US-amerikanischen Kongress etabliert wurde und sich von dort aus zu einer internationalen Forschungs- und Beratungsdisziplin entwickelt hat. TA befasst sich prospektiv mit Folgen und Nebenfolgen der Technik, um das verfügbare Wissen um Nebenfolgen frühzeitig in Entscheidungsprozesse integrieren und Strategien zum verantwortlichen Umgang mit den dabei unweigerlich auftretenden Unsicherheiten des Wissens zu erarbeiten. Auf diese Weise soll sie zu besser reflektierter Gestaltung von Technik im Einzelnen, aber auch des technischen Fortschritts insgesamt beitragen (vgl. Grunwald 2019b). Hierzu haben sich drei wesentliche Richtungen herausgebildet:

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung







Die politikberatende Technikfolgenabschätzung (z.B. beim Deutschen Bundestag, vgl. Petermann/Grunwald 2005) erstreckt sich auf öffentlich relevante und politisch zu entscheidende Technikaspekte wie z.B. Sicherheit- und Umweltstandards, den Schutz der Bürger im Hinblick auf die Gewährleistung von Menschen- und Bürgerrechten sowie Prioritätensetzungen in der Technikpolitik. Technikfolgenabschätzung im öffentlichen Dialog beteiligt systematisch Bürger und Stakeholder aber auch die Medien an Debatten über zukünftige Technik. Dies geschieht in der Überzeugung, dass weitreichende Technikfragen Angelegenheit der gesamten Bürgerschaft sind. Technikfolgenabschätzung in der Technikentwicklung setzt an technischen Entwicklungsprozessen in Hochschulen oder der Industrie an, um gezielt die Entwicklung von Produkten, Systemen und Dienstleistungen zu begleiten. Folgenwissen, Folgenreflexion und Werteorientierung sollen eingebracht werden, um die entstehende Technik im Einklang mit gesellschaftlichen Werten zu gestalten, z.B. im Hinblick auf nachhaltige Entwicklung.

In ihren Praxisfeldern hat TA häufig mit teils gravierenden gesellschaftlichen Technikkonflikten zu tun, die eine neue Erscheinung in den industrialisierten Gesellschaften seit den 1960er Jahren sind. Kernenergie, Gentechnik, Chemiefabriken, Müllverbrennungsanlagen und ethische Fragen, die sich aus der biomedizinischen Forschung ergeben, sind ihre hauptsächlichen Themen. Zu ihrer Bewältigung spielen öffentliche Kommunikation über Technik, Risikokommunikation, Konfliktforschung, Mediation und Schlichtung, Sozialverträglichkeit sowie die Beteiligung von Betroffenen an Entscheidungsprozessen eine wichtige Rolle. Während wissenschaftliche Politikberatung, etwa im Rahmen von Akademien der Wissenschaft, vielfach zu Optimierungsüberlegungen tendiert, um die vermeintlich ›one best solution‹ zu identifizieren und sodann ihre Umsetzung zu fordern, formuliert und informiert TA zumeist alternative Optionen der Gestaltung. Denn Zukunftsentscheidungen sind nicht einfach wissenschaftlich entscheidbare oder optimierba-

83

84

Armin Grunwald

re Sachfragen, sondern beinhalten Entscheidungen, in welcher Gesellschaft wir leben wollen, welche Risiken wir einzugehen bereit sind, wie diese verteilt werden sollen und welche Rolle Technik darin spielen soll. Fragen dieser Art sind ersichtlich wert- und positionsabhängig, sodass ihre Beantwortung das Mandat der Wissenschaften übersteigen würde. TA stellt dem technokratisch Optimierungsdenken und der Orientierung an vermeintlichen Sachzwängen ein demokratisch motiviertes Denken in Alternativen gegenüber (vgl. Grunwald 2018). In den letzten Jahren hat sich der klassische Fokus der TA, nämlich Technik in Form von gegenständlichen Artefakten (z.B. Anlagen und Kraftwerken) mit ihren Folgen zu untersuchen, zugunsten der Betrachtung eher wissenschaftlich-technischer Entwicklungen einerseits und gesellschaftlicher Querschnittsfolgen neuer Technologien andererseits verschoben. Entwicklungen wie die Nanotechnologie, die Synthetische Biologie und die Converging Technologies (vgl. Roco/Bainbridge 2002), zurzeit die laufende digitale Transformation, werden von TA möglichst bereits in frühen Stadien ihrer Entwicklung begleitet. Dabei geht es oft weniger um Folgen einzelner Techniken für einzelne Bereiche, sondern um komplexe Gemengelagen zwischen wissenschaftlich-technischen Entwicklungen, Innovationspotenzialen, Produktions- und Konsummustern, Lifestyle und Kultur, Erwartungen und Befürchtungen sowie um politische Entscheidungen der Navigation in dieser Komplexität. Die Digitalisierung mit ihren eingangs geschilderten teils spekulativen Erzählungen bietet hierfür illustratives Anschauungsmaterial.

4

Befürchtungen zur Zukunft der Digitalisierung

Nach Hans Jonas (1979) resultieren die großen ethischen Herausforderungen moderner Technik nicht aus ihrem Versagen oder aus Unfällen, sondern sind Folge ihres reibungslosen Funktionierens. Dies zeigt sich im Umweltbereich in einer Vielzahl schleichender und nur allmählich sicht- und messbar werdender Veränderungen wie z.B. dem Klimawandel. So ist es auch der atemberaubende und schnelle Erfolg vieler Entwicklungen im Rahmen der Digitalisierung, der zu allmählichen

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung

Verschiebungen z.B. in Mensch/Technik-Verhältnissen, in Verantwortungsfragen, im Sicherheitsbedürfnis, im Verständnis von Freiheit, in der Möglichkeit von Individualität, in Zeitverhältnissen, im Blick auf Solidarität und im Menschenbild führt oder führen kann (vgl. Grunwald 2019c), welche zu teils weitreichenden Sorgen Anlass geben. Gerade diese allmählichen Verschiebungen bilden den Kern der teils aufgeregten öffentlichen Debatte zur Digitalisierung und vieler weitreichender Befürchtungen. Valides Folgenwissen für die Digitalisierung als Prozess und mögliche langfristige Folgen schleichender Verschiebungen ist kaum verfügbar. Zu vieles ist offen und zu spekulativ, zu viele mögliche Entwicklungen kreuzen sich in einer unbekannten Zukunft auf eine ebenso unbekannte Weise. So dienen frühe Überlegungen zu allmählichen Verschiebungen eher der Sensibilisierung für mögliche Fehlentwicklungen und der Herausbildung adäquater Begrifflichkeiten und ethischer Alternativen, weniger jedoch schon der direkten Mitwirkung an der Gestaltung etwa politischer oder unternehmerischer Maßnahmen. Dies bringt drei besondere Herausforderungen mit sich (vgl. Grunwald 2019c): 1. sind allmähliche Verschiebungen oft nur schwer aufzudecken. Es besteht das Risiko erst später Entdeckung, so dass möglicherweise schon nur noch schwer beeinflussbare Pfadabhängigkeiten eingetreten sind. 2. sind sie, selbst wenn sie zweifelsfrei beobachtet werden können, nicht umstandslos in die Zukunft extrapolierbar. Wird dies dennoch gemacht, entstehen die weitreichenden aber spekulativen Erzählungen sowohl der Visionäre als auch der Warner. 3. läuft eine Bewusstmachung möglicher ethisch bedenklicher Zukunftsentwicklungen anlässlich allmählicher Verschiebungen in die bekannten Kommunikationsprobleme vorsorgeorientierter Analyse und Reflexion, die angesichts hoher epistemischer Unsicherheit sowohl maßloser Übertreibung als auch blinder Verharmlosung ausgesetzt sind.

85

86

Armin Grunwald

Im Folgenden schauen wir nicht auf vermutete Endpunkte der digitalen Entwicklung – diese bleiben im Dunkel der Zukunft verborgen –, sondern auf den Prozess der digitalen Transformation, seine befürchteten schleichenden Negativfolgen und mögliche Gestaltungsmöglichkeiten (vgl. Kap. 5). Hier können nur einige der in der Debatte befürchteten schleichenden Entwicklungen herausgegriffen werden (vgl. Grunwald 2019c).

4.1

Schleichende Anpassung an digitale Techniken

Die digitalen Visionen sind Freiheitserzählungen und beschreiben, wie wir als Menschen in der digitalen Zukunft Freiheit und Autonomie gewinnen sollen, so etwa durch die Abgabe lästiger Arbeiten im Haushalt, durch neue Modelle selbstbestimmter Arbeit, durch das Überschreiten von bisherigen Grenzen oder durch Befreiung von Einschränkungen im Freizeitbereich. Diese Erzählungen sind jedoch nur die halbe Wahrheit. Denn während Technik auf der einen Seite die Freiheit des Menschen steigert und unsere Handlungsmöglichkeiten erweitert, erzeugt sie auf der anderen Seite Druck bis hin zum Zwang zur Anpassung. Technische Apparate und Systeme strukturieren und regulieren unsere Handlungen, etwa durch Bedienungsanleitungen, Vorschriften und Bedienoberflächen, die bestimmte Eingaben erwarten. Im »Technik-Paradox« (vgl. Grunwald 2019a) gewinnen wir neue Freiheiten und Möglichkeiten durch Technik, büßen aber gleichzeitig andere ein. Dies gilt auch für die digitale Welt. Fragen, wer sich wem anpassen muss, um gelingende Kooperation zu ermöglichen, stellen sich z.B. in der Industrie 4.0, wo Roboter mit Menschen kollegial zusammenarbeiten sollen, oder beim autonomen Fahren, wenn etwa in einer unübersichtlichen Situation ein menschlicher Autofahrer Handzeichen gibt, die das entgegen kommende autonome Fahrzeug richtig erkennen soll. Die Ethik-Kommission (2017) hat das Risiko erkannt, dass wir Menschen uns den Anforderungen der Algorithmen bzw. der hinter ihnen stehenden Menschen, Unternehmen und Interessen unterwerfen müssen, um die Vorteile der Algorithmen nutzen zu können. Stattdessen fordert sie:

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung

»Um eine effiziente, zuverlässige und sichere Kommunikation zwischen Mensch und Maschine zu ermöglichen und Überforderung zu vermeiden, müssen sich die Systeme stärker dem Kommunikationsverhalten des Menschen anpassen und nicht umgekehrt erhöhte Anpassungsleistungen dem Menschen abverlangt werden.« (Ethik-Kommission 2007: 13) Hier wird erkennbar, dass digitale Techniken auf der einen Seite neue Möglichkeiten eröffnen, auf der anderen Seite aber auch zu Anpassung und teils zu Anpassungsnotwendigkeiten führen, deren Folgen sorgsam beachtet werden müssen. Entsprechende ethische Fragen stellen sich z.B. in der Ausgestaltung von Mensch/Maschine-Schnittstellen und im Design von digitalen Dienstleistungen und ihren Erwartungen an die Nutzer, um eine unkontrollierte und unreflektierte Selbsttechnisierung des Menschen im Sinne einer schleichenden Anpassung an die Vorgaben der digitalen Systeme zu verhindern.

4.2

Schleichende Technisierung vieler Lebensbereiche

An vielen neu entstehenden Schnittstellen zwischen Mensch und Technik (vgl. Kehl/Coenen 2016) kommt es zu ebenso neuen Fragen, wer wen kontrolliert und wer im Zweifel das letzte Wort hat. Die nahe liegende und spontane Forderung, dass dies grundsätzlich beim Menschen liegen muss, klingt plausibel, führt aber rasch zu Zweifeln. Denn nicht immer handelt der Mensch so, wie man sich das nach ethischen Maßstäben wünscht, wie ein Beispiel aus dem Feld selbstfahrender Autos demonstriert (vgl. Grunwald 2019a): •

Ein menschlicher Autofahrer will einen Terroranschlag verüben und das Auto gezielt in eine Menschenmenge fahren. Der Bordcomputer würde gemäß seiner Programmierung eine Notbremsung einleiten. Soll das letzte Wort des Menschen wirklich so weit reichen, in diesem Fall die Notbremsung zu verhindern?

87

88

Armin Grunwald



Der Bordcomputer bemerkt am Fahrverhalten, dass der Fahrer übermüdet oder alkoholisiert ist. Ist es dann nicht ethisch sogar geboten, dem Fahrer die Kontrolle zu entziehen?

Die Frage nach der Kontrolle ist also nicht so einfach zu beantworten ist. Immer wieder gibt es Situationen, wo Menschen vor sich selbst oder vor anderen geschützt werden müssen. Wer aber entscheidet, ob und wann der Mensch das letzte Wort haben darf? Wo liegt die Grenze, und wer legt sie fest? Hier öffnet sich eine interessante philosophische Frage nicht nur des autonomen Fahrens, sondern generell für zukünftige Mensch/Maschine-Verhältnisse. Denn hier werden Algorithmen als Aufseher über den Menschen eingesetzt, wenn der Bordcomputer entscheiden darf, ob der Fahrer fahrtüchtig ist oder nicht. Der Bordcomputer würde entscheiden, wann er dem menschlichen Fahrer vernünftiges Fahren zutraut oder nicht. Dessen Chefrolle wäre nur noch geborgt, gebunden an bestimmte Voraussetzungen, deren Erfüllung der Algorithmus überprüft. Hier könnte eine technische Bevormundung des Menschen drohen, eingeleitet mit naheliegenden und plausiblen Beispielen vor allem unter dem Stichwort der Sicherheit, wodurch menschliche Freiheit immer weiter einschränken könnte. Hier verbergen sich weitreichende Fragen zwischen Sicherheitsbedürfnis und Freiheit des Menschen, die in Zukunft sicherlich für Diskussionen sorgen werden (vgl. Ethik-Kommission 2017).

4.3

Schleichende Verdrängung des Menschen

Bereits 1983 wurde ein interessantes Dilemma publiziert (vgl. Bainbridge 1983). Menschliche Tätigkeiten, etwa in der industriellen Produktion, umfassen viele routinehafte Tätigkeiten, aber auch Überwachungsaufgaben und Eingriffe in Vorgänge, wenn die Routine nicht funktioniert, z.B. wegen des Versagens einer Maschine. Seit Beginn der Industriellen Revolution wird menschliche Tätigkeit durch Technik ersetzt. Automatisierung war schon die Ursache der Weberaufstände vor über 200 Jahren. Dabei werden zunächst routinehafte Vorgänge automatisiert, etwa Fließbandarbeit, wie sie noch von Charlie Chaplin

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung

in ›Modern Times‹ karikiert und kritisiert wurde. Wenn jedoch etwas nicht funktioniert, müssen Menschen eingreifen und die Kontrolle übernehmen. So ist es etwa, wenn Autopiloten, also Computer, ein Flugzeug steuern. Der Pilot sollte im Notfall eingreifen. Das Automatisierungs-Dilemma besagt, dass der Mensch immer mehr an Routine und Praxiserfahrung verliert, wenn er meistens nur danebensitzt und aufpasst. Wenn er dann in Notsituationen das Ruder herumreißen soll, also gerade in den schwierigen Situationen, dann fehle ihm Erfahrung und Routine, auf die es dann gerade ankommt. Dieses Dilemma weckt Zweifel, ob eine Entwicklung grundsätzlich sinnvoll ist, in der Menschen in Notsituationen volle Verantwortung übernehmen soll. So wird die Übergabe der Kontrolle bei selbst fahrenden Autos im Notfall an den Menschen von manchen für einen Irrweg gehalten. Es sei viel zu gefährlich, Menschen in einer Art StandbyFunktion zu halten und sie zu verpflichten, im Notfall die Kontrolle zu übernehmen. Stattdessen sollten besser gleich voll automatisierte Autos entwickelt werden. Das Dilemma weist darauf hin, dass es zusehends schwer werden kann, für eine zusehends digitale Gesellschaft menschliche Arbeit nach Tätigkeiten einzuteilen, die automatisierbar sind oder nicht. Was das für die zukünftige Arbeitsteilung zwischen Mensch und Technik bedeutet, ist freilich unklar. Pessimisten sehen hier eine Entwicklung hin zu einer vollends technisierten Welt, zumindest Arbeitswelt, in der letztlich Maschinen die Menschen überflüssig machen.

4.4

Schleichende Entwertung von Individualität

Selbstverwirklichung steht in der Wertschätzung der Moderne weit oben. Lebensstil, Wohnort, Berufswahl, Familienplanung, Konsumverhalten, Kleidung und Sexualverhalten sind seit der Aufklärung, besonders stark in den letzten Jahrzehnten stark individualisiert worden. Digitale Technologien unterstützen die weitere Individualisierung. Jeder Einzelne kann über das Internet globale Netzwerke schaffen, mit Hilfe von Suchmaschinen mühelos Gleichgesinnte oder an gleichen Themen Interessierte finden, Informationen oder auch nur Befindlichkeiten austauschen, seine Arbeit organisieren, für Themen

89

90

Armin Grunwald

sensibilisieren und mobilisieren, individuell zugeschnittene Dienstleistungen beziehen und vieles mehr. Die Individualisierung wird vorangetrieben durch Datenspuren im Internet, die die Erstellung zusehends individueller Profile und damit maßgeschneiderte Angebote, individualisierte Werbung und passende Nachrichten ermöglichen. Dies könnte als ultimative Umsetzung von Individualisierung erscheinen. Allerdings kommt es hier zu dem Paradox, das oft mit den Begriffen Filterblase und Echokammer illustriert wird. In der digitalen Welt entstehen geschlossene Bereiche um Gruppen und möglicherweise um jedes Individuum herum. Algorithmen wachen auf Basis der aus individuellen Daten erzeugten Profile darüber, dass die Gruppen und Individuen nichts erreicht, was nicht zu ihren Profilen passt. Der Blick ins Internet, etwa über eine Suchmaschine, würde also nichts Neues erbringen, sondern wäre so etwas wie der Blick in einen Spiegel. Das jeweils andere, das möglicherweise Überraschende und vorgefasste Meinungen Irritierende, das Fremde und das Neue würde weggefiltert und die Individuen nicht mehr erreichen. Nach Literatur aus Soziologie und Philosophie ist Individualität jedoch nicht etwa das Leben in einer Filterblase der Selbstbestätigung, sondern entsteht durch die Kreuzung sozialer Kreise, also letztlich durch Begegnung mit anderen (vgl. Simmel 1890). Das Internet vergrößert einerseits die Begegnungsmöglichkeiten mit anderen um ein Vielfaches und schafft dadurch Möglichkeiten weiterer Individualisierung. Wenn jedoch die Kreise und die durch Kreuzungen entstehenden Verknüpfungen bloß auf Basis von Profildaten aus der Vergangenheit berechnet würden, dann käme es nicht zu wirklich neuen Kreuzungspunkten (vgl. Grunwald 2019a). Eine Weiterentwicklung von Individualität durch Begegnung mit den anderen kommt nicht vor. Im Paradox der Individualisierung untergräbt die scheinbar vollkommene Individualisierung, wie sie die Digitalisierung möglich macht, geradezu die Bedingungen von Individualität. Denn Individualität ist kein Zustand, sondern lebenslanger Entwicklungs- und Lernprozess, der Anregungen von außen braucht, um Stagnation zu vermeiden. Die Sor-

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung

ge hier besteht in einem Abgleiten in eine Schein-Individualisierung, vor allem aufgrund der menschlichen Bequemlichkeit.

4.5

Schleichender Kontrollverlust

Die Einbettung von Technik in menschliche Handlungsvollzüge ist mit einer allmählichen Gewöhnung verbunden bis hin zu Entwicklungen, sodass Leben ohne bestimmte technische Hilfsmittel unmöglich erscheint. Wie die Welt ohne Internet, Handy und Smartphone funktionieren konnte, ist heute kaum mehr vorstellbar. Mit der Selbstverständlichkeit freilich ist häufig eine mehr oder weniger weitreichende Abhängigkeit von Technik verbunden. Könnte die Digitalisierung überhaupt noch umgesteuert werden, falls gravierende Fehlentwicklungen eintreten? Bereits jetzt kann das Internet nicht mehr abgestellt werden, ohne umgehend die Weltwirtschaft zu ruinieren. Moderne Gesellschaften sind auf Gedeih und Verderb vom reibungslosen Funktionieren ihrer großen Infrastrukturen abhängig, und dies betrifft heute insbesondere die Daten- und Kommunikationsinfrastruktur. Hier ist die Abhängigkeit bereits heute total. Zwar werden zunächst digitale Infrastrukturen von Menschen aufgebaut, um menschlichen Zwecken zu dienen. Insofern sich dann jedoch eine Abhängigkeit von der Technik einstellt, dreht sich dieses Verhältnis um. Der Philosoph Georg Friedrich Hegel hat die Umkehr der Abhängigkeiten in ein einfaches Bild gebracht (vgl. Grunwald 2019a): Ein Herr hat einen Knecht. Dieser Knecht muss alles für den Herrn tun. Dadurch verlernt der Herr die lebensnotwendigen Dinge. Der Herr wird abhängig vom Knecht, und schließlich wird aus dem Knecht der eigentliche Herr. Der Herr muss dann dafür sorgen, dass es dem Knecht gut geht. Entsprechend müssen Menschen heute dafür sorgen, dass, metaphorisch gesprochen, es dem Internet gut geht. Fatalerweise geschieht diese Umkehrung von Abhängigkeiten schleichend. Gegenwärtig ist das an der allmählichen Verdrängung des Bargelds zu sehen. War zunächst der bargeldlose Zahlungsverkehr eine große Erleichterung für Wirtschaft und Privatleben und damit eine Option neben dem traditionellen Bargeld, wird letzteres

91

92

Armin Grunwald

durch das Verhalten der Menschen, in manchen Ländern verstärkt durch entsprechende Anreize aus Politik und Wirtschaft, allmählich verdrängt. Je mehr es verdrängt wird, umso stärker wird der Druck auf die noch verbliebenen Zahlweisen mit Bargeld, sich endlich auch umzustellen. Wenn schließlich der bargeldlose Zahlungsverkehr den Wettbewerb gewonnen hat, ist zweierlei die Folge: (1) es bleibt nur noch eine Option zurück, die Wahlmöglichkeit ist verschwunden, und (2) die Abhängigkeit vom Funktionieren der digitalen Abläufe ist total geworden. Obwohl diese Abhängigkeit mittlerweile in vielen Bereichen eingekehrt ist, wird sie kaum problematisiert. Das Vertrauen in das dauerhaft reibungslose Funktionieren der digitalen Infrastrukturen scheint grenzenlos. Naives Vertrauen ist jedoch in ethischer Hinsicht kein guter Ratgeber. Schwere Wirtschaftskrisen, Kollaps der staatlichen Ordnung oder Hacker-Angriffe sind möglich. Ein ethisches Vorsorgeprinzip gebietet, die Abhängigkeiten bewusst zu machen und mögliche Alternativen für den Fall der Fälle zu entwickeln. Die hier geschilderten Sorgen beruhen teils auf Beobachtungen wie im Falle der Abhängigkeit von der Digitalisierung, teils auf der Extrapolation durchaus sichtbarer Effekte wie im Falle der Filterblasen und teils auf weitreichender Spekulation wie bei der Sorge vor einer kompletten Verdrängung des Menschen vom Arbeitsmarkt. Verantwortliches Handeln (vgl. Jonas 1979) gebietet, diese Entwicklungen sorgfältig zu beobachten, sie möglichst empirisch belastbar zu untersuchen und vorausschauend und vorsorgend zu handeln, wenn sich Sorgen erhärten. Das wirft die Frage nach Interventionsmöglichkeiten in den Gang der Digitalisierung aus.

5

Gestaltung statt eines digitalen Fatalismus

Gegenwärtig dominiert in der öffentlichen Debatte der Eindruck einer eigendynamischen Entwicklung der Digitalisierung. Insbesondere Wirtschaftsvertreter sprechen gern von der Digitalisierung wie von einem unausweichlichen Naturereignis, etwa einem Tsunami oder einem

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung

Erdbeben. In dieser technikdeterministischen Perspektive (kritisch dazu bereits: Ropohl 1982) bliebe der Gesellschaft und den Menschen nur die pure Anpassung. Sie wird immer wieder in einer Rhetorik der Drohung eingefordert: wer sich nicht schnell und weitreichend genug anpasse, werde zu den Verlierern im globalen Wettbewerb gehören. Diese Rhetorik operiert mit (vermeintlichen) Sachzwang-Argumenten und (ebenso vermeintlichen) Alternativlosigkeiten, wie etwa vor Jahrzehnten von ihren Befürwortern in der Auseinandersetzung um die Kernenergie. Entsprechend wird auch von einem »digitalen Determinismus« gesprochen (Mainzer 2016). Diese Sicht auf Technik hat eine klare Implikation: man brauche keine Ethik der Technik, denn zu gestalten gebe es ja nichts. Weder kritische Reflexion noch eine Ethik der Digitalisierung sei gefragt, sondern kluge Maßnahmen der Anpassung. Politische Forderungen arbeiten entsprechend mit Formulierungen wie »wir müssen uns fit machen für die Digitalisierung«, dabei in geradezu fatalistischer Weise jeden Gedanken an eine mögliche Gestaltbarkeit der Digitalisierung vermeidend. Jedoch muss digitale Technik gemacht und müssen Nutzungsmöglichkeiten und Dienstleistungen gemacht werden. Jede einzelne Zeile eines Programmcodes wird von Menschen geschrieben. Software läuft auf Hardware, die ebenfalls von Menschen angefertigt wird, bzw. von Maschinen, die von Menschen dafür entwickelt und programmiert wurden. Algorithmen, Roboter, digitale Dienstleistungen, Geschäftsmodelle für digitale Plattformen oder Einsatzgebiete für Dienstleistungsroboter werden von Menschen erfunden, entworfen, hergestellt und eingesetzt. Die Software der Suchmaschinen, die Algorithmen der BigData-Technologien und die Social Media, sie alle sind von Menschen entworfen und umgesetzt. Diese Menschen sind die ›Macher‹ der Digitalisierung. Sie arbeiten in der Regel in Unternehmen, Institutionen oder Geheimdiensten, verfolgen bestimmte Werte, haben Einschätzungen und Interessen, folgen einer Unternehmensstrategie, politischen Vorgaben, militärischen Erwägungen etc. Wenn andere Menschen mit anderen Werten und Interessen gestalten oder auch nur mitgestalten könnten, könnte die Digitalisierung einen anderen Lauf nehmen.

93

94

Armin Grunwald

Dann eröffnen sich eine ganze Reihe von Fragen der Art (vgl. Grunwald 2019a): Welche Menschen, Unternehmen und Organisationen haben Einfluss darauf, wie die digitale Gesellschaft sich entwickelt? Nach welchen Interessen und Werten gestalten diese die digitale Zukunft? Welche Macht haben global handelnde Unternehmen aus dem Silicon Valley, Wirtschaftsverbände, Informatiker und die Geheimdienste? Welche Mitsprachemöglichkeiten haben die Nutzer von Internetdienstleistungen und Apps mit ihren vermutlich oft ganz anderen Werten und Interessen? Gibt überhaupt leicht zugängliche Alternativen zu den Angeboten der großen Digitalkonzerne? Wo bleibt demokratische Gestaltung, wenn durch privat erzeugte Software gesellschaftliche Anpassungen erzwungen werden? Diese Fragen machen deutlich, dass es nicht den einen Weg der Digitalisierung in die Zukunft gibt. Stattdessen ist die Zukunft der Digitalisierung ein Möglichkeitsraum voller Alternativen. Welche davon einmal real werden, ist nicht heute schon determiniert, sondern hängt von vielen Entscheidungen auf den unterschiedlichsten Ebenen ab, in Unternehmen und Datenkonzernen, in Politik und Regulierung, aber auch Nutzerverhalten. Dieser Gedanke öffnet den gestaltungsorientierten Blick auf die weitere Entwicklung digitaler Technologien, um im Vergleich und in der Abwägung unterschiedlicher Alternativen Prinzipien wie Menschen- und Bürgerrechte, Gerechtigkeit und Fairness, Privatheit und Inklusion Gehör zu verschaffen. Je nach Alternative können andere Werte und Interessen im Vordergrund stehen. Technikgestaltung bedeutet dann, die Werte und Interessen hinter den möglichen Alternativen transparent zu machen, Nutzer und zivilgesellschaftliche Organisationen einzubeziehen und Ergebnisse dann auch technisch umzusetzen. Freilich bedarf Gestaltung in diesem Sinne eines erheblichen Engagements.

6

Plädoyer für digitale Mündigkeit

Statt vorauseilender Anpassung an die vermeintlich eigendynamische Entwicklung der Digitalisierung geht es um ihre Gestaltung im Hin-

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung

blick auf ein gesellschaftliches Wollen. In der Digitalisierung als Prozess müssen Mitgestaltungsmöglichkeiten eingefordert und umgesetzt werden. Beispielsweise ist die Ermöglichung von Konsumentensouveränität entgegen den heutigen Monopolstrukturen hierfür ein notwendiger Schritt. Des Weiteren ist Aufklärungsarbeit dahingehend zu leisten, dass Visionen und Extrapolationen Erzählungen in der Immanenz der Gegenwart sind, aber keine Tatsachen aus der Zukunft beschreiben (vgl. Luhmann 1990; Grunwald 2012). Empirisches Wissen über die befürchteten allmählichen Veränderungen (vgl. Kap. 4) ist erforderlich, um belastbare Klarheit jenseits der bloßen Spekulation zu ermöglichen. Damit kann folgenethisch (z.B. mit Jonas 1979) ein Reflexionsprozess unternommen werden, in dem neben dem explorativen Blick in die Zukunft der normative Blick auf wünschenswerte digitale Zukünfte thematisiert werden sollte. Die neuen Möglichkeiten der Digitalisierung sind faszinierend. Faszination ist aber nicht alles. Allzu überbordende Faszination genauso wie fatalistische Ängstlichkeit können jedoch blind machen und in die Abhängigkeit von digitalen Technologien führen. Schleichend könnten Kontrolle und Gestaltungsmöglichkeiten verloren gehen, weil das Leben in der Digitalisierung so angenehm und bequem ist. Die Macht globaler Konzerne und Geheimdienste im Verein mit der Bequemlichkeit vieler Menschen könnte Freiheit, Gestaltungskompetenz und Demokratie (vgl. Hofstetter 2016) bedrohen und Errungenschaften der Moderne wie Transparenz, Autonomie und Individualität unter Druck bringen (Kap. 4) und zur Selbstentmündigung der Menschen führen. Immanuel Kant hat Aufklärung als Ausgang aus der selbst verschuldeten Unmündigkeit verstanden: »Aufklärung ist der Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbst verschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Mutes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Mut, dich deines eigenen Verstandes zu bedienen!,

95

96

Armin Grunwald

ist also der Wahlspruch der Aufklärung.« (Kant 1994: 55; Kursivierung im Original) Aufgeklärt denken und handeln in der zusehends digitalen Welt bedeutet in diesem Sinn, sich nicht mit der Oberfläche der Digitalisierung zufrieden zu geben, sondern kritisch dahinter zu schauen, sich selbst eine Meinung zu bilden und sich darauf aufbauend aktiv an der Gestaltung der digitalen Zukunft zu beteiligen. Konkret (nach Grunwald 2019a; vgl. auch Nida-Rümelin/Weidenfeld 2018): 1. die Potenziale der Digitalisierung erkennen, genießen und nutzen, aber ihnen nicht blind erliegen, sondern Kehrseiten und Risiken im Blick zu behalten; 2. die Zukunft der digitalen Welt als einen Raum voller Optionen und Möglichkeiten ansehen statt Fatalisten und Technikdeterministen zu folgen; 3. nicht aus dem Blick verlieren, dass bestimmte Menschen und Institutionen mit ihren Werten und Interessen hinter den Algorithmen und Robotern stehen; 4. die Ausgestaltung der digitalen Technologien und Dienstleistungen nach gesellschaftlichen und ethischen Werten einfordern und sich daran nach Möglichkeit aktiv beteiligen; 5. Problemlösungen nicht technikgläubig in der digitalen Technik suchen, wenn sie nicht dort, sondern in guter Politik oder solidarischem Handeln zu finden sind; 6. Bildung im Hinblick auf Digitalisierung nicht nur im Erlernen von technischen Fähigkeiten betreiben, sondern in Bezug auf kritische Reflexion und Hinterfragung.

Digitalisierung ist kein Selbstzweck, sondern digitale Technologien können Mittel zu extrem unterschiedlichen Zielen und Zwecken sein und sehr unterschiedliche Folgen haben. Wie die Digitalisierung weitergeht und welche Folgen sie haben wird, ist kein Naturereignis. Überall sind Alternativen möglich. Die eigentliche Frage ist, welche Formen und Anwendungen der Digitalisierung ethisch und demo-

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung

kratisch gewollt werden, und wie dieser Willen dann auch umgesetzt werden kann, weit jenseits aller Erzählungen spekulativen zwischen Fortschrittsoptimismus und Technikdämonisierung.

Literatur Bainbridge, Lisanne (1983): »Ironies of Automatization«, in: Automatica 19 (6), S. 775-779. Börner, Franziska/Kehl, Christoph/Nierling, Linda (2018): Chancen und Risiken mobiler und digitaler Kommunikation in der Arbeitswelt. Berlin: Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag, www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Arbeitsbericht-ab174.pdf, (Zugriff: 14.02.2020). Bostrom, Nick (2014): Superintelligenz. Szenarien einer kommenden Revolution. Frankfurt a.M.: Suhrkamp. Ethik-Kommission (2017): Autonomes und Vernetztes Fahren. Endbericht, Berlin: Bundesministerium für Verkehr und digitale Infrastruktur, https://www.bmvi.de/SharedDocs/DE/Publikationen/DG/ bericht-der-ethik-kommission.pdf?__blob=publicationFile, (Zugriff: 25.04.2019). Grunwald, Armin (2010): Technikfolgenabschätzung. Eine Einführung. 2. Aufl., Baden-Baden: Nomos. — (2012): Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung, Karlsruhe: KIT Scientific Publishing. — (2018): »Technikfolgenabschätzung und Demokratie. Notwendige oder kontingente Verbindung?«, in: Technikfolgenabschätzung in Theorie und Praxis 27 (1), S. 40-45. — (2019a): Der unterlegene Mensch. Die Zukunft der Menschheit im Angesicht von Algorithmen, Robotern und Künstlicher Intelligenz, München: RIVA-Verlag. — (2019b): Technology Assessment in Practice and Theory, London: Routledge. — (2019c): »Digitalisierung als Prozess. Ethische Herausforderungen inmitten allmählicher Verschiebungen zwischen Mensch, Technik

97

98

Armin Grunwald

und Gesellschaft«, in: zfwu (Zeitschrift für Wirtschafts- und Unternehmensethik) 20 (2), S. 121 – 145; https://doi.org/10.5771/1439880X-2019-2-121. Hofstetter, Yvonne (2016): Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt, München: Bertelsmann. Hurlbut, Jenjamin B./Tirosh-Samuelson, Hava (Hg.) (2016): Perfecting human futures. Transhuman visions and technological imaginations, Wiesbaden: Springer. Jonas, Hans (1979): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt a.M.: Suhrkamp. Kant, Immanuel (1994): »Beantwortung der Frage: Was ist Aufklärung?«, in: Ders.: Was ist Aufklärung? Aufsätze zur Geschichte und Philosophie, Göttingen: Vandenhoeck & Ruprecht, S. 55-61. Kehl, Christoph/Coenen, Christopher (2016): Visionen und Technologien der Mensch/Maschine-Entgrenzung, Berlin: Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag, www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TABArbeitsbericht-ab167.pdf, (Zugriff: 14.02.2020). Luhmann, Niklas (1990): »Die Zukunft kann nicht beginnen: Temporalstrukturen der modernen Gesellschaft«, in: Peter Sloterdijk (Hg.): Vor der Jahrtausendwende: Berichte zur Lage der Zukunft. Frankfurt a.M.: Suhrkamp, S. 119-150. Mainzer, Klaus (2016): Wann übernehmen die Maschinen?, Heidelberg: Springer. Neugebauer, Reimund (Hg.) (2018): Digitalisierung. Schlüsseltechnologien für Wirtschaft und Gesellschaft, Heidelberg: Springer. Nida-Rümelin, Julian/Weidenfeld, Nathalie (2018): Digitaler Humanismus: Eine Ethik für das Zeitalter der Künstlichen Intelligenz, München: Piper. Orwat, Carsten/Raabe, Oliver/Buchmann, Eruk et al. (2010): »Software als Institution und ihre Gestaltbarkeit«, in: Informatik-Spektrum 33, S. 626-633. Petermann, Thomas/Grunwald, Armin (Hg.) (2005): TechnikfolgenAbschätzung am Deutschen Bundestag, Berlin.

Digitalisierung. Zwischen Fortschrittsoptimismus und Technikdämonisierung

Roco, Mihail C./Bainbridge, William Sims (Hg.) (2002): Converging Technologies for Improving Human Performance. Arlington, Virginia. Ropohl, Günter (1982): »Kritik des technologischen Determinismus«, in: Rapp, Friedrich/Durbin, Paul T. (Hg.): Technikphilosophie in der Diskussion, Braunschweig: BI, S. 3-18. Simmel, Georg (1890): »Über sociale Differenzierung«, in: www.deutschestextarchiv.de/book/show/simmel_differenzierung_1890, (Zugriff: 25.04.2019).

99

Autoren

Bendel, Oliver (geb. 1968), Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW. Er beschäftigt sich aus seinen Disziplinen heraus mit Roboterautos, Industrierobotern, Servicerobotern, Chatbots und Sprachassistenten. Er gehört zu der kleinen Gruppe von Maschinenethikern, die moralische Maschinen als Prototypen entwickeln. Grunwald, Armin (geb. 1960), seit 1999 Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT). 1999 bis 2006 Professor für Technikfolgenabschätzung und Systemanalyse an der Universität Freiburg. Seit 2007 Professor für Technikphilosophie und Technikethik am KIT. Forschungsschwerpunkte: Theorie und Praxis der Technikfolgenabschätzung, Ethik neuer Technologien, Konzeptionen der Nachhaltigkeit. Gegenwärtig arbeitet er an einem Forschungsprojekt zur Veränderung von Menschenbildern im technischen Fortschritt, vor allem anlässlich der Digitalisierung. Schramme, Thomas (geb. 1969), Professor für Philosophie an der Universität Liverpool. Forschungsschwerpunkte: Politische Philosophie, Moralpsychologie, Philosophie der Medizin.

Soziologie Naika Foroutan

Die postmigrantische Gesellschaft Ein Versprechen der pluralen Demokratie 2019, 280 S., kart., 18 SW-Abbildungen 19,99 € (DE), 978-3-8376-4263-6 E-Book: 17,99 € (DE), ISBN 978-3-8394-4263-0 EPUB: 17,99 € (DE), ISBN 978-3-7328-4263-6

Maria Björkman (Hg.)

Der Mann und die Prostata Kulturelle, medizinische und gesellschaftliche Perspektiven 2019, 162 S., kart., 10 SW-Abbildungen 19,99 € (DE), 978-3-8376-4866-9 E-Book: 17,99 € (DE), ISBN 978-3-8394-4866-3

Franz Schultheis

Unternehmen Bourdieu Ein Erfahrungsbericht 2019, 106 S., kart. 14,99 € (DE), 978-3-8376-4786-0 E-Book: 17,99 € (DE), ISBN 978-3-8394-4786-4 EPUB: 17,99 € (DE), ISBN 978-3-7328-4786-0

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Soziologie Sybille Bauriedl, Anke Strüver (Hg.)

Smart City – Kritische Perspektiven auf die Digitalisierung in Städten

2018, 364 S., kart. 29,99 € (DE), 978-3-8376-4336-7 E-Book: 26,99 € (DE), ISBN 978-3-8394-4336-1 EPUB: 26,99 € (DE), ISBN 978-3-7328-4336-7

Weert Canzler, Andreas Knie, Lisa Ruhrort, Christian Scherf

Erloschene Liebe? Das Auto in der Verkehrswende Soziologische Deutungen 2018, 174 S., kart. 19,99 € (DE), 978-3-8376-4568-2 E-Book: 17,99 € (DE), ISBN 978-3-8394-4568-6 EPUB: 17,99 € (DE), ISBN 978-3-7328-4568-2

Juliane Karakayali, Bernd Kasparek (Hg.)

movements. Journal for Critical Migration and Border Regime Studies Jg. 4, Heft 2/2018 2019, 246 S., kart. 24,99 € (DE), 978-3-8376-4474-6

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de