Kritik der digitalen Vernunft. Warum Humanität der Maßstab sein muss [1. ed.] 9783451819773, 9783451820007, 9783451389153


105 20 19MB

German Pages 400 [403] Year 2020

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
1. Philosophische Grundfragen der ­Digitalität
Das Eindringen des Digitalen in die Lebenswelt
Digitale Verunsicherung und digitaler Konformitätsdruck
Vernunft und Verstand in der digitalen Welt
Unvernünftige Aspekte des Menschseins
Ist die digitale Welt grundsätzlich vernünftig?
Ist Vernunft grundsätzlich digital?
Wie lassen sich Leistungsgrenzen der digitalen Welt beschreiben?
Grenzen der Messtechnik und Grenzen des Erkennens überhaupt
Die Kontextualität digitaler Repräsentationen
Möglichkeitsräume und alternative Formen von Rationalität
Digitale Welt und das Problem von Anfang und Ende
Mehr-Ebenen-Perspektiven und Mehrfach-Dopplungen der Welt
Wirklichkeiten erster und zweiter Ordnung
Die Eigendynamik jeder Ebene von Wirklichkeit
Vernunftfähigkeit und Grenzen der digitalen Welt
2. Digitales Nichtwissen
Die moderne Wissensexplosion und die abnehmende Halbwertzeit von Wissen
Die Geschwindigkeit digitaler Transformation als Herausforderung
Mentale Architektur und verändertes Zeitgefühl
Digitalität als Epochenbruch im Umgang mit Wissen und Nichtwissen
Die Relevanz und die Plausibilität von Information
Situative Wahrnehmungskontexte
Relevanzurteil, Framing und Coping
Navigation in Wissensbeständen und Mustererkennung
Die Grenzfläche des Nichtwissens in der digitalen Welt
Digitale Ignoranzkompetenz als individuelle Bewältigungsstrategie
Das Ziel persönlicher digitaler Souveränität
3. Lernen und Entscheiden bei Menschen und Maschinen
Die Opazität von Entscheidungen
Die Steuerungsfunktion beim Umgang mit Wissen und Nichtwissen
Akkumulierendes Lernen, verstehendes Lernen und Identitätslernen
Maschinelles Lernen und Entscheiden
Entscheidungen vorbereiten, Entscheiden und Funktionieren
Situative Komplexität und reichhaltige Kontextualität
Die strukturelle Unvollständigkeit von Kontextbeschreibungen
Emotionale Selbststeuerung und die Priorisierung von Handlungen
Funktionale Rationalität und komplexe Weltmodelle
Rationale Priorisierung und der Emotionsüberschuss von Menschen
Unsichtbare Entscheidungen und der Kontextüberschuss bei Maschinen
Offenlegung von Risikoniveaus für digitale Anwendungen
Die Steigerung kognitiver Leistungsfähigkeit durch digitale Maschinen
Digitales Eigenleben und soziale Risiken maschineller Entscheidungen
Exocerebrum, Selbstbewusstsein und die Fähigkeit zur Selbstkorrektur
4. Digitale Identität
Menschliche Identität, Planungsfähigkeit und Zeitsouveränität
Digitale Identität als Epochenbruch der Selbstwahrnehmung
Drei Ebenen der Person: Physisches Ich, digitales Ich und Cloud-Ich
Digitale Orientierungskompetenz und digitaler Kontrollverlust
Auswirkungen digitaler Identität auf Körper und Seele
Digitale Erlebnisräume und digitale Konnektivität als Teil der Biografie
Hybride Identität und digitale Selbstoptimierung
Soziale Grenzen digitaler Identität: Gesichtserkennung und Genomanalyse
Öffentliche und private Identität in digitalen Zeiten
Angriffe auf digitale Identität: Datensicherheit und Cybercrime
Digitale Teilhabe und digitale Exklusion
Digitale Identität als historischer Lernprozess
5. Digitale Arbeit
Regeln, Steuern, Organisieren: Die digitale Transformation in der Arbeitswelt
Mensch-Maschine-Interaktion (I): Welcher Akteur entscheidet?
Mensch-Maschine-Interaktion (II): Diagnostik, Kontrolle oder Kollaboration?
Das Auseinanderfallen von Steuerung und Systemkomplexität als Paradox
Steuerung, Kausalität und die Zuschreibung von Verantwortung
Mainstreaming und Individualisierung: die soziale Seite digitaler Transformation
Digitale Ökosysteme, Sinn und Zugehörigkeit
Hybride Loyalität zwischen Leistung und Sinnerfüllung
Hybride Realität und Paradoxien der digitalen Arbeitswelt
6. Digitale Politik
Digitale Kommunikation und die Globalisierung von Werten und Normen
Digitale Finanztransaktionen und die Reichweite der Politik
Digitale Souveränität von Staaten
Datenkartelle und die Freiheit digitaler Märkte
Digitale Daseinsvorsorge: Die Rolle der Staaten im digitalen Strukturwandel
Dateneigentum und kommerzielle Wertschöpfung mit Daten
Die Daten der Bürgerinnen und Bürger: Das Ziel eines Datentreuhänders
Datensouveränität und das Ziel einer europäischen Cloud
Digitale Menschenrechte in der globalen Welt: Ein Internationaler Digitalgerichtshof
Digitale Solidarität als Zukunftsraum globaler Zivilgesellschaft
7. Digitale Ethik
Ethische Sprachfähigkeit als Herausforderung in der digitalen Welt
Humanität im Kontext von Menschenwürde und Menschenrechten
Humanität, Roboter und die Asimov’schen Gesetze
Utilitaristische, deontologische und Tugendethik: Humanität als Kriterium
Mentale Architektur und situative Handlungskontexte
Handwerkszeug für Verantwortung: Methoden ethischer Entscheidungsfindung
Prinzipienreflexion: Digitale Haftung und digitale Verantwortung
Ethik in der digitalen Lebenswelt und digitale Professionsethik
Ethik als Bestandteil digitaler Technik: Ethics by Design und Value Sensitive Design
Digitale Fairness als Aufgabe für Unternehmen und Institutionen
Der Leitstern der Humanität: Menschliche Werte für die digitale Welt
8. Digitale Religion und digitale Humanität
Gottebenbildlichkeit: Die Würde von Menschen und von Maschinen
Digitale Superintelligenz und digitale Unsterblichkeit
Digitale Religion als digitale Heilserwartung
Religiöse Praxis in digitalen Welten und digitale Theologien
Digitale Schöpfung: Digitale Maschinen als Quasi-Personen
Digitale Humanität als Ziel
Glossar
Namensregister
Personen
Firmen
Über den Autor
Recommend Papers

Kritik der digitalen Vernunft. Warum Humanität der Maßstab sein muss [1. ed.]
 9783451819773, 9783451820007, 9783451389153

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Ulrich Hemel

Kritik der digitalen Vernunft

Ich widme den Band meinen drei Enkeln Justus (geboren 2013), Jonas (geboren 2015) und Amalia (geboren 2019).

Ulrich Hemel

Kritik der digitalen Vernunft Warum Humanität der Maßstab sein muss

Abdruck des Texts „Google unser“ auf S. 349 mit freundlicher Genehmigung des DCI Institute, Hamburg, aus: Christian Hoffmeister, Google Unser. © DCI Institute, Hamburg, 2019, S. 2.

© Verlag Herder GmbH, Freiburg im Breisgau 2020 Alle Rechte vorbehalten www.herder.de Covergestaltung: Stefan Hilden/Bernd Sauter, www.HildenDesign.de Covermotiv: © HildenDesign unter Verwendung mehrerer Motive von Shutterstock.com Satz: Röser MEDIA, Karlsruhe E-Book-Konvertierung: Röser MEDIA GmbH & Co. KG ISBN E-Pub 978-3-451-81977-3 ISBN E-PDF 978-3-451-82000-7 ISBN Print 978-3-451-38915-3

Inhalt Vorwort. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1. Philosophische Grundfragen der ­Digitalität. . . . . . . . . . . . . . . 13 Das Eindringen des Digitalen in die Lebenswelt. . . . . . . . . . . . . . . . . . . . 13 Digitale Verunsicherung und digitaler Konformitätsdruck . . . . . . . . . . . . 15 Vernunft und Verstand in der digitalen Welt . . . . . . . . . . . . . . . . . . . . . . 16 Unvernünftige Aspekte des Menschseins . . . . . . . . . . . . . . . . . . . . . . . . . 18 Ist die digitale Welt grundsätzlich vernünftig?. . . . . . . . . . . . . . . . . . . . . .19 Ist Vernunft grundsätzlich digital? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Wie lassen sich Leistungsgrenzen der digitalen Welt beschreiben?. . . . . . . 23 Grenzen der Messtechnik und Grenzen des Erkennens überhaupt . . . . . . 26 Die Kontextualität digitaler Repräsentationen . . . . . . . . . . . . . . . . . . . . . 28 Möglichkeitsräume und alternative Formen von Rationalität. . . . . . . . . . 29 Digitale Welt und das Problem von Anfang und Ende. . . . . . . . . . . . . . . 32 Mehr-Ebenen-Perspektiven und Mehrfach-Dopplungen der Welt . . . . . . 35 Wirklichkeiten erster und zweiter Ordnung. . . . . . . . . . . . . . . . . . . . . . . 36 Die Eigendynamik jeder Ebene von Wirklichkeit. . . . . . . . . . . . . . . . . . . 40 Vernunftfähigkeit und Grenzen der digitalen Welt. . . . . . . . . . . . . . . . . . 41

2.  Digitales Nichtwissen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 Die moderne Wissensexplosion und die abnehmende Halbwertzeit von Wissen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 Die Geschwindigkeit digitaler Transformation als Herausforderung. . . . . 50 Mentale Architektur und verändertes Zeitgefühl . . . . . . . . . . . . . . . . . . . 52 Digitalität als Epochenbruch im Umgang mit Wissen und Nichtwissen. . 55 Die Relevanz und die Plausibilität von Information. . . . . . . . . . . . . . . . . 56 Situative Wahrnehmungskontexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

5

Inhalt

Relevanzurteil, Framing und Coping. . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 Navigation in Wissensbeständen und Mustererkennung. . . . . . . . . . . . . . 64 Die Grenzfläche des Nichtwissens in der digitalen Welt. . . . . . . . . . . . . . 66 Digitale Ignoranzkompetenz als individuelle Bewältigungsstrategie . . . . . 68 Das Ziel persönlicher digitaler Souveränität. . . . . . . . . . . . . . . . . . . . . . . 69

3. Lernen und Entscheiden bei Menschen und Maschinen . . . . . 75 Die Opazität von Entscheidungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Die Steuerungsfunktion beim Umgang mit Wissen und Nichtwissen. . . . 81 Akkumulierendes Lernen, verstehendes Lernen und Identitätslernen. . . . 84 Maschinelles Lernen und Entscheiden. . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Entscheidungen vorbereiten, Entscheiden und Funktionieren . . . . . . . . . 91 Situative Komplexität und reichhaltige Kontextualität. . . . . . . . . . . . . . . 93 Die strukturelle Unvollständigkeit von Kontextbeschreibungen. . . . . . . . 94 Emotionale Selbststeuerung und die Priorisierung von Handlungen. . . . . 96 Funktionale Rationalität und komplexe Weltmodelle . . . . . . . . . . . . . . . 98 Rationale Priorisierung und der Emotionsüberschuss von Menschen. . . 102 Unsichtbare Entscheidungen und der Kontextüberschuss bei Maschinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Offenlegung von Risikoniveaus für digitale Anwendungen. . . . . . . . . . . 108 Die Steigerung kognitiver Leistungsfähigkeit durch digitale Maschinen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 Digitales Eigenleben und soziale Risiken maschineller Entscheidungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 Exocerebrum, Selbstbewusstsein und die Fähigkeit zur Selbstkorrektur. . . .117

4.  Digitale Identität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 Menschliche Identität, Planungsfähigkeit und Zeitsouveränität . . . . . . . 124 Digitale Identität als Epochenbruch der Selbstwahrnehmung. . . . . . . . . 128 Drei Ebenen der Person: Physisches Ich, digitales Ich und Cloud-Ich. . . 131 Digitale Orientierungskompetenz und digitaler Kontrollverlust. . . . . . . 134 Auswirkungen digitaler Identität auf Körper und Seele. . . . . . . . . . . . . . 138 Digitale Erlebnisräume und digitale Konnektivität als Teil der Biografie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 Hybride Identität und digitale Selbstoptimierung. . . . . . . . . . . . . . . . . . 145

6

Inhalt

Soziale Grenzen digitaler Identität: Gesichtserkennung und Genomanalyse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Öffentliche und private Identität in digitalen Zeiten . . . . . . . . . . . . . . . 153 Angriffe auf digitale Identität: Datensicherheit und Cybercrime. . . . . . . 155 Digitale Teilhabe und digitale Exklusion. . . . . . . . . . . . . . . . . . . . . . . . .158 Digitale Identität als historischer Lernprozess. . . . . . . . . . . . . . . . . . . . . 160

5.  Digitale Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 Regeln, Steuern, Organisieren: Die digitale Transformation in der Arbeitswelt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 Mensch-Maschine-Interaktion (I): Welcher Akteur entscheidet?. . . . . . . 174 Mensch-Maschine-Interaktion (II): Diagnostik, Kontrolle oder Kollaboration?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 Das Auseinanderfallen von Steuerung und Systemkomplexität als Paradox. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 Steuerung, Kausalität und die Zuschreibung von Verantwortung. . . . . . 192 Mainstreaming und Individualisierung: die soziale Seite digitaler Transformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 Digitale Ökosysteme, Sinn und Zugehörigkeit . . . . . . . . . . . . . . . . . . . 204 Hybride Loyalität zwischen Leistung und Sinnerfüllung. . . . . . . . . . . . . 207 Hybride Realität und Paradoxien der digitalen Arbeitswelt. . . . . . . . . . . 209

6. Digitale Politik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 Digitale Kommunikation und die Globalisierung von Werten und Normen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 Digitale Finanztransaktionen und die Reichweite der Politik . . . . . . . . . 224 Digitale Souveränität von Staaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 Datenkartelle und die Freiheit digitaler Märkte . . . . . . . . . . . . . . . . . . . 233 Digitale Daseinsvorsorge: Die Rolle der Staaten im digitalen Strukturwandel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 Dateneigentum und kommerzielle Wertschöpfung mit Daten. . . . . . . . 241 Die Daten der Bürgerinnen und Bürger: Das Ziel eines Datentreuhänders . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 Datensouveränität und das Ziel einer europäischen Cloud . . . . . . . . . . 252

7

Inhalt

Digitale Menschenrechte in der globalen Welt: Ein Internationaler Digitalgerichtshof. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255 Digitale Solidarität als Zukunftsraum globaler Zivilgesellschaft . . . . . . . 261

7.  Digitale Ethik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 Ethische Sprachfähigkeit als Herausforderung in der digitalen Welt . . . . 269 Humanität im Kontext von Menschenwürde und Menschenrechten . . . 273 Humanität, Roboter und die Asimov’schen Gesetze . . . . . . . . . . . . . . . . 277 Utilitaristische, deontologische und Tugendethik: Humanität als Kriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283 Mentale Architektur und situative Handlungskontexte. . . . . . . . . . . . . . 292 Handwerkszeug für Verantwortung: Methoden ethischer Entscheidungsfindung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 Prinzipienreflexion: Digitale Haftung und digitale Verantwortung. . . . . 307 Ethik in der digitalen Lebenswelt und digitale Professionsethik . . . . . . . 318 Ethik als Bestandteil digitaler Technik: Ethics by Design und Value Sensitive Design. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 Digitale Fairness als Aufgabe für Unternehmen und Institutionen. . . . . 324 Der Leitstern der Humanität: Menschliche Werte für die digitale Welt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329

8. Digitale Religion und digitale Humanität. . . . . . . . . . . . . . . 339 Gottebenbildlichkeit: Die Würde von Menschen und von Maschinen. . 340 Digitale Superintelligenz und digitale Unsterblichkeit . . . . . . . . . . . . . . 345 Digitale Religion als digitale Heilserwartung . . . . . . . . . . . . . . . . . . . . . 351 Religiöse Praxis in digitalen Welten und digitale Theologien. . . . . . . . . . 353 Digitale Schöpfung: Digitale Maschinen als Quasi-Personen . . . . . . . . . 356 Digitale Humanität als Ziel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366

Glossar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373 Namensregister. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395 Personen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395 Firmen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400

Über den Autor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401 8

Vorwort Die digitale Transformation verändert unser Leben. Als Bündel technologischer Innovationen prägt sie Wirtschaft und Politik, Wissenschaft und Medien, das Öffentliche wie das Private. Sie benötigt aber auch kräftige Impulse aus der Zivilgesellschaft, wenn sie zugleich ihr humanisierendes Potenzial entfalten soll. Denn beide Wege sind möglich: der Weg der digitalen Unfreiheit und der Weg der digitalen Verbesserung von Lebensbedingungen in einer globalen Zivilgesellschaft mit inzwischen fast acht Milliarden Menschen. Die Corona-Krise, die während der ersten Fassung des Buches weltweit für Umbrüche sorgte, verstärkt den Trend zu einer zunehmend digitalen, vielleicht auch immer mehr regionalen und ökologisch bewussten Wirtschaftsweise. Dann aber ist erst recht zu fragen, wie wir unser Zusammenleben gestalten wollen: kleinräumig oder global, abgeschottet im Kokon von Familie und Nationalstaat oder offen für eine gerechtere, friedlichere und nachhaltige Wirtschaftsweise, die allen Menschen zugutekommt. Was also bedeutet die digitale Transformation für uns Menschen? Die Frage stand am Anfang dieses Buches, das den Titel „Kritik der digitalen Vernunft“ trägt. Dahinter steckt die Überzeugung, dass wir neu lernen müssen, umfassend zu denken und zu handeln. Denn was alle betrifft, muss auch für alle ausgelegt werden. Die Betrachtung von Teilaspekten ist notwendig, aber sie muss durch den wagemutigen Versuch ergänzt werden, einen Blick auf das Ganze unseres Lebens in digitalen Zeiten zu werfen. Eine solche Auslegung im Rahmen einer „Kritik der digitalen Vernunft“ ist ein Gedankenanstoß, nicht mehr, aber auch nicht weniger. 9

Vorwort

Wir müssen die digitale Welt mit Blick auf unsere Identität, aber auch auf praktische Anwendungsfelder wie die Arbeitswelt und die politischen Verhältnisse, schließlich auf Fragen der Ethik und der Religion zu erfassen lernen. Gleichzeitig gilt es, uns als Menschen in der Unterscheidung von Tieren und von Maschinen neu zu verstehen. Dabei entstehen durchaus neue Fragen, etwa die nach einer „Maschinenwürde“ analog zur „Menschenwürde“, die im letzten Kapitel explizit aufgegriffen wird. Es lohnt sich also, der Hinführung zum Verständnis der digitalen Welt in Abgrenzung und Gemeinsamkeit mit der menschlichen Vernunft etwas mehr Raum zu geben. Zu fragen ist folglich nach der Vernunft des Digitalen, nach der Rolle des digitalen Nichtwissens und der „Intelligenz“ Künstlicher Intelligenz, also auch dem Lernen von Menschen und von Maschinen. Daran schließt sich die Frage an, wer wir angesichts der digitalen Transformation sind und sein werden. So geht es in einem weiteren Kapitel ausdrücklich um unsere digitale Identität. Eine „Kritik der digitalen Vernunft“ spielt im Titel zweifellos mit dem großen Beitrag Immanuel Kants für die europäische Geistesgeschichte. Seine „Kritik der reinen Vernunft“ erschien 1781, zwei Jahre nach der Französischen Revolution, die wir geistesgeschichtlich und politisch als Epochenwende begreifen. Hinter der „Kritik der digitalen Vernunft“ steckt insofern der Gedanke an eine neuerliche Epochenwende, aber auch die Notwendigkeit einer neuen Aufklärung. Denn zum Menschen gehört immerhin auch und nach wie vor seine Vernunftfähigkeit, vor und jenseits aller Künstlichen Intelligenz. Weil Aufklärung ein praktisches Anliegen ist, heißt das Buch nicht „Prolegomena“ zu einer Kritik der digitalen Vernunft (auch weil viele Menschen den Begriff Prolegomena, also „anfängliche Bruchstücke“, gar nicht mehr kennen). Es heißt auch nicht „Beiträge zu einer Kritik der digitalen Vernunft“, denn damit wäre ein stark akademischer Duktus vorprogrammiert. Eingedenk der Grenzen und Schwächen 10

Vorwort

jeder einzelnen Person enthält damit diese „Kritik der digitalen Vernunft“ Glanz und Elend jedes Versuchs, die eigene Zeit auf den Begriff zu bringen. Dazu gehört es, dass wir als Menschen mit unseren Möglichkeiten ebenso wie mit unseren Grenzen leben. Die Grenzen eines Buches und eines Autors sind leicht zu verstehen: Ein Autor hat nur eine begrenzte Lebenszeit, eine begrenzte Auffassungs- und eine begrenzte Formulierungsgabe. Schon aus diesem Grund gehen alle Fehler, Einseitigkeiten und Mängel dieses Werks ausschließlich zu meinen Lasten. Wir sind als Menschen aber auch nicht alleine. Ich bin dankbar für großartige Unterstützung, ohne die dieses Buch nicht möglich gewesen wäre. Durch meine eigene Lebensreise konnte ich in vertiefter Art und Weise aufgrund meines Studiums der Katholischen Theologie, der Wirtschafts- und Sozialwissenschaften in Rom die spezielle Welt der Religion, dazu nach meiner Habilitation in Religionspädagogik die faszinierende Welt der Unternehmensberatung bei der Boston Consulting Group und im Anschluss daran die Welt des Managements, zuletzt als Vorstandsvorsitzender in einem großen Familienunternehmen und in Firmen aus dem Portfolio von Private Equity kennenlernen. Als Bundesvorsitzender des Bundes Katholischer Unternehmer und Gründer des Instituts für Sozialstrategie zur Erforschung der globalen Zivilgesellschaft habe ich das Privileg, den Zugang zu politisch aktiven Menschen zu finden, auch im bisweilen kontroversen Gespräch. Wenn ich von großartiger Unterstützung spreche, dann gilt dies für die Erstellung dieses Buches ganz besonders für das Team des Weltethos-Instituts in Tübingen, das zu leiten ich seit Juni 2018 die Ehre habe: Nurzat Sultanalieva und Kristina Janackova haben sich die Mühe gemacht, alle Kapitel des Buches ausführlich mit mir zu diskutieren. Kristina Janackova hat außerdem eine erste Fassung des umfangreichen Glossars sowie das Namensregister erstellt. Elena van 11

Vorwort

den Berg hat sehr präzise an der Schlussredaktion mitgewirkt. Bernd Villhauer verdanke ich wertvolle textliche und sachliche Anregungen. Christopher Gohl und Anna Tomfeah tragen ebenso wie Michael Wihlenda, Julia Schönborn, Esther Nezere und Arben Kukaj zum inspirierenden Charakter des Instituts enorm bei. Und das Institut selbst würde nicht existieren ohne die ungemein großzügige finanzielle Förderung des Stifters Karl Schlecht, der auch selbst sehr gerne seine Stimme ins Gespräch einbringt und sich trotz seiner inzwischen 88 Lebensjahre nach wie vor als „Suchender“ bezeichnet. Danken möchte ich aber auch dem Verlag Herder, für wunderbare Gespräche mit Simon Biallowons und Manuel Herder sowie für die ausgesprochen kundige Begleitung durch die Lektorin Johanna Oehler. Das Buchcover hat Stefan Hilden gestaltet, den wiederum Bernd Sauter auf das Thema aufmerksam gemacht hat. Besonders hervorzuheben ist hier meine Frau Amparo Lucia, die als gebürtige Kolumbianerin immer wieder den Blick auf andere Formen der Lebensgestaltung und andere Lebensweisen lenkt. Ich widme das Buch den kommenden Generationen, stellvertretend meinen Enkelkindern Justus (geboren 2013), Jonas (geboren 2015) und Amalia (geboren 2019). Und wenn die Leserinnen und Leser bei ihrer Lektüre so viel Neues für sich entdecken und so viel Vergnügen haben wie ich beim Schreiben, hat das Buch seinen Zweck erfüllt! Ulrich Hemel Tübingen und Laichingen, den 29. Juni 2020

12

1. Philosophische Grundfragen der ­Digitalität Die digitale Transformation durchzieht mittlerweile alle Lebensbereiche. Von der Produktion bis zur Logistik, vom Handel bis zu Dienstleistung, den Beruf ebenso wie den Alltag: Wir leben vernetzt und hängen von digitalen Strukturen in einem Ausmaß ab, das wir uns vor wenigen Jahren nicht hätten träumen lassen.

Das Eindringen des Digitalen in die Lebenswelt Mein Großvater, geboren 1896, Volksschullehrer im hessischen Bür­ stadt, liebte Reisen. Abgesehen von wenigen Fernreisen hatte er dabei einen Radius von etwa 100 km. Er nutzte öffentliche Verkehrsmittel und das Fahrrad. Autofahren lernte er nie. Fotografieren auch nicht. Aber er malte mit Aquarellfarben, und zwar Städte und Landschaften, vom nahen Rhein bis zu den Pyramiden in Ägypten. Mit der digitalen Welt hatte er nichts zu tun. Mein Vater, geboren 1927, nutzt das Telefon und fuhr zeitlebens Auto. An der digitalen Welt will er nicht teilhaben. Dadurch ist er nicht Mitglied der familieninternen WhatsApp-Gruppe. Wobei durchaus darüber diskutiert wird, dass die Datenschutzbestimmungen von WhatsApp unseren Ansprüchen nicht genügen. Achsel­ zuckend stellen die teilnehmenden Familienmitglieder allerdings fest, dass der praktische Nutzen überwiegt. Zu den kleinen Widersprüchen der digitalen Welt gehört es also, dass wir die familieninterne Kom-

13

1.  Philosophische Grundfragen der ­Digitalität

munikation in dieser WhatsApp-Gruppe über unsere Datenschutzbedenken stellen. Ich bin 1956 geboren und ein typischer „Digital Immigrant“. Mit diesem in der jüngeren Generation schon gar nicht mehr gebräuchlichen Begriff bezeichnete man Angehörige der Übergangsgeneration zwischen analoger und digitaler Welt. Immerhin gibt es das Internet erst seit 1991. Als ich 1988 gemeinsam mit meinem Freund Hans-Ferdinand Angel die Firma „EcclesiaData GmbH“ gründete, weil ich an das Zukunftspotenzial des PC auch im Bereich kirchlicher Organisationen glaubte, kamen wir zu früh und wichen auf andere Zielgruppen aus. Zu den Widersprüchen digitaler Immigrants gehört es bisweilen, dass sie zwischen analoger und digitaler Welt hin und her wechseln. Das geht auch mir so und gehört zur typischen Lebenslage meiner Alterskohorte. Eines Morgens vor fünf Jahren war mein jüngerer Sohn Daniel (geboren 1991) zu Besuch. Wir entschieden beim Frühstück, dass wir ins Kino gehen wollten. Ich zückte die gedruckte Tageszeitung, er sein Smartphone. Die Information über das Kinoprogramm war die gleiche, die Geschwindigkeit auch. Mein Enkelsohn Justus, geboren 2013, hat im Alter von 7 Jahren noch kein Handy. Manchmal tippt er Nachrichten auf dem Smartphone meines Sohnes, also seines 1983 geborenen Vaters Stefan. Justus ist in eine digital geprägte Welt hineingeboren, aber seine Eltern achten darauf, dass er in seiner frühen Kindheit durch Primärerfahrungen geprägt wird, nicht durch deren Abbildung auf einem Bildschirm. Er weiß also aus erster Hand, wie ein Wald riecht und wie Schmetterlinge fliegen. Andererseits durfte ich 2018 eine sehr neue und moderne Kindertagesstätte mit einem wunderschönen Ausblick in einen Park besuchen und fragte das Personal nach den Auswirkungen der digitalen Revolution. Eine Erzieherin erklärte mir: „Draußen war ein Eichhörnchen zu sehen. Ein Vierjähriger ging zum Fenster und machte 14

Digitale Verunsicherung und digitaler Konformitätsdruck

eine Wischbewegung zur Bildvergrößerung. Er war erstaunt, dass das nicht klappte.“ Diese Generationenerzählung soll zeigen: Die Welt hat sich radikal verändert, und sie wird sich weiter verändern. Aber was bedeutet dies für den einzelnen Menschen in der Generationenfolge einer Familie? Was bedeutet es für die Arbeitswelt? Was für den gesellschaftlichen Zusammenhalt insgesamt? Und wie sieht es aus, wenn wir die Welt als ganze betrachten? Vieles spricht dafür, dass wir immer noch am Anfang stehen. Die Veränderung wird weitergehen, nach allen Vorzeichen rasanter und schneller, als wir es uns vorstellen können. Das geht bis zu unserem Selbstverständnis: Menschen haben die neue Aufgabe, sich nicht nur gegenüber Tieren, sondern auch gegenüber Künstlicher Intelligenz (KI) oder „Artificial Intelligence“ (AI) abzugrenzen.

Digitale Verunsicherung und digitaler Konformitätsdruck Die Frage nach der „Vernunft“ des Digitalen ist nicht nur rhetorisch so gestellt. Sie verweist auf ein zugrunde liegendes Gefühl tiefer Verunsicherung: Wer sind wir Menschen, wenn Maschinen uns womöglich überflüssig machen? Wie gehen wir mit dem Trend zu immer größerer Konformität um, den man „Digital Mainstreaming“ nennen kann? Wie können wir frei leben, wenn wir stets und ständig überwacht werden, etwa über unsere Bewegungsdaten und Bewegungsprofile, unsere Suchabfragen, unser Zahlungsverhalten, unseren digitalen Konsum? Immerhin wird schon die Abschaffung des Bargelds diskutiert, und zwar mit dem Argument der Verhinderung von Geldwäsche. So als ob jede Zahlung mit Bargeld unter den Schatten des Verdachts fiele! Das kleine Beispiel „Abschaffung von Bargeld“ zeigt auf, wie massiv sich die digitale Welt auf den Alltag auswirkt. Aber auch hier gibt 15

1.  Philosophische Grundfragen der ­Digitalität

es zwei Seiten. So konnte ich Anfang 2020 an einer Tankstelle mein Benzin nicht wie üblich mit der Kreditkarte, sondern nur mit Bargeld bezahlen. Die Kassiererin fragte mich, ob das denn ein Grund sei, anderswo zu tanken – und ich bejahte. Denn Bargeld muss ich aus dem Geldautomaten ziehen, was Aufwand und Mühe ist. Die Kreditkarte ist unmittelbar verfügbar, und am Ende des Monats habe ich eine Aufstellung über meine Ausgaben. Bequemlichkeit hat aber auch hier ihren Preis: Denn dann weiß nicht nur ich, was ich gezahlt habe, sondern auch das Kreditkartenunternehmen. Wie meine Daten dann in Big-Data-Auswertungen eingehen, weiß keiner. Aber im Alltag verdrängen wir es.

Vernunft und Verstand in der digitalen Welt Ist die digitale Welt vernünftig, kann Vernunft digital sein? Das ist die Leitfrage dieses Kapitels, und sie führt hin zum Thema dieses Buches. Selbst bei einem ganz einfachen Beispiel wie dem Tanken mit Kreditkarte entstehen Fragen, die sich aus der digitalen Durchdringung des Alltags ergeben. Was daran vernünftig ist, kann nicht losgelöst von eigenen Perspektiven und Interessen beantwortet werden. Das aber ist genau ein Teil des Dilemmas. Denn natürlich ist es praktischer und unter diesem Blickwinkel vernünftig, wenn ich mir einmal im Monat meine Benzinkosten ansehe. Wenn ich bar zahle, müsste ich mir das separat aufschreiben, Belege sammeln, Listen führen und dergleichen. Das Digitale wird also Teil der Alltagsvernunft! Wobei ausgebildete Philosophen anmerken würden, es könne sich hier höchstenfalls um ein Phänomen des alltäglichen Verstandes handeln, denn es geht um den „common sense“. Im angelsächsischen Sprachgebrauch ist damit insbesondere die Pragmatik des Einsatzes unserer Denk- und Handlungsfähigkeit in Abgrenzung zu einer umfassend verstandenen kognitiven Rationalität gemeint. 16

Vernunft und Verstand in der digitalen Welt

Die weiter oben erwähnte Abschaffung des Bargelds verhindert Geldwäsche beim Kauf von Autos und Wohnungen, etwa wenn große Beträge in bar über den Tisch gehen. In Großbritannien gibt es bereits ein Gesetz, das zu Erklärungen verpflichtet, wenn große Summen Geld von einem Konto bewegt werden. Das Digitale ist hier nicht einfach Teil der Vernunft. Es wird Teil einer immer enger werdenden sozialen Kontrolle. Eine Kritik der digitalen Vernunft wird daher stets die Balance aus sozialer Kontrolle und Alltagserleichterung, aus Befreiung und Beherrschung, aus individueller Einzigartigkeit und genormtem Gruppenverhalten berücksichtigen müssen. Digitale Fragen sind nicht nur Fragen der Zweckmäßigkeit, sondern auch Fragen sozialer Macht und Ohnmacht. Die digitale Frage ist ja tatsächlich in vielerlei Hinsicht eine soziale und eine politische Frage, ob es auf den ersten Blick so wirkt oder nicht. Dafür möchte dieses Buch den Blick schärfen. Überlegungen darüber, was genau „digitale Vernunft“ sein soll, werden Gegenstand der folgenden Kapitel sein. Dabei ist digitale Vernunft von „Künstlicher Intelligenz“ zu unterscheiden und wird qualitativ gedeutet. Wir haben uns ja längst daran gewöhnt, dass gut programmierte und selbst lernende Computerprogramme besser Schach und besser Go spielen als die weltbesten Spieler. Reden wir dann von „intelligenten Anwendungen“ oder von „digitaler Vernunft“? Sollen wir eine „digitale Vernunft“ von einem „digitalen Verstand“ abgrenzen, oder geht eine solche Unterscheidung zu weit? Gibt es sinnvoll abgrenzende Gegenbegriffe zum Terminus „digitale Vernunft“, etwa digitale Unvernunft, digitaler Wahnsinn, digitale Naivität? Ist am Ende unsere Vernunft grundsätzlich schon „digital“? Oder deuten wir bloß aufgrund aktueller technischer Neuerungen unser menschliches Erkenntnisvermögen nach dem Bild der gerade aktuellsten Maschine? Schließlich hatten die Fortschritte der Präzi-

17

1.  Philosophische Grundfragen der ­Digitalität

sionsmechanik dazu geführt, dass Gott im 17. Jahrhundert auch mit dem obersten und perfekten Uhrmacher verglichen wurde.

Unvernünftige Aspekte des Menschseins Und wenn wir von „Vernunft“ und „vernünftig“ sprechen, wie gehen wir in Anwendung auf die digitale Welt mit den nicht so vernünftigen, mit den nicht nur emotionalen, sondern rundum irrationalen und widersprüchlichen Anteilen menschlichen Handelns und Lebens um? Wäre die Vernunft dann nur ein abgegrenzter Bereich inselhafter Anwendungen für eine rationale Weltgestaltung? Dann wäre eine rundum vernünftige Welt eine Welt der Perfektion, die zu einem breiteren Fundament rationaler Lebensgestaltung führen könnte. Unter diesem Blickwinkel könnten wir den heutigen Menschen eher mit Blick auf seine Defizite und Rationalitätsmängel betrachten. Genau das ist die Perspektive nicht weniger Forscher auf dem Gebiet der KI (vgl. dazu kritisch: A. Grunwald 2018). Wer Rationalität als ein grundsätzlich erstrebenswertes Ziel betrachtet, für den wirkt es anziehend, wenn der Mensch mit digitalen Vernunftmitteln Schritt für Schritt zur „rationalen“, also „vernünftigen“ Selbstoptimierung geführt werden kann. „Digitale Vernunft“ wäre dann in gewisser Weise ein pädagogisches Programm zur vernünftigen Erziehung des Menschengeschlechts. Ob Immanuel Kant (1724-1804) sich den Ausgang des Menschen aus der selbst verschuldeten Unmündigkeit so vorgestellt haben mag? Wäre dann nicht zu fragen, ob sich digitale Vernunft als neue Spielart eines Intellektualismus kennzeichnet, der zu einem rationalen Überbietungswettbewerb führt? Dann reden wir bald nicht mehr vom Menschen, wie er ist, sondern konsequenterweise von einem „Trans-

18

Ist die digitale Welt grundsätzlich vernünftig?

humanismus“ oder vom „Übermenschen“, wie es Friedrich Nietzsche (1844-1900) ausgedrückt hat. Schon diese wenigen Überlegungen werfen Unbehagen auf. Sollen wir eine solche rein rationale Welt wollen? Immerhin vermag ja auch die Gegenthese, also eine übertriebene Betonung emotionaler, bisweilen gar irrationaler Elemente der menschlichen Lebensführung nicht zu überzeugen. Denn eine ausschließlich romantische Weltsicht lässt sich mit fast 8 Milliarden Menschen auf der Erde weder individuell noch kollektiv gut realisieren. Wie also finden wir eine Balance zwischen „Rationalität“ und „Emotionalität“?

Ist die digitale Welt grundsätzlich vernünftig? Die einfache Frage, ob die digitale Welt vernünftig sei, ist folglich gar nicht so einfach zu beantworten. Gleiches gilt für die Frage, wie wir mit der digitalen Welt vernünftig umgehen können. Die bedingungslos digitale Struktur von automatisierten Rechenoperationen ist als solche frei von Geschmack, Geruch und Sinneswahrnehmungen, aber das allein reicht nicht dafür aus, sie als „vernünftig“ anzuerkennen. Es gibt eben auch ein Potenzial zur Sinnfreiheit oder Sinnlosigkeit in der digitalen Welt. Konkret bedeutet dies, dass „rational“ strukturierte Rechenoperationen auf der Grundlage problematischer oder gar irrationaler Voraussetzungen zu keinem vernünftigen Ergebnis führen. Dies gilt sowohl bei erkannter wie auch bei unerkannter Irrationalität. So können wir uns durchaus eine künstlerische Installation vorstellen, die in einem Museum kleine Schwankungen des Luftdrucks mit kleinen Schwankungen der Lichtstärke kombiniert und daraus Ergebnisse berechnet, die als akustische Tonfolge ausgegeben werden. Das mag funktional nicht besonders sinnvoll sein, veranschaulicht 19

1.  Philosophische Grundfragen der ­Digitalität

aber das Potenzial zur Sinnfreiheit digitalen Outputs. Darüber hinaus wäre genau das auf einer nächsten Ebene der Realität die „künstlerische Botschaft“. Schwieriger ist der Fall, wenn die unzureichende Qualität von Daten-Input gar nicht erst erkannt wird. Dann kommt es zu einem sozialen Fehlvertrauen in Ergebnisse, die gar nicht aussagekräftig und sinnvoll sind. Dieser Fall ist häufiger, als wir es im Alltag erwarten, und er stellt ein Grundproblem digitaler Zeit dar. Grundsätzlich gilt jedenfalls: Sinnloser Input führt zu sinnlosem Output. „Garbage in, garbage out“, hieß das in der digitalen Frühzeit. Wobei bereits in der klassischen Logik der Satz gilt, dass aus falschen Prämissen keine gültigen Schlüsse gezogen werden können. Anders gesagt: Die inhärente Programmatik digitaler Vernunft ist gerade in ihrer Struktur als stringente digitale Rationalität von Voraussetzungen abhängig, die sie selbst nicht schaffen kann. Die Frage nach Voraussetzungen taucht auch in ganz anderen Zusammenhängen auf, etwa in der Staatstheorie. So besagt das berühmt gewordene Böckenförde-Theorem, dass der Staat von Voraussetzungen abhängig sei, die er selbst nicht geschaffen habe (H. Böckenförde 1967, 75-94; H. Dreier 2018, 189-214). Wenn ein solcher Gedanke auf die digitale Welt übertragbar ist, dann entsteht das oben angedeutete Paradox, dass die Grundlagen für digitale Rationalität nicht notwendigerweise vernünftig oder rational sein müssen. Denn wenn die Voraussetzungen der digitalen Welt außerhalb ihrer selbst liegen, was ja nachweislich der Fall ist, dann werden diese Voraussetzungen auch nicht den gleichen Rationalitätsanforderungen wie bei der Programmierung innerhalb der digitalen Welt folgen können. Folglich sind irrationale Elemente in der Begründung und Verwendung der digitalen Welt ebenso möglich wie in der klassischen, analogen Welt. Das aber ist ein auf den ersten Blick erstaunliches Ergebnis!

20

Ist Vernunft grundsätzlich digital?

Natürlich gibt es vernünftige Aufgaben und Zwecke, bei denen digitale Hilfen, Programme und Werkzeuge die konkrete Aufgabenund Zweckerfüllung erleichtern oder sogar erst ermöglichen. Vernunft ist aber als „rationale Anfangsvoraussetzung“, wie gerade ausgeführt, nicht von Haus aus ein zutreffendes Attribut der digitalen Welt. Die Zuschreibung von Vernunft zur digitalen Welt und ihren Anwendungen erfolgt vielmehr über grundlegende Rationalitätsfragen hinaus in einem sozialen und politischen Zusammenhang, der niemals ganz zweckfrei ist, sondern der partiellen und kontextuellen Perspektiven folgt.

Ist Vernunft grundsätzlich digital? Die nahe liegende Umkehr der Fragerichtung, also die Überlegung, ob Vernunft digital sein könne, ist nicht leichter zu beantworten. In der Frage stecken ja schon mindestens zwei Voraussetzungen, nämlich die der grundsätzlichen, digitalen Abbildbarkeit vernünftiger Prozesse in digitale Strukturen und die Frage nach der zumindest theoretisch möglichen Vollständigkeit einer solchen Abbildung. Anders gesagt könnten wir entweder meinen, dass es im menschlichen Geist und in der Welt nicht-digitalisierbare Bereiche gibt oder die Auffassung vertreten, es gebe diese zwar noch, aber nur noch auf begrenzte Zeit: Denn grundsätzlich könne alles digitalisiert werden. Die Idee einer „vollständigen Abbildung oder Erklärung“ würde mit der Behauptung einhergehen, dass durch eine digitale Abbildung und Programmierung vernünftiges Denken und Handeln von Menschen vollständig erklärt werden könne. Daraus würde im Umkehrschluss folgen, dass alles, was nicht oder noch nicht digital abgebildet werden kann, auch nicht vernünftig ist.

21

1.  Philosophische Grundfragen der ­Digitalität

Ich spreche hier vom „Vollständigkeitstheorem“ der digitalen Vernunft. Wer so argumentiert, für den kann wie erläutert die naturwüchsige Vernunft lebender Menschen vollständig digital abgebildet werden. Was bisher nicht digital abgebildet wurde, ist entweder von Haus aus unvernünftig oder im immer nur vorläufigen Warteraum noch besserer technischer Realisierung. Es ist kein Zufall, dass wir hier relativ rasch auf den bekannten Ersten Unvollständigkeitssatz von Kurt Gödel (1906-1978) stoßen. Dabei geht es darum, dass in bestimmten formalen Systemen nicht alle Aussagen bewiesen oder widerlegt werden können: „Jedes hinreichend mächtige, rekursiv aufzählbare formale System ist entweder widersprüchlich oder unvollständig“ (K. Gödel 1931). Systeme enthalten in diesem Sinne eine Sprache mit Aussagen und Formeln, ferner Axiome und Regeln für das Schlussfolgern. Die Theoriebildung in der formalen Logik ist eine Sache, deren Anwendung auf die digitale Welt eine andere. Denn eine alternative Deutung der Frage, ob Vernunft digital sein könne, ist stärker auf den in sich begrenzten Möglichkeitsraum des Digitalen ausgerichtet. Dann gäbe es sozusagen unterschiedliche Parallelwelten der Vernunft, nämlich digital abzubildende, aber auch andere. Parallelwelten der Vernunft wären dann gegeben, wenn diese aus technischen, aus grundsätzlichen oder aus anderen Gründen digital nicht abgebildet werden können. Die grundsätzliche Möglichkeit, Vernunft digital abzubilden, ginge dann nicht mit einem Vollständigkeitsanspruch für Rationalität und digitale Rationalität einher. Gemeint wäre also der Gedanke, Vernunft könne eben nicht vollständig digital abgebildet werden, entweder aufgrund der beschriebenen technischen Begrenzung oder aufgrund der Gleichzeitigkeit mit alternativen Formen von Rationalität, wie immer diese empirisch, spekulativ oder sonst zu beschreiben wären.

22

Wie lassen sich Leistungsgrenzen der digitalen Welt beschreiben?

Wie lassen sich Leistungsgrenzen der digitalen Welt beschreiben? Die angerissenen Gedankenstränge bedürfen einer Erläuterung, weil sie dem Vollständigkeitstheorem digitaler Erfassung widersprechen. Denn eine „grundsätzliche Grenze“ ist von einer „technischen Begrenzung“ zu unterscheiden, also einer Grenze, die von der Verfügbarkeit von Rechnerinfrastruktur, von Rechnerkapazität, von geeigneten Programmen und Anwendungen, aber auch von Energie und sonstiger Infrastruktur abhängt. Beim Blick auf technische Leistungsgrenzen nehmen wir immer auch zukünftige Grenzverschiebungen mit ins Kalkül. Wir reden dann von einem „Schon“ und einem „Noch-Nicht“, von „Jetzt“ und „Zukunft“. Diese deutliche Spannung zwischen Erfüllung und Erwartung, zwischen Realisierung und Potenzialität wird jenseits der digitalen Welt besonders stark in der christlichen Theologie bearbeitet, etwa innerhalb der Theologie der Endzeiterwartung oder der Eschatologie (vgl. P. Koslowski 2002, J. Ratzinger 2005, J. Moltmann 2007). Mit dem „Schon“ ist dabei grundsätzlich ein Ausblick auf das „NochNicht“ verbunden, das aber bald erwartet wird. Genau das nennt man in der Theologie „eschatologische Erwartung“. Für das „Schon und Noch-Nicht“ digitaler Vernunfterwartung gibt es handfeste Gründe, etwa das Moore’sche Gesetz, nachdem sich die Rechenleistung alle 18 bis 24 Monate verdoppelt. In den vergangenen Dekaden hat es sich als ungewöhnlich robust erwiesen. Jedes Mal, wenn natürliche Grenzen erreicht zu sein schienen, wurden neue technische Durchbrüche möglich, bis hin zur Erwartung des Quantenrechners, der zu einer neuerlichen Leistungsexplosion von Rechenleistung führen könnte. Der Gedanke einer technischen Leistungsgrenze für die digitale Welt ist naheliegend, da wir beim immer weiteren Vordringen technischer Auflösung irgendwann zu subatomaren Strukturen kommen, 23

1.  Philosophische Grundfragen der ­Digitalität

über die wir trotz großer Fortschritte in der Physik noch wenig wissen. Für den starken Fortschrittsglauben von Protagonisten digitaler Evolution wirkt der Gedanke einer „Leistungsgrenze“ dennoch wie ein Tabubruch, ein Sakrileg. Trotzdem will ich ihn hier weiter entfalten, und zwar am Beispiel von Datenvolumen und Datenkontext. Dabei möchte ich ein einfaches Beispiel heranziehen, einen Apfel, der vor mir auf dem Tisch liegt. Ich kann diesen physischen Apfel aufessen, denn irgendwann meldet sich der kleine Hunger. Ich kann ihn mit Worten beschreiben, eher botanisch, eher funktional, eher knapp, eher ausschweifend. Ich kann den Apfel aufnehmen und mit gängigen Programmen per Instagram, WhatsApp, als E-Mail-Anhang oder sonst wie mit meinen Freunden und Bekannten teilen. Das digitale Bild des Apfels kann 1 MB, 5 MB oder größer sein, je nach Auflösung. Wir könnten daran anknüpfend die Frage stellen, wo die Grenze für das Datenvolumen zur Darstellung des Apfels auf meinem Tisch liegen könnte. Bereits an dieser einfachen Stelle wird es für das erörterte Vollständigkeitstheorem der digitalen Vernunft problematisch, und zwar zumindest aus den beiden oben genannten Gründen: Der Datenmenge und dem Datenkontext. Gehen wir zunächst auf die realen oder grundsätzlichen Begrenzungen der Datenmenge ein. Bilder werden ja über Pixel definiert, und die Anzahl der Pixel definiert die Größe einer Bilddatei. Wenn eine solche Datei erfolgreich versendet wird, könnten wir von digitaler Konnektivität sprechen. Diese bedeutet immer auch ein Passungsverhältnis zwischen sendendem und empfangendem Medium. Stimmt die Passung nicht, dann sagen wir: „Die Datei kommt nicht durch.“ Nun können wir uns immer ein Missverhältnis zwischen einem Datenpaket und einer Datenleitung vorstellen, denn nur in einer nicht existierenden idealen Welt sind Datenleitungen immer genau so ausgelegt wie das Volumen der zu sendenden Daten. Die leidige Diskussion über den Ausbau des 24

Wie lassen sich Leistungsgrenzen der digitalen Welt beschreiben?

digitalen Glasfasernetzes in Deutschland veranschaulicht hier, was mit einer realen digitalen Leistungsgrenze gemeint sein kann. Vergleichen lässt sich dies mit der öffentlichen Kanalisation. Deren Rohre sind auf bestimmte Wassermengen ausgelegt. Wenn bei einem Sturzgewitter zu viel Wasser auf einmal transportiert werden soll, dann laufen Keller voll, die Gullys auf der Straße nehmen kein Wasser mehr auf, Unterführungen werden überschwemmt. Gleiches gilt für die technische Auslegung von Sende- und Empfangsgeräten. Bei zu großen Datenmengen streikt das System. Die technischen Fortschritte ermöglichen zwar den Transport und die Auflösung immer größerer Datenmengen, aber es gibt eben auch einen Rebound-Effekt: Mit besserer technischer Verfügbarkeit wachsen auch die verschickten Datenpakete. Ob wir dann immer wieder neu von einer faktischen Leistungsgrenze oder von einer grundsätzlichen technischen Limitierung sprechen, muss bei diesen Überlegungen gar keine entscheidende Rolle spielen. Kommen wir zurück auf das Foto des Apfels. Das Gedankenexperiment lässt sich nämlich leicht weiterführen. So könnten wir fragen, wie viele Pixel die bestmögliche digitale Abbildung des Apfels haben solle. Dabei lassen wir weitere Fragen außen vor, etwa die der Perspektive, also ob es ein Bild von oben, von unten, von der Vorder- oder der Rückseite sein soll. Allein schon die Frage nach der relevanten oder sinnvollen Größe des Datenpakets für das digitale Foto meines Apfels ist keine rein technische, sondern eine technische und soziale Frage. Denn die Antwort hängt neben der Größe und Geschwindigkeit der Datenleitung und des Datentransfers eben auch von sozialen Konventionen ab. So gesehen, gibt es keine ein für allemal „richtige“ Antwort. Das wiederum zeigt: Die Begrenzung, die in jeder gewählten Perspektive liegt, kann logischerweise auch digital nicht aufgelöst werden. Immerhin könnten wir dort eine technische Grenze ziehen, wo das natürliche Sehvermögen des Menschen eine noch höhere Auf25

1.  Philosophische Grundfragen der ­Digitalität

lösung nicht mehr wahrnehmen könnte. Doch führt auch dieses Argument in die Irre. Denn durch die Fortschritte der Mikroskopie und der Messtechnik können wir unsere Sinnesleistung durch technische Hilfsmittel wie etwa Elektronenmikroskope weit über das biologisch evidente Maß hinaus ausdehnen. Ein digitales Beispiel für die Erhöhung von Sinnesleistungen durch Technik ist die Erkennung von Hautkrebs durch Mikroskope in Verbindung mit Künstlicher Intelligenz. Denn diese kann nach heutigem Stand mindestens 450 Graustufen unterscheiden; das menschliche Auge nur rund 15.

Grenzen der Messtechnik und Grenzen des Erkennens überhaupt Die technische Grenze der digitalen Vernunft fällt also faktisch mit der Grenze der verfügbaren Messtechnik zusammen, und diese Grenze verschiebt sich mit dem technischen Fortschritt selbst. Damit sind wir aber noch nicht an das Ende unseres Gedankenexperiments gekommen. Denn aufgrund unserer physikalischen Theorien stoßen wir zu gegebener Zeit auf den molekularen, atomaren und subatomaren Raum. Hier hätten wir dann ein Henne-Ei-Problem: Ist die Grenze der digitalen Vernunft die Grenze des messtechnisch Erfassbaren? Oder die Grenze des theoretisch Vorstellbaren? Oder verschwimmt die Grenze im hybriden Zusammenwirken von Messtechnik, von natürlicher und digitaler Vernunft? Ausgehend vom einfachen digitalen Foto eines Apfels gelangen wir hier zur philosophischen Frage nach der Erkennbarkeit der Welt, was immer diese ist und wie immer wir den erkennenden Zugriff zu ihr beschreiben. Wenn wir beim Sehvermögen bleiben, geht das Spektrum vom sichtbaren zum unsichtbaren Licht, bis zum spannenden neuen Gebiet der extrem ultravioletten Strahlung (EUV) und

26

Grenzen der Messtechnik und Grenzen des Erkennens überhaupt

der EUV-Lithografie auf Halbleitern mit einer Wellenlänge von nur 13,5 Nanometern. Die technische Grenze der digitalen Vollständigkeit geht in der Frage nach der „Datenmenge“ einer Abbildung aber noch gar nicht auf. Denn keine Abbildung steht für sich allein, losgelöst von ihrem praktischen Lebenszusammenhang, ihrem Kontext. Die für Menschen leichte Frage nach dem Kontext führt aber für den Bereich digitaler Repräsentation in Folgeprobleme, die auf prinzipielle Leistungsgrenzen hinweisen. Diese Leistungsgrenze liegt, kurz gesagt, in der Forderung nach Widerspruchsfreiheit. Selbst wenn es nur um einen Apfel auf einem Schreibtisch geht, haben Menschen ganz unterschiedliche Perspektiven und Assoziationen. Der eine ist Apfelallergiker und denkt daran. Der andere erinnert sich an den Apfel, die verbotene Frucht aus der biblischen Geschichte zur Vertreibung aus dem Paradies. Der dritte ist Pomologe und interessiert sich für die spezielle Apfelsorte, um die es geht. Der vierte kommt aus einem tropischen Land, wo Äpfel als Frostkeimer gar nicht wachsen und daher als Luxusfrucht angesehen werden. Nicht die anekdotische Evidenz der verschiedenen Perspektiven, sondern die spannungsvolle Vielfalt der Einordnung oder des Framing dessen, was Menschen sehen, stellt technische Repräsentation vor große Herausforderungen. Jeder Mensch hat nur eine Perspektive, aber er weiß, dass es andere geben kann. Ein solches Wissen um „alternative Repräsentationen“ ließe sich zwar digital abbilden. Problematisch wird es aber dann, wenn wir entscheiden müssen, welche Perspektive denn die „richtige“ ist. Als Menschen haben wir sowohl genetisch und biografisch festgelegte wie auch frei wählbare Perspektiven. Mit einer weißen und männlichen Identität sieht die Welt in vielen Alltagssituationen auch beim Betrachten eines Apfels womöglich anders aus als mit einer schwarzen und weiblichen, um nur ein Beispiel zu nennen. Keine 27

1.  Philosophische Grundfragen der ­Digitalität

dieser Perspektiven ist richtiger als die andere, und Menschen können sich darauf verständigen, dass die Gemeinsamkeit ihrer Sichtweise entscheidender ist als die kontextuelle Verschiedenheit. Trotzdem spielt diese Verschiedenheit eine Rolle. Sie kann aber in ihrer Widersprüchlichkeit technisch nicht programmiert werden. Denn für ein technisches Programm muss schon klar sein, welche Perspektive und welcher Zweck im Vordergrund steht. Anders gesagt: Jede technische Lösung braucht einen funktionalen Kern und einen funktionalen Zweck, der so weit wie möglich kontextunabhängig ist. Da wir aber wissen, dass es unglaublich viele und auch widersprüchliche Kontexte gibt, können wir nicht nur aus ökonomischen, sondern auch aus Gründen der Widerspruchsfreiheit nicht gleichzeitig alle Kontexte, die es für eine digitale Repräsentation geben kann, abbilden. Das muss nicht tragisch sein, kennzeichnet aber einen Unterschied zwischen dem Weltzugang von Menschen und von digitalen Maschinen. Denn Menschen kennen Kontexte und Situationen, die weitgehend zweckfrei sind (etwa das „Spielen“), Maschinen aber sind grundsätzlich auf ihren Zweck ausgelegt. Die Frage der Kontextualität ist auch für aktuelle technische Anwendungen von erheblicher Bedeutung. Es lohnt sich also, vertieft nach dem Kontext einer digitalen Abbildung oder einer digitalen Repräsentation zu fragen. Wie kontextabhängig oder wie kontextunabhängig ist diese? Und wie viel Kontext ist erforderlich, um im Rahmen einer digitalen Zwecksetzung wie etwa dem autonomen Fahren zu vernünftigen Ergebnissen zu kommen?

Die Kontextualität digitaler Repräsentationen Die Kontextualität einer digitalen Repräsentation ist eine hoch praktische und hoch theoretische Frage. Wie kann ein digitales Programm ein auf die Straße springendes Kind erkennen? Wie viel „Kon28

Möglichkeitsräume und alternative Formen von Rationalität

textualität“ im Bewegungsablauf muss Teil des Wirklichkeitsmodells werden, das am Ende handlungsleitend wirkt? Denn im Fall eines voll autonomen Fahrzeugs wird dieses ebenso wie ein menschlicher Fahrer oder eine menschliche Fahrerin entweder bremsen oder weiterfahren. Digitale Programme im Kontext Künstlicher Intelligenz benötigen jedenfalls ganz grundsätzlich ein Modell der „Welterfassung“, das auf einer engeren oder weiteren Bestimmung von Kontextualität beruht. Und hier geraten wir erneut an die Grenzlinie für technische und philosophische Fragen. Technisch ist zu fragen, „wie viel“ Kontext, „welcher Kontext“ und „welche Relevanzbildung“ in einem Kontext programmiert werden kann und soll. Philosophisch lässt sich die Linie leicht fortführen. Denn an irgendeiner Stelle wird ein noch weiterer Kontext für die konkrete Situation bedeutungslos, etwa ob das auf die Straße springende Kind Anton heißt oder Michael und ob der Ball, dem es hinterherspringt, grün oder gelb ist. Das Problem ist nur, dass es zur Feststellung der „Relevanzgrenze“ einer Entscheidung bedarf, die in einer unendlichen Kette von Iterationen wiederum hinterfragt werden kann. So könnte es sehr wohl von Bedeutung sein, ob ein Ball grün oder gelb ist, denn je nach Licht- und Straßenverhältnissen wird dadurch die optische Sichtbarkeit beeinträchtigt. Dies soll hier aber nicht weiter ausgeführt werden. Klar wird aber sehr schnell, dass sowohl die verfügbare Messtechnik wie das Ausmaß der Berücksichtigung von Kontexten für eine grundsätzliche Grenze der digitalen Abbildung von Wirklichkeit zu sprechen scheinen.

Möglichkeitsräume und alternative Formen von Rationalität Der Möglichkeitsraum des Digitalen lässt sich aber auch über eine dritte Grenze seiner Vollständigkeit erörtern. Dabei war oben von 29

1.  Philosophische Grundfragen der ­Digitalität

alternativen Formen der Rationalität die Rede. Eine solche Sprechweise, die auf „alternative Formen der Rationalität“ Bezug nimmt, ist in einem wissenschaftlichen oder wissenschaftsnahen Kontext herausfordernd. Denn zunächst einmal wirkt schon der Begriff „alternative Formen der Rationalität“ merkwürdig, wenn nicht gar unsinnig. Entweder ist eine Vorgehensweise, eine Aussage, ein Verhalten oder eine Denkform rational oder eben nicht. Wenn sie nicht rational ist, dann ist sie im Sinn des Rationalen defizitär, also durch einen Mangel an Rationalität gekennzeichnet. Dieser zeigt sich durch mangelnde Faktenkenntnis, Verdrängung oder Verdrehung von Tatsachen, unbewiesene Behauptungen oder gar Fake News und dergleichen. Mangelnder Rationalität ist durch Vernunft und durch Aufklärung entgegenzutreten. Sie hat keinen Ort dort, wo es um den rationalen Diskurs geht. Das Andere der Vernunft ist aber nicht immer die Unvernunft. Gerade das nach Erkenntnis suchende Licht der Vernunft tut gut daran, die eigenen Grenzen auszuloten und sich dabei in das unwegsame Gelände des Zweifels, des Halbwissens und des bewussten oder unbewussten Nicht-Wissens zu begeben. Die Vernunft wird sich dann frei nach Ludwig Wittgenstein (1889-1951) Beulen holen. Aber zur Rationalität der Vernunft selbst gehört die Einsicht in ihre eigene Grenze. Die Redeweise von den Grenzen der Vernunft wie etwa der Dummheit (vgl. R. Musil 1937/1996) unterscheidet sich allerdings von der Frage nach alternativen Formen von Rationalität. Hier ist wiederum der von Robert Musil (1880-1942) in seinem Roman „Der Mann ohne Eigenschaften“ beschriebene Möglichkeitssinn gefragt (R. Musil 1930/1943). Denn wirklich und möglich sind auch Dinge und Sachverhalte jenseits unseres eigenen Erkenntnisstandes. So beruht die digitale Welt, um die es bei der Erforschung digitaler Vernunft geht, auf dem binären Zahlensystem, einer Abfolge von 0 und 1, die sich in Form 30

Möglichkeitsräume und alternative Formen von Rationalität

elektrischer Spannung darstellen und als Rechenoperation interpretieren lässt. Zur möglichen Welt gehört aber auch ein Duodezimalsystem in Zwölfer-Schritten so wie früher beim englischen Pfund, beim Zahlenbegriff eines „Schocks“ Eier (das sind 60 Stück) oder bei der Uhrzeit. Zum Möglichkeitsraum gehört aber auch ein Siebener-Zahlensystem oder – und hier beginnt unwegsames Gelände – ein Einundzwanziger-Zahlensystem. So wie beim uns vertrauten Zehnersystem die Zahl 10 „ein mal zehn und null mal eins“ bedeutet, würde die Zahl 10 im „Einundzwanziger-System“ genau 21 bedeuten. Das mag gewöhnungsbedürftig und wenig sinnvoll sein, möglich ist es. Man könnte die Zahlen im 21-System beispielsweise durch Buchstaben abbilden, sodass A den Wert „1“ und „T“ den Wert 20 hätte. Diese Gedankenexperimente haben dort ihren Sinn, wo es um die Exploration von Möglichkeitsräumen geht, von denen einige digital abbildbar sind, andere wohl eher nicht. Dies kann beispielsweise am naheliegendsten Beispiel alternativer Rationalität untersucht werden, dem großen Feld der Religion und der Religionen. Dabei mag es den einen oder anderen befremden, hier von „alternativen Formen“ der Rationalität zu sprechen. Versteht man Rationalität als Akt des Vernunftgebrauchs, ist nämlich eine schlichte Gegenübersetzung von Glauben und Wissen, von Rationalität und Irrationalität unstatthaft. Nicht zuletzt der keineswegs unkritische Jürgen Habermas (geboren 1929) hat die zwei Bände seines 2019 erschienenen Werks „Auch eine Geschichte der Philosophie“ (Berlin 2019) mit den Untertiteln „Die okzidentale Konstellation von Glauben und Wissen“ (Bd. 1) und „Vernünftige Freiheit – Spuren des Diskurses über Glauben und Wissen“ (Bd. 2) versehen und sich intensiv mit den Denklinien im Verhältnis von religiöser und nicht-religiöser Rationalität auseinandergesetzt.

31

1.  Philosophische Grundfragen der ­Digitalität

Nun lässt sich leicht die Frage stellen, was ein so weites Feld mit der Frage nach digitaler Vernunft und künstlicher Intelligenz zu tun hat. Ich will daher in Erinnerung rufen, dass es in diesem Abschnitt um die Kritik des Vollständigkeitstheorems der digitalen Vernunft gehen soll. Da wir zu Beginn des 21. Jahrhunderts unter dem Eindruck einer universellen und ubiquitären Digitalisierbarkeit der Welt stehen, gehört es unabweisbar zu einer solchen Aufgabe der Unterscheidung, nach Grenzen digitaler Vollständigkeit zumindest zu fragen. Dabei hatten wir die Grenzen der Messtechnik und der digitalen Kontextualität schon angerissen. Die digitale Perspektive der Frage nach alternativen Formen von Rationalität, speziell in der Unterscheidung von religiöser und nicht-religiöser Rationalität ergänzt diesen Diskurs durch eine weitere Grenzfläche der Vernunft: dem Problem von Anfang und Ende.

Digitale Welt und das Problem von Anfang und Ende Die Frage nach Anfang und Ende hat eine höchst praktische und eine höchst theoretische Seite. So ist eine Programmierung ohne Anfang nicht möglich. Ob eine Welt ohne Anfang möglich sei oder nicht, wird in der Physik, in der Metaphysik, in der Philosophie und in den verschiedenen Theologien erörtert. Dabei werden unterschiedliche Antworten mit unterschiedlich gut ausgeprägten Formen der Plausibilität, der Anscheins-Rationalität, der Beweisbarkeit, der Widerlegbarkeit und der Unwiderlegbarkeit ausformuliert. Nun ließen sich diese Antworten sicherlich digital codieren, also auf der Antwort-Ebene abbilden. Nur wird sich aus der Unvollständigkeit der Welterfassung in verschiedenen nicht-konventionellen oder nicht-szientistisch geprägten Formen der Rationalität keine digital vollständige Form ergeben können. Das hängt mit den Widersprü32

Digitale Welt und das Problem von Anfang und Ende

chen einer Mehr-Ebenen-Perspektive der Welterfassung zusammen, auf die ich gleich zurückkomme. Religionen können insofern als komplexe und faszinierende Versuche alternativer Rationalität zur Deutung von Anfang und Ende der Welt verstanden werden. Die Herausforderung besteht darin, dass ihr Anspruch der Welterklärung weder eindeutig wahr noch eindeutig falsch ist. Er ist auch weder eindeutig rational noch eindeutig irrational. Schon diese „Unentscheidbarkeit“ macht jede digitale Repräsentation solcher Themen schwierig, wenn nicht unmöglich. Ob es einen Gott am Anfang der Welt und der Zeit gibt oder nicht, das wissen wir nicht. Ob es ein Leben nach dem Tod gibt oder nicht gibt, wissen wir leider auch nicht, werden es aber erfahren. Bedauerlicherweise liegt der Vorgang des eigenen Tods vor dieser Erkenntnis, was eine harte Randbedingung des Erkennens ist, aber nicht zugleich die Unmöglichkeit eines solchen Erkennens bedeutet (vgl. U. Hemel 1990, 34-43). Anders gesagt: Religionen übernehmen Formen der Weltdeutung mit prinzipiell wahrheitsfähigen, aber nicht durch intelligente Testdesigns beweisbaren Aussagen. Sie verhelfen Menschen dadurch zur Weltorientierung und Lebensgestaltung, führen oft aber auch zu Konflikt und Gewalt. Eine vergleichbare Form digitaler Weltorientierung etwa im Sinn „digitaler Religion“ hat sich bislang nicht durchgesetzt. Verfügbare Statistiken schätzen die Zahl der Atheisten oder der Menschen ohne religiöse Bindung weltweit auf 12-16% (vgl. https:// de.statista.com/statistik/daten/studie/256878/umfrage/verteilung-der-weltbevoelkerung-nach-religionen/abgerufen am 20. Juni 2020 um 12.06h; ähnlich https://de.wikipedia.org/wiki/Liste_­ der_L%C3%A4nder_nach_Religion, abgerufen am 20. Juni 2020 um 12.11h). Mit Blick auf die etwa 80% der Menschen auf der Erde, die folglich mit unterschiedlicher Intensität einer bestimmten, konkreten Religion angehören, ist der Gedanke an alternative Formen der Ra33

1.  Philosophische Grundfragen der ­Digitalität

tionalität also keineswegs sinnlos. Denn die meisten Menschen sehen ihre Religion und einen Glauben an eine transzendente Größe wie Gott ja nicht als irrational an. Zumindest innerhalb der Axiome oder glaubensförmigen Grundannahmen einer bestimmten Religion lassen sich zahlreiche und unterschiedliche Formen vernünftigen Argumentierens und so gesehen alternativer Rationalität beobachten und beschreiben. Selbstverständlich kann behauptet werden, sämtliche Formen alternativer Rationalität, insbesondere religiöser Weltdeutungen, seien von einem vernünftigen Rationalitätsbegriff nicht gedeckt und daher auch für die digitale Welt irrelevant. Gerade bei naturwissenschaftlich orientierten Forschern und Praktikern findet eine solche Selbstbegrenzung von Rationalität Sympathien. Wenn es aber ein Wechselverhältnis von Rationalität und Weltwirklichkeit gibt, dann kann nicht sicher gesagt werden, dass eine sich selbst begrenzende Definition von Rationalität das Ganze der Wirklichkeit erfasst. Wenn das so wäre, wäre eine digitale Welt ohne Beachtung religiöser Wirklichkeit und alternativer Rationalität zwar möglich, könnte aber den Anspruch einer vollständigen Weltbeschreibung nicht einlösen. Anders gesagt: Aus Sicht religiöser Rationalität zeichnet sich eine szientistische Verengung des Vernunftgebrauchs dadurch aus, dass bestimmte Bereiche möglicher Realität vom Versuch vernünftiger Durchdringung ausgenommen werden. Das gleicht aber dem berühmten Versuch des schusseligen Autofahrers, seinen in der Nacht verlorenen Autoschlüssel nur in der Nähe der Straßenlaterne zu suchen, weil es dort immerhin heller ist.

34

Mehr-Ebenen-Perspektiven und Mehrfach-Dopplungen der Welt

Mehr-Ebenen-Perspektiven und Mehrfach-Dopplungen der Welt Die Frage nach dem Ganzen der Wirklichkeit ist für die Kritik der digitalen Vernunft auch dann wesentlich, wenn solche philosophischen Überlegungen in aller Regel keine praktische Rolle spielen. Dies gilt schon deshalb, weil jeder Forscher und jeder Praktiker in seinem eigenen Bereich tätig wird und mindestens auf alltäglicher Ebene ohne solche Rückfragen auskommt. Angesichts der Utopie einer digital vollständig erfassbaren Welt muss bei einer gründlichen Befassung mit den Chancen und Risiken der digitalen Welt im 21. Jahrhundert der Einwurf der möglichen Unvollständigkeit eines digital abzubildenden Rationalitätsbegriffs aber gemacht und gehört werden. Dabei ist über das Gesagte hinaus eine Mehr-Ebenen-Perspektive der Welterfassung ausgesprochen hilfreich. Als Menschen ist es uns überaus vertraut, dass es im Fluss der Zeit und des Lebens ganz unterschiedliche Ebenen der Wirklichkeit gibt. Wir wissen um die räumliche Erfassung vom Sternenhimmel zur Nanotechnologie, die zeitliche Erstreckung von Milliarden Jahren der Geschichte von Erde und Universum bis zu den Sekundenbruchteilen atomarer Schwingung und die spezifisch menschliche Bandbreite sinnlicher Wahrnehmung von Farben und Tönen, Temperatur und Druck. Eine Mehr-Ebenen-Perspektive ist uns aber auch aus dem zwischenmenschlichen Alltag vertraut, so etwa die Kommunikation von Untertönen, in der Codierung und Decodierung von Sprechakten vom „Ja“ vor dem Traualtar bis zum „Ja“ beim digitalen Anklicken der Zahlung eines Hotelzimmers. Gerade Menschen sind darüber hinaus in der „Gleichzeitigkeit“ ihrer Eigenwahrnehmung unglaublich differenziert: Ich kann mich über eine Begegnung freuen und trotzdem gleichzeitig Durst empfinden, schwitzen und mich über das Schwitzen ärgern. 35

1.  Philosophische Grundfragen der ­Digitalität

Eine solche Mehr-Ebenen-Perspektive ließe sich digital durchaus abbilden; sie wäre nur nach heutigem Ermessen ziemlich unwirtschaftlich und sinnlos. Gerade die Reduktion der Mehr-Ebenen-Wahrnehmung macht ja die Stärke der digitalen Welt aus. Der Vorteil der zweckhaften Reduktion bewährt sich auch dort, wo in einem zweiten Schritt aus der digitalen Datenverarbeitung ein „Weltmodell“ etwa für ein sich autonom bewegendes Fahrzeug abgeleitet und mit Prädiktionen kombiniert werden kann. Dabei handelt es sich allerdings nicht allein um eine multiple Verdopplung, so wie sie Armin Nassehi in seinem Buch „Muster. Theorie der digitalen Gesellschaft“ ausführt (München 2019, 108-151). Denn die Übersetzung der Welt in Daten und Programme ist ja, wie jede Übersetzung, zugleich und über die bloße Verdopplung hinaus eine Interpretation der Welt. Kommen wir zurück auf das oben angeführte Beispiel zum digitalen Foto des real existierenden Apfels auf meinem Schreibtisch. Es zeigt, dass wir digitale Dopplungen in unterschiedlicher Auflösung und Form vornehmen können. Schließlich gibt es immer eine „Multiplizität der multiplen Verdopplung“. Es gibt zahlreiche Variationen der digitalen Abbildung von Realität, nicht nur eine einzige digitale Form. Anders gesagt: So wie es viele Möglichkeiten der Verdopplung physischer Realität oder der Realität erster Ordnung durch Beschreibung in Textform gibt, so gibt es wiederum zahlreiche Abwandlungen der Repräsentation von physischen Gegenständen und/oder Texten in digitaler Form.

Wirklichkeiten erster und zweiter Ordnung Dies führt unmittelbar zur Frage, wie „real“ und wie „künstlich“ die digitale Welt und speziell die Künstliche Intelligenz ist. Dabei 36

Wirklichkeiten erster und zweiter Ordnung

kommen wir in eine andere geistige und sprachliche Landschaft. Nun geht es um „Intelligenz“, nicht um „Rationalität“, um „Erkennen“, nicht um „vernünftig handeln“. Im Vordergrund stehen dabei nicht Begriffsdefinitionen mit dem Anspruch höchstmöglicher Allgemeinheit. Wir ordnen der menschlichen Vernunft die Fähigkeit der Welterkenntnis zu, wissen aber auch um ihre Grenzen. Wir verknüpfen den Begriff der Rationalität mit der „Ratio“, also der Einteilung in abgegrenzte rechenbare und damit auch digitalisierungsfähige Einheiten. Mit Intelligenz bezeichnen wir das Erkenntnisvermögen von Menschen und Maschinen, das zugleich mit einer Einsichtsfähigkeit verbunden ist, die in Daten und Fakten einen Zusammenhang erkennt. Damit nähert sich Intelligenz dem komplexen Konstrukt des Verstehens an, also der Einordnung von Daten in Zusammenhänge. Das Einordnen und Verstehen kann die Brücke zum Handeln bilden, aber auch ganz ohne erkennbare Handlungsfolge bleiben. Unter den vielen möglichen Handlungsfolgen einer Erkenntnis wäre die Gruppe der „vernünftigen Handlungen“ eigens zu definieren und von „unvernünftigen Handlungen“ abzugrenzen. Dies aber wirft eine Reihe von Folgeproblemen auf, die hier nicht behandelt werden sollen. Schließlich ist darauf hinzuweisen, dass „Intelligence“ im Englischen in manchen Verwendungen den Begriff der militärischen oder polizeilichen Aufklärung (wie in der Abkürzung „CIA“) nahelegt. Aus den Aufklärungsdaten Schlüsse zu ziehen, ist dann aber etwas anderes als die Suche nach verwertbaren Daten, also die „Erkennungsarbeit“. Der Begriff „Artificial Intelligence“ ist daher im englischen Sprachraum nüchterner und technischer aufzufassen als die deutsche „Künstliche Intelligenz“, die immer auch einen Träger und Akteur von „Intelligenz“ nahezulegen scheint. Passender wäre im Grunde der Ausdruck „digitale Intelligenz“, weil das „Künstliche“ an ihr ja nichts anderes als die digitale Form ist. Doch hier hat sich Sprache anders entwickelt. 37

1.  Philosophische Grundfragen der ­Digitalität

Der Begriff der Künstlichen Intelligenz ist nicht eindeutig bestimmt, weil er eine Vielzahl von Fragestellungen, Methoden, Anwendungsfeldern und Problemlösungen umfasst (vgl. W. Ertel 2013). Darüber hinaus ist auch der Begriff der Intelligenz selbst nicht klar definiert. Generell benötigen funktionierende Systeme der Künstlichen Intelligenz als Grundlage eine Art von „Weltmodell“ im Sinn von gegebenen Annahmen über die Realität, ferner Rechenregeln und angestrebte Output-Größen. Philosophisch faszinierend ist die enge Verbindung solcher Programme mit bisher typisch menschlichen Fähigkeiten, etwa der Fähigkeit zur Mustererkennung, zum logischen Schließen, zum Lernen, Planen, Optimieren, Suchen und Entscheiden. Da Umfang und Geschwindigkeit von Programmen Künstlicher Intelligenz in den letzten Jahren rapide und massiv zugenommen haben, werden gelegentlich grundsätzliche Sorgen zur weiteren Entwicklung etwa der Automatisierung und der Robotik, letztlich sogar zur Kontrolle über die Menschheit geäußert, so etwa vom bekannten Physiker Stephen Hawking (1942-2018) in einer Vortragsreihe des britischen Radios BBC im Jahr 2016. Künstliche Intelligenz hat das Potenzial zu weitreichenden technischen und sozialen Umwälzungen. Es ist daher eine dauerhafte Herausforderung unserer Zeit, ihre Entwicklung ethisch und philosophisch zu begleiten. In diesem Kapitel geht es um den Zusammenhang von Vernunft und digitaler Welt. Dabei sollen die folgenden Überlegungen über mögliche begriffliche Schärfungen hinaus vor allem einen Aspekt hervorheben, nämlich das Verständnis der digitalen Welt generell und der Wirklichkeit der Künstlichen Intelligenz als einer Realität zweiter Ordnung. Mit einer Realität zweiter Ordnung ist keine hierarchische Wertung verbunden, so als sei die „erste Realität“ wichtiger, realer oder bedeutender als die „zweite“ Realität. Gerade die Verwendung von Ordinalzahlen soll und kann aber zeigen, dass unterschiedliche Ebenen von Realität nebeneinander und parallel koexistieren können, 38

Wirklichkeiten erster und zweiter Ordnung

ohne ineinander aufzugehen und ohne dass wir ein Verhältnis eineindeutiger Abbildbarkeit zu unterstellen hätten. Die Verwendung von Ordinalzahlen folgt dabei lediglich der Konvention des Aufzählens, denn es lassen sich verschiedene Ausgestaltungen einer ersten, zweiten, dritten und weiteren Realität vorstellen. So ist es in der Sprachphilosophie unstrittig, dass das Verhältnis von Sprache und Wirklichkeit nicht als unmittelbare Abbildung von Bezeichnetem („Apfel“) und seiner sprachlichen Gestalt („das Wort Apfel“) gelten kann. Da es nach wie vor auf der Erde rund 6.000 natürliche Sprachen gibt (vgl. H.-J. Störig 2012, 13), besteht eine große Bandbreite für die sprachliche Gestalt dessen, was in der deutschen Sprache mit Apfel, in der englischen mit „apple“, in der spanischen mit „manzana“ und in der französischen mit „pomme“ bezeichnet wird (vgl. B. L. Whorf 1963, J. Simon 1981). Speziell der belgische surrealistische Maler René Margritte (1898-1967) hat mit seinem Bild „Ceci n’est pas une pomme“ (Das ist kein Apfel, 1964) auf die Spannung zwischen der Realität und ihrer Abbildung hingewiesen. Da praktisch alle Menschen mit Sprache umgehen und sich die Welt über Sprache erschließen, fällt die Differenz zwischen der ersten („physischen“) und der zweiten („sprachlichen“) Realität im Alltag meist nicht auf. Wenn wir die Analogie fortführen wollen, könnten wir die schriftliche Abbildung des gesprochenen Worts „Apfel“ oder „apple“ oder „manzana“ als die dritte Realität betrachten. Die digitale Repräsentation des gleichen Apfels wäre dann die vierte Ebene von Realität. An dieser Stelle geht es vor allem um die Veranschaulichung eines Mehr-Ebenen- oder auch Mehrschichtenmodells von Realität. Wie wir die einzelnen Ebenen bezeichnen, ist ebenso eine Frage der Konvention wie die gewählte Sprache (also „Apfel, apple, pomme oder manzana“). Entscheidend ist aber, dass Realität auf jeder Ebene „real“, „wirklich“ und „wirksam“ ist, nur eben auf unterschiedliche Art und Weise. So kann ich den physischen Apfel vom Tisch wegrollen, das 39

1.  Philosophische Grundfragen der ­Digitalität

Wort Apfel natürlich nicht, ebenso wenig dessen digitale Repräsentation im binären Code von 0 und 1.

Die Eigendynamik jeder Ebene von Wirklichkeit Diese Überlegungen sind für eine Kritik digitaler Vernunft deswegen von Belang, weil ein Mangel an physischer Realität ja keinesfalls einen Mangel an „Wirklichkeit“ darstellt. Die Begrenzung der Wirklichkeit auf sichtbare Objekte wäre ebenso eine Selbstlimitierung der Vernunft wie der Verzicht auf die Betrachtung alternativer Formen von Rationalität. Nur hat eben jede Ebene der Wirklichkeitsbetrachtung besondere Konstellationen, besondere Verfahrensordnungen und Merkmale. Digital repräsentierte Daten müssen nicht sichtbar sein, um real zu wirken. Wird aber eine Mensch-Maschine-Interaktion erforderlich, dann gehört es zu den Eigenschaften der digitalen Welt, dass es eine für Menschen geeignete Schnittstelle geben muss. Diese zeigt sich uns meist in Gestalt eines Displays, eines Ausgabefeldes, eines Bildschirms und dergleichen. Die digitale Welt schafft sich damit eine tatsächliche und sprachliche Welt eigener Art. So ist die heute schon vertraute Unterscheidung zwischen Mensch-Mensch-Interaktion, Mensch-Maschine-Interaktion und Maschine-Maschine-Interaktion eine praktische und eine sinnvolle sprachliche Konvention zur Beschreibung der betreffenden Sachverhalte. Eine solche Beschreibung ist aber die Folge der Eigendynamik einer neuen Ebene von Realität, der Ebene der digitalen Welt. Jede Ebene der Realität lässt sich über ihre spezifische Eigendynamik beschreiben. Diese zeichnet sich durch Muster und Eigenschaften aus, die im Vergleich zu einer anderen Ebene der Realität zugleich als „Verlust“ und als „Gewinn“ oder Überschuss beschrieben werden können. „Wirklichkeitsüberschuss“ und „Wirklichkeitsverlust“ sind 40

Vernunftfähigkeit und Grenzen der digitalen Welt

daher zwangsläufige Folgen des Wechsels von einer Wirklichkeitsebene in die andere: Beim Wechsel der Wirklichkeitsebenen gehen bestimmte Eigenschaften verloren, andere kommen hinzu und werden „gewonnen“. Jede Ebene der Wirklichkeit konstituiert somit eine Welt für sich, auch wenn sie mit allen anderen Welten oder Wirklichkeitsebenen in Verbindung steht. An allen Schnitt- und Übergangsstellen aber ist Wachsamkeit angesagt, weil sonst Kategorienfehler drohen. So wie das laute Aussprechen des Wortes Apfel den Hunger nicht stillt, so bleibt trotz spezifischer Formen der Abbildung jeweils ein Eigenwert jeder Ebene von Wirklichkeit. Wirklichkeitsebenen gehen nicht ineinander auf. Die digitale Welt ist folglich sehr wohl eine eigene Welt, aber der Rest der Welt als Summe anderer Weisen der Konstituierung von Wirklichkeit geht nicht in ihr auf.

Vernunftfähigkeit und Grenzen der digitalen Welt Noch genauer gesagt: Jede Ebene der Wirklichkeit generiert gleichzeitig einen „Wirklichkeitsüberschuss“ und einen „Wirklichkeitsverlust“. So wie ich das Wort „Apfel“ nicht essen und nicht wie einen physischen Apfel riechen kann, so kann ich mit physischen Äpfeln kein Apfelgedicht schreiben. Ein handgeschriebenes Apfelgedicht eignet sich auch nicht unmittelbar für die digitale Repräsentation, sondern muss als Text oder als Scan erst in die Eigenwelt des Digitalen überführt werden. Anders gesagt: Jede Ebene der Wirklichkeitserfassung und Realitätsgestaltung „verliert“ Eigenschaften aus der jeweils anderen Ebene, „gewinnt“ aber auch neue Eigenschaften dazu. Daraus folgt unmittelbar eine gewisse Inkommensurabilität, aber auch Komplementarität der Wirklichkeitsebenen. Diese Einsicht 41

1.  Philosophische Grundfragen der ­Digitalität

gilt für komplexe Symbolsysteme ganz unterschiedlicher Art, beim Übergang von physischer Wahrnehmung zur sprachlichen Bezeichnung, beim Übergang von sprachlicher Bezeichnung zum Ausdruck in Schriftform, aber auch beim Übergang von Schrift und Bild zur digitalen Welt. Ein Datensatz zur Realität „Apfel“ kann ein Rezept sein, ein Gedicht, eine botanische Beschreibung, ein genetischer Datensatz und manches mehr. Aus der Realität von Datensätzen in der digitalen Welt lässt sich in der Rückübersetzung in die physische Wirklichkeit nicht ohne Weiteres ein realer Apfel zum Reinbeißen herstellen – auch wenn es faszinierende Fortschritte aus der Mischung von Wirklichkeitsebenen im 3-D-Druck gibt. „Wirklichkeitsüberschuss“ und „Wirklichkeitsverlust“ von spezifischen Eigenheiten gehören zusammen, müssen aber gut unterschieden werden. Entscheidend ist aber auch: Der Datensatz zur Realität Apfel unterscheidet sich haptisch, olfaktorisch und visuell von der Wirklichkeit des Apfels auf meinem Schreibtisch. Genau aus diesem Grund kann die digitale Welt die physische Welt nicht komplett ersetzen. Das Vollständigkeitstheorem der digitalen Vernunft lässt sich folglich nicht durchhalten. Die digitale Welt ist real, aber sie ist nicht ohne Weiteres mit einer anderen Ebene der Wirklichkeit vergleichbar und kommensurabel. Um im Beispiel des Apfels zu bleiben: Wer gerne an einem wohlduftenden Apfel riecht und in ihn hineinbeißen will, braucht einen physischen Apfel. Kritiker könnten hier einwenden, dass es die spezielle Form der digitalen Repräsentation sehr wohl erlaube, ein olfaktorisches Programm zu entwickeln, das spezifische Apfelgerüche absondern könnte. Dann könnten beispielsweise Probanden durch ein Tuch riechen und dann befragt werden, ob es sich um einen echten Apfel oder um ein Apfel-Riech-Programm gehandelt habe. Womöglich könnten sie

42

Vernunftfähigkeit und Grenzen der digitalen Welt

den Geruch nicht unterscheiden, was ein Kriterium für die Erfüllung des Turing-Tests ist. Der vom britischen Mathematiker Alan Turing (1912-1954) formulierte Turing-Test ist ein Experiment, bei dem ein Mensch über einen Bildschirm eine Unterhaltung führt. Kann er bei seinem Gegenüber nicht erkennen, ob es ein Computer oder ein Mensch ist, dann gilt der Turing-Test als bestanden (A. Turing 1950). Zur Kritik der digitalen Vernunft könnte es im erwähnten Fall des „Apfelgeruchs“ gehören, diese spezielle Form der technischen Reproduktion anzuerkennen. Zugleich wäre aber die Grenze zu benennen: Denn „riechen und hineinbeißen“ ginge nach wie vor nur beim Apfel auf der Ebene der physischen Realität. Anders gesagt: Die digitale Welt ist sehr wohl real, aber eben „anders real“ als die vertraute physische Alltagswelt. Die Frage danach, ob die digitale Welt vernünftig und die Vernunft digital sein könne, findet ihre Antwort folglich in einem Mehr-Ebenen-Modell von Realität mit einer gewissen Komplementarität von Vernunft, Rationalität und Wirklichkeit. Die menschliche Fähigkeit zur Vernunft geht in ihrer Art und Weise des Weltumgangs über Rationalität als berechenbare Form der Weltaneignung hinaus, insbesondere durch die Einsicht in ihre eigene Grenze. Die digitale Welt ist dann nicht von Haus aus vernünftig, sondern allenfalls „rational“ im Sinn von Berechenbarkeit, Methodik und prinzipieller Reproduzierbarkeit. Da aber auch Unsinn berechnet werden kann, wäre ein allgemeines Vernunftpostulat für die digitale Welt falsch und vermessen. Darüber hinaus sind Grenzen der digitalen Reproduzierbarkeit dort vorhanden, wo die schiere Datenmenge und die Verfügbarkeit von Technik, etwa von Hochleistungsrechnern, ein praktisches Limit darstellen. Schließlich gehört es zu den Besonderheiten des Deep Learning auf dem Feld der Künstlichen Intelligenz, dass der konkrete Rechenweg 43

1.  Philosophische Grundfragen der ­Digitalität

für einen Output nicht mehr reproduziert werden kann (vgl. I. Goodfellow, Y. Bengio, A. Courville 2016). Seit etwa 2000 wird der Begriff des Deep Learning vor allem mit neuronalen Netzen in Verbindung gebracht. Zwischen der Input-Ebene und der Output-Ebene gibt es dann zumindest eine, aber meist zahlreiche mittlere oder auch „verborgene“ Ebenen (hidden layers) mit entsprechenden „unsichtbaren“ Rechenoperationen zum Datenabgleich und Datenauswertung. Was in diesen Ebenen geschieht, hängt zwar von der Programmierung ab, ist aber im Einzelnen nicht mehr nachvollziehbar. Grundsätzlich sind wir Menschen mit dem Unterschied zwischen Input- und Output-Größen durchaus vertraut. Wenn wir eine Blume gießen, ist das Wasser die Input-Größe. Eines Tages blüht die Blume. Wir könnten das als Output-Größe definieren. Was „dazwischen“ passiert, wissen wir ohne genaue botanische und pflanzenphysiologische Kenntnis nicht, es ist eine Art von hidden layer. Gleiches passiert im Alltag: Wir essen den Apfel vom Anfang dieses Kapitels. Die biologische Output-Größe soll hier nicht beschrieben werden, ist aber lebensnotwendig. Wiederum gilt: Was „dazwischen“ geschieht, in den hidden layers von Magen und Darm, wissen wir normalerweise nicht so genau. Der Unterschied zwischen solchen Alltagserfahrungen und den Anwendungen Künstlicher Intelligenz mit neuronalen Netzen besteht jedoch darin, dass eben auch die Experten nicht mehr genau sagen können, was in den hidden layers tatsächlich passiert und welche Rechenoperationen dort stattfinden. Diese Nachvollziehbarkeits- und Reproduzierbarkeitsgrenze von Anwendungen der KI stellt ein praktisches, aber in der Folge auch juristisches Problem dar. Digitale Ergebnisse auf der Grundlage des Maschinenlernens von Programmen Künstlicher Intelligenz können folglich als Output-Größen mit einem Black-Box-Charakter angesehen werden. Das ist zumindest vom Prinzip her beunruhigend, auch wenn die praktischen Ziele entsprechender Programme in sich begrenzt sein mögen. 44

Literatur

Anders gesagt: Auf die in diesem Kapitel gestellte Frage lässt sich antworten, dass die digitale Welt vernünftig sein kann, aber nicht muss. Das hat sie mit anderen Formen der symbolischen Repräsentation von Welt wie etwa Sprache und Schrift gemein. Dabei versteht es sich von selbst, dass die menschliche Vernunft eine Vielzahl von Formen annehmen kann, eben auch eine digitale. Damit wird auch gesagt, dass Vernunft über ihre digitale Form hinausgehen kann: Vernunft geht im digitalen Raum nicht auf. Bedauerlicherweise ist nicht jede praktische Form digitalen Outputs vernünftig, aber zu unserem menschlichen Glück ist eben auch nicht jede Form der Vernunft digital. Anders gesagt: Es liegt an uns Menschen, die mögliche Bereicherung durch die komplementären Formen der Wirklichkeitserfassung und Wirklichkeitsgestaltung zum eigenen Wohl und zum Wohl aller zu entfalten.

Literatur Ernst-Wolfgang Böckenförde, Die Entstehung des Staates als Vorgang der Säkularisation, in: Sergius Buve (Hrsg.): Säkularisation und Utopie. Ebracher Studien. Ernst Forsthoff zum 65. Geburtstag. Stuttgart: Kohlhammer 1967, S. 75-94 Horst Dreier, Staat ohne Gott, Religion in der säkularen Moderne. München: C. H. Beck 2018, S. 189-214 (=Das Böckenförde-Diktum: Erfolgsgeschichte einer Problemanzeige) Wolfgang Ertel, Grundkurs Künstliche Intelligenz, Eine praxisorientierte Einführung, 3. Auflage, Braunschweig: Springer Vieweg 2013 Kurt Gödel, Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, in: Monatshefte für Mathematik und Physik 38, 1931, S. 173-198

45

1.  Philosophische Grundfragen der ­Digitalität

Ian Goodfellow, Yoshua Bengio, Aaron Courville, Deep Learning: Adaptive Computation and Machine Learning, Cambridge/Mass.: MIT Press 2016 Armin Grunwald, Der unterlegene Mensch, Die Zukunft der Menschheit im Angesicht von Algorithmen, künstlicher Intelligenz und Robotern, München: Riva 2019 Jürgen Habermas, Auch eine Geschichte der Philosophie, Bd. 1: Die okzidentale Konstellation von Glauben und Wissen, Bd. 2: Vernünftige Freiheit. Spuren des Diskurses über Glauben und Wissen, Berlin: Suhrkamp 2019 Ulrich Hemel, Religiöse Aussagen über den Tod und die Logik religiöser Sprache, in: Archiv für Religionspsychologie 19, H. 1, 1990, S. 34-43 Peter Koslowski (Hrsg.), Fortschritt, Apokalyptik und Vollendung der Geschichte und Weiterleben des Menschen nach dem Tode in den Weltreligionen, München: Wilhelm Fink 2002 Jürgen Moltmann, Theologie der Hoffnung, Untersuchungen zur Begründung und zu den Konsequenzen einer christlichen Eschatologie, Gütersloh: Gütersloher Verlagshaus 2005 (Erstauflage 1964) Robert Musil, Über die Dummheit, (Was bedeutet das alles?), Berlin: Alexander-Verlag 1996 (Vortrag in Wien vom 11. März 1937) Robert Musil, Der Mann ohne Eigenschaften. Bd. 1-2 Berlin: Rowohlt, 1930 und 1933, Bd. 3 Lausanne: Rowohlt 1943 Armin Nassehi, Muster, Theorie der digitalen Gesellschaft, München: C. H. Beck 2019 Joseph Ratzinger, Eschatologie – Tod und ewiges Leben, Neuausgabe, 2. Auflage, Regensburg: Pustet 2007 Josef Simon, Sprachphilosophie, Zur Entwicklung der Wahrheitsfrage in der neueren Philosophie, Freiburg/Br.-München: Alber 1981 Wolfgang Stegmüller, Unvollständigkeit und Unentscheidbarkeit, Die metamathematischen Resultate von Gödel, Church, Kleene, Rosser und

46

Literatur

ihre erkenntnistheoretische Bedeutung, 3. verbesserte Auflage Wien/ New York: Springer 1973 Hans-Joachim Störig, Die Sprachen der Welt, Geschichte, Formen, Geheimnisse, Köln: Anaconda 2012 Alan Turing, Computing Machinery and Intelligence, in: Mind 59, Nr. 236, 1950, S. 433-460. Benjamin Lee Whorf, Sprache, Denken, Wirklichkeit, Beiträge zur Metalinguistik und Sprachphilosophie, Reinbek: Rowohlt 1963

47

2.  Digitales Nichtwissen Vernunft in der digitalen Welt ist das eine, kognitive Leistungsfähigkeit ist das andere. Neu an der Situation im Jahr 2020 ist ja nicht die digitale Datenverarbeitung, sondern die Geschwindigkeit der digitalen Transformation, die sich durch die Corona-Pandemie noch beschleunigt und die für jeden einzelnen Menschen eine Herausforderung darstellt. Die Geschwindigkeit der digitalen Transformation verbindet sich mit einer Wissensexplosion, die die Halbwertzeit des relevanten Wissens in zahlreichen Disziplinen deutlich reduziert hat und die zur Frage führt, wie eine einzelne Person mit der jeden Tag weniger übersichtlichen, jeden Tag noch komplizierteren Welt umgehen kann. Die Frage nach dem Umgang mit der Unübersichtlichkeit der digitalen Welt steht im Mittelpunkt dieses Kapitels.

Die moderne Wissensexplosion und die abnehmende Halbwertzeit von Wissen Der Begriff der Halbwertzeit bezog sich ursprünglich auf die Radioaktivität einer Substanz, später auch auf den biologischen Abbau einer Substanz im Körper. In der Bibliothekswissenschaft geht es um die Häufigkeit von Zitaten im Zeitablauf, mit der Feststellung einer Halbwertzeit bei naturwissenschaftlichen Publikationen von fünf Jahren (www.wikipedia.org/halbwertszeit, abgerufen 14. März 2020, 18.59h). Mit dem Begriff der Halbwertzeit des Wissens ist generell der Zeitraum gemeint, innerhalb dessen das Wissen einer Disziplin als veraltet 49

2.  Digitales Nichtwissen

gilt. So könnte heute niemand mehr ein Biologiestudium mit Lehrbüchern aus dem 20. Jahrhundert bestehen. Kritiker des Begriffs argumentieren damit, dass Wissen nicht „veraltet“, sondern entweder „richtig“ oder „falsch“ sei. Eine solche Schwarz-Weiß-Gegenüberstellung verkennt allerdings die systemische Einbettung von Wissen in Erklärungszusammenhänge und mentale Weltmodelle. Die fachspezifische Architektur von Wissen kann sich aber durch neue Entdeckungen erheblich und manchmal auch in hoher Geschwindigkeit verändern. Dort, wo sich Wissen besonders rasant entwickelt, lässt sich von „kurzwelliger“ Erkenntnis sprechen. Auf Gebieten wie der Philosophie oder der Pädagogik, wo es um komplexe Konzeptualisierungen von relativ konstanten Fragestellungen geht, ist die Halbwertzeit von Wissen höher; es handelt sich hier eher um „langwellige“ Erkenntnisvorgänge. Die digitale Transformation, besonders aber auch der rasante Zuwachs von Anwendungen der Künstlichen Intelligenz, tragen erheblich zur gegenwärtigen Wissensexplosion bei. Daraus entstehen unter anderem neue Fragen, die sowohl die Lebensführung jeder einzelnen Person wie das Lebens- und Gesellschaftsmodell der globalen Zivilgesellschaft mit ihren nationalen und lokalen Entfaltungen betreffen. Da zu jedem menschlichen Leben die Kunst gehört, sich im eigenen Alltag und in der eigenen Gesellschaft zurechtzufinden, soll es im Folgenden besonders um die Frage nach individueller Orientierung angesichts der hohen Veränderungsgeschwindigkeit in der aktuellen Wissensentwicklung gehen.

Die Geschwindigkeit digitaler Transformation als Herausforderung Für eine „Kritik der digitalen Vernunft“ ist die Frage nach Orientierung in einem Tsunami digitaler Möglichkeiten von erheblicher 50

Die Geschwindigkeit digitaler Transformation als Herausforderung

Bedeutung. Denn gerade die Umbrüche im Zug der stärkeren Verbreitung von Anwendungen Künstlicher Intelligenz lösen nicht nur Probleme, sondern auch Gefühle aus. Diese Gefühle sind bestenfalls gemischt. Dabei gibt es „Euphoriker“ der Künstlichen Intelligenz, die ein neues Zeitalter anbrechen sehen, aber auch „Apokalyptiker“, die sich vor flächendeckender Arbeitslosigkeit und umfassender Kontrolle durch Staat und Digitalmonopole fürchten. Als Kind und Jugendlicher in den 1960er- und 1970er-Jahren des letzten Jahrhunderts bin ich persönlich mit dem sicheren Gefühl aufgewachsen, alle wichtigen Wörter der deutschen Sprache seien im Duden verzeichnet und alle wichtigen Sachverhalte stünden im Brockhaus, der damals maßgeblichen Enzyklopädie. Inzwischen gibt es auch von der international renommierten „Encyclopedia Britannica“ keine Druckausgabe mehr, denn Wikipedia ist umfassender und aktueller. Als ich 1974 mein Studium begann, beschäftigte ich mich neben Theologie und Philosophie mit Sozial- und Wirtschaftswissenschaften, aber auch Pädagogik und Psychologie. Dabei ist mir noch gut in Erinnerung, wie stolz Psychologen und Pädagogen auf die Entdeckung der Kindheit und neuere psychodynamische Verfahren waren. Die Abfolge von Entwicklungsschritten folgte einem inneren Schema, einer Art von „mentaler Architektur“ (vgl. U. Hemel 2019, 335-350). Die höchste Bedeutung hatte dabei die frühe Kindheit. Eine sehr wichtige Lernphase folgte im Alter von Jugendlichen und jungen Erwachsenen. Anschließend folgte die „Plateauphase“. Wie der Name zum Ausdruck bringt, betrachtete man den Erwachsenen im Alter zwischen etwa 25-65 Jahren als „ausgereift“ und auf einem „Plateau“ befindlich. Gedacht war an ein Erwachsenenalter ohne größere Lernzuwächse oder Umbrüche. Es folgte abschließend noch das Alter mit seinen unvermeidlichen körperlichen und kognitiven Verlusterscheinungen. Schon der Gedanke der Plateauphase löst heute bei Studierenden eine gewisse Erheiterung aus, zumal der Begriff in der Sexualmedizin 51

2.  Digitales Nichtwissen

auch für die zweite von vier Phasen im sexuellen Reaktionszyklus steht. Bleiben wir aber auf dem Feld des Lernens von Erwachsenen, so gilt es heute als Allgemeinplatz, dass auch im Erwachsenenalter und im höheren Alter weiterhin persönlichkeitsprägende Lernprozesse möglich, sinnvoll und nötig sind. Gleichzeitig haben viele Menschen das Gefühl, nicht mehr hinterherzukommen. Das Lebensgefühl der Hektik und der Zeitnot zeigt sich in Alltagsbegriffen wie „Zeitdruck“ und „Freizeitstress“. Hinter Zeitdruck steckt die Sorge, in der verfügbaren Zeit nicht alle Aufgaben im Arbeits- und Privatleben zu bewältigen. Hinter „Freizeitstress“ lauert die Angst, etwas Wesentliches zu verpassen und hinter dem Optimum eigener Entfaltung zurückzubleiben. Dabei kommt besonders der digitalen Welt die Rolle des großen Beschleunigers zu. Jeden Tag sehen wir Dutzende bis Hunderte Mal auf das Display des eigenen Smartphones, beantworten E-Mails, tauschen uns in sozialen Netzwerken aus. Antworten wir nicht innerhalb von wenigen Minuten oder höchstens Stunden, kommt die Frage zurück, ob etwas Besonderes los sei, ob man sich Sorgen machen müsse und dergleichen.

Mentale Architektur und verändertes Zeitgefühl Die Veränderung des Zeitgefühls und das Gefühl einer engmaschigen sozialen Verbundenheit und Kontrolle gehen einher mit der oben angesprochenen, generell erschwerten Lebensorientierung. Wer heute in einen stationären Laden geht (sofern er oder sie nicht eh digital einkauft), wird von der Vielzahl der Wahlmöglichkeiten leicht erschlagen. Die „Qual der Wahl“ erhöht den Suchaufwand, um zu einer guten Entscheidung zu kommen. Das gilt nicht nur für Alltagsprodukte wie Brot, Gemüse und Fertiggerichte, sondern auch

52

Mentale Architektur und verändertes Zeitgefühl

für komplexe berufliche und private Entscheidungen. Die Lust und die Last der Freiheit liegen nahe beieinander. Navigation im unwegsamen Gelände erfordert Können und Geschicklichkeit. Da sich andererseits das verfügbare Weltwissen schnell verändert und wir tatsächlich vor einer „Wissensexplosion“ stehen, ergibt sich als logische Folge, dass unser eigener Anteil am Weltwissen kontinuierlich sinkt. Unvermeidlich ergibt sich aus diesem verminderten Anteil zugänglichen Wissens eine höhere Abhängigkeit von anderen Menschen oder von technischen Hilfsmitteln, unter anderem dem Internet. Die wunderbare Zugänglichkeit von Wissen über Google und andere Suchmaschinen zieht ihren eigenen Rebound-Effekt nach sich: nämlich die immer geringeren Inseln „festen Wissens“ in unserer mentalen Architektur. Mit dem Begriff der „mentalen Architektur“ sind Wahrnehmungsgewohnheiten und habituelle Glaubenssätze gemeint, die unsere „mentale Rahmenhandlung“ darstellen und unser Alltagsverhalten in der Informationsverarbeitung und Entscheidungsfindung prägen (U. Hemel 2019, 335-350). Der Begriff führt die sprachwissenschaftliche Idee des „mentalen Lexikons“ weiter (vgl. J. Aitchison 1997), steht aber für das umfassende Ganze des persönlichen Weltmodells einer Person (U. Hemel 2019, ebd.). Eine der entscheidenden „Anwendungen“ mentaler Alltagsstrategien bezieht sich auf unseren Umgang mit Nichtwissen und Halbwissen. Dabei handelt es sich um ein Phänomen, mit dem Menschen seit jeher in allen Kulturen und in jedem Lebensalter vertraut sind. Ein wenig beachteter Aspekt der digitalen Transformation ist aber die besondere Form der tatsächlichen Veränderung im individuellen Umgang mit Wissen und Nichtwissen, die durch eine neue technologische Etappe in einer Gruppe von Menschen oder in der Menschheitsgeschichte ausgelöst wird. Wenden wir uns einem Beispiel aus einer anderen Epoche zu. 53

2.  Digitales Nichtwissen

So stellt Mario Vargas Llosa (geboren 1936) in seinem facettenreichen Roman „Der Geschichtenerzähler“ (1990) die besondere Lebenssituation eines indigenen Stammes in Peru, der Machiguengas, vor. Bei ihnen spielt der sogenannte Geschichtenerzähler eine Hauptrolle, weil er in der Lage ist, die mündliche Überlieferung des Stammes vielfältig auszudrücken und zu tradieren. Dadurch trägt er zur Erhaltung der Identität des Stammes bei. Die Anpassung an eine modernere Lebensweise bedrohte im 20. Jahrhundert die Institution des Geschichtenerzählers. Denn wenn die Überlieferung der Tradition über die Schrift erfolgt, wird die enorme Gedächtnis- und Integrationsleistung des Geschichtenerzählers für die kulturelle Identität der indigenen Gruppen nicht mehr benötigt. Die besondere Dignität der Oral History oder mündlichen Überlieferung in indigenen Gemeinschaften geht dann verloren und bedroht in der Folge tatsächlich die Identität aussterbender Völker. Das Phänomen der oralen Kultur und der oralen Kulturen wurde über die Anthropologie hinaus in den 1970er- und 1980er-Jahren, etwa in der Geschichtsschreibung der Arbeiterbewegung, zu einem methodischen Trend (vgl. L. Niethammer 1980). Die mündliche Erzählung von Zeitzeugen prägte auch die Aufarbeitung der Verbrechen der Nazizeit, etwa mit Blick auf Zwangsarbeit (vgl. N. Apostolopoulos, C. Pagenstecher 2013). Narrativität und Oral History sind bis heute ein wesentlicher Bestandteil der meisten Familienerzählungen: Bis heute wird ja nicht alles Erlebte verschriftlicht. Der Umgang mit der eigenen Lebenszeit, mit der eigenen Geschichte und mit dem eigenen Wissen und Nichtwissen ändert sich aber mit epochalen Umbrüchen der Lebenswelt. Im Sinn einer Kritik der digitalen Vernunft gilt dies auch für den aktuellen Epochenbruch, der mit beschleunigter Digitalisierung einhergeht. Für den Umgang mit Wissen und Nichtwissen soll dies zeigen, dass das Aufkommen einer neuen Form für die Tradierung von Wissen

54

Digitalität als Epochenbruch im Umgang mit Wissen und Nichtwissen

nicht immer den Untergang vorheriger Formen nach sich zieht, wohl aber deren beherrschende Rolle verändert.

Digitalität als Epochenbruch im Umgang mit Wissen und Nichtwissen Menschheitsgeschichtlich waren Übergänge wie die von Nomaden zu sesshaften Bauern, von mündlicher Überlieferung zur Verwendung von Schrift, dann aber von der Schrift zum Buchdruck entscheidende Etappen für den Umgang mit Wissen und Nichtwissen. Digitalität lässt sich hier im Übergang von Printmedien zu Online-Medien durchaus, wie oben angeführt, als Epochenbruch bezeichnen, gerade weil die digitale Form praktisch alle Bereiche des Lebens zu durchdringen beginnt. Damit ändert sich die Rolle von Wissen und Nichtwissen radikal. Wer heute Namen und Daten aus kognitiven Wissensbeständen sucht, findet im Internet sekundenschnell Antwort. Warum überhaupt noch Schreibschrift gelernt werden soll, ist in Grundschulen bisweilen strittig, denn manch einer und manch eine fragt sich, ob es nicht genügt, wenn Kinder lernen, fehlerfrei auf der Tastatur zu tippen. Dann nämlich ist das Erlernen einer gebundenen Handschrift jenseits der Unterschrift unter Dokumente eher überflüssig. Das Erlernen von Rechtschreibung und Kopfrechnen ist heute in der Tat schon deshalb weniger relevant, weil Rechtschreibprogramme und Taschenrechner generell verfügbar sind. Gefragt ist dann nicht mehr das kleine und große Einmaleins, sondern eher die Fähigkeit, einen Taschenrechner (idealerweise auf dem eigenen Smartphone) zu bedienen. Wer auf frühere Wissensbestände schaut, wird dies als Verlust und Niedergang erleben können. Dabei wird häufig übersehen, dass die Plastizität des menschlichen Hirns enorm groß ist und nicht einfach 55

2.  Digitales Nichtwissen

Inhalte und Fähigkeiten verschwinden, ohne dass neue Kompetenzen entstünden. Neu erforderlich ist beispielsweise die Fähigkeit zur Navigation in Wissensbeständen, aber auch die Fähigkeit zum Nutzen digitaler Werkzeuge. Der Umgang mit Wissen und Nichtwissen verändert sich insbesondere durch andere Akzente in der lebenspraktischen Relevanz und Plausibilität (vgl. U. Hemel 1988, 282–287). Menschen lernen gerne, was ihnen wichtig ist. Wenn sie etwas lernen sollen, dessen Sinn sie für sich nicht entdecken, dann entwickeln sie eher Lern­blockaden als geistige Neugier. Da Kinder eher „spielerisch“ lernen und die Bewertungsfunktion für die „Relevanz“ ihres Tuns hinter ihrer Neugier zurücksteht, lernen sie in aller Regel leichter als Erwachsene. In der Erwachsenenpädagogik hingegen ist es von herausragender Bedeutung, den Sinn des zu Lernenden zu erkennen. Ansonsten ist die Mühe weitgehend umsonst.

Die Relevanz und die Plausibilität von Information Weil ich mich für die Dynamik des Erlernens von Werten, speziell von religiösen Werten, interessierte, habe ich in meiner 1988 erschienenen Habilitationsschrift „Ziele religiöser Erziehung“ die Verknüpfung von Lernen und die Wahrnehmung von Sinn genauer untersucht. Dabei stieß ich auf einen interessanten Zusammenhang, nämlich die praktische Herangehensweise des menschlichen Gehirns, wenn ihm Neues begegnet. Dabei geht es generell um Informationsverarbeitung mit Blick auf „Relevanz“ und „Plausibilität“ im Kontext des persönlichen Weltmodells oder der persönlichen „mentalen Architektur“ einer Person (U. Hemel 1988, 282-283 und 393-403). Erst später habe ich entdeckt, dass dieser Zusammenhang auch auf das Feld der digitalen Trans-

56

Die Relevanz und die Plausibilität von Information

formation, der künstlichen Intelligenz und der Mustererkennung angewendet werden kann. Dazu habe ich im Laufe der Zeit einfache Beispiele entwickelt, etwa das Hochwerfen von Kreide in die Luft. Die Kreide fällt aufgrund der Schwerkraft schnell wieder herunter, und man kann sie auffangen. Das ist aber auch genau das, was wir alle erwarten. Wenn „Lernen“ eine Verhaltensänderung bedeutet, dann wird es selten der Fall sein, dass das Hochwerfen von Kreidestücken besondere Lerneffekte auslöst, ausgenommen vielleicht im Physikunterricht zur Veranschaulichung der Schwerkraft. Anders gesagt: Wenn die Kreide herunterfällt, passiert genau das, was wir eh erwartet hätten. Unser Hirn bildet sich ein „Plausibilitätsurteil“ (= P) über das, was gerade geschehen ist, und zwar durch Abgleich mit Vorerfahrungen und deren kategorialer Bedeutung. Der Begriff „kategoriale Bedeutung“ bedarf einer Erläuterung. Denn selbst das Hochwerfen und Herunterfallen eines Stücks Kreide passiert eben nicht im luftleeren Raum. Vielmehr wird es von unserem Erkenntnisapparat in ähnliche Situationen eingeordnet, beispielsweise in die Klasse „kleine Wurfobjekte“. Immerhin kann man mit Kreidestücken recht gut zielen und treffen. Die Einordnung kann aber auch eher situativ sein, etwa durch Zuordnung zum Kontext „Unterricht“. Dieser Kontext wiederum ist Gegenstand weiterer Konnotationen, beispielsweise im Sinn von „interessant“, „langweilig“, „weltbewegend“ und so weiter. Gehen wir zum zweiten Teil des Gedankenexperiments über. Wir stellen uns nun vor, dass das nach oben geworfene Stück Kreide in der Luft stehen bliebe, für etwa 30 Sekunden. Erst dann fiele es herunter. Das wäre eine überraschende Beobachtung. Unser Plausibilitätsurteil P würde nicht „Zustimmung“ signalisieren, sondern „Störung“ oder „Nicht-Zustimmung“.

57

2.  Digitales Nichtwissen

Nun bilden sich ja im Lauf der Zeit veritable Weltmodelle in jedem Menschen aus. Wenn wir an einem Mindestmaß von Kon­ stanz im menschlichen Denken und Handeln interessiert sind, dann benötigen wir eine gewisse Stabilität mentaler Kategorien der Einordnung, der Rahmung oder des Framing (vgl. E. Goffman 1977). Der stete Gedankenfluss oder Bewusstseinsstrom in uns funktioniert dabei auf einer physiologisch-biologischen, einer sozio-kulturellen und einer persönlich-individuellen Ebene. Die Einordnung der „kategorialen Bedeutung“ des Kreidewurfs im angegebenen Beispiel fällt uns leicht, wirkt automatisiert, hat aber gleichwohl auch auf der bewussten Ebene Rückkopplungseffekte. Diese mentalen Rückkopplungseffekte sind ihrerseits vielschichtig. Auf der biologisch-physiologischen Ebene läuft beispielsweise ein inneres Programm, das die „Gefährlichkeit“ einer Situation beurteilt. Würde beispielsweise während des Kreidewurfs die Decke des Raums merkwürdig zu krachen beginnen, würde sich die Aufmerksamkeit aller Beteiligten rasch diesem möglichen Gefahrensignal zuwenden, nach dem biologischen Motto: „Die Vermeidung von Gefahr geht vor“. Ein Signal für „Gefahr“ hätte also den Status eines „Vorrang-­ Signals“. Diese phänomenologische Beschreibung hat eine Nebenwirkung, die von erheblicher Bedeutung ist: Nämlich die Anordnung von Signalen nach einer Hierarchie von Bedeutung, nach ihrer „Relevanz“. Ich habe dies seit 1988 „Relevanzurteil“ genannt, denn die konkrete Ausgestaltung der wahrgenommenen Relevanz einer Situation wirkt sich unmittelbar handlungsleitend aus (vgl. U. Hemel 1988, 283286). Über den mentalen Rückkopplungseffekt hinaus ist die sozio-kulturelle Ebene zu erwähnen. Hier geht es um die kategoriale Einordnung der gegebenen sozialen Situation im Kontext einer bestimmten Kultur. Das Hochwerfen eines Kreidestücks in einer Schule oder an einer Universität entspricht nicht dem typischen Umgang mit dem 58

Situative Wahrnehmungskontexte

Werkzeug „Kreide“ – sofern Kreide beim aktuellen Vordringen digitaler Boards überhaupt noch verwendet wird. Klar ist jedenfalls, dass Kreidestücke die Konnotation „Lehre und Unterricht“ nach sich ziehen. Angesichts des gegenwärtigen digitalen Umbruchs könnte der eine oder andere auch an „analog gestalteten“ und „noch nicht digital ausgestatteten“ Unterricht denken. Eine dritte, „mitlaufende“ oder „konkomitante“ Kategorisierung wird das Hochwerfen der Kreide auf seine Bedeutung im Unterrichtsgeschehen prüfen. Geht es um eine kurzzeitige Ablenkung? Soll ein kleiner Spaß zur Auflockerung gemacht werden? Handelt es sich um ein Experiment? Ist das Hochwerfen der Kreide Ausdruck besonders hoher oder besonders schwach ausgeprägter didaktischer Kompetenz? Anknüpfend an die in Kapitel 1 ausgeführte Kritik an einem möglichen Vollständigkeitstheorem digitaler Wirklichkeitsrepräsentation ist auch an dieser Stelle ausdrücklich zu erwähnen, dass die Analyse des Plausibilitätsurteils zum Ereignis „Ein hochgeworfenes Kreidestück fällt herunter“ keinen Anspruch auf Vollständigkeit erhebt und auch tatsächlich nicht vollständig ist. Was uns begegnet, das beurteilen wir zwar regelmäßig nach den genannten physiologisch-biologischen, sozio-kulturellen und persönlich-individuellen Kriterien. Es sind aber weitere Sets von Kriterien denkbar, auf die hier nicht näher eingegangen werden soll. Darüber hinaus habe ich im Abschnitt über die soziokulturelle Rückkopplungsebene aufgezeigt, dass innerhalb ein und derselben kategorialen Ebene mehrere „Unterkategorien“ denkbar und wirksam sind.

Situative Wahrnehmungskontexte Einige Wahrnehmungskategorien sind so typisch, dass sie innerhalb einer gegebenen Kultur als allgemein wirksam vorausgesetzt werden können. Zur Herausbildung eines situativen Plausibilitätsurteils 59

2.  Digitales Nichtwissen

gehört aber auch die persönlich-individuelle Ebene, die sich nach eigenen Vorerfahrungen und individuellen Prägungen richtet. Hier kommt das Thema „Bewusstsein“ und „Selbstbewusstsein“ ins Spiel. Denn wir stimmen mit anderen in großen Teilen der Situationswahrnehmung überein, in einigen aber auch nicht. Auch diese Beobachtung lässt sich an unserem Beispiel des Kreidewurfs gut zeigen. Dazu nehmen wir in einem weiteren Gedankenexperiment an, die anwesenden Personen „Maximilian“ und „Antonia“ hätten auf der Ebene des individuellen Erlebens besondere Assoziationen mit dem Hochwerfen des Stücks Kreide. Maximilian trainiert Hochsprung und verfolgt daher gebannt die Bewegungsdynamik des Hochwerfens und die Ballistik des Herunterfallens des Kreidestücks. Er weiß aber auch, dass sein persönliches Interesse in der gegebenen Situation keine allgemeine Rolle spielt, lässt den Gedanken vorbeilaufen und äußert sich nicht weiter. Antonia wiederum hat in einem anderen Zusammenhang einmal erlebt, dass ein gar nicht böswillig gemeinter Kreidewurf im wahren Sinn des Wortes ins Auge ging. Für sie ist die vorherrschende Assoziation beim Werfen mit Kreide also eher „Vorsicht und Gefahr“. Ihr Arm zuckt kurz beim Hochwerfen der Kreide, aber Antonia erkennt schnell, dass es sich um ein Hochwerfen, nicht Wegschleudern des Kreidestücks handelt, und entspannt sich. Auch sie spricht über ihre Assoziation nicht, da sie erkennbar individuell ist und zum weiteren Verlauf der Situation nichts beizutragen scheint. Kommen wir nun von der Analyse der kategorialen Einordnung des Kreidewurfs und der Diskussion des entsprechenden Plausibilitätsurteils zum situativen Relevanzurteil. Die dahinter liegende Frage ist einfach und bei jedem Menschen jederzeit präsent: „Was bedeutet diese Situation für mich?“ Die kategoriale Einordnung in einen mentalen Rahmen, das „Framing“, ist ja nur ein Teil des Geschehens. Da wir in einem Raum-Zeit-Kontinuum leben und wir uns stets und ständig 60

Situative Wahrnehmungskontexte

raum-zeitlich orientieren müssen, bleibt uns gar nichts anderes übrig, als Situationen auf ihren Aufforderungs- und Handlungscharakter hin zu überprüfen. Wenn wir von einem Raum-Zeit-Kontinuum bewusster Reaktion und bewusster Orientierung sprechen, dann sind unbewusst ablaufende Vorgänge, Zeiten des Schlafs und der Bewusstlosigkeit zunächst einmal ausgeklammert. Und auch wenn uns das eigene Leben und Erleben in aller Regel als „Fluss“ und „Strom“ erscheint, so ist doch in jedem Menschen ein diskreter Steuerungsmechanismus zu postulieren, der genau die angegebene Orientierungsleistung im Alltag vornehmen kann. In meinen Beobachtungen habe ich die Häufigkeit einer solchen Relevanzsteuerung in einem Zeitrahmen gesehen, der etwa alle 1 bis 3 Sekunden stattfindet. Das ist genügend Zeit, um Aufmerksamkeit zu gewinnen und zu verlieren. Wenn man von den 24 Stunden des Tages 16 Stunden in einem Wachzustand verbringt, dann würden wir in diesen 960 oder knapp 1.000 Minuten des Tages insgesamt zwischen 20.000 und 60.000 Plausibilitäts- und Relevanzurteile fällen. Diese Aussage hat eine Beobachtungsbasis, kann hier aber nur in der Form der Generierung einer Hypothese zur weiteren Überprüfung eingeführt werden. Denn es geht ja um Orientierung in der digitalen Welt, und dort sind Weltmodelle das tägliche Brot für das Design komplexer Programme gerade im Bereich Künstlicher Intelligenz. Dabei ist die Bedeutungshöhe oder Dignität eines diskreten Plausibilitäts- und Relevanzurteils von höchst unterschiedlicher Größenordnung. Um auf das Apfelbeispiel aus dem ersten Kapitel zurückzukommen, könnte jemand den in diesem Kapitel eingeführten jungen Sportler Maximilian fragen, ob er den vor ihm liegenden Apfel essen möchte. Die Antwort könnte „ja“ oder „nein“ sein, je nach Hunger, Vorlieben, Höflichkeitsbekundungen, sonstigen Alternativen und dergleichen. 61

2.  Digitales Nichtwissen

Würde die ebenfalls anwesende Antonia gefragt, ob sie Maximilian einmal heiraten möchte, könnte die Antwort gleichermaßen „ja“ oder „nein“ sein. Die Bedeutung der beiden Entscheidungen ist aber so meilenweit voneinander entfernt, dass es in der Tat außerordentlich unpassend wäre, die zweite Frage überhaupt in dieser Form zu stellen. Unsere mentale Architektur hält insofern mit großer Selbstverständlichkeit verschiedene Bedeutungsebenen auseinander. Die meisten Ereignisse eines Tages sind nicht überraschend und verlaufen im Sinn der kognitiven Verarbeitung „störungsfrei“. Nun hatten wir aber in unserem Gedankenexperiment unterstellt, das Kreidestück hielte sich 30 Sekunden lang in der Luft.

Relevanzurteil, Framing und Coping Hier käme es nun zur beschriebenen Störung unseres Plausibilitätsurteils, denn unter normalen Umständen fallen Gegenstände zu Boden und bleiben nicht in der Luft hängen, auch nicht für 30 Sekunden. Es würden also Fragen gestellt, vielleicht weitere Experimente gemacht, Hypothesen formuliert und Erklärungen versucht. Für die meisten Menschen wäre die Relevanz der genannten Störung eines plausiblen Welt-Erlebens allerdings nicht sonderlich gravierend. Die meisten würden mit den Schultern zucken und sich vielleicht denken: „Den genauen Trick kenne ich nicht, aber so wichtig ist mir die Sache auch nicht. Ich werde also keine große Energie in die Rätsellösung hineinstecken.“ Mit dieser Überlegung ist der Charakter des Relevanzurteils bereits klar erfasst. Trotzdem ist die Zumessung von Bedeutung oder „Relevanz“ kein Selbstläufer und niemals folgenlos. Denn die Reaktion auf eine gegebene Situation hängt von der Art und Weise der zuvor abgelaufenen Einordnung ab, vom Framing (vgl. U. Hemel

62

Relevanzurteil, Framing und Coping

1988, 284-290). Anders gesagt: Das Framing bestimmt das Coping oder die Bewältigungsstrategie für eine Situation. Die Einordnung einer Situation bestimmt unsere Auswahl von Handlungsalternativen, die wir in Erwägung ziehen und aus denen wir auswählen. Noch einmal anders formuliert: Die genaue Ausprägung unseres Plausibilitäts- und Relevanzurteils bestimmt die Richtung und die Intensität unserer Reaktionen. Denn Zustimmung, Ablehnung oder Unklarheit kann mit unterschiedlich starken emotionalen Zuständen und unterschiedlich starker emotionaler Beteiligung einhergehen. Das Hochwerfen eines Stücks Kreide hat in aller Regel keine besondere emotionale Relevanz. Zu erfahren, dass die geliebte Tochter womöglich die Tochter eines anderen Vaters ist, löst ganz andere Reaktionen aus, beispielsweise die nach aktiver Informationssuche, weit über naheliegende sonstige emotionale Verstrickungen hinaus. Noch einmal: Framing bestimmt das Coping, und bestimmte ­Themen sind so sensibel, dass sie sich für Scherze nicht gut eignen. Formal könnten wir formulieren, dass ein Relevanzurteil mit der Bedeutung „hoch“ die intensivsten Reaktionen der Zustimmung und der Ablehnung auslösen wird. Wenn es sich um hoch bedeutsame Sachverhalte handelt, dann ist jedoch der Übergang von einer Überzeugung zu einer anderen nicht ohne Zwischenschritte möglich. Daher entspricht dem Plausibilitätsurteil der „Unklarheit“ auch die Handlungsreaktion des „Suchens nach weiterer Information“. Diese Suche kann mit geringer oder hoher Dringlichkeit verlaufen, so wie im angegebenen Beispiel erkennbar ist (vgl. U. Hemel 1988, 284-287). Gerade dann, wenn starke innere Glaubenssätze betroffen sind und erschüttert werden, dann sind Übergänge im Sinne eines Reframings nicht bruchlos und nicht ohne hohe emotionale Beteiligung zu haben. Dass solche Glaubenssätze im Alltag eine Rolle spielen, verweist darauf, dass „Glauben“ ein Alltagsphänomen ist, das uns nicht nur in 63

2.  Digitales Nichtwissen

der Form des religiösen Glaubens begegnet. Da viele Applikationen von Künstlicher Intelligenz Annahmen und Vermutungen über die Wirklichkeit treffen müssen, die mit vertretbarem Aufwand nicht beweisbar sind, spielen „mentale Glaubenssysteme“ auch in der digitalen Welt eine Rolle. Diese wiederum sind Gegenstand eines neu entstehenden Forschungsschwerpunkts mit der Bezeichnung Credition Research oder Kreditionenforschung (vgl. H. F. Angel u. a. 2017). Dabei geht es darum, dass wir als Menschen nicht nur auf der Ebene von Kognitionen und Emotionen, sondern auch auf der Grundlage von alltagsrelevanten Glaubenssätzen oder eben Kreditionen handeln. Die Ursprünge dieser Fragestellung gehen zurück auf Diskussionen zwischen Hans Ferdinand Angel und mir in den 1980er-Jahren in Regensburg, vor allem mit Blick auf die Bedeutung alltäglicher Glaubensakte unabhängig von religiösen Kontexten.

Navigation in Wissensbeständen und Mustererkennung Die hier etwas differenzierter dargestellte Strukturierung von Plausibilitäts- und Relevanzurteilen hat eine unmittelbare Beziehung mit der Fähigkeit zur Navigation in Wissensbeständen, mit der Fähigkeit zum Umgang mit Ungewissheit und mit der Fähigkeit zu lernen. Die Decodierung der „kategorialen Bedeutung“ einer Situation ist auch in der digitalen Welt von erheblicher Bedeutung. Gerade die Fortschritte in der Künstlichen Intelligenz sind ohne eine immer bessere Fähigkeit zur Mustererkennung nicht zu realisieren. Technisch unterscheiden sich Programme der Künstlichen Intelligenz sehr deutlich von menschlichen Operationen. Die formale Struktur der Mustererkennung muss aber in beiden Fällen einem Aufbau folgen, der von Formen der Unterscheidung von Plausibilität und Relevanz, von kategorialen Einordnungen und sich aus ihnen 64

Navigation in Wissensbeständen und Mustererkennung

ergebenen Handlungsoptionen charakterisiert wird. Entscheidungen zu Framing und Coping müssen dann aber auch als Entscheidungen erkennbar sein, auch in ihren ethischen Implikationen. Die Forderung nach Ethics by Design, also nach einer Auslegung von digitalen Programmen nach ethischen Kriterien von Anfang an, findet hier Resonanz. Sie ist Teil der sich entwickelnden Maschinenethik (vgl. O. Bendel 2019) und wird auf zahlreichen Fachkongressen diskutiert. Dabei sind sehr unterschiedliche Ansätze im Gespräch. Im vorliegenden Kapitel geht es aber speziell um die Frage von Wissen und Nichtwissen, insbesondere mit Blick auf digitales Nichtwissen. Gerade wenn wir als einzelne Person mit den Ausgestaltungen der digitalen Welt umgehen, ist eine solche Praxis des Umgangs ja schon eingebettet in eine Lern- und Lebensgeschichte rund um unser eigenes Weltwissen und unsere eigene Welterfahrung. Die genannten persönlichen Vorerfahrungen kommen dann in Kontakt mit den Besonderheiten digitaler Interaktion. Diese hängt, wie so vieles in praktisch allen Lebensbereichen, vom Niveau unserer spezifischen digitalen Kompetenz ab. Es ist kein Wunder, dass bei einem so alltagsprägenden und alldurchdringenden Bereich wie der digitalen Welt unser eigenes digitales Kompetenzprofil nicht in jeder Hinsicht und in allen Praxisbereichen das gleiche Niveau hat und haben kann. Eine digitale Überweisung ist nicht das Gleiche wie eine Facebook-Gruppe, die Bedienung eines Büroprogramms wie Excel oder Word ist nicht das Gleiche wie die Teilnahme an einem Ego-Shooter-Spiel oder einer Games Convention, also einer Messe für Computerspiele. Das Ansehen von YouTube-Filmen erfordert nicht die gleiche Fähigkeit wie die digitale Recherche für eine wissenschaftliche Arbeit oder wie die digitale Produktion einer Musikaufnahme. Anders gesagt: Auch ein hervorragendes digitales Kompetenzniveau bei der einen Tätigkeit sagt noch nichts aus über andere digitale Aktivitätsbereiche. Es ist gut möglich, in einem Bereich fast 65

2.  Digitales Nichtwissen

Analphabet zu sein und im anderen ein echter Experte. Die Gleichzeitigkeit von Wissen und Nichtwissen ist grundsätzlich nicht neu; sie wird in digitalen Zeiten allerdings noch schärfer bewusst als sonst. Dies soll im Folgenden begründet werden.

Die Grenzfläche des Nichtwissens in der digitalen Welt Mit der Wissensexplosion unserer Zeit werden wir uns bisweilen der immer größer werdenden Grenzfläche unseres Nichtwissens noch schärfer als bisher bewusst. Der Ausdruck „Grenzfläche des Nichtwissens“ ist in diesem Zusammenhang eine Metapher für die Tiefe der Einsicht in eigenes Nichtwissen. Diese Einsicht ist nämlich umso umfassender, je mehr wir wissen und je differenzierter wir mit Wissensbeständen umgehen können. Eine der Leitsprüche meiner Großmutter war für mich als Kind ziemlich unverständlich. Sie äußerte: „Dummheit und Stolz wachsen auf einem Holz.“ Das ist eine sehr direkte Ausdrucksweise für die Bedeutung der Einsicht in das eigene Nichtwissen. Wer gar nicht versteht, wie viel Wissen ihm oder ihr zur Beurteilung eines Sachverhalts fehlt, urteilt oft klar und deutlich, aber undifferenziert. Nichtwissen ist jedoch eine psychologisch unsichtbare Größe, weil es weder schmerzt noch ohne spezifischen Anlass unmittelbar auffällt. Daher können unterkomplexe und ignorante Urteile mit einem hohen Maß an Selbstbewusstsein einhergehen. Was hier als Argument für den Wert von Bildungsprozessen eingeführt werden könnte, hat in digitalen Zeiten eine enorm starke soziale Komponente. Denn gerade die gegenwärtig so stark wachsende Menge des Wissens macht eine Strategie zum Umgang mit individuellem und kollektivem Nichtwissen erforderlich. Wir sind gezwungen, uns im Wissenserwerb und in der Anwendung relevanten Wissens stärker denn je zu konzentrieren und zu fokussieren. 66

Die Grenzfläche des Nichtwissens in der digitalen Welt

Auf der individuellen Ebene geschieht dies für die digitale Welt durch die Konzentration auf diejenigen Programme, Inhalte, Formate und Aktivitäten, die zum eigenen Beruf und zum eigenen Lebensstil passen. Nicht jeder und nicht jede tummelt sich auf Twitter, nicht jeder und nicht jede pflegt seinen Linked-In-Account hingebungsvoll, nicht jeder und nicht jede ist gleichzeitig angemeldet auf Netflix, YouTube, Instagram, Pinterest, Snapchat, WhatsApp, Facebook und dergleichen. Typisch für die Kompetenzerwartung einer digitalen Gesellschaft ist es aber, dass von jedem und jeder erwartet wird, wesentliche Programme, Inhalte, Formate und Aktivitäten wenigstens zu kennen und sich in einem oder zwei Formaten zu bewegen. „Wie kann ich dich erreichen?“ wäre die dazu passende Frage. Digitales Nichtwissen ist somit eine selbstverständliche und sozial sinnvolle Begleiterscheinung des digitalen Lebens. Dadurch gehört es zum guten Leben in der digitalen Welt, über den eigenen Umgang mit Nichtwissen nachzudenken. Welche digitalen Orte (oder Websites) passen zu mir? Wie viel Zeit widme ich digitalen Aktivitäten? Um welche Zwecke geht es dabei: Unterhaltung, sozialen Austausch, Bildung, Wissenserwerb, Recherche, Politik oder Sonstiges? Rolf Dobelli hat in seinem Buch „Die Kunst des digitalen Lebens“ aus dem völligen Verzicht auf digitale „News“ geradezu eine Bewältigungsstrategie für die Informationsflut in der digitalen Welt entfaltet (R. Dobelli 2019). Der Begriff des digitalen Nichtwissens bezieht sich aus dem genannten Verständnis heraus nicht einfach auf Inhalte. Er umfasst vielmehr auch Praktiken, Fähigkeiten und Fertigkeiten, die für die digitale Welt typisch sind. Gleichzeitig verändert digitale Lebenspraxis den Relevanzkern von Wissen selbst. Etwas genau zu wissen, wird zur Ausnahme, denn Sachverhalte lassen sich ja leicht über eine Suchmaschine herausfinden. Unterschätzt wird dabei, wie wesentlich die schon vorab er67

2.  Digitales Nichtwissen

forderlichen Kategorien der Suche sind. Das, was wir wirklich gut wissen, ist eben auch Teil unserer Identität. Umgang mit Wissen und Nichtwissen bedeutet nämlich auch, Spreu vom Weizen, Unwesentliches von Wesentlichem zu trennen. Das wiederum ist ohne „Vorwissen“, ohne „Vorerfahrung“ nicht oder nur mühsam möglich. Fehlen aber stabile Vorab-Kategorien der Einordnung oder des Framing, dann steigt die Anfälligkeit für Fehlinformationen und Fehlinterpretationen. Fake News sind daher nicht einfach zufällig zum öffentlichen Phänomen geworden. Gerade wenn wir immer weniger tiefergehendes Wissen besitzen, sind wir umso anfälliger für Meldungen, die wahr scheinen, es aber womöglich nicht sind. Fehlinformationen und Fehlinterpretationen liegen dabei nahe beieinander. Ein Beispiel sind Gesundheitsinformationen aus dem Internet, die dem medizinischen Laien teilweise durchaus helfen, zugleich aber auch das Potenzial haben, ihn zu verwirren. Nötig ist also eine differenzierte Bewältigungsstrategie mit Wissen und Nichtwissen in der digitalen Welt. Diese möchte ich mit dem Begriff der „digitalen Ignoranzkompetenz“ umschreiben.

Digitale Ignoranzkompetenz als individuelle Bewältigungsstrategie Die Lösung für das beschriebene Dilemma im Umgang mit Wissen und Nichtwissen ist freilich nicht weniger, sondern mehr Transparenz, nicht weniger, sondern bessere digitale Kompetenz. Zu dieser digitalen Kompetenz gehört im 21. Jahrhundert eben auch die Einsicht in die oben erwähnte, zwangsläufige Begrenztheit des eigenen Wissens, also in die eigene „digitale Inkompetenz“. Diese wiederum ist bestimmt durch das Ausmaß des eigenen digitalen Nichtwissens. Die Erläuterungen zum Thema Plausibilitäts- und Relevanzurteil finden hier eine lebenspraktische Anwendung. Zum kompetenten 68

Das Ziel persönlicher digitaler Souveränität

Umgang mit eigener digitaler Inkompetenz, also zur eigenen digitalen Ignoranzkompetenz gehört es nämlich, klug zu unterscheiden, welcher Informationsaufwand sich lohnt und welcher gerade nicht. Gerade das schier überwältigende Ausmaß an Wissensmöglichkeiten für jeden Einzelnen macht eine Einübung der Selbstreflexion erforderlich, bei der abzuwägen ist, welche Information Vertrauen verdient und wo Vorsicht geboten ist. Dabei spielen auch Informationsasymmetrien eine Rolle, ferner digitale Manipulationen etwa über Chatbots und generell Fragen von Macht und Ohnmacht. Zur Selbstreflexion in der digitalen Welt gehört daher insbesondere die Analyse der Interessen, die mit digitalen Angeboten verfolgt werden. Geht es um kommerzielle Ziele, also will ein anderer mich zum Geldausgeben und Kaufen bewegen? Stehen politische Interessen im Vordergrund, also die Meinungsbildung rund um aktuelle Themen, in und außerhalb der eigenen Filterblase? Geht es um Zugang und Eigentum, um Selbstinszenierung und Anerkennung, um Wettbewerb und Leistungssteigerung, um Selbstoptimierung und Sozialprestige? Oder steht die Erleichterung des Alltags durch entsprechende Anwendungen im Vordergrund?

Das Ziel persönlicher digitaler Souveränität Das Ziel persönlicher digitaler Souveränität steht für genau solche Prozesse der Eigenständigkeit persönlichen Handelns. Sie findet sich nicht außerhalb unserer soziokulturellen Kontexte, sondern steht für Personen als verantwortliche Subjekte, die selbstbestimmt mit ihrer eigenen digitalen Mündigkeit umgehen wollen und können. Persönliche digitale Souveränität ist in dieser Hinsicht abzugrenzen von der Forderung nach der digitalen Souveränität von Staaten. Nicht zufällig ist der Gedanke einer persönlichen digitalen Souveränität eng verbunden mit Kants Antwort auf die Frage „Was ist 69

2.  Digitales Nichtwissen

Aufklärung?“. Seine Antwort lautete wie folgt: „Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Muthes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Muth, dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung“ (I. Kant 1784, 481). Die persönliche digitale Souveränität als Praxis mündiger Selbstbestimmung in der digitalen Welt ist daher die zeitgemäße Fortführung des Imperativs der Aufklärung von Immanuel Kant. Wir können sie verknüpfen mit der Zielrichtung einer „qualitativen Freiheit“ (C. Dierksmeier 2016). Was mit dem Ziel digitaler Souveränität verbunden ist und sein könnte, bedarf noch weiterer Entfaltung. Dies gilt beispielsweise deshalb, weil der Begriff der Souveränität unter anderem ein Begriff aus dem Staats- und Völkerrecht ist. Digitale Souveränität kann daher sowohl als Ziel einer Person wie auch als Eigenschaft und Ziel eines Staates angesehen werden, wie in Kapitel 6 ausgeführt wird. Herauszuarbeiten war in diesem Kapitel insbesondere die Basis der menschlichen Person, als dem wesentlichen, aber keineswegs einzigen Akteur in der digitalen Welt. Andere Akteure sind Institutionen, Firmen, Staaten, aber auch digitale Maschinen und Applikationen. Diese sind häufig mächtiger als der einzelne Nutzer oder die einzelne Nutzerin. Hinter Machtinteressen stehen letzten Endes jedoch Personen, sodass nach wie vor richtig ist, dass die menschliche Person den Ausgangs- und Zielpunkt der digitalen Welt darstellt. Die Zentralität der menschlichen Person benötigt allerdings einen differenzierten Bildungsprozess, der dazu befähigt, mit den eigenen Grenzen umzugehen und verantwortliche Entscheidungen zur Navigation im digitalen Dschungel zu treffen.

70

Das Ziel persönlicher digitaler Souveränität

Dazu gehört nicht zuletzt der selbstbewusste Umgang mit den vielfältigen Formen der eigenen digitalen Inkompetenz. Denn entscheiden zu können heißt auch wählen zu müssen. Je größer der Raum der Optionen, umso geringer ist bei gleichbleibender zeitlicher und mentaler Verarbeitungskapazität die verfügbare Entscheidungsenergie, also der auf jede einzelne Option entfallende Energieaufwand der Beschaffung und Bewertung von Information. Digitale Ignoranzkompetenz und digitale Souveränität sind dort am ehesten zu erreichen, wo Personen digitale und andere Allmachtsfantasien hinter sich lassen. Sie lernen dann, für die eigenen Entscheidungen im Zeitbudget und im persönlichen Haushalt von Wissen und Nichtwissen einzustehen, diese aber auch zu reflektieren und immer wieder neu infrage zu stellen. Das ist nicht weit weg von den personalen Bildungszielen, die in Europa und darüber hinaus seit Langem gefordert und gefördert werden. Dennoch ist digitale Souveränität nicht einfach die „Wiederkehr des Gleichen“, gerade weil die rasante digitale Transformation eine Reihe neuer, komplexer und widersprüchlicher Anforderungen an den Einzelnen stellt. Und weil digitale Souveränität mit der weltweiten Verbundenheit oder Konnektivität des Internet und der digitalen Welt, aber auch mit der Omnipräsenz starker Firmen, Institutionen, Staaten und sonstigen Akteuren einhergeht, steht auch die Anfrage und Rückfrage an die Selbstbehauptung und Überlebensfähigkeit der Person als selbstbestimmtem Individuum und als Steuerperson der eigenen Lebensgeschichte so sehr im Mittelpunkt der aktuellen Diskussion (vgl. J. Bauer 2015). Digitale Souveränität ist daher politische Aufgabe und Bildungsprogramm zugleich. Eine Kritik der digitalen Vernunft muss genau solche Aufgaben und Ziele zu artikulieren wissen, um als Impuls für die humane Weiterentwicklung der digitalen Welt wirksam werden zu können. 71

2.  Digitales Nichtwissen

Literatur Jean Aitchison, Wörter im Kopf, Eine Einführung in das mentale Lexikon, Berlin: Max Niemeyer Verlag 1997 Hans-Ferdinand Angel, Lluis Oviedo, Raymond F. Paloutzian, Anne Runnehoy, Rüdiger J. Seitz (Hrsg.), Processes of Believing, The Acquisition, Maintenance, and Change in Creditions, Basel: Springer International Publishing 2017 Nicolas Apostolopoulos, Cord Pagenstecher (Hrsg.), Erinnern an Zwangsarbeit, Zeitzeugen-Interviews in der digitalen Welt. Metropol Verlag, Berlin 2013 Joachim Bauer, Selbststeuerung, Die Wiederentdeckung des freien Willens, 7. Auflage München: Blessing 2015 Oliver Bendel (Hrsg.), Handbuch Maschinenethik, Wiesbaden: Springer 2019 Claus Dierksmeier, Qualitative Freiheit, Selbstbestimmung in weltbürgerlicher Verantwortung, Bielefeld: Transcript 2016 Rolf Dobelli, Die Kunst des digitalen Lebens, Wie Sie auf News verzichten und die Informationsflut meistern, 2. Auflage München: Piper 2019 Erving Goffman, Rahmen-Analyse, Ein Versuch über die Organisation von Alltagserfahrungen. Frankfurt/M.: Suhrkamp 1977 Ulrich Hemel, Ziele religiöser Erziehung, Frankfurt/M.: Peter-Lang-Verlag 1988 (= zugleich Habilitation 1988, Universität Regensburg) Ulrich Hemel, Mentale Architektur und Wirtschaftsanthropologie– eine Zukunftsaufgabe, in: Sebastian Kiessig, Marco Kühnlein (Hrsg.), Anthropologie und Spiritualität für das 21. Jahrhundert, Festschrift für Erwin Möde, Regensburg: Pustet 2019, S. 335-350 Immanuel Kant, Beantwortung der Frage: Was ist Aufklärung? In: Berlinische Monatsschrift 4, 1784, S. 481-494

72

Literatur

Lutz Niethammer (Hrsg.), Lebenserfahrung und kollektives Gedächtnis, Die Praxis der „Oral History“, Frankfurt/M.: Syndikat-Verlag 1980 Mario Vargas Llosa, Der Geschichtenerzähler, Frankfurt/M.: Suhrkamp 1990

73

3. Lernen und Entscheiden bei Menschen und Maschinen Auf der Rückreise von einem auswärtigen Termin rief ich vor mehreren Jahren meine Frau an. Ich war allein unterwegs. „Mit wem redest du?“ fragte sie mich jedoch. „Mit Silvie“, sagte ich ihr, „das ist mein Navigationssystem.“ Das ist ein einfaches Alltagsbeispiel für Lernprozesse zu Beginn der digitalen Transformation. Interessanterweise lernte mein Navigationssystem meine bevorzugten Routen, sodass wir inzwischen ein gut eingespieltes Mensch-Maschine-System sind. Der Lernprozess hatte aber auch eine humane Seite: In den Anfangszeiten der digitalen Welt mussten Menschen auch im Privatleben neu lernen, was schon das Radio und das Fernsehen im 20. Jahrhundert zustande gebracht hatten: Nicht immer, wenn eine menschliche Stimme ertönt, spricht im gleichen Augenblick ein physisch anwesender Mensch. Nun ist ein Navigationssystem im Auto nach heutigen Maßstäben ein eher einfaches System. Aber ist es richtig, dass es „lernt“? Und warum geben wir solchen Systemen menschliche Namen („Silvie“)? Weiter: Entscheide ich noch selbst, wenn ich mich fast immer nach den Vorschlägen der Maschine richte? Warum betrachten wir solche Maschinen fast wie einen menschlichen Ansprechpartner, als wären sie ein soziales Gegenüber? Wir wissen ja, dass es Maschinen sind trotz einer Sprachausgabe mit einer angenehmen Stimme. Aber wir betrachten die uns umgebende Technik mit menschlichen Augen und „humanisieren“ sie zumindest sprachlich.

75

3.  Lernen und Entscheiden bei Menschen und Maschinen

Lernen und Entscheiden setzen Wissen voraus, oder zumindest die Fähigkeit, mit Nichtwissen und Halbwissen umzugehen. Im vorherigen Kapitel stand der Umgang mit digitalem Nichtwissen beim einzelnen Menschen im Vordergrund. Der Erwerb einer grundlegenden Navigationsfähigkeit in einem Meer aus Wissen und Nichtwissen erschien hier als sinnvoller Weg dafür, wie ein einzelner Mensch mit seinem zwangsläufigen Nichtwissen und Halbwissen umgehen kann. Eine solche „digitale Ignoranzkompetenz“ ist Ausdruck persönlicher digitaler Souveränität, weil sie mit der Fähigkeit zur Selbststeuerung und mit der Urteilskraft zur Entscheidung über die Tiefe und Breite des nötigen Wissens verbunden wird. Der Begriff „Ignoranzkompetenz“ ist kein reines Wortspiel, wie die bisherigen Ausführungen vielleicht schon gezeigt haben. Denn die Wissensexplosion in Verbindung mit digitaler Transformation ändert auch den konkreten Bedarf an nötigen und nachgefragten Fähigkeiten und Fertigkeiten im Berufsleben. In diesem Kapitel soll es um Lernen und Entscheiden bei Menschen und Maschinen gehen. Dabei soll als Anwendungsfeld vorwiegend die Berufswelt in Firmen und Organisationen dienen. So wurde vor 50 Jahren von einer Führungskraft die exzellente Beherrschung der wesentlichen Wissensbestände im eigenen Fachgebiet erwartet. Bisweilen hatte dies zur Folge, dass gute Fachkräfte in Führungspositionen befördert wurden, deren Anforderungen sie nicht gewachsen waren. Das nur teilweise scherzhaft formulierte sogenannten „Peter-Prinzip“ lautete: „Jeder wird so lange befördert, bis er die Stufe seiner Inkompetenz erreicht hat“ (vgl. L. Peter, R. Hull 1972). Über das Berufsleben hinaus lässt sich der persönliche Umgang mit erlernten Wissensbeständen wie oben erwähnt als Ausdruck lebensgeschichtlicher Weichenstellung eines jeden Menschen verstehen. Das gilt auch für digitales Wissen, digitale Kompetenzen und digitale Selbststeuerung. Lernpraktische Entscheidungen haben auf 76

Die Opazität von Entscheidungen

berufliches und privates Leben erheblichen Einfluss, schon aufgrund der für das Erlernen von Wissensbeständen nötigen Zeit. „Lernen“ spielt folglich bei jedem Menschen auf seinem Entwicklungsweg vom Kind zum Erwachsenen, im Grunde aber während der gesamten Lebenszeit, eine große Rolle. Schon bisher haben wir den Begriff des Lernens auch auf Tiere angewendet. Relativ neu ist die Übertragung auf Maschinen im Sinn des Maschinen-Lernens. Betrachten wir unser eigenes menschliches Verhalten, dann ist für die menschliche Investition in „Lernzeit“ die Erwartung eines persönlichen und sozialen Nutzens entscheidend. Dieser Nutzen sollte idealerweise höher bewertet werden können als die Zeit und Energie für nicht immer angenehme Lernprozesse, für Aktivitäten rund um das Lernen, Recherchieren und die Wissensaneignung. Dementsprechend muss es auch ein Maschinenkalkül für den Nutzen von Lernprozessen geben. Die dazugehörige Frage ist dann aber: Wo fängt dieses Kalkül an, wo hört es auf? Und wenn wir eine solche Frage stellen, dann beziehen wir uns auf Entscheidungen. „Lernen“ und „Entscheiden“ sind also offenbar Themen und Weichenstellungen, die im Rahmen einer Kritik der digitalen Vernunft Menschen und Maschinen verbindet, aber auch unterscheidet. Die entsprechenden Zusammenhänge sollen in den folgenden Abschnitten genauer analysiert werden.

Die Opazität von Entscheidungen Beginnen wir mit einem weiteren Beispiel aus der Arbeitswelt: Wenn heute eine Führungskraft behauptet, sie wisse ganz genau, was die eigenen Mitarbeiterinnen und Mitarbeiter arbeiten, dann lebt sie entweder in einer tendenziell schon vergangenen Welt oder hat eine äußerst geringe Führungsspanne.

77

3.  Lernen und Entscheiden bei Menschen und Maschinen

Hintergrund dieser zugespitzten Aussage ist aber nicht eine unterstellte generelle Inkompetenz von Führungskräften, sondern der bereits geschilderte Zusammenhang: Die zunehmende Komplexität der digitalen Arbeitswelt führt dazu, dass auf jeder Stufe der Zusammenarbeit Entscheidungen getroffen werden müssen, die im Gesamtzusammenhang rational und erklärbar sind, für den Vorgesetzten aber erst auf nähere Erklärung hin transparent werden. Die zunehmende Arbeitsteiligkeit und der durch digitale Prozesse noch stärker ausgeprägte Spezialisierungsgrad beruflicher Tätigkeit führt, anders gesagt, zu einer gewissen „Opazität“ von Entscheidungsprozessen. Opazität bedeutet, dass sich konkrete Entscheidungen auf der Arbeitsebene erst durch Nachfragen, durch das Rekonstruieren des Entscheidungskontextes und generell durch intensive Kommunikation erschließen und dann „transparent“ werden. Die Opazität von Entscheidungsprozessen steht dadurch in Spannung zur stets knappen Ressource „Zeit“ und „Kommunikation“. Jede einzelne Entscheidung zu hinterfragen und „aufzuhellen“, ist nicht möglich, weil ein solches Vorgehen teure Arbeitszeit kostet und den Betrieb aufhält. Die grundsätzliche Überprüfbarkeit von Entscheidungen geht folglich mit der Praxis einher, nur einen sehr geringen Bruchteil beruflicher Alltagsentscheidungen, etwa im Einkauf oder im Lager, zu hinterfragen. Wir können in aller Regel darauf vertrauen, dass Systeme funktionieren und geltende Spielregeln eingehalten werden. Gerade deshalb gehört es zu den wesentlichen Aufgaben von Führungskräften, die Funktionalität des Gesamtsystems zu gewährleisten. Schließlich müssen alle beteiligten Akteure auch wissen, wie sie sich verhalten sollen. Sie müssen die geforderte Verhaltensweise für sich akzeptieren und sie einüben oder in die Praxis umsetzen. Dies wiederum setzt immer wieder zielgerichtete Kommunikation voraus, entweder um Änderungen einzuführen oder um Störungen zu bearbeiten.

78

Die Opazität von Entscheidungen

Daraus folgt für das Arbeitsleben, dass gute Führung immer stärker davon lebt, einen gemeinsamen Rahmen, anders gesagt, ein „Narrativ“, eine „Rahmenerzählung“ für das eigene Arbeiten zu gestalten. Die damit verbundene Herstellung von Arbeits- und Beziehungsfähigkeit in einem Team führt zu einem impliziten Orientierungswissen bei jedem Teammitglied. Es weiß, wie es sich verhalten soll und wie es einen eigenen Beitrag leisten kann. Ich habe diese Rahmenerzählung gerne das „Haus der Werte und Ziele“ genannt, weil dadurch klarer verständlich wird, dass es um das Aushandeln und um die Artikulation gemeinsamer Ziele und Werte geht, wenn eine Organisation erfolgreich sein will. Der systemische Zusammenhang des Hauses verweist dann, so gesehen, auf die gelebte „Werte-Architektur“ eines Unternehmens, analog zur „mentalen Architektur“ einer einzelnen Person oder einer Gruppe von Menschen. Gelingt es in diesem Sinne, sich auf einen solchen Rahmen zu einigen, dann entsteht ein gemeinsames Bezugssystem oder eine kollektive Referenz, die zur Orientierung für nachgelagerte Entscheidungen dient. Praktisch heißt dies, dass die Explikation von solchen Entscheidungen sich auf die Formulierungen, auf die Denk- und Sprachmuster des leitenden Paradigmas beziehen wird und beziehen muss. Die daraus resultierende Entlastungsfunktion gilt für alle Beteiligten, und zwar aufgrund der Klarheit und Sicherheit, die aus einem gemeinsamen Referenzrahmen von Zielen und Werten entsteht. Erst diese Klarheit und Sicherheit machen das Arbeiten auf der operativen Ebene produktiv. Auf der Führungsebene schafft der Bezugsrahmen die Sicherheit dafür, dass die Opazität operativer Entscheidungen zumindest prinzipiell in den Bereich der Transparenz, „Durchsichtigkeit“ und „Stimmigkeit“ überführt werden kann. Die Führungskraft darf also in einem solchen Arbeitszusammenhang „vertrauen“ und muss nicht nur „kontrollieren“.

79

3.  Lernen und Entscheiden bei Menschen und Maschinen

Digitale Ignoranzkompetenz kommt als produktive Führungsressource also genau dort zur Geltung, wo solches Vertrauen möglich ist und tagtäglich gerechtfertigt wird. Eine Führungskraft, die ihre Zeit damit verliert, störungsfreie Entscheidungen im Alltagsbetrieb stets und ständig zu hinterfragen, gerät dann schnell und zu Recht in die Kritik. Sie muss darauf verzichten, Einzelheiten allzu aufwendig verstehen zu wollen, damit das große Ganze nicht aus dem Blick gerät. Umgekehrt hat sie die Aufgabe, blitzschnell zu verstehen, wenn Ausnahmesituationen oder Störungen auftreten, die eine tiefere Analyse erfordern und die „Opazität“ des Alltagsbetriebs beleuchten. In Anwendung auf die digitale Welt können wir uns nun die komplementäre Frage nach der „Opazität“ und „Transparenz“ von maschinellen Entscheidungen und maschinellen Lernprozessen stellen. Gilt die Opazität von Entscheidungen auch digital? Wie gehen wir mit der Grenze um, die sich aus der Funktionsweise des digitalen Outputs aus Programmen Künstlicher Intelligenz auf der Basis neuronaler Netze ergibt? Denn dieser Output hat den Charakter einer „Blackbox“. Er hat also die Eigenschaft der Nicht-Opazität, kann also auch bei intensivem Bemühen nicht mehr nachverfolgt werden. Wie gehen wir mit diesem Mangel an Transparenz um? Unabhängig davon ist im Rahmen einer Kritik der digitalen Vernunft auch nach der Qualität der Kontextabbildung in einem digitalen System zu fragen: Wie tief, wie weit und wie umfangreich ist dieser Kontext? Und generell: Wie lässt sich der funktionale Kontext von digitalen Alltagsentscheidungen beschreiben? Wie weit kann und soll er erfasst werden, und wie weit wird er ausgeblendet?

80

Die Steuerungsfunktion beim Umgang mit Wissen und Nichtwissen

Die Steuerungsfunktion beim Umgang mit Wissen und Nichtwissen Die Einübung von Ignoranzkompetenz als wünschenswerte Ausprägung von subjektivem Wissensmanagement setzt die beschwerliche Arbeit des verlässlichen Aufbaus eines übergeordneten Orientierungsrahmens voraus. Gleichzeitig erfordert sie eine prozedurale Priorisierung von relevanten Wissensbeständen. Denn Entscheidungen hängen ganz wesentlich davon ab, wie ich einzelne Parameter oder Stellgrößen beurteile. Dies kann im Rahmen subjektiver Präferenzen („Beethoven oder Rolling Stones“), im Rahmen hierarchischer Funktionssysteme („Autobahn oder Feldweg“) oder im Modus des wahrscheinlichkeitsbasierten Risikomanagements („Insolvenzrisiko eines Lieferanten“) erfolgen. Ziel jeder Priorisierung ist eine operative Steuerungsfunktion, hier speziell beim Umgang mit Wissen und Nichtwissen. Eine solche Steuerungsfunktion wäre nicht erforderlich, wenn die zeitlichen und sonstigen Kosten für den Erwerb von Wissen gegen null tendieren würden. Dies ist aber weder beim Menschen noch bei digitalen Maschinen der Fall, denn zusätzliche Lernprozesse kosten Zeit, Energie und Geld. Außerdem erhöhen zusätzliche Informationen und Einflussfaktoren die Komplexität von Entscheidungen, einfach weil mit höherer Expertise auch umfangreichere Wissensbestände und differenziertere Parameter zu betrachten sind. Anders gesagt und auf betriebliche Zusammenhänge ausgerichtet gilt: Die oben erwähnte Führungskraft muss für sich genau wissen und planen, was sie genau wissen muss und was nicht. Sie hat die Aufgabe zu erkennen, wo die Suche nach einem eigenen Expertenstatus sogar zur Hemmung nötiger Kommunikationsressourcen führt. Denn der Erwerb und die Vertiefung eines auf der betreffenden Ebene unnötigen Wissens würde ja Zeit kosten, die für Führungsgespräche und Unternehmensentwicklung fehlen wird. Die 81

3.  Lernen und Entscheiden bei Menschen und Maschinen

zunehmende Komplexität der Welt in digitalen Zeiten erfordert also im Vergleich zu früher ein höheres Maß an Bewusstheit für derartige Steuerungsentscheidungen im Feld des subjektiven Wissensmanagements. Sprechen wir von digitaler Ignoranzkompetenz, dann setzt diese einen ständigen Prozess der Überprüfung und Revision von Relevanzprofilen zum Eindringen in Wissensbestände voraus. Sie wird somit auch im Berufsalltag als subjektive Form professionellen Wissensmanagements erkennbar. Das ist kein Argument gegen den Wert von Sach- und Fachwissen. Erst aus der gründlichen Beherrschung der Materie baut sich ein innerer Referenzrahmen auf, der am Ende produktiv werden kann und der Teil von persönlicher und beruflicher Identität wird. So erzählte mir ein befreundeter Arzt von einem Patienten mit gelblicher Hautfarbe in seiner Praxis. Nun gehört es noch zum Alltagswissen, dass diese mit einer „Gelbsucht“ oder „Hepatitis“ in Verbindung zu bringen ist. Leider ergaben die fachärztlichen Abklärungen auf Hepatitis A und B keine greifbaren Resultate. Der Arzt blieb beunruhigt und bestellte den Patienten zu sich ein. Er fragte ihn nach seinen Ernährungsgewohnheiten. Der Patient erzählte, er habe viel Wild gegessen. Nun gibt es eine sehr seltene Form der Lebererkrankung, die Hepatitis E, die mit dem Genuss von Wild in Verbindung gebracht wird. So war es auch, und der noch recht junge Patient konnte geheilt werden, eben weil es zum Wissensbestand des noch jungen Arztes gehörte, „Wildfleisch“ und „Hepatitis E“ in einen Zusammenhang zu bringen. Mit der digitalen Welt hat dieses Beispiel deshalb zu tun, weil digitale Assistenzsysteme uns zu guten Entscheidungen verhelfen sollen. Dabei spielen Aktualität, Reichweite und Relevanz des Wissens eine entscheidende Rolle. Würde also ein digitales Expertensystem die Erkrankung Hepatitis E als sehr seltene Form berücksichtigen oder nicht? Das Beispiel mag einfach sein, aber es zeigt das Dilemma der digitalen Abbildung von Risiken und Wahrscheinlichkeiten 82

Die Steuerungsfunktion beim Umgang mit Wissen und Nichtwissen

gut auf: Nicht allein das Erkennen, sondern auch das Bewerten von Risiken ist eine Auswirkung unserer Steuerungsfunktion, mit handfesten Folgen. Die Grenze des zumutbaren Aufwands ist jedenfalls nicht leicht zu ziehen. Ein sprechendes Beispiel dafür ist die Bundesdrucksache 17/2051 vom 3. Januar 2013, eine Vorlage der Bundesregierung vor dem Bundestag mit dem Titel „Bericht zur Risikoanalyse im Bevölkerungsschutz 2012“. Untersucht werden ein extremer Hochwasserfall und der hypothetische Verlauf einer Pandemie in Deutschland durch einen Modi-SARS-Virus. Wer das Dokument sieben Jahre später, nach dem Ausbruch der Corona-Pandemie 2020 liest, wird sich fragen: Wenn das entsprechende Risiko so gut bekannt war und beschrieben wurde, warum gab es dann keine bessere Vorbereitung, etwa bei der Beschaffung von Schutzausrüstung? Die Antwort auf diese Frage ergibt sich unmittelbar aus der hier erörterten Steuerungsfunktion von Wissen und Nichtwissen, gleich ob sie digital oder nicht-digital modelliert wird. Im erwähnten Bericht wurde das Risiko einer Pandemie nämlich der Risikoklasse C zugeordnet, die für Ereignisse zutrifft, die einmal in „100 bis 1000 Jahren“ („bedingt wahrscheinlich“) eintreten. Hätte der damals zuständige Sachbearbeiter in Zusammenarbeit mit dem Robert-Koch-Institut stattdessen die Risikoklasse D gewählt („einmal in 10 bis 100 Jahren“, „wahrscheinlich“, die zweithöchste Risikoklasse), wären nachfolgende Entscheidungen mit anderen Prioritäten gefallen. Welche Wissensbestände wichtig sind, welche an Bedeutung verlieren, ist eben nicht immer gut abschätzbar. Es kommt vor, dass bisher unbeachtete Wissensfelder plötzlich wesentlich werden. Andere Ereignisse werden unwahrscheinlicher. So wurden die für die Bundesregierung 1960-1972 zur Vorsorge gebauten, extrem teuren „Regierungsbunker“ in der Nähe der damaligen, provisorischen Bundeshauptstadt Bonn wegen der rückläufigen Wahrscheinlichkeit eines

83

3.  Lernen und Entscheiden bei Menschen und Maschinen

Atomkriegs großenteils aufgelassen und 2008 in das Museum „Dokumentationsstätte Regierungsbunker“ umgewandelt. Der Umgang mit Wissen und Nichtwissen war zwar schon immer wichtig, muss aber bei der Programmierung digitaler Systeme noch viel grundsätzlicher als bisher in den Blick genommen werden, weil wir sonst dem Output eines digitalen Systems fälschlicherweise auch dort vertrauen, wo dieses Vertrauen aufgrund problematischer Eingangsdaten nicht gerechtfertigt ist. Digitale Ignoranzkompetenz als Fähigkeit zur Steuerung von Beständen des Wissens und Nichtwissens gewinnt daher nicht nur als Anforderung an Führungskräfte der Zukunft an Bedeutung, sondern wird ganz generell zum Teil eines intelligenten Umgangs mit veränderten Systemumwelten.

Akkumulierendes Lernen, verstehendes Lernen und Identitätslernen Die Frage nach professionellem Wissensmanagement kann zur Rückfrage nach der Art des entsprechenden Wissens und Lernens führen. Denn Wissensbestände, die in der bisher beschriebenen Art und Weise erlernt werden können, beziehen sich vordergründig auf Zahlen, Daten und Fakten. Schulisches Lernen ist in vielen Fällen auf solches Lernen ausgerichtet. Ich nenne dieses Lernen hier „Lernen 1“ oder „akkumulierendes Lernen“. Besonders scharf kritisiert wurde diese Lern- und Unterrichtsform vom brasilianischen Pädagogen Paulo Freire (1921-1997), der zeitweilig auch in Europa sehr einflussreich war. Er sprach vom „Bankierskonzept“ des Lernens, weil Wissensbestände vom Kopf des Lehrers oder der Lehrerin in die Köpfe der Lernenden transferiert und dort wie aufgestapelte Banknoten akkumuliert würden. Es komme aber auf ein bewusstseinsveränderndes Lernen an (vgl. P. Freire 1971). 84

Akkumulierendes Lernen, verstehendes Lernen und Identitätslernen

Engagierte Lehrer und Lehrerinnen würden an dieser Stelle entgegnen, dass das Ziel ihres Unterrichts ja nicht nur das Auswendiglernen von Fakten sei, sondern deren Verständnis und Verknüpfung (vgl. P. Vaill 1998). Es geht dann mit anderen Worten um verstehendes, nicht nur akkumulierendes Lernen. Ein solcher Einwand lässt jedoch die ursprüngliche Intention von Paulo Freire außer acht, der in Alphabetisierung und Bildung einen Weg zur Überwindung eklatanter Ungleichheit, zur politischen Bewusstseinsbildung und Demokratisierung sah. Die von Paulo Freire angezielte politische Veränderung im Lernprozess würde dann also gar nicht zur Sprache gebracht. Jedenfalls wird das „verstehende Lernen“ oder „Lernen 2“ dann erzielt, wenn eine neue Einsicht erreicht wird, etwa die: Die Worte „Käse“ im Deutschen und „queso“ im Spanischen sind nicht nur zufällig ähnlich, sondern deshalb, weil sie über das Lateinische in die entsprechenden Sprachen gelangt sind. Die Unterscheidung zwischen Lernen 0, I, II, III und IV wird übrigens in anderer Form bereits in der „Ökologie des Geistes“ von Gregory Bateson (G. Bateson 1985, 379) verwendet, und zwar in Auseinandersetzung mit damals gängigen behavioristischen Lerntheorien. Die verschiedenen Lernebenen werden daher in einem anderen Zusammenhang artikuliert und verwendet als hier vorgeschlagen. Gerade das verstehende Lernen („Lernen 2“) prägt junge und weniger junge Persönlichkeiten und fügt ein womöglich punktuelles Lernen in eine komplexe, individuelle Bildungsgeschichte ein (vgl. H. Weimer, W. Schöler 1976, F. Kron 1988). Lernen wird dann mehr sein als Informationsspeicherung: Es prägt Weltsicht und Persönlichkeit des Lernenden. Aus dem Lernprozess wird ein Bildungsprozess. Weil Menschen Selbstbewusstsein haben, lernen sie nicht nur Dinge und Verhaltensweisen, sondern sie haben auch ein Selbstverhältnis. Sie lernen also auch, mit sich selbst umzugehen und sich selbst zu verstehen: Sie gewinnen „Identität“. Speziell Erich Fromm (1900-1980) und Erik H. Erikson (1902-1994) haben sich zeitlebens 85

3.  Lernen und Entscheiden bei Menschen und Maschinen

mit dem Thema der Identität und Identitätsentwicklung beschäftigt (vgl. E. H. Erikson 1965; E. Fromm 1941/2001, R. Funk 2007). Wenn wir den Unterschied zwischen Menschen und Maschinen verstehen wollen, ist es folglich angebracht, in der weiteren Folge der öffentlichen Diskussion auch die Frage nach Menschen-Identität und Maschinen-Identität zu stellen. Gerade das Lernen über sich selbst wirkt bis heute als der entscheidende Unterschied im Lernen von Menschen, wenn wir es mit dem Lernen von Maschinen vergleichen. Dabei ist dieses „Identitätslernen“ (vgl. U. Hemel 2017, 157-173) eine große Aufgabe im gesamten Lebenslauf, insbesondere in der großen Umbruchphase von Pubertät und jungem Erwachsenenalter. Ich nenne dieses Lernen über sich selbst „Identitätslernen“ oder „Lernen 3“. Es setzt Selbstbewusstsein und Selbststeuerung voraus (vgl. J. Bauer 2015) und geschieht typischerweise in einer recht komplexen Interaktion zwischen der einzelnen Person und ihrer sozialen Umwelt. Im besten Fall führt es zu Selbstvertrauen, Selbstwirksamkeit und Resilienz. Weniger günstig sind Ergebnisse wie Minderwertigkeitskomplexe, Identitätsdiffusion, fehlendes Zugehörigkeitsgefühl sowie mangelnde Emotionssteuerung bis hin zur Gewaltneigung. Dabei spielen auch Zuschreibungen aufgrund von Hautfarbe, sexueller Orientierung oder Zugehörigkeit zu sprachlichen und ethnischen Minderheiten eine besondere Rolle. „Wer bin ich?“ ist schließlich eine der Grundfragen jeder Person. Gelingendes Identitätslernen erfordert im sozialen Kontext nicht zuletzt den zunehmend souveränen Umgang mit Zuschreibungen von außen und Ziel- oder Idealbildern von innen. Zu den Besonderheiten menschlicher Identitätsbildung gehört allerdings auch der Umgang mit eigenen Widersprüchen, Irrtümern und lebensgeschichtlichen Wendungen.

86

Maschinelles Lernen und Entscheiden

Maschinelles Lernen und Entscheiden Die Unterscheidung von Lernen 1, Lernen 2 und Lernen 3 hat für eine Kritik der digitalen Vernunft eine erhebliche Bedeutung und war daher auch differenziert zu beschreiben. Denn um welche Art von Lernen geht es bei Maschinen, also beim viel diskutierten Machine Learning oder Maschinenlernen? Schließlich wird die Übertragung von Lern- und Entscheidungsprozessen auf Maschinen in Zeiten digitaler Transformation zu einer neuen Herausforderung. Vor etwa 20 Jahren gab es noch „Expertensysteme“, also gewissermaßen fest programmiertes Wissen in KI-Anwendungen. H ­ eute­ spricht man von der „guten alten Zeit“ der KI und der „Good Old-­ Fashioned AI“ (GOFAI). Heute geht es um offen parametrisierte, lernende Formen der Künstlichen Intelligenz unter Verwendung neuronaler Netze. Diese Form der KI verbindet sich mit der neuen Selbstverständlichkeit der Redeweise von „lernenden Maschinen“, von „Maschinen als Akteuren“, von „Maschinenhandlungen“ und dergleichen. Wenn Programme der KI in der Lage sind, Schlussfolgerungen zu ziehen und Wissenselemente zu verknüpfen, wenden wir Menschen vereinfachend den Begriff des „Lernens“ an. Das ist zutreffend, denn es entstehen dabei tatsächlich neue Wissensbestände. In diesem Fall wären wir allerdings noch bei „Lernen 1“, weil durch Rechenoperationen und Induktionen neues Wissen, aber nicht unbedingt neues Verständnis entsteht. So ganz eindeutig scheint diese Abgrenzung allerdings nicht zu sein, denn manchmal sprechen wir bereits heute davon, dass der Computer „denkt“ und „versteht“. Denken wir allerdings tiefer nach, dann verbinden wir Lernen 2 und Lernen 3 mit Bewusstsein und Selbstbewusstsein. Das aber schreiben wir derzeit Menschen zu, nicht Maschinen.

87

3.  Lernen und Entscheiden bei Menschen und Maschinen

Andererseits ist der „Phänotyp“, also die Erscheinungsform, des Maschinenlernens so nahe am verstehenden Lernen im Sinn von „Lernen 2“, dass die ganz scharfe Abgrenzung infrage steht: Schließlich werden neue Zusammenhänge erkannt, die für uns Menschen nahe am „Verstehen“ liegen. Richtig ist zumindest, dass der Maschinen-Output bei dessen Interpretation durch Menschen zu einem menschlichen Erkenntnisakt führt, den wir „Lernen 2“ nennen könnten. Das ist dann genauer gesagt ein maschineninduziertes menschliches Lernen, ein Beispiel für das enge Zusammenwirken von Menschen und Maschinen, so wie es in der Mensch-Roboter-Kollaboration derzeit einen großen technischen Aufschwung erhält (vgl. G. Bruch 2018). Wir gelangen damit in das Feld der hybriden Wirklichkeit. Die kognitive Leistung und die sensorische Ausgestaltung gut ausgelegter digitaler Maschinen in ihrer speziellen Optik und Akustik ist dann so gut, dass der errechnete Maschinen-Output auf Menschen wie ein soziales Gegenüber wirkt. Alexa, Siri und Cortana sind im wahren Sinn des Wortes sprechende Beispiele für das Gemeinte. Die Besonderheit der Mensch-Maschine-Interaktion lebt dann von der Illusion der sozialen Reziprozität, so als verstünde die Maschine wirklich, was wir meinen und sagen. Das ist bis heute aber nicht der Fall, denn auch die besten digitalen Maschinen sind ganz am Ende Maschinen. Sie haben bis heute kein Selbstbewusstsein und keinen freien Willen im Sinn der freien (und nicht vorherbestimmten) Selbststeuerung. Der Begriff der „Illusion von Reziprozität“ weist allerdings darauf hin, dass wir Menschen heute in der Lage sind, uns ein technisches Gegenüber zu schaffen, das in gewisser Weise auf Augenhöhe mit uns in Interaktion tritt, ohne selbst eine menschliche Person zu sein. Begriffe wie „Lernen“ und „Entscheiden“ sind daher in jeder Situation sehr genau zu analysieren. Das mit Identität und Person 88

Maschinelles Lernen und Entscheiden

verbundene Lernen eines Kindes oder eines Erwachsenen ist etwas anderes als die schlussfolgernde Aktivität eines Programms der Künstlichen Intelligenz, auch wenn wir dies mit guten Gründen ebenfalls als Lernen bezeichnen. Die Bindung an die Person als differentia specifica gilt auch, wenn wir vom Lernen auf den großen Bereich der Entscheidungen übergehen. Als Menschen in komplexen persönlichen, sozialen und historisch-politischen Zusammenhängen betrachten wir es aber auch als unsere besondere Fähigkeit und Aufgabe, kritisch nachzufragen. Welche Entscheidungen wollen wir überhaupt auf Maschinen übertragen? Ist der intelligente Umgang mit komplexen Problemstellungen aufgrund von geeigneten Lernprozessen tatsächlich eine darstellbare und wünschenswerte Eigenschaft von Künstlicher Intelligenz? Wäre dies so, könnten wir zukünftig nicht nur operative Entscheidungen an maschinelle Intelligenz delegieren, sondern womöglich auch komplexe Führungs- und Steuerungsaufgaben in Wirtschaft und Gesellschaft. Ein solcher Gedanke löst Unbehagen aus, eine Mischung aus Faszination und Angst. Denn Menschen legen großen Wert auf ihre Selbstbestimmung und Freiheit, so sehr wir physische und psychische Einschränkungen kennen und von ihnen geprägt werden. Wo bleiben die Freiheitsgrade, könnten wir also fragen, wenn Maschinen entscheiden? An dieser Stelle ist eine Differenzierung erforderlich. Denn zur Kritik der digitalen Vernunft muss auch die Gabe der sprachlichen Unterscheidung gehören. Nehmen wir als Beispiel erneut mein nach heutigen Maßstäben simples Navigationssystem im Auto. Die flächendeckende Einführung dieser Geräte hat dazu geführt, dass die Fähigkeit zum Lesen einer physischen Landkarte in Papierform immer weniger erforderlich wurde und heute immer weniger verbreitet ist. Aus der Durchsetzung einer technischen Innovation ergab sich 89

3.  Lernen und Entscheiden bei Menschen und Maschinen

die soziale Folge, dass das „Kartenlesen“ nicht mehr generell zum Gegenstand der Allgemeinbildung zählt. Trotzdem würden wir nicht sagen, dass das Navigationsgerät „entscheidet“, wie und wohin wir fahren. Immerhin geben wir selbst das Ziel ein und erhalten dann Hinweise und Informationen für den kürzesten oder den schnellsten Weg zum Ziel. In der Zwischenzeit sind die Navigationssysteme gerade bei Kombination mit GPS-Satelliten bei der Anzeige von aktuellen Verkehrsstörungen so gut, dass es sich nur noch selten lohnt, nach alternativen Wegen zu suchen. Trotzdem würde ich zögern zu behaupten, dass das Navigationssystem „entscheidet“, wie ich fahre. Tatsächlich entscheide ich selbst, allerdings zu über 95% auf der Grundlage dessen, was das System vorschlägt. Psychologisch und soziologisch könnten wir hier auf die Fiktionalität meines Bewusstseins freier Entscheidung hinweisen. Denn wenn ich „fast immer“ dem Navigationssystem folge, dann liegt die Festlegung des Wegs beim System, nicht bei der Person. Dennoch bleibe ich zumindest phänomenologisch und auf der Ebene meines Wachbewusstseins beim Eindruck freier Entscheidung. Ich begründe dies nicht dadurch, dass ich den Vorschlag des Systems annehme, sondern durch die Möglichkeit, anders zu fahren, also einen alternativen Entscheidungspfad zu wählen und die Folgen etwa in Form verlängerter Fahrzeit auf mich zu nehmen. Schon in diesem Beispiel verschwimmt jedoch die Grenze zwischen „Entscheiden“ und „eine Entscheidung vorschlagen“. Auf einer früheren Stufe der Technik könnten wir den Übergang vom Schaltgetriebe zum Automatikgetriebe in einem Auto anführen. Denn beim Schaltgetriebe entscheiden wir „manuell“, ob wir hochtourig oder niedertourig fahren. Beim Automatikgetriebe wird uns diese Entscheidung voll und ganz abgenommen. In fast allen Situationen empfinden wir dies als Erleichterung, nicht als Erschwernis.

90

Entscheidungen vorbereiten, Entscheiden und Funktionieren

Und wir könnten beim Vorgang des „Schaltens“ im Automatikgetriebe nicht mehr bestreiten, dass die Maschine „für uns“ entscheidet.

Entscheidungen vorbereiten, Entscheiden und Funktionieren Wir könnten nun sprachkritisch anführen, dass es sich bei der Gangschaltung um einen automatisierten technischen Vorgang handelt, der zu einer Alltagsentlastung führt, weil die Befassung mit einer solchen „Entscheidung“ für die Gesamtsituation gar keine große Bedeutung hat. Und wir könnten, dialektisch geschult, davon sprechen, dass das Getriebe nicht „entscheidet“, sondern eben „funktioniert“. „Entscheidungen zu treffen“ wäre dann definiert als eine Handlungsklasse, die dem Menschen vorbehalten bleibt. „Funktionieren“ wäre der spezifische Beitrag der Technik zur Alltagsentlastung (vgl. A. Nassehi 2019, 252). Das hier angeführte Beispiel lässt sich auf zahlreiche Situationen, technische Anwendungen und faktische Entscheidungen anwenden. Dabei ist es alltagssprachlich in aller Regel leichter, menschliche Handlungen auf technische Apparate zu übertragen. Man wird also immer wieder von „entscheiden“ sprechen, wenn es tatsächlich um „funktionieren“ geht, und zwar deshalb, weil der großartige Unterschied im Alltag nicht spürbar ist und erst in philosophisch anspruchsvoller Diskussion überhaupt auftaucht. Dabei ließe sich durchaus anführen, dass die Bauweise eines Schaltgetriebes selbstverständlich Design-, Material- und Funktionsentscheidungen erfordert, die nach wie vor von Menschen getroffen werden. Jenseits philosophischer Spitzfindigkeit wird sich aber auch hier ein tatsächliches Zusammenspiel von Mensch und Technik zeigen, beispielsweise anhand eines CAD-Designs anstelle von händischen „technischen Zeichnungen“. 91

3.  Lernen und Entscheiden bei Menschen und Maschinen

Die Differenz zwischen einem technischen Entscheidungsvorschlag wie beim Navigationssystem und der Funktionsweise des Schaltgetriebes, das keinerlei weitere menschliche Einwirkung braucht, sollte dennoch nicht bagatellisiert werden. Denn Entscheidungsvorschläge erfordern Handlungen der Zustimmung, automatisiertes Funktionieren erfordert solche Handlungen nicht. Wir könnten allerdings argumentieren, dass „Zustimmen zu einem Entscheidungsvorschlag“ eine besondere Handlungsklasse darstellt, die bei technisch gut funktionierender Entscheidungsvorbereitung den menschlichen Ermessensspielraum fast bis zu seinem Verschwinden vermindert. Viel entscheidender erscheint mir allerdings das Argument, dass es überhaupt spezifische Handlungsklassen für menschliches Handeln gibt. Denn zu jedem menschlichen Handeln gehören Kontextbedingungen, die eben typisch menschlich sind. So fahren wir irgendwann zum ersten Mal im Leben mit einem Auto oder wir fahren nach 20-jähriger Fahrpraxis. Wir fahren bei Schnee und Eis oder bei Sonnenschein, aber leider betrunken. Wir fahren fröhlich oder wütend, konzentriert oder abgelenkt. Menschliches Handeln muss folglich ein hohes Maß an situativer Komplexität und Kontextualität spiegeln, auch in Gestalt von zu treffenden Entscheidungen. Wenn ich mich betrunken ins Auto setze und mir das Navigationssystem den Vorschlag macht, an der nächsten Straßenecke rechts abzubiegen, dann gehört es zum menschlichen Handlungsspektrum, dass ich innehalten kann, zweifeln darf und vielleicht wieder aussteige, weil ich mir sage: „Oh, vielleicht habe ich doch zu viel getrunken.“ Möglich ist aber auch das irrationale und unverantwortliche Handeln dessen, der hoch alkoholisiert sich und andere in Gefahr bringt.

92

Situative Komplexität und reichhaltige Kontextualität

Situative Komplexität und reichhaltige Kontextualität Weil Menschen aus dem Fluss ihrer Erinnerungen und dem Strom ihrer Lebensgeschichte nicht aussteigen können, führen sie ihr Leben stets und ständig im Licht reichhaltiger Kontextualität, in unterschiedlichen Abstufungen von Bewusstheit. Menschliche Entscheidungen sind daher auch dann komplex, wenn sie einfach zu sein scheinen. Gerade weil Maschinen diese reichhaltige Kontextualität inklusive der besonderen Facetten von Lebensgeschichte und subjektiver Befindlichkeit („rich context“) ausblenden können, weil sie spitz und klar auf ihren Zweck ausgerichtet sind, sind Maschinen tendenziell jedem Menschen in der reinen technischen Funktionalität überlegen. Ganz im Sinn der deontologischen Philosophie Kants könnten wir hier anführen: Maschinen sind auf Zwecke ausgelegt, Menschen gerade nicht. Daraus folgt unmittelbar, dass Menschen zweifeln können, dass sie in ihren Entscheidungen bisweilen gehemmt sind oder sich selbst Zügel anlegen. Menschen sind fehleranfällig, aber auch zur Fehlerkorrektur befähigt. Sie können in aller Regel mit Ungewissheit besser umgehen als Maschinen. Auch Maschinen können dazu programmiert werden, Folgen abzuschätzen. Dies geschieht aber in aller Regel im Rahmen ihrer zweckhaften Festlegung. Beim Menschen wiederum ist die Festlegung der Zwecke für die Festlegung einer Entscheidung schon selbst immer wieder Gegenstand des Nachdenkens. Bei Maschinen erfolgt die Festlegung der Zwecke bei ihrer Programmierung durch Menschen. Sie wird den Maschinen von außen vorgegeben, und zwar mit der Sorgfalt und den Sorgfaltsmängeln, die Teil jeder Programmierung sind. Beim Menschen wiederum erfolgt die Zweckfestsetzung „autonom“, also selbstbestimmt. Diese Autonomie kann durch Hunger, Durst, Müdigkeit, Schmerz, äußeren 93

3.  Lernen und Entscheiden bei Menschen und Maschinen

Zwang und vieles mehr beeinträchtigt sein. Sie ist aber konstitutiv für menschliches Leben und Erleben. Dies gilt selbst dann, wenn nur noch residuale Freiheitsgrade erfahrbar sind und „kein anderer Ausweg“ erkennbar ist. Die mehrschichtige Kontextualisierung hinter menschlichen Handlungen und Entscheidungen wird gut sichtbar im Roman „Der Mann ohne Schatten“ von Joyce Carol Oates über eine Neuropsychologin, die sich in einen Patienten mit Gedächtnisverlust verliebt und zugleich mit ihrem Laborchef und Doktorvater Milton Ferris vorübergehend ein Verhältnis hatte. Nun erfährt die Protagonistin Margot Sharpe, dass dieser eine andere junge Frau auf eine Dienstreise nach Asien mitgenommen hat. Dazu heißt es: „Sie ruft Milton Ferris nicht an. Wird ihn auch nicht anrufen. Die Überraschung in der Stimme, den untrüglichen Abfall des Tons, die fehlende Begeisterung, kaschiert durch forcierte Freundlichkeit mit einem Beiklang von schlechtem Gewissen, sie will das Risiko nicht eingehen, das hören zu müssen: Oh ja, Margot. Hallo… […] Sie hat ihn aus Stolz nicht anrufen wollen“ (J. C. Oates 2016, 171). Beschrieben wird in diesem kurzen Text die Hinführung zur Entscheidung, einen Anruf zu unterlassen. Bei der verletzten jungen Frau führt der innere Beobachter zweiter Ordnung zur Priorisierung von Handlungsoptionen und am Ende zur Entscheidung für das Unterlassen eines Telefonanrufs bei ihrem Doktorvater und Liebhaber. Dieser aber wird von der Entscheidung zum unterlassenen Anruf nie erfahren.

Die strukturelle Unvollständigkeit von Kontextbeschreibungen Die besondere Stärke eines Romans ist die sprachliche Darstellung der unterschiedlichen Facetten in den Motiven und Handlungen von Akteuren. Dabei spielt das eine Rolle, was ich weiter oben „den 94

Die strukturelle Unvollständigkeit von Kontextbeschreibungen

reichen Kontext“ („rich context“) oder die „reiche Kontextualität“ menschlicher Entscheidungen und menschlicher Handlungen nenne. Dieser Kontext geht weit über jede sprachliche Beschreibung hinaus und übersteigt auch das Fassungsvermögen des situativen Bewusstseins einer Person. Schließlich versteht jeder Lesende, dass auch die dichteste und poetischste Beschreibung nicht vollständig sein wird. So leben wir beispielsweise als Menschen in einem Kontinuum von Geräuschen und Gerüchen. Diese kommen aber als Kontext in zahlreichen Situationen weder zum Bewusstsein noch werden sie eigens beschrieben. Dennoch weiß jeder und jede, dass Entscheidungen nicht nur im Raum-Zeit-Kontinuum, sondern wie erwähnt auch in einem Universum von Gerüchen und Geräuschen fallen. Es gibt also, anders gesagt, nicht nur eine „reichhaltige“ Kontextualität im Rahmen unserer Lebensgeschichte, sondern immer auch eine explizite und eine implizite Kontextualität. Teil unserer impliziten Kontextualität sind beispielsweise innere Tatsachen unserer körperlichen Selbstwahrnehmung, der Propriozeption. Hier geht es wie oben angedeutet um Hunger oder Durst, vorhandene oder nicht vorhandene sexuelle Erregung, die Empfindung von Wärme oder Kälte, von Wachheit oder Müdigkeit, von fokussierter Konzentration oder Ablenkung. Weil es faktisch unmöglich und darüber hinaus pragmatisch unsinnig ist, den Kontext einer einzigen Situation bis in die feinsten Verästelungen hinein zu beschreiben, lässt sich schlussfolgern: Jede mögliche Beschreibung des Kontextes einer menschlichen Handlung ist strukturell unvollständig. Dies gilt bereits auf der Ebene der bewussten und bewusstseinsfähigen Inhalte. Darüber hinaus gehört zum menschlichen Leben auch die Ebene des Unbewussten. In unserem Romanbeispiel ließe sich zum Beispiel sehr wohl fragen, wieso die Protagonistin Margot Sharpe sich in ihrem emotionalen Leben ausgerechnet zu zwei Männern 95

3.  Lernen und Entscheiden bei Menschen und Maschinen

hingezogen fühlt, mit denen sie ein im weitesten Sinn „normales“ Familienleben nicht haben wird. Denn schon bei kurzem Nachdenken erschließt sich, dass dies weder bei ihrem rund 25 Jahre älteren, verheirateten Doktorvater noch bei ihrem von Gedächtnisverlust betroffenen Patienten möglich sein wird. Zu fragen wäre also, welche Vorerfahrungen in ihrer Familiengeschichte und in ihrem persönlichen Erleben dazu führen, dass sie emotionale Nähe nur in einem Kontext zulassen kann, der schon strukturell für Distanz sorgt. Bewusste und unbewusste Bestandteile einer Entscheidung gehen oft ineinander über und sind in ihren Abgrenzungen bisweilen unklar. Sie werden aber auch dann wirksam, wenn sie nicht erkannt und nicht zur Sprache gebracht werden. Die Rede vom reichen oder reichhaltigen Kontext ist also noch umfassender zu verstehen, als es bisher erläutert wurde.

Emotionale Selbststeuerung und die Priorisierung von Handlungen Weil die Programmierung einer Maschine in aller Regel auf gezielte Funktionalitäten ausgerichtet ist, bleibt es eine stets offene Frage, welche Kontextparameter tatsächlich relevant sind und welche nicht. Dies gilt unabhängig vom Unvollständigkeitstheorem menschlicher Kontextbeschreibungen. Schließlich könnten ja diejenigen Kontexte, die nicht beschrieben werden, irrelevant sein. Schon die alltägliche Lebenserfahrung aber zeigt, dass unbeachtete, übersehene, falsch eingeschätzte oder nicht zur Sprache gebrachte Kontexte eine erhebliche Bedeutung haben können, etwa wenn wir im Winter aus dem Haus gehen und unterschätzen, wie glatt der Gehweg ist, aber natürlich auch bei Schneebrettern, wenn sich eine Lawine löst, mit der wir nicht gerechnet haben. 96

Emotionale Selbststeuerung und die Priorisierung von Handlungen

Diese Aussage hat zugleich einen technischen Aspekt. Denn wir sind technisch noch lange nicht in der Lage, den Umfang und die Ausdehnung, aber auch die Widersprüchlichkeit menschlicher Kontextparameter technisch so abzubilden, dass sie auch nur annähernd der situativen und kontextuellen Reichhaltigkeit menschlicher Entscheidungsprozesse entsprechen. Dagegen ließe sich einwenden, dass schließlich nicht jedes Detail von Bedeutung ist, weil es auf die richtige Priorisierung ankomme. Denn die Priorisierung alternativer Handlungsstränge im Zeitablauf ist eine grundlegende Voraussetzung für das Treffen verantwortlicher Entscheidungen. Beim Menschen bedarf es dazu neben einer Abwägung von Zielen und Mitteln einer gewissen emotionalen Selbststeuerung inklusive eines Minimums an Triebkontrolle. Denn so sehr wir bei einem kurzfristigen Wutanfall gerne alles kurz und klein schlagen mögen, so klar ist den meisten von uns auch, dass die Folgen unverhältnismäßig wären. Ein Beispiel mag dies erläutern: Ein sehr gebildeter Naturwissenschaftler, den ich hier Günter B. nenne, war in eine finanzielle Notlage geraten. Er haderte mit seinem Schicksal und fand die Situation unverschuldet und demütigend. Auf seine Bitte hin begleitete ich ihn zu einem für ihn kritischen Bankgespräch. Nun verhielt sich der Bankangestellte eher fordernd und herablassend. Günter B. geriet in Wut und zeigte sehr eloquent seine Frustration. Es war im Nachhinein klar, dass sich dieser Wutanfall trotz der Arroganz des Bankenvertreters negativ auswirkt, wenn jemand einen Bankkredit beantragt. Der Bankbesuch war also nicht erfolgreich. Es leuchtet ein, dass „Wutanfälle“ nicht Gegenstand der Programmierung von Werkzeugen und Anwendungen der Künstlichen Intelligenz sind, jedenfalls bisher. Mängel der emotionalen Selbststeuerung sind in digitalen Programmen nicht vorgesehen. Umgekehrt sind es ja gerade die verschiedenen Stränge menschlicher Emotionalität, biografischer Erinnerung und intentionaler 97

3.  Lernen und Entscheiden bei Menschen und Maschinen

Planung, welche die Vorhersage und Steuerung menschlicher Handlungen so schwierig machen. Menschliches Handeln ist folglich im Prinzip „teilrational“ zumindest in dem Sinn, dass Emotionen in das Handeln hineinspielen. „Teilrational“ bedeutet hier, dass „rationale Elemente“ beim Menschen zwar ihren Teil zur Entscheidung beitragen, aber nur ein Element unter den oben genannten sein können und nicht immer überwiegen. Der Vorteil maschineller Anwendungen liegt in ihrer – hart gesagt – fantasielosen Funktionalität und Zweckausrichtung. Widersprüche und Abweichungen sind nicht vorgesehen. Beim Menschen hingegen lassen sich auf der kognitiven Ebene täglich Widersprüche zwischen unserem Denken und Handeln aufweisen.

Funktionale Rationalität und komplexe Weltmodelle In der bisherigen Diskussion wurde die aus dieser Sicht unvollkommene Funktionalität des Menschen als Mangel gedeutet. Menschen wirken im Vergleich mit Maschinen dann defizitär, wenn das Kriterium vollkommener funktionaler Rationalität angelegt wird. Menschen haben Mängel in ihrer funktionalen Rationalität und agieren überwiegend „teilrational“. Tatsächlich gibt aber auch eine solche defizitorientierte Sichtweise Anlass zu Kritik und Gegenkritik. Das weiter oben zitierte Beispiel aus dem Roman „Der Mann ohne Schatten“ kann aufzeigen, was gemeint ist. Denn die Beschreibung der Situation endet aufgrund des spezifischen Weltmodells der Protagonistin damit, dass diese den von ihr bedachten Telefonanruf unterlässt. Sie gelangt aufgrund der Antizipation möglicher Folgen des Telefonanrufs zur Abwägung, ihren früheren Liebhaber und Chef nicht weiter zu kontaktieren. Das spezifische „Weltmodell“ der Protagonistin beruht auf ihren menschlichen Erfahrungen und deren biographisch konnotierter Ver98

Funktionale Rationalität und komplexe Weltmodelle

arbeitung. Der von mir verwendete Begriff des Weltmodells bezieht sich auf die Gesamtheit der mentalen Architektur einer Person im Sinn einer relativ stabilen Perspektive der Weltwahrnehmung und der Interaktion mit der Außenwelt (vgl. U. Hemel 2019, 335-350). Dazu gehört die grundsätzliche Fähigkeit zur Weltdeutungskompetenz (vgl. U. Hemel 1988, 546), die es dem Menschen nicht nur ermöglicht, sondern ihn geradezu darauf festlegt, eine eigene Weltsicht zu entwickeln. Genetische Disposition, soziokulturelle Prägung und Selbststeuerung wirken bei jedem Menschen in einer Art und Weise zusammen, die in ihm eine eigene, relativ stabile Sicht auf die Welt und sich selbst ermöglichen. Diese Weltsicht geht von alltäglichen Vorlieben des Geschmacks etwa bei Obst oder Gemüse bis hin zu komplexen Formen des übergreifenden Weltverständnisses in religiösen oder nicht-religiösen Weltdeutungen. Zur Weltdeutungskompetenz gehört daher immer auch die persönliche Ausprägung einer Weltdeutungsperformanz (vgl. U. Hemel 1988, 546-564). Jede Person agiert folglich aus dem Vorverständnis des eigenen Weltmodells. Da viele Erfahrungen sich gleichen und da wir nicht ohne unsere soziokulturellen Prägungen und Entscheidungen leben können, ist eine Theory of Mind oder eine Idee über die Weltsicht anderer grundsätzlich Teil eines solchen Weltmodells. Wir erwarten schließlich, dass auch andere an der roten Verkehrsampel stehen bleiben oder dass ein Kellner im Restaurant tatsächlich unsere Bestellung aufnehmen und nicht über das letzte Fußballspiel sprechen möchte. Ob diese Erwartungen zur Realität passen, zeigt jede Situation neu. Es ist womöglich kein Zufall, dass der Gedanke einer Theory of Mind zunächst in der Primatenforschung bei Schimpansen entstand (D. Premack, G.Woodruff 1978, 515-526). Es geht, vereinfacht gesagt, darum, dass wir nur dann das Verhalten anderer vorhersehen können, wenn wir eine „Theorie“ über den anderen in uns selbst abgebildet haben. Dieser Gedanke, der bei jedem Menschen das Entstehen eines generalisierten Anderen durch die menschliche Inter99

3.  Lernen und Entscheiden bei Menschen und Maschinen

aktion annimmt, wurde besonders im Rahmen des Symbolischen Interaktionismus im Gefolge von George H. Mead entfaltet (G. H. Mead 1978). Ein ausreichend bestimmtes Bild vom Anderen im Sinn einer Theory of Mind ist folglich die Voraussetzung für das Erlernen sozialer Kompetenz. Eine Theory of Mind bestimmt aber nicht nur zwischenmenschliche Interaktionen (vgl. H. Förstl 2012), sondern eben auch die Interaktion von Primaten, womöglich aber auch die zwischen Menschen und digitalen Systemen. Denn nur wenn es eine ausreichende Benutzermodellierung gibt, können digitale Maschinen ein so präzises Profil erstellen, dass sich ihr Gegenüber im wahren Sinn des Wortes verstanden fühlt. Dieses Verstehen folgt zwar dem oben erwähnten Muster der Illusion sozialer Reziprozität in der Mensch-Maschinen-Interaktion, fühlt sich aber ganz und gar real an. Wie komplex digitale Weltmodelle sind und sein können, hängt logischerweise von ihrer Programmierung und der verfügbaren Rechenkapazität ab. Die funktionale Rationalität eines digitalen Systems wird dann auch dadurch gewährleistet, dass es in der Lage ist, als lernendes System auf die individuellen Besonderheiten des Nutzers oder der Nutzerin einzugehen. Das bedeutet aber ein weiteres Mal, dass die Grenze zwischen Menschen und Maschinen verschwimmt. Sie ist zwar insofern noch eindeutig, weil die situative Komplexität und reiche Kontextualität des Menschen immer noch weit über Computer hinausgeht. Sie löst sich aber tendenziell dort auf, wo digitale Systeme so gut modelliert sind, dass Menschen sich im Zweifelsfall in der Interaktion mit ihnen sehr gut verstanden fühlen. Wie weit dabei der Umstand eine Rolle spielt, dass „Siri“ und „Alexa“, um bei diesen Beispielen zu bleiben, nicht widersprechen und stets höflich bleiben, soll an dieser Stelle nicht weiter erörtert werden. Für Menschen und digitale Maschinen gilt jedenfalls: Kollektive und individuelle Weltmodelle sind aufeinander bezogen, aber eben

100

Funktionale Rationalität und komplexe Weltmodelle

auch nicht identisch. Persönliche Nutzermodellierungen unterscheiden sich voneinander, Menschen und Personen tun dies allemal. Gerade der europäische Begriff der Person weist ja darauf hin, dass jeder einzelne Mensch eine einzigartige Art und Weise der Weltbegegnung hat. Dabei bildet sich im Lauf des Lebens eine besondere Weltsicht, eine individuelle Brille, eine Lebensperspektive, kurzum: das erläuterte persönliche Weltmodell heraus. Gehen wir zurück auf das Beispiel der erwähnten Romanfigur. Das Ergebnis ihrer Abwägung, ob sie ihren vormaligen Liebhaber anrufen soll oder nicht, kann auch anders ausfallen. Das bedeutet im Klartext, dass es kein „eindeutiges“ Handlungsergebnis für eine bestimmte Situation gibt. Vielmehr ist es sinnvoll, faktische Handlungen auch in ihrem Überraschungseffekt zu betrachten. Das Entstehen von Handlungen folgt daher einer Art von „Emergenz“, also einem nicht völlig unerwarteten, aber auch nicht völlig vorhersehbaren Auftreten von Entscheidungen. Diese sind dadurch gekennzeichnet, dass sie nicht komplett rational und eineindeutig aus den ihnen zugrunde liegenden Elementen der Entscheidung abgeleitet werden können. Dass Menschen für Überraschungen gut sind und in ihren Entscheidungen nicht immer berechenbar sind, ist Teil unserer Alltagserfahrung. Der Hintergrund ist eben die Vielschichtigkeit und reiche Kontextualität von menschlichen Entscheidungsprozessen. Ein „Überraschungsfaktor“ für Maschinen ist im funktionalen Sinn nicht wünschenswert. Denn digitale Systeme sollen genau diejenige Funktionalität erfüllen, für die sie gebaut und programmiert wurden. Dabei kann es allerdings paradoxerweise passieren, dass die Benutzermodellierung in der Theory of Mind des digitalen Systems in die Lage versetzt wird, die Bandbreite individueller menschlicher Handlungen zu spiegeln. In diesem Fall werden wir auch mit Maschinen Überraschungen erleben. Diese werden wir auch dann als real und tatsächlich „überraschend“ empfinden, wenn wir geistig 101

3.  Lernen und Entscheiden bei Menschen und Maschinen

nachvollziehen können, dass es sich ganz am Ende um eine Programmierung und Parametrisierung von Maschinen handelt, die eben „Überraschungen“ in den Bereich des Möglichen heben.

Rationale Priorisierung und der Emotionsüberschuss von Menschen Normalerweise schätzen wir berechenbare und rational agierende Menschen sehr. Mangelnde Impulskontrolle ist sowohl im privaten wie im beruflichen Kontext ein erheblicher Nachteil. Wer allerdings seine eigene Emotionalität so weit zurückstellt, dass die Bandbreite seines emotionalen Lebens und Erlebens, aber auch die Expressivität von Gefühlen im persönlichen Leben leidet, der gilt nicht als nachahmenswertes Vorbild. Denn er oder sie wird weniger an der „Fülle des Lebens“ teilhaben und sozial weniger Anerkennung finden als die Person, die eine Balance aus Emotionalität und Rationalität in ihrem Leben findet. An dieser Stelle gelangen wir zu einem, wie mir scheint, erheblichen Unterschied im Funktionieren und im Begreifen des Unterschieds zwischen „Mensch“ und „Künstlicher Intelligenz“. Menschen lassen sich nicht auf ihre Intelligenzleistungen reduzieren und werden durch diese auch nicht hinreichend oder gar vollständig erklärt, während Maschinen spitz und klar auf ihr Funktionieren ausgelegt sind. Die für Menschen anzustrebende Balance aus Emotionalität und Rationalität spielt für Künstliche Intelligenz grundsätzlich keine Rolle. Dies gilt auch in „humanoiden“ Kontexten wie etwa im Bereich der Pflege. Denn eine Programmierung zum Spiegeln von Empathie und zum maschinell vermittelten Ausdruck von Verständnis, Freundlichkeit und Zuneigung ist zunächst eine technische Programmierung. Diese wirkt und soll wirken auf der Ebene des Funktionierens. 102

Rationale Priorisierung und der Emotionsüberschuss von Menschen

Sie kann allerdings beim Menschen die oben beschriebene emotionale Wirkung entfalten, etwa wenn sich jemand „getröstet“, „verstanden“, „umsorgt“ fühlt, obwohl es sich um Maschinen handelt. Technische Funktionalität und emotionale Wirkung sind also zweierlei. Auch Menschen setzen Emotionen gelegentlich strategisch ein. Der inszenierte Wutanfall, der instrumentelle Gefühlsausbruch, das geheuchelte Interesse sind Beispiele dafür. Im Theater haben derart in Szene gesetzte Emotionen ihren legitimen sozialen Ort. Sie sind insofern komplex, als die Inszenierung genau dann authentisch wirkt, wenn die Schauspieler sich in die Realität des von ihnen gespielten Gefühls hineinbewegen. Zwischen „Wahrheit“ und „Fiktionalität“ liegt also ein schmaler Grat, der sehr genau zu betrachten ist. In aller Regel kommen und gehen Emotionen von selbst. Menschen sind ihnen ausgesetzt, erwerben aber im Lauf der Zeit eine gewisse emotionale Kontrolle. Sie können also mit ihren Emotionen umgehen. Der emotionale Zusammenbruch ist der Ausdruck für jene Situationen, in denen dies nicht gelingt und die Emotionen die Handlungsebene überfluten. Die „überschießende“ Emotionalität von Menschen führt und verführt uns immer wieder zu einer „anthropozentrischen“ Sprache. Wir geben Autos einen Kosenamen, wir sprechen davon, dass der Rechner „gerade denkt“ oder dass er „nicht will“ oder „keine Lust“ hat. Auf der bewussten Ebene wissen wir, dass wir hier Gegenstände vermenschlichen. Es fällt uns aber leicht und gefällt uns, auf eine solche „menschenförmige“ oder „anthropomorphe“ Art und Weise mit unserer Umwelt zu interagieren. Dieser Sinn- und Emotionsüberschuss anthropomorpher Reaktionen in der Welt und auf die Welt würde auch dann gelten, wenn wir in der Umkehranalyse festzustellen hätten, dass auch unsere Neuronen digital erfasst werden könnten. Denn die Möglichkeit einer

103

3.  Lernen und Entscheiden bei Menschen und Maschinen

digitalen Erfassung spricht ja nicht gegen die Realität menschlicher Emotionen und Sinnempfindungen. Maschinen hingegen folgen dem Vorrang rationaler Priorisierung. Wir können daher kognitive Funktionen an Maschinen auslagern. Das zwingt uns aber nicht, auf den rich context, auf Geruch und Geschmack, also auf die reichhaltige Kontextualität menschlichen Lebens und Erlebens, menschlicher Irrungen und Wirrungen, menschlichen Strebens und menschlichen Scheiterns zu verzichten.

Unsichtbare Entscheidungen und der Kontextüberschuss bei Maschinen Dem emotionalen Überschuss menschlichen Lebens und Erlebens entspricht ein unvermeidbarer Kontextüberschuss digitaler Systeme. Mit dem Begriff Kontextüberschuss ist der Umstand gemeint, dass die Modellierung eines digitalen Kontextmodells zwangsläufig Grenzen hat, sodass grundsätzlich gilt: „K > D“. Anders gesagt: Jeder Kontext (K) zu einem digitalen Programm (D) ist umfassender und reichhaltiger, als das digitale Programm es erfassen kann. Eine solche Systemgrenze gibt es zwar auch beim Menschen, der ja in seiner kognitiven Leistung und seiner Sinneswahrnehmung ebenfalls beschränkt ist. Wir müssen damit aber als Teil der conditio humana leben. Wenn wir jedoch technische Systeme einsetzen, ist es erforderlich, deren Grenze zu reflektieren und zu beschreiben. Dies ergibt sich aus dem Grundgedanken, dass Technik dem Menschen dienen und ihn nicht beherrschen soll. Für Programme Künstlicher Intelligenz, gleich ob zur Gesichtserkennung oder für digitale Applikationen in der Industrie, ergibt sich der „Kontextüberschuss“ aus der menschlichen Tätigkeit des Programmierens und des Einspeisens von Trainingsdaten. Denn keine

104

Unsichtbare Entscheidungen und der Kontextüberschuss bei Maschinen

Maschine existiert aus eigenem Antrieb heraus; sie ist grundsätzlich Gegenstand menschlicher Vorplanung. Bei hinreichender Projektbeschreibung ist zwar klar, welchem Zweck ein Programm dienen soll. Dennoch kommt es im Lauf der Erstellung eines Programms zu einer Fülle von „unsichtbaren Entscheidungen“, die nicht Teil des Pflichten- und Lastenhefts, der Projektbeschreibung oder der Programmzielsetzung sind. Diese „unsichtbaren Entscheidungen“ sind teilweise von geringer Bedeutung, teilweise müssen sie zu einem späteren Zeitpunkt erst mühsam herausgefiltert und bearbeitet werden, etwa im Fall von Diskriminierungen. Ein Klassiker ist hier die Gesichtserkennung. Würde jemand Trainingsdaten für ein solches Programm in einer Diskothek in Hamburg oder Berlin aufnehmen, wäre die zwangsläufige Folge, dass das entsprechende Programm die Altersgruppe der über 50-jährigen Personen vermutlich recht schlecht erkennen würde, und zwar deshalb, weil diese Personengruppe in Diskotheken nicht stark vertreten ist. Das Beispiel ist zugegebenermaßen leicht übertrieben, denn gerade bei personenbezogenen Programmen wird dem Gedanken des „Bias“ oder der potenziellen Diskriminierung durchaus Beachtung geschenkt. Trotzdem kann es aufzeigen, was mit „unsichtbaren Entscheidungen“ gemeint ist. Denn das Programm „funktioniert“ im Rahmen dessen, was an Daten vorhanden ist. Es wird aber tendenziell das ausblenden, was weniger häufig vorkommt. Betrachten wir das Gemeinte am Beispiel von Minderheiten, gleich ob es sich um Kleinwüchsige, um Deutsch-Inder oder um Transgender-Frauen handelt. Schon im Begriff der „Minderheit“ steckt die statistische Annehme, dass die physische Anwesenheit von Personen aus einer Minderheit weniger häufig ist als die der häufigsten Gruppierungen. Gehen in Hamburg wenige Personen aus dem asiatischen Kulturkreis in eine Disko, wird die Qualität der Gesichtserkennung bei einer mit solchen Daten gefütterten Software nicht 105

3.  Lernen und Entscheiden bei Menschen und Maschinen

sonderlich gut sein, wenn es um Asiaten und Asiatinnen geht. Ähnliches ließe sich zu den oben aufgeführten Minderheiten ausführen. Über Diskriminierungsfragen hinaus spielen in vielen Fällen „falsch positive“ Meldungen eine unterschätzte Rolle. Gerade Programme, die in die Richtung von Entscheidungen zu Personen gehen, sind hier ein besonders sensibles Feld. Betrachten wir einmal eine fiktive Anwendung aus dem Gesundheitswesen. Mit dieser Anwendung würde zu 99,9% das erhöhte Risiko von Lungenkrebs entdeckt. Jetzt muss ein Programm erst einmal so reif sein, dass es tatsächlich auf eine Performance von 99,9% richtigen Zuordnungen kommt. In der Praxis heißt das, dass 1 von 1000 Fällen falsch beurteilt wird. Die falsche Beurteilung bei unserer Testperson „Thomas“ kann heißen, dass das „Krebsrisiko“ zu Unrecht diagnostiziert oder dass es übersehen wird. Wird es „falsch positiv“, also zu Unrecht diagnostiziert, dann hat dies im sozialen und psychischen Leben der betreffenden Person ganz erhebliche Auswirkungen. Dazu kommt die Fehlallokation von Leistungen, also die Verursachung von Kosten im Gesundheitssystem, die nicht richtig eingesetzt werden. Denn unsere Testperson Thomas leidet ja gar nicht unter erhöhtem Risiko, sondern stellt die Ausnahme der „falsch positiven“ Diagnose dar. Stellen wir uns vor, Thomas lebt in Berlin und fährt mit der U-Bahn nach Hause, schon reichlich niedergeschlagen. Dort wird zur Überwachung des öffentlichen Raums eine Videokamera mit einem Programm verwendet, das ebenfalls zu 99,9% richtige Ergebnisse liefert. Nun hat Thomas einen Tag mit ausgesprochenem Pech. Denn er wird zu Unrecht als „gefährliche Person“ identifiziert, verbringt den Rest des Tages auf einer Polizeiwache und wird dann nach Hause entlassen. Dort reinigt er sein Bad mit einem Desinfektionsmittel, das zu „99,9%“ eine bakterizide Wirkung entfaltet. Und nun hoffen wir na106

Unsichtbare Entscheidungen und der Kontextüberschuss bei Maschinen

türlich, dass wir nun nicht auch hier eine Fehlermeldung generieren, etwa weil ein bestimmtes Pathogen „durchgerutscht“ ist und Thomas sich tatsächlich infiziert, auch wenn er gegen seine Überzeugung nicht an Lungenkrebs erkrankt ist. Obwohl es sich beim Gesagten um das Erkennen von Risiken handelt, die mit geringem statistischem Grundwissen transparent werden, fehlt in Gesellschaft und Öffentlichkeit häufig das Bewusstsein für einen angemessenen Umgang mit Risiken. Würde eine Fluggesellschaft damit werben, ihre Starts und Landungen seien zu „99,9%“ sicher, dann wäre sie nicht lange am Markt. Denn bei Flugreisen denken wir instinktiv über die Häufigkeit eines Unglücks nach. Wenn eine Fluglinie täglich rund 1000 Startund Landevorgänge hätte, würde das ja bedeutet, dass durchschnittlich ein Flugzeug täglich einen Crash verursacht. Ähnlich ist es bei der U-Bahn-Station: Wenn dort täglich 60.000 Menschen vorbeigehen, wäre das Sicherheitsniveau „99,9%“ gleichbedeutend mit 60 Fehldiagnosen täglich. Wer mit Künstlicher Intelligenz entsprechende Programme erstellt, weiß um diese Zusammenhänge. Dabei ist zwar die Aussage trivial, dass die Erkenntnis des Problems noch nicht gleichbedeutend mit der Lösung ist. Nicht so trivial ist die Rückfrage, welcher Akteur das Problem zu erkennen meint und was als „unsichtbare Entscheidung“ und damit auch als „unerkanntes Risiko“ außerhalb seines Blickfelds liegt. Bleiben wir bei Beispielen wie der Gesichtserkennung oder der Früherkennung von Krankheiten. Hier führen höhere Sicherheitsstandards fast zwangsläufig zu höheren Kosten. Selbst wenn Risiken erkannt werden, stellt sich die Frage nach dem angemessenen Umgang mit ihnen, im Sinn der Frage: „Welches Maß an Risiko können und wollen wir als vertretbar ansehen?“ Wie die Gesetze zum Waffenbesitz in den Vereinigten Staaten und zum Autofahren ohne Geschwindigkeitsbegrenzung in Deutschland

107

3.  Lernen und Entscheiden bei Menschen und Maschinen

zeigen, geben auch Staaten höchst unterschiedliche Antworten auf wahrgenommene und auf reale Risiken. Wir kommen hier erneut auf das Unvollständigkeitstheorem der digitalen Welt zurück. Sowohl im individuellen wie im politischen Leben, sowohl bei Programmierung wie bei der Anwendung kommen wir um ein gewisses Maß an Risiko, an Unvollständigkeit, ja an Einseitigkeit nicht herum. Es bleibt hier im Grunde nur die Sisyphus-Arbeit der immer besseren Offenlegung von zugrundeliegenden Entscheidungen, gewählten Risikoprofilen und absehbaren Folgenabschätzungen.

Offenlegung von Risikoniveaus für digitale Anwendungen Wenn es um das Lernen und Entscheiden von Maschinen geht, benötigen wir folglich im Rahmen eines gesellschaftlichen Risikomanagements ein Transparenzgebot für digitale Anwendungen, speziell solche der Künstlichen Intelligenz. Dieses könnte lauten wie folgt: „Lege deine Annahmen vollständig offen und berichte transparent über Entscheidungen zu möglichen Risiken.“ Im Sinn der „falsch positiven“ Entscheidungen aus den oben erläuterten Beispielen könnten wir eine Verschärfung formulieren wie folgt: „Berichte möglichst auch über diejenigen Themen und Herausforderungen, von denen bekannt ist, dass sie nicht in die Risikoeinschätzung eingegangen sind.“ Diese Forderung ist sehr anspruchsvoll. Sie ist auch ihrerseits dem Unvollständigkeitstheorem unterworfen, denn es wird ohne Weiteres klar, dass es Themen, Herausforderungen und Risiken gibt, die zu einem bestimmten Zeitpunkt gar nicht ins Bewusstsein dringen können. So war es in der Anfangszeit der Röntgenstrahlen beispielsweise nicht klar, dass diese die Gesundheit massiv schädigen können und nicht ohne entsprechenden Schutz eingesetzt werden sollten. 108

Offenlegung von Risikoniveaus für digitale Anwendungen

Für meine Großtante Paula Hemel (1908-1942) als eine der ersten Röntgenassistentinnen der damaligen Zeit war dies ein Todesurteil aufgrund „unsichtbarer Entscheidungen“ und „unerkannter Risiken“. In ähnlicher Weise war vor dem Auftreten des Corona-Virus Anfang 2020 logischerweise auch die Gefahr durch COVID-19 nicht bekannt. Aus dem Gesagten gehen einige Schlussfolgerungen zur „Intelligenz“ von Künstlicher Intelligenz hervor. Unabhängig davon, dass es unterschiedliche Definitionen von Intelligenz gibt (vgl. J. Funke, B. Vaterrodt 2004), beschränken wir uns hier auf Leistungen der kognitiven Informationsverarbeitung. Dabei geht es um rational artikulierbare, handlungsrelevante Themen und Probleme etwa der folgenden Art: „Soll ich auf der Autobahn bleiben oder den Stau umfahren?“ oder „Welche Wertpapiere im Hochfrequenzhandel sollen Gegenstand von Kauf und Verkauf werden?“ oder „An welcher Stelle in der Druckluftzufuhr meines Kompressors ist eine Leistungsminderung durch Leckage zu erkennen?“ Die Themenstellungen und „Aufgaben“ von digitalen Anwendungen und speziell von Programmen der Künstlichen Intelligenz sind vielfältig und reichen vom Alltagsleben zu hochspezialisierten Branchenanwendungen. Wir sprechen hier in der Regel von „schwacher KI“, also spezialisierten Programmen in kognitiven Teilbereichen. Bereits für die Anwendungen der schwachen KI sollte es ein Regelverfahren zur Risikobewertung geben, das zumindest für die Transparenz der erkannten Risiken sorgt. Grundsätzlich ist aber für alle KI-Anwendungen die Offenlegung von erkannten Risikoniveaus zu fordern. Leistungen der kognitiven Informationsverarbeitung setzen einen Daten-Input und eine Daten-Verarbeitung in definierter Menge und Geschwindigkeit voraus. So wissen wir beim Menschen beispielsweise, dass wir Bilder ab einer Datenflussmenge von 16 Bildern pro Sekunde als Bewegtbilder oder als Film wahrnehmen. Stellen wir uns nun im Sinn eines Gedankenexperiments eine Anwendung vor, 109

3.  Lernen und Entscheiden bei Menschen und Maschinen

die 256 Bilder pro Sekunde produziert, dann hätten wir einen deutlich höheren Datendurchfluss, eine höhere Leistungsanforderung an den Prozessor, aber auch entsprechend höhere Energieverbräuche. Für Menschen sind die Grenzen unseres physiologischen Wahrnehmungsapparats bei der Erfassung von Bildern und beim Erkennen von Farben biologisch vorgegeben. Menschen haben aber schon immer versucht, die Grenzen ihres Wahrnehmungsapparats zu verschieben, so etwa mit der Erfindung des Mikroskops bis hin zu modernen Elektronenrastermikroskopen. Mit dem Aufkommen der Künstlichen Intelligenz verschieben wir erstmals die Grenzen unserer kognitiven Leistungsfähigkeit, denn plötzlich können Maschinen „besser denken und handeln“ als Menschen. Die kognitive und womöglich sogar ethische Verbesserung menschlicher Fähigkeiten durch digitale Systeme soll im nächsten Abschnitt genauer behandelt werden.

Die Steigerung kognitiver Leistungsfähigkeit durch digitale Maschinen Wenn Maschinen „besser denken und handeln“ als Menschen, kann dies Anlass zu Missverständnissen geben. Denn das „besser“ in der Formulierung „besser denken und handeln“ bezieht sich einzig und allein auf die spezifische Problemstellung, für die z. B. ein Programm der „schwachen KI“ gemacht ist. Dies gilt sowohl für Alltagsanwendungen wie für das Berufsleben, es gilt für nützliche Funktionen und für die rationale Anwendung ethischer Kriterien. In gewisser Weise ist die digitale Transformation ein weiterer Schritt auf dem Weg zur Nutzung der Vorteile von Spezialisierung und Arbeitsteilung, nur eben maschinell unterstützt: Wir können durch Maschinen als Menschen selbst besser lernen und entscheiden.

110

Die Steigerung kognitiver Leistungsfähigkeit durch digitale Maschinen

Menschliches Leben ist sicherlich nicht nur durch kognitive Funktionen zu kennzeichnen. Diese aber bestimmen sehr wohl einen wichtigen Teil unseres bewussten Lebens. Dabei vollziehen wir sehr unterschiedliche Handlungen. Heute früh bin ich beispielsweise wie jeden Tag aus meinem Bett aufgestanden, habe meine Zähne geputzt, mich geduscht und angezogen. Darin liegt überhaupt nichts Besonderes, weil Millionen Menschen das ebenfalls täglich so tun. Und doch reden wir hier von sehr unterschiedlichen Handlungsklassen, deren Bewältigung als Handlungskette für einen gesunden Menschen leicht, für eine Maschine insgesamt schwer ist. Würde eine Maschine die gleiche Sequenz von Handlungen ausüben, wären wir schon eher im Feld der „starken KI“, der kybernetischen Organismen oder gar der Cyborgs und des „Transhumanismus“. Wir kommen dabei in hypothetische Felder und Fragen, die ihre philosophische Berechtigung haben, etwa im Sinn der persönlichen kognitiven Leistungssteigerung durch eine Art Hirndoping oder „Enhancement“. Sie betreffen die heutigen Formen der digitalen Transformation aber überwiegend nicht. Die genannten Fragen sollen folglich in diesem Kapitel zurückgestellt und in Kapitel 8 behandelt werden. Denn wir müssen im nächsten Schritt erst einmal verstehen, was „besser denken und handeln“ tatsächlich bedeutet. Dabei bleibe ich bei der Alltagssequenz „Aufstehen, Zähneputzen, Duschen, Sich-Anziehen“ und beim zuvor beschriebenen Beispiel „16 oder 256 Bilder pro Sekunde“. Wenn die digitale Transformation darüber hinaus mit einem nächsten Schritt der Rationalisierung und Arbeitsteilung als eine hybride Form des Zusammenwirkens von Mensch und Maschine beschrieben wird, dann geht es speziell um die Arbeitswelt. Wenn wir jedoch an Streamingdienste wie YouTube oder Spotify, an Social Media wie Facebook und Twitter denken, dann wird deutlich, dass digitale Ökosysteme tief in den Alltag eingreifen.

111

3.  Lernen und Entscheiden bei Menschen und Maschinen

Dennoch ist der Ausgangspunkt der Analyse in der Arbeitswelt sinnvoll. Die Arbeitswelt ist schließlich darauf ausgerichtet, durch zweckgerichtetes Handeln bestimmte Ergebnisse zu erzielen. Sie ist also in ihrer gesamthaften Ausrichtung eher „zweckrational“ in dem Sinne, wie Jürgen Habermas es in seiner klassischen „Theorie des kommunikativen Handelns“ beschrieben hat (J. Habermas 1981). Digitale Hilfsmittel ermöglichen zweckhaft-funktionales Handeln leichter und besser als früher. Hier liegt der rationale Grund für den Erfolg der digitalen Transformation. Vor inzwischen vierzig Jahren war ich als junger Familienvater nebenberuflich als Übersetzer tätig. Wir mussten Übersetzungen anhand eines gedruckten Wörterbuchs und eigener Kenntnisse mit einer elektrischen Schreibmaschine zu Papier bringen und bei jedem Tippfehler eine Korrekturflüssigkeit namens „Tipp-Ex“ aufbringen. Es ist klar, dass die Einführung elektronischer Programme auf einem PC als große Arbeitserleichterung empfunden wurde. Heute hingegen sind Übersetzungsprogramme wie DeepL bereits in hervorragender Qualität verfügbar, und zwar eben auch mithilfe von Künstlicher Intelligenz. Neu und gewöhnungsbedürftig ist dabei der Umstand, dass digitale Maschinen und Anwendungen dem Menschen in seiner kognitiven Leistungsfähigkeit überlegen sein können. Ich komme zurück auf das Beispiel der Bildverarbeitung mit „256 Bildern“ statt „16 Bildern“ pro Sekunde. Für einen Menschen sind hier die Unterschiede aufgrund biologischer Grenzen nicht mehr erkennbar. Es gibt aber zu den meisten Beispielen für einen technischen Fortschritt auch Anwendungen, hier beispielsweise in der Qualitätssicherung. So hatte ich vor rund zwanzig Jahren mit der Fertigung von Babywindeln zu tun. Dabei ging es um große maschinelle Anlagen mit einem Output von damals über 600 Stück pro Minute, also 10 Stück pro Sekunde. Hier wäre beispielsweise eine entsprechend programmierte Kamera mit einer Bildverarbeitung von 256 Bildern pro 112

Die Steigerung kognitiver Leistungsfähigkeit durch digitale Maschinen

Sekunde leistungsfähig genug, Fehler zu erkennen, die dem menschlichen Auge verborgen bleiben müssten. Eine solche Kamera wäre sogar überdimensioniert: Eine Auflösung von 16 Bildern pro Sekunde könnte ja als ausreichend angesehen werden. Es käme also zu Diskussionen über die bestmögliche Auslegung, die Kosten, Leistungen und Funktionen einer optischen Qualitätskontrolle. Ganz unabhängig von diesem Beispiel ist völlig klar, dass maschinelle Systeme dem Menschen bei Routinetätigkeiten schon deshalb überlegen sind, weil sie keine Übermüdung kennen und fehler­freies Funktionieren in großer Geschwindigkeit besser ermöglichen als jeder Mensch. Auch darin, also in einer ermüdungsfreien Vigilanz, besteht ein Aspekt der kognitiven Leistungssteigerung durch digitale Anwendungen. „Besser sehen“ ist aber noch nicht „besser denken und handeln“. Genau dieser Schritt zeichnet Anwendungen künstlicher Intelligenz aus, einfach weil große Mengen an Daten in hoher Verarbeitungsgeschwindigkeit und mit komplexen Anforderungen programmiert werden können, sodass es über neuronale Netze zu „von selbst lernenden Systemen“ kommt (Machine Learning). Lernen ist hier verbunden mit der Fähigkeit, Hypothesen zu bilden und Schlüsse zu ziehen wie etwa bei der oben erwähnten Gesichtserkennungssoftware. Trotzdem ist das „Besser denken und handeln“ der Künstlichen Intelligenz sektoral und arbeitsteilig begrenzt. Ihre „Intelligenz“ ist auf rational nachvollziehbare Aufgaben und gegebene Funktionalitäten ausgerichtet. Besonders deutlich wird dies am „Internet der Dinge“, etwa im Rahmen digitaler Haustechnik mit „intelligenten“ Kühlschränken, Lichtanlagen und Heizungssystemen. Bei vielen Anwendungen der „schwachen KI“ und der „traditionellen Digitalität“ steht folglich die Alltagsentlastung im Vordergrund. Schon schwieriger wird es dort, wo unser Alltag durch einen hybriden Mix aus „eigenen“ und „maschinell unterstützten“ Anteilen be113

3.  Lernen und Entscheiden bei Menschen und Maschinen

stimmt wird. Die Grenzen sind dabei fließend. Auch ein Blech­wecker der 1960er-Jahre des letzten Jahrhunderts taugt dazu, den Schlaf zu unterbrechen. Mit digitalen Assistenzsystemen wie Siri, Alexa und Google kann das digitale „Anstupsen“ („Nudging“) weit über Weckfunktionen hinaus zu einer digitalen Alltagsbegleitung werden, die genau das ausführt, was einprogrammiert wurde. Situative Besonderheiten, liebenswerte und problematische Widersprüche sowie handfeste Meinungsänderungen bleiben dabei ausgeklammert.

Digitales Eigenleben und soziale Risiken maschineller Entscheidungen Sozial risikoreich kann der Einsatz Künstlicher Intelligenz vor allem dort werden, wo tatsächlich maschinengestützte Entscheidungen fallen. Dabei gibt es – wie die vorherigen Ausführungen zeigen – ein weites Spektrum aus dem großen Feld des Wissens und Handelns. Im nächsten Schritt soll es daher um eine phänomenologische Betrachtung möglicher Entscheidungskonstellationen im Zusammenspiel von Menschen und Maschinen gehen. Dabei lassen sich folgende Fälle unterscheiden: a) Maschinen schlagen eine Entscheidung vor (Beispiel: Navigationssystem) b) Maschinen sind Gegenstand der faktischen Delegation von Entscheidungen (Beispiel: Sicherheitskontrollen) c) Maschinen entscheiden eigenständig (Beispiel: Hochfrequenzhandel mit Wertpapieren). d) Maschinen handeln eigenständig (Beispiel: Drohnen, autonomes Fahren Stufe 5) e) Maschinen handeln eigenständig, ohne dass Menschen es wahrnehmen (Beispiel: Social Bots) 114

Digitales Eigenleben und soziale Risiken maschineller Entscheidungen

Die „Intelligenz“ oder besser gesagt die kognitive Leistungsfähigkeit Künstlicher Intelligenz führt, wie diese Abstufungen zeigen, ab einer bestimmten Ebene zu einer Art von „Eigenleben“. Dieses „digitale Eigenleben“ künstlicher Intelligenz ist nicht zuletzt die Folge maschinellen Lernens, bei dem die einzelnen Schritte nicht mehr ohne Weiteres reproduziert, „verstanden“ und „nachvollzogen“ werden können. „Digitales Eigenleben“ ist aber auch die Folge zunehmender Komplexität, sich überlagernder Systeme und von im Detail nicht mehr durchdringbaren Systemwelten. Denn diese folgen regelmäßig Vorentscheidungen, die wir im Fluss des Alltagslebens weder verstehen noch nachvollziehen. Es wäre eine außerordentlich interessante und kontroverse Diskussion, die Forderungen nach Transparenz und Accountability oder „Rechenschaft“ auch auf dem Gebiet der KI so auszulegen, dass jeder einzelne Entscheidungsschritt dokumentierbar werden muss. Dann müsste zu jedem Rechenschritt auch eine Dokumentation gefordert werden, was die Systeme zwangsläufig langsamer machen würde. Ein solcher Schritt widerspräche zwar einer technischen und betriebswirtschaftlichen Betrachtung. Er könnte aber das Vertrauen in die Anwendung Künstlicher Intelligenz gesellschaftlich enorm fördern und wohl auch das eine oder andere Risiko abmildern. Zur paradoxen Realität der zunehmenden digitalen Transformation gehört es nämlich bisher, dass mit stärkerer digitaler Teilhabe auch das Gefühl digitaler Abhängigkeit wächst. Aus diesem Grund könnte man die digitale Transformation unter kulturkritischer Sicht auch als die „vierte Kränkung“ der Menschheit mit den Namen „Siri, Cortina und Alexa“ bezeichnen. Dabei gilt als erste Kränkung die astronomische Erkenntnis von Johannes Kepler (1571-1630), dass sich die Erde um die Sonne dreht und nicht umgekehrt. Die zweite Kränkung ergibt sich aus der For115

3.  Lernen und Entscheiden bei Menschen und Maschinen

mulierung der Evolutionstheorie durch Charles Darwin (1809-1882). Dass der Mensch nicht einfach „Herr im Haus“ ist, sondern dass er sich im Rahmen der Psychoanalyse Sigmund Freuds (1856-1939) mit seinem Ich, Es und Über-Ich auseinandersetzen muss, wäre dann die dritte Kränkung. Bei jeder Kränkung geht es um eine Neuformulierung der Stellung des Menschen in der Welt. Die vierte, digitale Kränkung hätte zur Folge, dass der Mensch sich nicht länger als das kognitiv höchststehende Wesen auf der Welt betrachten kann, sondern durch digitale Systeme herausgefordert wird. Schließlich handelt es sich bei der digitalen Transformation um eine ebenso grundlegende Umwälzung der Lebensverhältnisse und der Sicht auf die Welt wie die Einführung des kopernikanischen Weltbilds und die Evolutionstheorie. Wenn wir aber gelernt haben, dass nicht die Sonne sich um die Erde dreht, sondern umgekehrt, und wenn wir wissen, dass Menschen im Lauf der Evolution entstanden sind, dann können wir auch mit dem Gedanken umgehen, dass maschinelle Systeme uns in der kognitiven Leistung überlegen sein können. Daran, dass Autos schneller fahren, als Menschen laufen können, haben wir uns schließlich ebenfalls gewöhnt. Dennoch bleibt es eine valide Beobachtung, dass gerade die angestrebte Alltagserleichterung als Teil einer „neuen Entfremdung“ wahrgenommen werden kann. Man schaut nicht mehr aus dem Fenster, um zu erfahren, wie das Wetter ist, sondern sieht sich seine Wetter-App an und empfindet diese als zuverlässiger als die eigenen Sinne! Das „Besser denken und handeln“ digitaler Systeme wird hier anschaulich greifbar. Auf der rationalen Ebene würden mir hier beispielsweise meine Kinder antworten, dass mir die Wetter-App ja auch den Verlauf der nächsten drei und der nächsten zehn Tage anzeigen würde, was der Blick zum Himmel nicht kann. Ich könnte dann 116

Exocerebrum, Selbstbewusstsein und die Fähigkeit zur Selbstkorrektur

entgegnen, ich wolle ja nur wissen, ob ich zum Spaziergang einen Regenschirm mitnehmen müsse; da sei die darüber hinausgehende Information überflüssig. Hinter dieser Bemerkung liegt die offene Frage der sinnvollen Begrenzung digital verfügbarer Information, die ihrerseits zurückführt auf das Thema der Prioritätensetzung und Selbststeuerung von Menschen.

Exocerebrum, Selbstbewusstsein und die Fähigkeit zur Selbstkorrektur Die umfassende Verfügbarkeit kognitiver Wissensbestände und deren operative Verknüpfung zu alltagstauglichen Entscheidungen oder Entscheidungshilfen ist eine Stärke digitaler Apparate und Systeme. Unabhängig vom konkreten Menschen könnten wir beispielsweise das Internet als das „Außenhirn“ oder Exocerebrum der Menschheit ansehen. Der Begriff Exocerebrum verwendet allerdings wieder eine anthropozentrische Sprache. Dies ist kein Zufall, denn er wurde zuerst vom mexikanischen Anthropologen Roger Bartra (geboren 1942) verwendet, der auf den Zusammenhang zwischen dem Funktionieren des menschlichen Hirns und der kulturellen Codierung von Sprache, Bewusstsein, Essgewohnheiten, Kleidung und Kultur hinwies (R. Bartra 2014). Der Mensch ist sozusagen auf seine ihn prägende und umgebende Kultur angewiesen. Er ist damit aber auch der Bezugspunkt für entstehende digitale Ökosysteme. Die den Menschen prägende Umgebungskultur wird zunehmend digital. Es ist daher sinnvoll, den Begriff Exocerebrum zu erweitern und ihn auch auf das Internet und die neu entstehenden digitalen

117

3.  Lernen und Entscheiden bei Menschen und Maschinen

Ökosysteme inklusive der Verwendung von Künstlicher Intelligenz anzuwenden. Wenn wir nach dem Lernen und Entscheiden von Menschen und Maschinen fragen, dann bleiben trotz aller technischen Fortschritte doch einige Besonderheiten bestehen, bei denen sich menschliche und maschinelle Intelligenz bisher grundlegend unterscheiden. Dazu gehört die oben ausführlich erörterte „reiche Kontextualität“ menschlicher Erfahrung inklusive kognitiver Vorgänge, also etwa die weiter oben erläuterte Begleiterscheinung von „Gerüchen und Geräuschen“ und generell von Sinneserfahrungen jeglicher Art. Dazu gehört die überschießende Emotionalität des Menschen, sein biografisches Gedächtnis und seine freie Intentionalität. Dies führt uns unmittelbar zu den Phänomenen des Selbstbewusstseins und der Selbststeuerung, wie sie für Menschen, aber nicht für Maschinen typisch sind. Das Internet weiß von sich nicht, dass es das Internet ist. Und auch ein gut funktionierendes System des maschinellen Lernens wird nicht innehalten und sich selbst auf völlig andere Zwecke und Ziele umprogrammieren. Menschen sind, anders gesagt, irrtumsanfälliger, aber auch korrekturfähiger als Maschinen. Wenn jemand merkt, dass das Studium der Chemie nicht zu ihm passt, wird er oder sie die eigene Entscheidung überprüfen und am Ende vielleicht ein neues Ziel anstreben. Selbstbewusstsein, Selbststeuerung und Lernfähigkeit angesichts drohender Katastrophen sind dem Menschen eigentümlich. Gerade in seiner Katastrophenkompetenz und dem Lernen aus Irrtümern unterscheidet sich der Mensch insgesamt doch deutlich sowohl von Tieren wie von Maschinen. Das Eindringen digitaler Systeme in den beruflichen und privaten Alltag führt aber bisweilen zu Ängsten und auch zu neuen Anforderungen an die Herausbildung menschlicher Identität, an 118

Literatur

das Berufsleben, aber auch das soziale Zusammenleben und die Gesetzgebung. Diese Themen sollen in den nächsten Kapiteln zur Sprache kommen.

Literatur Gregory Bateson, Ökologie des Geistes, Anthropologische, psychologische, biologische und epistemologische Perspektiven, Frankfurt/M.: Suhrkamp 1985 Joachim Bauer, Selbststeuerung, 7. Auflage München: Blessing 2015 Roger Bartra, Anthropology of the Brain, Consciousness, Culture, and Free Will, Cambridge: Cambridge University Press 2014 Guido Bruch, Einführung in die Mensch-Roboter-Kollaboration, Wie der Mittelstand (fast) zu chinesischen Fertigungskosten produzieren und seine Personalnot reduzieren kann, Neubiberg 2018 Deutscher Bundestag, Drucksache 17/12051 vom 3.1.2013, Bericht zur Risikoanalyse im Bevölkerungsschutz 2012, Berlin 2013 Erik H. Erikson, Kindheit und Gesellschaft, 7. überarbeitete und erweiterte Auflage, Stuttgart: Klett-Cotta 1965 Hans Förstl, Theory of Mind, Neurobiologie und Psychologie sozialen Verhaltens, 2. überarbeitete und aktualisierte Auflage, Berlin: Springer 2012 Paulo Freire, Pädagogik der Unterdrückten, Stuttgart-Berlin: Kreuz-Verlag 1971 Erich Fromm, Die Furcht vor der Freiheit, 18. Auflage München: dtv 1993 (Original 1941) Rainer Funk, Das Leben selbst ist eine Kunst, Einführung in Leben und Werk von Erich Fromm, Freiburg/Br.: Herder 2007 Joachim Funke, Bianca Vaterrodt, Was ist Intelligenz? 2. überarbeitete Auflage München: C.H.Beck 2004 119

3.  Lernen und Entscheiden bei Menschen und Maschinen

Jürgen Habermas, Theorie des kommunikativen Handelns, Bd. 1-2, Frankfurt/M.: Suhrkamp 1981 Ulrich Hemel, Ziele religiöser Erziehung, Beiträge zu einer integrativen Theorie, Frankfurt/Main: Peter Lang 1988 (= zugleich Habilitationsschrift Universität Regensburg) Ulrich Hemel, Heimat und personale Selbstbildung. Eine pädagogische Reflexion, in: Ulrich Hemel, Jürgen Manemann (Hrsg.), Heimat finden – Heimat erfinden. Politisch-philosophische Reflexionen, Paderborn 2017, S. 157-173 Ulrich Hemel, Mentale Architektur und Wirtschaftsanthropologie– eine Zukunftsaufgabe, in: Sebastian Kiessig, Marco Kühnlein (Hrsg.), Anthropologie und Spiritualität für das 21. Jahrhundert, Festschrift für Erwin Möde, Regensburg: Pustet 2019, S. 335-350 Friedrich W. Kron, Grundwissen Pädagogik, München–Basel: E. Reinhardt 1988 George Herbert Mead, Geist, Identität und Gesellschaft aus der Sicht des Sozialbehaviorismus, Frankfurt am Main: Suhrkamp 1978 Armin Nassehi, Muster, Theorie der digitalen Gesellschaft, München: C. H. Beck 2019 Joyce Carol Oates, Der Mann ohne Schatten, Roman, Frankfurt/Main: S. Fischer 2016 (=The Man without a Shadow, HarperCollins New York 2016) Laurence J. Peter, Raymond Hull, Das Peter-Prinzip oder die Hierarchie der Unfähigen, 12. Auflage, Reinbek: Rowohlt 1972 Laurence J. Peter, Schlimmer geht’s immer, Das Peter-Prinzip im Lichte neuerer Forschung, Reinbek: Rowohlt 1995 David Premack, Guy Woodruff, Does the Chimpanzee have a Theory of Mind? In: Behavioral & Brain Sciences 1978, 1, S. 515-526 Peter B. Vaill, Lernen als Lebensform, Ein Manifest wieder die Hüter der richtigen Antworten, Stuttgart: Klett-Cotta 1998

120

Literatur

Hermann Weimer, Walter Schöler (Bearbeitung), Geschichte der Pädagogik, 18. völlig neu bearbeitete Auflage, Berlin–New York: De Gruyter 1976

121

4.  Digitale Identität Wer sind wir? Wer bin ich? Seit es Menschen gibt, lässt sie die Frage nach ihrer Identität nicht los. Weil Menschen relationale, auf Beziehung hin angelegte Wesen sind, vergleichen sie sich mit anderen Menschen, mit Tieren, mit allem, was sie in ihrer Welt-Interaktion erleben können. Es ist also kein Wunder, dass mit dem Aufkommen digitaler Lebenswelten auch die Frage nach menschlicher Identität in digitalen Zeiten neu zu stellen ist. Was genau heißt digitale Identität? Schon von Anfang an ist darauf hinzuweisen, dass die menschliche Selbstreflexion nur eine der verschiedenen Facetten digitaler Identität sein kann. Denn digitale Identität kann sich auf die Identität von Menschen oder auf die Identität von Maschinen beziehen. Die Frage nach digitaler Identität umfasst also auch die Frage danach, ob Maschinen überhaupt eine Identität haben können. Wenn ja, wie ist diese zu verstehen? Welche Analogien gibt es zu menschlichen Prozessen der Selbstwerdung und Identitätsreflexion? Und wo genau liegen die Unterschiede? Dabei gilt grundsätzlich: Menschen sind neugierig, erkunden die Welt, sind sich aber auch selbst ein Rätsel. Die grundlegende These des folgenden Kapitels lässt sich daher wie folgt zusammenfassen: Die besondere Fähigkeit des Menschen zur Selbstreflexion und zum Selbstbewusstsein unterscheidet nach wie vor den Menschen vom Tier, aber auch von Programmen der Künstlichen Intelligenz. Denn Technik funktioniert, Menschen leben.

123

4.  Digitale Identität

Menschliche Identität, Planungsfähigkeit und Zeitsouveränität Die besondere Lebensform des Menschen im Vergleich zu anderen Lebewesen hat nicht zuletzt mit seiner Zeitsouveränität zu tun. Menschen haben eine Symbolfähigkeit, die anderen Lebewesen überlegen ist und die ihnen in ihrem Umgang mit Sprache und Welt zugutekommt (vgl. U. Hemel 2020, 152-162). Besonders die Fähigkeit zur Versprachlichung der Welt schafft eine erste Reflexionsdistanz zwischen dem einzelnen Menschen und der Welt. Denn über Sprache können wir auch weit entfernte Gegenstände, Ereignisse und Situationen ins Bewusstsein heben und werden dadurch unabhängig von der „reinen Gegenwart“. Reine Gegenwart erfahren wir als Menschen im Normalfall in Momenten der Kindheit, im Spiel und in der Ekstase. Unser Alltag hingegen wird fast nie von reiner Gegenwart bestimmt, sondern mindestens ebenso stark von Erinnerungen, aber auch von der Sorge, also der Aufmerksamkeit für Herausforderungen, die in der Zukunft liegen (vgl. M. Heidegger 1927). Weiterhin zeichnen Menschen sich durch eine besondere Planungsfähigkeit aus, die den Horizont ihrer Zeit bis zum Bewusstsein der eigenen Sterblichkeit ausdehnt, aber auch die Erforschung vergangener Zeit und das Nachdenken oder Träumen über ferne Zukünfte ermöglicht. Digitale Identität von Menschen ist von solchen Überlegungen zur Philosophischen Anthropologie nicht abgekoppelt (vgl. dazu R. Weiland 1995, aber auch E. Bohlken, Ch. Thies 2009, M. Heßler, K. Liggier 2019). Neu ist nun im 21. Jahrhundert die technikaffine Zielrichtung der Reflexion. In den verschiedenen Weltreligionen wird ja das Verhältnis von Mensch und Gott betrachtet (vgl. W. Pannenberg 1983). Eine besondere Rolle spielte dabei der Gedanke der Gottebenbildlichkeit, 124

Menschliche Identität, Planungsfähigkeit und Zeitsouveränität

also der Schöpfung des Menschen nach dem Bild Gottes (Buch Genesis, Kapitel 1, Vers 26; vgl. H. Schilling 1961). In der Anthropologie vergangener Zeiten standen aber auch Gemeinsamkeiten und Unterschiede zum Tier im Mittelpunkt der Betrachtung (vgl. U. Lüke, G. Souvignier 2020). Dabei ist im Lauf der Zeit klar geworden, dass weder „instrumentelles Verhalten“ durch das Verwenden von Werkzeugen noch „kooperative Sozialformen“ den Menschen ausreichend deutlich vom Tier unterscheiden. Die besonders ausgeprägte Symbolfähigkeit von Menschen bringt es aber im Unterschied zu Tieren mit sich, dass die Spezies Mensch Symbole und Institutionen höherer Ordnung schaffen kann, etwa ein funktionierendes Geldsystem oder die Einrichtung eines demokratischen Rechtsstaates. Es ist faszinierend, dass Fragen der theologischen Anthropologie zum Verhältnis von Schöpfer und Geschöpf dort zurückkehren, wo Menschen in der digitalen Welt ihrerseits zum Schöpfer komplexer technischer Systeme werden. Denn sie sehen sich nun technischen Gebilden gegenüber, die hochwertige kognitive Operationen schneller und besser als Menschen erfüllen können. Digitale Akteure haben bislang aber kein Bewusstsein. Sie können jedoch Bewusstseinsfunktionen technisch nachstellen. Dadurch kommt eine völlig neue Frage ins Sichtfeld: die nach der Identität digital programmierter Maschinen oder jedenfalls von digitalen Akteuren. Das ist auch der Hintergrund für das Entstehen einer völlig neuen Disziplin wie der Maschinenethik, also der Ethik von digitalen Maschinen als ethischen Akteuren (vgl. C. Misselhorn 2018). Ethische Akteure waren in der Vergangenheit natürliche oder juristische Personen, aber nicht Maschinen. Die Ähnlichkeit eines entsprechend programmierten Outputs etwa eines Pflegeroboters mit dem Verhalten eines natürlichen Menschen mag zwar ihre Grenzen haben. Sie reicht aber aus, um Roboter, Androide oder digitale Systeme als ein „Gegenüber“ wahrzunehmen, dem die Qualität eines ethi125

4.  Digitale Identität

schen Akteurs zukommt. Von dieser Einsicht aus ist es nur ein kleiner Schritt hin zur Erörterung der „digitalen Identität“ von Maschinen oder gar dem Status von Maschinen als Personen. Diese Diskussion soll aber erst in Kapitel 8 vertieft werden. Selbst wenn wir uns zunächst auf die Betrachtung von Menschen beschränken, sind verschiedene Perspektiven zu unterscheiden. Denn die digitale Identität von Menschen umfasst zumindest drei Ebenen. Die erste Ebene digitaler Identität betrifft subjektives Bewusstsein und somit die individuelle Ebene persönlicher digitaler Identität. Wer bin ich, wenn ich digital handle? Die zweite Ebene digitaler Identität betrachtet die soziale und kollektive Ebene sowie die rechtlichen und politischen Ausgestaltungen des Umgangs mit dieser digitalen Identität. Wem wird Identität und Verantwortung zugeschrieben, wenn aus meiner digitalen Identität Handlungen hervorgehen? Die dritte Ebene digitaler Identität thematisiert die philosophische Frage der Unterscheidung menschlicher Identität von der Identität der Tiere und der Maschinen, speziell mit Blick auf Entwicklungen im digitalen Zeitalter. Wie unterscheiden wir also Person und Identität? Und wie unterscheiden sich Mensch, Tier und Maschine? Diese umfassende Auslegung des Begriffs digitaler Identität schützt vor der Verengung auf eine rein subjektive oder eine rein sozialethische Perspektive. Außerdem stellt sie die Frage nach digitaler Identität in ihren geschichtlichen Zusammenhang. Eine These der vorliegenden „Kritik der digitalen Vernunft“ ist es, dass die digitale Transformation einen echten Epochenbruch bezeichnet, der erhebliche soziale Folgen nach sich zieht. Reflexionen über den Kern des Menschseins, was immer dieser sein mag, kommen besonders stark in Zeiten von solchen technischen und politischen Epochenbrüchen zur Sprache. Denn jede neue Technik, vom Ackerbau bis zur Schrift, vom Buchdruck bis zum Fernsehen, von der Zeitung bis zum Internet, bringt neue Fragen hervor und wirft neues 126

Menschliche Identität, Planungsfähigkeit und Zeitsouveränität

Licht auf bisherige Antworten. Nur in wenigen Fällen greifen technologische Veränderungen so tief in den Alltag der Menschen ein, dass in deren Bewusstsein ein „Vorher“ und „Nachher“ eingegraben wird, einfach weil technische Veränderungen und Veränderungen der sozialen und individuellen Lebensform von Menschen so grundlegend sind, dass sie praktisch alle Aspekte des Alltags durchziehen. Wichtig ist dabei regelmäßig die Balance aus Diskontinuität und Kontinuität, aus der Anerkennung und Wahrnehmung dessen, was wirklich neu ist, aber auch aus der Berücksichtigung fortdauernder Kräfte und Prozesse. Schließlich sind Kontinuität und Diskontinuität nicht so eindeutig verteilt, wie es bisweilen scheinen mag, wenn neue Technik bis in das Alltagsleben der Menschen eingreift. Im Folgenden soll die anthropologische und philosophische Frage nach dem Menschen, seiner Identität und seiner Person den Hintergrund bilden für die praktischen und technischen Fragen digitaler Identität. Eine erste Annäherung gilt dabei der Veränderung in unserer Sprache. Ein kleines Beispiel soll dies zeigen. Denn ein Wort wie „Identitätsmanagement“ kam in vor-digitalen Zeiten nicht vor. Es war zwar auch im letzten Jahrhundert schon möglich, sich selbst in unterschiedlichen Rollen und Situationen zu inszenieren. Ein eigenes „Identitätsmanagement“ war aber unbekannt. Das Wort „Identitätsdiebstahl“ war vor allem auf Versicherungsbetrüger, Heiratsschwindler und Kreditkartenbetrüger begrenzt. Menschen konnten sich zwar auch in früheren Zeiten selbst verlieren oder mit anderen verwechselt werden. Sie konnten Identitätskrisen erleben oder als Geheimagenten eine falsche Identität annehmen. Das Wort „Identitätsdiebstahl“ hat aber in digitalen Zeiten neue Bedeutungsfacetten und erst recht eine neue Brisanz gewonnen.

127

4.  Digitale Identität

Digitale Identität als Epochenbruch der Selbstwahrnehmung Das beispielhafte Wort „Identitätsdiebstahl“ kann uns helfen, das Ausmaß in der Veränderung menschlicher Selbstwahrnehmung in digitaler Zeit zu erfassen. Interessant ist im Kontext der digitalen Welt speziell die hybride Mischung aus technischen und personalen Aspekten. Denn mit „Identitätsdiebstahl“ gemeint sind unbefugte technische Zugriffe auf Elemente digitaler Identität wie ein Passwort, eine Mail-Adresse und dergleichen, sodass Angreifer sich „tarnen“ können und Zugänge gewinnen, die ihnen nicht zustehen, weil sie sich als Personen ausgeben, die sie nicht sind. Das Wort „Identitätsdiebstahl“ enthält eine rechtliche und moralische Wertung: es handelt sich um Diebstahl, um einen kriminellen Akt. Wir sind hier also in der Sphäre des Sozialverhaltens und des Rechts. Gestohlen wird aber mit digitalen Hilfsmitteln, und Gegenstand des Diebstahls sind Elemente der digitalen Existenz einer Person. Das Wort „Identitätsdiebstahl“ mischt also digitale, technische Voraussetzungen mit den Normen und Kriterien sozialen Zusammenlebens. Anders gesagt: Die Norm „Du sollst nicht stehlen“ ist Teil der biblischen Zehn Gebote und seit Langem als Handlungsrichtlinie in der analogen Welt bekannt. Der Ausdruck „Identität stehlen“ ist in der digitalen Anwendung neu. Er kann uns dazu veranlassen, die Einsicht in das gesamte Universum rund um unsere Identität zu vertiefen. Denn eine Person geht in ihrer digitalen Existenz ja nicht auf. Sie muss über ihr digitales Leben hinaus notwendigerweise essen und trinken, schlafen und atmen wie andere Menschen auch. Und das sind ausdrücklich nicht-digitale Lebensäußerungen. In analogen Zeiten verwies Identität auf die Ganzheit der Person. Der Anspruch der Ganzheit wird nun auf verschiedene Art und Weise verändert. Denn „digitale Identität“ verweist ja gerade nicht auf das 128

Digitale Identität als Epochenbruch der Selbstwahrnehmung

Ganze des Lebens, sondern auf einen Ausschnitt, sozusagen auf das digitale Fenster unseres Lebens. Dieses „digitale Fenster“ markiert denjenigen Ausschnitt unserer ganzen Person, bei dem es um unsere Gegenwart, Wirkung, Geltung und Aktivität in der digitalen Welt geht. Da dieser digitale Ausschnitt der „ganzen“ Welt einen immer größeren Raum des Lebens einnimmt und zur Zugangsvoraussetzung persönlicher Teilhabe wird, können die Folgen eines digitalen Identitätsdiebstahls verheerend sein: Vom Ausschluss aus dem Arbeitsleben bis zur Sperrung von Bankkonten, von fehlender digitaler Teilhabe in sozialen Medien zur gefühlten sozialen Isolation. Ein Wort wie „digitale Identität“ verweist folglich darauf, wie sehr unser Leben eine hybride Gestalt aus digitalen und nicht-digitalen Elementen, aber auch Erlebnissen und Aktivitäten angenommen hat. Die vertiefte Frage nach digitaler Identität ist nur bedingt mit dem eigenen Bewusstsein und Selbstbewusstsein gekoppelt. Identitätsdiebstahl kann auch passieren, während ich schlafe. Neu daran ist nicht, dass Diebe in der Nacht kommen können. Neu ist, dass „Identität“ gestohlen werden kann ohne Wachbewusstsein. Wenn jemand meine Identität stiehlt, kann er sich digital als Alias-Person meiner selbst ausgeben und einen Vermögens- und Reputationsschaden anrichten. Das bedeutet aber auch, dass digitale Identität aufgrund der technischen Konnotation des Begriffs wie oben ausgeführt nicht an Bewusstsein und an Aufmerksamkeit geknüpft sein muss. Eine Person ohne Bewusstsein war in der traditionellen Welt allenfalls als Spezial- und Sonderfall vorstellbar. Eine Person ohne Bewusstsein sind wir, wenn wir schlafen, wenn wir ohnmächtig sind, während einer Anästhesie. Die Person ohne Bewusstsein kann aber im Grunde nicht gedacht werden ohne Bezugnahme auf die Vollgestalt der bewusstseinsfähigen, verantwortlichen und rechtsfähigen Person. Wer ohne Bewusstsein ist, schließt keine Rechtsgeschäfte ab und kann – etwa im Zustand des Vollrauschs – nur bedingt zur Ver129

4.  Digitale Identität

antwortung gezogen werden. Dies gilt auch dann, wenn feinsinnige Juristen den Ausdruck der actio libera in causa artikuliert haben, also dem Gedanken Ausdruck verleihen, dass eine berauschte Person Verantwortung zu übernehmen habe zumindest für die Ursache (causa) des Rausches, also die zurechenbare und bewusste Einwilligung in ein Trinkverhalten, welches das Bewusstsein erheblich trübt oder gar ganz ausschaltet (vgl. M. Hettinger 1988, E. Schmidhäuser 1992). Der Vollbegriff der Person mit ihrer personal zurechenbaren Verantwortung ist nur bedingt auf den Begriff der digitalen Identität anwendbar. Digitale Identität ist zwar eine Erscheinungsform und eine in aller Regel zurechenbare Gestalt meiner analogen, physischen Person. Sie ist aber zugleich mehr und weniger: Mehr, weil die technische Wirkmacht digitaler Identität über die Grenzen der eigenen Person hinausreichen kann, und weniger, weil es keine Deckungsgleichheit zwischen der physischen Person und ihrer digitalen Identität gibt. Der Begriff der Person als „Persona“, als dem Durchtönenden durch die Maske im griechischen und römischen Theater, gewinnt hier wieder an Bedeutung: „Hinter“ der Maske steht und agiert ein Mensch. Konkretisiert wird dieser durch die Perspektive und die Handlungsmöglichkeit der Rolle, die durch die Maske versinnbildlicht wird. Das Auseinanderfallen von Person und „Identität“ ist nicht einfach ein Detail als Folge neuer technischer Möglichkeiten. Es markiert einen Epochenbruch der Selbstwahrnehmung. Das geht bis hin zu markanten Auswirkungen der digitalen Welt auf Erziehung, auf Körperwahrnehmung und Selbstbewusstsein. Durch moderne Bildbearbeitungsprogramme können beispielsweise Inszenierungen des eigenen Körpers erreicht werden, die von der nackten Realität mehr oder weniger weit entfernt sind. Das geht so weit, dass es bereits durch Instagram induzierte Schönheitsoperationen gibt. Das sind Korrekturen des Körpers in Richtung eines 130

Drei Ebenen der Person: Physisches Ich, digitales Ich und Cloud-Ich

Schönheitsideals, das einem vorgestellten Idealkörper entspricht, wie er durch Instagram-Posts als wünschenswert dargestellt wird. Bemerkenswert an dieser Entwicklung ist nicht, dass es sich verstärkende soziale Prozesse gibt. Neu ist vielmehr, dass diese Prozesse digital angestoßen und verstärkt werden. Anders gesagt: Die digital abgebildete Welt nimmt wirksam Einfluss auf die reale Welt bis hin zur menschlichen Leiblichkeit. Es gibt folglich nicht nur analog-digitale, sondern auch digital-analoge Rückkopplungsschleifen im menschlichen Verhalten. Das wiederum kann als zusätzliches Indiz für einen Epochenbruch der Selbstwahrnehmung gedeutet werden.

Drei Ebenen der Person: Physisches Ich, digitales Ich und Cloud-Ich Eine Kritik der digitalen Vernunft wird folglich wahrzunehmen haben, dass der Begriff der Person, des Selbst, des Ichs umfassender gedeutet werden muss als in analoger Zeit. Dabei geht es nicht nur um die schon klassische Unterscheidung zwischen Person und Rolle, zwischen beruflicher und privater Existenz, zwischen öffentlicher und nicht-öffentlicher Erscheinung. Diese Unterscheidungen sind weiterhin von Bedeutung, aber sie müssen für die digitale und die nicht-digitale Welt neu ausbuchstabiert werden. In digitalen Zeiten gibt es tatsächlich jeden einzelnen Menschen als „dreifache Person“, also in dreifacher Gestalt: Als physische, menschliche Person, als digital erweiterte Person in Gestalt der eigenen Bilder und Daten im Internet und im Smartphone sowie als digital virtuelle Person in Gestalt der gar nicht bewusst zugänglichen Informationen über eine Person im Internet und in allerlei Datenspeichern. Die Verdopplungsfunktion der digitalen Welt (A. Nassehi 2019, 108-151) macht also vor der Definition einer Person nicht halt. Noch 131

4.  Digitale Identität

mehr: eine „digitale Person“ kann auch nach dem Ableben der physischen Person existieren. Die Diskussionen um das Recht auf „digitales Vergessen“ geben davon Zeugnis ab (vgl. V. Mayer-Schönberger 2010; M. Welker 2018). Die digitale Transformation führt, wie an dieser Stelle erkennbar wird, zu einer Umgestaltung sozialkultureller Lebensformen, die ähnlich grundlegend ist wie der Übergang von der nomadischen Lebensweise der Jäger und Sammler zur sesshaften Lebensweise der Bauern. Dabei wäre es ein Irrtum zu glauben, das ganze Leben werde nun digital oder die nicht-digitale Welt gäbe es bald gar nicht mehr. Richtig ist vielmehr, dass wir von einer analogen in eine durch und durch hybride Lebensform übergehen, bei der analoge und digitale Anteile nicht leicht zu unterscheiden sind. Die physische Person Sophia Maier existiert also wie folgt: 1. Sophia Maier, physische Person oder „Persona 1“, mit eindeutigem Geburtsdatum und Geburtsort, ausgewiesen durch einen Reisepass oder Personalausweis. Diese Person kann sprechen und handeln, sie atmet und muss essen und trinken. Persona 1 ist an die physische Existenz von „Sophia Maier“ gekoppelt. 2. Sophia Maier, digital erweiterte Person oder „Persona 2“, erfasst durch Registrierung einer Smartphone-Nummer, erfasst als User durch eine angemeldete IP-Adresse, erfasst bei Daten- und Social-Media-Anbietern, identifiziert durch Passwörter, Verträge und Einwilligungen. Diese Person kann sich digital mitteilen und wirksam handeln; sie ist in aller Regel eine Handlungs- und Äußerungsform von Person 1 und braucht Stromversorgung und Datenverbindungen. Sie kann mit oder ohne das Bewusstsein von Persona 1 existieren und ist, von Ausnahmen wie beim Identitätsdiebstahl abgesehen, an die physische Existenz von Persona 1 gekoppelt. 132

Drei Ebenen der Person: Physisches Ich, digitales Ich und Cloud-Ich

3. Sophia Maier, digital virtuelle Person oder „Persona 3“, erfasst durch Daten, digitale Handlungen und digitale Spuren auf der Grundlage von Handlungen der Persona 2. Diese Person existiert nicht in bewusster Gestalt, sondern ist virtuell in dem Sinn, dass es sich um das immer nur fragmentiert zugängliche gedankliche Konstrukt der „vollständigen Datenspur“ von Persona 2 handelt. Diese Datenspur teilt sich auf private Anbieter und staatliche Behörden auf und wird nirgends zusammengeführt. Persona 3 existiert komplett außerhalb des Bewusstseins von Persona 1 und Persona 2. Die Unterscheidung von Persona 1, Persona 2 und Persona 3 macht unmittelbar verständlich, warum eine Analyse digitaler Identität immer auch die Frage nach Selbstkontrolle und Kontrollverlust mitbedenken sollte. Dass eine Person keinerlei Spuren in der digitalen Welt verursacht, ist heutzutage in Europa unwahrscheinlich, auch für hochbetagte Personen wie für meinen über 90-jährigen Vater. Wir wissen im Grunde nicht, welche Datenspuren wir hinterlassen und welche unserer analogen Lebensäußerungen sozusagen digital gespiegelt werden – etwa eine Vereinsmitgliedschaft, der Facebook-Eintrag einer Person, die wir kennen und die uns zufällig fotografiert, und vieles mehr. Wir können uns zwar eine geistig hochstehende Podiumsdiskussion an einer deutschen Universität ausdenken, bei der feinsinnig die Schlussfolgerung artikuliert wird, die „eigentliche Person“ sei doch nur die „Persona 1“. Richtig daran ist, dass wir ohne die „Persona 1“ keinen Anker und keinen Referenzpunkt für Persona 2 und Persona 3 hätten. Und schon aus Gründen der menschlichen Selbstachtung tun wir gut daran, in unserer Existenz als selbstbewusste physische Person die entscheidende Voraussetzung für unsere digitale Identität zu sehen. „Hinter“ einer digitalen Identität steht eben eine persönlich, moralisch und rechtlich zurechenbare Person. 133

4.  Digitale Identität

Dennoch geht die Realität der „hybriden Person“ im Gesamtzusammenhang von Persona 1, Persona 2 und Persona 3 deutlich über den klassischen Begriff der Person hinaus. Denn auch wenn Persona 1 der Anker ist, fehlt es Persona 2 und Persona 3 nicht an Realität. Sie sind gewissermaßen Erweiterungen unserer Persona 1, entziehen sich aber in einigen Aspekten unserer bewussten Kontrolle.

Digitale Orientierungskompetenz und digitaler Kontrollverlust Denn die Person, die ich als „Persona 1“ bin, ist nicht mehr „Herr im Haus“, wie Sigmund Freud (1856-1939) das angesichts der Entdeckung von unterbewussten und unbewussten Strömungen unseres Denkens, Fühlens und Handelns zur Sprache gebracht hatte. Denn ich weiß zwar beispielsweise, dass auf meinem Smartphone viele Bilder, viele Mails, viele Dateien, aber auch Zeiten von Telefonanrufen und Bewegungsprofile gespeichert werden. Ich bin aber ganz und gar nicht in der Lage, auch nur ansatzweise zu memorieren, wann minuten- und sekundengenau das letzte Telefongespräch mit einem ferneren Bekannten gewesen sein soll. Digitale Genauigkeit ist dem menschlichen Erinnerungsvermögen schlichtweg überlegen, jedenfalls im Punkt der „technischen Präzision“. Schon mein „zweites Ich“ in meinem Smartphone unterliegt folglich der „Opazität“, die ich weiter oben als Kennzeichen digitaler Welten angesprochen habe: Ich kann „Licht ins Dunkel“ bringen und nachsehen. In aller Regel reicht es mir aber aus zu wissen, dass ich nachsehen kann, wenn ich es will. Fehlende Bewusstseinsinhalte werden in meinem zweiten Ich oder meiner Persona 2 durch das Gefühl der Selbststeuerung überlagert, vielleicht sogar kompensiert. Es reicht aus zu wissen, wo und wie man suchen muss. Orientierungskompetenz ersetzt Ortskunde, könnte 134

Digitale Orientierungskompetenz und digitaler Kontrollverlust

man sagen, wenn man den Sachverhalt auf das Gebiet der örtlichen Navigation überträgt. Vorausgesetzt wird dabei, dass die Instrumente der mittelbaren Orientierung, wie etwa ein funktionierendes Navigationsgerät, zuverlässig zur Verfügung stehen. Fallen diese aufgrund technischer Defekte oder mangelnder Stromversorgung aus, wird die frühere Stufe, also die „Ortskunde“ zum Vorteil. Auf der dritten Ebene, dem dritten Ich, der „Persona 3“ oder dem Cloud-Ich, fehlt auch dieses Moment der digitalen Orientierungskompetenz und Selbststeuerung. Ich weiß, dass sehr viele Daten von mir gespeichert werden, aber ich weiß nicht genau wo, von wem und zu welchem Zweck. Trotzdem sind diese Daten in einem umfassenden Sinn Teil meiner digitalen Identität: Sie beschreiben mich ja in meinem Kaufverhalten, in meinen Hervorbringungen auf sozialen Medien, in meinen digitalen Spuren in Raum und Zeit. Mir ist aber in aller Regel nicht bewusst, welche Daten ich wie und für wen produziere. Digitale Räume sind folglich fast immer auch Räume eines Verlusts an Selbstkontrolle. Da Menschen aber einen ausgesprochen starken Sinn für Freiheit und Selbststeuerung haben, führt ein solcher Verlust an Selbstkontrolle zu Risiken für das Zusammenleben und zu Ängsten, die eigens zu adressieren sind. „Verlust an Selbstkontrolle“ heißt nicht, dass wir analoge oder digitale Räume je vollständig kontrolliert hätten oder kontrollieren könnten. Das wäre eine Allmachtsfantasie, die in der Realität keinen Anhalt findet. Nicht Kontrollverlust, sondern Verlust an Selbstkontrolle im Sinn einer verminderten Beherrschbarkeit eigener Wirkung ist das Kennzeichen digitaler Räume: Ich weiß nicht, wer genau was mit meinen Daten macht. Mit jedem Eintrag auf Facebook oder Whatsapp verliere ich Kontrolle über eigene Inhalte. Mehr noch: Ein unbedacht ausgesprochener Satz in einer Runde von Menschen verfliegt rasch und wird selten auf die Goldwaage gelegt. Hält jemand

135

4.  Digitale Identität

sein Smartphone in die Runde und stellt den Satz ins Netz, kann er zum Anlass für einen Shitstorm werden. Trotz dieser digitalen Neuerungen ist eine dritte Ebene der Person nicht neu. Über weite Strecken des 20. Jahrhunderts hatte die von Sigmund Freud ausformulierte Psychoanalyse den Stellenwert einer säkularen Metaphysik der Person. Ausgehend von der bürgerlichen Lebenswelt in Wien zu Beginn des letzten Jahrhunderts formulierte er seine therapeutischen Beobachtungen in klarer Sprache. Er nahm sie aber auch zum Anlass für ein eigenes philosophisch-psychologisches Gedankengebäude, das zum Impuls für eine Reihe psychotherapeutischer Verfahren wurde (vgl. W. Mertens 2008). Freud inspirierte große Wissenschaftler und Autoren wie Carl Gustav Jung (1875-1961) mit seiner analytischen Psychologie und Persönlichkeitspsychologie, Alfred Adler (1870-1937) mit seiner Individualpsychologie, Erich Fromm (1900-1980) mit seiner „Kunst des Liebens“ (E. Fromm 1956/2018) und viele andere. Eine von Freuds Hauptthesen war die Unterscheidung von Ich, Es und Über-Ich. Die rationale Steuerung des „Ich“ wird aber durch introjizierte Normen (Über-Ich), aber auch durch unterbewusste und unbewusste Strebungen beeinflusst. Der einzelne Mensch ist sozusagen nur bedingt „Herr im Haus“. Unsere Handlungen hängen eben auch von Motiven, Erfahrungen und Impulsen ab, die uns bewusst und rational nicht zugänglich sind. Verwenden wir die Sprache von Sigmund Freud, wäre der uns nicht unmittelbar zugängliche Anteil unserer Person im Internet insgesamt eher „unterbewusst“ als „unbewusst“, denn er kann ja ans Tageslicht gebracht werden. Schließlich habe ich gegenüber Datenanbietern wie Google oder Facebook das Recht, Einsicht in die über mich gespeicherten Daten zu verlangen, selbst wenn der dafür erforderliche Zeit- und Energieaufwand die meisten Menschen davon abhält, von diesem Recht auf „Transparenzgewinnung“ Gebrauch zu machen. 136

Digitale Orientierungskompetenz und digitaler Kontrollverlust

Darüber hinaus trägt jedoch auch die Analogie zum Unbewussten als dem uns nicht zugänglichen Teil unserer Psyche, denn oft wissen wir ja gar nicht, wen wir fragen und wo wir suchen sollen. Es gibt also tatsächlich eine Art „Kontrollverlust“, bezogen auf die dritte Ebene unserer digitalen Identität („Persona 3“). Die gewählte Analogie zum Unbewussten und Unterbewussten für die „Persona 3“, also die Gesamtheit der über uns gespeicherten Daten, hat allerdings auch Grenzen. Denn Sigmund Freud geht von der Komplexität, aber auch Einheitlichkeit der „analogen“, natürlichen Person aus. Stirbt diese, geht ihr Ich, aber auch ihr Es und ihr Über-Ich unter. Für die dritte Ebene der digitalen Identität gilt dies nicht. Denn die Spiegelung unserer Existenz in Form von Daten bleibt auch dann erhalten, wenn wir physisch gestorben sind. Gerade deshalb wird ja unter anderem ein nicht leicht durchsetzbares Recht auf „digitales Vergessen“ gefordert (vgl. O. J. Gstrein 2016). Das Internet vergisst aber nichts. Anders und weniger „menschlich“ oder anthropomorph ausgedrückt: Datenspuren bleiben auch gegen den Willen der Beteiligten erhalten. Auch in der analogen Welt gibt es natürlich Erinnerungen, Dokumente, Schriften und sonstige Formen des Überdauerns physischer Existenz. Dennoch ist aufgrund der Immaterialität und potenziellen Ubiquität digitaler Daten eine neue Stufe erreicht, wenn Datensätze aus dem Internet über das Leben des Einzelnen hinausragen. Darüber hinaus erlaubt das Internet mit Programmen wie „Second Life“ eine Vielzahl von Dopplungen unserer Identität bis hin zu Avataren, digitalen Zwillingen, Doppelgängern, falschen Identitäten und vielem mehr. Zumindest bei Avataren und falschen Identitäten handelt es sich jedoch um Phänomene, die in der analogen Welt ebenfalls vorkommen. Auch früher gab es wie schon erwähnt Hochzeitsschwindler und Betrüger, nur eben ohne digitale Partnerschaftsbörse und ohne die Räume der Cyberkriminalität. Alias-Identitäten sind 137

4.  Digitale Identität

insofern nicht grundlegend neu, können aber in ihrer Ausgestaltung in digitalen Räumen erweitert und vervielfältigt werden. Dennoch wäre es ein Irrtum, die physischen Konsequenzen aus solchen Identitätsdopplungen zu unterschätzen. Sie wirken nämlich wie oben erwähnt in die analoge Welt zurück, haben also Folgen in der seelischen, körperlichen und sozialen Realität. Beginnen wir noch etwas detaillierter mit dem körperlichen Aspekt.

Auswirkungen digitaler Identität auf Körper und Seele Der körperliche Aspekt von Identität drängt sich bei der Frage nach digitaler Identität nicht als erster auf. Digitale Informationen und Prozesse zeichnen sich ja gerade durch ihre Unkörperlichkeit aus. Die weitgehende Abkopplung von Persona 2 (also dem „digitalen Ich“) und erst recht von Persona 3 (dem „Cloud-Ich“) von unserem physischen Körper bleibt aber nicht ohne Spuren für unsere Existenz. So erfuhr ich in einem Gespräch mit einem der führenden Kenner des deutschen Spitzen- und Breitensports, dass Deutschland bei den olympischen Sommerspielen immer weniger Goldmedaillen gewinnt, zumindest verglichen mit den 1980er- und 1990er-Jahren. Neben dem demographischen Faktor des Geburtenrückgangs kam das Gespräch auf die Folgen der digitalen Transformation. Dabei stellte mein Gesprächspartner die naheliegende These auf, dass junge Menschen viel Zeit mit ihren elektronischen Geräten verbringen und in dieser Zeit jedenfalls keinen Sport treiben. Als Folge daraus vermindert sich im Breitensport der Pool, aus dem Spitzentalente hervorgehen können. Wenn diese Beobachtung zutrifft, lässt sich allerdings kritisch fragen, ob Deutschland denn überproportional betroffen ist oder ob nicht eben die USA, Japan oder China den gleichen digitalen Alltagsbedingungen ausgesetzt sind.

138

Auswirkungen digitaler Identität auf Körper und Seele

Zu den körperlichen, aber im Alltag nicht sichtbaren Veränderungen gehört darüber hinaus die Abbildung des Daumens im Gehirn, die aufgrund der verbreiteten Wischtechnik auf Smartphones einer messbaren Veränderung zu unterliegen scheint (www.aerztezeitung.de/Medizin/Smartphone-Gebrauch-praegt-das-Hirn, veröffentlicht am 29. Dezember 2014 um 5.08h, abgerufen am 27. Mai 2020 um 11.08h). Digital veranlasste Neuroplastizität bedeutet folglich auch, dass wir uns hirnphysiologisch so sehr auf die digitale Welt einstellen, dass wir im Vergleich zu vordigitalen Zeiten andere Hirnareale trainieren und uns auch auf der physischen Ebene in unserer mentalen Architektur von unseren nicht-digitalen Vorfahren unterscheiden. Die weite Verbreitung digitaler Aktivitäten im Alltag hat aber auch physische Folgen im sozialen Leben. So gibt es in einigen deutschen Städten bereits die ersten Bodenampeln mit Leuchtsignalen für „rot“ oder „grün“, weil Fußgänger zugleich in der Welt ihrer Smartphones versunken sind und daher an Konzentrationsmängeln im Verkehr leiden. Für genau diese „Smombies“, eine Ableitung aus den Wörtern Smartphone und Zombies, wurden solche in den Boden integrierte Signale eingerichtet. Zu den sozialen Folgen digitaler Identität gehören auch kommunikative Entwicklungen. Es scheint leichter zu sein, sich Kurz- oder Sprachnachrichten zu schreiben statt direkt und spontan miteinander zu reden. Ein Cartoon illustrierte dies sehr anschaulich. Da sitzt ein Ehepaar gemeinsam am Frühstückstisch, beide über ihr Smartphone gebeugt. Ohne aufzublicken sagt der Mann zu seiner Frau: Ich habe dir eine Whatsapp-Nachricht geschickt. Sie antwortet, ebenfalls ohne aufzublicken: „Was steht denn drin?“ Daraufhin entgegnet er im gleichen, eher unbeteiligten Ton: „Ich schicke sie dir noch mal.“ In beruflichen Alltag führen solche Verhaltensweisen beispielsweise dazu, dass von einer veränderten Kompetenz zum Telefonieren berichtet wird. Jüngere Berufstätige ziehen schriftliche Formen der Kommunikation (oder allenfalls vorab vereinbarte Videotelefonie) 139

4.  Digitale Identität

dem spontanen Telefonieren auch dort vor, wo der unmittelbar sprachliche Austausch über das Telefon Vorzüge bieten könnte. Da wir am Smartphone in aller Regel sofort erkennen können, wer uns anruft, geht es auch um eine veränderte Wahrnehmung von Höflichkeit: Da gilt ein vorab schriftlich vereinbartes Telefongespräch als rücksichtsvoller. Eine solche Aussage könnte allerdings nostalgisch klingen, denn in der Soziologie der Alterskohorten gilt für die Generation der zwischen 1950 und 1965 geborenen Personen das Telefon als Leitmedium, für die zwischen 1965 und 1985 geborenen die E-Mail und für die digital Natives in etwa ab dem Geburtsjahr 1985 die ganze heutige Palette digitaler Applikationen. Im seelischen Bereich hängt die Betrachtung der eigenen Person immer stärker von ihrem Spiegelbild in elektronischen Medien ab. Echokammern und Filterblasen spiegeln unsere Ansichten und halten uns womöglich von anderen Auffassungen und Lebensstilen fern (vgl. kritisch dazu: B. Pörksen 2018). Die sozialen Medien werden zu einem so starken Mittel der Selbstinszenierung, dass der Blick auf sich selbst, die Erfahrung der eigenen Person und das eigene Selbstwertgefühl erheblich von Reaktionen und Vergleichswerten im digitalen Raum abhängen. Die Unmittelbarkeit des Erlebens, die zunächst durch das Klicken von Fotoapparaten abgelöst wurde, ist längst zum Gegenstand von Selfies geworden. Damit werden mögliche Erlebnisse digital für einen selbst und für andere festgehalten, aber nicht mehr wie zuvor „unmittelbar“ erlebt und genossen. Darüber hinaus ist persönliche Identität ohne ihre digitale Spielart nicht mehr zu denken. Gerade in der so wichtigen Phase der Kindheit und Jugend kommt bei vielen jungen Menschen der Meinungsbildung im Internet eine ganz besondere Rolle zu. Die digitale Botschaft löst dabei teilweise recht heftige positive und negative Gefühle aus. So hat vermeintliches oder tatsächliches Cybermobbing bereits zu den ersten Suiziden geführt. 18% der Jugendlichen in Deutschland haben 140

Auswirkungen digitaler Identität auf Körper und Seele

nach eigenen Angaben Erfahrungen mit Cybermobbing gemacht, davon wiederum 18% hatten Selbstmordgedanken nach einem Cybermobbing-Angriff (Quelle: Statista, abgerufen am 27. Mai 2020, 11.18h; www.https://de.statista.com/themen/3122/cybermobbing/). Von den 3,2% aller Jugendlichen (18% von 18%), die in die berichtete suizidale Verstimmung geraten, führen die wenigsten ihre Tat aus; dennoch sind entsprechende Fälle in Deutschland und in den USA bereits bekannt geworden. Die Vielfalt menschlicher Erfahrung bildet sich zwar in großartigen Nischenangeboten, in Blogs und Dokumentationen ab. Aber auch im Internet gilt, dass kompetente Navigation eine Kunst ist, die in Gestalt von „Medienkompetenz“ erst noch zu lernen wäre. Weil Menschen als soziale Wesen immer auch einen Hang zum Herdenverhalten haben, folgen sie aber auch gerne ausgetretenen und schon gebahnten Wegen. Das führt auf der Ebene der Erziehung, aber auch für viele Erwachsene zu einer paradoxen Verengung des Horizonts, zu einer Art von „Digital Mainstreaming“. Was nicht im Rahmen der eigenen digitalen Erlebniswelt stattfindet, wird nicht mehr wahrgenommen. Gerade für Minderheiten, für abweichende Meinungen und für unangepasste Positionen ist dies eine Herausforderung. Dabei soll es hier nicht um Extrempositionen gehen wie etwa die Anwerbung von Terroristen. Vielmehr wird der Wert der Bereicherung durch Diversität im Internet paradoxerweise sowohl gefördert wie gehemmt: Gefördert durch die Vielzahl von Angeboten, gehemmt durch die „Rückkehr zur eigenen Filterblase“ als Teil des digitalen Massengeschmacks. Ein Beispiel aus der realen Welt der sozialen Diversität und des Kulturerlebens mag dies veranschaulichen. So sind von den rund 6.000 Sprachen, die es weltweit nach wie vor gibt, nur etwa 300 im Internet zu finden. Richtig ist zwar, dass viele „kleine“ Sprachen unter 2.000 Sprecher und Sprecherinnen haben und schon deshalb nur sehr 141

4.  Digitale Identität

schwer die Komplexität der heutigen Lebenswelt abbilden können. Trotzdem ist es auch Teil einer kulturellen Verlusterfahrung, wenn die besondere Welterfahrung einer Sprache nicht mehr tradiert werden kann (vgl. H. Haarmann 1979, H. J. Störig 2012, 13). Digitale Technik ist zwar kein unmittelbarer Treiber für den Verlust kultureller Vielfalt. Dennoch ist der Hang zum Mainstream Teil der digitalen Welt. Allein die Sprachen Englisch, Chinesisch und Spanisch, vielleicht ergänzt durch Japanisch, Deutsch, Portugiesisch, Hindi und Bengali, Russisch und Arabisch bilden sprachlich einen ganz erheblichen Teil des in der Welt verfügbaren Wissens sprachlich ab, auch wenn Deutsch nicht mehr zu den zehn meistgesprochenen Sprachen der Welt gehört.

Digitale Erlebnisräume und digitale Konnektivität als Teil der Biografie Die Überlegungen im vorhergehenden Abschnitt sind nicht als kulturpessimistische Untergangsbetrachtungen gedacht, sondern als Impuls dafür, über eine immer stärkere, „hybride“ Identität in unserem Leben nachzudenken, die im folgenden Abschnitt noch genauer betrachtet werden soll. Da wir essen und trinken müssen, um zu überleben, gehen wir Menschen zwangsläufig nicht in einer digitalen Identität auf. Wenn immer größere Teile unseres Wachbewusstseins aber durch digitale Erlebnisräume belegt werden, dann ändert sich auch unser Verhältnis zur Realität selbst. Wir fühlen uns als ganze Person nicht wie in früherer Zeit dann, wenn wir gesund und munter aufstehen und frühstücken können, sondern erst dann, wenn wir als Teil unseres Morgenrituals die neuen E-Mails und Posts in Sozialen Medien angesehen haben. „Digitale Konnektivität“ ist uns so wichtig geworden, dass die zweite Ebene unseres Ichs, die in den Smartphones und 142

Digitale Erlebnisräume und digitale Konnektivität als Teil der Biografie

­ ablets abgespeicherte digitale Welt, nicht nur Teil unserer Geschichte T und unserer Erinnerungen, sondern sogar zu einem Teil unserer Person wird. Das geht so weit, dass einige Menschen sogar mit ihrem Smartphone zu Bett gehen. Vor einigen Jahren wurde ein amerikanischer Autofahrer über Nacht in eine Ausnüchterungszelle gesperrt, weil er betrunken am Steuer erwischt worden war. Die Polizisten nahmen ihm auch sein Smartphone ab. Dagegen klagte der Betreffende mit Erfolg: Das Ausnüchtern sei ja gesetzlich gewesen, aber das Wegnehmen des Smartphones nicht, denn es sei Teil seiner Persönlichkeit. Das Gericht bekräftigte diese Auffassung. Die Frage der Alltagsrelevanz einer solchen hybriden Identität ist bislang noch nicht ausreichend in den Blick genommen worden. Denn sie lässt sich in einer interessanten Linie der Kontinuität und Diskontinuität der menschlichen und technischen Entwicklung einfügen, speziell mit Blick auf den Trend zur Selbstoptimierung. Solche physische und psychische Selbstoptimierung ist nicht neu. Sie hat zu tun mit der menschlichen Fähigkeit, instrumentell zu denken und sich Werkzeuge auch für den eigenen Körper anzufertigen. So haben wir uns längst daran gewöhnt, dass zwei Drittel der Menschen in Deutschland und tatsächlich die meisten Menschen über Jahre eine Brille zum Sehen benötigen. Auch Hörgeräte, Gehstöcke und Rollatoren sind als normale Alltagshilfe weitgehend akzeptiert. Künstliche Hüften sind Teil eines selbstbestimmten Lebens im höheren Alter. Selbst die Verwendung von Genuss- und Rauschmitteln wie Tabak, Alkohol und Drogen lässt sich im weitesten Sinn der „Selbstoptimierung“ zuordnen. Sicherlich ist kritisch anzumerken, dass deren Schadwirkung über ihren möglichen Nutzen hinausgehen kann, zumindest im Fall des massiven Missbrauchs. Wo genau die Grenze für diesen „massiven Missbrauch“ liegt, ist nicht immer eindeutig erkennbar. Für bestimmte soziale Zwecke wie etwa das Führen eines 143

4.  Digitale Identität

Kraftfahrzeugs im Straßenverkehr ist sie allerdings klar und deutlich festgelegt und mit Sanktionen bewehrt. Das Alltagsleben im 21. Jahrhundert ist jedenfalls im Handeln und Erleben der meisten Menschen so stark digital geprägt, dass es bereits die Gegenreaktion als eigene Erlebnisform gibt: das digitale Fasten oder „digital detox“. Dabei geht es um die Reduktion in der Nutzung digitaler Geräte, um smartphone-freie Räume, um Vorsorge gegen oder Abhilfe bei Internetsucht, um eine Abkehr von digitaler Fremdbestimmung und um die Erweiterung der „Work-Life-Balance“ durch eine „Work-Life-Sleep-Balance“. So empfiehlt die Evangelische Landeskirche in Württemberg im Frühjahr 2020 ausdrücklich eine „digitale Entgiftung“ und greift damit sprachlich den englischen Ausdruck „digital detox“ auf (https://www.umwelt.elk-wue. de/themen-a-z/7-anregungen-fuer-einen-nachhaltigen-lebensstil/ digitales-fasten/abgerufen am 20. Juni 2020 um 10.24h). Klar wird durch diese Ausführungen jedenfalls, dass die digitale Konnektivität so eng mit dem persönlichen Leben und Erleben verbunden wird, dass die eigene Biografie ohne digitale Kommunikation schlicht nicht mehr denkbar wird. So ist es für junge Eltern schon heute kaum mehr vorstellbar, dass nur eine Generation zuvor, also in meiner eigenen Kindheit in den 60er-Jahren, lediglich eine vage Uhrzeitangabe wie etwa „bin zum Abendessen zurück“ genügte, um ohne jede Kontrolle durch Erwachsene mit dem Fahrrad die Gegend zu erkunden, sich mit Freunden zu treffen oder ins Schwimmbad zu gehen. Dieser in nur einer Generation veränderte Digitalanteil des Lebens ist ein weiteres Indiz für den digitalen Epochenbruch, der unsere Zeit prägt. Es lohnt sich daher, dem Aspekt der „hybriden Identität“ und der digitalen Selbstoptimierung noch etwas mehr Aufmerksamkeit zu schenken.

144

Hybride Identität und digitale Selbstoptimierung

Hybride Identität und digitale Selbstoptimierung Der Trend zur Selbstoptimierung in hybrider Form geht über das Gesagte hinaus. Davon erzählen beispielsweise Fitnessbänder zum Tracking und Tracing unserer physischen Performance. Es gibt für Parkinsonkranke sogar schon elektronische Gehirnschrittmacher. Bei einem Gespräch mit einem Prothesenhersteller für Beinamputierte fiel der für mich zunächst erstaunliche Satz: „Der Trend geht zum Zweitbein.“ Gemeint war der Umstand, dass die digitaltechnische Auslegung einer mikroprozessorgesteuerten Beinprothese (beispielsweise eines digital konfigurierten C-Legs) sich von einem Modell zum anderen stark unterscheidet. Frühere, mechanische Modelle stellen nicht mehr den neuesten Stand dar. Junge, beinamputierte Sportler können über entsprechend gesteuerte Beinprothesen erstaunliche sportliche Leistungen erbringen. Sind ihre Beine aber im „Ruhezustand“, benötigen sie ein Bein oder zumindest eine Programmierung mit anderen technischen Eigenschaften. Die Rede von „hybrider Identität“ knüpft somit an die Geschichte technischer Hilfsmittel für körperliche Einschränkungen an, geht aber darüber hinaus. Konkret heißt das beispielsweise, dass zu diskutieren ist, ob die Leistungen von behinderten Sportlern mit sehr leistungsfähigen digital gesteuerten Beinprothesen auch auf dem Feld der nicht-behinderten Sportler zugelassen werden sollen. Schließlich ist es möglich, das eigene Handicap mit technischen Mitteln in einen Leistungsvorteil zu verwandeln, etwa beim Weitsprung oder beim Hürdenlauf. Ursprünglich war der Begriff der Hybridität in der Landwirtschaft angesiedelt, etwa bei der Züchtung von Pflanzen und Tieren mit besonderen Eigenschaften bis hin zu Mensch-Tier-Mischwesen wie Chimären. Speziell der Zusammenhang hybrider Identität mit besonderen Lebenslagen ist heute aber stärker aus dem Feld der Postkolonialismus-Studien bekannt, etwa bei den Prozessen der Auseinander145

4.  Digitale Identität

setzung von Migrantinnen und Migranten mit der sie aufnehmenden Kultur und umgekehrt (vgl. N. Fouroutan 2013, 85-89; H. Brinkmann, H. H. Uslucan 2013). Besonders Forscher wie Homi Bhabha (geboren 1949) und Autoren wie Edward Said (1935-2003) haben „kulturelle Hybridität“ (H. Bhabha 2012) zu ihrem Thema gemacht und dabei eine neue Perspektive auf den Eigenwert eines daraus resultierenden „Dritten Raumes“ werfen können (vgl. H. Bhabha 2000, E. Said 1978/2009, ferner J. Dubiel 2007). Das Stichwort „hybride Identität“ gewinnt in der digitalen Welt darüber hinaus einen utopischen Gehalt. Prozesse der Selbstoptimierung oder des Enhancements (vgl. S. Dickel 2011) üben eine Faszination aus, die dann sogar in die Richtung eines „Neuen Menschen“ geht. Dabei sollte nicht übersehen werden, dass digital optimierte Leistungen stets einen bestimmten Funktionsbereich betreffen, also die schon öfter angesprochene „enge“ Fokussierung in den Blick nehmen: Auch Sportler mit einer sehr leistungsfähigen Beinprothese finden Gelegenheiten, bei denen die Vielseitigkeit eines natürlichen Beins vorteilhaft und wünschenswert bleibt. Das Stichwort der digitalen Identität gewinnt durch solche Entwicklungen eine neue Bedeutungsfacette. Es ist hoch wahrscheinlich, dass technische und soziale Zukunftspfade zu einer immer stärkeren Mischung aus „analogen“ und „digitalen“ Anteilen im eigenen Körper, im Alltagsleben und erst recht im Berufsleben führen. Forschungen zur Virtual Reality oder Augmented Reality experimentieren beispielsweise mit Datenbrillen, die zunächst einmal ganz schlicht der Arbeitserleichterung dienen, etwa bei der virtuellen Montage von Bauteilen in einem Auto (vgl. U. Eberl 2018, 220). In der Zwischenzeit gibt es aber bereits touristische Anwendungen, etwa bei einer virtuellen Stadtführung über eine VAR-Brille, also eine Brille mit der digitalen Einspielung der Virtual Augmented Reality. Darüber hinaus wird zum Locked-In-Syndrom an der Hirn-Computer-Schnittstelle (Brain-Computer-Interface) intensiv geforscht 146

Soziale Grenzen digitaler Identität: Gesichtserkennung und Genomanalyse

(vgl. J. Wolpaw, E. Winter-Wolpaw 2012). Das Locked-In-Syndrom betrifft Patienten, die bei Bewusstsein sind, sich aber weder körperlich noch sprachlich mitteilen können. Manchmal sind noch Augenbewegungen möglich, so etwa bei einem mir bekannten Arzt, der nun selbst unter Locked-in leidet. Über die Messung von Hirnströmen können die Patientinnen oder Patienten so trainiert werden, dass ihre Steuersignale zu konkreten Anwendungen führen, etwa einer Ja-NeinAntwort oder dem Bewegen von Händen und Füßen. Ein solches medizinisches Beispiel zeigt aber nicht nur, wie viel weitere Forschung noch benötigt wird, sondern es verweist uns auch auf die fließenden Grenzen zwischen medizinischem Einsatz und der hier angeführten „Selbstoptimierung“. Es ist eben auch eine gesellschaftliche, ethische und politische Frage, ob beispielsweise eine digitale Neurostimulation als medizinisches Hilfsmittel, als akzeptable Form der Lebensführung oder als problematisches Suchtverhalten gewertet wird. Das Beispiel der Paralympics oder der Olympischen Spiele für körperbehinderte Sportler und Sportlerinnen legt offen, dass die Grenzen zwischen Medizin, Sport, Freizeit und anderen Formen menschlicher Betätigung fließend sein können. Anders gesagt: Wir wissen heute noch nicht, wohin uns das Zusammenspiel unseres biologischen Körpers mit den Ressourcen der digitalen Welt noch führen kann und führen soll.

Soziale Grenzen digitaler Identität: Gesichtserkennung und Genomanalyse Die Frage nach den Grenzen menschlicher Identität als solche ist so alt wie die Menschheit. Extremsportler und Abenteurer haben immer wieder nach einer Erweiterung menschlicher Erfahrungsräume gesucht und sie auch gefunden. Neu an der digitalen Welt ist ihre 147

4.  Digitale Identität

Skalierbarkeit und Reproduzierbarkeit. Gemeint ist der Umstand, dass digitale Programme grundsätzlich kopiert, verbreitet und somit allgemein zugänglich gemacht werden können. Eine persönliche Expedition zum Südpol ist nach wie vor eine ungewöhnliche Herausforderung. Digitale Möglichkeiten eignen sich hingegen fast schon grundsätzlich für eine größere Allgemeinheit. Damit ist aber auch die Frage nach den Grenzen des Wünschbaren zu stellen. Als Anfang 2020 die Firma Clearview AI angab, sie verfügten über eine Datenbank mit den Fotodaten von drei Milliarden Menschen, verstärkte sich das Nachdenken über die Grenzen der sozialen Zuträglichkeit digitaler Technologien. Schon vor der Veröffentlichung des speziellen Leistungsangebots dieser Firma hatte Kalifornien die Nutzung von Gesichtserkennungssoftware im öffentlichen Raum verboten. Denn „Sehen“ und „Gesehen werden“ gehören nun einmal zusammen. Es wäre ein großer Irrtum zu glauben, wir könnten Technik ausschließlich an ihren technischen Eigenschaften messen. Nur dauert es häufig einige Zeit, bis es zu einem Gleichgewicht aus technischen Möglichkeiten und deren Kontrolle im öffentlichen Leben kommt. Für die Zukunft der digitalen Identität ist dieses Gleichgewicht noch nicht erreicht. Dabei spielen nicht nur technische Hilfsmittel zur Erweiterung von Körper- und Geistfunktionen eine Rolle, sondern auch Fragen zur Planung, Auslegung und Gestaltung von Identität überhaupt. Wenn wir im digitalen Zeitalter das menschliche Hirn in der Analogie zu einem Rechner begreifen, folgen daraus jenseits der oben erwähnten medizinischen Anwendungen auch Gedanken zum Hirn-Doping, zur Ausgestaltung von Neurochips und zur Entwicklung einer speziellen Neurorobotik (vgl. U. Eberl 2016, 143-160). Über die Aktivitätsebene hinaus üben auch genetische und gentechnische Möglichkeiten der digitalen Welt einen Einfluss aus. Mit der Genschere CRISPR/CAS 9 können beispielsweise unter Verwendung digitaler Optimierungsmethoden schneller und methodischer 148

Soziale Grenzen digitaler Identität: Gesichtserkennung und Genomanalyse

als bisher bestimmte Eigenschaften bei Pflanzen gezüchtet werden. Fortschritte der Gentechnik sind aber unmittelbar und direkt mit der Möglichkeit verbunden, digitale Datensätze schnell und zuverlässig zu analysieren – zuletzt bei der extrem schnellen Entschlüsselung des Genoms des Corona-Virus Anfang 2020. Was zunächst paradox erscheinen mag, ist also Realität: Die Fortschritte unserer Erkenntnisse in der Biologie hängen heute vom Datendurchsatz und der intelligenten Datenanalyse durch sinnvolle digitale Anwendungen ab. Für das Anwendungsgebiet der Pflanzenzucht entschied der Europäische Gerichtshof am 25. Juli 2018, dass die Anwendung der „Genschere“ zu gentechnisch veränderten Organismen führt. Kritiker des Urteils wiesen darauf hin, dass die klassische Pflanzenzüchtung eben solche Ergebnisse erzielen könne, diese dann aber nicht unter die Kategorie der „Gentechnik“ geführt würden. Der Unterschied liegt allerdings, wie schon beschrieben, in der Menge und Geschwindigkeit der Analyse von Datensätzen. Hier eröffnet die Verbindung von Genetik und digitale Transformation bisher ungeahnte Möglichkeiten. Die gleiche Methode CRISPR/CAS 9 eignet sich auch für medizinische Eingriffe, um seltene Erbkrankheiten zu heilen (vgl. J. Kozubek 2016). Die Abwägung über sinnvolle und erlaubte gegenüber eher unerwünschten oder gar kriminellen Anwendungen ist dabei keineswegs trivial. Bisher tabu ist der Eingriff direkt in die Keimbahn, zum einen aufgrund der unkalkulierbaren Risiken gentechnisch veränderter Menschen, zum anderen wegen doch sehr weitgreifender ethischer Bedenken gegen das eigenmächtige Schaffen von menschlichem Leben. Wo die genauen technischen und sozialen Grenzen digitaler Identität liegen, lässt sich faktisch nicht vorhersehen. Denn die Bestimmung solcher Grenzen ist von Haus aus ein politischer Prozess, der nicht allein technischen Stellgrößen folgt. Die Diskussion zum Thema zeigt jedenfalls sehr deutlich, dass neben der individuellen Sphäre auch der Bereich des Sozialen und des Politischen bedacht 149

4.  Digitale Identität

werden muss, wenn wir uns dem Thema „digitaler Identität“ verantwortlich nähern wollen. Dies gilt auch für die Fragen nach unserer genetischen Identität. Die bereits erwähnte Kombination von Kenntnissen der heutigen Medizin und Biologie über unser Genom, verbunden mit leistungsfähigen Rechnern und Datenbanken, ermöglichen es Unternehmen wie MyHeritage.de oder Ancestry.de, schon für 59 Euro eine persönliche Datenanalyse zur eigenen DNA anzubieten (Stand: Februar 2020, vgl. A. Grävemeyer 2020). Welche Verantwortung aber erwächst den Betreiberfirmen aus ihrem Datenpool? Immerhin geht es bei der einen Plattform um insgesamt 15 Millionen, bei der anderen um rund vier Millionen Kundinnen und Kunden. Schließlich ist nicht allen Nutzerinnen und Nutzern klar, dass sie bei einer sehr weitreichend abgefassten Einwilligung auch Folgeforschungen an ihrer eigenen DNA erlauben. Außerdem können Daten unbefugt an die Öffentlichkeit gelangen oder an Strafverfolgungsbehörden oder Versicherer weitergegeben werden. Neue Probleme führen allerdings auch in neue Lösungsräume. So werden Genanalysen beim Schweizer Unternehmen iGenea ausdrücklich nicht zu Forschungszwecken weiterverwendet. Diskutiert wird hier ein Datentreuhändermodell, bei der dann nach festgelegten Regeln eine Datenverknüpfung zwischen Personendaten und DNADaten erfolgt. Die DNA-Probe wird dann also von der verschlüsselten Weitergabe von Datensätzen getrennt und unterschieden. Im Sinn der Forderung nach „Datenarmut“ soll dadurch gewährleistet werden, dass nur genau diejenigen Sachverhalte aus den verfügbaren Daten herausgelesen werden, die vom Kunden beauftragt wurden (vgl. A. Grävemeyer 2020). Die digital gewendete Frage nach Privatheit oder Privacy by Design (vgl. A. Cavoukian 2012, 170-208) wird folglich auch zu einer Frage des Geschäftsmodells und seiner Folgen. Denn wenn mehr und mehr Menschen vorsichtig und umsichtig mit ihren 150

Soziale Grenzen digitaler Identität: Gesichtserkennung und Genomanalyse

Daten umgehen wollen, wird „Datenarmut“ als bewusste Voreinstellung zu einem Wettbewerbsvorteil durch Vertrauensaufbau. Grundsätzlich ist es immer wieder der Fall, dass technische Entwicklungen und daraus folgende kommerzielle Anwendungen zuerst auf den Markt kommen und die Realität prägen, bevor eine Gesellschaft umfassend über nötige Grenzziehungen und sinnvolle Schutzgesetze reflektiert. Das Nachdenken über Grenzen der Legalität in digitalen Räumen kommt dann, so gesehen, immer „zu spät“, so wie die in der Philosophie oft zitierte Eule der Minverva als Symbol nachdenklicher Klugheit. Da allgemeine Gesetze aber zwangsläufig Grenzen markieren, greift die Umsetzung von Gesetzen logischerweise in zuvor bestehende Freiheitsräume ein. Beispielsweise war es in der Anfangszeit der Mobiltelefone nicht verboten, mit dem Handy in der Hand Auto zu fahren. Die Erhöhung der Unfallzahlen mit dem „Handy am Ohr“ führte zu einer neuen, verschärften Gesetzgebung. In einer freien Gesellschaft wird über die Begrenzung von Freiheitsräumen immer wieder umfassend zu diskutieren sein. So wird in Deutschland regelmäßig wiederkehrend ein Tempolimit für Autos auf Autobahnen diskutiert. Wird ein solches Tempolimit umgesetzt, greift ein solcher Schritt selbstverständlich in die Freiheit derjenigen Autofahrer und Autofahrerinnen ein, die gerne auf freier und offener Strecke schneller als 200 km/h fahren wollen. Der frühere Slogan „Freie Fahrt für freie Bürger“ symbolisiert ein solches echtes oder vermeintliches Freiheitsgefühl. Dennoch gibt es schwer zu widerlegende Gründe, die für ein Tempolimit sprechen: Sicherheit, CO²-Ausstoß, aber auch Reifenabrieb und das entsprechende Aufkommen von Mikropartikeln stehen hier zur Debatte. Das Beispiel des Autoverkehrs ist hier als Symbol für öffentliche Debatten zu verstehen, die aus digitalen Regulierungsfragen folgen können, die im öffentlichen Interesse sind. Würde etwa die Verwendung von Gesichtserkennungsdaten und Daten aus Gensequenzen 151

4.  Digitale Identität

strenger reguliert, wäre dies ein unmittelbarer Eingriff in das Geschäftsmodell der entsprechenden kommerziellen Anbieter. Es gibt aber nicht nur Geschäftsmodelle von Unternehmen, sondern auch politische Lebensformen ganzer Gesellschaften. Dabei gibt es selbst innerhalb von Demokratien sehr unterschiedliche Spielarten. Unterschiedliche Interessen in ein allgemein gültiges Gesetz zu fassen, ist eine große und schwierige Aufgabe, die nicht ohne mancherlei Kompromisse lösbar sein wird. Auf die öffentliche Diskussion zu verzichten, ist freilich keine sinnvolle Alternative. Denn alles, was nicht öffentlich zur Sprache kommt, läuft Gefahr, den Interessen weniger und mächtiger Akteure Vorschub zu leisten. Zur Frage digitaler Identität gehört daher die Transparenz der Diskussion über Öffentlichkeit und Privatheit, auch mit Blick auf die Erzeugung, Speicherung, Verarbeitung und Verwertung von Daten (vgl. A. Cavoukian 2012, ebd.). Gerade in Europa herrscht im Raum dieser Fragen noch große Unsicherheit, weil noch nicht klar ist, wie sich ein demokratisches Gemeinwesen verhalten soll, das auf Bürger- und Menschenrechten, aber auch auf einer freien Wirtschaftsordnung basiert. Schließlich ist weder die Vorfahrt für die Interessen kommerzieller Anbieter wie Facebook, Google, Amazon, Apple und anderen noch der Vorrang staatlicher Interessen wie in China der Königsweg. Öffentliche und private Identität ist daher in digitalen Zeiten neu zu diskutieren, denn erst aus der öffentlichen Diskussion können gangbare Lösungsansätze für eine digitale Welt in Balance erwachsen (vgl. dazu U. Hemel 2019, 212-219). Diese digitale Balance sehe ich als Ziel für die Zukunft demokratischer Gemeinwesen, aber auch als Ziel für Deutschland und die EU an. Da wir hier unmittelbar das Feld des Politischen berühren, soll dieses Thema in Kapitel 6 ausführlicher behandelt werden.

152

Öffentliche und private Identität in digitalen Zeiten

Öffentliche und private Identität in digitalen Zeiten Das oben schon erwähnte Wort „Identitätsmanagement“ zeigt auf, dass sich individuelle, soziale und politische Ebenen immer wieder überschneiden. Während der Begriff des Identitätsmanagements auf den privaten oder beruflichen Umgang mit Passwörtern und mit unserer „digitalen Person“ zielt, geht es beim Thema Privacy by Design um eine Technik, die bei Produkten und Dienstleistungen von vornherein auf die bestmögliche Wahrung der Privatsphäre eines Nutzers zielt (vgl. A. Cavoukian 2012, 170-208, S. Spiekermann 2012, 3840). Anders als bei bekannten Plattformen ist dann beispielsweise die Standardeinstellung für Nutzer nicht auf möglichst freizügige Datenweitergabe, sondern auf Datenschutz und Privatheit eingestellt. Wenn Unternehmen mit solchen Modellen agieren, wirkt dies kommerziell gegen die Intuition. Schließlich haben Unternehmen ein verständliches Interesse an einem möglichst breiten und tiefen Zugang zu ihren Nutzerinnen und Nutzern. Andererseits denken mehr und mehr Menschen über den Preis nach, den sie mit der Offenlegung sehr persönlicher Daten zahlen. Ein restriktives Design im Sinn des oben erwähnten Treuhandmodells bei der DNA-Analyse kann wie weiter oben erwähnt Vertrauen schaffen. Vertrauen ist im Geschäftsleben allerdings von entscheidender Bedeutung, denn ohne Vertrauen sind Geschäftsbeziehungen auf Dauer gar nicht möglich (vgl. M. Hartmann 2020). Privacy by Design kann auch einen weiteren Effekt haben. In der digitalen Welt ist es einfach, auf das Feld „Einwilligung“ oder „Zustimmung“ zu drücken. Der Aufwand ist gering, die Alternativen sind mühsam oder gar nicht vorhanden. Gegenüber großen Datensammelplattformen wie Facebook oder Google lässt sich als Einzelner nicht viel ausrichten. Die im Bereich des Datenschutzes anerkannten Prinzipien der „Datenvermeidung“ und der „Datensparsamkeit“ stehen ja offensichtlich im Widerspruch zum Interesse 153

4.  Digitale Identität

am sozialen Austausch, der die besonders aktiven Nutzer von sozialen Netzwerken bewegt. Die von so vielen Internet-Firmen gepriesene „UX“ genannte User Experience ist in der Folge häufig genug die Erfahrung der Ohnmacht, also die Erfahrung von „David gegen Goliath“. Denn als einzelne Person muss man sich erst mühsam durch oft unübersichtliche Menü-Unterpunkte klicken, bis man die gewünschte, vielleicht etwas restriktivere Form der Datenweitergabe findet. Die Erfahrung, eben doch nichts ausrichten zu können, wird dann gelegentlich auch in den politischen Raum transferiert. Sie kann dann sogar zu Skepsis gegenüber demokratischen Prozessen, härter gesagt: zu einer Aushöhlung demokratischer Praxis, führen. Die Frage nach hinreichenden Standards von Privatheit im Spannungsbogen zwischen Freiheit, Überwachung und Sicherheit ist folglich nicht allein eine technische, sondern erneut auch eine politische und ökonomische Frage. Zum ökonomischen Bereich gehört dabei auch die Zeit, die ich für eine individualisierte Einstellung benötige und mir womöglich „ersparen“ will. Ökonomie ist in digitalen Zeiten grundsätzlich als Dreiklang zwischen monetär bewerteten Transaktionen, Zeitökonomie und Datenökonomie zu verstehen. Anders gesagt: Manches zahlen wir mit Geld, manches mit Zeit, manches mit unseren Daten. Wenn ein Unternehmen aber Privacy by Design praktiziert, kommt dies solchen „digital aufgeklärten“ Nutzerinnen und Nutzern zugute. Diese verstehen mehr und mehr, dass Datengroßzügigkeit gelegentlich mit Leichtsinn gepaart ist. Verständlicherweise messen sie dann auch den eigenen Daten einen höheren Wert bei und tendieren zu einer gewissen datentechnischen Sparsamkeit.

154

Angriffe auf digitale Identität: Datensicherheit und Cybercrime

Angriffe auf digitale Identität: Datensicherheit und Cybercrime Dieser Zusammenhang gilt auch in öffentlichen Räumen und mit Blick auf die öffentliche Sicherheit. Gerade die Dateneuphorie der Anfangsjahre des Internets verführte ja zu einem gewissen Leichtsinn im Umgang mit Daten. So wird tatsächlich das Thema der Cyber-Sicherheit noch immer unterschätzt. Angriffe auf digitale Identität und Integrität werden immer häufiger, immer kreativer und immer raffinierter. Im Januar 2020 wurde beispielsweise bekannt, dass aufgrund mangelnder Sicherheitsmaßnahmen Millionen von Datensätzen einer deutschen Autovermietung inklusive der Daten aus 500.000 Unfällen öffentlich einsehbar waren. Über mögliche Nachlässigkeit hinaus verlagert sich Verbrechen mehr und mehr ins Internet. Für 2018 wies das Bundeskriminalamt (BKA) im November 2019 eine Gesamtzahl von 87.106 Fällen auf (https://www.bka.de/SharedDocs/Downloads/DE/Publikationen/ JahresberichteUndLagebilder/Cybercrime/cybercrimeBundeslagebild2018.html?nn=28110; abgerufen am 29. Mai 2020 um 17.11h). Cybercrime ist jedenfalls zu einer Realität des Alltags geworden. Das fängt mit kleinen Betrügereien an: So lud sich eine ehemalige Mitarbeiterin eines medizinischen Schulungsunternehmens die Datenmaske der Firma auf das private Gerät runter und stellte dann Rechnungen an ihre Schulungskunden. So erschien statt des Firmenkontos ihr eigenes Konto. In einem anderen Fall wurden Insiderkenntnisse dazu genutzt, eine täuschend echte Mahnung auf Zahlung von Vorkasse für eine Warenlieferung zu erstellen. Die Zahlung erfolgte, der Betrug wurde aufgedeckt, die Bank berief sich auf „Datenschutz“. Anders gesagt: Der klassische Bankraub mit vorgehaltener Pistole und dem Ziel, Bargeld aus dem Tresor zu erhalten, ist weitgehend Geschichte. Er ist jedenfalls nachweislich rückläufig: In Deutsch155

4.  Digitale Identität

land sank die Zahl nach amtlicher Polizeistatistik von über 1000 Banküberfällen auf unter 200 pro Jahr im Zeitraum 1995 bis 2015. Ähnliches gilt für die USA. Vermögensschäden wie die oben beschriebenen oder andere Betrugsmanöver, darüber hinaus Anlagebetrug im Internet, das Hacken von Konten oder sonstige kreative Formen des Betrugs haben dagegen Konjunktur. Individuell bedeutet dies idealerweise erhöhte Vorsicht im digitalen Raum. Sozial ergeben sich neue Anforderungen an die Unternehmensführung. Die erörterte Maßnahme Privacy by Design ist dabei nur eine der möglichen Stellschrauben. Darüber hinaus ist zu beachten, dass die Grenze zwischen spielerischem Ausprobieren und kriminellen Handlungen bisweilen fließend ist. So beschaffte sich ein junger Mann die Kontaktdaten zahlreicher bekannter Politiker, allerdings wohl auch, weil deren Bewusstsein für Datensicherheit nicht ausgeprägt genug war. Inzwischen gibt es „Hacker-Wettbewerbe“ (sogenannte Hackathons), die gezielt zum Aufdecken von Sicherheitslücken eingesetzt werden. Die Zusammenarbeit der nationalen und der europäischen Behörden speziell im Bereich der IT-Sicherheit bleibt eine große Herausforderung, trotz der 2013 erfolgten Gründung eines Europäischen Zentrums zur Bekämpfung der Cyber-Crime Kriminalität (European Cybercrime Centre) mit Sitz in Den Haag. Denn die Zusammenarbeit krimineller Personen und Banden über Ländergrenzen hinweg ist im digitalen Raum leicht möglich, die von Behörden keineswegs immer. Hinter solchen Überlegungen stecken allerdings ganz traditionelle und wesentliche Fragen des politischen Zusammenlebens. Denn es steht immer wieder das Verhältnis von Freiheit und Kontrolle zur Debatte. Insgesamt hat sich der Umgang mit Datenschutzfragen in den letzten Jahrzehnten deutlich verändert. Mit der Europäischen Datenschutz-Grundverordnung (DSGVO) hat der europäische Gesetzgeber individuelle Rechte deutlich gestärkt, auch wenn das Gefühl für die 156

Angriffe auf digitale Identität: Datensicherheit und Cybercrime

richtige Balance noch zu verbessern ist. Dies gilt etwa dann, wenn kleinen gemeinnützigen Vereinen eine überbordende Bürokratie zugemutet wird. Digitale Identität kann jedenfalls nicht von der Frage nach Rechten und Pflichten rund um die eigene Person abgelöst werden. „Privatheit“ ist, so gesehen, ein Begriff, der völlig neu ausgehandelt werden muss. Der Begriff der „informationellen Selbstbestimmung“, wie er in Deutschland schon seit Beginn der 70er-Jahre des letzten Jahrhunderts erörtert wurde, bezeichnet ein Ideal, das angesichts der immer weiter fortschreitenden Digitalisierung und der Spannung zwischen persönlichen, kommerziellen und politischen Interessen stets neu auszuhandeln und zu präzisieren sein wird. Nicht neu, aber noch immer nicht klar beantwortet, sind dann Fragen wie die folgenden: Wie viel Gesichtserkennung im öffentlichen Raum ist zulässig? Wie lange dürfen entsprechende Daten gespeichert werden? Dürfen sie gar frei verkauft werden? Wo hören Zugriffe auf die eigene Identität auf, wenn über unsere Smartphones ständig Bewegungs- und Profildaten erhoben und kommerziell verwertet werden? „Privatheit“ kann folglich von der großen Frage nach Selbstbestimmung und Freiheit nicht abgekoppelt werden. Dabei geht es um digitale und nicht digitale Situationen, denn der operative Vollzug von Freiheit geschieht im Handeln und Unterlassen, im sozialen oder im privaten Raum, mit verfügbaren technischen Hilfsmitteln oder ohne sie. Verfügungsfreiheit über die eigenen Daten ist nicht absolut. Wo genau die Grenzen von „Privatheit“ liegen, ist zum einen eine Frage persönlicher Vorlieben und Entscheidungen, zum anderen aber eine Frage der öffentlichen Ordnung, des Rechtswesens und des kollektiven Zusammenlebens.

157

4.  Digitale Identität

Digitale Teilhabe und digitale Exklusion Der sehr freizügige Umgang der meisten Menschen mit ihren Daten hat eine technische und eine zeitgeschichtliche Komponente. Er greift aber auch in die individuelle Bildungsgeschichte und Identität von Menschen ein. Dabei stehen wir immer noch am Anfang der digitalen Transformation, vielleicht vergleichbar mit der Anfangszeit der Eisenbahn, des Industriezeitalters und anderer Epochen. Paradoxerweise steht der Eröffnung so großer Freiheiten und Zugriffsmöglichkeiten über das Internet und die digitale Welt ein neuer Berg der Entmündigung gegenüber. Wir wissen, dass jeder von uns eine Person unter fast 8 Milliarden Menschen ist. Wir wollen am gesellschaftlichen Leben teilhaben und klicken auf die Annahme von Geschäftsbedingungen, mit denen wir große Teile unserer digitalen Identität zugänglich machen und kommerziellen Zugriffen übereignen. Daraus entstehen die oben erwähnten, teilweise manifesten Ohnmachtsgefühle mit dem Eindruck, als Einzelner sei man großen Mächten willkürlich ausgeliefert. Digitale Teilhabe geht allerdings über kommerzielle Datenangebote hinaus. Das Internet bildet ja die gesamte Bandbreite des Lebens ab. Dabei sind wir noch lange nicht am Ende des richtigen gesellschaftlichen Wegs. Wo genau die Grenze des Privaten, des Öffentlichen und des Politischen liegen soll, ist noch keineswegs ausverhandelt. Mehr und mehr wird aber der mündige Umgang mit den Chancen und Risiken der digitalen Welt zum Ausdruck von Bildung und von sozialen Teilhabechancen. Denn mit den immensen Möglichkeiten der digitalen Welt entstehen eben sowohl neue Zugänge wie neue Formen der Exklusion. Das Konzept der persönlichen Identität, wie es aus vor-digitaler Zeit gelernt und eingeübt wurde, hat sich auch unter diesen Umständen nicht überlebt, erfährt aber einen Gestaltwandel. Gerade die unübersichtliche Größe und Vielfalt digitaler Gestaltungs- und Erlebnisräume macht es erforderlich, den personalen 158

Digitale Teilhabe und digitale Exklusion

Kern von Bildung auch in gesellschaftlichen Institutionen von Kindertagesstätten bis Schulen, von Kirchen bis Gewerkschaften, von Kommunalverwaltungen bis zu Universitäten neu in den Mittelpunkt zu stellen. Dabei ist freilich auch zu fragen, wie die Gewichte zwischen „Kontinuität“ und „Diskontinuität“ verteilt sind. Die Frage nach dem Gestaltwandel von Identität und der Veränderung gesellschaftlicher Praxis ist beim Aufkommen einer neuen alltagstauglichen Technologie eine regelmäßige Folge aus dem Gestaltwandel des Alltagslebens. Nomaden waren nicht sesshaft, Bauern schon. Mittelalterliche Bauern hatten keine Bücher: Noch im 14. Jahrhundert konnten kaum 10% der Menschen lesen und schreiben. Doch mit Gutenbergs Erfindung des Buchdrucks verbreiteten sich Druckschriften ebenso rasch wie einige Zeit später die Kulturtechnik des Lesens und Schreibens. Das Allgemeine Landrecht für die Preußischen Staaten sah 1794 eine allgemeine Unterrichtspflicht vor, die aber auch der Hausvater übernehmen konnte. Erst mit der Weimarer Reichsverfassung von 1919 Art. 145 wurde in Deutschland, vor kaum mehr als 100 Jahren, die allgemeine Schulpflicht eingeführt. So änderte sich Schritt für Schritt auch das persönliche Konzept von Identität junger Menschen, denn die Festlegung auf den Berufsstand aus dem familiären Herkommen war nicht mehr so eindeutig wie zuvor. Wenn der Vater Bauer war, musste der Sohn nicht mehr zwangsläufig selbst Bauer werden. Menschen – und fairerweise ist zu präzisieren: eher Männer als Frauen, hatten neue Chancen, ihr Leben in die Hand zu nehmen. Gesellschaftliche Teilhabe als Entscheidungsfreiheit über den eigenen beruflichen und persönlichen Lebensweg gewinnt aber erst im frühen 21. Jahrhundert mit der höheren Sensibilität für die Anliegen der Diversität, der Gleichstellung von Mann und Frau und der Vielfalt der Lebensentwürfe an Dringlichkeit.

159

4.  Digitale Identität

Digitale Identität als historischer Lernprozess Es lohnt sich, das Thema der digitalen Identität wenigstens ansatzweise in einen solchen historischen Zusammenhang zu bringen. Vieles spricht dafür, dass wir die Inhalte digitaler Souveränität im Sinn der digitalen Souveränität der Person erst noch ausbuchstabieren lernen müssen. Das bedeutet aber faktisch, dass wir uns auf einen noch nicht ansatzweise abgeschlossenen Lernprozess einstellen müssen. Die bäuerliche Familie mit ihrer weitgehenden Subsistenzwirtschaft machte noch vor 150 Jahren trotz beginnender Industrialisierung rund 80 bis 90% der europäischen Bevölkerung aus. Im 20. Jahrhundert prägte die Klassenzugehörigkeit zum „Industriearbeiter“ oder „Proletarier“ die politische Geschichte bis hin zu sogenannten sozialistischen Staaten wie der früheren Sowjetunion oder der DDR. Die Abkehr von der bäuerlichen Subsistenzwirtschaft als Normalfall im Leben der Generationen hatte zugleich einen massiven Aufschwung in der Alphabetisierung, also in Anstrengungen zu allgemein verfügbarer und verpflichtender schulischer Bildung auch in eher ärmeren Ländern zur Folge (vgl. H. Rosling 2018). Jetzt, im 21. Jahrhundert, benötigen wir einen Lernprozess mit Blick auf digitale und nicht-digitale Ausdrucksformen der menschlichen Person in ihrer neuen „hybriden“ Lebensform aus digitalen und nicht-digitalen Elementen. Dabei soll die Frage nach der digitalen Identität von Maschinen hier vorerst ausgeklammert und erst in einem späteren Kapitel behandelt werden. Dieser heute nötige historische Lernprozess hin zu digitaler Identität umfasst dabei individuelle, kollektive und politische Ebenen. Soziologische Lebenslagen und biografisch bedingte Alterskohorten spielen in diesem Zusammenhang eine größere Rolle als sonst, weil es vor 30, 50 und 70 Jahren eine digitale Welt nur in Ansätzen gegeben hat.

160

Digitale Identität als historischer Lernprozess

Die heute alltagsprägenden Plattformen wie Facebook, YouTube, Instagram, WhatsApp und andere gab es noch vor 20 Jahren gar nicht. Dass Menschen mit ihren persönlichen digitalen Daten „bezahlen“, ist ein historisch gesehen ziemlich neues Konzept. Der zivilisatorische Prozess der Herausbildung demokratischer Gesellschaften hat beispielsweise zu anerkannten Spielregeln im Verhältnis von Privatheit und Öffentlichkeit geführt. Zu diesen Regeln gehören das Postgeheimnis, die Unverletzlichkeit der Wohnung, aber auch die Meinungsfreiheit. Über den individuellen Prozess des Lernens rund um die eigene digitale Identität benötigen wir in den folgend genannten drei ­exemplarischen Bereichen auch neue öffentliche und politische Lernprozesse. Denn der Versand einer E-Mail entspricht in der Sprache des Postverkehrs einer offenen Postkarte. Die Unverletzlichkeit der Wohnung wird durch Geotagging, also die digitale Standortbestimmung, zumindest herausgefordert. Und in Zeiten von Hass und Beleidigung im Internet sind die Grenzen der digital geformten Meinungsfreiheit neu zu diskutieren, bis sie am Ende in allgemeingültige juristisch wirksame Gesetze gefasst werden können. Das am 18. Juni 2020 im Deutschen Bundestag beschlossene Gesetzesvorhaben zum „Netzwerkdurchsetzungsgesetz“ (NetzDG) mit dem Ziel einer schärferen Bestrafung von Beleidigungen, Bedrohungen und Hassreden im Internet ist ein Indiz dafür, dass entsprechende Forderungen mit einem gewissen Zeitverzug auch in der Politik ankommen. Lernprozesse sind in aller Regel ergebnisoffen. Sie können abgebrochen werden. Sie können zu einem Konsens über wünschbare Ergebnisse ebenso wie zu dauerhaftem Dissens führen. Genau aus diesem Grund lohnt es sich, am Ende dieses Kapitels zum Thema der digitalen Identität über sinnvolle Kriterien für individuelle und kollektive Lernprozesse rund um diese digitale Identität zu reflektieren. Solche Kriterien können dann zur Bewertung von Chancen und Risiken, Handlungsoptionen und Grenzen herangezogen werden. 161

4.  Digitale Identität

Wir können dann im Sinn einer Kritik der digitalen Vernunft und im Vorgriff auf die Analyse der Bedeutung der digitalen Transformation für das Berufsleben (Kapitel 5), für die Politik (Kapitel 6) und für Ethik und Religion (Kapitel 7-8) folgende Fragen stellen, die zum Prüfstein gelingender digitaler Identität werden können: –– Fördert eine bestimmte digitale Praxis auf lange Sicht das friedliche Zusammenleben aller? –– Fördert oder hemmt sie demokratische Prozesse? –– Fördert oder hemmt sie Selbstbestimmung und Freiheit der handelnden und der darüber hinaus betroffenen Personen? Diese Fragen sind im Horizont der humanistischen und demokratischen Tradition Europas klassisch. Sie sind aber nicht überflüssig und kein weltweiter Konsens: Denn sowohl in der digitalen wie in der realen Welt gibt es sehr wohl nicht-humanistische (etwa transhumanistische), und ganz gewiss auch nicht-demokratische bis autoritäre Konzepte. Der Lernprozess auf dem Weg zu einem „guten Leben“ im Sinn gelingender persönlicher und öffentlich-politischer Identität ist also erst noch zu gestalten, auch im Ringen zwischen unterschiedlichen Ansätzen und Lösungswegen.

Literatur Theodor W. Adorno, Jargon der Eigentlichkeit, Zur Kritik der deutschen Ideologie, Frankfurt/M.: Suhrkamp 1964 Homi Bhabha, Die Verortung der Kultur, Tübingen: Stauffenburg Verlag 2000 Homi Bhabha, Über kulturelle Hybridität, Tradition und Übersetzung, Wien/Berlin: Turia + Karl 2012

162

Literatur

Eike Bohlken, Christian Thies (Hrsg.), Handbuch Anthropologie, Der Mensch zwischen Natur, Kultur und Technik, Stuttgart: J.B. Metzler 2009 Heinz-Ulrich Brinkmann, Haci-Halil Uslucan (Hrsg.), Dabeisein und Dazugehören, Integration in Deutschland, Wiesbaden: Springer 2013 Ann Cavoukian, Privacy by Design, Origins, Meaning, and Prospects for Assuring Privacy and Trust in the Information Era, in: George O. M. Yee (Hrsg.), Privacy Protection Measures and Technologies in Business Organizations, Aspects and Standards, Hershey: IGI Global, 2012, S. 170-208 Sascha Dickel, Enhancement-Utopien, Soziologische Analysen zur Konstruktion des Neuen Menschen, Baden-Baden: Nomos 2011 Jochen Dubiel, Dialektik der postkolonialen Hybridität, Die intrakulturelle Überwindung des kolonialen Blicks in der Literatur, Bielefeld: Aisthesis Verlag 2007 Ulrich Eberl, Smarte Maschinen, Wie künstliche Intelligenz unser Leben verändert, München 2016 Naika Fouroutan, Hybride Identitäten, in: Heinz-Ulrich Brinkmann, Haci-Halil Uslucan (Hrsg.), Dabeisein und Dazugehören, Integration in Deutschland, Wiesbaden: Springer 2013, S. 85-89 Erich Fromm, Die Kunst des Liebens, 17. Auflage, München: dtv 2018 (original: 1956) Joachim Funke, Bianca Vaterrodt, Was ist Intelligenz? 2. überarbeitete Auflage München: C. H. Beck 2004 Arne Grävemeyer, Datensammler entdecken die DNA ihrer Kunden als Kapital, ct (= Magazin für Computertechnik), www.heise.de/ct/ artikel/Datensammler-entdecken-die-DNA-ihrer-Kunden-als-Kapital-4657117.html (abgerufen am 19. Februar 2020) Oskar Josef Gstrein, Das Recht auf Vergessenwerden als Menschenrecht, Hat Menschenwürde im Informationszeitalter Zukunft? Baden-Baden: Nomos 2016

163

4.  Digitale Identität

Harald Haarmann (Hrsg.), Sprachenstatistik in Geschichte und Gegenwart, Hamburg: Buske 1979 Martin Hartman, Vertrauen, Die unsichtbare Macht, Frankfurt am Main: S. Fischer 2020 Martin Heidegger, Sein und Zeit, Tübingen: Niemeyer 1927, 19. Auflage 2006 Ulrich Hemel, Der Weg der digitalen Balance: Digitalisierung als Herausforderung der Menschlichkeit, in: Ulrich Hemel (Hrsg.), Weltethos für das 21. Jahrhundert, Freiburg/Br.: Herder 2019, S. 212-219 Ulrich Hemel, Unterscheidet die Fähigkeit zur Ökonomie den Menschen vom Tier? Eine Auslegung im Horizont menschlicher Symbolfähigkeit, in: Ulrich Lüke, Georg Souvignier (Hrsg.), Der Mensch – ein Tier, Und sonst? Interdisziplinäre Annäherungen (=Quaestiones Disputatae 307), Freiburg/Br. 2020, S. 152-162 Martina Heßler, Kevin Liggier (Hrsg.), Technikanthropologie, Handbuch für Wissenschaft und Studium, Baden-Baden: Nomos 2019 Michael Hettinger, Die „Actio libera in causa“ – Strafbarkeit wegen Begehungstat trotz Schuldunfähigkeit? Eine historisch-dogmatische Untersuchung, Berlin: Duncker & Humblot 1988 James Kozubek, Modern Prometheus, Cambridge: Cambridge University Press 2016 Ulrich Lüke, Georg Souvignier (Hrsg.), Der Mensch – ein Tier. Und sonst? Interdisziplinäre Annäherungen (= Quaestiones Disputatae 307), Freiburg/Br. 2020 Viktor Mayer-Schönberger, Delete, Die Tugend des Vergessens in digitalen Zeiten, Berlin: Berlin University Press 2010 Wolfgang Mertens, Psychoanalyse, Geschichte und Methoden. 4. aktualisierte Auflage, München: C. H. Beck 2008 Catrin Misselhorn, Grundfragen der Maschinenethik, Stuttgart: Reclam 2018

164

Literatur

Armin Nassehi, Theorie der digitalen Gesellschaft, München: C.H.Beck, 2019 Wolfhart Pannenberg, Anthropologie in theologischer Perspektive, Göttingen: Vandenhoeck & Ruprecht 1983 Bernhard Pörksen, Die große Gereiztheit, Wege aus der kollektiven Erregung, München: Hanser 2018 Hans Rosling, Factfulness, Wie wir lernen, die Welt so zu sehen, wie sie wirklich ist, Berlin: Ullstein 2018 Edward Said, Orientalismus, Frankfurt/M.: S. Fischer 2009 (original engl. 1978) Hans Schilling, Bildung als Gottesbildlichkeit, Eine motivgeschichtliche Studie zum Bildungsbegriff, Freiburg/Br.–Basel–Wien: Herder 1961 (= zugleich Habilitation 1958, Universität München) Eberhard Schmidhäuser, Die actio libera in causa, Ein symptomatisches Problem der deutschen Strafrechtswissenschaft, Göttingen: Vandenhoeck & Ruprecht 1992 Sarah Spiekermann, The Challenges of Privacy by Design, in: Communications of the ACM, 55, 2012, Bd. 7, S. 38-40. Hans-Joachim Störig, Die Sprachen der Welt, Geschichte, Fakten, Geheimnisse, Köln: Anaconda 2012 René Weiland (Hrsg.), Philosophische Anthropologie der Moderne, Weinheim: Beltz 1995 Martin Welker, Verehren, Sammeln, Zerstreuen, Zerstören, Vorarbeiten zu einer Theorie des Vergessens im digitalen Zeitalter, in: Hektor Haarkötter, Jörg-Uwe Nieland (Hrsg.), Nachrichten und Aufklärung, Medienund Journalismuskritik heute, Wiesbaden: Springer 2018, S. 89-114 Jonathan Wolpaw, Elizabeth Winter Wolpaw (Hrsg.), Brain-Computer Interfaces: Principles and Practice, Oxford: Oxford Univ. Press 2012

165

5.  Digitale Arbeit Die digitale Transformation verändert den gesellschaftlichen Alltag fundamental. Über diese Einsicht besteht weithin Konsens. Unklar ist aber, wie die Veränderung aussieht und was sie bedeutet. Besonders dann, wenn technische Entwicklungen soziale Folgen haben, blühen utopische und dystopische Spekulationen auf. Bekannt wurde beispielsweise eine Studie, welche durch die grundsätzliche Digitalisierbarkeit von Arbeitsplätzen ein Rationalisierungspotenzial von rund 50% bestimmte (C. Frey, M. Osborne 2017, 114, 254-280). Solche Studien schüren Ängste vor massiven Arbeitsplatzverlusten. Übersehen wurde aber häufig, dass „grundsätzliche Eignung“ noch lange nicht heißt, dass (a) sich der Ersatz ökonomisch lohnt, dass (b) er im komplexen System eines Unternehmens sinnvoll ist oder dass (c) sich die Substitution in der vorgeplanten Geschwindigkeit vollzieht. Bleiben wir beim Thema „Geschwindigkeit der Veränderung“. Eine interessante Analogie bietet das vor vierzig Jahren geflügelte Wort vom „papierlosen Büro“. Es war Gegenstand zahlreicher witzig gemeinter Bemerkungen, gerade weil sich der technische Wandel doch nicht so schnell zu vollziehen schien wie erwartet. Trotzdem war das Ziel sinnvoll und nachvollziehbar, wenn auch mit einer gewissen Paradoxie. Denn mit dem Aufkommen der IT am Arbeitsplatz kam es in zahlreichen Firmen zunächst zu einer Doppelung. Dokumente wurden dann sowohl in Papierform wie in elektronischer Form gespeichert. Erst nach einem gewissen Gewöhnungseffekt wuchs das Zutrauen zu elektronischen Speichermedien. Software für Dokumentenmanagement wurde immer beliebter. Die Archivierung in Papierform gilt 167

5.  Digitale Arbeit

heute als teuer und überwiegend veraltet. So haben sich die Verhältnisse schließlich doch umgekehrt. In deutschen Vorständen und Geschäftsführungen war es noch vor 20 Jahren üblich, sogenannte „Tischvorlagen“ vorzubereiten, also ausgedruckte Papiere als Diskussions- und Beschlussvorlage. Konservative Unternehmensleiter übten Kritik an Tischvorlagen, weil sie den Versand von Sitzungsunterlagen 14 Tage vor der Sitzung für zweckmäßiger hielten, auch mit Blick auf deren gründliche Lektüre. Heute ist schon das Wort „Tischvorlage“ erklärungsbedürftig. Bringt wirklich jemand ausgedruckte Papiere zu einem Management-Meeting mit, wird regelmäßig nachgefragt, ob man diese auch elektronisch haben könne. Der „digitale Zwilling“ gilt mehr als das „analoge Original“. Denn das Gefühl der „Sicherheit“ hat sich verändert: Als sicher gilt, was ich gut und sicher (am besten in einer firmeneigenen Cloud) abspeichern kann, ganz anders als das ausgedruckte Papier-Dokument, das leicht verloren geht und das im Grunde oft ganz überflüssig ist. Anders gesagt: Erklärungsbedürftig ist nicht der Terminkalender im Outlook-Programm, sondern der Terminkalender in Papierform. Damit soll zum Ausdruck gebracht werden, dass die Wirkung technologischer Veränderungen häufig in der Richtung absehbar, in Form und Geschwindigkeit aber unklar ist. Abgesehen davon sind technologische Entwicklungen von der Dynamik der Märkte, von politischen Großwetterlagen und anderen Einflussgrößen abhängig.

Regeln, Steuern, Organisieren: Die digitale Transformation in der Arbeitswelt Für die Arbeitswelt heißt dies, dass Substitutionseffekte tatsächlich anstehen werden, auch wenn wir ihre Geschwindigkeit nicht kennen.

168

Regeln, Steuern, Organisieren: Die digitale Transformation in der Arbeitswelt

Umgekehrt wissen wir aber nicht, welche neuen Arbeitsplätze entstehen, von denen wir heute noch nichts oder wenig ahnen. Dass Hacker als IT-Sicherheitsexperten auf dem Arbeitsmarkt nachgefragt würden, war bei deren Entstehung in den 80er-Jahren des letzten Jahrhunderts nicht absehbar. Damals gab es aber auch keinen so ausgeprägten Online-Handel, also auch keine SEO- oder SEM-Experten, keine Data Scientists und keine Social Media Manager. Insgesamt zeigen die verfügbaren Daten, dass der Bedarf an neuen, IT- und digital affinen Arbeitsplätzen stetig ansteigt und zahlenmäßig womöglich die entfallenden Arbeitsplätze kompensiert. Für denjenigen Arbeitnehmer, dessen Job gerade wegfällt, ist dies nur ein geringer Trost. Denn Struktur und Qualifikationsprofil neuer Arbeitsplätze unterscheiden sich ja von bisherigen. Selbst dann, wenn es scheinbar um die gleiche Tätigkeit geht, etwa die eines Lagermitarbeiters, ist die tiefe Durchdringung mit digitalen Inhalten frappierend. Wer heute zu Fuß und ohne Handscanner in einem Lager arbeitet, bei dem die Waren auf fest zugeordneten Lagerplätzen liegen, der lebt noch im vergangenen Jahrhundert. Denn tatsächlich entsteht mit der Digitalisierung der Arbeitswelt eben auch eine Spirale der hochgeschraubten Anforderungen (vgl. Th. Köhler, Th. Köster 2019, W. Lachmann, H. Jung, C. Müller 2018). Im mir gut bekannten Bereich der Medizinprodukte und der Pharmaindustrie gab es produktseitig in den letzten 25 Jahren rasante Veränderungen. Im letzten Jahrtausend wurde beispielsweise ein Pflaster gefertigt, verpackt, gelagert und ausgeliefert. Dann war es technisch möglich und organisatorisch zumutbar, die Produkte mit einem Mindesthaltbarkeitsdatum und einer Chargennummer zu versehen. Dadurch wurde die Bestandsführung nach Chargen in der Lagerhaltung immer wichtiger: Es war wichtig, darauf zu achten, wann welches Produkt abläuft. Also musste man auch das „First in, first out“ berücksichtigen, sodass vermieden wurde, dass 169

5.  Digitale Arbeit

„weiter hinten im Regal“ gelagerte Artikel ablaufen, ohne gebraucht zu werden. Der funktionale Wert eines Pflasters hat sich durch die digitale Erfassung von Produktdaten „rund um das physische Produkt“ nicht verändert: Das Pflaster selbst ist durch zusätzliche digitale Information nicht besser geworden. Und doch will niemand mehr das Gefühl der „Sicherheit“ missen, das durch aufwendige Dokumentation erreicht werden kann. Im Rahmen einer „Kritik der digitalen Vernunft“ ist allerdings die Beobachtung sinnvoll, dass zunehmende digitale Möglichkeiten auch steigende Anforderungen nach sich ziehen. Dies gilt auch dann, wenn der Zusatznutzen noch weiterer Dokumentation oft eher gering ist. „Der Appetit kommt beim Essen“, hätte man früher gesagt. Bei Arzneimitteln geht die Entwicklung aktuell noch weiter. Wenn ein Patient morgen seine Tablette erhält, ist auf dieser nicht nur eine Chargennummer vermerkt, sondern es wird die individuelle Seriennummer der Tablette erfasst. Herr Müller erhält also beispielsweise die Tablette Nr. 4322 von 10.000 Stück der Chargennummer 4711 mit Fertigung vom 29. Februar 2020. Die zunehmende Komplexität der Arbeitsinhalte durch immer stärker digital geprägte Abläufe ist eine Tatsache. Für die einzelnen Arbeitnehmer und Arbeitnehmerinnen bedeutet dies zwangsläufig, dass sie neben dem „Training on the Job“ immer stärker auf die eigene Fort- und Weiterbildung zu achten haben. Wem dies nicht gelingt, der stößt an die Grenzen der eigenen Beschäftigungsfähigkeit oder „Employability“, so wie im Fall einer 62-jährigen Sachbearbeiterin, die nach langer Betriebszugehörigkeit sehr kurzfristig aus ihrem Betrieb ausscheiden wollte, weil sie die anstehende Systemumstellung nicht mehr mitmachen wollte und konnte. Im 20. Jahrhundert galt lange das Prinzip der Betriebstreue, idealerweise mit ein und demselben Arbeitgeber „vom Beginn bis zum Ende der Berufstätigkeit“. In den letzten 20 Jahren wurde dies all-

170

Regeln, Steuern, Organisieren: Die digitale Transformation in der Arbeitswelt

mählich durch die zunehmende Normalität einer Abfolge von Beschäftigungen bei unterschiedlichen Arbeitgebern abgelöst. Heute geht die Entwicklung noch weiter: Denn selbst in ein und demselben Beruf ändern sich die Arbeitsinhalte innerhalb von fünf bis zehn Jahren massiv und radikal, und zwar ganz überwiegend durch den Veränderungstreiber der digitalen Transformation. Dem dafür nötigen Lernprozess kann sich niemand entziehen, der im Arbeitsleben bleiben möchte. Daraus folgt die Einsicht in die Doppelstruktur der aktuellen Veränderungen: Die digitale Transformation „der“ Arbeitswelt ist zu ergänzen durch die digitale Transformation „in der“ Arbeitswelt. Der Strukturwandel bei der Nachfrage nach Arbeitskräften verschiebt sich bei der Transformation in der Praxis der Arbeitswelt in die Richtung des Regelns, Steuerns und Organisierens, sodass speziell ungelernte und angelernte Berufe unter Druck geraten. Interessanterweise entspricht dieser Befund dem Leitbegriff der Steuerung und Rückkopplung aus den Anfängen der digitalen Zeit, als der Begründer der Kybernetik, Norbert Wiener (1894-1964), seine ersten Analysen vorlegte. Kybernetik sollte die Wissenschaft vom „Steuern und Regeln“ sein (vgl. N. Wiener 1952). Sie hat sich in der Zwischenzeit in zahlreiche Teildisziplinen hinein entfaltet, etwa in die technische, die biologische und die medizinische Kybernetik, und ist auch der Hintergrund für das häufig verwendete Präfix „Cyber“ so wie etwa im Cyberspace. Der im Begriff mitschwingende Optimismus der funktionalen Kontrolle stößt allerdings ebenso wie der Gedanke der Soziokybernetik im Sinn gesellschaftlicher Steuerung immer wieder an Grenzen. Die fortschreitende Automatisierung und digitale Transformation in den funktionalen Zusammenhängen der Arbeitswelt hat zwar eine Reihe sozialer und politischer Auswirkungen. Diese sind allerdings selten unmittelbar so geplant, wie sie sich ereignen. So wirkt die Frage nach dem Wandel und möglichen Wegfall von Arbeitsplätzen als 171

5.  Digitale Arbeit

ein Treiber für die allgemeine Diskussion über ein bedingungsloses Grundeinkommen. Denn wenn es im Zug der digitalen Transformation eine geringere Nachfrage nach ungelernten und angelernten Arbeitskräften gibt, würde in einer Ökonomie nach dem Lehrbuch der Lohn sinken. Weil es aber um Menschen mit einer unverwechselbaren Menschenwürde geht, braucht es gesellschaftliche Ausgleichsmechanismen. Gemeint ist insbesondere eine politisch ausformulierte Idee darüber, welcher materielle und soziale Mindeststandard in einer Gesellschaft gelten soll. Nach heutigem Stand werden diese Mindeststandards durch den Mindestlohn auf der einen und die Bemessungsgrundlagen für die staatliche Sozialunterstützung zum anderen festgelegt; morgen geht es womöglich um die eine oder andere Ausgestaltung eines bedingungslosen Grundeinkommens. Während die digitale Transformation der Arbeitswelt strukturell eine Außensicht kennzeichnet, bezieht sich die digitale Transformation in der Arbeitswelt auf die inneren Veränderungen in der Arbeitswelt. Die digitale Transformation der Arbeit „in der“ Arbeitswelt zeigt sich daher u. a. an der Fähigkeit und Bereitschaft, neue Inhalte und Arbeitsformen zu erlernen. Betrachten wir auch hier ein zunächst scheinbar gar nicht naheliegendes Beispiel. So steigt in den europäischen Gesellschaften derzeit die Nachfrage nach Pflegekräften. Zugleich steigt der gesellschaftlich geforderte Dokumentationsaufwand in der Pflege. Wenn eine Altenpflegerin einer hochbetagten Bewohnerin ein Glas Wasser anbietet und diese ablehnt, ist die Arbeitsleistung nach aktuellem Stand noch nicht erbracht. Denn zur heutigen Anforderung gehört ein Trinkprotokoll, also ein eigener Dokumentationsschritt: „Getränk wurde Frau B. um 11.15 h angeboten, wurde von der Bewohnerin jedoch abgelehnt.“ Dass für eine solche Dokumentation die digitale Erfassung von Daten einen Fortschritt darstellt, lässt sich leicht verstehen. Dahinter 172

Regeln, Steuern, Organisieren: Die digitale Transformation in der Arbeitswelt

liegen aber Prozesse der Kapitalbeschaffung, der Investitionsentscheidung, der Implementierung von Systemen und der Schulung von Kräften, die nicht immer digital affin sind. Im Übrigen gilt auch hier: Der alten Dame, die gerade kein Wasser trinken will, geht es durch zusätzliche Dokumentationsschritte weder besser noch schlechter! Die Transformation in der Arbeitswelt ist also aus verschiedenen Gründen nicht trivial. Das Beispiel einer „elektronischen Pflegedokumentation“ kann darüber hinaus die Augen dafür öffnen, dass die digitale Transformation in einigen Fällen auch zu weiterer Marktkonzentration führen kann. Wir brauchen uns nur vorzustellen, dass der Gesetzgeber eines nicht allzu fernen Tages die elektronische Form der Pflegedokumentation verbindlich vorschreibt. Das wäre eine gute Nachricht für die Anbieter digitaler Pflegedokumentationssoftware, aber eine Hiobsbotschaft für viele kleinere Pflegeheimbetreiber. Denn die etwa 12.000 Pflegeheime in Deutschland teilen sich in kleine, mittelgroße und große Anbieter auf. Es gibt kommunale, kirchliche und privatwirtschaftliche Träger. Unter den privaten Trägern gibt es einige Pflegeheimketten mit kapitalkräftigen Investoren, aber insgesamt ist der Markt noch sehr fragmentiert. Das bedeutet konkret, dass es heute noch Tausende familiengeführter Pflegeheime gibt, die von ihrer Kapitalausstattung und Organisation her nur bedingt oder gar nicht in der Lage sind, in eine elektronische Pflegedokumentation zu investieren. Die digitale Transformation bietet daher zwar neue Chancen, erzeugt aber auch einen Konzentrationsdruck, der zum Ausscheiden kleinerer Anbieter oder zu deren Verkauf an größere Einheiten führen wird. Der bekannte Personalmangel in der Pflege wird darüber hinaus zu weiteren Schritten digitaler Innovation beitragen. Schon heute werden in Japan ohne großen Widerstand Pflegeroboter verwendet, die für einfachere Verrichtungen eingesetzt werden. Auch in Deutschland gibt es bereits Pilotversuche mit dem Roboter „Pepper“ oder der

173

5.  Digitale Arbeit

Pflegerobbe „Paro“ (vgl. https://www.tagesschau.de/inland/pflege-roboter-101.html, abgerufen am 20. Juni 2020 um 12.04h). Werden in solche Roboter Kameras eingebaut, die mit entsprechender Auswertungssoftware gekoppelt werden, können diese auch Verhalten überwachen. Die Autorin Clarissa Henning erwähnt hier das Beispiel eines an Diabetes erkrankten Bewohners, der ein Stück Schokolade verzehrt (C. Henning 2019, 184). Die Autorin fordert auch in einem solchen Fall die Kontrolle der Nutzer über die Datenerhebung. Sie wirft damit die ethische Frage auf, wer in welchem Ausmaß Entscheidungen trifft und in welchem Ausmaß digitale Systeme bis hin zu humanoiden Robotern an solchen Entscheidungen beteiligt sein sollen (vgl. auch P. Grimm, O. Zöllner 2018). Es lohnt sich daher, die Frage nach der Interaktion zwischen Mensch und Maschine unter dem Gesichtswinkel einer Kritik der digitalen Vernunft genauer zu betrachten. Die Frage nach Möglichkeiten und Grenzen digitaler Entscheidungsmacht knüpft dabei in konkreter Anwendung auf die Arbeitswelt an die Gedankengänge aus Kapitel 3 an, in denen es um das Lernen und Entscheiden von Menschen und Maschinen ging.

Mensch-Maschine-Interaktion (I): Welcher Akteur entscheidet? Bleiben wir beim Beispiel der Pflegeroboter. Diese sind nämlich schon deshalb interessant, weil sie unterschiedliche Funktionen umfassen können, weil sie ganz offenbar ethische Fragen aufwerfen und weil sie im Extremfall an einen Übergang zwischen „schwacher“ und „starker“ Künstlicher Intelligenz rühren (vgl. S. Mokry, M. Rückert 2020). Die Interaktion mit einem Pflegeroboter ist ethisch nicht neutral und setzt Entscheidungen voraus, die sowohl die Privatsphäre des Bewohners oder der zu pflegenden Person wie auch das Arbeitsverhältnis 174

Mensch-Maschine-Interaktion (I): Welcher Akteur entscheidet?

der betroffenen Pflegekräfte betrifft (vgl. H. Fülling, G. Meier 2019). Von entscheidender Bedeutung ist dann die Frage, welche Entscheidung auf welcher Stufe des Eingreifens zu treffen ist. Dabei könnten wir recht einfach folgende Ebenen unterscheiden: 1. Die pflegebedürftige Person entscheidet alleine  (= Mensch 1) 2. Die Pflegekraft entscheidet alleine (= Mensch 2) 3. Die pflegebedürftige Person und die  Pflegekraft entscheiden gemeinsam  (= Mensch 1 und 2) 4. Die pflegebedürftige Person und die Maschine entscheiden gemeinsam  (= Maschine und Mensch 1) 5. Die Pflegekraft und die Maschine entscheiden gemeinsam  (= Maschine und Mensch 2) 6. Die Maschine „entscheidet“ alleine (= Maschine) Die „Dreierkombination“ einer Entscheidung beider menschlicher Personen gemeinsam mit der Maschine wird an dieser Stelle vereinfachend nicht berücksichtigt. Anders als bei der Erörterung der Entscheidungsmacht von Maschinen im vorletzten Abschnitt des dritten Kapitels über die sozialen Risiken maschineller Entscheidungen geht es hier um komplexere Interaktionen, an denen eine Maschine und zusätzlich ein oder zwei menschliche Personen beteiligt sind. Dabei ist das gewählte Beispiel scheinbar einfach: Es geht um den Verzehr von Schokolade durch einen hochbetagten, diabeteskranken Patienten, den ein Pflegeroboter erkennt. Und doch wirft der Umgang mit maschinengestützten Entscheidungen ernsthafte und wichtige Folgefragen auf, die nicht rein technischer Art sind. Dabei geht es nicht nur um die Qualität der Aktivität „Entscheiden“. Schließlich ist das Treffen einer Entscheidung nicht das Gleiche wie die Entscheidungsvorbereitung und auch nicht identisch mit der Ausführung einer Entscheidung. Außerdem ist bis heute ungeklärt, wann wir Menschen das Verb „entscheiden“ als Metapher für ent175

5.  Digitale Arbeit

scheidungsnahe Rechenvorgänge einer Maschine betrachten und wann wir tatsächlich meinen, eine Maschine könne im Vollsinn „entscheiden“ im Sinn der aktiven Bestimmung über einen zu wählenden Handlungspfad. Anders gesagt: Wie definieren wir, ab welchem Punkt Maschinen tatsächlich zu moralischen Akteuren werden (vgl. dazu: L. Brand 2018)? Wann also ist es richtig, maschinelle Entscheidungen als solche anzuerkennen? Denn dann könnten wir auf die distanzierenden Anführungszeichen verzichten, die den Unterschied zwischen einer faktischen Entscheidung und einem entscheidungsähnlichen maschinellen Vorgang markieren sollen. Gehen wir vereinfachend davon aus, die Maschine „entscheide“ tatsächlich, dann bleiben dennoch weitere Fragen offen. Wenn im Marionettentheater das Kasperle dem gefährlichen Krokodil grausam auf die Schnauze haut, „entscheidet“ ja nicht die Kasperlepuppe, sondern der Marionettenspieler über die auszuführende Handlung und die entsprechende Bewegung. Die große philosophische Frage wird es zukünftig also sein, ab welchem Niveau von Autonomie Maschinen so entscheiden, dass „Freiheit“ Teil ihrer Entscheidung ist. Digitale Maschinen sind dann eben nicht mehr die „Marionetten ihrer Programmierung, also „Programmierungsmarionetten“. Der Begriff „Freiheit“ bedeutet dann insbesondere, dass eine Entscheidung immer auch hätte anders ausfallen können. Denn Entscheidungen ohne Entscheidungsfreiheit über Alternativen sind weder Entscheidungen noch Ausdruck von Freiheit. Allein schon die Verwendung des Begriffs „Marionette“ als einer Gliederpuppe, die mit Fäden bewegt wird und ein Werkzeug ihres Puppenspielers ist, zeigt aber auch die Dialektik im Verhältnis von Mensch und digital gesteuerten Maschinen. Marionetten wirken ja in der Hand eines geübten Spielers außerordentlich lebendig. Sie erzeugen die Illusion eines Gegenübers, einer eigenständig handelnden Person, sind es aber nicht. Marionetten sind vielmehr frühe Formen eines Mensch-Werkzeug-Systems. Auch ein Pflegeroboter oder ein 176

Mensch-Maschine-Interaktion (I): Welcher Akteur entscheidet?

anderer Android steht nicht für sich, sondern ist von Haus aus das Ergebnis von Mensch-Werkzeug-Zusammenhängen im Rahmen von Materialauswahl, Programmierung und Parametrisierung. Neu ist nur die in der Wahrnehmung verschwimmende Grenze zwischen menschlichem Handeln und einer Form von Maschinen-Output, die als „Maschinenhandeln“ wahrgenommen wird. Anders und technischer ausgedrückt gelangen wir mit diesem Gedankengang zu einer weiterführenden Forderung, nämlich der nach einer Erweiterung des Turing-Tests in Richtung Maschinenautonomie. Beim Turing-Test können menschliche Akteure bekanntlich das Handeln von Maschinen nicht mehr von menschlichem Handeln unterscheiden. Der Begriff „Maschinenautonomie“ setzt allerdings noch einen weiteren Akzent, denn er fordert nicht vorher bestimmte maschinelle Entscheidungen. Ansonsten wäre ja die maschinelle „Entscheidung“ tatsächlich eine Folge von vorab getroffenen menschlichen Entscheidungen. Sie ähnelt dann den „Entscheidungen“ der Kasperlepuppe im Marionettentheater. Der Programmierer hätte hingegen trotz zeitlicher und räumlicher Distanz die Rolle des Marionettenspielers inne. Die Perspektive des menschlichen Marionettenspielers gilt selbst dann, wenn der menschliche „Puppenspieler“ in den Entscheidungsanteilen und der konkret getroffenen Entscheidung verschwimmt. Nehmen wir an, unser Pflegeroboter sei so programmiert, dass er für eine automatische Übertragung seiner Beobachtung über den Verzehr von Schokolade in ein Pflegeprotokoll sorgt. Die Maschine hat dann aber nichts entschieden, sondern einfach „funktioniert“ (vgl. dazu sehr klug A. Nassehi 2019, 196-227). Die „Puppenspieler-Entscheidung“ hinter der Funktion umfasst hingegen eine Fülle von menschlichen Vorentscheidungen, die im Sinn starker und schwacher Kausalität auf die Situation, genauer gesagt: auf das Funktionieren der einprogrammierten Funktion, Einfluss nehmen.

177

5.  Digitale Arbeit

Wenn wir das Konzept schwacher Kausalität, also auch indirekter, aber kausaler Einflussnahme auf Entscheidungen zulassen, dann öffnet sich ein weiteres Feld von Vorentscheidungen. Dabei mischen sich in der Anwendung digitaler Applikationen auf die Arbeitswelt soziale und physikalisch-technische Anfangsbedingungen in einer Art, die nicht ein-eindeutig zu quantifizieren ist (vgl. U. Eberl 2016, D. Burkard, H. Kohler, N. Kreuzkamp, J. Schmid 2019). In den Sozialwissenschaften spricht man daher aus guten Gründen lieber von Korrelation als von Kausalität. Der Begriff der Korrelation vermeidet die Behauptung eines kausalen Zusammenhangs, weist aber auf ein statistisches Maß der Verbundenheit hin. Im Alltag wird aber meist undifferenziert und in teilweise metaphorischer Sprache von Ursachen und Wirkungen gesprochen, selbst wenn das Gewicht eines einzelnen Faktors gering ist. Wenn wir den Gedanken einer direkten und indirekten Kausalkette von Entscheidungen einmal am Beispiel unseres Pflegeroboters mit der automatischen Übertragung von visuellen Beobachtungen durchspielen, könnten wir folgende Faktoren identifizieren, die zur Entscheidung beitragen: I. Der Programmierer der fraglichen Funktion II. Das Software-Entwicklungsteam, das die Entscheidung für die fragliche Funktion getroffen hat III. Der Teamleiter, Entwicklungschef und Geschäftsführer des betreffenden Unternehmens, der durch Fördern oder Unterlassen gehandelt hat, weil er die entsprechende Funktion gewünscht oder zumindest nicht verhindert hat IV. Die Investoren, Kapitalgeber, Banken und sonstigen Finanzierungsbeteiligten, die Geld in die Programmierung von Pflegerobotern mit Kontrollfunktion gesteckt haben

178

Mensch-Maschine-Interaktion (I): Welcher Akteur entscheidet?

V. Der Gesetzgeber des Landes, in dem die Firma zur Programmierung von Pflegerobotern ihren Sitz hat, weil dessen gesetzliche Vorgaben eine solche Programmierung ermöglichen VI. Internationale Organisationen wie die Welthandelsorganisation WTO, die Internationale Arbeitsorganisation (ILO), die NATO, die Weltbank, die UN und/oder einzelne Staaten, die durch das Setzen von Regeln oder das Unterlassen von Regelsetzung dort handeln, wo überwachende Pflegeroboter zum Gegenstand kommerzieller Transaktionen und praktischer Berufspraxis werden. Es ist typisch für jede Art sozialer Analyse, dass wir als Menschen gedanklich in der Lage sind, von kleinen Einheiten bis zum Weltganzen aufzusteigen. Denn natürlich ließe sich fragen, ob unser 87-jähriger Diabetespatient Klaus Möller, der ein Stück Schokolade verzehrt, Gegenstand von Betrachtungen auf der Ebene von Weltbank, UN und G20 werden sollte. Hintergrund der Analyse ist aber nicht die naheliegende Einsicht, dass alles mit allem zusammenhängt, sondern der Aufweis der sozialen Verwobenheit menschlicher Entscheidungen auch dann, wenn sie durch Maschinen ausgelöst werden. Der „kausal wirksame Handlungsbeitrag“ der verschiedenen Ebenen nimmt natürlich mit dem Maß ihrer Allgemeinheit ab. Dafür gibt es weitere, pragmatische Handlungsbeiträge, ohne die unser Pflegeroboter keine Meldung über das verzehrte Stück Schokolade abgeben könnte. Im Sinn „schwacher Co-Kausalität“ könnte die Funktion des Pflegeroboters ohne folgende zusätzliche Entscheidungsträger nicht operativ werden: VII. Die Einkäufer des Pflegeroboters im Pflegeheim VIII. Die mit der technischen Feineinstellung oder Parametrisierung betrauten Personen 179

5.  Digitale Arbeit

IX. Die Entscheidungsträger für den Aufenthalt des hochbetagten Bewohners in genau diesem Pflegeheim, typischerweise er persönlich oder seine Familienangehörigen X. Der hochbetagte Bewohner, Herr Möller, selbst, der das Funktionieren des überwachenden Pflegeroboters zulässt und die Funktion nicht stört oder sabotiert. Gezeigt werden soll mit dieser Aufstellung, dass das Funktionieren einer Maschine nicht ohne soziale, politische und höchstpersönliche Handlungsanteile gedacht werden kann. Das Ausmaß der Zurechnung ethischer Entscheidungen in quotalen Anteilen wäre eine eigene Diskussion wert, die hier aber nicht zu führen ist. Die explizite Nennung unterschiedlicher Ebenen und hoch unterschiedlicher Akteure „hinter“ einer maschinellen Aktion, die als „Entscheidung“ gedeutet wird, findet ihre spezielle Bedeutung in der Diskussion rund um Maschinen als moralischen Akteuren. Da sich Fragen rund um Maschinen als „moralischen Akteuren“ speziell in der Arbeitswelt stellen, lohnt es sich, etwas näher auf die zugrundeliegende Frage einzugehen. So unterscheidet Catrin Misselhorn (2018, 70-72) in diesem Zusammenhang und in Anlehnung an James H. Moor (2006, 18-21) vier verschiedene Stufen moralischer Akteure bei Maschinen: –– Stufe 1: Maschinen mit moralischen Auswirkungen (Ethical Impact Agents) –– Stufe  2: Maschinen mit impliziten Werthaltungen (Implicit ­Ethical Agents) –– Stufe 3: Maschinen mit ausdrücklich ethischen Entscheidungen (Explicit Ethical Agents) –– Stufe  4: Ethisch voll verantwortliche Maschinen (Full Ethical Agents).

180

Mensch-Maschine-Interaktion (I): Welcher Akteur entscheidet?

Solche Aufstellungen sind grundsätzlich der Versuch, Ordnung in unübersichtlichen Zusammenhängen zu schaffen. Es sind Vorschläge zu einer Taxonomie, also einer Ordnung der Dinge, die auch anders gedacht werden kann, etwa mit Blick auf „ko-kausale“ Verursachungen zweiter, dritter oder nachgelagerter Ordnung wie im oben ausgeführten Fallbeispiel. Die Taxonomie von H. Moor betrachtet jedenfalls ausschließlich die Ebene der Maschine. Zu Stufe 1 gehört beispielsweise eine Verkehrsampel. Sie greift schließlich in menschliches Handeln ein und hat moralische Auswirkungen („impact“), etwa mit Blick auf die Zuweisung der Schuld bei einem Unfall nach Überfahren des Rotlichts. Wenn jemand das Auge der philosophischen Kritik einsetzt, dann ließe sich allerdings über die Abgrenzung von Stufe 1 und 2 trefflich streiten. Ist das Rotlicht der Ampel nicht etwa eine implizite Werthaltung? Dann müsste es der Stufe 2 zugeordnet werden. Oder bleiben wir nicht eben doch auf Stufe 1, weil die Maschine als solche erst durch ihre Deutung in einem sozialen Handlungskontext moralische Auswirkungen entfaltet? In der Diskussion über Maschinenethik wird für Stufe 2 eher auf Maschinen wie Geldautomaten, Glücksspielautomaten oder Alarmsignale verwiesen, etwa deshalb, weil Geldautomaten die Legitimation zum Geldabheben überprüfen, weil Glücksspielautomaten mit der Werthaltung der Förderung des Glücksspiels verbunden sind oder weil Warneinrichtungen den Wert der Warnung vor Gefahr verkörpern. Stufe 3 bezieht sich auf die ausdrückliche Verarbeitung ethisch relevanter Information. Man kann die Ergebnisse solcher Programmierung als Entscheiden und Handeln auf der Grundlage moralischer Abwägung betrachten (vgl. C. Misselhorn 2018, 71). Zumindest dann, wenn Freiheitsgrade der Abwägung und Entscheidung nicht vorgesehen sind, ist die korrekte Berechnung eines moralischen Entscheidungspfads auf der Grundlage gegebener ethischer und situativer

181

5.  Digitale Arbeit

Prämissen aber immer noch eher das Lösen einer Rechenaufgabe als ein eigenständiges ethisches „Entscheiden“. Stufe 4 wiederum macht sehr hohe Voraussetzungen und führt zur Frage eines „Maschinenbewusstseins“ oder gar einer Maschinenpersönlichkeit. Das aber ist nach heutigem Stand noch spekulativ (vgl. auch C. Misselhorn 2018, 72). Wir werden die entsprechenden Fragen in Kapitel 8 ausführlicher aufgreifen. Ob die verbleibenden Unterscheidungen für eine Taxonomie ausreichen und wirklich treffsicher sind, das ist eine andere Frage. Hier geht es auch nicht um den Ausdruck von Skepsis gegenüber maschinellen Formen der Entscheidungsvorbereitung oder der vermeintlichen Entscheidung. Denn tatsächlich „funktionieren“ Maschinen sehr wohl als Taktgeber menschlichen Handelns. Aus der Kollaboration von Menschen und Robotern hat sich folglich der Gedanke der „Cobots“ entwickelt, also der helfenden, unterstützenden „kollaborativen“ Roboter. Dieser interagiert unmittelbar mit Menschen. Für diese Cobots gibt es bereits eigene sicherheitstechnische Standards wie z. B. ISO 10218/1 oder ISO/TS 15066. Entscheidend ist am Ende die konkrete Ausfaltung des Verantwortungsbegriffs, die sich auf neue Herausforderungen einstellen muss. Oft genug geht es ja nicht einfach um ein Stück Schokolade oder eine Ernährungsdiät bei Diabetes wie im erwähnten Beispiel. So sind maschinelle „Entscheidungen“ bei einer Kreditvergabe genau dann höchst wirksam, wenn Sachbearbeiter sich auf Systemzwänge berufen oder wenn menschliche Interaktionspartner für einen Antragsteller gar nicht mehr zur Verfügung stehen. Ausgehend von Hans Jonas (1903-1993) ist Verantwortung zu einem Leitbegriff der ethischen Kultur in den letzten fünfzig Jahren geworden (H. Jonas 1979, vgl. auch N. A. Vincent, I. Van de Poel, J. van den Hoven 2011). In den letzten Jahren ist der frühere Begriff der individuellen und persönlichen Verantwortung deutlich ausgeweitet worden und umfasst nun auch soziale, ökologische und 182

Mensch-Maschine-Interaktion (I): Welcher Akteur entscheidet?

transgenerationale Perspektiven, also die Verantwortung vor und für Mitwelt, Umwelt und Nachwelt (vgl. U. Hemel 2019). Die konkrete inhaltliche Bestimmung dessen, was als verantwortliches Handeln gelten soll, bleibt aber häufig umstritten, einfach weil in einer freien Gesellschaft unterschiedliche ethische Vorstellungen miteinander und nebeneinander existieren. Gesetze grenzen zwar legale und illegale Handlungen voneinander ab. Unterschiedliche Staaten – etwa Deutschland und die USA – haben aber auch unterschiedliche Gesetze. Es bleibt folglich nur der Weg, nach übergreifenden Leitlinien zu suchen und verantwortliche Akteure so gut es geht in ihrer ethischen Urteilskraft, Sprach- und Handlungsfähigkeit zu stärken. Dies gilt auch für die Verantwortung derjenigen Personen, die hinter maschinell generierten „Entscheidungen“ stecken. Im Sinn der oben ausgeführten Umfeldanalyse zu unserem Pflegeroboter geht es also über Programmierer und Informatiker hinaus um Entscheidungen konkreter Menschen wie Managern, Investoren und Politikern, die an der Gesetzgebung mitwirken. Selbst bei einem maschinell generierten ablehnenden Kreditbescheid geht es nicht allein um das Funktionieren der Maschine durch einen Output, der als Entscheidung gelten soll. Es geht vielmehr um die Wahrnehmung von Menschen als soziale Wesen, um ihre Beachtung als Person, um das, was letzten Endes mit „Menschenwürde“ bezeichnet wird. Wenn es nämlich richtig ist, dass Menschen generell nicht als Gegenüber von Maschinen, sondern als Mitmenschen betrachtet werden sollen, dann darf das Sprechen über Menschenwürde nicht vom Diskurs über Maschinenethik abgekoppelt werden. Es gibt eben in jeder Gesellschaft, gleich auf welcher technologischen Entwicklungsstufe, eine Art „Politik der Würde“ (A. Margalit 2012) und ein lebendiges Gefühl für Fairness oder ihr Gegenteil (vgl. N. Copray 2010, U. Wiek 2018). Zu einer solchen Politik der Würde gehören erkennbare Mindeststandards und Zugangsrechte, etwa das Zugangsrecht zu Bildung 183

5.  Digitale Arbeit

und zu Leistungen des Gesundheitswesens, aber auch ein materieller und ein sozialer Mindeststandard, ausgedrückt in Mindestlöhnen, Sozialleistungen, Arbeitsschutzgesetzen und demokratischen Teilhaberechten. Wenn dies so ist, dann ist speziell die Welt der Arbeit der Ort, an dem Menschen ihr Verhältnis zur Technik auch in Gestalt der Mensch-Maschine-Interaktion ethisch zu überprüfen und zu gestalten haben (vgl. auch A. Grunwald 2019). Speziell die Werte von Fairness und Transparenz sind dabei immer wieder neu durchzudeklinieren. So könnte beispielsweise der Pflegeroboter von Herrn Möller, unserem 87-jährigen Schokolade essenden Bewohner eines Pflegeheims, einen Knopf oder ein Bedienelement haben, das Transparenz schafft und Auskunft über ausgeführte Aktionen und übermittelte Entscheidungen gibt. Über eine Stimmausgabe oder visuell auf dem Display oder Bedienfeld könnte dann mitgeteilt werden: „Ihr Schokoladenverzehr wurde erfasst und an Ihre Pflegedokumentation übermittelt, weil Schokolade in Ihrer Diät einen Risikofaktor darstellt.“ Noch deutlicher käme die menschliche Autonomie dann zum Ausdruck, wenn Herr Möller zusätzlich die Wahl hätte, die erörterte Diskussion komplett auszuschalten, etwa weil er die genannte Information gerade nicht weitergeben will und bewusst von seinem Menschenrecht, falsche Entscheidungen zu treffen, Gebrauch macht. Im Fall der Ablehnung einer Kreditvergabe durch ein maschinelles Scoringsystem könnte es in ähnlicher Art und Weise eine Begründungspflicht geben, die zwingend (also „gesetzlich vorgeschrieben“) durch einen Menschen erfüllt werden müsste. Ein abgelehnter Antragsteller hätte dann das Recht auf persönliche Interaktion mit einem anderen, grundsätzlich auskunftsfähigen Menschen. Ein Gegenargument zu solchen Vorkehrungen würde lauten, dass die Kreditentscheidung dadurch nicht anders ausfiele und dass einer Bank dann höhere Kosten entstehen würden. Darüber hinaus ist die Erfahrung übel gelaunter und bisweilen desinteressierter Callcen184

Mensch-Maschine-Interaktion (II): Diagnostik, Kontrolle oder Kollaboration?

ter-Mitarbeiter nichts Neues in der Welt. Es sollten also keine allzu hohen Erwartungen geweckt werden. Und doch ist die Forderung nach einer „zwischenmenschlichen Interaktion“ bei wichtigen Entscheidungen durchaus bedenkenswert. Denn maschinell vorbereitete oder gar gefällte Entscheidungen werden nicht dadurch unmenschlich, dass sie sich auf die technischen Hilfsmittel einer Rechenmaschine stützen, sondern eher dadurch, dass Menschen mit ihnen allein gelassen werden. Menschen brauchen aber einen sozialen Austausch, sonst verkümmern sie. Eine durch einen Menschen mitgeteilte negative Entscheidung ist daher einer rein maschinellen Kommunikation ethisch, sozial und politisch vorzuziehen.

Mensch-Maschine-Interaktion (II): Diagnostik, Kontrolle oder Kollaboration? In der alltäglichen Arbeitswelt ist die Problematisierung von Handlungssträngen, bei denen Mensch und Maschine interagieren, schon wegen der Ausbildung von Routinen und Gewohnheiten weit weniger dramatisch, als es hier anhand eines Fallbeispiels aus der Pflege geschildet wurde. Dies ist auch deshalb der Fall, weil im Bildungs-, Sozial- und Gesundheitsbereich immer wieder Schnittstellen zwischen dem unmittelbaren Alltagsleben betroffener Personen und dem professionellen oder professionell gemeinten Handeln entsprechend berufstätiger Personen auftreten. Denken wir zum Beispiel an die In-Line-Qualitätskontrolle von Verpackungsautomaten. Werden beispielsweise Aluminiumtuben für Arzneimittel bedruckt, ist es von Vorteil, wenn die Sichtkontrolle des Druckbildes nicht so langsam geschieht, dass sie durch ein menschliches Auge geleistet werden kann. Automatisierung und Rationali-

185

5.  Digitale Arbeit

sierung durch digitale Prüfoptik wirken sich in einem solchen industriellen Zusammenhang unmittelbar produktivitätssteigernd aus. Die Mensch-Maschine-Interaktion ist grundsätzlich nichts Neues. Schließlich kommt auch der Maschinenführer mit dem Fahrrad oder dem Auto zur Arbeit und bildet mit diesem ein Mensch-Maschine-System. Neu in der digitalen Welt ist zunächst einmal das schiere Ausmaß der generierten und ausgewerteten Daten. Das individuelle Fassungsvermögen eines menschlichen Hirns ist hier recht bald überfordert. Auch in der Auswertungsgeschwindigkeit sind Hochleistungsrechner dem Menschen weit überlegen. Durch die Fortschritte der Künstlichen Intelligenz ersetzen Maschinen aber auch immer häufiger die menschliche Urteilskraft. Bei der Krebserkennung sind gut ausgelegte Programme der Künstlichen Intelligenz in der Zwischenzeit besser als oder gleich gut wie erfahrene Radiologinnen und Radiologen. Im industriellen Bereich sind Programme der Predictive Maintenance, also der vorausschauenden Wartung oder „prädiktiven Instandhaltung“, aufgrund maschinell errechneter Verschleißdaten, dem Erfahrungswissen auch der besten Mitarbeiter inzwischen überlegen. In zahlreichen Anwendungsfällen verschwimmt dabei die Grenze zwischen Diagnostik und Kontrolle. Wenn ein Zustand als informationshaltig erkannt wird, also beispielsweise auf dem Röntgenbild, dann entsteht ein Befund, der zu weiteren Handlungen führt. Geht es um Krebs, werden weitere Untersuchungen ausgeführt oder Behandlungen eingeleitet. Geht es um Maschinen, werden Ersatzteile bestellt oder Wartungsarbeiten ausgeführt. Je stärker der Einsatz Künstlicher Intelligenz fortschreitet, umso deutlicher geht es nicht um punktuelle Informationen wie etwa „fehlerhaftes Druckbild auf einer Tube“, sondern um ganze Handlungsstränge oder Handlungspläne. Vorausgesetzt wird dabei freilich, wie auch in früheren, stärker vom Menschen geprägten Zusammenhängen, ein reichhaltiges Erfahrungswissen über unterschiedliche Fallausprägungen. Anders gesagt: 186

Mensch-Maschine-Interaktion (II): Diagnostik, Kontrolle oder Kollaboration?

Programme Künstlicher Intelligenz in der Arbeitswelt und darüber hinaus brauchen geeignete Trainingsdaten, um „sinnvoll“ vorgehen zu können. Der Begriff „sinnvolles Vorgehen“ umfasst dabei insbesondere jene Funktionen situativer Intelligenz, die Menschen aufgrund ihrer Zielorientierung und ihres Hintergrundwissens einen Handlungsstrang auch dann zu Ende führen lassen, wenn unerwartete Hindernisse auftauchen und alternative Wege gefunden werden müssen. Die Mensch-Maschine-Interaktion bildet dann auch nur einen Teil des gesamten Handlungsstrangs ab. Denn gerade das „Internet der Dinge“ (Internet of Things) bietet die Möglichkeit einer sehr vielfältigen Vernetzung (C. Engemann, F. Sprenger 2015). Dann können „Informationspakete“ von Maschine zu Maschine, von Modul zu Modul, von Element zu Element übertragen werden. Es entstehen folglich komplexe industrielle und digitale Systeme, die im Regelbetrieb ohne den Eingriff von Menschen auskommen. Bereits heute hat sich die entsprechende Technik beim Tracking und Tracing, also der Nachverfolgung von Paketen bei Lieferdiensten, flächendeckend umgesetzt. Da industrielle Anlagen Teile und Komponenten mehrerer Hersteller enthalten, kann ein Interesse am geordneten Austausch von Daten aus den Bereichen „Industrie 4.0“ und „Internet der Dinge“ sogar dazu führen, dass Wettbewerber im Bereich des Datenaustausches zusammenarbeiten, etwa durch die Gründung von „Datengenossenschaften“, wie sie gelegentlich diskutiert werden. In den Blick kommt dann schließlich die Smart Factory (vgl. D. Burkard, H. Kohler, N. Kreuzkamp, J. Schmid 2019). Über Diagnostik und Kontrolle hinaus erleben wir dann, dass Maschinen und ganze Systeme miteinander handeln. Selbst der Begriff der „Kollaboration“ (englisch: „collaboration“), also des Zusammenwirkens zwischen Mensch und Maschine, scheint dann von der Realität überholt zu sein: Dieses „kollaborative“ Zusammenwirken wird ja dort unnötig, wo der Mensch scheinbar gar nicht mehr gebraucht wird. Schon 187

5.  Digitale Arbeit

heute gibt es im Internet mehr Maschine-Maschine-Interaktionen als Mensch-Maschine- oder Mensch-Mensch-Interaktionen. Trotzdem muss es einen Anfangs- und Stopp-Impuls zum Starten und Anhalten von Systemen geben. Nötig sind weiterhin Notfallpläne und gezielte menschliche Eingriffe, wenn Störungen auftreten. Wir kommen damit zur Frage der übergreifenden Steuerung und ihren möglichen Paradoxien.

Das Auseinanderfallen von Steuerung und Systemkomplexität als Paradox Die Auffassung, der Mensch würde gar nicht mehr gebraucht, ist aus verschiedenen Gründen ein Trugschluss. Dabei ist auf ein merkwürdiges Paradox hinzuweisen, welches durch ein alltägliches Beispiel veranschaulicht werden kann. So wird mein Kleinwagen durch einen einfachen Knopfdruck gestartet. Voraussetzung ist allerdings das Einstecken einer maschinenlesbaren Karte in einen Schlitz, sodass die entsprechenden Systeme freigeschaltet werden können. In anderen Fahrzeugen geschieht diese Freischaltung per Funk, sodass gar kein Schlüssel mehr eingesteckt werden muss (Keyless Go). Niemand würde bestreiten, dass das Fahrzeug durch mich als Fahrer gesteuert wird. Und doch ist der Knopfdruck für den Anlasser eine so einfache Operation, dass sie sogar ein Kleinkind ausführen könnte. Anders gesagt: Die Steuerung eines Systems verlangt nicht automatisch eine höhere Komplexität als diejenige, die im System selbst steckt. Steuerung ist an die Fähigkeit, den Willen und die Macht zur Steuerung gebunden, nicht an die Komplexität des Steuerungsaktes selbst. Das hier zur Sprache gebrachte Steuerungsparadox lautet also wie folgt: Die Komplexität der Steuerung erlaubt keinerlei Schlussfolgerung auf die Komplexität des gesteuerten Handlungsstrangs oder Systems. 188

Das Auseinanderfallen von Steuerung und Systemkomplexität als Paradox

Anders gesagt: Es kann technisch relativ einfach sein, komplexe Systeme zu steuern. Und es kann technisch anspruchsvoll sein, eher einfache Systeme zu steuern. So ist ein Fahrradfahrer ein Mensch-Maschine-System, das nicht ohne feinmotorische Lernprozesse funktioniert. Es ist ein einfaches System, aber „Fahrrad fahren lernen“ ist noch immer eine typische Kindheitserinnerung vieler Menschen, weil die Steuerung von motorischer Koordination und Gleichgewicht im Mensch-Maschine-System erst erlernt werden muss und nicht ganz trivial ist. Diese Einsicht ist mit Blick auf eine Kritik der digitalen Vernunft deshalb wichtig, weil eine kognitive Überlegenheit von Maschinen über Menschen in bestimmten funktionalen Aufgaben kein Widerspruch dazu bildet, dass Menschen technische Systeme steuern sollten und steuern können. Ob Menschen ihre Steuerungsaufgaben sinnvoll und richtig wahrnehmen, ist eine völlig andere Frage. So wie ein betrunkener Fahrer ein Auto in den Graben fahren oder ein böswilliger Fahrer ein Fahrzeug als Mordwaffe verwenden kann, so gibt es Steuerungsmissbrauch oder Steuerungsmängel natürlich auch bei anderen technischen Systemen. Darüber hinaus gehört es zu den bemerkenswerten Widersprüchlichkeiten der Politik, dass gelegentlich Menschen mit erkennbaren intellektuellen und moralischen Defiziten an der Spitze komplexer Staaten stehen. Dass dies auch in der Demokratie möglich ist, zeigen auch noch im Jahr 2020 Personen an der Spitze demokratisch gewählter Regierungen in großen und mächtigen Ländern dieser Erde wie den USA, Brasilien und anderen. Besonders bedenkenswert ist das oben formulierte Steuerungsparadox dort, wo es um Leben und Tod geht, etwa bei Flugzeugen oder bei militärischen Drohnen. Nicht wenige Menschen sind hier der Auffassung, eine falsche, aber von Menschen getroffene und Menschen zuzuschreibende Entscheidung sei einer funktional richtigen, aber von einer Maschine getroffenen Entscheidung vorzuziehen. Kritische 189

5.  Digitale Arbeit

Zeitgenossen werden an dieser Stelle sofort zurückfragen, wie denn eine richtige und eine falsche Entscheidung voneinander unterschieden werden könnten. Dabei zeigt sich anhand der gestellten Frage ein tiefgreifender Unterschied zwischen überwiegend funktionalen und überwiegend politischen Zusammenhängen. Wenn ich ein Fahrzeug mit einem Benzinmotor mit Dieselkraftstoff betanke, wird das Funktionieren des Fahrzeugs infrage gestellt. Ich mache einen „Fehler“, weil im zweckrationalen Zusammenhang des technischen Systems „Kraftfahrzeug“ ein Benzinmotor richtigerweise mit Benzin betankt werden muss. Innerhalb von solchen Systemen ist es daher sinnvoll, von „richtig“ und „falsch“ zu sprechen. Vorausgesetzt ist das Ineinandergreifen von kausal zusammenhängenden Funktionen im Rahmen eines nicht weiter hinterfragten funktionalen Systems. Auf einer Meta-Ebene der Betrachtung geht es um einen sehr grundsätzlichen Blick auf technische Systeme. Dabei steht das System als Ganzes im Rahmen einer sozialen und politischen Ordnung zur Debatte. Dann lässt sich beispielsweise fragen, ob benzingetriebene Kraftwagen in einer Welt der Klimakrise überhaupt noch wünschenswert sind. Eine solche Kritik auf der Meta-Ebene nimmt der systemischen Kausalität des betrachteten Systems nichts weg: Ein Benzinfahrzeug wird weiterhin nicht mit Diesel fahren, gleich ob am Steuer ein „Systemkritiker“ oder ein „Systembefürworter“ sitzen mag. Je höher die Betrachtungsebene ausfällt, desto schwieriger ist der Nachweis der Kausalität zwischen einem tatsächlichen oder wünschenswerten Eingriff und dem daraus folgenden Effekt. Es gibt dann zeitversetzte Wirksamkeit, schwache Ko-Kausalität und die Wirkung externer Stellgrößen, ganz abgesehen von Interpretationsdebatten zur Zuordnung von Maßnahmen und Effekten. Ingenieure, Programmierer und Techniker vermeiden solche Debatten deshalb gerne, weil sie ihnen mit Recht als wenig eindeutig und bisweilen als fruchtlos erscheinen. Dieser Impuls ist verständ190

Das Auseinanderfallen von Steuerung und Systemkomplexität als Paradox

lich, entwertet aber keineswegs die von Sozialwissenschaftlern und Philosophen freudig vorgetragene These von der Notwendigkeit, das große Ganze zu betrachten. Dabei geht es nicht nur um das Leben einzelner Menschen oder einzelner Gesellschaften, sondern letztlich um das gute Zusammenleben und auch das Überleben der Menschheit insgesamt. Die Unterscheidung zwischen einer funktionalen Technikdebatte und einer übergreifenden Gesellschaftsdebatte ist Teil des Übergangs in eine zunehmend digitale Welt. Letztlich geht es unter anderem um die Frage, welche Rolle Maschinen spielen sollen: Diagnostik oder Kontrolle, unterstützende Kollaboration oder gar Steuerung, die den Menschen beherrscht. Praktisch stellt sich mit Blick auf die großen Fortschritte der Künstlichen Intelligenz die Frage nach dem Ort, der Reichweite und den Grenzen für die Steuerung komplexer digitaler Systeme. Dabei werden generell drei Typen von Steuerung unterschieden: Bei der Direktsteuerung (in the loop) handeln Menschen unmittelbar, wenn auch womöglich über eine Fernbedienung. Ein Beispiel dafür ist ein PKW oder eine ferngesteuerte Drohne. Bei autonomen Systemen (on the loop oder out of the loop) handeln Systeme selbständig, natürlich im Rahmen ihrer vorherigen Programmierung. In dem einen Fall hat der Mensch aber die Möglichkeit zur Direktintervention und „Übersteuerung“ (on the loop). Ein Beispiel wäre das übersteuernde Anhalten einer Abschussvorrichtung in einem Flugzeug durch einen steuernden Menschen. Vorausgesetzt wird allerdings eine stete Rückkopplung zwischen dem steuernden oder überwachenden Menschen und dem System (vgl. C. Misselhorn 2018, 158). Die in diesem Fall nötige Rückkopplung, verbunden mit dem Zeitbedarf für menschliche Entscheidungen, macht solche Systeme zwangsläufig langsamer und störanfälliger als komplett autonome Systeme (out of the loop).

191

5.  Digitale Arbeit

Gerade bei militärischen Anwendungen wie bei bewaffneten Drohnen mit einer Gesichtserkennung können diese Eigenschaften beängstigend wirken. Obwohl Menschen Fehler machen und langsamer sind als vollautonome Systeme, bleiben sie doch immerhin als Menschen ein Teil des sozialen Lebens und können zur Verantwortung gezogen werden. Gegner dieser Betrachtung geben zu bedenken, dass völkerrechtliche Vorschriften und sogenannten Rules of Engagement einprogrammiert werden können (vgl. R. Arkin 2009). Trotzdem bleiben Fragezeichen, denn tatsächlich gibt es im realen Leben immer wieder neue Konstellationen, die situative Flexibilität, ein Denken in Ausnahmen und ein Handeln durch paradoxe Interventionen sinnvoll, wenn nicht gar ethisch geboten machen.

Steuerung, Kausalität und die Zuschreibung von Verantwortung Je wirkmächtiger die von Maschinen beherrschbaren Handlungsstränge werden, desto ausgefeilter sollte die Reflexion über deren Steuerung und über die Auswirkungen maschinell generierter Handlungsstränge im persönlichen, sozialen und politischen Raum ausfallen. Jede intensive fachliche Diskussion führt dabei zu Situationen hoher Ambivalenz, die auf der Ebene individueller Ethik durch eine unterstellte moralische Urteilskraft des handelnden Menschen oder auf der Ebene der Politik durch Gesetze mit impliziten ethischen Normen aufgelöst wird. Ein Beispiel für eine solche Ambivalenz wäre die Bedienung einer Maschine zu terroristischen Zwecken wie beim Terroranschlag auf einem Berliner Weihnachtsmarkt am 19. Dezember 2016. Stellen wir uns vor, der verwendete LKW, der ungebremst in eine Menschenmenge fuhr, hätte schon eine ausreichende optische Erkennung des Umfelds 192

Steuerung, Kausalität und die Zuschreibung von Verantwortung

gehabt, um den Zusammenhang zwischen Beschleunigung und der Gefährdung von Menschenleben zu erkennen. Dann läge die Forderung nahe, dass ein solches System eben blockiert, wenn der Attentäter zu terroristischen Zwecken beschleunigt. Daraus folgt aber unmittelbar, dass der bedienende Mensch eben nicht immer das letzte Wort haben sollte. Dieser Gedanke widerspricht aber der Forderung, Menschen müssten immer einen Durchgriff gegenüber Maschinen haben. Eine umfassende gesellschaftliche Diskussion über dieses Thema hat aber gerade erst begonnen. Aus ethischer Sicht ist es ja keineswegs neu, dass Menschen nicht alles tun sollten, was sie tun könnten. Uns ist es auch längst vertraut, dass es „Sicherungssysteme“ geben muss, die unvernünftig handelnde einzelne Personen von problematischen Handlungen abhalten sollen. Die Blockadevorrichtung als digitale Assistenzfunktion im LKW hätte ja auf der Ebene von Gesetzgebung, Produktion und Ausrüstung letztlich menschliche Entscheidungen zugunsten des Gemeinwesens zum Hintergrund. Ob es in kritischen Fällen gelingt, eine präzise Handlungsgrenze zu finden und sich dann auch noch international auf diese zu einigen, ist eine zweite herausfordernde Frage. Beim völkerrechtlich bindenden Vertrag über atomare, biologische und chemische Waffen (ABC-Waffen), der am 16. Dezember 1971 von der Vollversammlung der Vereinten Nationen angenommen wurde, ist dies beispielsweise gelungen (vgl. D. Schindler, J. Toman 1988). Dem Abkommen sind inzwischen 182 Staaten beigetreten. Der aktuelle Konfliktherd Syrien gehört jedoch nicht zu den Unterzeichnerstaaten. Inzwischen wurde die Biowaffenkonvention von 1971 durch eine Chemiewaffenkonvention ergänzt (1993). Es ist in einem solchen Rahmen also durchaus vorstellbar und auch wünschenswert, dass wir trotz der aktuellen Spannungen in der politischen Welt bis zum Jahr 2040 eine UN-Konvention über die Grenzen des Gebrauchs von Waffensystemen auf der Basis Künstlicher Intelligenz vorliegen haben werden. 193

5.  Digitale Arbeit

Gerade weil Systeme auf der Grundlage Künstlicher Intelligenz und des Funktionierens von neuronalen Netzen so viele Schichten (Layers) der Entscheidungsfindung berücksichtigen und selbständig schlussfolgernd „lernen“, kann der zu einem Ergebnis führende Rechenweg in aller Regel nicht mehr eindeutig reproduziert werden. Dieser Blackbox-Charakter oder die Nicht-Nachvollziehbarkeit von Entscheidungen oder „Outputs“ ist ein grundlegendes Merkmal heutiger Systeme der Künstlichen Intelligenz. Hintergrund sind u. a. deren oben erwähnte probabilistische Lösungswege und relativ eigenständiges Lernverhalten im Rahmen neuronaler Netze (vgl. Th. Kaffka 2017). Denn vom Gewicht, welches einzelnen Daten in einem Handlungsstrang beigemessen wird, hängt die gewählte Handlungsoption ab. Das Gewicht von Daten wiederum steht in einem Zusammenhang mit den Trainingsdaten, die einem System zur Verfügung stehen. Ein und dieselbe Frage kann daher bei grundsätzlich gleicher Programmierung, aber unter verschiedener Gewichtung von Faktoren und bei unterschiedlichen „Trainingsdaten“ höchst unterschiedlich ausfallen (vgl. A. Scherer 1997). Anders und darüber hinaus gehend gesagt gilt: Wie und was genau die Maschine „lernt“, wenn sie Schlussfolgerungen aus Trainingsdaten zieht, wissen wir nicht. Sozial und in der Arbeitswelt schwierig ist in einem solchen Zusammenhang das Konzept der strengen Kausalität. Trotz aller Widersprüche im Privatleben, im Berufsleben und im sozialen Leben ist dieses Konzept der Kausalität eine Art mentaler Rahmen oder ein „Geländer“ zur Orientierung in der Welt. Der Gegensatz von Kausalität ist Zufall oder – im sozialen Raum – Willkür. Der Begriff der Willkür bezieht sich auf Verhältnisse, die von Macht und Ohnmacht geprägt sind und bei denen ein erkennbarer Zusammenhang zwischen Handlung und Handlungsfolge nicht besteht.

194

Steuerung, Kausalität und die Zuschreibung von Verantwortung

Das Unbehagen an Entscheidungen, die über Systeme Künstlicher Intelligenz erzeugt werden, ist dort besonders groß, wo in massiver Art und Weise in das Leben von Menschen eingegriffen wird, etwa mit Blick auf ihre Lebenschancen in Bildung und Gesundheit, auf ihre finanziellen Spielräume in Beruf und Privatleben oder gar mit Blick auf ihre gesamte Lebensführung. Hier entsteht leicht das Gefühl von „Willkür“ oder „Zufall“. Wenn komplexe Handlungsstränge den Vorschlägen, echten oder vermeintlichen Entscheidungen von Systemen Künstlicher Intelligenz folgen, dann wirken diese im Ergebnis wie ein Orakel. Denn die grundsätzlichen Kriterien bei der Programmierung solcher Systeme mögen transparent und plausibel sein, aber statt eines Schritt für Schritt nachvollziehbaren und damit auch kritikfähigen Resultats erfolgt die Ausgabe eines Ergebnisses, das von der zugeschriebenen Autorität des Systems profitiert und dadurch Glaubwürdigkeit erlangt. Anders als Gerichtsurteile oder Managemententscheidungen gibt es für den Output aus Systemen Künstlicher Intelligenz keinerlei Berufungsinstanz. Die Ergebnisausgabe eines Systems der Künstlichen Intelligenz erfordert daher wie ein klassisches Orakel einen Akt des Glaubens, des vorgängigen Vertrauens und der individuellen Resignation. Das Wort „Resignation“ drückt Ohnmacht aus, weil es in aller Regel keinen Weg gibt, um gegen ein Systemergebnis vorzugehen, etwa im Fall der Kreditvergabe. Der System-Output ist aber aus dem Blickwinkel der technischen Realisierung und Planung von Programmen gerade kein Orakel, sondern eine zuverlässige Entscheidungshilfe. Schließlich funktioniert es aufgrund seiner potenziell transparenten Programmierkriterien. Es ist also weit mehr als ein Zufallsergebnis wie etwa beim Ziehen der Lottozahlen. Trotzdem können die Ergebnisse überraschend sein. Das führt vor allem dort in soziale Diskussionen, wo es um ein handlungsleitendes Ergebnis geht, also wo Menschen unmittelbar von Entscheidungen 195

5.  Digitale Arbeit

betroffen sind. Da aber die berücksichtigten Kontexte, die Qualität der Trainingsdaten und die Parameter der Entscheidungssteuerung bei keinem System ein für alle Mal festgelegt sind, kann für ein und dasselbe Problem mehr als eine Lösung errechnet werden. Natürlich besteht die Welt schon heute aus vielen Beispielen für multiple Lösungsräume bei ein und demselben Problem. Dennoch kann die soziale Folge der Mensch-Maschine-Kollaboration zu erheblichen Spannungen und Konflikten führen, etwa weil der Anspruch auf Fairness und Transparenz im Einzelfall nicht garantiert zu sein scheint und weil es nicht ausreicht, darauf zu verweisen, dass das digitale System nach dem bestem Wissen und Gewissen seiner Programmierer ausgestaltet wurde. Ein sehr einfaches Beispiel aus der Arbeitswelt kann das zeigen. Wer heute in Deutschland eine Stelle öffentlich ausschreibt, wird sich an das Allgemeine Gleichbehandlungsgesetz vom 14. August 2006 halten und die Kürzel „m/w/d“ verwenden, also „männlich/weiblich/ divers“. Denn mit Inkrafttreten des Gesetzes zur Änderung der in das Geburtenregister einzutragenden Angaben vom 18. Dezember 2018 wurden die anerkannten Geschlechterkategorien „weiblich“ und „männlich“ noch um die Kategorie „divers“ erweitert. Auch wenn es wenige Personen gibt, für die das Merkmal „divers“ zutrifft, ist es Ausdruck von Respekt, ihren besonderen Status wahrzunehmen und anzuerkennen. Hätten wir eine vor dem 18. Dezember 2018 programmierte Personalsuchsoftware im Einsatz, würde diese Unterscheidung voraussichtlich fehlen. Gezeigt werden soll mit diesem Beispiel nur, dass allein der Zeitpunkt der Programmierung implizite, umfeldtypische Entscheidungen umfasst, die zu einem späteren Zeitpunkt verändert werden sollten. Es gibt also eine Art soziokultureller Obsoleszenz von Software und digitalen Programmen. Menschen wissen voneinander, dass sie sich trotz bester Bemühung irren können. Fehlurteile und Justizirrtümer legen ein beredtes 196

Steuerung, Kausalität und die Zuschreibung von Verantwortung

Zeugnis dafür ab. Aus dem gleichen Grund gibt es ja die Möglichkeit der Berufung vor Gerichten, die Chance zur Revision einer Entscheidung im Management und die Chance zum Neuanfang auch im privaten Leben. Zur neuen gesellschaftlichen Diskussion im Rahmen einer Kritik der digitalen Vernunft sollte daher eine Erörterung der Grenzen der Handlungsreichweite, der Eingriffstiefe, der soziokulturellen Sensibilität und des maximalen Schadensrisiko bei Systemen der Künstlichen Intelligenz gehören. Für komplexe „voll autonome“ Systeme im Straßenverkehr oder bei Anwendungen im Luftraum sind aus diesen Überlegungen heraus soziale und gesetzlich geregelte Anwendungsgrenzen zu fordern. Diese sind bereits in der Diskussion, bisher jedoch ohne konsensfähiges Ergebnis. Anwendungen „out of the loop“ mögen zwar grundsätzlich schneller sein als solche „in the loop“. Aber sie sind und bleiben riskant. Denn die fehlende Nachvollziehbarkeit führt als unvermeidbare Nebenfolge eine Verantwortungsdiffusion nach sich. Dies führt im sozialen Leben wie oben ausgeführt zu Konflikten. Umgekehrt führt die Zusammenballung von Macht in wenigen Händen fast zwangsläufig zu kontroversen Diskussionen. Bei digitalen Systemen, die selbständig zu entscheiden scheinen, liegt ethisch und politisch die erwähnte Verantwortungsdiffusion nahe. Dabei gilt ganz generell: Wenn niemand verantwortlich ist, dann werden Grenzen immer weiter herausgeschoben, schon aus Freude am technisch Machbaren. Dabei geht es nicht einfach nur um Missbrauchsmöglichkeiten. Schließlich wird digitalen Systemen bis heute keine eigene Absicht unterstellt. Es geht vielmehr um die bewusste Vermeidung nicht intendierter Nebenfolgen von intentionalen Handlungen. Zu diesen Nebenfolgen gehört vor allem ein Mangel an „Accountability“, also an Zurechnung von persönlicher Verantwortung. Diese 197

5.  Digitale Arbeit

scheint gerade im sozialen Leben im engeren Sinn bisher unverzichtbar zu sein. Wo genau die Grenze zwischen dem technisch Machbaren und dem sozial und politisch Wünschbaren liegt, kann nach heutigem Stand niemand vorhersagen. Wenn wir als Menschen die Kontrolle über die letztlich von uns selbst geschaffenen Systeme behalten wollen, dann wäre der erste Schritt zu einem verantwortlichen Umgang mit komplexen digitalen Systemen die Einsicht darin, dass solche Grenzen der Handlungsreichweite für derartige Systeme nötig sind. Es wird dann immer noch lebendige Kontroversen über den genauen „Verlauf“ einer solchen Handlungsgrenze geben. Abgesehen davon gibt es auch in der Politik Lernprozesse, die auf Versuch und Irrtum beruhen. Dies ist dort unproblematisch, wo digitale Systeme nicht geeignet sind, größere Folgeschäden auszulösen. Immer dort, wo die Schadenshöhe enorm ist, gibt es in den bisherigen technisch-sozialen Systemen eingebaute Redundanzen, so etwa in Flugzeugen mit mehrfachen Sicherungssystemen. Komplett autonome Systeme lassen solche Redundanzen nicht zu, da sie in Echtzeit laufen und in ihren Ergebnissen nicht mehr reproduzierbar sind. Es wäre dann eine eigene Diskussion wert, ob eine „Systemdopplung“ wünschenswert sein könnte, auch um den Preis einer Verdopplung oder noch größeren Verlangsamung der nötigen Rechenleistung, damit aber auch der nötigen Rechenzeit. Ziel der „Systemdopplung“ wäre die Parallelführung eines Dokumentationssystems, sodass der generierte Output generell transparent nachvollzogen werden kann. Die Forderung nach Transparenz und klarer Dokumentation wird derzeit in praktisch allen Lebensbereichen so klar und deutlich erhoben, dass die Verlangsamung von Rechenzeit angesichts eines Gewinns an Transparenz in Kauf genommen werden sollte.

198

Mainstreaming und Individualisierung: die soziale Seite digitaler Transformation

Doch kehren wir zurück zu den konkreten Arbeitskontexten, die der Ausgangspunkt für die Reflexionen in diesem Kapitel sind.

Mainstreaming und Individualisierung: die soziale Seite digitaler Transformation Im digitalen Arbeitsalltag der meisten Menschen ist das Zusammenwirken technischer und sozialer Systeme kein Gegenstand alltäglicher Reflexion. In aller Regel geht es vielmehr um digitale Ökosysteme mit einer begrenzten Reichweite, deren Schadenswirkung auch im schlechtesten Fall überschaubar ist. Der Übergang von einer analogen zu einer punktuell digitalen und von dort zu einer durchgängig hybriden Arbeitswelt stellt hohe Anforderungen an einzelne, an Unternehmen und Organisationen, aber auch an Gesellschaften insgesamt. Betrachtet man lange historische Linien, dann stehen wir mitten in einem Umbruch, der wie immer wieder angeführt durchaus mit dem Übergang von der bäuerlich-handwerklichen zur industriellen Arbeitsweise verglichen werden kann. Dabei handelt es sich keineswegs um einen zwangsläufig ablaufenden Prozess, sondern um die Summe von Entscheidungen vieler beteiligter Personen und Organisationen. So unterschiedlich die einzelnen Situationen sein mögen, so durchgängig wird die Verwendung digitaler Arbeitsmittel mit einer erwarteten Erleichterung verknüpft. Dabei kann es sich um Prozessabläufe, um physische Entlastung, um Geschwindigkeit oder um die leichtere Datenverknüpfung in Geschäftsprozessen handeln. In der Folge vielfach wiederholter Digitalisierungsprozesse entsteht eine soziale Sogwirkung, die sich auf die Arbeitsweise von Unternehmen, aber auch auf das Selbstbild und Rollenverständnis arbeitender Menschen auswirkt.

199

5.  Digitale Arbeit

Digitale Ökosysteme wirken dabei wie eine „zweite Haut“. Sie werden zur Selbstverständlichkeit und zum normalen Bestandteil des Arbeitslebens, von der Finanzbuchhaltung bis zur Lagerwirtschaft, von der Qualitätskontrolle bis zur Produktionsplanung, vom Controlling bis zum CRM-Tool für den Außendienst. CRM steht dabei für Customer Relations Management und bezeichnet die Datenverfügbarkeit der Kundendaten in Echtzeit, jedenfalls wenn die Internet-Verbindung ausreichend gut ist. Bei einem Kundenbesuch weiß der Außendienstler dann ganz genau, wann der Kunde zuletzt bestellt hat, welche Produkte er braucht und welchen Preis er dafür erhalten hat. Er findet aber im System auch Gesprächsnotizen, wenn es womöglich eine Beschwerde gab, die im telefonischen Kundencenter eingegangen war. Kommt das Gespräch beim Kunden auf die technischen Eigenschaften eines Produkts, können Datenblätter und Informationen heruntergeladen werden, die die fachliche Qualität der Gesprächsführung verbessern können. Zur digitalen Arbeitswelt gehört es aber auch, dass bestimmte Interaktionsformen obsolet werden. Wenn vor dreißig Jahren das Telefon vom Festnetzanschluss im Privathaus geklingelt hat, war es üblich, zum Telefon zu laufen, um nichts zu verpassen. Am Läuten des Telefons konnte ja niemand erkennen, ob es sich um einen Notfall, einen Freundschaftsanruf oder etwas anderes handelt. Heute ist es keineswegs mehr der Normalfall, bei jedem Telefonanruf sofort abzunehmen. Schließlich erkennt man digital, wer sich vom anderen Ende der Leitung meldet und für wen man sich gerade die Zeit nehmen will oder nicht. In der Übertragung auf die Arbeitswelt gilt Ähnliches. Noch vor 20 Jahren war es üblich, den Kunden oder die Kundin beim Telefonanruf freundlich zu begrüßen, um dann zu fragen: „Haben Sie Ihre Kundennummer zur Hand?“ In einem professionellen Betrieb erscheinen Kundennummer und Bestellhistorie heute sofort mit dem Abheben auf dem Bildschirm. Wer also fragt „Haben Sie Ihre Kundennummer 200

Mainstreaming und Individualisierung: die soziale Seite digitaler Transformation

parat?“ zeigt vor allem eines: dass er in einem altmodischen Betrieb arbeitet, dessen Überleben am Markt zur Disposition stehen könnte. Die Verfügbarkeit der Information in durchgängig digitalen Arbeitswelten ist also deutlich besser als früher. Das soziale Leben und das Arbeitsleben gewinnen Qualitäten, die früher nicht denkbar waren. Es gibt freilich auch eine andere Seite. Denn erhöhte Transparenz führt auch zu besseren Möglichkeiten der Kontrolle. Die Bandbreite der erwarteten und der tolerierten Leistung in Unternehmen wird enger getaktet. Die Ausprägung hoch individueller Charaktere wird durch eine solche Normierung in die Richtung des Mittelwertes eher erschwert. Für „Originale“ und „Querköpfe“ in der Arbeitswelt ist dies ein schwieriges Umfeld, weil individuelle Abweichungen von der Norm leichter entdeckt und sanktioniert werden können. Aus den Anfangszeiten der durchgängigen Digitalisierung wurde mit Einführung der GPS-Systeme für LKW-Fahrer berichtet, dass der eine oder andere unerklärliche Abstecher fuhr. Es stellte sich heraus, dass es sich um Damenbesuche handelte. Diese wurden dann untersagt. Digitalisierung hat hier sozusagen gewisse „kleine Fluchten“ aus dem Alltag wirksam unterbunden. Das digital unterstützte Mainstreaming als sanfter Druck zum Mittelwert ist eine Realität auch in den Betrieben. Der Begriff Mainstreaming wird teilweise in der Politik und in der Organisationsentwicklung aktivistisch gebraucht, um Anstrengungen zu signalisieren, bestimmte Anliegen wie die Gleichstellung der Geschlechter, die Inklusion behinderter Menschen oder Diversität zu fördern und sozusagen zum „Hauptstrom“ zu machen (vgl. V. Schnier 2007), so etwa in der Politik des Bundesministeriums für wirtschaftliche Zusammenarbeit. Im digitalen Bereich wirkt Mainstreaming sowohl als Druck wie auch als Sog. Normierte Erwartungen erfordern die Anpassung von Verhalten an die vorgegebene Norm. Wer seine Kreditkarte oder eine 201

5.  Digitale Arbeit

andere Bezahlform nicht eingibt, der kann nicht online bestellen. Schon funktional gibt es hier keinen Raum für Abweichungen. Diese Beobachtung geht wie bestimmte Prozesse in der Arbeitswelt in Richtung eines Konformitätsdrucks. Als „Sog“ wirkt digitales Mainstreaming dann, wenn Menschen in ihrer Filterblase Sanktionen für abweichende Meinungen befürchten müssen oder wenn bei einer Google-Suche nachweislich nur die ersten wenigen Nennungen Aufmerksamkeit finden und die an sich zugängliche Vielfalt der sonstigen Suchergebnisse faktisch verloren geht. Digitale Ökosysteme als „zweite Haut“ wirken in vielen Fällen wie Kleider und Anzüge von der Stange, also Konfektionsware, bei der die Individualität eines Maßanzugs nicht erreicht werden kann. Rational ist das nachvollziehbar und sinnvoll, soziokulturell wirkt die Digitalisierung dann aber auch wie ein Instrument sozialer Disziplinierung. Die Einpassung von Menschen und Charakteren in den vorgegebenen Korridor hybrider Arbeitsverhältnisse mit je charakteristischen Anteilen an digital unterstützter und analoger Arbeit ist freilich nicht für jeden und jede die beste Option. Denn zur Widersprüchlichkeit des Übergangs in eine hybride Arbeitswelt mit vernetzten digitalen Systemen gehört auch der entgegengesetzte Trend zur digitalen Individualisierung der Arbeit. Schließlich gibt es Menschen, die sich ungern in ein betriebliches Gefüge so eng einordnen wollen, wie es aus ihrer Sicht erforderlich scheint. Die Folge daraus ist eine Zunahme von Solo-Selbständigen, aber auch die Entstehung neuer Berufsbilder und Arbeitsweisen, vom Daytrader, der auf eigene Rechnung Wertpapiere handelt, bis zum Clickworker. So ist es bis heute üblich, im Arbeitsprozess zwischen Arbeitgeber und Arbeitnehmer oder Arbeitnehmerin zu unterscheiden. Darüber hinaus gibt es in der Zwischenzeit „triadische“ Arbeitsverhältnisse, beispielsweise Plattformen für Unternehmensberater, für Design 202

Mainstreaming und Individualisierung: die soziale Seite digitaler Transformation

und Marketing, für haushaltsnahe Dienstleistungen, für Handwerker und vieles mehr (vgl. F. Lenz 2020). „Triadisch“ bedeutet, dass stets drei Partner zum Zustandekommen einer professionellen und gegen Entgelt ausgeführten Arbeit nötig sind: der Anbieter, der eigentliche Vertragspartner und der Plattformbetreiber. Nehmen wir ein Beispiel aus einem hoch qualifizierten Bereich. Felix (36) ist ausgebildeter Arzt, Miriam (32) ist ausgebildete Betriebswirtin. Beide lernen sich bei einer Unternehmensberatung kennen, bei der sie ein Praktikum machen. Sie entschließen sich, gemeinsam durchs Leben zu gehen, und planen für das kommende Jahr eine gemeinsame Weltreise. Ziemlich leicht stellen sie fest, dass die Koordination ihrer Urlaube in einer Unternehmensberatung zwar nicht unmöglich, aber doch schwierig ist. Die Arbeit selbst macht ihnen aber viel Spaß, sodass sie gerne im Berufsfeld Unternehmensberatung bleiben möchten. Beide kündigen und registrieren sich auf einer Vermittlungsplattform für Berater. Aufgrund ihrer Qualifikationen finden sie relativ leicht Zugang zu Projekten, die sie dann so planen, dass ihre Weltreise möglich wird. Nach vier Monaten kehren sie zurück und finden, dass dieses für sie freiberufliche Modell gut in ihre weitere Lebensplanung passt. Die „privaten“ Motive von Felix und Miriam sind das eine, die Chance zu deren Realisierung das andere. Für etablierte Beratungen, die ganze Teams vorhalten, ist die Dreiecksbeziehung zwischen „Kunde“, „Vermittlungsplattform“ und „einzelnem Berater“ eine Herausforderung. Wenn es um internationale, arbeitsteilige und hoch spezialisierte Projekte geht, die größere Teams benötigen, sind große, klassische Beratungshäuser zwar im Vorteil. Für die Balance zwischen privaten und beruflichen Zielen oder generell für die Realisierung des Wunsches nach höherer Selbstbestimmung sind berufliche Vermittlungsplattformen aber ausgesprochen attraktiv. Sie senken die Akquisitionskosten, sind gut kalkulierbar und führen nach Angaben aus einer 2016 durchgeführten Umfrage durch eine dieser Plattformen 203

5.  Digitale Arbeit

(Comatch) dazu, dass nur 11% der Plattform-Consultants aus der freiberuflichen Existenz wieder zurück in eine Festanstellung möchten. Die Plattformökonomie wird also nicht allein durch die großen bekannten Namen wie Facebook, Amazon, Uber charakterisiert, sondern eben auch durch einen erheblichen Anteil solcher Vermittlungsplattformen, gleich ob es sich um Pflegepersonal, Hauswirtschafterinnen, Handwerker, Mediengestalter und Designer oder Unternehmensberater und Interimsmanager handelt. Wie diese Beispiele zeigen, ist dabei nicht in allen Fällen die Arbeit selbst digital, wohl aber deren Vermittlung.

Digitale Ökosysteme, Sinn und Zugehörigkeit Die Redeweise von „digitalen Ökosystemen“ bildet diese Form der hybriden Realität gut ab. Darüber hinaus gibt es aber auch neue Formen rein digitaler Arbeit. Unter ihnen habe ich weiter oben den Day Trader, der digitale Finanzgeschäfte ausführt, und den Clickworker erwähnt, der beispielsweise dort tätig wird, wo es in einem sehr arbeitsteiligen Prozess um die Zuordnung von Bildern und Texten, die Transkription von Gesprächsprotokollen, die Qualitätssicherung von Übersetzungen, Spracherkennungsprogrammen und vielem mehr geht. Für das soziale Gefüge einer Gesellschaft sind solche neuen Arbeitsformen herausfordernd (vgl. C. Fieseler, E. Bucher, C. P. Hoffmann 2019, 987-1005). Bisweilen wird von einem neuen digitalen Prekariat gesprochen, weil es vorkommen kann, dass sich jemand von einer arbeitsteiligen Aufgabe zur nächsten, von „Job“ zu „Job“ durchs Leben kämpft, aber nicht ausreichend für sein Alter vorsorgen kann oder will. Denn Digitalarbeiter sind als Solo-Selbständige den Freiberuflern oder Gewerbetreibenden gleichgestellt. Hier unterstellt der Gesetzge204

Digitale Ökosysteme, Sinn und Zugehörigkeit

ber, dass diese Menschen sich selbst um ihre Altersvorsorge kümmern können und sollen. Oft ist dies aber schon aus finanziellen Gründen schwer bis unmöglich. Daher wird zu Recht darüber diskutiert, dass es für solche Personen eine eigene Versicherungspflicht geben muss, wenn die Gesellschaft deren zukünftige Altersarmut verhindern will. Da digitale Arbeit im engeren Sinn räumlich entgrenzt stattfinden kann, kommt es bei Digitalarbeitern und Digitalarbeiterinnen zu einem Druck auf die relativ hohen Löhne, die in Deutschland und Europa im weltweiten Vergleich gezahlt werden. Schließlich lässt sich digitale Arbeit mit dem Vehikel der englischen Sprache von praktisch jedem Ort der Welt ausführen. Dadurch bilden sich andere Preise als in räumlich beschränkten Gesellschaften wie in Deutschland und Europa. Trotzdem gilt: Niemand wird gezwungen, als Clickworker tätig zu sein oder sich über eine digitale Vermittlungsplattform zu verdingen. Wenn Menschen es dennoch tun, sehen sie für sich selbst Vorteile, zumindest im Verhältnis zu anderen verfügbaren Optionen. Und diese Vorteile sind im Einzelfall durchaus nachvollziehbar. Ein weiteres Beispiel mag dies verdeutlichen. Marion (48) ist Mediengestalterin und kann sich die Miete in der Großstadt nicht mehr leisten. Sie kommt vom Land und zieht aufs Land zurück. Über eine entsprechende digitale Plattform findet sie Auftraggeber, die ihrerseits an einer Festanstellung nicht sehr stark interessiert sind. Im Lauf der Zeit entwickelt sich ein gutes Vertrauensverhältnis mit drei oder vier festen Kunden, sodass Marion ihre eigenen Lebenspläne „von zu Hause aus“ und „auf dem flachen Land“ gut realisieren kann. Es wäre ein Trugschluss, würde jemand glauben, dass die Ausdifferenzierung der Arbeitswelt ohne Auswirkungen auf die Gesellschaft, auf die Arbeitswelt insgesamt und das Rollenbild rund um Arbeit bleiben könne. Allein schon die digitale Kommunikation über Mail, Skype, Zoom, Netzwerke und andere Hilfsmittel erlaubt eine räum205

5.  Digitale Arbeit

liche Entgrenzung. Schon aus diesem Grund und seit 2020 und der Corona-Krise erst recht gestatten immer mehr Unternehmen und Behörden einen Home-Office-Arbeitsplatz. Dabei müssen aber auch Fragen wie die nach der Arbeitssicherheit von Bürostühlen, nach der IT-Sicherheit, nach der Einhaltung der Vorschriften zur Arbeitszeit, nach der effektiven Leistungsüberprüfung und dem Verhältnis von Vertrauen und Kontrolle neu durchdacht werden. Einzelne Firmen gehen so weit, dass sie fest zugeordnete Arbeitsplätze im Unternehmen gar nicht mehr anbieten. Angestellte erhalten vielmehr zu Beginn des Arbeitstages einen ihnen zugewiesenen Arbeitsplatz, den sie am Abend rückstandsfrei und sauber verlassen (Clean Desk Policy). Persönliche Gestaltungselemente wie das Foto des Ehepartners oder der Kinder, Urlaubssouvenirs oder anderes werden dysfunktional und verschwinden dann tendenziell aus der Arbeitswelt. Wird Raum für Besprechungen benötigt, bucht man sich einen der verfügbaren, funktionalen Besprechungsräume. Der Erfolg solcher Maßnahmen ist aber umstritten, weil es offenbar doch Teil menschlicher Bedürfnisse ist, einen fest zugewiesenen, „eigenen“ räumlichen Bereich auch bei der Arbeit in Anspruch zu nehmen. Noch weiter führt die Einrichtung von Co-Working-Spaces. Dabei handelt es sich um ein Infrastruktur-Angebot, das ohne direkten räumlichen Bezug zur eigenen Firma auskommt. Dann kann jemand in Hamburg beschäftigt sein, aber einen Co-Working-Space in Bochum, München oder Berlin nutzen. Anders als das reine Home-Office bietet ein Co-Working Space die Chance dazu, mit anderen Menschen zwischendurch einen Kaffee zu trinken oder kurz ins Gespräch zu kommen. Und selbst wenn jemand das für sich nicht wünscht, bietet die Mischung aus Lockerheit und disziplinierter Arbeitsatmosphäre eine Art funktionaler Vor-Strukturierung des Arbeitsumfelds, das jemand „ganz alleine zu Hause“ so nicht erfahren kann. Es spricht nichts dagegen, „Co-Working-Spaces“ mit der ganz ähnlichen Vorstrukturierung Wiener Kaffeehäuser im 20. Jahrhundert zu vergleichen, die 206

Hybride Loyalität zwischen Leistung und Sinnerfüllung

für Schriftsteller offenbar ein anregendes Arbeitsumfeld boten. „New Work“ greift folglich Motive früherer Zeit auf und variiert sie, nicht zuletzt aufgrund neuer technischer Möglichkeiten. Weil Menschen in ihrer Arbeit auch Sinn und Zugehörigkeit suchen (vgl. N. Mourkogiannis 2007), ist die Auswirkung digitaler Ökosysteme auf die soziale und emotionale Gestimmtheit arbeitender Menschen nicht zu unterschätzen. Zum einen ist es naheliegend, dass die räumliche und bisweilen auch zeitliche Entgrenzung der Arbeitswelt Bindungen eher lockert als stärkt. Einen Kollegen physisch zu sehen und zu sprechen, ist etwas anderes als eine Telefon- oder Videokonferenz. Gerade bei mehreren Beteiligten konnte ich immer wieder beobachten, wie flexibel Menschen sich auf ihre Situation einzustellen wissen. Denn wenn jemand weiß, wo die Kamera ist (deren Bild ja als visuelles Feedback auf einem Smartboard erscheint), dann arbeitet er „zwischendurch“ und logischerweise außerhalb des Sichtfelds der Kamera auch mal Mails ab oder ist anderweitig abgelenkt. Gleiches gilt bei Telefonkonferenzen mit mehreren Beteiligten. Die scheinbare Optimierung von Effizienz über digitale Hilfsmittel und raum-zeitliche Entgrenzung führt zu Nebeneffekten, die in den nächsten Jahren noch deutlicher diskutiert werden dürften. Dazu gehören Themen wie der Sinn der Arbeit und Lebenssinn überhaupt, aber auch die Intensität der „inneren Bindung“ von Beschäftigten an ihren Arbeitgeber, an ihr unmittelbares Team, an ihre Aufgabe.

Hybride Loyalität zwischen Leistung und Sinnerfüllung Dem hybriden Ökosystem folgt eine hybride Loyalität. Damit ist gemeint, dass nicht nur die frühere „lebenslange“ Bindung des einzelnen Arbeitnehmers an genau einen Betrieb im Leben nur noch in Ausnahmefällen greift, sondern dass Bindungswunsch und Bindungs207

5.  Digitale Arbeit

realität in der Arbeitswelt selbst volatil werden. Wo Zugehörigkeit über einen fest zugewiesenen Arbeitsplatz, Weihnachtsfeiern und persönliche Präsenz nicht gefordert und nicht gefördert wird, dort sinkt die Wechselschwelle von einem Job zum nächsten. Konträr zu dieser Entwicklung hat aber die subjektive Bedeutung erfüllter, sinnstiftender Arbeit zugenommen. „Mein Gehalt ist mir gar nicht so wichtig, aber die Arbeit muss sinnvoll sein“, höre ich bei Einstellungsgesprächen immer wieder, auch in eher konventionellen Branchen und Berufen außerhalb der akademischen Welt. Gerade in Zeiten der Klimakrise sind Firmen also aufgefordert, den gesellschaftlichen Sinn ihres Tuns (Purpose) eigenständig zu reflektieren, auch über die wirtschaftliche Sphäre hinaus (vgl. F. Fink, M. Moeller 2018, N. Mourkogiannis 2007). Ein Unternehmen wirkt in diesem Kontext dann attraktiv, wenn es eben auch seinerseits einer „hybriden Zielsetzung“ folgt, die aus einer Balance zwischen wirtschaftlichem Erfolg und gesellschaftlicher Problemlösungskompetenz besteht. Das Modell des Wirtschaftens im 21. Jahrhundert erfordert ja tatsächlich und gerade mit Blick auf die zerstörerischen Folgen eines lediglich auf Profit ausgerichteten Handelns die Suche nach dem besten Gleichgewicht zwischen wirtschaftlichen, sozialen und ökologischen Faktoren. Die hybride Zielsetzung von Unternehmen auf der Suche nach der Balance zwischen Gewinn und gesellschaftlichem Beitrag korrespondiert dabei interessanterweise mit der erwähnten hybriden Loyalität von Beschäftigten in digital-analogen und somit ebenfalls „hybriden“ Ökosystemen von Arbeit. Hybride Loyalität bedeutet in diesem Kontext besonders das Zusammenspiel von Leistungs- und Sinnerfüllungswünschen. Dem Arbeitgeber wird eine Leistung geschuldet, die aber nur unter der Bedingung stimmig erbracht wird, dass auch der Sinnerfüllungswunsch des Arbeitnehmers oder der Arbeitnehmerin ausreichend berücksichtigt wird. 208

Hybride Realität und Paradoxien der digitalen Arbeitswelt

Die klassischen „Jahresgespräche“ zwischen Führungskräften und Mitarbeitenden haben sich längst in Meilensteine zur Überprüfung der inneren Stimmigkeit oder des „Fit“ zwischen individuellen Entfaltungswünschen und betrieblichen Leistungsanforderungen entwickelt. Die Vergütung muss zwar stimmen, wird aber in vielen Fällen tatsächlich immer stärker zum Hygienefaktor. Das bedeutet, dass eine gute Entlohnung in vielen Fällen von den Arbeitsnehmerinnen und Arbeitnehmern bereits vorausgesetzt wird, aber niemanden vom Hocker reißt. So habe ich es im konkreten Fall eines Bilanzbuchhalters selbst gehört: „Ich bekomme jetzt 20% mehr als bisher. Das freut mich, aber ausschlaggebend für meine Entscheidung waren die Arbeitsinhalte.“ Digitalisierung in der Arbeitswelt wirkt folglich außerordentlich paradox. Denn einerseits stärkt sie Tendenzen der Individualisierung, etwa in der Gestaltung des eigenen Arbeitsumfelds. Andererseits führen digitale Entwicklungen auch zu einer erkennbar größeren Entpersönlichung, zur größeren Austauschbarkeit einzelner Personen oder gar zum Wegfall lieb gewonnener Arbeitsfelder und Berufsbilder. Wer heute an einem Flughafen eincheckt, hat in vielen Fällen seine Bordkarte bereits zu Hause ausgedruckt oder als QR-Code auf dem Smartphone verfügbar. Am Schalter von einer Person bedient zu werden, wird zunehmend zum Privileg. Gleiches gilt für Bankgeschäfte, für den Kontakt mit Versicherungen und dergleichen. Das Verhältnis von Kontinuität und Diskontinuität in der Ausgestaltung der Arbeitswelt verdient folglich eine eigene Betrachtung.

Hybride Realität und Paradoxien der digitalen Arbeitswelt Die Gleichzeitigkeit von höherer Individualisierung und Entpersönlichung, von höherem Sinnbedürfnis in der Arbeit und tendenziell schwächeren Bindungen zwischen Arbeitgeber und Beschäftigten 209

5.  Digitale Arbeit

führt zu einem erhöhten Maß an psychischer Unsicherheit. Fehltage wegen seelischer Erkrankung sind ein Spiegelbild des Geschehens, denn diese steigen in den Krankheitsstatistiken der Krankenkassen stetig an und sind mittlerweile noch vor Erkältungskrankheiten für die meisten Fehlzeiten verantwortlich. Digitale Ökosysteme erlauben ja außerdem eine viel höhere Transparenz der individuellen Arbeitsleistung, damit aber auch eine leichtere Auswertbarkeit und Kontrolle. Tendenziell sinkt dadurch die Bandbreite der Toleranz für Abweichungen von der erwarteten Norm. Solche Abweichungen sind im menschlichen Leben und in der Arbeitswelt ja nicht unüblich. Denn es gibt in allen Teams unterschiedliche Begabungen, unterschiedliche Leistungsfreude, unterschiedlichen Einsatzwillen und am Ende auch eine unterschiedliche Leistungsfähigkeit. Das flexible Eingehen auf subjektive Bedürfnisse wird in digitalen Ökosystemen der Arbeit aber entgegen mancherlei Erwartungen nicht immer leichter. Hintergrund für Schwankungen der Leistungsfähigkeit einzelner Beschäftigter kann eine chronische Erkrankung sein, aber auch eine vorübergehende Erkältung. Hintergrund kann Beziehungsstress sein, weil eine private Trennung oder Scheidung akut wird. Hintergrund kann die plötzliche Pflegebedürftigkeit eines Familienmitglieds sein oder der simple Wunsch, die eigenen Kinder in den Ferien intensiver zu betreuen als während der Schulzeiten. Auch hier greift das Paradox der „hybriden Realität der Arbeitswelt“. Denn Arbeitgeberattraktivität (employer’s attractiveness) bemisst sich sehr wohl auch an einem förderlichen, empathischen und im genannten Sinn toleranten Arbeitsumfeld. Die Grenzen sind allerdings fließend, denn zu einem fairen Arbeitgeber gehört auch der Wunsch nach Gleichbehandlung und Gerechtigkeit „für alle“. Dauert also eine subjektive Belastungssituation in einem Team zu lange, wird es zu Konflikten, Aussprachen und gegebenenfalls auch zu Sanktionen kommen. 210

Hybride Realität und Paradoxien der digitalen Arbeitswelt

Die Tendenz digitaler Ökosysteme zur Entpersönlichung von Arbeit unterstützt außerdem eine gewisse innere Spaltung der Arbeitswelt. Menschen können das Systemganze ihres Arbeitsfelds immer seltener komplett überblicken. Im Gegenteil: In der hybriden Arbeitswelt, die durch eine immer engere Kooperation von Menschen und Maschinen gekennzeichnet wird, entspricht die Aufgabenstellung der eigenen Arbeitsleistung häufig dem Sichtfeld einer Taschenlampe. Beleuchtet wird ein kleiner Ausschnitt der Realität, der Rest der Welt bleibt dunkel. Das Vertrauen in die eigene Kompetenz richtet sich zunächst auf denjenigen Weltausschnitt, der mit der eigenen, konkreten Aufgabe verbunden ist. Faktisch führt diese Situation aber häufig zur Diffusion von Verantwortung. Der konkrete eigene Anteil an einer Leistung verschwimmt, weil nicht klar wird, welchen Beitrag er zum „Ganzen“ erbringt. Umgekehrt wird die Zuordnung von Verantwortung im Störfall schwierig. Häufig gibt es niemand, der tatsächlich für eine Störung verantwortlich ist. „Schuld“ ist ein ungünstiges Zusammenwirken von verschiedenen, gar nicht im Einzelnen erkennbaren Parametern. Das bedeutet im Klartext aber auch eine Verlagerung weg vom Kompetenzvertrauen hin zum Systemvertrauen. Stimmt aber das System nicht, kann auch hohe Expertenkompetenz nicht zu stimmiger, nach außen erkennbarer Leistung führen. Hohe Leistungsfähigkeit in einem ungeeigneten System führt dann sogar zu erhöhter Blindleistung, kann also zu erheblicher Frustration führen. Digitale Ökosysteme können daher zu einem Teufelskreis der Abwärtsspirale von Verantwortung führen. Gerade deshalb erstreckt sich ja der Bedarf nach höherer Transparenz auch auf die Modularität und immer präzisere Beschreibung einzelner Bestandteile der Leistungskette. Die hybride Arbeitswelt der Zukunft schafft daher erhöhte Bedarfe und Spielräume für die Leistungen des Planens und des 211

5.  Digitale Arbeit

Kontrollierens, des Auswertens und des Deutens einzelner Teilmodule der betrieblichen Leistungserstellung. Schon heute lässt sich beispielsweise feststellen, dass bei der Erzeugung von Medizinprodukten oder Arzneimitteln, ja teilweise auch in der Landwirtschaft und der Lebensmittelproduktion der eigentliche Arbeitsaufwand stärker im Qualitätsmanagement und in der Dokumentation als in der physischen Produktion liegt. Digitale Disruption bedeutet damit zugleich ein neues Verständnis der Rolle einzelner Arbeitnehmer und Arbeitnehmerinnen. Bleiben wir beim gerade eben erwähnten Beispiel des Qualitätsmanagements: Wenn hier ein neues Gesetz in Kraft tritt, ist die Dokumentation zu ändern. Vielleicht sind ganz neue Verfahrensschritte erforderlich. Bisheriges gilt jedenfalls nicht mehr. Das ständige Lernen am Arbeitsplatz wird so zur Grundvoraussetzung für ein erfolgreiches Arbeitsleben und die „Employability“ genannte Fähigkeit, im Arbeitsmarkt gebraucht zu werden (vgl. P. Speck 2008). Berufliches Lernen war zwar in gewissem Maß auch früher wichtig, doch hat sich die Geschwindigkeit im Strom der Änderungen erhöht. Umso schwerer ist es dann, Menschen nach längerer Arbeitspause wieder in den Arbeitsmarkt einzugliedern. Das wissen auch Paare, und sie richten ihre Entscheidungen über eigenen Nachwuchs häufig genug an solchen Anforderungen der Arbeitswelt aus. „Wenn ich mir eine Babypause gönne, bin ich weg vom Fenster!“ – kann man dann beispielsweise hören. Die Angst, von Entwicklungen abgeschnitten zu werden, äußert sich bisweilen sogar in bizarren Formen. So habe ich Manager erlebt, die auch am Strand „erreichbar“ sind, die nie einen Abwesenheitsagenten einstellen und die in einer Mischung aus Größenwahn und Minderwertigkeitskomplex von der Furcht getrieben sind, irgendeine wesentliche Entwicklung im Unternehmen durch Abwesenheit zur Unzeit zu verpassen. Wenn digitale Disruption zusätzlich zu solchen Beobachtungen bestimmte Kompetenzen in der Arbeitswelt obsolet macht, ergeben 212

Hybride Realität und Paradoxien der digitalen Arbeitswelt

sich daraus auf der Ebene des einzelnen Arbeitsnehmers erhebliche Unsicherheiten und Orientierungsschwierigkeiten. Wenn Großrechner nicht mehr in der Weise benötigt werden wie früher, verliert das zuvor hoch anerkannte Spezialwissen des entsprechenden IT-Experten schlagartig an Wert. So passierte es Gerhard L., einem 58-jährigen Systembetreuer in einem Großunternehmen. Er erhielt zwar eine ansehnliche Abfindung, brauchte aber lange, um sich persönlich und beruflich neu zu finden. Eine vergleichbare Expertise in einem anderen Bereich aufzubauen, fällt schließlich nicht jedem über 50-jährigen Arbeitnehmer leicht und ist für viele eine zu große Hürde. Dazu kommt die gefühlte Entwertung des eigenen Expertenstatus, der eben plötzlich nicht mehr nachgefragt wird. „Technische Disruption“, heißt es dann lapidar. Für das innere Weltbild eines Menschen, der vom nachgefragten Experten zum überflüssigen Repräsentanten der Berufswelt von gestern wird, sind dies keine guten Nachrichten. Es ist vor einem solchen Hintergrund kein Zufall, dass gerade die Sprecher von digital sehr affinen Unternehmen wie Siemens oder SAP sich gelegentlich für ein gesellschaftliches, bedingungsloses Grundeinkommen aussprechen. Ob es hilft und ob es würdevoll ist, Menschen mit einem Existenzminimum ruhig zu stellen, ist eine andere Frage, die hier nicht ausführlich erörtert werden soll. Anzumerken ist allerdings, dass Gerechtigkeitsfragen nie einen nur lokalen Charakter haben. Solange rund 800 Millionen Menschen mit einem Einkommen von weniger als 2 US-Dollar pro Tag leben, ist es schwierig, an den Sinn für Fairness in einer Gesellschaft zu glauben, die diesen Sachverhalt bei der Diskussion über das Grundeinkommen einfach nur ausblendet. Das eigene Kompetenzvertrauen von Arbeitnehmerinnen und Arbeitnehmern bezieht sich in einer digital geformten Gesellschaft mit immer weiter zunehmender Arbeitsteilung nur auf einen kleinen, punktuellen Ausschnitt der Realität. Darüber hinaus ist die eigene 213

5.  Digitale Arbeit

Kompetenz keine sichere Bank, sondern brüchig und von neuen Entwicklungen stets bedroht. Schon ein einfaches Update des digitalen Programms, das jemand zu nutzen hat, stellt die betreffende Person vor neue Herausforderungen. Zugleich ist allen klar, dass das notwendige Systemvertrauen immer auch Grenzen hat. Bei Banken gibt es beispielsweise ein sogenanntes Treasury System, also eine Verfahrensanweisung zur Begrenzung von Risiken, die sich aus dem Einsatz von Finanzmitteln im Eigenhandel, in der Kreditvergabe und bei finanziellen Haftungsverhältnissen ergibt. Die Qualität eines Risikomanagements, ob bei Banken oder anderen Unternehmen, zeigt sich aber häufig erst im Ernstfall. Wenn es dann ganz anders kommt als geplant, ist es zu spät: Es entstehen gigantische Folgeschäden. Dieses Beispiel verweist auf eine implizite Paradoxie digitaler Ökosysteme in der Arbeitswelt. Diese digitalen Ökosysteme unterliegen einer fast schon schizophrenen Bewusstseinsspaltung: Denn einerseits ist ohne starkes Systemvertrauen eine gute Leistungserstellung nicht möglich. Andererseits besteht ohne tiefe Skepsis vor einem Systemversagen über kurz oder lang die Gefahr eines Totalschadens. Zur digitalen Arbeitswelt gehört daher auch das Denken und Handeln sowohl in performanten wie auch in redundanten Systemen: Benötigt werden Reservesysteme inklusive der Vorbereitung, der Schulung und Maßnahmendefinition für den Stör- und Notfall. Auch hier können zwei Beispiele das Gesagte veranschaulichen. So war die Firma Arthur Anderson einst eine der fünf weltweit führenden Wirtschaftsprüfergesellschaften. Sie kollabierte über eine Falschbeurteilung der Risiken bei der damaligen Firma Enron und deren Insolvenz 2001 komplett. Ob sie von den betrügerischen Machenschaften rund um den damaligen CEO Dennis Koslowski wusste, spielt gar keine Rolle: Entscheidend war ein Testat auf der Grundlage einer falschen Risikoeinschätzung mit der Gefahr von gigantischen Schadenersatzforderungen. Das bei Arthur Anderson verfügbare Know-how Tausender 214

Hybride Realität und Paradoxien der digitalen Arbeitswelt

Mitarbeiter und Mitarbeiterinnen wanderte dann komplett zu anderen Wettbewerbern ab. Arthur Anderson ist inzwischen Geschichte. Ein anderes Beispiel ist der Zusammenbruch der Bank Lehman Brothers. Sie musste im September 2008 Insolvenz anmelden, weil bestimmte Finanzrisiken im Rahmen der Subprime-Krise falsch bewertet wurden und die erwartete Rettung durch den amerikanischen Staat ausblieb. Eine Kritik der digitalen Vernunft wird beide Seiten der hybriden Arbeitswelt in digitalen Ökosystemen in den Blick nehmen müssen: Systemvertrauen und Angst vor dem Systemkollaps, neue individuelle Freiheiten und verstärkte individuelle Kontrollierbarkeit. Positiv zu werten ist die Entlastung von monotonen Tätigkeiten, die Schaffung von Teilhabe für bislang ausgeschlossene Gruppen, die Weiterentwicklung speziell der planerischen und kooperativen Seite von Zusammenarbeit. Auch die massenweise Entstehung völlig neuer Berufsbilder vom SEO-Experten zum Data-Analysten, vom Cyber-Sicherheitsexperten bis zum Entwickler von Systemen Künstlicher Intelligenz ist Teil einer positiven Veränderung Auf der Risikoseite ist der Verlust eines ganzheitlichen Bildes zum gesamten Leistungsprozess, die mögliche Entwertung von Individualität, die zunehmende Kontrolldichte und der Hang zur digital unterstützten Konformität ins Spiel zu bringen. Wird aber der humane Anteil von Arbeit in verschiedenen Berufsfeldern bedroht, dann ist neu zu fragen, wie der Begriff der Menschenwürde in konkreten Arbeitsverhältnissen aus zu buchstabieren ist. Angesichts der Technikeuphorie einiger und der Panik vor Veränderungen anderer ist daher eine differenzierte Diskussion einzufordern, die von der rechtlichen Struktur der Arbeitsverhältnisse bei der Plattformarbeit bis hin zur konkreten ergonomischen Ausgestaltung eines Arbeitsplatzes im Home-Office geht. Die Veränderungen der Arbeitswelt im Rahmen der digitalen Transformation sind gewaltig, aber sie sind bewältigbar. Die Welt 215

5.  Digitale Arbeit

des 20. Jahrhunderts mit festen Orten und Zeiten, festen Berufsbildern und fester Anstellung, fester fachlicher Qualifikation und festem beruflichem Status ist vorbei. Der Zusammenhang zwischen „Ausbildung“ und „Einstieg in einen lebenslangen Beruf“ hat sich aufgelöst: Menschen wechseln häufiger nicht nur den Arbeitgeber, sondern ihren Beruf selbst. Digital veranlasste Entgrenzungen können aber auch sozialen Stress verursachen, gleich ob es um örtliche oder zeitliche Kontexte geht. Die nunmehr fließende Grenze zwischen Beruf und Privatleben produktiv und human neu zu bestimmen, erweist sich mehr und mehr als gesamtgesellschaftliche Aufgabe, die durch digitale Formen der Arbeit große Bedeutung gewinnt. Dauerhaftes Lernen, ein steter Mix aus Ausbildung, Projektphasen, Festanstellung und Rollenwechseln prägen die Arbeitswelt des 21. Jahrhunderts. Professionelles Ziel ist ein Bündel aus fachlichen, digitalen und sozialen Kompetenzen. Dabei wird die Fähigkeit zur Kommunikation mehr und mehr zur Schlüsselkomponente beruflichen Erfolgs. Der berufliche Erfolg aber ist Teil eines größeren Systemzusammenhangs, der selbst neu infrage gestellt und zu bestimmen ist. Dabei geht es besonders um das Verhältnis von eigenen, persönlichen Kompetenzfeldern der Beschäftigten im Verhältnis zur Systemkompetenz und dem damit verbundenen Systemvertrauen. Denn die oben genannten Paradoxien der digital geprägten Arbeitswelt sind gesellschaftlich und politisch bisher noch nicht ausreichend diskutiert worden. Gemeint ist hier etwa die Paradoxie von verschärfter Individualisierung im Gegensatz zu verschärftem Konformitätsdruck, von vertiefter Sinnsuche im Gegensatz zu verschärfter Entfremdung, von verbesserter Teilhabe im Gegensatz zur Entmächtigung und Entmutigung gegenüber großen, undurchsichtigen Systemen.

216

Literatur

Die schizophrene Paradoxie zwischen Systemvertrauen und Systemskepsis wirkt sich, ob erkannt oder unerkannt, massiv auf die gesellschaftlichen Verhältnisse aus. Das Vertrauen in fast alle großen gesellschaftlichen Institutionen ist ja tatsächlich in den letzten Jahren schwächer geworden. Der Vertrauensverlust ist nicht immer durch Fakten gedeckt, aber er reicht von der wahrgenommenen Sicherheit im öffentlichen Raum bis zum Vertrauen in die Arbeit von Kirchen und Gewerkschaften oder zum fast schon sprichwörtlichen Vertrauensverlust im politischen Raum. Dort sind populistische Strömungen nicht zuletzt Ausdruck einer Krise des Systemvertrauens in die Demokratie selbst. Gerade deshalb soll im nächsten Kapitel die Frage nach der Wiedergewinnung des Politischen im Sinn einer digitalen Solidarität in den Vordergrund rücken.

Literatur Ronald Arkin, Governing Lethal Behavior in Autonomous Robots, Baton Rouge: CRC Press 2009 Lukas Brand, Künstliche Tugend, Roboter als moralische Akteure, Regensburg: Pustet 2019 Dagmar Burkard, Harald Kohler, Norbert Kreuzkamp, Josef Schmid (Hrsg.), Smart Factory und Digitalisierung, Perspektiven aus vier europäischen Ländern, Baden-Baden: Nomos 2019 Norbert Copray, Fairness, Der Schlüssel zu Kooperation und Vertrauen, Gütersloh: Gütersloher Verlagshaus 2010 Ulrich Eberl, Smarte Maschinen, Wie künstliche Intelligenz unser Leben verändert, München: Carl Hanser 2016

217

5.  Digitale Arbeit

Christoph Engemann, Florian Sprenger (Hrsg.), Internet der Dinge, Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt, Bielefeld: transcript 2015 Christian Fieseler, Eliane Bucher, Christian Pieter Hoffmann, Unfairness by Design? The Perceived Fairness of Digital Labor on Crowdworking Platforms, in: Journal of Business Ethics 156, 2019, S. 987-1005 Franziska Fink, Michael Moeller, Purpose Driven Organizations. Sinn, Selbstorganisation, Agilität, Stuttgart: Schäffer-Poeschel 2018. Carl B. Frey, Michael A. Osborne, The Future of Employment, How Susceptible are Jobs to Computerisation, in: Technological Forecasting and Social Change, Amsterdam 2017, 114, S. 254-280 Hanna Fülling, Gernot Meier (Hrsg.), Die digitale Revolution und ihre Kinder, Brennpunkte digitaler Ethik, EZW-Texte 264, Berlin: Evangelische Zentralstelle für Weltanschauungsfragen 2019 Petra Grimm, Oliver Zöllner (Hrsg.), Mensch-Maschine, Ethische Sichtweisen auf ein Spannungsverhältnis, Stuttgart: Franz Steiner 2018 Armin Grunwald, Der unterlegene Mensch, Die Zukunft der Menschheit angesichts von Algorithmen, künstlicher Intelligenz und Robotern, München: Riva 2019 Ulrich Hemel (Hrsg.), Weltethos für das 21. Jahrhundert, Freiburg im Breisgau: Herder 2019 Clarissa Hennig, Nummer 5 lebt! Kriegs-, Pflege- und Sexroboter unter der Lupe, in: Petra Grimm, Tobias O. Keber, Oliver Zöllner (Hrsg.), Digitale Ethik, Leben in vernetzten Welten, Stuttgart: Reclam 2019, Kapitel 11, S. 171-187 Hans Jonas, Das Prinzip Verantwortung, Versuch einer Ethik für die technologische Zivilisation, Frankfurt am Main: Insel-Verlag 1979 (Neuauflage: Frankfurt am Main: Suhrkamp 1989) Thomas Kaffka, Neuronale Netze, Frechen: mitp-Verlag 2017 Thomas Köhler, Thomas Köster (Hrsg.), Arbeit einspunktnull, Neue Impulse für die Arbeitsmarktpolitik, Baden-Baden: Nomos 2019 218

Literatur

Werner Lachmann, Harald Jung, Christian Müller (Hrsg.), Unternehmensverantwortung in der Sozialen Marktwirtschaft, Stuttgart: Franz Steiner 2018 Fulko Lenz, Plattformökonomie, Zwischen Abwehr und Wunschdenken, Berlin: Stiftung Soziale Marktwirtschaft 2020 Avishai Margalit, Politik der Würde, Über Achtung und Verachtung, Berlin: Suhrkamp 2012 Catrin Misselhorn, Grundfragen der Maschinenethik, Stuttgart: Reclam 2018 Stephan Mokry, Maximilian Th. L. Rückert (Hrsg.), Roboter als (Er-) lösung, Orientierung der Pflege von morgen am christlichen Menschenbild, Paderborn: Bonifatius 2020 James H. Moor, The Nature, Importance, and Difficulty of Machine Ethics, in: IEEE Intellligent Systems 21, 2006, Bd. 4, S. 18-21 Nikos Mourkogiannis, Der Auftrag, Was großartige Unternehmen antreibt, Weinheim: Wiley-VCH 2007 Armin Nassehi, Muster, Theorie der digitalen Gesellschaft, München: ­ C. H. Beck 2019 Andreas Scherer, Neuronale Netze, Grundlagen und Anwendungen, Braunschweig: Vieweg 1997 Dietrich Schindler, Jiří Toman (Hrsg.), The Laws of Armed Conflicts: A Collection of Conventions, Resolutions, and Other Documents, Dritte revidierte Ausgabe, Alphen/Rhein (Alphen aan den Rijn): Sijthoff & Noordhoff International Publishers 1988 Victoria Schnier, Gender Mainstreaming und Diversity Management in der Organisationsentwicklung, Theoretische Hintergründe und praktische Ansätze für Institutionen der Weiterbildung, Norderstedt: VDM Verlag 2007 Peter Speck (Hrsg.), Employability, Herausforderungen für die strategische Personalentwicklung, Konzepte für eine flexible, innovationsorientierte

219

5.  Digitale Arbeit

Arbeitswelt von morgen, 3. aktualisierte und erweiterte Auflage, Wiesbaden: Gabler 2008 Nicole A. Vincent, Ibo Van de Poel, Jeroen van den Hoven (Hrsg.), Moral Responsibility: Beyond Free Will and Determinism. Dordrecht: Springer 2011 Ulrich Wiek, Fairness als Führungskompetenz, Strategie und Leitfaden für Führungskräfte und Unternehmen der Zukunft, Berlin: Springer Gabler 2018 Norbert Wiener, Mensch und Menschmaschine. Kybernetik und Gesellschaft, Frankfurt/M.: Alfred Metzner Verlag 1952

220

6. Digitale Politik Die digitale Transformation lediglich als technische Veränderung zu betrachten, reicht nicht aus. Schon die Auswirkungen auf die einzelne Person mit teilweise neuen Facetten digitaler Identität, aber auch die Folgen für die Umbrüche im Arbeitsleben zeigen auf, dass eine gesamtgesellschaftliche, damit aber auch politische Dimension nicht ausgeklammert werden sollte. Das Internet ist nicht das Paradies des herrschaftsfreien Diskurses, sondern unter anderem ein Ort der Machtausübung, der Manipulation, des Kampfes um Einfluss und um soziale Geltung. Erst allmählich wird deutlich, dass jede noch so scheinbar unbedeutende Entscheidung im digitalen Raum eben auch eine politische Entscheidung ist, angefangen beim benutzten Browser über den eingesetzten Mail-Provider und die verwendeten Einkaufsplattformen. Digitalpolitische Entscheidungen von Nutzerinnen und Nutzern, ob es sich um Privatpersonen, Firmen oder sonstige Organisationen handelt, drücken Einstellungen und Werthaltungen aus. Schließlich wird das Zusammenleben in komplexen Gesellschaften nicht zuletzt durch gemeinsame Werte, speziell aber durch Gesetze geregelt, die regelungsbedürftige Sachverhalte unter Ausgleich unterschiedlicher Interessen zu ordnen versuchen. Dies gelingt mal besser, mal schlechter. Die Herausforderung der digitalen Welt ist hier sehr speziell. Denn elektronischer Datenverkehr macht an nationalen Grenzen nicht halt. Man kann sogar die These aufstellen, dass die Globalisierung der Güter und Dienstleistungen durch die Globalisierung von Information und Kommunikation ergänzt und gesteigert wird. Als dritte Ebene der Globalisierung wäre 221

6.  Digitale Politik

dann die Ebene der Werte und Normen zu betrachten, weil Information und Kommunikation nicht losgelöst von Überzeugungen und normativen Erwartungen denkbar sind. Dieser Punkt soll im folgenden Abschnitt vertieft werden.

Digitale Kommunikation und die Globalisierung von Werten und Normen Digitale Kommunikation ist aus den genannten Gründen ein Hinweis auf eine real stattfindende, teilweise aber konfliktträchtige Globalisierung von Werten und Normen. Wenn man bedenkt, dass weltweit über 170 Millionen Menschen in einem Land arbeiten, in dem sie nicht geboren sind, dann sprechen wir bereits hier von 2% der Weltbevölkerung. Darüber hinaus gibt es rund 80 Millionen Geflüchtete, also Menschen, die aus politischen und teilweise auch wirtschaftlichen Notlagen heraus ihre Heimatregion und großenteils auch ihr Heimatland verlassen mussten. Diese Menschen bringen ihre eigenen Werte in ihren neuen Wirkungskreis mit. Gleiches gilt für den globalen Ferntourismus, aber auch für Geschäftsreisende. Der Umgang mit global geteilten, bisweilen aber höchst heterogenen Werten und Verhaltensweisen prägt unsere Zeit. Die schnelle Verbreitung des Coronavirus Anfang 2020 zeigt auf, dass wirtschaftliche Verflechtungen unmittelbar mit der genannten Reisetätigkeit von Personen verbunden sind, teils durch geschäftliche Aufgaben, teils aus touristischen Gründen. So kam das Virus im März 2020 offenbar durch Ski-Urlauber nach Island, schon zuvor durch die Geschäftsreise einer Chinesin zu einer Firma in Stockdorf nach Deutschland. Reisende sowie im Ausland lebende Menschen tragen aber nicht nur ihre Darmflora, Viren und Bakterien mit sich, sondern transpor222

Digitale Kommunikation und die Globalisierung von Werten und Normen

tieren wie beschrieben auch ihre Werte und Normen. Dabei geht es ganz fundamental um die Sichtweise auf Familie, auf Politik und auf Religion. Die Summe der Perspektiven einer Person lässt sich mit dem Begriff der „mentalen Architektur“ erfassen, der im nächsten Kapitel intensiver erörtert wird (U. Hemel 2019, 335-350). Globalisierung umfasst folglich drei Ebenen von sichtbaren und vordergründig unsichtbaren Phänomenen: den globalen Austausch von Gütern und Dienstleistungen, die globalen Formen digitaler Information und Kommunikation und die damit einhergehende Globalisierung von Werten und Normen. Solche Werte und Normen sind ihrerseits Teil derjenigen Informationen und derjenigen digitalen Kommunikation, die in einer vernetzten Welt in Familien, Unternehmen und zwischen Organisationen ausgetauscht werden. Werte und Normen ragen andererseits auch in die politische Welt hinein. Sie spiegeln sich an geltenden Gesetzen, finden ihr Echo folglich auch in der Unterschiedlichkeit soziokultureller und politischer Lebensformen. Ein kleines Gedankenexperiment kann die normativen und politischen Implikationen von Werten aufzeigen. Stellen Sie sich einfach vor, Sie machen eine Reise in die Länder Saudi-Arabien, USA und Deutschland. Jetzt kommt die Herausforderung: Sie haben in Ihrem Koffer eine offiziell registrierte Pistole, eine Bibel und eine Zeitschrift mit sehr freizügigen Körperabbildungen junger Damen und Herren. Mit den vermutet christlichen Werten der Bibel gewinnen Sie an der saudi-arabischen Grenze keine Freunde. Mit Ihrem vermuteten Plädoyer für freien Waffenbesitz werden Sie an der deutschen Grenze einige intensive Fragen zu beantworten haben. Das sexuell freizügige Magazin wiederum wird Sie womöglich sowohl an der US-amerikanischen als auch an der saudi-arabischen Grenze in Schwierigkeiten bringen. Das Beispiel soll einen Anhaltspunkt dafür bieten, dass gesellschaftliche Werte ihren Niederschlag in geltenden Gesetzen haben. Schließ223

6.  Digitale Politik

lich wird niemand dieses Gedankenexperiment in die Tat umsetzen. Was für die physische Welt in der genannten Form unwahrscheinlich ist, gewinnt in der digitalen Welt an politischer Bedeutung. So ist in Deutschland eine Verklärung des Naziregimes gesetzlich verboten, in den USA nicht. In Thailand ist die Beleidigung des dortigen Königs bei Strafe verboten, außerhalb Thailands gilt dies so nicht. Die scheinbare Grenzenlosigkeit des Internets verführte anfänglich den einen oder anderen Zeitgenossen dazu, auf globale Meinungsfreiheit zu hoffen bis hin zum „Arabischen Frühling“ 2010/2011. Etwa zehn Jahre später haben Staaten mit eher autoritären Regierungen längst dazugelernt. Sprichwörtlich ist beispielsweise die Internetzensur in China. Die Grenzen der Meinungsfreiheit sind jedenfalls gesetzlich unterschiedlich geregelt. Der politische Raum ragt also ganz massiv in das digitale Geschehen ein. So ist es heute allgemein völlig klar, dass Plattformbetreibern zuzumuten ist, die entsprechenden Gesetze differenziert von Land zu Land zu beachten, gleich ob es sich um Uber, WhatsApp, Facebook oder Instagram handelt.

Digitale Finanztransaktionen und die Reichweite der Politik Für die Politik mindestens ebenso herausfordernd wie die Begrenzung von Hate Speech in den Social Media sind die globalisierten digitalen Finanzmärkte. Betrachten wir dazu ein scheinbar einfaches Beispiel. So werden Zahlungen in Gestalt von zahlungsrelevanten Datenpaketen regelmäßig von einem Land zum nächsten geschickt, sei es über klassische Banken, sei es über vielfältige andere Finanzdienstleister, sei es über Bitcoin oder andere digitale Währungen. Diese seit 2008 entstandenen Crypto-Currencies oder „Kryptos“ nutzen die Blockchain-Technologie, die wiederum eng mit dem Wert 224

Digitale Finanztransaktionen und die Reichweite der Politik

der lückenlosen Nachweisbarkeit und Transparenz verbunden wird (vgl. C. Dierksmeier 2019, 103-133). Ob und wie weit sich Kryptowährungen auf Dauer durchsetzen werden, ist offen. Sie werden ja nicht durch Zentralbanken und Staaten garantiert, sondern führen ein nicht-institutionelles Eigenleben, das auf dem Vertrauen der Nutzer und Nutzerinnen beruht. Eine häufig übersehene, sozial ungemein wichtige Form digitaler Zahlungsdienste sind Western Union und andere Dienstleister, die in der Lage sind, Bargeld von Kunden ohne eigenes Bankkonto in ärmere Länder zu transferieren und auszuzahlen. Solche Zahlungen sind relativ teuer, weil sie beim Versand von 200 US-Dollar zwischen 6% und 10% an Zahlungskosten verursachen. Gemessen an der Wirtschaftsleistung einiger Länder sind solche digitalen Transaktionen aber von sehr großer Bedeutung: Sie stehen im Jahr 2019 nach Angaben der Weltbank in besonders armen Ländern für rund ein Drittel des Bruttoinlandproduktes. In Haiti sind es 37% des Bruttoinlandprodukts, im Südsudan 34%, in Kirgistan 29% (vgl. https://migrationdataportal.org/de/themes/rapatriements-de-fonds, abgerufen am 8. Juni 2020, 10.09h). Insgesamt ging es bei solchen internationalen Transferzahlungen von Privatpersonen 2019 um 554 Milliarden US-Dollar; für 2020 wird wegen der Corona-Krise mit 445 Milliarden US-Dollar gerechnet (ebd.). Diese Summen übertreffen insgesamt das Volumen ausländischer Direktinvestitionen und der staatlichen Entwicklungshilfe. Es ist wenig bekannt, dass über solche digital vermittelte Zahlungsstrukturen angelernte Arbeitskräfte mit Migrationshintergrund, aber auch Asylbewerber und illegal Beschäftigte einen Weg gefunden haben, um die eigenen Familienangehörigen in der „alten Heimat“ zu unterstützen. Digitale Finanztransaktionen gehören aber auch in die Welt multinationaler Unternehmen und zum Alltag sehr reicher Individuen. Digitale Zahlungsströme ermöglichen es findigen Konzernen, sich 225

6.  Digitale Politik

beispielsweise so zu organisieren, dass Gewinne vorzugsweise im Land A mit niedrigen Steuern und nicht im Land B mit höheren Steuern anfallen. Ein interessantes Beispiel ist der vom Geschäftsmann Marc Rich gegründete Rohstoffhandels- und Bergbaukonzern Glencore aus dem Schweizer Kanton Zug (vgl. D. Ammann 2010). Mit einem Umsatz von über 200 Milliarden Dollar und weit über 100.000 Beschäftigten handelt es sich um das umsatzstärkste Unternehmen der Schweiz. Immer wieder wurden Vorwürfe der Menschenrechtsverletzung, der Korruption, der Steuerhinterziehung und der massiven Umweltverschmutzung gegen das Unternehmen erhoben. Das Kupfer einer Mine aus Sambia sei beispielsweise über eine britische Tochter an das Mutterunternehmen in der Schweiz verkauft worden. Dort gibt es einen besonders niedrigen Steuersatz. Es wurde folglich vermutet, dass Gewinne über niedrige Verrechnungspreise so gesteuert wurden, dass sie in der Schweiz anfielen und nur gering versteuert wurden (vgl. auch Erklärung von Bern 2011). Der Schweizer Kanton Zug ist nur eines von mehreren Beispielen für den Wettbewerb von Staaten und Regionen rund um niedrige Steuersätze. Er beherbergt neben Glencore den Sitz zahlreicher Firmen, verlangt wie erläutert außerordentlich niedrige Steuern und lebt gut von ihnen. Ein anderes, keineswegs zufälliges Beispiel ist die Republik Irland. Das Land ist nicht nur aufgrund der englischen Landessprache Sitz vieler in Europa tätiger US-amerikanischer Unternehmen. Aus Unternehmenssicht hat es den Vorteil eines für ein EU-Land sehr niedrigen Körperschaftssteuersatzes. Der bislang nicht erfolgreiche Versuch einer europäischen Digitalsteuer für Großunternehmen wie Google, Facebook und Amazon zeigt aber auch, wie schwierig das Unterfangen ist, sich in einem solchen Fall am Gemeinwohl der globalen oder zumindest europäischen Zivilgesellschaft auszurichten.

226

Digitale Finanztransaktionen und die Reichweite der Politik

Jede Veränderung der Steuerpraxis etwa bei Verrechnungspreisen oder bei der Methodik der Gewinnermittlung hat sofort Auswirkungen, und zwar sowohl auf das lokale Wohlergehen wie auch auf das Konzept staatlicher Souveränität: Schließlich will sich Irland nicht von der EU vorschreiben lassen, in welcher Höhe und in welcher Form es Steuern erhebt. Tatsächlich ist das „globale Gemeinwohl“ bislang keine politikfähige Größe. Denn auch einzelne Länder stehen ja im Wettbewerb miteinander. Bei der Gewinnung von attraktiven Steuerzahlern kann es bisweilen auch einen staatlichen Wettlauf „nach unten“ geben. Der Wettbewerb um die niedrigsten Steuersätze wird auch „Race to the bottom“ genannt und verschärft die Finanzierungsproblematik aus Steuermitteln gerade in weniger betuchten Staaten. Dies gilt erst recht in digitalen Zeiten, einfach weil Finanztransaktionen digital barrierefrei und einfach auszuführen sind. Dennoch gibt es Lösungsansätze, die auch für digitale Transaktionen funktionieren können und von denen ich zwei erwähnen möchte. So gibt es innerhalb der EU beispielsweise einen steuerlichen „Korridor“ für die Erhebung der Mehrwertsteuer. Vorgesehen ist ein Mindestsatz von 16% und ein Höchstsatz von 25%. Ähnlich ließe sich auch die Körperschaftssteuer ausgestalten, wenn der gemeinsame politische Wille dazu vorhanden ist. Das zweite Beispiel betrifft die Kommunen. Schließlich gibt es auch in Deutschland unterschiedliche Hebesätze bei der Gewerbesteuer, sodass die steuerliche Belastung von Betrieben sich von Kommune zu Kommune unterscheidet. Einen gewissen Ausgleich für den Wettbewerb der Hebesätze bietet die Verteilung der von den Arbeitnehmern zu zahlenden Lohnsteuern. Denn die Lohnsteuer kommt nach einem gewissen Schlüssel nicht einfach der Gemeinde des Firmensitzes zugute, sondern auch derjenigen Gemeinde, in der ein Unternehmen eine eigene Betriebsstätte unterhält. 227

6.  Digitale Politik

Greift man solche Gedanken auf, um sie für die digitale Welt anzupassen, dann wäre es sinnvoll, eine Digitalvolumensteuer einzuführen. Für diese könnten entsprechende Kenngrößen gelten, also beispielsweise das digitale Transaktionsvolumen, die Anzahl der User, der Clicks oder der geleisteten Dienste. Was schon auf der Ebene eines Staates wie Deutschland oder eines Staatenbundes wie der EU nur mit großer Mühe gelingen kann, ist auf globaler Ebene illusorisch. Die „Panama Papers“, also die 2016 in 76 Ländern so gut wie gleichzeitig erfolgte Veröffentlichung von Geldanlagen in Panama mit einem vermuteten Geldwäschehintergrund und einem Datenvolumen von 2,6 Terabyte, zeigen dies deutlich. Ein weiteres Beispiel ist die Anwendung von Formen Künstlicher Intelligenz im Finanzwesen. Der digitale Hochfrequenzhandel geht regelmäßig von mehreren Transaktionen pro Sekunde aus und folgt dabei Algorithmen, die KI verwenden. Solche Programme sind in Geschwindigkeit und Konsequenz jedem menschlichen Akteur überlegen. In extremen Fällen erzeugt eine solche Form digitaler Finanztransaktionen einen sich selbst verstärkenden Effekt. Zu diskutieren ist also zweierlei: Die Begrenzung der Anzahl von Operationen pro Sekunde und die Besteuerung von Transaktionen, die den Hochfrequenzhandel verteuern und damit tendenziell etwas weniger attraktiv machen würde. Die angeführten Beispiele zeigen, dass die digitale Globalisierung von Information und Kommunikation zu neuen politischen Herausforderungen führt, denen Staaten und internationale Organisationen sich stellen müssen. Der gegenwärtige Trend zur Rückbesinnung auf nationale Handlungsebenen mag die Herausbildung besserer globaler Spielregeln für Finanztransaktionen verlangsamen. Gerade im Finanzbereich sind die Vorzüge internationaler Kooperation aber so offensichtlich, dass es nur eine Frage der Zeit sein wird, bis sich der

228

Digitale Finanztransaktionen und die Reichweite der Politik

Wind dreht und die internationale Kooperation trotz einiger Inseln des nationalen Egoismus wieder Rückenwind erfährt. Die Ambivalenz aus der flächendeckenden Umsetzung der Digitalisierung wirkt zwangsläufig auf den Staat und die Politik selbst zurück. So ist beispielsweise zu fragen, wo Transparenz endet und tatsächlich enden soll. Komplette Transparenz verletzt immerhin unser Bedürfnis nach Privatheit. Darüber hinaus kann Transparenz Kontroll- und Überwachungskosten nach sich ziehen, die im Einzelfall von erheblicher Bedeutung sein können. Übertreibungen staatlicher Belange entgegen den Bedürfnissen nach dem Schutz der eigenen Person und nach Privatheit wurden bekanntlich bereits am Ende der 40er-Jahre des letzten Jahrhunderts von George Orwell in seinem bekannten Roman „1984“ zur Diskussion gestellt (vgl. G. Orwell 1984). Ein praktisches Beispiel für die politische Umsetzung solcher Gedanken ist das Verbot von Gesichtserkennungssoftware im öffentlichen Raum ausgerechnet im Eldorado des digitalen Fortschritts, in Kalifornien. Interessant ist, dass ethische Zurückhaltung gegenüber einer noch vor Kurzem gefeierten Technik bisweilen sogar ihren Weg in die Unternehmenszentralen findet. So veröffentlichte der CEO von IBM, einem weltweit agierenden Unternehmen mit über 350.000 Mitarbeitenden, am 8. Juni 2020 den öffentlichen Verzicht auf das Angebot und die Entwicklung von Gesichtserkennungssoftware für „allgemeine Zwecke“ (general purpose facial recognition software) (abgerufen am 12. Juni 2020, 12.34h, https://www.theverge. com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software). Die Reichweite der Politik muss jedenfalls Gegenstand politischer Diskussionen sein und wirksam gegenüber staatlichen Allmachtsfantasien begrenzt werden. Denn kaum jemand würde es schätzen, wenn die Steuerbescheide aller Bürgerinnen und Bürger ins Netz gestellt würden. 229

6.  Digitale Politik

Das zivilgesellschaftliche Interesse an nachvollziehbaren Spielregeln für die Nutzung von privaten Daten geht aber weit über finanzielle Daten hinaus. Der Gegensatz zwischen Transparenz und Kontrolle kann sogar zu echten Dilemmata führen, etwa in der Frage des Datenschutzes bei kriminellen Transaktionen im Darknet.

Digitale Souveränität von Staaten Gestaltungs- und Abwehrrechte sind daher auf beiden Ebenen zu betrachten: auf der Ebene der betroffenen Individuen und der Ebene der einzelnen Staaten. Es ist daher kein Zufall, dass wir den Begriff der „digitalen Souveränität“ sowohl auf Staaten wie auf Individuen anwenden können. Die digitale Souveränität der Person ergibt sich technisch aus der Verfügbarkeit digitaler Konnektivität, philosophisch aus dem besonderen Rechtsstatus menschlicher Personen. Die digitale Konnektivität der subjektiven Biografie jedes Menschen auf dieser Welt erfordert einen bewussten Umgang mit digitalen Chancen und Risiken. Es geht also um einen Lern- und Bildungsprozess rund um den Umgang mit dem digitalen Raum und um das Verhalten in ihm. Digitale Bildung oder digital literacy ist vom ganzheitlichen Bildungsprozess junger und weniger junger Menschen nicht zu lösen. Die „digitale Souveränität“ der Person bezieht sich in diesem Sinne auf den selbstbestimmten, steuernden Umgang mit den verschiedenen Facetten physischer und digitaler Identität. Gleichzeitig geht es um den Schutz vor übergriffigen Formen staatlicher Kontrolle und vor einer digitalen Technokratie. Die „digitale Souveränität“ von Staaten bezieht sich auf Handlungsoptionen und Handlungsgrenzen ganzer Staaten in einer digital globalisierten Welt. Dabei ist es sinnvoll, sich dem Thema von den beiden Extrempolen her zu nähern: der kompletten digitalen Ohn230

Digitale Souveränität von Staaten

macht wie der digitalen Allmacht. Ein Souveränitätsmangel des Staates wurde in der Vergangenheit unter anderem durch das Thema Kolonialismus veranschaulicht. Umgekehrt kann eine besonders starke Form von Souveränität zur Versuchung der Machtexpansion bis hin zum Imperialismus führen. Beide Begriffe finden in digitalen Zeiten neue Anwendungsfelder, denn sowohl ein „digitaler Kolonialismus“ wie auch ein „digitaler Imperialismus“ sind politische Folgen von Machtkonstellationen bei der Verfügung über digitale Technologie. Betrachten wir zunächst das Beispiel des digitalen Kolonialismus. Wäre ein Staat digital völlig ohnmächtig, dann würde er zum Spielball fremder kommerzieller und politischer Mächte. Er könnte sich weder gegen unerwünschte Inhalte in Social Media noch gegen unerwünschte Finanztransaktionen noch gegen die kommerzielle Verwendung von Nutzerdaten ausreichend wehren. Wäre umgekehrt ein Staat digital allmächtig, dann hätte er Zugriff auf globale Nutzerdaten. Er könnte im globalen Maßstab politische und weltanschauliche Inhalte verbreiten und liefe Gefahr, sich der Versuchung eines digitalen Imperialismus hinzugeben. Ein solcher Staat hätte die Macht, durch digitale Zugangskontrollen eigene Unternehmen zu fördern, aber ausländische Firmen auszuschließen oder zumindest zu hemmen. Er gewänne die Kontrolle über die Denkweisen von Privatpersonen und die Handlungsmuster von Unternehmen und Organisationen. Unerwünschte Inhalte, Transaktionen und Verhaltensweisen könnten blockiert werden. Digitale Souveränität im engeren Sinn wäre im Fall der digitalen Allmacht lediglich das Privileg des digital allmächtigen Staates. Alle anderen Staaten hätten den Status digitaler Vasallen. Wahrheit und Wirklichkeit liegen in der Mitte. Weder sind Staaten wie China, Russland oder die USA allmächtig, noch sind Moldawien, Vanuatu und San Marino komplett ohnmächtig. Dennoch ist es auffällig, dass die Kurzbeschreibung eines digitalen Imperialismus durchaus wirksame Assoziationen weckt. Unbestreitbar ist ins231

6.  Digitale Politik

besondere der erkennbare politische Wille, eigene Vorstellungen über geltende Werte und Normen auch digital durchzusetzen, so etwa in Staaten wie China, den USA, Russland, Saudi-Arabien oder dem Iran. Auch wenn es nicht immer um „Imperialismus“ gehen mag, ist es doch unverkennbar, dass digitale Methoden auch im Machtkampf zwischen Staaten Anwendung finden. Ein interessantes Beispiel ist der Konflikt um die Beeinflussung des amerikanischen Präsidentschaftswahlkampfes 2016 durch russische Hackerangriffe (vgl. https://www. nzz.ch/international/donald-trump-und-russland-vorwuerfe-ueberblick-ld.152113, abgerufen am 12. Juni 2020 um 12.59h). Die Neue Zürcher Zeitung berichtet am 21. Mai 2020 ausführlich darüber, dass der unter dem Einfluss der Republikaner stehende US-Senat am 21. April 2020 den Bericht eines Geheimdienstkomitees mit dem Fazit veröffentlicht habe, die damaligen Geheimdiensteinschätzungen über die Rolle Russlands in jenem Wahlkampf seien „gut fundiert“ gewesen (ebd.). Aus europäischer Perspektive ist zwar klar, dass kein Staat der EU den Wunsch und die Fähigkeit hat, irgendeine Form des digitalen Imperialismus durchzusetzen. Das Interesse der EU-Staaten ist eher defensiv: Sie wollen weder zum Gegenstand einer umfassenden digitalen Kommerzialisierung noch einer umfassenden Staatskontrolle rund um digitale Information und Kommunikation werden. Ziel wäre eine „digitale Balance“ (vgl. U. Hemel 2019, 212-219) unter Beachtung der spezifischen europäischen Freiheitstraditionen. Die Frage nach Selbstbestimmung und Freiheit hat folglich nicht nur eine individuelle, sondern auch eine sozialethische und eine im engeren Sinn politische Komponente. Dabei geht es nicht nur um das Verhältnis von Staat und Individuum, sondern auch um die politische Seite der Frage nach den Grenzen digitaler Marktmacht und die Zukunft von Digitalkonzernen. Auch auf diesem Gebiet sind Spielregeln neu zu definieren, beispielsweise als Antwort auf die Frage, ob Bürgerinnen und Bürger einen Anspruch auf Löschung oder 232

Datenkartelle und die Freiheit digitaler Märkte

Nicht-Verwendung von Daten haben, die illegal gewonnen oder illegal nicht herausgegeben wurden.

Datenkartelle und die Freiheit digitaler Märkte Zur digitalen Souveränität in einer sozialen Marktwirtschaft gehört auch der Gedanke des Staates als einer Ordnungsmacht. Der Staat hat dann die Aufgabe, die Freiheit von Märkten zu gewährleisten, ihnen aber auch Grenzen aufzuerlegen, wenn es zu einer politisch unerwünschten Zusammenballung wirtschaftlicher Macht kommt. Der Staat agiert im Kartellrecht als ein Schiedsrichter, der für faire Rahmenbedingungen sorgen will. Dabei wurde die Zusammenballung wirtschaftlicher Macht bisher überwiegend in Marktanteilen und Geldströmen gemessen. Zukünftig muss und wird es auch um Datenmengen und Datenmacht gehen, denn mit digitaler Technik steht auch die Definition von Marktmacht neu auf dem Prüfstand. Für den Zusammenhang zwischen technischer Innovation, Kartellbildung und der Begrenzung von Marktmacht gibt es eine Reihe interessanter Beispiele aus der Geschichte. Schließlich ist es nicht neu, dass neue Technologien zu neuen politischen Verhaltensweisen führen. Gerade die monopolartige Zusammenballung von Macht in wenigen Händen ist bei technologischen Neuerungen ein wiederkehrendes Phänomen, so zum Beispiel bei John D. Rockefeller (1839-1937), dem ersten Dollar-Milliardär der Geschichte und dem Gründer der Standard Oil Company. Seine Geschichte zeigt vor allem eins: Wer Monopole nicht will, muss sie zerschlagen, manchmal sogar mehrfach. Gerade mit Blick auf die digitale Plattformökonomie ist dies ein wirtschaftlich und politisch heißes Eisen. Schließlich geht es um die Daten von Menschen und Organisationen, die sich dort freiwillig registrieren. Niemand wird und kann ihnen verbieten, sich nach der 233

6.  Digitale Politik

denkbaren Aufteilung einer Plattform in kleinere Unternehmen erneut genau dort zu registrieren. Es ist also gar nicht sicher, dass eine „Zerschlagung“ oder „Aufteilung“ im ersten Anlauf zum angestrebten Erfolg führt. Auch dafür steht das Beispiel von John D. Rockefeller. Seine Geschichte ist eines von zahlreichen Beispielen der Wirtschaftsgeschichte, die den politischen Willen gegen die Zusammenballung wirtschaftlicher Macht dokumentieren. So wurde aufgrund des Sherman-Antitrust-Act von 1890 das Vermögen der Standard Oil im Jahr 1911 durch ein Gerichtsurteil auf 34 Gesellschaften aufgeteilt. Rockefeller verdiente sich allerdings gerade nach der Zerschlagung eine goldene Nase, weil er die fast wertlos gewordenen Anteile an seinen Unternehmen zu einem bedeutenden Teil aufkaufen konnte. Er erwarb dann mit der beginnenden Automobilisierung und der dadurch steigenden Nachfrage nach Öl erneut ein gewaltiges Vermögen. Ein anderes Beispiel ist die Telefongesellschaft AT&T, die im Grunde eine monopolähnliche Macht über die damals neue Technik der Telefonie in den USA hatte. Im Jahr 1982 wurde sie im Rahmen eines Kartellauflösungsverfahrens des Justizministeriums in sieben regionale Unternehmen aufgespaltet, die sogenannten „Baby Bells“. 2005 übernahm einer dieser sieben Regionalgesellschaften, nämlich die Southwestern Bell Corporation, das verbleibende Unternehmen AT&T. In Deutschland blühte im 20. Jahrhundert die Chemieindustrie auf. Sie erlangte eine weltweit führende Stellung. Sie geriet aber auch in den unseligen Sog des Naziregimes 1933-1945 und verstrickte sich in die Beschäftigung von Zwangsarbeitern und die Gasproduktion zur Ermordung von Menschen in Konzentrationslagern. Bereits vor der Nazizeit, im Jahr 1925, hatten sich acht führende Unternehmen, unter ihnen Bayer, BASF und Hoechst, zur IG Farben zusammengeschlossen. Die IG Farben wurde zeitweilig das größte Unternehmen Europas. Im Jahr 1952 wurde das Unternehmen durch die damaligen drei westlichen Besatzungsmächte USA, Frankreich und Großbritan234

Datenkartelle und die Freiheit digitaler Märkte

nien in elf eigenständige Firmen entflochten, teils als Antikartellmaßnahme, teils als Strafmaßnahme gegen ein Unternehmen, das wie beschrieben an Kriegsverbrechen Anteil hatte. Das deutsche Trennbankengesetz vom 7. August 2013 wiederum war eine Reaktion auf die Wirtschafts- und Finanzkrise der Jahre 2008 und 2009. In den USA hatte es schon zuvor mit dem GlassSteagall-Act (1932) ein Vorgängergesetz mit der gleichen Zielsetzung der Risikominimierung im Bankgeschäft gegeben. Grundgedanke war die Risikoabsicherung des Finanzsystems genau dann, wenn beispielsweise der Eigenhandel einer Bank große spekulative Verluste anhäuft. Mit dem Begriff des Eigenhandels sind Transaktionen gemeint, die eine Bank nicht im Kundenauftrag ausführt, sondern aus eigenem Antrieb, also auf der Grundlage des Eigenkapitals einer Bank. Entstehen dabei nicht Gewinne, sondern Verluste, dann wird als Folge solcher Verluste das Kapital des ansonsten normal laufenden Kreditgeschäfts mit Firmen und Privatpersonen aufgezehrt. Die Bank kann im Extremfall in eine Schieflage geraten. Die genaue Bezeichnung des deutschen Trennbankengesetzes von 2013 lautet daher auch „Gesetz zur Abschirmung von Risiken und zur Planung der Sanierung und Abwicklung von Kreditinstituten und Finanzgruppen“. Es richtet sich sowohl auf die Vermeidung von Risiken wie auf eine Größenkontrolle und Stabilisierung des europäischen Bankensystems. Die genannten Beispiele aus den USA und aus Deutschland zeigen, dass funktionierende Staaten gegenüber der Zusammenballung wirtschaftlicher Macht nicht ohnmächtig sind, selbst dann, wenn es sich gelegentlich um ein Spiel wie im Wettlauf zwischen „Hase und Igel“ handelt: Es wird eine Maßnahme verabschiedet, die dann wieder kreative Reaktionen hervorruft. Daraufhin gibt es neue Maßnahmen und neue Spielzüge der jeweils anderen Seite. Aus dem Gesagten heraus ergibt sich mit noch größerer Schärfe die Frage nach der Grenze digitaler Datenmacht. Dies gilt weltweit für Datenprofile auf Social Media wie Facebook, Instagram und anderen, 235

6.  Digitale Politik

aber auch für Einkaufsdaten bei Amazon, für Mobilitätsdaten mit Tesla, für Daten der Gesichtserkennung mit Clearview AI. Dabei ist es durchaus vorstellbar, dass große Digitalkonzerne in mehrere Firmen aufgespalten werden. Etwas zugespitzt könnte man sagen: Wenn es „Facebook“ gibt, kann es auch „Nosebook“ geben, also eine Aufteilung des heutigen Datenriesen in mehrere unabhängige Gesellschaften. Dann gäbe es beispielsweise mehrere regionale Mini-Facebooks. Interessanterweise tauchte eine entsprechende Forderung sogar im Vorwahlkampf der Demokraten in den USA bei Elizabeth Warren Anfang 2020 auf. Die Forderung blieb aber bisher ohne Folgen. Weil soziale und politische Prozesse in aller Regel langsamer ablaufen als technologische Veränderungen, wird es noch Zeit brauchen, bis praktikable Regelungen entstehen. Schließlich müssen zunächst einmal umsetzbare Kategorien für politisches Handeln entwickelt werden. Geht es dann um Datenmengen (messbar in Terabytes), um Datenreichweiten (messbar im Prozentsatz der eigenen, betroffenen Bevölkerung) oder um die geschäftsmäßige weitere Verarbeitung von Daten (etwa im Data Mining)? Solche Fragen der Digitalpolitik müssen zunächst einmal öffentlich diskutiert werden, auch in der Unterschiedlichkeit der beteiligten Interessen. Diese Diskussion steht aber erst am Anfang. Denn in der digitalen Welt müssen gerade die demokratischen Staaten ihre Rolle erst noch finden. Ein in Deutschland bekanntes Beispiel für die lange vorherrschende Unsicherheit über eine sinnvolle Digitalpolitik ist das Mobilfunknetz. Mit der Entscheidung zur separaten Versteigerung von UMTS-Netzlizenzen hatte der Staat zwar Einnahmen erlöst, den Netzaufbau aber auch in die Hände derjenigen Konzerne gelegt, die bei den Versteigerungen zum Zug kamen. So musste jedes Unternehmen sein eigenes Netz aufbauen.

236

Digitale Daseinsvorsorge: Die Rolle der Staaten im digitalen Strukturwandel

Ein nationales Roaming, also die Nutzung von Netzwerken außerhalb der Reichweite des eigenen Betreibers, wurde nicht beschlossen. Folglich hat Deutschland bis heute eines der schlechtesten Mobilfunknetze in Europa. Denn bisher schafft es kein einziger Anbieter, das gesamte, in Teilen keineswegs sehr dicht besiedelte Bundesgebiet störungsfrei und ohne Funklöcher abzudecken. Im Gegensatz dazu hat es die EU geschafft, ein europäisches Roaming einzuführen, das aber nur im jeweiligen „EU-Ausland“ gilt. Der Netzausbau ist aber heute eine Infrastrukturaufgabe allerersten Ranges. Bisher hatte immer der Staat eine Führungsrolle bei der Infrastruktur, von Wasserleitungen bis zur Stromversorgung, von Bundesstraßen und Autobahnen bis zum Zugverkehr. Die Anfänge der digitalen Transformation fielen aber in eine Zeit starker Deregulierung, sodass die Rolle des Staates sehr zurückhaltend interpretiert wurde. Erst allmählich wird eine Abkehr von der damaligen Sichtweise erkennbar, etwa mit Blick auf die Forderung nach staatlich betriebenen Digitalstandards (vgl. dazu Th. Heitmann, N. Schön 2020). Dazu kommt, dass staatliche Gemeinschaftsaufgaben im Sinn digitaler Solidarität eine offensive und eine defensive Seite aufweisen. Sie reichen von der Ausgestaltung guter Lebensverhältnisse etwa im Rahmen von digitaler Infrastruktur bis zur Gefahrenabwehr, etwa gegen Verbrechen im digitalen Raum, dem Cybercrime. Es lohnt sich daher, die Rolle des Staates im digitalen Strukturwandel noch etwas genauer zu beleuchten.

Digitale Daseinsvorsorge: Die Rolle der Staaten im digitalen Strukturwandel Die Wiedergewinnung des Politischen im digitalen Raum stellt sich Anfang des 20. Jahrhunderts als Gestaltungsaufgabe heraus, die sich aus den sozialen Folgen des digitalen Strukturwandels ergibt. Wer 237

6.  Digitale Politik

heute ein Haus verkauft, das von schnellem Internet ausgeschlossen ist, der muss mit einem Abschlag auf den Kaufpreis rechnen. Wenn Anfang 2020 der neue Autobauer Tesla an der Börse mit über 100 Milliarden Dollar bewertet wird, dann hängt dies gerade nicht an der Qualität der konventionellen Karosserie oder den Spezialitäten seines Antriebsstrangs, sondern am „Datenreichtum“ des Unternehmens. Es verfügt über die Datensätze aus Millionen gefahrener Kilometer und ist gerade in diesem Punkt den traditionellen deutschen Konzernen wie VW, Daimler und BMW weit voraus. Digitale Daseinsvorsorge ist auf diesem Hintergrund eine Querschnittsaufgabe, die in einem eigenen Bundesdigitalministerium gebündelt werden muss. Dabei geht es letztlich um die Qualität des Zusammenlebens in einem Land, nicht nur um Wirtschaftsförderung, nicht nur um Wettbewerbsfähigkeit und Technologieentwicklung, nicht nur um Datenschutz und nicht nur um IT-Sicherheit. Gefordert wäre eine Balance der verschiedenen Aspekte, die heute über verschiedene Ministerien verteilt sind. Bereits seit 1991 besteht in Anbindung an das Innenministerium ein Bundesamt für Sicherheit in der Informationstechnik (BSI) mit Sitz in Bonn. Es ist für die IT-Sicherheit der Bundesbehörden, aber auch für die Ausarbeitung von Empfehlungen und Mindeststandards im Bereich IT- und Internet-Sicherheit zuständig. Das BSI veröffentlicht darüber hinaus einen jährlichen Bericht zur Lage der IT-Sicherheit in Deutschland. Die Wiedergewinnung des Politischen im digitalen Raum ist aber nicht einfach identisch mit Zielen des Staats- und Verfassungsschutzes oder mit dem öffentlichen Interesse an Datensicherheit. Sie geht auch nicht auf in der Bereitstellung digitaler Infrastruktur wie etwa Glasfaseranschlüssen. Wenn die digitale Lebenswelt für das Wohl und Wehe einer Bevölkerung vom Privatleben über die Arbeitswelt bis hin zur Schuldbildung und politischen Bildung so entscheidend ge-

238

Digitale Daseinsvorsorge: Die Rolle der Staaten im digitalen Strukturwandel

worden ist, wie wir es heute erleben, dann reichen bisherige Ansätze nicht mehr aus. Denn die digitale Erfahrungswelt wirkt sich auch auf die politische Sozialisation junger Menschen und die gesamte politische Kultur eines Landes aus. Dabei geht es einerseits um die verschiedenen Ansätze von Liquid Democracy, also von Abstimmungen und von politischer Partizipation in digitaler Form (vgl. M. Friedrichsen, R. Kohn 2015, 499-515; P. Gölz 2018). Gemeint sind „digitale Behördengänge“ etwa zur Beantragung eines Führerscheins oder für die Behördenanmeldung nach einem Umzug. Gemeint sind bisweilen auch kommunale Abstimmungen, also digital durchgeführte Wahlen. Bereits häufiger im Einsatz sind digitale Stimmgeräte für live durchgeführte Meinungsumfragen, etwa bei Großveranstaltungen. Insgesamt wirkt das Digitale in solchen Anwendungen als neue Kulturtechnik für die politische Meinungs- und Entscheidungsbildung. Andererseits und darüber hinaus geht es um die Frage nach digitaler Teilhabe am gesellschaftlichen und kulturellen Leben überhaupt. Denn digitale Teilhabe muss mit Mindeststandards für kulturellen Respekt verbunden werden, sodass beispielsweise Beleidigungen im Internet ebenso strafbar sein müssen wie im nicht-digitalen Leben. Am 11. März 2020 entschied beispielsweise das Berliner Kammergericht abweichend vom erstinstanzlichen Urteil, dass beleidigende Kommentare gegen die Politikerin Renate Künast strafbar sind und nicht vom Grundrecht auf Meinungsfreiheit abgedeckt werden (vgl. Bericht der Süddeutschen Zeitung vom 24. März 2020: https://www. sueddeutsche.de/digital/renate-kuenast-beleidigung-facebook-kammergericht-1.4855652, abgerufen am 12. Juni 2020 um 13.28h). Digitalität wird im politischen Raum zugleich eine Frage von Inklusion und Exklusion. Dies gilt beispielsweise für das Verhältnis von ländlichen zu urbanen Räumen, aber auch entlang der Bildungsbiografien etwa von jungen Menschen und von erwerbstätigen Personen. 239

6.  Digitale Politik

Schon am Beispiel dieser verschiedenen Zielgruppen zeigt sich, dass es jeweils spezifische digitale Bedürfnisse gibt, die nicht automatisch gut zueinander passen und die auf unterschiedlichen Voraussetzungen beruhen. Bei jungen Personen bedeutet Digitalkompetenz vor allem den mündigen, selbstbestimmten Umfang mit den Angeboten und Chancen der digitalen Welt und damit die Fähigkeit, Selbststeuerung im digitalen Raum einzuüben. Bei Arbeitnehmern und Arbeitnehmerinnen geht es um die nötige Qualifikation im Berufsleben, die sich mit jedem Update dynamisch verändert. Lebenslanges Lernen im digitalen Raum wird zu einer überlebensnotwendigen Ressource sowohl auf der Ebene der einzelnen Personen wie bei Unternehmen. Die soziale Welt besteht aber nicht nur aus jungen Menschen und Erwerbstätigen. Die Frage nach digitaler Inklusion und Exklusion richtet sich auch an andere Bevölkerungsgruppen, etwa Arbeitslose, Alte, Kranke. In einem Alten- und Pflegeheim konnte ich dies eindrücklich erleben, denn die Motivation der meist hochbetagten Bewohner und Bewohnerinnen war es, den Kontakt mit den eigenen Enkelkindern zu pflegen. Dazu wollten sie lernen, wie man eine Skype-Konferenz aufsetzt. Die noch vor wenigen Jahren anzutreffende Meinung, digitale Angebote könnten auf „Menschen unter 60 Jahren“ eingegrenzt werden, trifft folglich nicht zu und ist bereits heute ein skurriler Hinweis auf Fehleinschätzungen zu Beginn des digitalen Zeitalters. Die Suche nach digitaler Solidarität ist, so gesehen, eine soziale und politische, nicht zuerst eine technische Frage (vgl. auch H. Bude 2019). Die Balance aus Schutz- und Abwehrhandlungen auf der einen, aus Förderung und Daseinsvorsorge auf der anderen Seite ist dabei keineswegs einfach. Politikgestaltung in einer zunehmend digitalen Gesellschaft stellt letztlich das gesamte soziale Zusammenleben vor neue Herausforderungen (vgl. J. Hofmann, N. Kersting, C. Ritzi, W. Schünemann 2019). Dies gilt umso mehr, weil die digitale Transformation so schnell abläuft, dass die entsprechende politische Diskussion und Struktur240

Dateneigentum und kommerzielle Wertschöpfung mit Daten

bildung fast zwangsläufig hinter den Entwicklungen zurückbleiben. Aufgrund der rasanten Entwicklung der Künstlichen Intelligenz mit deren Chancen und Risiken ist beispielsweise über das Gesagte hi­ naus ein Bundesamt für Künstliche Intelligenz erforderlich. So wurde es gefordert von Ulrike Luxburg am 6. Februar 2020 auf einer Podiumsdiskussion an der Universität Tübingen, die gemeinsam mit der Vorsitzenden der Enquête-Kommission des Deutschen Bundestags Daniela Kolbe und anderen stattfand und an der ich als Mitglied des Public Advisory Boards des CyberValley Tübingen-Stuttgart teilnehmen konnte. Denken wir darüber hinaus in europäischen Zusammenhängen, wäre eine Europäische Agentur für Künstliche Intelligenz wünschenswert (European Agency for Responsible AI, „EARAI“).

Dateneigentum und kommerzielle Wertschöpfung mit Daten Die Wiedergewinnung des Politischen im Sinn digitaler Solidarität ist folglich schon auf der Ebene der nötigen Institutionen nicht mehr mit den bisherigen Ansätzen zu leisten. Denn neue Fragen erfordern neue Antworten. Die unausweichliche Gestalt der digitalen Globalisierung führt auch an der Schnittstelle zwischen Individuum, Staat und Wirtschaft zu neuen Fragestellungen. Diese können ihrerseits nur politisch gelöst werden. Zu den neuen Fragen gehört beispielsweise die Frage nach dem Verhältnis von Dateneigentum und Wertschöpfung aus Daten. Der bis zum Bundesverfassungsgericht durchgedrungene Gedanke der „informationellen Selbstbestimmung“ war ein erster Versuch, zivilgesellschaftliche Freiheitsrechte auf die Welt der „elektronischen Datenverarbeitung“ oder EDV, wie es damals hieß, anzuwenden (vgl. S. Simitis 1984, 398-405, W. Steinmüller 2007, 158-161). In der 241

6.  Digitale Politik

Zwischenzeit hat sich die Welt technisch und sozial enorm weiterentwickelt. Der Gedanke digitaler Freiheitsrechte zugunsten von Bürgerinnen und Bürgern spiegelt sich beispielsweise in der am 25. Mai 2018 in Kraft getretenen Datenschutzgrundverordnung der Europäischen Union (EDSGVO). Hier geht es um die ausdrückliche Einwilligung in die Verwendung von Bildern und Daten durch Dritte, aber auch um individuelle Auskunftsrechte. Formal gibt es also eine gute Grundlage für die praktische Durchsetzung von digitaler Selbstbestimmung. Dieser wichtige Schritt reicht aber bei Weitem nicht aus. Denn das Recht, Auskunft über die Verwendung eigener Daten bei den vielen Unternehmen und Institutionen einzuholen, mit denen ich als einzelner Kunde und Bürger in Kontakt stehe, ist zwar eine gute Sache, stößt aber sehr rasch an die Grenzen der eigenen Handlungsfähigkeit. Schließlich ist es kein geringer Aufwand, eine spezifische Anfrage zu stellen, den richtigen Ansprechpartner zu finden und Zeit darauf zu verwenden, die irgendwann eingehende Information zu überprüfen. Die meisten Bürgerinnen und Bürger sind bei solchen Aktionen eher überfordert. Wen wir nach vermittelnden Strukturen suchen, die eine Brücke schlagen zwischen dem einzelnen Bürger und der einzelnen Bürgerin einerseits und größeren Unternehmen andererseits, ließe sich über den Datenschutz hinaus an eine bessere institutionelle Verankerung von digitalen Verbraucherrechten denken. Hilfreich wäre beispielsweise ein „Amt für digitalen Verbraucherschutz“ (Digital User Protection Agency) auf nationaler und auf europäischer Ebene. Wer hier den Gedanken einer noch weiteren Verrechtlichung der Lebensverhältnisse kritisch sieht, verkennt den freiheitsermöglichenden Aspekt von Rechtssicherheit und von unmittelbaren individuellen Rechtsansprüchen. Wenn der demokratische Rechtsstaat in einer immer stärkeren digitalen Welt seinem Anspruch auf den Schutz der einzelnen Person vor potenziellen und realen Übergriffen mächtiger

242

Dateneigentum und kommerzielle Wertschöpfung mit Daten

Unternehmen und Institutionen gerecht werden will, führt an der Einrichtung neuer, digitaler Institutionen kein Weg vorbei. Gerade dann, wenn aus der Verfügung über Daten Macht entsteht, darf die Frage der wünschenswerten Balance der Kräfte nicht ausgeklammert werden. Der Medienrechtler Tobias Gostomzyk spricht in diesem Zusammenhang bei der datenschutzrechtlichen Einwilligung bereits heute von einer „Entscheidungsfiktion“ und geht vage bereits in die Richtung von Daten als „eigentumsähnliches Recht“ (T. Gostomzyk 2020, 5). Der Anspruch einer „Kritik der digitalen Vernunft“ ist allerdings grundsätzlicher Natur. Der soziale, juristische und politische Aspekt von „Daten“ ist nämlich in mehrfacher Hinsicht noch nicht hinreichend bestimmt. Im Folgenden wird der Versuch gemacht, die Themen von Dateneigentum und Datenverwertung durch eine Analogie mit dem Eigentum und der Verarbeitung von Rohstoffen neu zu beleuchten. Vage und unklar ist bis heute vor allem die genaue „geistige“ Grenze zwischen der Produktion, der Erfassung und der Auswertung von Daten. Wer hat welchen Anspruch genau dann, wenn Unternehmen die eigenen Daten weiterverarbeiten und kommerziell nutzen? Das passiert täglich in gigantischem Ausmaß, ist aber als gesellschaftliche und politische Frage bisher weitgehend offengeblieben. Dass aber Daten als Rohstoff behandelt werden, zeigt sich schon an der Sprache: Es geht um data extraction (also die Extraktion von Daten ähnlich wie die Extraktion von Bodenschätzen), um data mining (also „Bergbau“ an Daten) und um „data processing“ (also die Weiterverarbeitung von Daten). Der einzelne „Produzent“ von Daten, der ja zugleich Nutzer einer digitalen Dienstleistung ist, steht folglich in Analogie zu den ethischen Herausforderungen, die es im Rohstoffsektor seit Jahrhunderten gibt. Diese gedankliche Spur soll zunächst etwas weiter entfaltet werden.

243

6.  Digitale Politik

So gibt es im Bergbau regelmäßig Auseinandersetzungen darüber, wem Bodenschätze gehören. Ein interessantes Beispiel ist die Kumtor-Goldmine in Kirgistan. Das dort geschürfte Gold befindet sich ganz in der Nähe eines großen Gletschergebiets im Einzugsbereich der Himalaya-Region. Ich hatte die Gelegenheit, diese wunderbare, weitgehend unberührte Landschaft 2018 sehen zu können, aber der sich aus der Lage am Rande der Gletscherzone mit großen Trinkwasserreserven ergebende Konflikt mit Umweltschützern macht die Sache nicht einfacher. Für das relativ arme Land Kirgistan steht das Gold der Kumtor-Mine für 40% des Exports und für 10% der Volkswirtschaft; auf Deutschland übertragen wären rund 10% des Bruttosozialprodukts rund 500 Milliarden Euro, mehr als das verabschiedete Jahresbudget 2020 des Bundestags für die ganze Bundesrepublik Deutschland, allerdings ohne Nachtragshaushalt. Es ist also klar, dass es um gigantische Interessen geht. Vertreter des politischen Interesses sind die zuständigen Politiker und Beamte in der Hauptstadt Bischkek. An dieser Stelle wird es schwer zu entscheiden, welche Mittel und Wege zulässig sind, um diese Personen von den Interessen des Betreibers Centerra aus Kanada zu überzeugen. 2009 erhielt der Staat 33% der Anteile, aber schon 2010 kam es wie schon zuvor erneut zu Korruptionsvorwürfen. 2013 wurde ein Joint Venture mit je 50% zwischen Staat und Betreiberfirma vorgeschlagen. Das Parlament lehnte den Vorschlag ab. Es forderte eine Aufstockung des Staatsanteils auf 67% (S. Flechtner, D. Schreiber 2018, 123). Sicherlich gibt es kein Patentrezept für die Höhe einer staatlichen Beteiligung im Rohstoffsektor. Vieles hängt auch von der sonstigen politischen und sozialen Kultur ab, beispielsweise von einem funktionierenden Rechtsstaat. Ein abschreckendes Beispiel ist hier Venezuela. Das Regime von Hugo Chávez und seinem Nachfolger Nicolás Maduro hat mit der kompletten Verstaatlichung seiner Ölindustrie eine technische, wirtschaftliche und soziale Katastrophe ausgelöst, 244

Dateneigentum und kommerzielle Wertschöpfung mit Daten

allerdings auch in Verbindung mit einer grassierenden Korruption. Das hat dazu geführt, dass inzwischen fast fünf Millionen Menschen aus dem Land geflohen sind. Eine Ethik der Rohstoffindustrie steht also vor einer Reihe von Herausforderungen. Der Staat alleine hat oft genug nicht die wirtschaftliche Führungskompetenz und das technische Know-how, um bestmögliche Rohstoffgewinnung zu betreiben. Rohstoffe gewinnen wiederum ist das eine, sie zu verarbeiten das andere. Welcher Staatsanteil ist der richtige? Welche Regelungen sind wirklich wirksam, um zugleich soziale Teilhabe der örtlichen Bevölkerung zu ermöglichen? Schaut man auf die Statistiken zur Generierung von Arbeitsplätzen, fällt auf, dass in einigen ärmeren Ländern die Anzahl der Personen, die für „Sicherheit“ zuständig sind, die der technischen Akteure in Bergbau- und Rohstoffunternehmen bisweilen übersteigt. Dies verweist wie in einem Brennglas auf Fragen sozialer Inklusion und Exklusion. Gelegentlich sprechen Praktiker der Entwicklungszusammenarbeit geradezu vom „Ressourcen- oder Rohstoff-Fluch“ (R. Auty 1993). Durch das Zusammenspiel oder die „Kollusion“ von korruptionsanfälligen Machthabern oder sogenannten lokalen Eliten und den korrespondierenden, oft gerade nicht korruptionsfreien Aktionen westlicher Konzerne ergibt sich ein Teufelskreis aus politischer Instabilität, wachsender sozialer Ungleichheit, Vernachlässigung von Bildung und Gesundheit, Umweltzerstörung und Armut, Diktatur und Korruption sowie übermäßiger Verschuldung (vgl. auch T. Burgis 2016). Bekanntestes Gegenbeispiel zu den vielfältigen Formen des Staatsversagens aufgrund der Korruptionsanfälligkeit von politischen und geschäftlichen Transaktionen rund um Rohstoffe ist das relativ korruptionsfreie Land Norwegen, das die Erträge aus seinen Rohstoffeinkünften in einen riesigen Staatsfonds einfließen lässt, auf den Politiker nicht leicht zugreifen können. 245

6.  Digitale Politik

Ich hatte 2016 Steuergutschriften für rohstoffbasierte Gewinne vorgeschlagen, die dann gelten werden, wenn bis zu 50% der Gewinne in industrielle, sozial- oder gesundheitswirtschaftliche Investitionen fließen. Diese Maßnahme soll sicherstellen, dass die Rohstoffgewinnung besser mit inklusiver Entwicklung verbunden und Korruption vermindert wird (U. Hemel 2016). Der Zusammenhang zwischen extraktiven Industrien und der Kommerzialisierung von Daten liegt auf der Hand, nicht zuletzt in seinen sozialen Auswirkungen. Die Analogien sind durchaus naheliegend. Das fängt damit an, wem genau die Bodenschätze (hier: die Daten) gehören. Das Modell durchgängiger digitaler Kommerzialisierung würde antworten: Daten gehören demjenigen Unternehmen, das sie verarbeitet. Das Modell staatlicher Daseinskontrolle würde antworten: Nein, Daten gehören dem Staat und allen, denen der Staat eine Lizenz zur Weiterverarbeitung gibt. Ein Modell zivilgesellschaftlicher Freiheit, wie es in einer voll entwickelten Demokratie angestrebt würde, hätte eine andere Antwort anzubieten: Die Daten gehören dem einzelnen Bürger und der einzelnen Bürgerin, also letztlich demjenigen, der sie produziert. Wir bräuchten also eine neue Definition von Dateneigentum, die auch juristisch und kommerziell umgesetzt werden kann. Ein solches Modell wäre für ein „Europa der Bürgerinnen und Bürger“ sehr reizvoll. Zu lösen sind allerdings mindestens zwei Fragen: Wie soll es technisch und politisch realisiert werden? Und wem steht der kommerzielle Mehrwert aus der technischen Weiterverarbeitung von Daten zu? Anders gesagt: Kommt der kommerzielle Nutzen der weiterverarbeiteten Rohstoffe nur der „Raffinerie“ oder auch dem ursprünglichen Produzenten zugute? Wie genau sollen Erträge aus der Verwendung von Daten aufgeteilt werden? Welche Vergütung erhält ein Anbieter dafür, dass er Daten intelligent weiterverarbeitet, sodass es sich am Ende wirklich um „smart Data“ handelt? 246

Die Daten der Bürgerinnen und Bürger: Das Ziel eines Datentreuhänders

Betrachten wir die Frage mit Blick auf die Grenzen des „autonomen Datenbürgers“. Dieser erlebt eine unverhältnismäßig ­große Kluft zwischen der einzelnen Person und großen Plattform- und Diensteanbietern. Weil es schon in der Vergangenheit Formen eines steilen Machtgefälles gab, könnten wir das Suchfeld dadurch eingrenzen, dass wir nach früheren Beispielen guter Vermittlung zwischen „groß“ und „klein“ suchen. Solche Beispiele gibt es auch, beispielsweise bei der Wahl von Abgeordneten als Repräsentanten ihrer Wählerinnen und Wähler in der Demokratie, bei der Wahrnehmung von Arbeitnehmerinteressen durch Gewerkschaften und bei der Einführung von Musterklagen bei Fragen des Verbraucherschutzes. In analoger Art und Weise möchte ich im Folgenden den Vorschlag einer treuhänderischen, öffentlichen Daten-Cloud entfalten. Durch eine solche Cloud könnte womöglich eine solche Mittlerposition erzielt werden.

Die Daten der Bürgerinnen und Bürger: Das Ziel eines Datentreuhänders Mit dem gestiegenen Bewusstsein für den Wert von Daten ergibt sich zunehmend das Dilemma, dass die Weitergabe von Daten der scheinbar unvermeidliche Preis für digitale Dienstleistungen ist. Wenn ich den Weg zu einer mir unbekannten Adresse suche und Google Maps benutze, dann sind meine Daten auch dazu geeignet, mein Bewegungsprofil zu erstellen. Ich muss aber in die Spielregeln der digitalen Dienste-Anbieter einwilligen, um diese zu erhalten. Dies ist fair, wenn die Spielregeln fair sind; es wird schwierig, wenn aus meinen Daten ein Mehrwert erarbeitet werden kann, der nur dem Unternehmen zugutekommt, nicht aber demjenigen, der den „Rohstoff der Daten“ produziert und zur Verfügung stellt. 247

6.  Digitale Politik

Es stellt sich also ein durchaus analoges Problem wie bei der Ethik der Rohstoff-Industrie. Denn ohne Rohstoff fehlt es am Material für die weitere Verarbeitung. Wenn aber die Technik dafür fehlt, hat auch der Rohstoff keinen großen Wert. Weder die reine Verstaatlichung noch die rein kommerzielle Nutzung sind ideale Lösungen, wie sich an den erwähnten Beispielen aus dem Bergbau gezeigt hat. Die bisher beste Lösung ist der oben erwähnte norwegische Staatsfonds, der nach transparenten Spielregeln arbeitet und nach bisherigem Stand den Wohlstand aller fördert. Dieser Fonds wirkt treuhänderisch für die Bürgerinnen und Bürger des Landes. Er wird öffentlich kontrolliert, steht aber auch den jeweils gewählten Politikern nicht beliebig zur Verfügung. In ähnlicher Art und Weise ließe sich auch ein Daten-Treuhandfonds für Bürgerdaten oder eine Public Cloud konstruieren, idealerweise auf der Ebene der EU, zur Not auch auf nationaler oder regionaler Ebene. Es müsste sich um ein Unternehmen handeln, dessen Aufgabe in der Verwaltung und Verwertung von ihm anvertrauten Daten besteht. Sucht man nach Beispielen für solche speziellen Verwertungsunternehmen, dann kann man durchaus fündig werden. So verhandelt die 1933 gegründete „Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte“ (GEMA) die Nutzungsrechte und Urheberrechte für mehr als 10.000 Komponisten, Textern und Musikverleger. Daher muss beim Abspielen eines bestimmten Liedes im Radio, auf einem Weihnachtsmarkt oder in einem öffentlichen Konzert jedes Mal eine Gebühr in definierter Höhe gezahlt werden. Diese Gebühren werden gesammelt und am Ende des Jahres an die Berechtigten aufgeteilt. Ähnlich geht die VG Wort vor. Diese textbezogene Verwertungsgemeinschaft ist weltweit eine der größten Autorengesellschaften. Grundgedanke ist das Urheberrecht. Wenn jemand ein Lied komponiert oder einen Text veröffentlicht, hat er als Urheber Rechte an 248

Die Daten der Bürgerinnen und Bürger: Das Ziel eines Datentreuhänders

seinem Werk. Die Wahrnehmung dieser Rechte kann er über einen Berechtigungsvertrag an die GEMA oder die VG Wort übertragen, denn Künstler und Schriftsteller haben in aller Regel weder die Lust noch die professionelle Fähigkeit, ihre eigenen Rechtsansprüche zu vertreten. Dazu kommt, dass der Schlüssel zur Aufteilung der Verwertungsrechte reichlich kompliziert ist und dass bisweilen langwierige Verhandlungen zu führen sind. So gibt es in Deutschland beispielsweise eine Kopierabgabe, sodass mit jedem verkauften Kopiergerät ein bestimmter Betrag abgeführt wird, der kompensieren soll, dass urheberrechtlich geschützte Werke ohne Registrierung und Kontrolle „einfach so“ kopiert werden können. Würden wir die Produktion von Gesundheits- und Mobilitätsdaten rechtlich in Analogie zum Urheberrecht verstehen und ein entsprechendes Gesetz erlassen, dann könnte ich die Verwertung der von mir erzeugten Daten an eine „Verwertungsgesellschaft Daten“ oder „VG Daten“ übertragen. Niemand wäre zur Mitwirkung gezwungen, genauso wie ein Komponist nicht gezwungen wird, die Rechte zur Verwertung seiner Werke an die GEMA zu übertragen. Die kollektive, gewissermaßen genossenschaftlich organisierte Erhebung von Urheberrechten hat jedenfalls den Vorteil, dass Komponisten, Sänger und Autoren einmal jährlich eine gewisse Auszahlung erhalten. Den gesellschaftlichen Effekt eines solchen Vorgehens kann man nicht hoch genug einschätzen. Denn Wirtschaft und Gesellschaft sind eng miteinander verflochten. Selbst wenn es in den meisten Fällen für das einzelne Individuum aus der Verwertung seiner Daten niedrige dreistellige Beträge sind, so löst die Auszahlung von Verwertungsrechten doch ein Gefühl von gesellschaftlicher Anerkennung für geistige Arbeit oder für die Generierung von Daten aus und erzeugt somit eine Verstärkung der positiven Emotionen von Zugehörigkeit und Teilhabe. Nichts braucht unsere Demokratie dringender. Wenn ich die Möglichkeit hätte, die kommerzielle Verwertung der von mir erzeugten 249

6.  Digitale Politik

Gesundheits- und Mobilitätsdaten an eine „VG Daten“ zu übertragen und am Anfang jedes Jahres eine Auszahlung aus dem Ertrag der Datenverwertung erhielte, würde ich mich nicht nur freuen, sondern hätte als Bürger oder Bürgerin eben auch einen echten kommerziellen Nutzen aus den von mir erzeugten Daten. Wie aber würde das funktionieren? Gesellschaftsrechtlich sind verschiedene Konstruktionen möglich. Eine genossenschaftliche Organisation würde dem demokratischen Gedanken besonders gut entsprechen, da dann jeder Bürger und jede Bürgerin genau eine Stimme hätte. Die juristische Herausforderung liegt hier aber nicht im Gesellschaftsrecht, sondern im Datenrecht und im Recht auf die Verwertung von Daten. Nötig wäre nämlich die Anerkennung von Daten als eigenem Rechtsgegenstand. Die Daten wären dann wie Rohstoffe demjenigen zugeordnet, der sie erzeugt. Er wäre Rechteinhaber und könnte die VG Daten mit der Wahrnehmung der eigenen Rechte beauftragen. Dies würde nach heutiger Rechtslage aber großenteils ins Leere laufen, weil Nutzer nach heutigem Stand ja die Verwertung ihrer Rechte an die jeweiligen Plattformbetreiber abtreten. Denn wer nicht auf „Einwilligen“ klickt, kann den jeweiligen Dienst nicht nutzen. Hier lässt sich aber eine Regelung finden, die lautet: Jeder Datenverwerter wird verpflichtet, bei der VG Daten nachzufragen, ob die betreffende Person ihr die kommerzielle Verwertung von Daten anvertraut hat. Lautet die Antwort „ja“, dann ist ein zu vereinbarendes Entgelt für die Nutzung von Daten zu zahlen. Der Gesetzgeber müsste dann auch festlegen, dass die Nutzungseinwilligung im betreffenden Land grundsätzlich unter dem Vorbehalt der Rechtewahrnehmung durch die zivilgesellschaftlich organisierte VG Data steht. Die Kombination von technischen, ethischen und politischen Fragen bei der Ausgestaltung der kommerziellen und sonstigen Rechte an selbst erzeugten Daten wird aber auch Kontroversen auslösen. Es steht schließlich zu erwarten, dass Digitalunternehmen zunächst ein250

Die Daten der Bürgerinnen und Bürger: Das Ziel eines Datentreuhänders

mal Widerstand gegen solche Regelungen leisten würden. Für Unternehmen wäre eine VG Daten aber kein Wettbewerbshindernis. Denn die Bedingungen wären für alle gleich: Jedes Unternehmen, das Daten kommerziell nutzen will, muss zahlen. Genau das wäre der Gegenstand der anzustrebenden politischen und gesetzlichen Regelung. Regeln ließe sich weiterhin die Corporate Governance, also die Struktur zur Führung der „VG Daten“. So kann bestimmt werden, dass bestimmte Ziel- und Interessengruppen im Aufsichtsgremium vertreten sein oder zumindest angehört werden müssen. Schließlich lässt sich über eine öffentliche Aufsicht die Transparenz des Geschäftsgebarens gewährleisten. Eine solche VG Daten könnte ergänzt werden durch eine europäische Infrastruktur in der digitalen Welt, etwa europäische Serverfarmen oder eine europäische Daten-Cloud. Über einen solchen Vorstoß zur Einrichtung einer europäischen Daten-Cloud durch den amtierenden Wirtschaftsminister Peter Altmaier und den französischen Finanzminister Bruno Le Maire wurde am 4. Juni 2020 berichtet (vgl. https://www.dvz.de/rubriken/digitalisierung/detail/ news/eu-cloud-initiative-gaia-x-soll-unabhaengigkeit-sichern.html, abgerufen am 12. Juni 2020 um 14.09h). An diesem Projekt mit dem Namen Gaia X sind rund 300 Unternehmen und Organisationen beteiligt. Gründungsmitglieder sind auch 22 europäische Firmen. Ob sich das Projekt durchsetzt, muss sich erst noch zeigen. Ziel ist es jedenfalls, sensible Daten europäischer Unternehmen und Bürger nach den geltenden EU-Standards abzulegen und den Datenverkehr nach den demokratischen Spielregeln der EU zu fördern. Dies ist allerdings eine Abkehr von der vollständig freien Digitalisierung der ersten Stunde. Angesichts der Eigeninteressen der USA, Russlands und Chinas hat die Maßnahme aber durchaus einen politischen Wert. Denn auch die erörterte souveräne Selbstbestimmung

251

6.  Digitale Politik

von Staaten und Staatenbünden ist Aufgabe und Ziel demokratischen Zusammenlebens.

Datensouveränität und das Ziel einer europäischen Cloud Anders als bei der VG Daten, einer Verwertungsgesellschaft für die Bürgerinnen und Bürger als Datenproduzenten, ist eine europäische Dateninfrastruktur tatsächlich am besten als Gemeinschaftsunternehmen analog zur europäischen Airbus SE zu konzipieren. Das Ziel ist also ein Infrastruktur- und Dienste-Anbieter in Gestalt einer EuroCloud SE. Die Bezeichnung „SE“ steht für die Societas Europaea, eine bereits heute verfügbare Rechtsform und das geeignete rechtliche Vehikel für länderübergreifende Aktivitäten in der EU. Wenn mehrere europäische Länder sich zusammenschließen, kann eine technisch und fachlich außerordentlich leistungsfähige Infrastruktur aufgebaut werden, die sowohl Bürgerinnen und Bürgern wie auch den hier tätigen Unternehmen als „Backbone“ oder Rückgrat ihrer Aktivitäten dienen kann. Eine solche „Euro-Cloud“ hätte einen erheblichen Kapitalbedarf. Hochleistungsrechner sind teuer, und die nächste Stufe des technologischen Wandels durch den Übergang hin zu Quantenrechnern zeichnet sich bereits jetzt schon ab (vgl. A. Indset 2019). Ob die deutsch-französische Gaia-X-Initiative ausreichend politischen ­Rückenwind erfährt, um die nötige Infrastruktur tatsächlich aufzubauen, steht heute noch in den Sternen. Es wäre jedoch ein Trugschluss zu meinen, kapitalkräftige Privatunternehmen alleine erzielten das beste Ergebnis, wenn es um Effizienz und um Fragen des Gemeinwohls geht. Das oben erwähnte Beispiel des deutschen Funknetzes kann dies zeigen, denn die Erschließung abgelegener Gebiete kostet Geld und erfordert den politischen Willen, auch scheinbar wenig rentable Funkmasten zu bauen 252

Datensouveränität und das Ziel einer europäischen Cloud

und zu bezahlen. Einzelne Unternehmen handeln zwangsläufig in ihrem Privatinteresse. Eine Euro-Cloud wie Gaia-X, die im allgemeinen europäischen Interesse tätig wäre, könnte anders agieren. Das Datenvolumen wird aber in den nächsten Jahren noch erheblich zunehmen. In seinem schon 2016 erschienenen Buch „Smarte Maschinen“ verweist Ulrich Eberl darauf, dass in einer einzigen Gasturbine täglich 25 Gigabyte an Daten, in einem medizinischen Computertomografen sogar 60 Gigabyte an Daten entstehen (U. Eberl 2016, 221). Längst haben wir uns – nur vier Jahre später – daran gewöhnt, nicht mehr in Megabytes oder Gigabytes, sondern mindestens in Terabytes zu denken und zu sprechen. Der Umgang mit Datenströmen wird als Herausforderung folglich stets größer, nicht kleiner. Die Welt hat sich informationstechnisch schnell weiterentwickelt, und die allgemeine Datenvernetzung rückt näher. Dafür spricht allein schon das Internet of Things (IoT), also das Internet der Dinge (vgl. C. Engemann, F. Sprenger 2015). Da Deutschland und Europa immer noch eine starke industrielle Basis haben, gewinnt der vernetzte Datenaustausch als „Maschine-Maschine-Kommunikation“ zwischen Geräten immer weiter an Bedeutung. Bei komplexen Industrieanlagen, beispielsweise einer Druckmaschine, bringt es auf Dauer aber nicht so viel, wenn jede Teilkomponente über das eigene Netz des jeweiligen Komponentenherstellers laufen würde. Ein „Netz der Netze“ wiederum erfordert nicht nur ein hohes Maß an technischer Sicherheit und Zuverlässigkeit, sondern auch eine faire Regelung für die Datenerzeugung, Datenverwertung, Nutzung und Weitergabe von Daten. Natürlich kann es für diesen Zweck zu sektorspezifischen Clouds und Regelungen kommen. Der Leitgedanke einer „Euro-Cloud“ als der europäischen „Cloud von Clouds“ könnte hier aber einen politischen, zivilgesellschaftlichen und auch industriellen Vorteil realisieren. Dieser ist gerade in Europa mit seiner großen Vielfalt an Kulturen und Sprachen von Bedeutung. Außerdem braucht eine 253

6.  Digitale Politik

digitale Form des Wirtschaftens und des demokratischen Handelns tatsächlich eine Infrastruktur, die öffentlicher Kontrolle zugänglich ist. Dabei ist schon die Frage, wo das freie Spiel des Wettbewerbs und wo die „Infrastrukturgarantie“ des Staates bessere Ergebnisse hervorbringt, ein offenes Lernfeld. Schließlich sind auch genossenschaftliche Branchenlösungen für den Datenaustausch im Internet der Dinge vorstellbar. Diese müssen jedoch die Glaubwürdigkeit dafür gewinnen, „fair“ betrieben zu werden, ohne einen der Teilnehmer zu benachteiligen. In diesem Zusammenhang wird sich auch zeigen, dass die digitale Transformation unterschiedliche Etappen kennt und nicht nur auf das Funktionieren sozialer Netzwerke beschränkt werden kann. Die erwähnte „Euro-Cloud“ hätte beispielsweise den Vorteil, dass sie über entsprechende Vereinbarungen bestimmte Daten nur einmal vorhalten müsste, obwohl diese zu verschiedenen Zwecken genutzt würden. Unternehmen würden die Daten dann analog zum „Streaming“ (wie etwa bei Spotify) nutzen können. Ein praktisches Beispiel für den Nutzen einer Euro-Cloud als öffentlicher Infrastruktur ergibt sich bereits heute aus der Parkraumbewirtschaftung. Es gibt dazu bereits Apps, die bei Benutzung zwangsläufig Daten generieren. Teilweise sind die Anbieter dieser Apps kommerzielle Unternehmen, teilweise sind es kommunale Firmen, so etwa in München. Soll es in einem solchen Fall einen Vorrang der kommunalen Datennutzung geben? Oder soll der kommunale Anbieter in den freien Qualitäts- und Leistungswettbewerb eintreten? Wäre nicht eine allgemein verfügbare „Euro-Cloud“ ein großer Vorteil, wenn es um die Verwirklichung allgemeiner Ziele geht, etwa mit Blick auf Smart Cities, also Städte mit exzellenter digitaler Vernetzung und Infrastruktur?

254

Digitale Menschenrechte in der globalen Welt: Ein Internationaler Digitalgerichtshof

Digitale Menschenrechte in der globalen Welt: Ein Internationaler Digitalgerichtshof Wenn uns in Europa die Demokratie am Herzen liegt, müssen wir sie entlang der großen Entwicklungslinien von Technik und Kultur weiterentwickeln. Europa sollte dabei einen eigenen Weg der digitalen Balance finden, zwischen digitaler Kommerzialisierung wie in den USA und digitaler Staatskontrolle wie in China. Digitale Balance sollte in diesem Fall anknüpfen an der großen Tradition europäischer Freiheitsrechte, an den Gedanken von Personalität und Menschenwürde. Sie sollte zu einer im besten Sinn „offenen“ Gesellschaft beitragen (vgl. K. Popper 1992), die zugleich in der Lage ist, sich gegen Feinde einer solchen demokratischen Freiheit zu wehren. Eine Sache ist es dabei, Ideale zu formulieren und einzufordern. Eine ganz andere Sache ist die Durchsetzung von Ansprüchen, die sich aus übergreifenden Werten und Idealen ergeben. Genau aus diesem Grund ist die Durchsetzung von Menschenrechten an eine funktionierende Rechtsstaatlichkeit gebunden, die wiederum eine unabhängige Justiz voraussetzt. Die Wiedergewinnung des Politischen erfordert daher auch Maßnahmen zum Schutz digitaler Menschenrechte. Gemeint sind Menschenrechte, die von staatlichen und nicht-staatlichen Akteuren bedroht, beeinträchtigt oder verwehrt werden können. Die digitale Seite der Globalisierung erfordert dann idealerweise auch global wirksame Maßnahmen und Gegenmaßnahmen gegen Unrecht und gegen Menschenrechtsverletzungen in der digitalen Welt. Eine Kritik der digitalen Vernunft kann sich an dieser Stelle nicht davon abhalten lassen, dass die Realisierung einer solchen Idee schwierig ist. Sie muss vielmehr dem gedanklichen und politischen Sog dessen folgen, was für ein gutes globales Zusammenleben notwendig ist.

255

6.  Digitale Politik

Wie das durchaus schwierige Beispiel des Internationalen Gerichtshofs in Den Haag zeigt, benötigt die Umsetzung solcher Ziele einen langen Atem und viel Geduld. Fakt ist aber, dass das Internet als Möglichkeitsraum für neue Erfahrungen zugleich eine Bühne bietet für neue Formen von Unrecht, Willkür und struktureller Gewalt. Dabei soll an dieser Stelle zwischen nicht-staatlichen, staatlichen und überstaatlichen Akteuren deutlich unterschieden werden. Ein interessantes Beispiel für repressive Internetpolitik bietet der Machtkampf zwischen Juan Guaidó und Nicolás Maduro in Venezuela im Jahr 2019. Die für einen Regierungswechsel nötige öffentliche Unterstützung reichte letzten Endes trotz der Emigration von rund fünf Millionen Venezolanern und trotz der öffentlichen Unterstützung durch die USA und andere Staaten nicht aus, um Maduro zu stürzen. Einer der Gründe dafür liegt im Netblocking, das heißt der selektiven Sperrung von Internetseiten im Land, wenn diese beispielsweise Protestaufrufe enthielten. Dieser Befund ergibt sich aus einem Bericht der zivilgesellschaftlichen Organisation Netblocks, der in der spanischen Tageszeitung El Pais veröffentlicht und auch in Deutschland verbreitet wurde (B. Peters 2020). Dass in China über eine Firewall kritische Stimmen im Internet systematisch ausgefiltert und blockiert werden, ist hinlänglich bekannt. Ebenso bekannt wurden die versuchten Wahlmanipulationen über die Firma Cambridge Analytica im Präsidentschaftswahlkampf 2016 in den USA. Über die Auswertung von Persönlichkeitsprofilen auf der Grundlage von Facebook-Einträgen und anderen leicht zugänglichen Datenspuren wurden personalisierte Botschaften an Wählerinnen und Wähler ausgesendet, die zu einem bestimmten Wahlverhalten animieren sollten (vgl. L. Brand 2018, 111-113). Ähnliche Vorwürfe gingen wie oben erwähnt an Russland, wobei letztlich unklar blieb, ob es sich um „private“ oder „staatliche“ Akteure handelte. Grenzüberschreitende Cyberattacken werden jedenfalls immer wieder

256

Digitale Menschenrechte in der globalen Welt: Ein Internationaler Digitalgerichtshof

namentlich den Staaten Russland, China und Iran zugeschrieben (vgl. T. Piccone 2018, 30). Unter diesem Blickwinkel kann die digitale Welt zu einer Bedrohung der Demokratie werden. Denn Behörden autoritärer Staaten können mit Rücksicht auf Belange der „nationalen Sicherheit“ oppositionelle Stimmen zum Schweigen bringen und damit die Ausübung des Rechts auf freie Rede und freie Meinungsäußerung einschränken. Der Rückgriff auf nationale Gerichte wird den einzelnen betroffenen Bürgerinnen und Bürgern dann wenig helfen. Die bisherigen Versuche zu einer guten Regulierung oder Governance im Internet wie die „Tallinn-Agenda für Online-Freiheit“ (2014) oder die Strategie zur Internet-Governance des Europarats (2016-2019) sowie die Europäische Datenschutzgrundverordnung (2018) können folglich nur ein Anfang sein. Gerade wenn wir den Gedanken einer globalen Zivilgesellschaft als einer offenen Gesellschaft zu Ende denken, müssen wir uns für eine übergreifende Lösung einsetzen. Dabei ginge es um einen Internationalen Digitalgerichtshof. Seine Hauptaufgabe wäre die Pflege und Wahrung des Rechts auf digitalen Zugang, auf digitale Meinungsfreiheit und auf die Freiheit vor digitaler Repression. Gerade weil es auch eine digitale Ebene von Globalisierung gibt, weil der Datenaustausch über Grenzen hinweg leicht möglich ist, muss auch die Frage nach dem Verhältnis von Legislative, Exekutive und Judikatur neu gestellt werden. Dabei steht die Frage der digitalen Gewaltenteilung im Hintergrund. Dabei ist klar, dass digitale Menschenrechte dann nur auf dem Papier stehen, wenn sie nicht gegen staatliche und nicht-staatliche Akteure durchgesetzt werden können. Richtig ist aber auch, dass ein Flickenteppich von national unterschiedlichen Gesetzesnormen in der digitalen Realität problematisch ist. Bereits an anderer Stelle war ja zur Sprache gekommen, dass digitale Normen auch davon abhängen, ob es einen Vorrang kommerzieller Interessen, staatlicher 257

6.  Digitale Politik

Kontrolle oder zivilgesellschaftlicher Entfaltung geben soll. Wer den Vorrang der Person gegenüber staatlichen Institutionen befürwortet und an einem Programm allgemeiner, und damit auch digitaler Mündigkeit festhält, wird sich hier auf die Seite zivilgesellschaftlicher Praxis stellen. Denn nur diese stellt den Staat in den Dienst von Zivilgesellschaft und der Personen, die diese gestalten. Wird der Staat zum Selbstzweck, wird digitale Mündigkeit ebenso bedroht wie dann, wenn rein kommerzielle Interessen den Vorrang vor der Entfaltung personaler Freiheitsrechte erhalten sollen. Die USA, China und die EU stehen idealtypisch für solche digitalpolitische Perspektiven. Jede von ihnen führt zu unterschiedlichen Ausgestaltungen von digitalen Rechten und Pflichten für Unternehmen, Organisationen, Bürgerinnen und Bürger. Herausforderungen wie Netblocking, Hackerangriffe, Datenschutz und Internetzensur sind nur einige wenige Beispiele dafür, wie unterschiedlich die neuen digitalen Möglichkeiten von Staaten genutzt werden können. Dennoch lohnt sich internationale Kooperation gerade und erst recht in digitalen Zeiten. Denn die Reichweite der Geltung nationaler Normen ist begrenzt. Möglicherweise kann es zur Herausbildung von Clustern kommen, sodass Staaten mit weitgehend übereinstimmenden Interessen gemeinsame Regelungen beschließen, die dann allerdings auch umgesetzt und durchgesetzt werden müssen. Die Wiedergewinnung des Politischen in der digital formierten globalen Zivilgesellschaft braucht folglich freiheitsfördernde Institutionen. Eine verbindliche Auslegung in Konfliktfällen setzt aber nun genau jene internationale Ebene voraus, die mit einem Internationalen Digitalgerichtshof erreicht werden kann und soll. In einer idealen Welt hätte dieser Gerichtshof eine Zuständigkeit immer dann, wenn es um Menschenrechtsverletzungen im digitalen Raum ginge, die auf der Ebene einzelner Staaten nicht wirksam adressiert werden könnten. Schon wenn Datenpakete ohne Einwilli258

Digitale Menschenrechte in der globalen Welt: Ein Internationaler Digitalgerichtshof

gung der betroffenen Person oder Institution kommerziell verwertet werden und die beteiligten Unternehmen in mehreren Ländern tätig werden, reicht der Hinweis auf die Gesetzgebung eines einzelnen Landes nicht aus. Je stärker sich reales Leben in digitalen Räumen abspielt, desto wichtiger werden auch Regelungen zur Durchsetzung demokratischer Rechte jenseits der Rechtsprechung einzelner Staaten. Dies ist eine anspruchsvolle und schwer realisierbare Forderung. Sie ist aber nicht ohne Präzedenzfall. So gibt es beim deutschen Bundesverfassungsgericht beispielsweise das Instrument der Normenkontrollklage. Dieses komplizierte Wort steht für ein Verfahren, bei dem Bürgerinnen und Bürger an einem unabhängigen Gericht überprüfen lassen können, ob ein regionales oder nationales Gesetz mit der Verfassung übereinstimmt oder nicht. Auch auf der Ebene der EU gibt es entsprechende Regelungen. Die Durchsetzbarkeit richterlicher Rechtsprechung wird allerdings mit jeder übergeordneten Ebene schwächer. Trotzdem ist es sinnvoll, eine digitale Normenkontrollklage für einen zukünftigen Digitalgerichtshof vorzusehen. Der zivilisatorische Effekt des Rechtsstaats endet nicht mit der effektiven Durchsetzung nationaler Gesetze durch die Exekutive. Denn vor der Durchsetzung steht die legislative Setzung einer Norm, die ihrerseits Gegenstand von Überprüfungen sein sollte. Daher sollte es im Grunde möglich sein, dass ein Bürger Irans, Chinas oder Venezuelas an einem solchen Gerichtshof Klage gegen Digitalgesetze erhebt, die vom eigenen Herkunftsstaat erlassen wurden. Ziel einer solchen Normenkontrollklage wäre die Überprüfung der Übereinstimmung des beanstandeten staatlichen Gesetzes mit der Menschenrechtserklärung der Vereinten Nationen von 1948 und mit sonstigen international gültigen Rechtsnormen. Eine solche Forderung ist nach heutigem Stand utopisch. Denn bestimmte Staaten würden sich voraussichtlich einem Abkommen zur Schaffung eines Internationalen Digitalgerichtshofs nicht anschließen. Abgesehen davon wären die Schiedssprüche eines solchen 259

6.  Digitale Politik

Gerichts ja gar nicht unmittelbar durchsetzbar, sondern allenfalls in den kooperierenden Ländern. Dennoch bleibt es sinnvoll, sich für einen solchen International Cyber Court oder Internationalen Digitalgerichtshof einzusetzen. Rechtsgrundlage zur Urteilsfindung könnte dabei wie erwähnt die entsprechend fortentwickelte UN-Charta der Menschenrechte vom 10. Dezember 1948 werden. Dabei sind globale Mindeststandards für digitale Zugangsrechte, digitale Meinungsfreiheit und die Freiheit vor digitaler Repression in mancherlei Hinsicht noch Gegenstand der Rechtsentwicklung und der Pflege des Rechtswesens. Pragmatisch spricht vieles dafür, die Messlatte nicht so hoch zu legen, dass sie in der realen Welt nur selten verwirklicht wird. Die oben erwähnten Beispiele für Netblocking zeigen aber sehr wohl, dass eine globale Instanz zur Beurteilung digitalen Unrechts auch dann sinnvoll ist, wenn an eine effektive Durchsetzung von Gerichtsurteilen vorerst nicht zu denken ist. Schließlich ist ein professionell abgeleitetes Feststellungsurteil über staatliches Unrecht in einer digital vernetzten Welt keineswegs wirkungslos, ebenso wenig wie digital übermittelte Satellitenbilder über politische Gefangenenlager in Nordkorea wirkungslos sind. Ein funktionierender internationaler Digitalgerichtshof könnte weiterhin Urteile erlassen, die sich unmittelbar gegen Cyber­attacken staatlicher Akteure richten. Wenn ein unabhängiges Gericht feststellt, dass bei bestimmten demokratischen Wahlen Staat A tatsächlich Urheber einer Cyberattacke gegen Staat B ist, dann hat dies eine Wirkung auch dann, wenn keine militärischen oder politischen Sanktionen folgen. Schließlich hätte ein Internationaler Digitalgerichtshof eine große Aufgabe gegenüber nicht-staatlichen Akteuren. Denn die kommunikativen Möglichkeiten der digital vernetzten Welt haben ja auch zur Folge, dass das organisierte Verbrechen selbst international aktiv ist.

260

Digitale Solidarität als Zukunftsraum globaler Zivilgesellschaft

Dabei geht es nicht einfach um das tatsächliche Vorkommen von Phishing, Datenklau, illegalem Waffenhandel im Internet, digitaler Kinderpornografie oder anderen Verbrechen. Vielmehr kann eine Verurteilung konkreter Taten durch einen Internationalen Digitalgerichtshof konkrete Folgen in denjenigen Staaten auslösen, die diesem Gericht Beachtung schenken. Denn Teil der realen Welt ist es ja, dass organisiertes Verbrechen auch in der digitalen Welt teilweise von Orten und Staaten aus handelt, die aus unterschiedlichen Gründen kein Interesse oder keine Fähigkeit zur Strafverfolgung und Verurteilung von Cyberverbrechen haben. Folgen einer Verurteilung könnten dann beispielsweise die digitale Zugangsblockade für verantwortliche Drahtzieher, aber auch Kontensperrungen oder Reisebeschränkungen sein. Demokratie und digitale Solidarität hängen folglich eng miteinander zusammen. Trotz aller gegenläufigen Tendenzen in Richtung einer multipolaren Welt geht von der digitalen Transformation eine Sogwirkung aus, die den Vorteilen internationaler Zusammenarbeit immer stärkeres Gewicht verleiht.

Digitale Solidarität als Zukunftsraum globaler Zivilgesellschaft Die Wiedergewinnung des politischen Raums in der digitalen Transformation ist eine gigantische Herausforderung. Denn die gefühlte Ohnmacht des Einzelnen wie ganzer Gesellschaften verführt zu Resignation und Fatalismus. Dagegen steht der Gedanke einer globalen Zivilgesellschaft, die sich solidarisch verhält und die ihrerseits digitale Solidarität als Zukunftsraum einer kultivierten Gesellschaft verstehen kann. Das Politische als Ermöglichung eines sozialen Lebensraums, der Freiheit und gutes Zusammenleben ermöglicht, muss aber zuerst ima261

6.  Digitale Politik

giniert, dann gestaltet werden. Der politische Raum braucht folglich Realutopien auch dann, wenn deren Realisierung noch fern zu sein scheint. Weltweite digitale Konnektivität sollte schließlich nicht als Spielwiese der herrschenden Eliten autoritärer Staaten und der Nutznießer des organisierten Verbrechens dienen, sondern ihrerseits die Eintrittskarte in lebenswerte Zukunftsräume bieten. In lebenswerten Zukunftsräumen herrschen Zugangs- und Gestaltungsbedingungen, die mit den besten zivilisatorischen Errungenschaften von Menschenrechten und Menschenpflichten in Einklang stehen. Zu den Menschenpflichten gehört die Achtung anderer, also der Verzicht auf Hassreden, auf Erpressung und auf andere unmenschliche Praktiken, die eben zur dunklen Seite menschlicher Handlungsmöglichkeiten gehören. Wer digitale Solidarität im Gestaltungsrahmen konkreter Politik will, muss in freiheitsermöglichenden Institutionen denken. Aus diesem Grund wurde im vorliegenden Kapitel der Gedanke einer Kritik der digitalen Vernunft mit dem Traum von neuartigen, sinnvollen Institutionen verknüpft. Gegen den Trend zur digitalen Kommerzialisierung von Daten wird ein Eigentumsrecht auf eigene Daten postuliert, das von den einzelnen Bürgerinnen und Bürgern kommerziell durch einen Verwertungsvertrag mit einer dafür geschaffenen Institution genutzt werden kann. Vorgeschlagen wurde hier eine womöglich genossenschaftlich organisierte „Verwertungsgesellschaft Daten“. Darüber hinaus ging es um die Wiedergewinnung der Vorrangstellung freiheitlicher Infrastruktur durch die Einrichtung einer europäischen Cloud, beispielsweise als Eurocloud SE. Hier geht es um die Bereitstellung großer Rechnerkapazitäten für Daten, deren Austausch unter geregelten Bedingungen für eine zukünftige Digitalökonomie überlebenswichtig wird, etwa mit Blick auf das Internet der Dinge. Schließlich muss digitale Souveränität grenzüberschreitend und über lokale Gesetzgeber hinaus auch in den Garantien für Recht und Freiheit gedacht werden. Dazu ist ein Internationaler Digitalgerichts262

Literatur

hof (International Cyber Court) zur fordern, der zumindest auf der Ebene von „Feststellungsurteilen“ gegen Menschenrechtsverletzungen auftritt. Diese können auf der Grundlage der Allgemeinen Erklärung der Menschenrechte zur Ahndung und Abwehr von menschenfeindlichen Aktivitäten wie staatlichem Netblocking, der Verweigerung digitalen Zugangs, der digitalen Repression oder des organisierten Verbrechens im digitalen Raum gefällt werden. Denn globale Konnektivität braucht globale Solidarität. Schließlich ist es gerade die globale Reichweite digitaler Technik, die letzten Endes für die Überlegenheit kooperativer Handlungsmodelle in Wirtschaft, Politik und Gesellschaft spricht. Eine kultivierte Gesellschaft braucht reale und digitale Zukunftsräume, Labore sozialer Innovation und Protagonisten einer menschenfreundlichen digitalen Utopie. Denn genau eine solche humane Digitalutopie entspricht am besten der über Generationen entfalteten spezifischen Zukunfts- und Überraschungsfähigkeit, Lern- und Anpassungsfähigkeit, aber auch Gemeinschafts- und Kooperationsfähigkeit der Spezies Mensch, allen Dystopien und Katastrophenszenarien zum Trotz.

Literatur Daniel Ammann, King of Oil, Marc Rich, Vom mächtigsten Rohstoffhändler der Welt zum Gejagten der USA, Zürich: Orell Füssli 2010 Richard M. Auty, Sustaining Development in Mineral Economies, The Resource Curse Thesis. London: Routledge 1993 Lukas Brand, Künstliche Tugend, Roboter als moralische Akteure, Regensburg: Pustet 2018 Heinz Bude, Solidarität, Die Zukunft einer großen Idee, München: Carl Hanser 2019

263

6.  Digitale Politik

Tom Burgis, Der Fluch des Reichtums, Warlords, Konzerne, Schmuggler und die Plünderung Afrikas, Frankfurt: Westend 2016 Claus Dierksmeier, Crypto-Währungen und Weltgeld, in: Ulrich Hemel (Hrsg.), Weltethos für das 21. Jahrhundert, Freiburg/Br.: Herder 2019, S. 103-113 Ulrich Eberl, Smarte Maschinen, Wie künstliche Intelligenz unser Leben verändert, München: Carl Hanser Verlag 2016 Christoph Engemann, Florian Sprenger (Hrsg.), Internet der Dinge, Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt, Bielefeld: transcript 2015 Erklärung von Bern (Hrsg.), Rohstoff, Das gefährlichste Geschäft der Schweiz, Zürich: Salis 2011 Stephan Flechtner, Dagmar Schreiber, Kirgistan, Zu den Gipfeln von Tien Schan und Pamir, 5. aktualisierte und erweiterte Auflage. Berlin: Trescher 2018 Mike Friedrichsen, Roland A. Kohn (Hrsg.), Digitale Politikvermittlung, Chancen und Risiken interaktiver Medien, Wiesbaden: Gabler 2015 Paul Gölz u.a., The Fluid Mechanics of Liquid Democracy, in: George Christodoulou, Tobias Harks (Hrsg.), Web and Internet Economics, Oxford: Springer 2018, S. 188-208 Tobias Gostomzyk, Große Lüge, Die juristische Idee vom autonomen Datenbürger ist in der täglichen Online-Praxis reine Fiktion, in: Süddeutsche Zeitung, Nr.14, 2020, S. 5 (18./19. Januar 2020) Thomas Heitmann, Nadine Schön, Neustaat, Politik und Staat müssen sich ändern, München: FBV 2020 Ulrich Hemel, Rohstoffgewinnung und inklusive Entwicklung – ein Widerspruch? IfS-These, 2016, abgerufen am 17. März 2020 um 14.34h: https://www.institut-fuer-sozialstrategie.de/2016/07/24/rohstoffgewinnung-und-inklusive-entwicklung-ein-widerspruch/ Ulrich Hemel, Mentale Architektur und Wirtschaftsanthropologie – eine Zukunftsaufgabe, in: Sebastian Kiessig, Marco Kühnlein (Hrsg.), 264

Literatur

Anthropologie und Spiritualität für das 21. Jahrhundert, Festschrift für Erwin Möde, Regensburg: Pustet 2019, S. 335-350 Ulrich Hemel, Der Weg der digitalen Balance: Digitalisierung als Herausforderung der Menschlichkeit, in: Ulrich Hemel (Hrsg.), Weltethos für das 21. Jahrhundert, Freiburg/Br.: Herder 2019, S. 212-219 Jeanette Hofmann, Norbert Kersting, Claudia Ritzi, Wolf J. Schünemann (Hrsg.), Politik in der digitalen Gesellschaft, Zentrale Problemfelder und Forschungsperspektiven, Bielefeld: transcript 2019 Anders Indset, Quantenwirtschaft, Was kommt nach der Digitalisierung? Berlin: Econ 2019 George Orwell, 1984, Frankfurt: Ullstein 1984 Benedikt Peters, Nicht verfügbar, Nirgendwo auf der Welt hat eine Regierung 2019 so viele Internetseiten blockiert wie in Venezuela, Süddeutsche Zeitung 13. März 2020, Nr. 61, 2020, S. 35 Ted Piccone, Democracy and Digital Technology, SUR International Journal of Human Rights 27, v.15 Bd. 27, 2018, S. 29-38 Karl R. Popper, Die offene Gesellschaft und ihre Feinde, 7. bearbeitete und ergänzte Auflage Tübingen: Mohr Siebeck 1992 Spiros Simitis, Die informationelle Selbstbestimmung – Grundbedingung einer verfassungskonformen Informationsordnung, in: Neue Juristische Wochenschrift 1984, S. 398-405 Wilhelm Steinmüller, Das informationelle Selbstbestimmungsrecht, Wie es entstand und was man daraus lernen kann, in: Recht der Datenverarbeitung 2007, S. 158-161

265

7.  Digitale Ethik Wir haben einen großen Bogen gespannt, der die persönliche Lebenswelt im Alltag einzelner Menschen, die Berufswelt und die politische Welt umfasst. Aber wohin gehen wir? Mit welchem Kompass? In welche Richtung? Was wollen wir erreichen? Was wollen wir vermeiden? Die Frage nach einer digitalen Ethik (vgl. P. Grimm, T. Keber, O. Zöllner 2019) greift im Grunde die Frage nach der Bestimmung, dem Zweck und Ziel des Menschen auf. Mit ihr beschäftigen sich Philosophie und Religion seit Jahrhunderten. Im Folgenden möchte ich begründen, dass wir für angewandte Ethik inhaltliche, nicht nur formale Kriterien brauchen. Dabei eignet sich trotz aller Unschärfen der Begriff der Humanität oder der Menschlichkeit als übergreifender Maßstab. Julian Nida-Rümelin und Nathalie Weidenfeld entfalten in ihrem Buch „Digitaler Humanismus“ diesen Maßstab als Kern eines werteorientierten Umgangs mit der digitalen Welt (J. Nida-Rümelin, N. Weidenfeld 2018). In eine durchaus ähnliche Richtung geht Sarah Spiekermann, die sich dabei auf die materiale Wertethik von Max Scheler stützt (S. Spiekermann 2019). Max Scheler (1874-1928) begriff Werte auf der Grundlage eines ethischen Personalismus und seiner eigenen Form der phänomenologischen Analyse (M. Scheler 1913/1916). Für ihn gelten Werte unabhängig von Personen (vgl. M. Scheler 2014). Über diesen Gedanken lässt sich streiten, da Werte ja gerade nicht unabhängig vom menschlichen Denken und Handeln existieren. Das Universum hat eine naturgesetzliche Ordnung, die erst im Rahmen menschlicher Reflexion auf Werte hin ausgelegt wird, so etwa mit Blick auf den 267

7.  Digitale Ethik

Wert des Überlebens, der Nachhaltigkeit oder der Bewahrung der Schöpfung. Ein Wertehorizont wie „Bewahrung der Schöpfung“ ist dann beispielsweise Ausdruck einer religiösen Weltsicht, weil der Begriff Schöpfung einen Schöpfer voraussetzt. Ethik und damit auch digitale Ethik wird in diesem Kapitel jedoch im philosophischen, nicht im religiösen oder theologischen Sinn reflektiert (vgl. A. Anzenbacher 2003). Dies entspricht dem Prinzip der Voraussetzungsarmut, also dem Versuch, sparsam mit vorgängigen Annahmen zu sein. Ethik als Disziplin der angewandten Philosophie richtet sich auf die Frage, wie wir Menschen handeln sollen. Es geht also um die wertebasierte Beurteilung von Handlungen. Digitale Ethik steht bereits bei einer solchen Aussage vor neuen Herausforderungen. Wenn wir Werte und folglich auch die Ethik an menschliche Bewusstseinsinhalte knüpfen, wie verhält es sich dann mit der gerade entstehenden Teildisziplin der Maschinenethik? Und wenn zur Bewertung von Handlungen die Zuschreibung von Verantwortung gehört, wer ist dann wofür verantwortlich? Gilt das Verhalten eines Pflegeroboters, wie wir es im Kapitel 5 über digitale Arbeit erörtert haben, als Handlung oder als Maschinen-Output? Und welche Folgen haben derartige Zuschreibungen und Zuordnungen? Für die meisten Praktiker der digitalen Welt, die meisten Ingenieure, Betriebswirte und Programmierer gehören jedoch ethische Fragen und erst recht die Feinheiten einer philosophischen Fachdiskussion keineswegs zu den Kernthemen der eigenen Berufswelt. Sie fungieren vielmehr als externe Störgrößen. Will jemand eine App programmieren, die bestimmte Zwecke verfolgt, dann sucht er einen technologisch gut umsetzbaren Lösungspfad, vielleicht auch Geldgeber für die wirtschaftliche Realisierung. Ethische und soziale Folgen werden zunächst einmal ausgeklammert oder eben nur so weit berücksichtigt, wie die Auftraggeber es fordern. Dies war beispielsweise der Fall bei der im Auftrag der deutschen Bundesregierung entwickelten Corona-Warn-App. 268

Ethische Sprachfähigkeit als Herausforderung in der digitalen Welt

Ethische Sprachfähigkeit als Herausforderung in der digitalen Welt Die Betrachtung digitaler Ethik tut aus diesem praktischen Grund gut daran, den Sachverhalt des Überspringens und Nicht-Beachtens ethischer Fragen als eigenständigen Punkt zu reflektieren. So wie es ethisch unbestritten ist, dass jedes Unterlassen zugleich ein Handeln ist, das zu verantworten ist, gilt auch für die ethische Abstinenz der Experten in verschiedenen digitalen Professionen: Das Ausklammern ethischer und sozialer Fragen ist eine eigenständige ethische Position. Diese Position ethischer Abstinenz ist allerdings meist nicht reflektiert. Daher spiegeln sich in der digitalen Praxis vor allem die scheinbaren Selbstverständlichkeiten, aber auch Vorurteile der eigenen Berufswelt. Handelt es sich dabei um die Welt weißer junger Männer zwischen 25 und 45 Jahren, wirkt deren Weltbild überproportional in digitale Erzeugnisse hinein. Sarah Spiekermann zeigt dies am fiktiven Beispiel einer App für einen Kurierdienst, der Speisen aus Restaurants zustellt. Sie führt dann in einem zweiten Schritt dazu, Fragen nach den sozialen und ethischen Folgen einer solchen App zu stellen. Gibt es implizite Werte, die in die App hineinprogrammiert sind, etwa die Effizienz der Zustellung? Spiegelt sie in ausreichendem Maß humane Werte und Bedürfnisse, etwa die Notwendigkeit von Pausen bei den Kurierfahrern? Welche Folgen hätten alternative Wertentscheidungen für die Programmierung der App? Die Erörterung solcher Fragen führt zu veränderten Zielen und neuen Herausforderungen an die technische Funktionalität der Kurierdienst-App (S. Spiekermann 2019, 24-35). Gerade die Diskussionen rund um die neu entstehende „Maschinenethik“ (vgl. dazu C. Misselhorn 2018), aber auch rund um die Fantasien zu Cyborgs, Superintelligenzen oder „Singularitäten“ (vgl. beispielsweise N. Bostrom 2016) zeigen erneut, dass eine tiefgreifende 269

7.  Digitale Ethik

technische Revolution nicht ohne soziale und ethische Fragen bewältigt werden kann. Für Ingenieure und Informatiker in digitalen Anwendungsfeldern ist eine dezidiert ethische Reflexion herausfordernd. Für technische Probleme gibt es häufig relativ klare Lösungen oder zumindest pfadabhängige Lösungsalternativen. In der ethischen Diskussion sind Ergebnisse selten eindeutig, Voraussetzungen häufig unklar, Ziele nicht sauber definiert. Dazu kommt die Verwendung metaphorischer Sprache und das Springen von einer Problemebene auf eine ganz andere, von einer Perspektive hin zu ihrem vermeintlichen Gegenteil. Dabei wird leicht übersehen, dass gerade die Suche nach einem geeigneten Bezugsrahmen, nach sinnvollen Kriterien und anschlussfähigen Werten und Zielen einen erheblichen Teil professioneller Ethik ausmacht. Andererseits stößt das Streben nach ein für allemal richtigen Verhaltensweisen im menschlichen Leben immer wieder an Grenzen. Selbst das Gebot „Du sollst nicht töten“ (besser zu übersetzen als: „Du sollst nicht morden“) kommt dort an eine Grenze, wo es um Selbstverteidigung, um Notwehr und Nothilfe oder um den Tyrannenmord geht. Es gibt eben Situationen, in denen das im Alltag sinnvolle Gebot „Du sollst nicht töten“ so nicht gilt. In der ethischen Fachsprache spricht man dann von Epikie, also der gerechtfertigten Regelübertretung in einer ethischen Sondersituation. Klassisches Beispiel für gerechtfertigte Epikie ist etwa das Überfahren einer roten Ampel, um die eigene hochschwangere Frau bei schon geplatzter Fruchtblase und deutlichen Wehen rechtzeitig zum Krankenhaus zu bringen. Solche Fallbeispiele mögen einsichtig sein, aber sie führen auch zu ethischen Kontroversen. Auch deshalb bleibt ethische Reflexion eine enorme Herausforderung gerade für Menschen in technischen und wirtschaftlichen Berufen. Dazu kommt noch die wahrgenommene Unübersichtlichkeit von Ethik und Moral. Ethische Kontroversen 270

Ethische Sprachfähigkeit als Herausforderung in der digitalen Welt

sind darüber hinaus häufig hoch emotional, was dem Rationalitätsanspruch von Technik und Wirtschaft zunächst einmal zuwiderläuft. Schließlich gibt es bei so gut wie allen ethischen Fragen und Positionen Pro und Contra, Befürworter und Gegner, gleich ob es um die Todesstrafe, die Abtreibung, den assistierten Suizid, Gentechnik, Datenschutz oder Künstliche Intelligenz geht. Viele Beteiligte reagieren dann mit dem Rückzug auf ihre Privatethik, also diejenigen Prägungen, die sie in ihrer Erziehung mitbekommen und für sich übernommen haben. Der Rückzug auf die Privatethik geht allerdings in vielen Fällen mit Einschränkungen der ethischen Sprachfähigkeit einher. Diese lässt sich verstehen als Fähigkeit zur Versprachlichung ethischer Argumente, als Fähigkeit zur Offenlegung von Voraussetzungen für ethische Urteile und als Fähigkeit und Bereitschaft zum Perspektivenwechsel bei der Abwägung ethischer Maßstäbe. Es handelt sich also um eine lehr- und lernbare Kompetenz, die auf die eigene ethische Urteilsund Handlungsfähigkeit einzahlt. Eine solche ethische Sprachfähigkeit ist aber eine Kernkompetenz der Zukunft, wenn wir in komplexen, digital organisierten Gesellschaften friedlich zusammenleben wollen. Ethische Sprachfähigkeit erfordert die Vertrautheit mit wesentlichen Methoden ethischer Entscheidungsfindung. Sie baut auf der Kenntnis, Einübung und Verwendung eines ethischen Grundwortschatzes auf und umfasst Haltungen wie Dialogbereitschaft, Lernoffenheit und Standpunktfähigkeit. Denn jede Person hat aufgrund ihres sozialkulturellen und beruflichen Kontextes eine eigene, wertvolle Perspektive. Sie muss aber auch damit rechnen, dass sie anfällig für Irrtümer ist, dass ihr eigener Blick einseitig sein könnte und dass es wichtige Perspektiven gibt, die trotz aller Bemühung gar nicht in ihr Blickfeld geraten. Jeder Mensch hat folglich das ausdrückliche Recht auf eine eigene Perspektive und einen eigenen Standpunkt. Dies gilt jedenfalls in dem Maße, wie sie auch andere Perspektiven und Standpunkte im 271

7.  Digitale Ethik

Dialog wahrnehmen, ernst nehmen und im Zweifelsfall auch annehmen kann. Ethische Sprachfähigkeit in der demokratischen Zivilgesellschaft wird damit zum Teil einer allgemeineren Diskursfähigkeit, die gerade auch in den Bereichen Wissenschaft, Technik und Wirtschaft von hoher Bedeutung ist. Damit wird umgekehrt postuliert, dass die Verabsolutierung eines einzelnen Standpunkts gerade nicht Teil ethischer Sprach- und Handlungskompetenz im hier vorgeschlagenen Sinn sein kann, auch nicht mit Blick auf Anwendungsfälle der digitalen Welt. Diese Klarstellung ist insbesondere mit Blick auf religiöse Werthaltungen von Bedeutung. Schließlich bekennen sich wie schon erwähnt die meisten Menschen auf der Erde zu einer der großen Weltreligionen, alleine drei Milliarden von ihnen sind Muslime oder Muslimas, Christinnen oder Christen. Ein verantwortlicher und reflektierter Umgang mit ethischer Sprachfähigkeit weiß um die große Bandbreite religiöser und nicht-religiöser Positionen, grenzt sich aber von radikaler und fundamentalistischer Instrumentalisierung bestimmter Ideen dann ab, wenn diese keine andere Meinung gelten lassen. Denn zum demokratischen Zusammenleben gehört die Einstellung, dem je anderen das „Recht auf Irrtum“ zuzugestehen, ohne ihn mit Gewalt zur eigenen Sichtweise zu zwingen (vgl. U. Hemel, 2017, 65-78). Gesucht wird folglich nach einer demokratiefähigen Religion, aber auch einer religionsfähigen Öffentlichkeit. Denn die Suche nach der Wahrheit im Sinn eines Anspruchs an Methode und Miteinander (vgl. U. Hemel 2020) sollte einhergehen mit einer Haltung der Bescheidenheit, die die eigene Irrtumsmöglichkeit zur Kenntnis nimmt und mit dem Ringen um die bestmögliche Erkenntnis verbindet (vgl. U. Hemel 2017, 65-78). Ethische Sprach- und Dialogfähigkeit bilden daher gemeinsam die Haltung einer grundlegenden Weltoffenheit, die auch zur ethischen Beurteilung von Phänomenen in der digitalen Welt erforderlich ist.

272

Humanität im Kontext von Menschenwürde und Menschenrechten

Eine solche Weltoffenheit ist die Grundlage einer humanen Digitalethik.

Humanität im Kontext von Menschenwürde und Menschenrechten Gerade weil ein gemeinsamer Bezugspunkt für Ethik eine so große Herausforderung darstellt, wird gelegentlich die Auffassung vertreten, ethische Fragen seien nicht universell zu verallgemeinern oder „universalisierbar“. Ethische Urteile werden dem Bereich des Meinens zugeordnet, sodass diese einen eher subjektiven Charakter hätten. Aus einer solchen Haltung kann eine vorschnelle Ablehnung gegenüber der Berücksichtigung ethischer Belange in digitalen Anwendungen folgen. Eine solche skeptische Argumentation würde den gemeinsamen Kern normativer Ethik in Kulturen, Religionen und ethischen Theorien verkennen. Menschen sind untereinander verbunden. Ihre Geschichten sind vielfach miteinander verwoben, über die genetische Ausstattung, über Familiengeschichten, aber auch über kulturelle und religiöse Traditionen. Ziel ethischer Forderungen ist auf der höchsten Abstraktions-Ebene immer die Balance aus individuellem Wohlergehen und Gemeinwohl. Diese Balance ist schwer zu finden. Es gibt Interessengegensätze, Konflikt, Streit und Krieg. Denn schon die Frage nach dem Bezugspunkt von „Gemeinwohl“ birgt einige Stolperfallen: Ist es die eigene Familie? Die eigene Gemeinde? Das eigene Land? Europa? Wirklich die Gesamtheit aller hier und heute auf der Erde lebenden Menschen im Sinn einer „globalen Zivilgesellschaft“? Oder vielleicht darüber hinaus auch Menschen kommender Generationen, vor denen wir uns im Sinn des Dreiklangs aus „Umwelt, Mitwelt und Nachwelt“ auch heute schon verantwortlich fühlen sollten? 273

7.  Digitale Ethik

Welches „Wir“ ist gemeint, wenn wir von Gemeinwohl sprechen? Anders gesagt: Welches „Wir“ gilt? Denn eine Sache ist es, ethische Mindeststandards zu fordern, eine ganz andere ist es, diese in der gelebten Praxis auch gegenüber Minderheiten und generell „gegenüber Fremden“ zu respektieren. Die konkrete Ausprägung dessen, was als übergeordnetes ethisches Handlungsziel gelten soll, hängt davon ab, wen wir als „Menschen“ betrachten und – im engeren Sinn – davon, welche für uns wichtige Bezugsgruppe den Vorrang erhalten soll. Gehen wir einen Schritt zurück in die Geschichte. Wenn Barbaren keine Menschen sind, muss man sie auch nicht menschlich behandeln. Als der Dominikaner und spätere Bischof Bartolomé de las Casas (1484-1566) die Gräueltaten der spanischen Eroberer gegenüber den lateinamerikanischen Ureinwohnern erlebte, wurde er zum heftigen Kritiker von Zwangsbekehrung und Zwangsarbeit. Schon im Dekret von Burgos (1512) des spanischen Königs Ferdinand II. wurde die Zwangsarbeit von Kindern unter 14 Jahren verboten. Las Casas wurde zwar als antispanischer Propagandist denunziert, aber er sprach der indigenen Bevölkerung Lateinamerikas eine Seele und folglich auch Menschenwürde zu. Dadurch bröckelte die Legitimität der unglaublich grausamen Behandlung dieser Menschen, bis hin zu weiteren königlichen Edikten (vgl. Th. Eggensperger, U. Engel 1992). Leider blühen in vielen Ländern bis ins 21. Jahrhundert vielfältige Formen von Rassismus und gruppenbezogener Menschenfeindlichkeit. Menschen mit afrikanischen Wurzeln in den USA, in Deutschland und in anderen Ländern können ein Lied davon singen. Und immer wieder gibt es die Versuchung, die Kultur der Bevölkerungsmehrheit als das Maß aller Dinge anzusehen, so etwa in Nazi-Deutschland, aber auch im Japan des Zweiten Weltkriegs, und auch heute noch in China, Iran, Ungarn, in den USA oder anderen Ländern der Welt. Die Macht des Stärkeren scheint die Rechte von

274

Humanität im Kontext von Menschenwürde und Menschenrechten

Schwächeren und von Minderheiten immer wieder außer Kraft zu setzen. Umso wichtiger ist es, dass es ein Kriterium für die Ausformulierung konkreter ethischer und global wirksamer Mindeststandards von Humanität bereits gibt. Denn uns Menschen eint insgesamt der Begriff der gemeinsamen Menschenwürde, so unterschiedlich er auch gedeutet werden mag (vgl. H. Bielefeldt 1998). Seinen konkreten Widerhall fand der Menschenwürde-Begriff in der Allgemeinen Erklärung der Menschenrechte der UN vom 10. Dezember 1948 und in zahlreichen Rechtstexten und Verfassungen, so auch im deutschen Grundgesetz (vgl. P. Tiedemann 2006). Obwohl die Verwirklichung von Menschenrechten in religiösen Kontexten nicht immer zweifelsfrei gewährleistet ist, gibt es beispielsweise auch in Christentum und Islam, den beiden am weitesten verbreiteten Religionen auf der Erde, einen differenzierten Menschenrechtsdiskurs (vgl. H. G. Ziebertz 2010, M. Pirner, J. Lähnemann, H. Bielefeldt 2016). Darüber hinaus strebt die auf den Schweizer Theologen Hans Küng (geboren 1928) zurückgehende Weltethos-Idee im Rückgriff auf die vom Parlament der Weltreligionen formulierten gemeinsamen Werte aller Religionen eine Verständigung über eine allen Menschen gemeinsame Wertepraxis an (vgl. H. Küng 1990, U. Hemel 2019a). Unterstützt wurde dieser Gedanke durch die vom Parlament der Weltreligionen formulierten gemeinsamen Werte aller Religionen (vgl. K. J. Kuschel 2019, 39-54). Der Begriff der Menschenwürde dient insofern als Horizont für die Auslegung dessen, was mit Humanität in einem normativen Sinn zum Ausdruck kommen kann. Er bezeichnet somit die Spitze einer Wertepyramide, die in unterschiedlichen Formen in Kulturen, Religionen und Ausprägungen normativer Ethik entfaltet wird. Mit dem Begriff „Wertepyramide“ wird zum Ausdruck gebracht, dass Menschen ihre handlungsleitenden Werte hierarchisch nach ihrer Wichtigkeit und 275

7.  Digitale Ethik

Bedeutung anordnen. Dies gilt auch dann, wenn diese Werte stets nach Maßgabe der Dringlichkeit und der Anforderungen des Kontexts situativ interpretiert werden. Die Auslegung des Spitzenwerts und Leitsterns „Humanität“ im Kontext von Menschenwürde und Menschenrechten geht zwar einher mit der anstrengenden Vielfalt von Interpretationen, die sogar widersprüchlich sein können. Dennoch eignet sich der Begriff der Menschenwürde als gemeinsame Plattform aller menschlichen Personen auch in digitaler Zeit, weil er eben einen Bezugspunkt und Orientierungsrahmen gib, der situations- und kontextübergreifend für alle gilt. Dabei ist im Blick zu behalten, dass es in der heutigen Zeit nicht nur um Fragen des menschlichen Handelns, sondern auch um die Abgrenzung des Menschen sowohl vom Tier wie auch von Maschinen gehen wird. Die Diskussion zur Abgrenzung zwischen Mensch und Tier, Menschenwürde und Tierwürde soll hier jedoch nicht geführt werden (vgl. R. Hagencord 2011, F. De Waal 2015, U. Lüke, G. Souvignier 2020). Die darüber hinausgehende Frage, ob wir Maschinen Humanität zusprechen können, soll erst im nächsten Kapitel 8 aufgeworfen werden. Für die Frage nach digitaler Ethik und Maschinenethik ist es aber auf jeden Fall von ausschlaggebender Bedeutung, dass wir mit den Begriffen Menschenwürde und Humanität im Kontext von Menschenrechten einen gemeinsamen Maßstab haben, der über alle Formen normativer Ethik hinaus als Leuchtturm und Bezugsgröße taugt – und zwar sogar dann, wenn er über die menschliche Spezies auf Tiere und auf Maschinen, eben im Sinn von Tierwürde und Maschinenwürde, ausgedehnt wird.

276

Humanität, Roboter und die Asimov’schen Gesetze

Humanität, Roboter und die Asimov’schen Gesetze Der Maßstab der „Humanität“ hat den Vorzug und Nachteil vieler übergeordneter Begriffe, die angesichts divergierender Deutungen zu Leerformeln werden können. Man spricht hier auch von Omnibus-Begriffen, weil jeder und jede sein eigenes geistiges Gepäck mit in den „Omnibus“ nehmen kann. Damit wäre aber für eine digitale Ethik nichts gewonnen. Es ist daher wesentlich, den genannten Maßstab mit Blick auf unterschiedliche geistige Traditionen der Ethik, aber auch mit Blick auf das Verhältnis von Mensch und Maschine inhaltlich genauer zu betrachten. Typischerweise wird heute im Feld der normativen Ethik zwischen dem Utilitarismus, der deontologischen Ethik Kants und der Tugendethik unterschieden (so etwa C. Misselhorn 2018, 53-69). Die unterschiedlichen Akzentsetzungen dieser Denkrichtungen sollen aber erst im folgenden Abschnitt in ihrer Auswirkung auf digitale Ethik betrachtet werden. In den folgenden Überlegungen geht es vorab darum, anhand des Kriteriums „Humanität“ einige Impulse für die praktische Implementierung von Werten und Normen in digitalen Anwendungen zu geben. Denn unterschiedliche ethische Konzepte gehen unmittelbar in die Programmierung von Soft- und Hardware, von Apps und sonstigen Programmen ein. Es ist daher sowohl dringend wie auch legitim, wenn von digitalen Praktikern eine größere Klarheit in der ethischen Orientierung und wie ausgeführt ein Mindestmaß an ethischer Sprachfähigkeit gefordert wird. Im buchstäblichen Sinn grundlegend ist dabei die jeweils zugrundeliegende Sicht des Menschen. Wird der Mensch wie pointiert von Arnold Gehlen (1940/1983) formuliert als Mängelwesen betrachtet und an seinen Defiziten gemessen, dann rückt in der digitalen Welt der Mensch mit seinen Fehlern und Grenzen in den Blick. So ist

277

7.  Digitale Ethik

die menschliche Aufmerksamkeitsspanne oder Vigilanz begrenzt, die Ausdauer von Menschen eingeschränkt, ihr Interesse nicht konstant. Wir geraten mit solchen Überlegungen in das Suchfeld der Hilfsmittel zur Erweiterung unserer Sinne und unserer kognitiven Fähigkeiten, also in das Suchfeld der Prothetik. Über Brillen und Hörgeräte, Mikroskope und Echolote hinaus geht es in der digitalen Welt aber um die Steigerung von kognitiven Fähigkeiten. Die Folge daraus sind unter anderem Enhancement-Utopien (S. Dickel 2011), also Utopien der Leistungssteigerung vor dem unerbittlichen Anspruch der Selbstoptimierung. Verengt man Menschen auf ihre Leistungen, geraten wir im dystopischen Extremfall zum Gedanken, dass Cyborgs und Superintelligenzen dann sozusagen die „besseren Menschen“ sind. Unendlichkeit und ewiges Leben würde beispielsweise erreicht durch den Download meines Hirns auf einem geeigneten Datenträger und Prozessor. In diese Richtung gehen manche transhumanistischen Gedankenspiele, die im nächsten Kapitel eingehender erörtert werden sollen. Hier aber geht es um die Frage der digitalen Ethik mit Blick auf die gewählte Perspektive zu Menschenbildern und ethischen Normen. Zur Eigenart des Menschen gehört es dabei, dass entgegen der Idee einer bloß kognitiv gedachten Existenz in konkreten menschlichen Personen ganz unterschiedliche Facetten des biologischen, des geistigen, des seelischen und des sozialen Lebens und Erlebens ineinanderfließen. In der hier präsentierten „Kritik der digitalen Vernunft“ wird die These aufgestellt, dass „Humanität“ ein übergeordneter Kompass auch für die digitale Ethik darstellen kann. Gemeint ist Humanität dann in einem normativen Sinn, der auf den besten humanen Traditionen des Umgangs mit anderen Menschen und Menschengruppen aufbaut. Aus diesem Grund steht nicht die empirische Möglichkeit der Verfehlung, der Menschenverachtung und des Verbrechens im Vor278

Humanität, Roboter und die Asimov’schen Gesetze

dergrund, sondern der dem Menschen eigene Anspruch, an seinen besten Möglichkeiten Maß zu nehmen, eben der „Humanität“ jenseits von ethnischer, religiöser, sexueller, sozialer oder kultureller Zugehörigkeit und Unterscheidung. Humanität wird so zum Leitstern und Maßstab der Auslegung ethischer Forderungen. Die Kontexte dieser Auslegung werden sich dabei zwar ebenso unterscheiden wie die konkreten Schlussfolgerungen. Dennoch ist es wie schon erwähnt hilfreich, einen „Leitstern“ zu haben und jenseits aller Kontroversen nach gemeinsamen Kriterien zu suchen. Denn so wird einerseits Transparenz über mögliche Bewertungsunterschiede geschaffen. Andererseits zeigt sich in einer ernsthaften, gemeinsamen Suche auch das grundlegende Ringen um den besten Weg. Eine solche Haltung des Suchens und Ringens ist aber schon ihrerseits Ausdruck von Humanität, von Gestaltungs- und nicht von Zerstörungswillen. Der normative Maßstab der Humanität geht auch über die von Isaac Asimov (1920-1992) zuerst ausformulierten Asimov’schen Gesetze hinaus, weil diese sich faktisch auf empirisch existierende Menschen und allenfalls auf die „Menschheit“ in ihrer lebendigen Widersprüchlichkeit beziehen. Den mit „Humanität“ gemeinten normativen Anspruch fordern sie nämlich nicht. Der bloße Verweis auf die Spezies Mensch und deren behauptete Superiorität wird inzwischen aber als „Speziesismus“ kritisiert (P. Singer 1982). Das polemische Verdikt des „Speziesismus“ könnte man in der digitalen Welt durch Ausdehnung des Diskurses über Menschenwürde und Menschenrechte auf Roboter oder Cyborgs, im Sinn von „Maschinenwürde“ und „Maschinenrechten“, weitertreiben. Als widersprüchlich angesehen werden kann dabei allerdings der Umstand, dass die normativen Forderungen zur Vermeidung eines „Speziesismus“ allein von Menschen stammen und allein auf menschliches Handeln ausgerichtet sind.

279

7.  Digitale Ethik

Die ursprünglich 1942 in einer Kurzgeschichte formulierten Asimov’schen Gesetze beziehen sich allerdings auf das Handeln von Robotern, nicht unmittelbar auf das von menschlichen Programmierern oder Entscheidungsträgern. Bei der Beschreibung des Mensch-Maschine-Verhältnisses erinnern die Asimovschen Gesetze eher an die Dialektik von „Herr und Knecht“ und an die Sozialstrukturen des 19. und 20. Jahrhunderts. Wenn es heißt „Schade keinem Menschen“ oder „Gehorche Befehlen von Menschen“, dann müssen Roboter Menschen als höhere Spezies respektieren, einfach weil es Teil ihrer Programmierung sein soll. Im Hintergrund stand schon damals die Sorge vor einer unkontrollierten Übermacht der Roboter. Diese kann eingehegt werden, wenn künstliche Wesen sich an Gesetze halten, die Menschen einen Vorrang verleihen. Die Spezies Mensch wäre dann im Rahmen der Asimov’schen Gesetze zu respektieren, weil sie durch Zugang zur Programmierung der Roboter größere Macht hat. Das reine Machtargument als Grundlage von behaupteter Superiorität ist aber ethisch von höchst begrenzter Reichweite. Denn die implizit behauptete Überlegenheit der menschlichen Spezies steht schon in dieser Frühzeit einer Art von „Maschinenethik“ auf tönernen Füßen. Geht es nämlich um kognitive Leistungen oder Sinnesleistungen, können nach heutigem Stand Maschinen sehr wohl Menschen an Leistungsfähigkeit, Ausdauer und Geschwindigkeit übertreffen. Wenn es um Macht geht, dann sind sehr wohl Konstellationen vorstellbar, die Maschinen mit einer den Menschen überlegenen Macht ausstatten. Geht es um eine historisch gewordene Überlegenheit, so weiß jeder, dass Geschichte unvorhersehbar ist und ihren Lauf dramatisch verändern kann. Die von niemand erwartete Corona-Krise 2020 zeigt dies deutlich. Wenn es also tatsächlich eine überlegene Steuerungsfunktion durch uns Menschen geben soll, dann sollte sich diese aus

280

Humanität, Roboter und die Asimov’schen Gesetze

der moralischen Stärke von Menschen speisen und sich nicht auf einzelne physische oder kognitive Leistungen beziehen. Moralische Stärke heißt nicht, dass Menschen keine Fehler machen können. Im Gegenteil: Moralische Stärke ist das Ergebnis der Orientierung menschlicher Handlungen am Kriterium „Humanität“ auch dann, wenn im konkreten Tun dieser Anspruch verfehlt wird. Menschen können also diesen Anspruch erreichen oder verfehlen, aber er ist und bleibt der Maßstab. Darüber hinaus gehört es zum normativen Maßstab von Humanität, dass Menschen aus Fehlern lernen und diese korrigieren können. Es geht dabei also um eine Art von „Selbststeuerungsfähigkeit“ zweiter Ordnung, also gewissermaßen eine ethische Differenzialgleichung. Betrachten wir die Asimov’schen Gesetze im Einzelnen. Sie lauten wie folgt (I. Asimov 1982, 67): 1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. 2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. 3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Das erste Gesetz wird gelegentlich durch das Adjektiv „wissentlich“ ergänzt, da nur „wissentliche“ Verletzungen angesprochen werden können. Reflektiert man diese Gesetze im Licht der vorherigen Überlegungen zu Humanität, wird klar, dass die so formulierten Spielregeln trotz Regel 2 auch Verbrecher vor Maschinen schützen, wenn diese Verbrecher Menschen sind. Übertragen auf die menschliche Sphäre wäre dann aber z. B. die Notwehr oder im Extremfall der Tyrannenmord auch in solchen Fäl281

7.  Digitale Ethik .

len ausgeschlossen, bei denen es darum geht, noch größeres Unheil abzuwenden. Weiterhin gilt es zu erörtern, wie die genannte Regel für ethische Dilemmata auszulegen ist. Solche Konfliktfälle werden ja gerade in der Maschinenethik im Fall des autonomen Fahrens und der militärischen Drohnen intensiv diskutiert. Aufgrund solcher Überlegungen wurden die Asimovschen Gesetze durch ein „nulltes“ Gesetz ergänzt wie folgt: „Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.“ Würde ein solches Gesetz tatsächlich gelten, dürfte jedoch ein einzelner Mensch genau dann getötet werden, wenn dadurch Schaden von der Menschheit abgewendet wird. Ethisch besonders problematisch ist dabei der Umstand, dass die Höhe und die Art des Schadens hier gar nicht genau definiert werden. Ethisch stellt sich also sehr scharf die Frage nach Verantwortung und nach Umgang mit Macht. Denn der in Notwehr handelnde Mensch wird zur Rechenschaft gezogen und womöglich freigesprochen. Sein Handeln ist als Überschreiten der normalen ethischen Handlungsgrenzen Gegenstand erhöhter sozialer Aufmerksamkeit, etwa in Gestalt eines Gerichtsprozesses. Im bekannt gewordenen Film „I, Robot“ (Regie: Alex Proya, USA 2004) übernehmen Roboter mit Steuerung durch das Softwaresystem VIKI (= Virtuelle Künstliche Intelligenz) die K ­ ontrolle über Menschen, um sie zu schützen (vgl. J. Nida-Rümelin, N. Weidenfeld 2018, 64-70). Das führt aber situativ dazu, dass einzelne Menschen mit dem Leben bezahlen müssen. Dies ist Teil einer Programmierung und wird nicht als „Ausnahmehandeln“ gesehen, das eigens überprüft wird. In ähnlicher Art und Weise sind militärische Anwendungen wie die oben erwähnten militärischen Drohnen von Haus aus als Verstöße zumindest gegen die drei ursprünglichen Asimov’schen Gesetze zu sehen.

282

Utilitaristische, deontologische und Tugendethik: Humanität als Kriterium

Der Einsatz militärischer Drohnen wird in der Praxis aber durch Rückgriff auf ein „höheres Gut“ wie etwa dem Schutz vor Tyrannei und Völkermord gerechtfertigt und durchgesetzt. Wer hier die Macht hat, kann seine Sichtweise und seine Interessen allerdings auch gegen kontroverse Argumente durchsetzen. Digitale Ethik ist jedoch nur selten dermaßen dramatisch. Unvermeidbar aber ist es, dass immer wieder Entscheidungen auf der Grundlage impliziter oder expliziter Werturteile zu fällen sind. Wie diese zustande kommen und wie sie begründet werden können, ist Gegenstand des nächsten Abschnitts.

Utilitaristische, deontologische und Tugendethik: Humanität als Kriterium Menschen leben und erleben ihre Welt als Abfolge von Situationen, die sie als Handlungsimpulse erleben. Dazu gehören innere Vorgänge wie Hunger oder Durst, aber auch soziale Situationen etwa im Verkehr oder im Beruf. Zu jeder Situation gehören explizite und implizite Entscheidungsparameter, die auch dann ethische Werturteile in sich tragen, wenn dies nicht sofort erkennbar wird. Für die digitale Welt ist dieser Umstand eine große Herausforderung, etwa wenn es um diskriminierungsfreie Apps geht. Der Begriff „Diskriminierung“ im Sinn eines unfairen Umgangs mit Menschengruppen, denen bestimmte Eigenschaften zugesprochen werden, schillert nämlich zwischen absichtlicher und unbeabsichtigter Diskriminierung. Wenn Diskriminierung unbeabsichtigt erfolgt, etwa durch die mangelnde Wahrnehmung einer bestimmten Minderheit, dann folgt daraus für den einzelnen Programmierer ein vages Gefühl der Unsicherheit: Er kann etwas übersehen, was ihm gar nicht auffällt. Darüber hinaus ist der Begriff der Diskriminierung immer auch abhängig von Deutungen im gesellschaftlichen und politischen 283

7.  Digitale Ethik

Raum: Was gestern als normal galt, kann heute als Diskriminierung angesehen werden. Bis in die 60er Jahre des letzten Jahrhunderts war z. B. die korrekte Anrede für unverheiratete Frauen „Fräulein“. Heute ist schon der Begriff fast ausgestorben und würde als grob diskriminierend empfunden. Aus den genannten Gründen treffen Programmierer auch dann ethische Entscheidungen, wenn sie es gar nicht wollen oder bemerken. Wenn es so ist, dann ist es auch sinnvoll, unterschiedliche ethische Begründungswege gegeneinander abzuwägen. Es leuchtet daher ein, dass die gängigen Theorien normativer Ethik auch im Kontext digitaler Programmierung relevant werden können. Die folgenden Ausführungen sollen daher die Hauptrichtungen, also die utilitaristische, die deontologische und die Tugendethik näher beleuchten. Anschließend soll die klassische Tugendethik in die Richtung einer Ethik der Werthaltungen und einer Ethik der Balance weiter entfaltet werden, weil sich daraus ein ethisch tragfähiger, aber auch hinreichend pragmatischer Zugang zu ethischen Entscheidungen in der digitalen Welt eröffnet. Im angelsächsischen Raum mit seiner großen Tradition der individuellen Glückssuche ist insbesondere die utilitaristische Ethik verbreitet. Diese folgt grundsätzlich dem von Jeremy Bentham (17481832) formulierten Maßstab des größten Glücks der größten Zahl (vgl. J. Burns 2005, 46-61). Vorteilhaft an der utilitaristischen Idee ist die relativ gute Operationalisierbarkeit, denn es ist ja durchaus möglich, verschiedene Effekte mit einer Zahl auf einer Ordinalskala zu versehen. Klammert man die hinter jeder Messtheorie steckenden philosophischen Probleme aus, kommt man zu Zahlenwerten für die Wünschbarkeit ethischer Entscheidungen, die digital gut abbildbar sind. Die vermeintlich gute Operationalisierbarkeit ethischer Entscheidungen in einem utilitaristischen Angang überspringt allerdings eine

284

Utilitaristische, deontologische und Tugendethik: Humanität als Kriterium

Reihe schwerwiegender ethischer Problemstellungen. Vier von ihnen sollen im Folgenden genannt werden. Kritisch zu sehen ist beispielsweise gerade das Ausklammern der Entscheidungen zur Messbarkeit von Nutzen. Schon die Wahl der Skala kann ein methodisches Problem sein: Denn Zahlenwerte auf einer Skala von 0 bis 5 statt einer Skala von 1 bis 3 oder von 1 bis 10 geben durchaus unterschiedliche Bilder ab. In der sozialwissenschaftlichen Methodendiskussion werden solche Themen ausführlich erörtert (vgl. E. Roth, H. Holling 2018). Die nächste Stufe der Anwendungsschwierigkeit liegt im Zeithorizont des Nutzens. Geht es um kurzfristigen, mittelfristigen oder langfristigen Nutzen? Wie genau sind kurz-, mittel- und langfristig definiert? Und wer entscheidet über die ethisch korrekte Festlegung eines angemessenen Zeithorizonts? Drittens geht es um eine komplexe Interessenanalyse: um wessen Nutzen geht es in welcher Gewichtung? Ethische Fragen sind grundsätzlich nicht von Machtfragen abzukoppeln. Weil aber auch Machtkonflikte und Interessengegensätze Teil der Realität sind, wären Programmierer in unfairer Weise überfordert, wenn man ihnen das Abwägen von Macht- und Interessenfragen durch deren Abbildung in die digital operationalisierte Gewichtung von Entscheidungsmomenten zumuten wollte. Eine vierte, hoch komplexe Frage betrifft schließlich den Vorgang der konkreten Messung des Nutzens. Geht es um den Nutzen einer Person, einer Organisation oder eines ganzen Gemeinwesens? Gibt es anerkannte Verfahren zum „Messen“ des entsprechenden Nutzens? Gilt diese Messung auch für alle Zeithorizonte, also kurz-, mittelund langfristig? Oder werden am Ende doch nur „Meinungen“ über „möglichen Nutzen“ abgebildet? In einem anderen Kapitel hatten wir das Beispiel der digitalen Erfassung des Verhaltens eines betagten Heimbewohners mit Diabetes untersucht, der Schokolade isst. Wie soll man nun den Nutzen oder 285

7.  Digitale Ethik

Schaden der Schokolade erfassen? Wie wird der Genuss bewertet, den der beschriebene alte Herr empfindet? Wie wird die ökonomische Folge der möglichen Verschlimmerung seines Gesundheitszustands bewertet? Diese Diskussion soll hier nicht im Detail geführt werden, denn schon jetzt wird klar: Aus der Nutzenbewertung ergibt sich zwangsläufig eine gewisse Machtposition. Wer das Recht hat, seine eigene Nutzenbewertung durchzusetzen, der übt Macht aus. In soziologischer Sprache spricht man hier vom Definitionsprivileg. Ethisch problematisch wird dies dort, wo eine mehr oder weniger reflektierte Nutzenannahme bei der Programmierung einer App oder einer anderen digitalen Anwendung Macht auf situative Konstellationen ausübt, die Humanität mindert und nicht mehrt. Eine solche Minderung kann beispielsweise im Gefühl der Fremdbestimmung anstelle einer Förderung freier Selbstbestimmung liegen. Ziel digitaler Anwendungen sollte die Mehrung von Humanität und freier Selbstbestimmung sein. Weil utilitaristische Abwägungen diesem Maßstab nicht zweifelsfrei genügen, sind sie letztlich kein geeigneter Maßstab für eine digitale Ethik. Im kontinentaleuropäischen Raum hat im Gegensatz zum Utilitarismus die deontologische, also an einem „Sollen“ orientierte Ethik Kants (1724-1804) zahlreiche Anhänger und Anhängerinnen. „Handle so, dass du die Menschheit sowohl in deiner Person als in der Person eines jeden anderen jederzeit zugleich als Zweck und niemals blos als Mittel brauchest“ (I. Kant 1968, 429). Die grundlegende Aussage im Hintergrund dieser Aussage ist über das Instrumentalisierungsverbot von Menschen hinaus die Forderung nach einer Pflichtethik, die den Maßstab individuellen Verhaltens an seiner Verallgemeinerbarkeit festmacht. „Handle stets so, dass die Maxime deines Handelns zur Grundlage eines allgemeinen Gesetzes werden könnte“, das ist eine der gängigen Umschreibungen des kategorischen Imperativs von Immanuel Kant. 286

Utilitaristische, deontologische und Tugendethik: Humanität als Kriterium

Vorteilhaft an der deontologischen Ethik ist zum einen die klare Hierarchisierung von Verhalten durch die Rückbindung an ein allgemeines Gesetz. Diebstahl beispielsweise ist eine Handlungsweise, die eindeutig nicht für eine übergeordnete Gesetzgebung taugt. Ein zweiter Vorzug der kantianischen Ethik ist der Vorrang der Person, die eben nicht zum Zweck werden darf, sondern stets einen Eigenwert hat. Ganz praktisch wirkt sich das im oft beschriebenen „Trolley-Dilemma“ des autonomen Fahrens aus, bei dem Kants Ethik sich klar gegen eine instrumentelle Logik auswirkt. Beim „Trolley-Dilemma“ geht es um Situationen, bei denen ein tödlicher Unfall nicht vermieden werden kann (vgl. C. Misselhorn 2018, 190). In einer solchen Situation darf ein Leben nicht gegen ein anderes aufgerechnet werden. Eine solche Aufrechnung steht Menschen ebenso wenig zu wie Maschinen oder Programmierern von Maschinen. Konkret darf also keine Zusatzinformation wie beispielsweise das Alter der potenziellen Unfallopfer auf dem Entscheidungspfad eines autonomen Fahrzeugs einprogrammiert werden, so als wäre es etwa ethisch besser, ältere anstelle von jüngeren Menschen dem Unfalltod auszuliefern. Kritisch einzuwenden ist für digitale Zusammenhänge auf der praktischen Ebene zunächst einmal die sehr schwierige Operationalisierbarkeit des kategorischen Imperativs. Ein durchschnittlicher Programmierer ist kein ausgebildeter Ethiker. Die für eine trennscharfe Anwendung deontologischer Ethik nötige philosophische Begriffsarbeit ist ihm in aller Regel gar nicht zumutbar. Darüber hinaus sind sich auch professionelle Ethikfachleute keineswegs immer einig. Ein weiterer Einwand knüpft an die Frage der Praktikabilität an und führt sie weiter: Um welche Art von Gesetzen sollte es gehen und wie sollten diese ausgelegt werden? Schließlich gibt es zahlreiche Gesetze, die ganz bestimmten Interessengruppen dienen, aber dennoch beschlossen und durchgesetzt werden. Sogar Diebstahl kann in die Form von Gesetzen gegossen werden, etwa im Fall der 287

7.  Digitale Ethik

Enteignung jüdischer Geschäfte während des Dritten Reiches. Die Überlegung, ein solches Gesetz sei naturrechtlich oder aus deontologischen Prinzipien heraus von Haus aus unwirksam oder zumindest unzulässig, verkennt die soziale Realität staatlicher Durchsetzung von Gesetzen, auch wenn diese ethisch fragwürdig, ja zu verachten sind. Nun könnte man argumentieren, es seien eben Gesetze in einer idealen Welt gemeint. Leider gilt aber auch für diese Forderung der Einwand der Praxisferne. Schließlich stellen sich unterschiedliche Menschen die ideale Welt sehr unterschiedlich vor. Eine deontologische Ethik kann den Rahmen einer individuellen Interpretation der idealen Welt nicht sprengen. Darüber hinaus ist der Maßstab des allgemeinen Gesetzes nicht für jedes sinnvolle und ethisch akzeptable Verhalten gültig. Nehmen wir erneut das Beispiel des ein Stück Schokolade essenden Heimbewohners. Er weiß, dass ihm noch wenig Lebenszeit bleibt; auf einige Tage mehr oder weniger kommt es ihm nicht an. Kein Gesetz der Welt verbietet es, Schokolade zu essen, selbst wenn gesundheitliche Gefahren lauern. Was aber wäre das „allgemeine Gesetz“, um das es ginge? Hier sind verschiedene, leider aber auch widersprüchliche Formulierungen und Perspektiven möglich: Jeder esse, was er mag. Oder: Niemand schädige seine Gesundheit vorsätzlich. Oder: Selbstbestimmung ist der höhere Wert gegenüber gesundheitlichen Beschränkungen. Oder: Die Vorbildwirkung für andere gilt auch für hochbetagte, nach Schokolade hungrigen Heimbewohnern. Klar wird jedenfalls, dass von einem Programmierer nicht erwartet werden kann, eine eigene, fachkundige, aber gleichwohl immer auch kontroverse Position zu solchen Fragen zu entwickeln. Aus diesen Gründen eignet sich die deontologische Ethik letztlich nur bedingt als Maßstab für die Beurteilung digitaler Praxis. Ein dritter ethischer Ansatz wird oft unter dem Dachbegriff der Tugend- oder Haltungsethik zusammengefasst. Während die utili288

Utilitaristische, deontologische und Tugendethik: Humanität als Kriterium

taristische und die deontologische Ethik mit Bentham und Kant auf zwei Autoren des 19. Jahrhunderts im zunehmend säkularen Europa der Französischen Revolution zurückgehen, hat die klassische Tugendethik zeitlich und sachlich eine Vielzahl von teilweise sehr heterogenen Quellen. Diese reichen von der griechischen Antike über das christliche Mittelalter. Auch die phänomenologischen Ansätze der Wertethik von Max Scheler (vgl. M. Scheler 2014) sind hier einschlägig zu nennen. Der Bogen der Tugendethik spannt sich also über mehr als 2000 Jahre und umfasst immer neue religiöse und säkulare Interpretationen. Religiöse Wurzeln der Ethik werden in Diskussionen der akademischen Philosophie zwar oft übersehen. Im praktischen Leben von Millionen Menschen sind diese aber wie immer wieder erwähnt lebenspraktisch wirksam. Sie sollten folglich in ihrer Wirkung auch von Menschen ohne religiöse Überzeugung beachtet werden (vgl. T. Crane 2019). Beispiele für allgemein wirksam gewordene religiöse Überzeugungen sind im ethischen Feld die „Goldene Regel“ der Reziprozität oder die biblischen Zehn Gebote. Auch die Ethik nicht-christlicher Weltreligionen ist bei aller Verschiedenheit und Ausdifferenzierung vom Grundsatz her gerade keine utilitaristische oder deontologische Ethik, sondern eine Ethik der Werte, Haltungen und Tugenden. Der etwas altbackene Begriff der Tugend ist ja in neuerer Zeit immer stärker durch den Begriff der handlungsleitenden Werte und den Begriff der Werteorientierung ersetzt worden (vgl. ausführlich: H. Joas 1997). Dies gilt auch im wirtschaftlichen Bereich (vgl. U. Hemel 2007). Wer sich für eine neuzeitliche Auslegung von „Tugend“ und „Tugenden“ interessiert, findet diese beispielsweise bei Otto Bollnow (1903-1991), Josef Pieper (1904-1997) oder Alasdair MacIntyre (geb. 1929). Häufig wird die Tugendethik im europäischen Kontext auf Aristoteles (385-323 v. Chr.) oder Thomas von Aquin (1225-1274) zurückgeführt. Der Begriff „Tugendethik“ bezieht sich dann auf den 289

7.  Digitale Ethik

Charakter einer handelnden Person, also auf individualethische Zusammenhänge. Die Einschränkung auf die einzelne Person ist allerdings nicht zwangsläufig, denn Werteorientierung und habituelles Handeln sind nicht nur die Sache von Individuen, sondern auch von Organisationen, Institutionen und Unternehmen. Für Aristoteles steht der Begriff der Eudaimonia oder der Glückseligkeit im Vordergrund. Deutet man diesen Begriff nicht individual-, sondern sozialethisch, gelangt man zu einer Orientierung am Gemeinwohl als Prinzip der Ethik. Eine moderne Ausdrucksweise für die klassische Tugendethik wäre also die Werteorientierung in der Balance aus der Suche nach eigenem Glück und dem Streben nach dem Gemeinwohl. Diese Sichtweise scheint mir auch für die digitale Welt gut zu passen. Ich vertrete sie, seitdem ich in meinem Buch „Wert und Werte, Ethik für Manager“ (U. Hemel 2007) Anlass hatte, eigene Erfahrungen aus der Leitung eines größeren Unternehmens mit Blick auf die praktische Werteorientierung zu reflektieren. Die neuere Diskussion über Purpose oder gemeinwohlbezogene, sinnstiftende Zwecke von Unternehmen geht in die gleiche Richtung. Sie kann als Aktualisierung oder als weitere Variante der „Tugendethik“ oder einer Ethik der Werteorientierung verstanden werden (vgl. N. Mourkogiannis 2006, F. Fink, M. Moeller 2018). Generell vorteilhaft am Konzept der Tugendethik ist seine Praktikabilität, verbunden mit Transparenz und Revidierbarkeit. Menschen sind lernfähig. Sie können selbstreflexiv ihr eigenes Verhalten als Fehler erkennen und solche Fehler korrigieren. In jedem Fall folgen aus wiederholten Handlungen im Lauf der Zeit gelebte Haltungen. Aus gelebten Haltungen entstehen schließlich stabile Wertorientierungen oder „Tugenden“. Die spezifische Färbung von Werthaltungen ist soziokulturell und situativ je unterschiedlich. Damit kommt eine solche Balance-Ethik dem Prinzip der Humanität auch in der Praxis entgegen. 290

Utilitaristische, deontologische und Tugendethik: Humanität als Kriterium

Betrachten wir wieder einmal ein praktisches Beispiel. Ein Vater fährt mit seinem leicht behinderten Kind und Nachbarskindern an einen See. Die drei spielenden Kinder rutschen hintereinander auf einem Steg aus und fallen ins Wasser. Nun ist es eine natürliche Reaktion und auch ethisch in Ordnung, dass ein herbeieilender Vater zunächst das eigene Kind und dann die anderen rettet. In der kantischen Ethik wäre dies problematisch, da das Handeln aus Pflicht keine Bevorzugung eigener Kinder und Freunde zulassen würde. Für Protagonisten der utilitaristischen Ethik hingegen könnte eine Diskussion darüber entbrennen, ob es nicht ethisch geboten sei, ein Kind mit größerer künftiger Leistungsfähigkeit statt des behinderten eigenen Kindes zu retten. Schon eine solche Diskussion würde aber von den meisten Menschen – und meiner Meinung nach zu Recht – als Verstoß gegen das Prinzip der Humanität aufgefasst werden. Als kritikwürdig am Konzept der Tugendethik gelten ihre potenzielle Widersprüchlichkeit und ihre womöglich fehlende Allgemeingültigkeit. Denn gerade die situativ flexible Auslegung von Werten führt zu Widersprüchen, weil die allgemeine Konsistenz des Handelns infrage gestellt wird. Dies kann als Argument gegen Allgemeingültigkeit gesehen werden. Ich bin allerdings der Auffassung, dass diese grundsätzlich gerechtfertigte Kritik deswegen nicht ausschlaggebend ist, weil wir als Menschen immer an eine Perspektive gebunden sind, die durch Lebensalter, Sprache, Kultur und Werteorientierung unser Erkennen und Handeln beeinflusst. Daher gibt es gelebte Werte niemals ohne die konkrete Farbe und Tönung eines situativen und kontextuell spezifischen Auslegungshorizonts. Außerdem sind Menschen wie oben erwähnt lernfähig, also aufgrund neuerer Erkenntnisse in der Lage, ihr Verhalten zu ändern. Und schließlich sind Menschen grundsätzlich zum Vernunftgebrauch fähig, also zu Fallunterscheidungen, die durchaus Kriterien dafür

291

7.  Digitale Ethik

liefern, warum in der einen Situation auf die eine Art und Weise und in der anderen Situation anders gehandelt werden sollte. Die menschliche Abstraktionsfähigkeit erlaubt es uns ja, die eigenen Werte und soziokulturellen Konfigurationen in der Reflexion einzuholen und transparent zu machen. Eine werteorientierte Ethik der Balance entspricht daher in besonderem Maß dem Prinzip der Transparenz, der Fairness und der Chance auf Fehlerkorrektur. Es dürfte also nicht Universalität dort reklamiert werden, wo zum Beispiel die spezielle Perspektive älterer weißer Männer als allgemeingültig angesehen wird. Fair und transparent ist es vielmehr, die eigene Perspektive als Ermöglichung und als Grenze zu reflektieren und eben auch andere Sichtweisen (etwa die von jüngeren schwarzen Frauen) so gut wie möglich einzubeziehen. Für die digitale Praxis ist diese Argumentation deshalb von besonderer Bedeutung, weil die Werte der Fairness und der Transparenz in unserer Zeit auch auf globaler Ebene besondere Aufmerksamkeit erfahren. Anders gesagt: Humanität wird mit Blick auf Fairness und Transparenz ausgelegt, auch im digitalen Feld. Darüber hinaus können die Werte einer Ethik der Balance gut operationalisiert und trainiert werden. Dabei ist es kein Nachteil, dass Wertvorstellungen im Lauf der Zeit Veränderungen erfahren, die zu Anpassungen am wünschenswerten Verhalten und damit auch an Programmierungen führt.

Mentale Architektur und situative Handlungskontexte Digitale Ethik stellt uns Menschen vor Herausforderungen, bei denen der Rückgriff auf die bisherigen normativen Theorien von Ethik an Grenzen stößt, und zwar aufgrund neuer Fragestellungen, verteilter Verantwortlichkeit, der Vielzahl handelnder Akteure oder der nicht ganz klar abschätzbaren Folgen. 292

Mentale Architektur und situative Handlungskontexte

Wer eine App programmiert, sollte beispielsweise nicht nur aus dem Feeling der eigenen Lebenswelt heraus handeln, sondern Auswirkungen auf größere soziale Kontexte reflektieren können. Dazu braucht es eine systematische Praxis des Lehrens und Erlernens von Werthaltungen und von Verhaltensweisen, die Humanität fördern und nicht mindern. Der Königsweg einer sinnvollen Ethik der Balance ist dabei wie beschrieben deren Auslegung im Kontext von Menschenwürde und Menschenrechten. Die normative Ausrichtung auf die Förderung von Humanität ist freilich das eine, deren biologische, soziale und anthropologische Begründung das andere. Die Frage nach der Entstehung und Geltung von Werten (vgl. H. Joas 1997) ist ja nicht losgelöst von der biologischen Konstitution der Spezies Mensch. Gerade die Auseinandersetzung mit der digitalen Repräsentation von Werten führt uns ja auch zur Frage, wie wir die spezifische Art und Weise von Informationsverarbeitung bei Tieren, Menschen und Maschinen verstehen können. Für eine „Kritik der digitalen Vernunft“ ist diese Frage von großer Bedeutung, auch wenn es hier nicht um die Feinheiten der kognitionspsychologischen und anthropologischen Fachdiskussion gehen soll (vgl. M. W. Eysenck, M. T. Keane 2010; E. Bohlken, Ch. Thies 2009). Offensichtlich ist jedenfalls, dass Menschen und Tiere Informationen aus ihrer Umwelt verarbeiten (vgl. etwa H. Wagner 2020, 45-65). Der Umstand der Informationsverarbeitung wird aber bisweilen mit der Theorie verknüpft, das menschliche Gehirn solle analog zu einem Computer verstanden werden. Die Computer-Gehirn-Analogie im Kognitivismus (vgl. J. R. Anderson 1983, R. Gaschler, P. A. Frensch 2009, 156-163) ist für eine digitale Ethik allerdings keine große Hilfe, weil sie zu leicht in einer Art Zirkelschluss endet: Menschen haben mit ihrem Gehirn Computer geschaffen und deuten nun die Funktionsweise ihres Gehirns in der Art digital programmierter Computer. Rechnen ist aber nicht das Gleiche wie die Zuweisung von Bedeutung oder das Verstehen, 293

7.  Digitale Ethik

erst recht nicht das Verstehen im Rahmen eines situativen Kontextes. Menschen sind komplexer als Computer, sowohl wegen ihrer unterschiedlichen Wahrnehmungsebenen wie auch aufgrund ihres Zeithorizonts und ihrer Fähigkeit zu Freiheit und Selbstbestimmung. Digitale Ethik muss genau diese anthropologische Komplexität in den Blick nehmen. Ich möchte an dieser Stelle erneut den weiterführenden Begriff der mentalen Architektur in die Diskussion einbringen (vgl. U. Hemel 2019, 335-350). Mit der mentalen Architektur einer Person oder Organisation ist ein relativ stabiles Gefüge von Gewohnheiten der Wahrnehmung, der inneren Einordnung, der Mustererkennung und der Erzeugung einer bestimmten Bandbreite von Reaktionsweisen gemeint. Die mentale Architektur einer Person ist, so gesehen, zugleich biografisch-historisch geworden, genetisch konditioniert und situativ adaptiert. Mentale Architektur steht, anders gesagt, für die Gesamtheit bedeutungstragender Verknüpfungen, die bewusst oder unbewusst als typisch für den Charakter und die spezifische Persönlichkeit eines Individuums gelten können. Sie umfasst auch emotionale und ethische Bewertungen. Unsere mentale Architektur entscheidet im Sinn einer über die Zeit relativ stabilen, aber situativ aktivierbaren Deutungsressource über die Relevanz und Plausibilität dessen, was uns im Leben zustößt (vgl. U. Hemel 1988, 290). Gleichzeitig bestimmt die Qualität unserer Einordnung oder Kategorienbildung (Framing) die Richtung und Intensität unserer Reaktionen auf eine gegebene Situation („Coping“; vgl. ebd., 289). Dabei gehen wir von der alltäglichen Beobachtung aus, dass Menschen sich wie andere Lebewesen in ihrem Alltag und in ihrem ganzen Leben orientieren müssen. Sie sind auf Entscheidungen ausgelegt, die sich im direkten Vollzug als Prioritäten verstehen lassen: Denn wir tun das eine und gerade nicht das andere. Wir essen ein Stück 294

Mentale Architektur und situative Handlungskontexte

Kuchen oder verzichten darauf; wir gehen schwimmen oder lesen ein Buch; wir machen eine langjährige Ausbildung oder unterlassen es; wir heiraten und ziehen Kinder groß oder tun es aus verschiedenen Gründen gerade nicht. Die hier genannten Phänomene werden normalerweise unter Gesichtspunkten wie Wahrnehmung, Aufmerksamkeit, Gedächtnis oder Motivation untersucht. Unter dem Blickwinkel der mentalen Architektur geht es aber um die subjektive Form einer unified theory, einer individuellen Theorie über die Welt. Diese individuelle Theorie über die Welt umfasst ein Selbst- und ein Weltbild, einen Begriff der eigenen Identität wie auch einen Rahmen für unser Weltverständnis. Der Gedanke der mentalen Architektur verweist dabei auf den systemischen und systematischen Zusammenhang unseres Daseins in der Welt und unserer individuellen Form des Weltzugangs und der Weltverarbeitung (vgl. U. Hemel 1988, 543-564). Sprachliche, emotionale und im engeren Sinn kognitive Erfassung fließen beim Menschen, nicht aber bei Maschinen ineinander. Maschinen verarbeiten Input und liefern Output. Dahinter liegt in aller Regel gerade kein explizites und umfassendes Welt- und Selbstbild. Menschen leben, und ihr Leben ist nicht in jedem Augenblick auf funktionalen Output ausgerichtet. Menschen sind anders als Maschinen dazu gezwungen, Welt in ihrer Bedeutung für sich selbst, aber auch sich selbst im Kontext ihrer Welt zu deuten. Sie gewinnen dadurch nicht nur ein Selbstund Weltbild, sondern formen ihre eigene Identität, und zwar im Zusammenspiel von genetischer Ausstattung, soziokultureller Prägung und Selbststeuerung (vgl. U. Hemel 2017, 157-173). Menschen unterliegen einem Weltdeutungszwang, haben aber auch eine eigene Weltdeutungskompetenz (vgl. U. Hemel 1988, 556). Der hier verwendete Begriff der Weltdeutung ist zunächst nahe am biologischen Geschehen. Menschen müssen sich in ihrer Welt orientieren, etwa mit Blick auf Nahrung, auf Gefahr, auf soziale Zu295

7.  Digitale Ethik

gehörigkeit. Aufgrund der Neuroplastizität des menschlichen Gehirns, speziell aber durch die menschliche Sprach-, Symbol- und Abstraktionsfähigkeit entfaltet sich die zunächst noch sehr einfache Weltdeutung eines Kleinkinds in einem gegebenen soziokulturellen Rahmen. Sie führt im Lauf der Zeit zu einem sowohl sozial angepassten wie individuell konfigurierten Weltmodell im Rahmen der schon häufiger angesprochenen mentalen Architektur einer Person. Zu einem solchen Weltmodell gehören Ergebnisse von Selbstbildung und Identitätslernen, von Rollenübernahme und Zuschreibungen, sodass jemand dann sagen kann: „Ich bin ein aufgeschlossener, toleranter Mitteleuropäer mit guter Ausbildung und setze mich besonders für meine eigene Familie ein.“ Auch religiöse und weltanschauliche Identifikationsprozesse spiegeln sich im Weltmodell einer solchen Person, etwa in folgender Form: „Ich habe eine christliche Erziehung, bin aber der Kirche nicht sehr verbunden“ oder „Ich bin nicht religiös erzogen und lasse die Frage nach Gott und Religion für mich einfach mal offen“. Die grundlegende Weltdeutungskompetenz äußert sich dann auf der Ebene des eigenen Selbst- und Weltverständnisses, aber auch in psychologischen Annahmen über die eigene Person. Situativ kann es allerdings auch zu Spannungen und Widersprüchen zwischen dem eigenen Weltmodell und der Weltdeutungsperformanz kommen, etwa wenn jemand zwar davon überzeugt ist, dass Lügen nicht gut ist, sich aber bei einer Polizeikontrolle im Straßenverkehr zu einer Lüge hinreißen lässt. Man kann dann beispielsweise von einem Kompetenz-Performanz-Gefälle sprechen, so wie ein Weltklasse-Pianist in betrunkenem Zustand vermutlich kein Weltklassekonzert spielen wird, sondern hinter seinen Möglichkeiten zurückbleibt. Kompetenz und Performanz gehören jedenfalls zusammen. Denn Weltdeutungskompetenz äußert sich situativ in einer konkreten Weltdeutungsperformanz (vgl. U. Hemel 1988, 559). Dabei geht es um die situative Einordnung dessen, was wir erleben, und um unsere 296

Mentale Architektur und situative Handlungskontexte

Reaktion darauf. Wenn ein Mann mit einem großen Messer in der Küche steht und den Arm hebt, kann es sich um einen Mordversuch handeln oder um die Alltagssituation des Kochens. Stehen wir mit diesem Mann in der Küche, werden wir unsere „Weltdeutungskompetenz“ folglich auch emotional aktivieren. Wütende und aggressive Bewegungen könnten uns Angst machen, gelassene und zweckgerichtete Bewegungen zum Schneiden von Gemüse wären kein Anlass für erhöhte Aufmerksamkeit. Speziell auf dem Gebiet der Verhaltenstherapie wurde die von Steven C. Hayes entfaltete „Bezugsrahmentheorie“ (vgl. F. Binder et al. 2020, 186) und die auf ihn und seine Kollegen zurückgehende Akzeptanz- und Commitment-Therapie erfolgreich zum Einsatz gebracht (vgl. S. C. Hayes 2001; S. C. Hayes, K. D. Strosahl, K. G. Wilson 2014). Auch bei ihr geht es um die „Einordnung“, also das „Framing“ dessen, was uns zustößt. Veränderungen der Einordnungen können folglich helfen, eine andere Sicht der Dinge zu gewinnen und so ein Übermaß an subjektivem Stress zu vermeiden (vgl. F. Binder et al. 2020, 183–202). Es mag auf den ersten Blick erstaunen, wenn hier Forschungen erwähnt werden, die ursprünglich auf Feldern wie der Religionspädagogik, der Kognitionspsychologie oder der Psychotherapie diskutiert wurden. Die Übertragung von Prozessen der Einordnung (des Framings) und der Konstruktion von Weltmodellen auf digitale Anwendungen liegt aber deshalb nahe, weil gerade KI-basierte Systeme wie etwa beim autonomen Fahren ohne ein entsprechendes Design eines Umweltmodells mit vergleichbaren Prozessen der Einordnung, der Mustererkennung und der Situationsbewältigung gar nicht auskommen können. Folglich sind Überlegungen zur mentalen Architektur sowohl ethisch wie auch digital relevant. Kehren wir zurück zu unserem Beispiel des „wütenden Manns in der Küche“. Die Relevanz von sinnvollen Weltmodellen ergibt sich nämlich nicht zuletzt aus der Vermeidung von Fehlwahrnehmungen 297

7.  Digitale Ethik

und Fehlreaktionen. Denn solche Fehlwahrnehmungen führen mit hoher Wahrscheinlichkeit zu Fehlhandlungen, etwa wenn ich aus einer ungeeigneten Situationswahrnehmung heraus mit „Gelassenheit“ reagiere, der Mann in der Küche aber wirklich wütend ist und aggressiv auf mich losgeht. Es gibt also in der Mensch-Welt-Relation ebenso wie in der System-Welt-Relation korrigierende Feedbackschleifen, die aus der Umwelt auf unser Erkenntnis- und Handlungssystem zurückwirken. Ohne ein Minimum an Angepasstheit kann daher kein Mensch überleben und kein System funktionieren. Umgekehrt gilt aber auch, dass fast jede Situation so deutungsoffen ist, dass sehr unterschiedliche Sichtweisen oder „Perspektiven“ der Weltdeutung zur Anwendung kommen und auch lange durchgehalten werden können. Zur mentalen Architektur gehören auch kulturelle Kontexte. Für meine kolumbianische Schwiegermutter Leticia Duque Hernandez (1923-2012) aus Medellín wäre es eine kulturell und persönlich angemessene Reaktion gewesen, in der oben beschriebenen Situation mit dem Spruch zu reagieren „Männer haben in meiner Küche nichts zu suchen“. Das war damals so, hat sich aber auch in Kolumbien längst geändert. Und „Doñha Lety“, wie sie von allen genannt wurde, konnte sich in ihren späten Jahren auch darauf einstellen! Anders als die bisher bekannten digitalen Programme konnte sie sich auf diesen speziellen Fall der soziokulturellen Obsoleszenz im Alltag gut einstellen. Das Einordnen einer Situation oder das Framing bestimmt folglich die aktivierten Handlungsmuster oder Reaktionen (Coping). Beide sind kontextuell und situativ unterschiedlich, folgen aber übergeordneten evaluativen Zusammenhängen, die als Wertesystem beschrieben werden können. Die mentale Architektur einer Person geht zwar in Werten und einem Wertesystem nicht auf. Sie ist aber ohne Akte der mentalen Bewertung und emotional-affektiven Tönung gar nicht vorstellbar. 298

Mentale Architektur und situative Handlungskontexte

Dies lässt sich u. a. am Phänomen des ethischen Störgefühls zeigen. Als 1980 meine erste Tochter Sabrina geboren wurde, kaufte ich ein besonders sicheres Auto: einen über zehn Jahre alten, gebrauchten Volvo. Diese schwedische Automarke stand damals für den bestmöglichen Sicherheitsstandard überhaupt. Das Fahrzeug hatte aber noch keine Sicherheitsgurte auf dem Rücksitz. Also konnten wir unsere Tochter gar nicht angurten. Das störte auch niemand, und sie turnte oft fröhlich auf dem Rücksitz herum, trotz unserer Ermahnungen. Würde mein Sohn auch nur versuchen, seine 2019 geborene Tochter, meine Enkelin Amalia, ohne geeigneten Kindersitz zu transportieren, würde unverzüglich ein sehr massives ethisches Störgefühl im gesamten familiären Umfeld entstehen. Das Framing der Situation wäre mit „Gefahr für das Kind“ und „verantwortungslosem Handeln“, aber auch mit entsprechenden emotionalen Bewertungen verbunden. Es gäbe folglich im Umgang mit der Situation (dem Coping) Reaktionen, die sich deutlich gegen derartige Handlungen aussprechen würden. Solche Beispiele verweisen auf den sowohl individuellen wie auch kollektiven, zeittypischen und soziokulturellen Kontext von ethischen Bewertungen. Wenn mentale Architektur unsere systematische, ethische Bewertung von Situationen beeinflusst und so unsere individuelle und kollektive Wertelandschaft prägt, dann muss eine solche Wertelandschaft immer auch als kontextuell und situativ flexibel verstanden werden. Für eine digitale Ethik ist dies von großer Bedeutung, denn aus dem Gesagten ergeben sich konkrete Forderungen für eine Ethik der Programmierung und für digitale Anwendungen. So ist zum einen sicherzustellen, dass die relevanten Kontexte und Kriterien der Beurteilung im Sinn des zugrunde liegenden Wertesystems transparent offengelegt werden. Zum anderen müssen Programme „revidierbar“ sein und ein „Verfallsdatum“ haben, weil die 299

7.  Digitale Ethik

kontextuellen Prämissen ihrer Programmierung sich ändern können. Das zeigen nicht nur die oben erwähnten Beispiele des „Manns in der Küche“ und der „Gurte auf dem Rücksitz“, sondern das geht bis in veränderte Bewertungen hinein, die in Gesetze gefasst werden. Aus dem Horizont einer utilitaristischen und deontologischen Ableitung normativer Maßstäbe sind solche Veränderungen nicht treffsicher abzuleiten. Auch aus diesem Grund ist die Kontextualität und Revidierbarkeit von Wertesystemen in einer fortentwickelten Tugend- und Haltungsethik als Vorzug gegenüber einer fiktiven Allgemeingültigkeit anzusehen. Dies gilt allerdings nur in Verbindung mit dem normativen Maßstab der Humanität, weil nur dann inhaltliche, wenngleich kontrovers diskutierte Prüfsteine zur Verfügung stehen. Solche Prüfsteine haben den Sinn, einen Relativismus der Werte und ein Abgleiten in die Barbarei wie etwa in der Nazi-Diktatur zu verhindern. Die hier dargelegte sehr grundsätzliche Darstellung der Funktionsweise von mentalen Ordnungen und mit ihnen verbundenen Werten ist immer dann hilfreich, wenn es um ethische Argumentationen, speziell um die Bewertung und Priorisierung von Entscheidungen und Handlungen geht. Digitale Anwendungen kommen aber ohne solche Bewertungen und Priorisierung nicht aus. Weil eine grundlegende ethische Sprachfähigkeit heute Teil der professionellen Anforderungen für Digitalprofis der unterschiedlichsten Berufsgruppen darstellt, sollte zur digitalen Ethik auch ein kurzer Einblick in praktikable und anerkannte Methoden ethischer Entscheidungsfindung gehören. Dabei sind diese Methoden zunächst einmal unabhängig von den eingesetzten grundlegenden Theorierichtungen innerhalb der Ethik.

300

Handwerkszeug für Verantwortung: Methoden ethischer Entscheidungsfindung

Handwerkszeug für Verantwortung: Methoden ethischer Entscheidungsfindung Es überrascht nicht, dass es in der Ethik wie in anderen Lebensbereichen professionelle Verfahren der Handlungsbewertung gibt. Als Königsweg gilt insbesondere die Güterabwägung. Entschieden wird dann nach dem höchsten Gut oder dem kleinsten Übel. Dabei geschieht es regelmäßig, dass die Meinungen dazu aus­ einandergehen. Wir unterscheiden uns ja in unseren Weltmodellen, Lebensentwürfen und mentalen Architekturen. So kommt es immer wieder zu Spannungen und Konflikten, Streit und Missverständnissen. Emotionen wirken dann stärker als Argumente, was gerade keine gute Voraussetzung für eine ethisch verantwortete Entscheidung darstellt. Eine bewährte Möglichkeit zur Versachlichung von Entscheidungen ist die gewichtete Betrachtung von Argumenten, die zudem digital gut abbildbar ist. Weil meist mehrere Faktoren für eine Bewertung zusammenkommen, lässt sich die Methode der Güterabwägung nämlich so ausgestalten, dass für jedes Pro- und Contra-Argument ein Punktwert vergeben wird. Der Gesamtwert der vergebenen Punkte darf einen festgelegten Wert, also z. B. 100 Punkte, nicht überschreiten. In einem interaktiven Geschehen etwa durch Klebepunkte an einem Flipchart zeigt sich meist sehr rasch, wer welche Argumente unterschiedlich gewichtet und wie sich die Waage letztlich neigt. Die Herstellung von Transparenz über die Gründe unterschiedlicher ethischer Bewertung ist ihrerseits ethisch wünschenswert. Darüber hinaus eignet sich die genannte Methode der Güterabwägung bei transparentem Ausweis der vorgenommenen Gewichtungen wie schon angedeutet sehr gut für eine digitale Operationalisierung. Manchmal wird ein und derselbe Sachverhalt von einer Person als Vorteil, von der anderen als Nachteil angesehen. Haben beide Perso301

7.  Digitale Ethik

nen gleich viel Entscheidungsmacht, kommt es zu einem Entscheidungspatt. Ganz ohne digitale Kenntnisse kann das passieren, wenn bei einem Ehepaar der eine Urlaub am Meer, der andere Urlaub in den Bergen bevorzugt. Halten beide den Wert der Partnerschaftlichkeit hoch, dann kann man sich beispielsweise abwechseln und einmal ans Meer fahren, einmal in die Berge. Hier kommt man also durch die Methode der ethischen Wertklärung zum Ziel. Denn beide Seiten einigen sich in der Art und Weise der Entscheidungsfindung darauf, einen bestimmten Wert wie hier den Wert der Partnerschaftlichkeit besonders hoch zu gewichten. Geht es um digitale Programme, so ist es vorstellbar, dass die Gewichtung von Argumenten parametrisierbar ist. Fehlt diese Möglichkeit, dann sollte allen Anwendern und Anwenderinnen klar sein, dass die Art und Weise der vorgenommenen Gewichtung auch eine Form der Machtausübung darstellt. Eine weitere Methode bezieht sich speziell auf die Gewichtung der Folgen einer Entscheidung. Ob eine Entscheidung im ethischen Sinn „richtig“ ist, wird dann im ersten Moment ausgeklammert. Wer aus dem Handwerkszeug der Ethiker die Methode der Folgenabschätzung wählt, der befindet sich typischerweise in der Vorbereitung einer Entscheidung. Denn erst wenn die Folgen nach passenden Kriterien abgestimmt sind, gewinnt die Güterabwägung ihren Sinn. Wenn beispielsweise das Meer nur mit einer Flugreise, der Urlaub in den Bergen aber mit der Bahn möglich ist, dann wird es Paare geben, die den Wert der Nachhaltigkeit besonders hoch einschätzen. Ihre Folgenabschätzung wird dann eher in Richtung „Urlaub in den Bergen“ gehen, weil dieser einen deutlich geringeren CO²-Fußabdruck ermöglicht. Auf der Grundlage der Wertklärung zugunsten der „Nachhaltigkeit“ wird die Folge eines hohen oder niedrigen CO²-Verbrauchs als besonders entscheidungsrelevant angesehen. Dies wird aber nicht für alle Paare so gelten. Die Problematik der Folgenabschätzung liegt also darin, zweifelsfrei zu beurteilen, welche 302

Handwerkszeug für Verantwortung: Methoden ethischer Entscheidungsfindung

Folgen man überhaupt in den Blick nimmt und wie man diese Folgen gewichtet. Werden wesentliche Folgen übersehen oder unrealistisch eingeschätzt, drohen ethisch problematische Entscheidungen. Der Begriff „ethisch problematisch“ oder sogar „unethisch“ bezieht sich allerdings in vielen Fällen auf ein mangelndes Maß an hinreichender Entscheidungsvorbereitung. Wer es bei der zumutbaren Vorbereitung einer wichtigen Entscheidung an Sorgfalt fehlen lässt, der trifft immer eine unethische Entscheidung, und zwar auch dann, wenn sich diese im Nachhinein eher zufällig als sachgerecht darstellt! Zur Ethik gehört folglich die Qualität der Entscheidungsvorbereitung. Ob ich in einer Arbeitspause einen Apfel oder eine Birne esse, mag nicht sonderlich bedeutsam sein. Ob aber ein neuer Staudamm oder ein neuer Flughafen gebaut werden soll, das geht viele an und ist von erheblicher politischer Relevanz. Daher kann man im Sinn eines Maßstabs für die Güte ethischer Entscheidungen formulieren: „Je wichtiger eine Entscheidung und je größer ihre Auswirkung ist, desto professioneller muss sie vorbereitet und desto sorgfältiger muss sie abgewogen werden.“ Neben der Werteklärung und Folgenabschätzung geht häufig auch das Verfahren der Nutzen-Risiko-Bewertung in die Güterabwägung für eine Entscheidung ein. Besonders für ökonomische Entscheidungen ist dann die finanzielle Bewertung etwa einer Investition von ausschlaggebender Bedeutung. Nutzen und Risiko werden dann vorwiegend in monetären Größen abgebildet. Ein Finanzierungsplan setzt beispielsweise voraus, dass die anfänglich eingesetzte Liquidität in einem gegebenen Zeitrahmen und unter realistischen Annahmen wieder zurückfließt („Return on Investment“). Gleiches gilt im privaten Bereich etwa für einen Haus- oder Autokauf. Es muss eine überwiegende Wahrscheinlichkeit dafür gewährleistet sein, dass beispielsweise ein Kredit auch wieder zurückgeführt werden kann. Die Nutzen-Risiko-Bewertung ist in vielen Fällen unmittelbar handlungsleitend. Ethisch problematisch ist es aber, wenn nur eine, 303

7.  Digitale Ethik

etwa die genannte monetäre Dimension, von Nutzen und Risiko betrachtet wird. Diesen Gedanken aufgreifend, haben größere Unternehmen in den letzten zwanzig Jahren systematisch sogenannte „Risikolandkarten“ für sich erstellt, bei denen die Eintrittswahrscheinlichkeit und die Schadenshöhe möglicher Risiken bewertet werden, vom Ladendiebstahl bis zum Großfeuer, vom Hackerangriff bis zum Reputationsschaden. Im Bereich der Rückversicherer hat diese Form der Risikoanalyse z. B. sehr früh dazu geführt, dass Finanzinvestitionen in den Kohlesektor kritisch beurteilt wurden und zwischenzeitlich gar nicht mehr getätigt werden. Hintergrund einer solchen Finanzentscheidung ist nicht nur die gesellschaftliche Veränderung in der ethischen Bewertung fossiler Energie, sondern auch die zunehmende Verbreitung der ESG-Anlage-Kriterien in der Finanzwelt. Dabei geht es um die Beachtung von Umweltrisiken (environmental), sozialen Folgen (social) und regelkonformer Unternehmensführung (governance) Wie so oft, ist aber eine Nutzen-Risiko-Bewertung nicht ohne die Unsicherheit der getroffenen Annahmen zu haben. Dies gilt auch dann, wenn digitale Hilfsmittel zur Verfügung stehen, etwa auf dem Höhepunkt der Corona-Pandemie im Frühjahr 2020. Zu frühe Reaktionen wirken sich wirtschaftlich massiv aus, zu späte ziehen aufgrund von Ansteckungen vergleichsweise mehr Todesfälle nach sich. Die Diskussion über die ethische Qualität einer Entscheidung muss folglich auch die Fehlbarkeit von Menschen und Maschinen in Betracht ziehen. Tauchen neue Kontexte auf, sind neue Schlüsse zu ziehen. Eine sehr schnelle Reaktionsfähigkeit auf gefährliche Situationen ist aber bei aller Fehlbarkeit ein Kennzeichen von Menschen. Sie versuchen, sich immer wieder anzupassen, machen Fehler und korrigieren diese. Dadurch sind sie in zahlreichen Fällen mit einer der Spezies Mensch eigenen „Katastrophenkompetenz“ ausgestattet, die beachtlich ist (vgl. hierzu sehr detailreich H. F. Angel 1996). Das Wort Katastrophenkompetenz bezeichnet hier die komplexe Fä304

Handwerkszeug für Verantwortung: Methoden ethischer Entscheidungsfindung

higkeit, Katastrophen zu überstehen und zu bewältigen. Hier nicht gemeint ist die sicherlich ebenso vorhandene menschliche Fähigkeit, Katastrophen anzurichten. Digital ist „Katastrophenkompetenz“ schwer abzubilden, weil sich Katastrophen eben durch das Unerwartete, im Vorhinein mit einer ganz anderen Wahrscheinlichkeit belegten Ereignisfolge auszeichnen. Eine Programmierung aber, die auch scheinbar kleine Wahrscheinlichkeiten im Sinn des „schwarzen Schwans“ (N. N. Taleb 2008) einprogrammiert, riskiert grundsätzlich, teuer und langsam zu werden. Es müssten einfach zu viele Szenarien berücksichtigt werden, denn der Begriff des „Schwarzen Schwans“ steht in diesem Kontext für das Eintreten extrem unwahrscheinlicher Ereignisse, eben weil schwarze Schwäne in der Natur nur sehr selten vorkommen. Will man aber alle Eventualitäten berücksichtigen, wird ein Programm dann wie erwähnt sowohl teuer wie auch schwerfällig. Darüber hinaus sind auch Programme Künstlicher Intelligenz im Katastrophenfall nicht unbedingt besser als der menschliche Common Sense. Besser sind sie im Grunde nur dann, wenn es sich nicht um eine unerwartete Katastrophe, sondern eine programmtechnisch im Vorhinein berücksichtigte, herausfordernde Ereignisfolge handelt. Das aber steht im Gegensatz zu den gerade herausgearbeiteten Zusammenhängen. Fassen wir zusammen: Der Methodenkoffer oder die ethische Toolbox für das Treffen von ethisch begründeten Entscheidungen umfasst insbesondere die Güterabwägung auf der Grundlage einer Wertklärung, die Folgenabschätzung, die Nutzen-Risiko-Bewertung und die Reflexion tragender Prinzipien. Die ethische Qualität einer Entscheidung hängt an einem angemessenen Maß an Entscheidungsvorbereitung. Da aber Menschen nur über eine begrenzte Lebenszeit verfügen und es auch für Entscheidungen darum geht, dass sie in angemessener Zeit gefällt werden, gehört es zur ethischen Professio-

305

7.  Digitale Ethik

nalität, Übertreibungen in der Zeitdauer für eine Entscheidung zu vermeiden. Zu solchen Übertreibungen gehören Skrupulantentum und Prokrastination ebenso wie Dezisionismus und falsche Impulsivität. Wer vor der Entscheidung, einen Apfel oder eine Birne zu essen, so lange grübelt, dass er verhungert, wird Opfer seiner eigenen Skrupel oder seiner übertriebenen „Trödelei“, wie man Prokrastination früher genannt hat. Wer aber Entscheidungen über ein neues Kraftwerk aus dem Bauch heraus in wenigen Minuten trifft, wirkt unprofessionell und kann Opfer seiner Entscheidungssucht und Impulsivität werden. Das „angemessene Maß“ für eine Entscheidungsvorbereitung hängt also auch am Umgang mit dem verfügbaren Zeitstrahl, nicht nur an der Richtung der einmal getroffenen Entscheidung. Doch kommen wir zurück auf unser weiter oben behandeltes Beispiel: Urlaub an der See oder in den Bergen. Wir hatten hierzu bei einem Ehepaar zwei große Werte erörtert: Partnerschaftlichkeit der Entscheidung und Nachhaltigkeit. Was aber zählt mehr, Partnerschaftlichkeit oder Nachhaltigkeit? Diese Frage lässt sich im Grunde nicht allgemeingültig beantworten. Denn für jede konkrete Entscheidungssituation gibt es wie ausgeführt zahlreiche Parameter, die Einfluss nehmen. Grundsätzlich ordnen Menschen wie weiter oben beschrieben ihre innere Wertelandschaft oder die „Architektur ihrer Werte“ (vgl. U. Hemel 2019, 335-350) in hierarchischer Art und Weise, in der Art einer Wertepyramide. Dabei gibt es wenige Spitzenwerte, eine Reihe von herausgehobenen Werten und zahlreiche Basiswerte. Technisch oder mathematisch gesehen können Werte als Vektoren für die faktische Priorisierung von Handlungen betrachtet werden. Sie bestimmen, anders gesagt, die Vorzugsrichtung unseres Handelns bei der Gewichtung unterschiedlicher, situativ wichtiger Werte. Entscheidend ist dabei nicht die Werterhetorik, sondern die gelebte Wertepra-

306

Prinzipienreflexion: Digitale Haftung und digitale Verantwortung

xis: es geht um die „faktische“, nicht die „behauptete“ Priorisierung menschlicher Handlungen. Dabei kommt es regelmäßig zu Spannungen zwischen Ideal und Realität, zwischen dem einen und dem anderen Wert. Ein solcher „Wertkonflikt“ entsteht beispielsweise, wenn Geschwindigkeit und Sorgfalt nicht gemeinsam realisiert werden können: Große Sorgfalt braucht in aller Regel mehr Zeit, die aber bei hoher Entscheidungsgeschwindigkeit fehlt. Es sind also „Wertekompromisse“ nötig, die in konkrete Handlungen münden. Jede einzelne menschliche Handlung ist, so können wir schlussfolgern, eine mathematisch abbildbare, aber aufgrund des Black-Box-Charakters menschlicher Praxis nicht leicht erfassbare Resultante zwischen unterschiedlichen Handlungsoptionen. Diese Handlungsoptionen repräsentieren auf bewusste oder unbewusste Weise unterschiedliche Werte und zugleich das Ganze unserer „mentalen Architektur“. Jede tatsächliche Handlung oder Unterlassung ist sozusagen ein Akt der Balance, des Suchens und Findens eines optimalen Handlungspfads, der eben bestmöglich die grundsätzlich geforderten, aber auch die situativ angemessenen Werte einer Person oder einer Personengruppe spiegelt.

Prinzipienreflexion: Digitale Haftung und digitale Verantwortung Die oben kurz skizzierten Methoden ethischer Entscheidungsfindung, insbesondere das Verfahren der Werteklärung, müssen auf diesem Hintergrund möglicher Wertkonflikte ergänzt werden durch eine Prinzipienreflexion. Denn Prinzipien leiten die Auslegung von Werten, sie sind die Wegmarken der Handlungsorientierung.

307

7.  Digitale Ethik

Nun ist die Anordnung von Werten in einer Wertehierarchie nicht fix, sondern abhängig von Lernerfahrungen, situativen Herausforderungen und sozialen Kontexten. Wir „sehen“ die in uns verankerten Werte nicht und können auch die Werte anderer nur aus ihrem Verhalten erschließen. Das wiederum verlangt Akte der Deutung, die ihrerseits subjektiv gefärbt sein können. Die Frage nach dem Verstehen menschlichen Handelns und dem Verhältnis von Handeln und Deuten ist so spannend wie komplex. Sie ist Gegenstand der philosophischen, sozialwissenschaftlichen und theologischen Reflexion, soll hier aber nicht tiefer behandelt werden (vgl. H. J. Gadamer 1960, K. Demmer 1985, W. Edelstein, M. Keller 1982, K. Joisten 2009). Wenn Menschen aber in ihren Werten schon füreinander und teilweise sogar für sich selbst eine „Blackbox“ sind, dann ist die Zuschreibung bestimmter Werte zu einem beobachteten Verhalten nicht so eindeutig, wie wir es uns wünschen könnten. Immerhin sind wir uns darin einig, dass menschliches Handeln einer bestimmten Person zugeschrieben werden kann, die verantwortlich ist. In der digitalen Welt wirft das Verhältnis von Handeln und Deuten, Output und Verhalten, Programmierung und Verantwortung neue und weitere Fragen auf. So könnte bei komplexen Anwendungen der Output einer digital programmierten Maschine als „Verhalten“ gedeutet werden. Dann könnte dies als erster Schritt der Zuschreibung von Verantwortung gedeutet werden. Dann kommen wir auf das Gebiet der Maschinenethik und der Maschinenverantwortung und müssten uns im Grunde fragen, ob es Verhalten ohne Verantwortung gibt. Die Antwortet lautet „nein“, wenn wir Verhalten nur auf den Menschen beziehen. Sie ist zu differenzieren, wenn wir neben dem Menschen auch Tieren und Maschinen nicht nur Output, sondern „Verhalten“ zuschreiben. Die Verhaltensbiologie (vgl. K. Lorenz 1978) erörtert auf der Grundlage intensiver Tierbeobachtung das Verhalten von Tieren, 308

Prinzipienreflexion: Digitale Haftung und digitale Verantwortung

ohne ethische Kategorien anzuwenden. Überträgt man diesen Gedanken auf Maschinen, dann stünden wir in der digitalen Ethik analog zur kognitiven Ethologie der Tiere vor einer neuartigen „kognitiven Ethologie der Maschinen“. Reizvoll daran ist, dass die Frage nach ethischen Bewertungen des Maschinenverhaltens methodisch ausgeklammert werden kann. Der Fokus liegt auf dem Output, dem Verhalten, nicht der Bewertung des Verhaltens von Maschinen. Eine ethische Prinzipienreflexion wird hier nachdenklich einwenden, dass die kognitive Ethologie von Maschinen zumindest nicht ausreicht. Tiere sind durch ihre DNA und ihre sonstigen Prägungen weitgehend festgelegt. Menschen mögen eine Verantwortung für Tierwohl und für ihren Umgang mit Tieren haben, auch mit Blick auf Eingriffe in die Keimbahn und Klone. Menschen sind aber nicht ohne Weiteres verantwortlich für das Verhalten von Tieren. Doch auch hier gibt es Ausnahmen, etwa bei Haustieren. So spiegeln Hunde in gewisser Weise den erzieherischen Umgang ihrer Eigentümerinnen und Eigentümer, sodass diesen indirekt auch Verantwortung für das Verhalten ihrer Tiere zukommt. Digitale Ethik, die sich auf den Output digital programmierter Anwendungen und Maschinen bezieht, liegt bei der Betrachtung der Zuschreibung von Verantwortung näher bei Haustieren als bei Wildtieren. Digitale Produkte wie Roboter, Androide oder KI-basierte Software sind, ob es uns gefällt oder nicht, eine menschliche Schöpfung, der wir bisher einen eigenen freien Willen nicht zusprechen. Gehen wir zurück zur gestellten Frage nach „Verhalten ohne Verantwortung“. Lautet die Antwort auf die Frage nach der Existenz von Verhalten ohne Verantwortung „nein“, dann gelangen wir unmittelbar zurück in das Feld menschlicher Handlungen. Der Output von Maschinen wäre dann eine Extension, eine „verlängerte Werkbank“, ein externalisiertes Instrument menschlichen Handelns. Folglich sind auch diejenigen Menschen für das Verhalten von Maschinen verantwortlich, die sie geschaffen haben. 309

7.  Digitale Ethik

Mit diesem Gedankengang ließe sich eine Sprechweise rechtfertigen, die von „in Maschinen verankerter Ethik“ und von „maschineller Wertelandschaft“ spricht. Nur sind die menschlichen Subjekte, Träger oder Programmierer solcher Maschinenwerte im besten Fall unsichtbar, im schwierigsten Fall gar nicht zu identifizieren oder sogar schon verstorben. Die Frage nach dem „Ort“ der Verantwortung für maschinelles Verhalten ist also nicht einfach zu beantworten. Die Forderung nach Accountability (H. Nissenbaum 1994, 73-80) bei der Programmierung von Künstlicher Intelligenz geht ja genau in die Richtung dieser Fragen. Weil Verantwortung aber auch Haftung nach sich zieht, stellt uns die Prinzipienreflexion zu digitaler Ethik vor ein bisher ungelöstes Dilemma. Zur Problematik der digitalen Haftung gehört das Wissen darüber, dass es so gut wie keine wirklich fehlerfreie Software gibt. Selbst bei einer Wahrscheinlichkeit von 1: 1.000.000, also bei einem Fehler pro eine Million Programmierzeilen (lines of code), wird es in komplexer Software mit mehreren Millionen Zeilen Dutzende von Fehlern geben. Allein im neuen VW ID3 benötigt die Software für das Steuergerät zur Koordination der verschiedenen Kontrolleinheiten 20 Millionen Zeilen Softwarecode, wie der Lieferant, der CEO von Continental, in einem Interview angab (Schwäbische Zeitung, 13. Juni 2020, S. 7). Softwarefehler sind in der Regel nicht dramatisch, aber sie verweisen uns schon auf Grenzen von Accountability. Schließlich ist es meistens kaum darstellbar, den individuellen Programmierer für einen Programmierfehler ausfindig zu machen. Abgesehen davon könnte er längst das Unternehmen verlassen haben oder sogar wie oben erwähnt schon verstorben sein. Auch das verantwortliche Unternehmen existiert nicht ewig: Schließlich können sogar sehr große Unternehmen untergehen. Die Richtung einer Lösung könnte dort zu finden sein, wo es im politischen Raum den Konsens darüber gibt, eine Art Branchen-Fonds für digitale Fehlleistungen zu 310

Prinzipienreflexion: Digitale Haftung und digitale Verantwortung

etablieren. Etwas Ähnliches gibt es bereits bei der Insolvenzversicherung für Reiseveranstalter. Die zugrundeliegende Problemstellung geht aber über eine soziale und juristische Absicherung von Risiken aus digitalen Anwendungen hinaus. Es geht im Grunde um die Problematik der Verantwortungsdiffusion. Über Haftungsfragen hinaus geht es im Sinn einer Prinzipienreflexion auch um die verschwimmende Grenze zwischen menschlichen Handlungen und der Verantwortung für digitale Anwendungen. So müssen Maschinen und Programme eingestellt oder „parametrisiert“ werden. Digitaler Output kann daher als Resultante aus der vorgängigen Programmierung und der vom Betreiber vorgenommenen Einstellung angesehen werden. Denken wir erneut an das oben diskutierte Beispiel eines Pflegeroboters, der den Schokoladenkonsum eines älteren Bewohners erfasst und meldet. Liegt dann die Verantwortung für dieses Meldeverhalten beim Hersteller oder beim Betreiber? Diese und ähnliche Fragen werden im sozialen Zusammenhang zu gegebener Zeit von Gerichten entschieden werden. Verantwortungsdiffusion in einer hybriden Welt digitaler Anwendungen in menschlichen Lebenswelten hat aber auch eine andere Seite, die wir mit den Begriffen der „Pseudo-Personalität“ und der „Pseudo-Sozialität“ bei bestimmten digitalen Anwendungen bezeichnen können. Die Besonderheit bei Pseudo-Personen besteht darin, dass der menschliche Interaktionspartner kognitiv genau weiß, dass sein Gegenüber keine menschliche Person ist, es emotional aber nicht so empfindet. Das Gegenüber wirkt, anders gesagt, wie eine reale Person. Es geht also um eine gewisse Form der kognitiv-emotionalen Dissonanz. „Siri“ und „Alexa“ sprechen mit dem User, sind aber keine menschlichen Personen. Ob wir sie als Pseudo-Personen oder als Quasi-Personen betrachten sollten, wäre eine eigene Diskussion wert. Bei Quasi-Personen verschwimmt der Unterschied zwischen Mensch und 311

7.  Digitale Ethik

Maschine noch stärker als im Fall der kognitiv-emotionalen Dissonanz, die immerhin leicht zu Bewusstsein gebracht werden kann. Roboter können Emotionen simulieren oder emulieren. Das geht so weit, dass sie sogar digitalen Sex als freudvoll erfahren lassen (vgl. https://www.wuv.de/tech/smart_sex_das_liebesleben_der_zukunft, abgerufen am 12. Juni 2020 um 16.29h). Die menschliche Fantasie ergänzt, was zum realen menschlichen Gegenüber fehlt. Eine Extremform sind dann die sogenannten Solo Weddings oder die Sologamie: Menschen heiraten sich selbst (vgl. https://en.wikipedia.org/wiki/ Sologamy, abgerufen am 12. Juni 2020 um 16.36h). In Kyoto (Japan) gibt es sogar ein auf diese Praxis spezialisiertes Reisebüro (ebd.). Wie weit in solchen einsamen Settings digitale Sexpartner etwa mit VAR-Brillen hier eine Rolle spielen, kann dem Einzelfall überlassen werden. Dabei handelt es sich bisher um Extremfälle, aber die Tendenz zur Vermenschlichung eines digitalen Gegenübers wird zukünftig noch zunehmen, nicht nur im Pflegebereich, in der Welt des Gaming oder im Bereich sexuellen Vergnügens. Roboter, Androide und digitale Vorrichtungen sind keine Menschen, können aber über Stimmausgabe, Oberflächengestaltung und ein entsprechend programmiertes Verhaltensrepertoire die Illusion eines menschlichen Gegenübers erzeugen. Auch in diesem Bereich kann es zur Verantwortungsdiffusion kommen, etwa bei digitalem Suchtverhalten (vgl. U. Braun 2014). Seit 2018 ist beispielsweise die Online-Spielsucht als nicht-stoffliche Sucht im Diagnosekatalog der Weltgesundheitsorganisation WHO unter ICD 11 (6 C 51.0) enthalten. Auch Avatare wie in digitalen Spielen lassen sich als Pseudo-Personen verstehen. Meist sind es digitale Stellvertreter oder Alias-Personen des Spielers oder der Spielerin. Da dieser oder diese aber frei in der Wahl der Eigenschaften seiner Avatare ist, kann er oder sie auch die normalerweise unveränderlichen natürlichen Eigenschaften wie Alter,

312

Prinzipienreflexion: Digitale Haftung und digitale Verantwortung

Geschlecht oder Hautfarbe modifizieren. Avatare sind, so gesehen, Pseudo-Personen, da sie wie Personen agieren, es aber nicht sind. Am Ende entsteht digitale Verantwortung aus dem Zusammenspiel von Person und Gesellschaft. Was Fairness bedeutet, wer ab welchem Alter Zugang zu bestimmten Internet-Plattformen hat und wer für Fehlverhalten verantwortlich ist, bestimmt niemand allein. Klar ist aber, dass Prozesse digitaler Bildung und digitaler Medienethik (vgl. G. Ulshöfer, M. Wilhelm 2020) enorme Herausforderungen an Eltern und Familien, aber auch Schulen und Träger beruflicher Bildung stellen. Ziel ist dabei jenes Zusammenspiel von Vernunft und Emotion, welches es uns erlaubt, Verantwortung für das eigene Leben zu übernehmen. Darüber hinaus ist es keineswegs eindeutig, welche Werte oder gar Prinzipien wir in einer konkreten Situation verankert sehen. Unsere situative Deutung zur Performanz von Werten kann breit streuen. Wenn wir zum Beispiel mit Freunden bei großer Hitze in der Stadt unterwegs sind, führt der Anblick einer guten Eisdiele eher zur Aktualisierung des Wertes „Lebensfreude durch Eisgenuss“ als zur Aktivierung des Wertes „mentales Disziplintraining durch Verzicht“. Wie aber soll dann eine App eingestellt werden, die uns für eine gesunde Lebensführung motivieren soll? Es kann schließlich auch sein, dass wir einfach noch satt sind vom Frühstück und gar keine Lust auf ein Eis haben. Vielleicht haben wir auch nur Angst, unsere schöne Kleidung zu beschmutzen. Dann wäre die Entscheidung „gegen ein Eis“ allenfalls Ausdruck des Werts, sich selbst nicht zu schaden. Die konstitutive Mehrdeutigkeit von Lebenssituationen ist digital jedenfalls nicht komplett abzubilden. Die fehlende Eindeutigkeit der Zuschreibung von Werten zu äußerem Verhalten ist aber nur die eine Seite der Medaille. Denn die Spur jeder konkreten Handlung führt bei Wiederholungen zu stabilen mentalen Strukturen, eben zu „Haltungen“, hinter denen verinnerlichte Werte von Einzelnen oder von Organisationen stehen. 313

7.  Digitale Ethik

Die Gesamtheit unserer ethischen Haltungen steht wie schon ausgeführt für unsere persönliche Wertelandschaft. Idealerweise folgt diese wenigen, nachvollziehbaren Prinzipien, so etwa der Reziprozität (wie in der Goldenen Regel formuliert) oder der Suche nach einer Balance aus Eigeninteresse und Gemeinwohl. Dies spiegelt sich auch im biblischen Doppelgebot der Liebe („Liebe Deinen Nächsten wie Dich selbst“). Die Balance aus Eigenwohl und Gemeinwohl geht allerdings über individuelles Handeln hinaus und sucht nach geeigneten Prozessen und Strukturen in größeren Zusammenhängen. Typischerweise würde dann ein Begriff wie „Klima“ als Gemeinwohlgut definiert, sodass Fragen der ökologischen Verantwortung, aber auch des CO²-Fußabdrucks digitaler Applikationen wie des Streamings und der entsprechenden CO²-Bepreisung diskutiert werden müssten. Weil wir in der raschen Folge von Lebenssituationen nicht immer eine Grundsatzdiskussion führen können und weil unsere Werte nicht beliebig austauschbar sind, brauchen wir die Stabilität dieser gewohnheitsmäßigen Wertelandschaft. Diese wiederum ist nicht unabhängig von unserem soziokulturellen Kontext. Sie überschneidet sich mit dem Wertesystem anderer Mitmenschen, ist in ihren Feinheiten aber doch individuell. Sie bildet sich durch wiederholte Handlungen mit ähnlichen Wertepräferenzen. Wiederholte Handlungen erhöhen die Wahrscheinlichkeit dafür, dass in ähnlichen Situationen die gleiche Handlungsoption gewählt wird. Das ist damit gemeint, wenn die These aufgestellt wird, dass Handlungen zu Haltungen führen. Diese „Habitualisierung“ gilt auf der individuellen wie der kollektiven Ebene, etwa im wirtschaftlichen Feld bei „habitueller“ Unternehmensethik (vgl. U. Hemel, A. Fritzsche, J. Manemann 2012). Zusammenfassend gelangen wir also über Handlungen zu Haltungen, über Haltungen zu Wertsystemen, über Wertsysteme zu Charak-

314

Prinzipienreflexion: Digitale Haftung und digitale Verantwortung

tereigenschaften und „Tugenden“. Wir kommen an dieser Stelle also zurück zur „Tugendethik“. In der Praxis heißt das, dass wir bei uns selbst und anderen zwar nicht mit letzter Gewissheit voraussagen können, wie wir uns in einer gegebenen Situation verhalten werden. Aber die in einer Person ausgebildete, relativ stabile „Wertelandschaft“ führt zu hoch wahrscheinlichen Hypothesen. „So wie ich ihn kenne, geht er an keiner Eisdiele vorbei, ohne sich ein Eis zu holen“, wäre dann eine typische Aussage über einen Freund aus der oben beschriebenen Szene. Die Interpretation von Werten und ihr Bezug zu Prinzipien ist in unserer subjektiven Erfahrung also keinesfalls beliebig. Es gibt einige wenige Spitzenwerte, auf die wir individuell und kollektiv immer wieder zurückkommen. Zu diesen humanen Spitzenwerten gehören Wahrheit und Wahrhaftigkeit, Fairness und Gerechtigkeit, Gewaltlosigkeit und Freundschaft, aber auch Partnerschaftlichkeit und Nachhaltigkeit. Es ist kein Zufall, dass das Parlament der Weltreligionen im Oktober 2018 genau solche Werte als von allen vertretenen Religionen geteilte Werte feierlich bekräftigt hat (vgl. dazu K. J. Kuschel 2019, 39-54, S. Schlensog 2019, 28-38). Im Unterschied zu diesen Werten orientieren sich die klassischen Kardinaltugenden stärker an individuellen Charaktereigenschaften. Man könnte sie in heutiger Sprache auch als ethische Schlüsselkompetenzen betrachten. Es handelt sich, wie vielen bekannt ist, um die Tugenden der Klugheit (prudentia), der Tapferkeit (fortitudo), der schon erwähnten Gerechtigkeit (iustitia) und der Mäßigung (temperantia). In heutiger Perspektive würden wir im Fall der temperantia eine Verbindung zur prudentia suchen und womöglich eher von kluger Urteilskraft, mutigem Engagement, Gerechtigkeit, Ausgewogenheit oder Sinn für Balance sprechen. Dabei geht es in der Ethik, auch in der digitalen Ethik, wie erwähnt nicht nur um das Verhalten einzelner Personen im Sinn der 315

7.  Digitale Ethik

Individualethik, sondern auch um das Verhalten von Institutionen, Organisationen und Unternehmen im Sinn der Sozialethik. Die Balance zwischen Individual- und Sozialethik steht, wie die oben beschriebenen Beispiele zeigen, gerade in der digitalen Welt vor neuen Herausforderungen. Oft genug sind die Interessen einer Institution, eines Konzerns oder eines Staates um Größenordnungen mächtiger als die der einzelnen Person. Eine ethische Reflexion auf Prinzipien bedarf daher auch einiger leitender sozialethischer Grundsätze, die über individuelle Tugenden hinausgehen. Gerade deshalb lohnt sich nach wie vor ein Blick auf die Grundprinzipien der christlichen Soziallehre. Dabei geht es um die Trias von „Personalität, Subsidiarität und Solidarität“ mit Blick auf das Gemeinwohl. Zentraler Wert ist der Vorrang der Person im Sinn von Personalität, denn Wirtschafts- und Gesellschaftssysteme sind kein Selbstzweck. Sie müssen dem Menschen, und zuallererst der einzelnen Person, dienen (vgl. U. Hemel 2013). Da in sozialen Organisationen Entscheidungen eher zentral oder dezentral gefällt werden können, wird als zweites Grundprinzip der christlichen Sozialethik die Subsidiarität genannt. Gefordert wird das Treffen von Entscheidungen auf der unmittelbar betroffenen Ebene, soweit dies möglich ist. Es geht also um den richtigen Ort von Verantwortung. Die Interessen des Individuums oder von dezentralen Abteilungen dürfen aber nicht auf Kosten der Allgemeinheit gehen. Daher geht es beim dritten Prinzip, der „Solidarität“ um das richtige Maß des übergeordneten Zusammenhalts. Das Wohl der Person und das Gemeinwohl sollen dabei in ein Gleichgewicht gebracht werden. Eine solche sozialethische Prinzipienreflexion hat auch mit Blick auf eine digitale Ethik ihre Vorzüge. Denn entgegen zahlreichen Veröffentlichungen geht es nicht nur um die individuelle Ethik von Programmierern, von Geschäftsführern oder sonstigen Verantwortlichen oder umgekehrt von digitalen Konsumentinnen und Konsumenten, 316

Prinzipienreflexion: Digitale Haftung und digitale Verantwortung

von Clickworkern oder sonstigen Usern. Es geht immer auch um die Auswirkungen auf das soziale Leben insgesamt. Gerade der Blick auf beide Seiten, Individual- und Sozialethik, schärft die Wahrnehmung für mögliche Interessenkonflikte und Machtkonstellationen. Die Realisierung von Werten geschieht ja niemals im machtfreien Raum. Sie ist grundsätzlich geprägt von einem Kontext von Interessen und Handlungsmöglichkeiten, die auf effektiver Macht, aber sehr wohl auch auf der Macht des Arguments beruhen. Genau das macht Ethik, und zwar auch die digitale Ethik, ebenso schwierig wie nötig: Sie muss Prinzipien jenseits der Konstellationen von Macht anbieten und den Raum des Argumentativen erweitern. Sie muss aber mit Wertinterpretationen im Raum von Macht auch umgehen können. Wenn hier aus gutem Grund immer wieder das Grundprinzip der Humanität angeführt wird, dann gehört zu den Aufgaben der Prinzipienklärung immer auch das Nachdenken über die jeweilige Situation und Konstellation, um die es geht. Denn aus diesen Situationen und Konstellationen ergeben sich Perspektiven der Welt- und der Wertbetrachtung, die höchst unterschiedlich, ja sogar widersprüchlich sein können. Die Automobilindustrie wird etwa den Wert der Mobilität in der konkreten Praxis anders einschätzen als ein Umweltverband. Werte werden ja nicht im konfliktfreien Raum eingefordert, realisiert oder verfehlt. Dies ist ein Beispiel dafür, dass „Werte“ in ihrer sprachlichen Form immer auch Gegenstand rhetorischer Interessenwahrnehmung bis hin zur ethischen Kampfrhetorik werden können. Von „ethischer Kampfrhetorik“ kann beispielsweise dort die Rede sein, wo Werte für die eigenen Ziele und Zwecke instrumentalisiert werden. Denn das Sprechen über Werte hat ja nicht nur einen beschreibenden, sondern auch einen werbenden Charakter: Es ist eine

317

7.  Digitale Ethik

besondere Form der Selbstdarstellung, die von einem Ideal spricht, welches mal besser, mal schlechter von der Realität gedeckt sein wird.

Ethik in der digitalen Lebenswelt und digitale Professionsethik In der digitalen Welt gelten grundsätzlich keine anderen Werte als in anderen Lebenswelten. Aus diesem Grund bezieht sich die vorhergehende Reflexion über Prinzipien in der Balance von Individual- und Sozialethik sowohl auf die analoge wie auf die digitale Welt. Der in diesem Abschnitt verwendete Begriff der Lebenswelt wurde 1932 von Alfred Schütz (1899-1959) eingeführt, um das Ensemble der Prägungen und Deutungsmuster durch einen nicht weiter reflektierten Alltag auf den Begriff zu bringen (vgl. A. Schütz 1974). Alfred Schütz war seinerseits stark durch die phänomenologischen Analysen Edmund Husserls (1859-1938) beeinflusst. Dieser hob insbesondere den Unterschied, ja die Distanz zwischen der Welt der Wissenschaft und der alltäglichen Lebenswelt hervor (vgl. auch E. Ströker 1979). Gerade weil wir in einer Zeit leben, die durch die Parallelität höchst divergenter beruflicher und privater Welten in Wissenschaft, Wirtschaft, Bildungswesen und Politik gekennzeichnet ist, muss eine Kritik der digitalen Vernunft den Blick auf das Ineinander und Miteinander dieser Bereiche werfen. Alfred Schütz ist hier wegweisend, weil er sich als Erster in einer auch heute noch erstaunlich frischen Sprache mit dem Zusammenhang von Lebenswelt und „Lebensformen“ befasst hat (vgl. A. Schütz 1981). Der Begriff der Lebenswelt kann nämlich auch in der digitalen Transformation hilfreich sein. Denn diese zeichnet sich wie öfter erwähnt dadurch aus, dass sie nicht nur technische Veränderungen bewirkt, sondern auch soziale Folgen bis zur Umwälzung von Alltags- und Arbeitswelt hat. Gerade die im Januar 2020 ausgebrochene, durch das Coronavirus verursachte Pandemie wirkte sich ja in vielen 318

Ethik in der digitalen Lebenswelt und digitale Professionsethik

Ländern wie ein zusätzlicher Digitalisierungsschub aus. Open Education und Open Culture wurden zu Stichworten für die Beschleunigung digitaler Zugänge zu Bildung und zu digitalen Kulturangeboten. Ganze Universitätskurse wurden nur noch digital veranstaltet, Führungskonferenzen und Ministerrunden fanden als Videoschalte statt. Auch in den verschiedenen digitalen Lebenswelten greift die oben eingeführte Unterscheidung von Individual- und Sozialethik. Im individuellen Bereich geht es um unseren persönlichen Umgang mit Daten, aber auch um das Ausmaß unserer Selbststeuerung gegenüber dem digitalen Abhängigkeits- und Suchtpotenzial aus sozialen Netzwerken. Für die einzelne Person geht es weiterhin um digitale Freiheitsrechte gegenüber Staat und Gesellschaft: Wie viel Privatheit steht mir zu? Muss ich das fast schon universelle Tracing und Tracking, also das Verfolgen meiner Datenspuren bis ins letzte Detail, als unvermeidlichen Bestandteil der Welt in digitalen Zeiten resigniert oder gleichgültig zulassen oder gibt es Mittel und Wege, sich anders zu verhalten? Auch hier bringt die Coronakrise neue Zuspitzungen der Fragestellung, etwa wenn es unter dem Stichwort „Tracing und Tracking“ darum geht, die Mobildaten von infizierten Personen im Interesse der öffentlichen Gesundheit individuell nachzuverfolgen. Da die EU grundsätzlich für Belange des Freiheits- und Datenschutzes sensibel ist, gilt dann aber das Architekturkonzept des Pan-European Privacy-Preserving Proximity Tracing. Es verfolgt einen gesamteuropäischen Ansatz, beachtet die Einhaltung der europäischen und deutschen Datenschutzregeln und greift anonymisiert auf epidemiologisch relevante Kontakte der letzten drei Wochen ohne die Erfassung des Bewegungsprofils des Nutzers zu. Dementsprechend sorgfältig ausgearbeitet ist die seit Mitte Juni 2020 zugängliche Corona-Warn-App der deutschen Bundesregierung. Zur digitalen Lebenswelt gehören weiterhin Arbeit und Beruf. Auch hier stellen sich alte Fragen in neuer Form. Wenn Home-Office 319

7.  Digitale Ethik

von der Ausnahme zur Regel wird, wie steht es dann mit der notwendigen Datensicherheit? Wie weit reicht die digitale Kontrolle von Arbeits- und Ruhezeiten? Was bedeutet Führung in einer digitalen Welt, in der selbst die amtierende Bundeskanzlerin Merkel Ende März 2020 aufgrund des Kontakts mit einem womöglich mit Covid-19 infizierten Arzt vom Home-Office aus zu arbeiten hatte? Wie wiederum wirkt sich die digitale Transformation auf Bildung und auf die sozialen Verhältnisse aus? Um welche Folgen für die Frage von Inklusion und Exklusion, von Zugang und Teilhabe wird es gehen? Wie umfassend ist eine kommunale, regionale, nationale und globale Zivilgesellschaft dafür verantwortlich, solche Teilhabe auch über digitale Zugänge zu ermöglichen? Mehr noch: Welche Konzepte sind geeignet, digitale Kompetenz und digitale Bildung in solch einer Art und Weise zu vermitteln, dass die Möglichkeiten des Internets tatsächlich zu einer breiteren Entfaltung statt zum Einsperren des Individuums in der eigenen Filterblase führen? Wie gelingt es, die Nutzung digitaler Medien mit ethischen Haltungen zu verknüpfen, die Selbstbestimmung und Lebenskompetenz statt Fremdbestimmung und Abhängigkeit fördern? Wie ist folglich eine digitale Medienethik auszugestalten (vgl. J. Bedford-Strohm, A. Filipovic 2020, 47-63)? Diese Fragen bis hin zu den ethischen Fragen des digitalen Sports (E-Sport) und der digitalen Spiele (Gaming) reichen tief in die soziale Welt und die Alltagswelt hinein. Sie stellen sich für Medienschaffende wie für Sozialarbeiter, für Akteurinnen und Akteure der schulischen Bildung wie für Theologinnen und Theologen, für Aktivistinnen und Aktivisten wie für einzelne Familien. Sie stellen sich an Werktagen wie an Sonn- und Feiertagen. Genau diese digitale Durchdringung der verschiedenen Formen von Alltag bedeutet aber auch, dass wir nicht nur eine Ethik der digitalen Lebenswelt, sondern Schritt für Schritt eine digitale Professionsethik zu entwickeln haben. Diese hätte die weit gefächerten 320

Ethik als Bestandteil digitaler Technik: Ethics by Design und Value Sensitive Design

digitalen Anwendungsfelder mit ihren kontextspezifischen Fragen und die Entwicklung einer digitalen Berufsethik zum Gegenstand. Erst eine digitale Professionsethik rüstet uns in der Arbeitswelt für die Besonderheiten der digitalen Welt in ihrer Kontinuität und Diskontinuität. Berufskompetenz umfasst digitale Berufskompetenz, aber zur digitalen Kompetenz in jeder Profession muss, so eine zentrale Forderung, eine elementare ethische Sprach- und Handlungsfähigkeit gehören. Digitale Kompetenz und digitale Professionsethik müssen folglich zusammengedacht werden. Ethik in der digitalen Lebenswelt steht folglich vor der Aufgabe, sämtliche gesellschaftlichen und persönlichen Lebensbereiche neu zu durchdenken. Und dies gilt in ganz besonderem Maß für die Frage, wer im digitalen Raum welche Verantwortung hat. Immer wieder ist also zu fragen: Können und sollen wir in einer hoch individualisierten Gesellschaft der einzelnen Person die Verantwortung für ihr Handeln zuweisen? Wie weit reicht die Verantwortung von Organisationen? Und wenn es richtig ist, dass jede Form der Technik Vorentscheidungen über Verantwortung und Verantwortungsdiffusion, also die Verwischung von Verantwortung, schon in sich enthält, sollte es dann nicht möglich sein, schon bei der Programmierung auf ethische Fragestellungen zu achten? Genau diesen Ansatz verfolgt die Forderung von Ethics by Design, also der Berücksichtigung von Ethik schon bei der Planung und Auslegung, dem „Design“ digitaler Produkte.

Ethik als Bestandteil digitaler Technik: Ethics by Design und Value Sensitive Design Ein Hammer dient zum Einschlagen von Nägeln, kann aber auch als Mordwaffe benutzt werden. Gleiches gilt für ein Auto: Es unterliegt 321

7.  Digitale Ethik

der gleichen Ambivalenz von funktionalem Nutzen und möglichem Missbrauch. In der heutigen Wissenschafts- und Gesellschaftskultur wird aus der ethisch positiv besetzten und der missbräuchlichen Nutzung von Technik der Gedanke einer ethischen „Neutralität“ von Technik abgeleitet. Dieser Gedanke ist aber mit Recht in die Kritik geraten. Natürlich ist es richtig, dass Atomkraftwerke zur CO²-freien Erzeugung von Strom dienen. Sie können aber auch zur militärischen Anreicherung von Uran genutzt werden. Richtig ist weiterhin, dass diese Missbrauchsmöglichkeit mit einem stark erhöhten Sicherheitsaufwand einhergeht, weil Atomkraftwerke unter gewissen Umständen sabotageanfällig sein könnten. Darüber hinaus ist die Endlagerungsfrage für angereicherte Brennstäbe ungelöst, sodass sich in zahlreichen Ländern eine große Skepsis gegenüber Atomkraftwerken entwickelt hat. Gesucht wurden folglich regenerative und stärker dezentrale Formen der Energieerzeugung. Dieses Beispiel zeigt, dass jedes technische Erzeugnis und jede Technologie mit ethischen Implikationen einhergehen, die unmittelbar mit dieser Technik verbunden sind und die zu kontroversen Bewertungen führen. Technik ist damit gerade nicht „neutral“, sondern sie ist Trägerin von „inkorporierten Werten“. Diese Werte und deren Verwendung können kontrovers diskutiert und unterschiedlich gewichtet werden. Dieser Umstand nimmt aber nichts davon weg, dass Werte Teil jeder Art von Technik sind. Die Forderung nach Ethics by design greift solche Überlegungen auf und will die ethische Reflexion über Nutzen und ethische Grenzen eines Programms bereits an den Anfang stellen und in der Phase der Planung und Auslegung („design“) berücksichtigen. Dabei lassen sich fünf Prinzipien nennen, die Beachtung finden sollten: –– Verantwortung (Accountability) –– Ausrichtung an den Werten der Nutzergruppen (Alignment) 322

Ethik als Bestandteil digitaler Technik: Ethics by Design und Value Sensitive Design

–– Erklärbarkeit (Explainability) –– Beachtung der Datenrechte von Nutzern (User Data Rights) und –– Fairness (Fairness) Ethics by Design schafft mit diesen begrifflichen Leitplanken eine eigene sprachliche Welt, die ethische Reflexion und Diskursfähigkeit fördert. Dazu gehören auch Variationen der geforderten Kernwerte, beispielsweise durch die ausdrückliche Ergänzung von Werten wie Transparenz (transparency), Nachhaltigkeit (environmental sustainability) und Vertrauenswürdigkeit (reliabilitiy) oder durch eher sprachliche Nuancen, etwa wenn es um Gerechtigkeit (justice) gehen soll statt um Fairness, um das Recht auf Privatheit (privacy) statt um die Beachtung von Datenrechten (User Data Rights), so bei einem im April 2020 veröffentlichten Dokument einer Studiengruppe im Namen des VDE und der Bertelsmann-Stiftung (https://www.ai-ethics-impact. org/en, abgerufen am 14. Juli 2020 um 21.01h). Dies ändert nichts daran, dass die Diskurswelten von Programmierern, Technikphilosophen, Ethikern und Digitalpraktikern nicht identisch mit den Interessen und der „Lebenswelt“ von Usern und einer breiteren Öffentlichkeit sind. Das Bemühen um das Verhindern eines „Bias“, also einer Schlagseite oder Perspektivverzerrung, ist daher stets unvollkommen. Dennoch sind Ethics by Design und Value Sensitive Design (vgl. B. Friedman, D. G. Hendry 2019) wichtige Schritte in die Richtung von „Verantwortlicher Innovation“ (Responsible Innovation), bei der ethische und soziale Auswirkungen bereits bei der Erforschung und Erstellung neuer Programme, mit oder ohne Künstliche Intelligenz, beachtet werden. Der Begriff Value-Sensitive Design kommt ursprünglich aus dem Gebiet der Computer-Hirn-Interaktion, wurde aber auch für Themenbereiche wie Identität, Sensortechnik oder Nanotechnik im pharmazeutischen Bereich angewendet (vgl. F. Dechesne u.a. 2013, 173-181; J. Timmermans u. a. 2013). 323

7.  Digitale Ethik

Grundsätzlich scheint die Nachdenklichkeit zu ethischen und sozialen Folgen digitaler Technik zu wachsen (vgl. auch P. Kirchschläger 2020). Nicht alles, was möglich ist, ist auch ethisch und sozial sinnvoll. Wo die Grenzen liegen, ist eine Frage des Aushandelns, darüber hinaus eine Frage der Politik. Aushandeln und Politik in einem demokratischen Gemeinwesen setzen aber eine breite Partizipation voraus. Dabei kann es vorkommen, dass Irrwege erst nach einiger Zeit erkannt werden und gute Lösungen Zeit zur Verwirklichung brauchen. Letztlich stehen wir noch immer am Anfang der digitalen Transformation von Welt und Gesellschaft. Daher werden nach meiner Einschätzung die Fragen rund um Verantwortung und Fairness beim Einsatz digitaler Technik in den nächsten Jahren noch stärker an Bedeutung gewinnen (vgl. u. a. H. Nissenbaum 1994, 73-80). Praktizierte und wahrgenommene Fairness schafft Vertrauen (vgl. N. Copray 2010). Vertrauen aber ist die entscheidende Ressource zur Akzeptanz neuer Technologien, die dem Menschen wirklich zugutekommen sollen. Weil Fairness länderübergreifend als Spitzenwert gesellschaftlicher Gestaltung in den Vordergrund gerückt ist, möchte ich im folgenden Abschnitt explizit auf die Frage digitaler Fairness als einer neuen Herausforderung speziell für Unternehmen und Organisationen eingehen.

Digitale Fairness als Aufgabe für Unternehmen und Institutionen Wenn es um die mentale Architektur nicht von Individuen, sondern von Organisationen und Institutionen geht, lässt sich wie bei einzelnen Personen von Wertesystemen, Weltbildern und „mentaler Architektur“ sprechen. Beim menschlichen Nutzer werden diese meistens nicht ausdrücklich reflektiert oder zur Sprache gebracht, sondern machen sich durch 324

Digitale Fairness als Aufgabe für Unternehmen und Institutionen

eine bestimmte emotionale Tönung der eigenen Nutzererfahrung bemerkbar. Ein Kunde oder eine Kundin kann sich dann eher als „Störfaktor“ erfahren, etwa weil er sich aufwendig durch umständliche Menüs klicken muss. Er kann aber auch das angenehme Gefühl genießen, für ihn sinnvolle Hilfestellungen zu erleben. In der Unternehmenswelt geht es in diesem Zusammenhang um den Begriff der User Experience (UX). Wenn Werteorientierung für digital aktive Unternehmen ernst gemeint ist, dann muss sich Fairness folglich in der User Experience abbilden. Diese Aufgabe ist bis heute nur teilweise erkannt. Und auch hier gilt, dass der Nutzererfahrung konkrete Entscheidungen des Unternehmens vorgelagert sind. In der Praxis wirkt die ethische Seite des Verhaltens von Digitalunternehmen aber immer noch überwiegend uninformiert und unreflektiert. Daher lohnt es sich, den Begriff der „digitalen Fairness“ etwas intensiver zu betrachten (vgl. U. Hemel 2016). Ich sehe für digitale Fairness zumindest sieben Teilanforderungen: –– –– –– –– –– –– ––

Informationelle Selbstbestimmung (Privacy by Design) Digitale Reziprozität Transparenz Rückverfolgbarkeit (Tracing und Tracking) Geregeltes Verfallsdatum Geregelte Eskalation Digitale Glaubwürdigkeit.

Jeder einzelne Aspekt kann und sollte intensiv erörtert werden. Dies kann hier nur sehr überblicksartig erfolgen. So schließt „informationelle Selbstbestimmung“ an den Wert der Freiheit an, die sich in der Selbstbestimmung einer Person ausdrückt. Für Digitalunternehmen impliziert dies eine Beachtung des Rechts auf Privatheit, etwa durch Vorkehrungen zu einer Privacy by Design. Gemeint ist damit eine solche Auslegung von Anwendungen 325

7.  Digitale Ethik

und Programmen, dass Nutzer aktiv entscheiden müssen, mit der Weitergabe ihrer Daten „großzügig“ zu sein. Ansonsten gilt eine eher „restriktive“ Werkseinstellung. Grundgedanke der informationellen Selbstbestimmung ist das Recht auf die eigenen Daten. Wer Daten generiert, soll folglich das Recht haben, über die Verwendung dieser Daten zu bestimmen. Nehmen wir das Beispiel unserer Bewegungsdaten. Hier erwarte ich von einem Smartphone- und von einem Autohersteller, dass ich ohne großen Aufwand Zugang zu meinen eigenen Daten zumindest in der Form von Rohdaten habe. Dies schließt geschäftliche Chancen für kommerzielle Anbieter nicht aus, etwa wenn sie mir bestimmte Datendienste aus der Weiterverarbeitung meiner Daten anbieten und mir gegen Gebühr auf die Frage antworten „Wo genau war ich am 9. Oktober 2019?“ Digitale Reziprozität scheint im Verhältnis eines einzelnen Users zu großen Datenunternehmen schwer darstellbar zu sein. Der Wert der Wechselseitigkeit ist aber schon in der Goldenen Regel festgehalten, die besagt, man möge andere nicht anders behandeln, als man selbst behandelt werden will. Es geht also um ein „Geben und Nehmen“. Dazu könnte folgende Regel gehören: Wenn ein User freiwillig Daten generiert, erhält er oder sie Zugang zu bestimmten Auswertungen oder eine Vergütung für die gelieferten Daten. Der in Kapitel 5 entfaltete Gedanke einer „Public Cloud“ und einer „VG Daten“ geht in eine solche Richtung und fördert so etwas wie die Anfänge einer Datendemokratie. Digitale Reziprozität fördert nämlich Partizipation. Sie hat daher einen unmittelbar emotionalen Wert, dessen Bedeutung nicht zu unterschätzen ist. „Fairness-Dienste“ oder „Zugangsrechte“ könnten eine neue Währung für das Überlassen und Generieren digitaler Daten werden. Dies gilt besonders dann, wenn „Mehrwertdienstleistungen“ erbracht werden wie etwa den Zugang zu aggregierten Auswertungen oder Vergleichen. Bereits heute gibt es Praktiken, die in diese Richtung gehen und die folglich auch die User Experience verbessern. 326

Digitale Fairness als Aufgabe für Unternehmen und Institutionen

Transparenz ist einer der Zentralwerte in der heutigen Zivilgesellschaft. Wir wollen wissen, wer hinter einer Firma steht, was mit unseren Daten geschieht und wie sie genutzt werden sollen. Hinter dem Wert der Transparenz steckt unter anderem der Wert der Ehrlichkeit und der Verlässlichkeit, damit aber auch die Information über mögliche Chancen und Risiken aus der Generierung und Nutzung von Daten. Das Gegenteil, die Intransparenz, steht unter anderem für Kontrollverlust, mangelnde Steuerung und die Möglichkeit zu unfairen Praktiken. Transparenz ist daher gerade in der digitalen Welt ein sehr hohes Gut und eng mit „gefühlter Fairness“ verbunden. Rückverfolgbarkeit ist eine typische Fortentwicklung, die sich aus der digitalen Welt ergibt. Die technische Möglichkeit des „Tracings und Trackings“ bietet neue Möglichkeiten der Kontrolle, sodass „Rückverfolgbarkeit“ sich auf den privaten Bereich und die Diskussion rund um die Frage des hinreichenden Schutzes von Privatheit bezieht. Schutzwürdig sind in diesem Sinn die Interessen von Arbeitnehmern und von Digitalkunden. Wenn ein Arbeitgeber nicht nur die dienstlichen, sondern auch die privaten Fahrten eines Außendienstmitarbeiters verfolgen kann, ginge dies nach unserem Freiheitsverständnis zu weit. Ob der Staat die Möglichkeit haben soll, über Bewegungsprofile die Ausbreitung des Corona-Virus zu kontrollieren, wurde 2020 intensiv diskutiert und führte im demokratischen Kontext in Europa wie weiter oben ausgeführt überwiegend zu einem Konsens: Ja, das sei vertretbar, aber nur mit Einwilligung der Betroffenen. Auch die Forderung nach einem geregelten Verfallsdatum für die Nutzung von generierten Daten ist ein Spezifikum der digitalen Welt. Im politischen Raum wurde das Thema u. a. unter der Frage der „Vorratsdatenspeicherung“ erörtert. Es geht aber auch um den privaten Raum und um kommerzielle Anwendungen. Wenn ich einstellen kann, ob meine Daten 3 Tage, 3 Monate oder 3 Jahre verwendet und dann gelöscht werden können, schafft dies Freiheitsrechte, die durchaus in Gegensatz zu den Interessen von Datenunternehmen stehen können. Auf jeden Fall 327

7.  Digitale Ethik

schafft bereits die Transparenz über einen Zeitpunkt der Datenlöschung oder einen „digitalen Ablaufstempel“ Vertrauen und Glaubwürdigkeit. Da es offensichtlich digitale Interessenkonflikte geben kann, geht es auch um den Wert einer geregelten Eskalation. Dabei muss es nicht immer um die große Schwelle hin zur allgemeinen Gerichtsbarkeit gehen. Es könnte aber sehr wohl eine digitale Ombudsperson und ein digitales Schiedsgericht geben, das im Sinn einer Mediation Sachverhalte aufklärt und begründete Bewertungen abgibt. Diese würden sicherlich nicht ohne Einfluss auf die generelle digitale Praxis und auch auf die Rechtsprechung bleiben. Solche digitalen Schiedsgerichte können sich durchaus branchenspezifisch entfalten und damit auch einen Beitrag zur digitalen Professionsethik leisten. Stufen einer geregelten Eskalation kann es aber auch auf der Ebene einzelner Unternehmen durch geeignete Reflexionsinstanzen geben, etwa im Rahmen von digitalen Ethikräten oder Digital Ethics Boards. Denn eine neu entstehende, komplexe Welt benötigt auch Foren des geregelten Austauschs über unterschiedliche Sichtweisen und Interessenkonflikte, die unterhalb formeller Instanzen stattfinden. Die Kombination aus der guten oder weniger guten Realisierung der genannten Werte führt schließlich zu einem Index von digitaler Glaubwürdigkeit. Digitale Fairness schafft Glaubwürdigkeit. Digitale Fairness, digitale Glaubwürdigkeit und das Schaffen von Vertrauen gehen Hand in Hand. Sie bilden im besten Fall das emotionale Ökosystems eines Unternehmens oder einer Institution ab und sind ein Indikator für seine Zukunftsfähigkeit. Beim Ziel der digitalen Fairness handelt es sich also um einen Dreiklang aus kommunikativen, ethischen und unmittelbar geschäftspraktischen Zielen. Und so wie es in Deutschland eine „Stiftung Warentest“ für die sachliche und fachliche Bewertung von Produktangeboten gibt, so ließe sich auch eine „Stiftung Digitaler Glaubwürdigkeitsindex“ oder eine „Stiftung digitaler Fairnessindex“ für die Bewertung des Verhaltens von Unternehmen und Organisationen 328

Der Leitstern der Humanität: Menschliche Werte für die digitale Welt

vorstellen. Auf der Basis großer Datenmengen könnte eine solche Institution die unterschiedlichen Formen der User Experience in Sachen digitaler Fairness verdichten und zu einem interessanten Instrument des Monitorings digitaler Angebote werden lassen. Digitale Ethik geht dann über den Bereich der subjektiven Anmutung hinaus. Sie wird in den gesellschaftlichen Raum zurückgeholt und verbindet sich folglich auch mit Werten, die für eine humane Gesellschaft von Belang sind.

Der Leitstern der Humanität: Menschliche Werte für die digitale Welt Digitale Ethik fällt nicht vom Himmel. Sie umfasst Elemente von Kontinuität und Diskontinuität. Das aktuelle Kapitel sollte zeigen, dass wir Humanität als Kriterium für digitale Entwicklungen betrachten können. Im Sinn des ethischen Handwerkskoffers, den wir erörtert haben, geht es also um eine Prinzipienreflexion mit dem Maßstab einer sehr einfachen Frage: „Geht es darum, Humanität zu fördern?“ Wir haben ausführlich darüber diskutiert, dass es hier zu unterschiedlichen Interpretationen kommt. Daher sind auch Verfahren zum Auflösen von Wertkonflikten erforderlich, manchmal auch durch politische Mehrheitsentscheidungen. Und dennoch: Eine Technik, ein Programm, eine App, eine Installation kann sehr wohl da­ raufhin befragt werden, unter welchen Bedingungen sie unser Leben nicht nur leichter und angenehmer, sondern auch humaner macht. Die umgekehrte Frage gilt aber auch: Unter welchen Bedingungen verkehrt sich der gewünschte Effekt ins Gegenteil oder wird unser Leben letztlich inhumaner? Die Ausrichtung am Leitstern Humanität wird je nach soziokultureller, beruflicher, religiöser und weltanschaulicher Zugehörigkeit 329

7.  Digitale Ethik

unterschiedlich interpretiert werden. Trotzdem ist ein gemeinsamer Maßstab zumindest aus zwei Gründen sinnvoll. Zum einen dient er als Grundlage für die Bewertung konkreter Schritte und Entscheidungen, etwa mit Blick auf „digitale Fairness“. Zum anderen schafft „Humanität“ im Sinn einer hierarchisch geordneten Wertepyramide einen Sog, an dem sich die Interpretation aller Folgewerte in einem Wertesystem ausrichten kann. Der Zentralwert der Humanität bildet, anders gesagt, den Auslegungshorizont für alle weiteren Werte. Das Abwägen dieser Werte ist grundsätzlich ein Akt der Balance. Denn wir überlegen als Personen in jeder einzelnen Situation unseres Lebens, was wir tun und wie wir abwägen. Oft geschieht dies unter Rückgriff auf habitualisierte Alltagsroutinen. Aber auch die Haltungen hinter Gewohnheiten entspringen konkreten Handlungen, die wir im Zweifelsfall reflektieren und verändern können. Das Kontinuum von Alltagsentscheidungen bis hin zu den großen ethischen Fragen der Welt, von Krieg und Frieden, von Anfang und Ende des Lebens, von Liebe und Gerechtigkeit, lässt sich als dynamisches Geschehen auf der Suche nach der bestmöglichen Balance beschreiben. Wir können dieses Geschehen in religiöser Weltdeutung als den Versuch deuten, unserer Verantwortung vor Gott gerecht zu werden. Wir können es im Sinn der konfuzianischen Ethik als Suche nach dem Gleichklang himmlischer und irdischer Ordnung und Harmonie verstehen. Wir können es aber auch ohne Rückgriff auf religiöse und weltanschauliche Systeme deuten und leben. Wie Ordnung und Harmonie zwischen den Bedürfnissen des Individuums und der Gesellschaft ausbalanciert werden können, ist eine Frage, die unmittelbar in die digitale Welt hineinreicht. Wenn der Erziehungswissenschaftler Volker Schubert die japanische Erziehungspraxis als die „Inszenierung von Harmonie“ beschreibt (V. Schubert 1992), dann geht es auch um die Frage nach der Verteilung der Gewichte: Wie viel Freiheit darf der einzelne Mensch beanspruchen, wie viel soziale Kontrolle ist zumutbar? 330

Der Leitstern der Humanität: Menschliche Werte für die digitale Welt

Es ist nicht zufällig, dass die Spannung zwischen Freiheit und Kontrolle zu den Grundthemen der digitalen Ethik gehört. Gerade daher sind ja die Werte Fairness und Transparenz so unmittelbar handlungsrelevant. Denn sie dienen als Filter für die Ausübung von Kontrolle und Macht, nach dem Motto: Wenn schon Macht ausgeübt wird, dann zumindest transparent und nach Regeln der Fairness. Dies gilt für die Politik ebenso wie für Akteure der Wirtschaft, also für kleine und große Unternehmen. In jeder sozialen Dynamik, ob in der Paarbeziehung, im Arbeitsleben oder in der großen Politik, ziehen konkrete Verhaltensweisen psychologische Folgen nach sich. Entscheidend für die Stabilität von Beziehungen bis hin zur Produktivität ganzer Volkswirtschaften ist dabei die Folgewirkung des Vertrauens oder der Zerstörung von Vertrauen. Vertrauen lässt sich als positive Erwartung an das Verhalten anderer beschreiben (vgl. G. S. Leventhal, J. Karuza, W. R. Fry 1980, 167-218). Vertrauen umfasst das Risiko, enttäuscht zu werden. Es bezeichnet daher einen eigentümlichen Mix aus rationaler Erwartung und kommunikativem Beziehungsgeschehen in multiplen Rückkopplungsschleifen. An seinen Grenzen geht Vertrauen über in Leichtfertigkeit und Wagemut, bei fehlendem Vertrauen in Kontrollwahn und übertriebenes Misstrauen. Humanität fördern, heißt Vertrauen ermöglichen. Dies ist letztlich auch das Anliegen der ursprünglich von Hans Küng ausformulierten Weltethos-Idee (vgl. H. Küng 1990, U. Hemel 2019a). Dabei finde ich es faszinierend, dass wie schon erwähnt die Vertreter aller großen Weltreligionen sich auf gemeinsame Werte einigen konnten, nämlich Wahrhaftigkeit, Gerechtigkeit, Gewaltlosigkeit, Partnerschaftlichkeit und Nachhaltigkeit (vgl. K. J. Kuschel 2019, 39-54; S. Schlensog 2019, 28-38). Hier ist nicht der Raum, um diese Werte im Detail auszufalten. Gezeigt werden soll lediglich, dass digitale Ethik auf ein reichhaltiges 331

7.  Digitale Ethik

Reservoir humaner Werte zurückgreifen kann, die in ihrer Gesamtheit einen ethischen Rahmen für digitale Aktivität und für Fragen wie Zugangs- und Teilhaberechte darstellen. Wertkonflikte und Unsicherheiten stellen kein Hindernis für die Suche nach einer geeigneten digitalen Ethik für unsere Zeit dar. Denn Wertkonflikte können über das Verfahren der Werteklärung und Güterabwägung systematisch aufgelöst, Unsicherheiten können beseitigt werden. Dabei ist immer wieder die zentrale Frage zu stellen, wohin wir als einzelne Person, als Unternehmen, als Institution und als globale Zivilgesellschaft in ihrer Gesamtheit gehen wollen. Genau diese Diskussion ist für jeden einzelnen digitalen Anwendungsfall neu zu führen, aber sie ist nicht ohne Ziel und Zweck. Denn mit dem Leitstern der Förderung von Humanität durch Aufbau von Vertrauen in Fairness und Transparenz haben wir einen gültigen, sinnvollen und praktikablen Kompass digitaler Ethik zur Hand, der Orientierung geben kann. Die Frage ist also, wie wir unsere Zukunft gestalten. Aus diesem Grund soll im letzten Kapitel dieses Buches die Frage nach den Utopien und Dystopien, den Hoffnungen und den Schreckensvisionen der digitalen Welt gestellt werden.

Literatur John R. Anderson, The Architecture of Cognition, Cambridge Mass 1983 Hans-Ferdinand Angel, Der religiöse Mensch in Katastrophenzeiten, Religionspädagogische Perspektiven kollektiver Elendsphänomene, Frankfurt/M.: Lang 1996 (= Habilitation 1994, Universität Regensburg) Arno Anzenbacher, Einführung in die Ethik, 3. Auflage, Düsseldorf: Patmos 2003 Isaac Asimov, Meine Freunde, die Roboter. München: Heyne 1982

332

Literatur

Jonas Bedford-Strohm, Alexander Filipovic, Mediengesellschaft im Wandel, Theorien, Themen, ethische Herausforderungen, in: Gotlind Ulshöfer, Monika Wilhelm (Hrsg.), Theologische Medienethik im digitalen Zeitalter, Stuttgart: Kohlhammer 2020, S. 47-63 Heiner Bielefeldt, Philosophie der Menschenrechte, Grundlagen eines weltweiten Freiheitsethos, Darmstadt: Wissenschaftliche Buchgesellschaft 1998 Franziska Binder, Amelie Werner, Rea Fülöp, Peter Parzer, Julian Koenig, Franz Resch, Michael Kaess, Indizierte Stressprävention bei Jugendlichen im Gruppensetting-Manual für einen Akzeptanz- und Commitment-Therapie-basierten Ansatz, in: Praxis der Kinderpsychologie und Kinderpsychiatrie, Bd. 69, 2020, S. 183-202 Eike Bohlken, Christian Thies (Hrsg.), Handbuch Anthropologie, Der Mensch zwischen Natur, Kultur und Technik, Stuttgart: J. B. Metzler 2009 Otto F. Bollnow, Wesen und Wandel der Tugenden, Frankfurt/M.: Ullstein 1958 Nick Bostrom, Superintelligenz, Szenarien einer kommenden Revolution, Berlin: Suhrkamp 2016 Ulrike Braun, Exzessive Internetnutzung Jugendlicher im familialen Kontext, Analysen zu Sozialschicht, Familienklima und elterlichem Erwerbsstatus, Wiesbaden: Springer Fachmedien 2014 James H. Burns, Happiness and Utility, Jeremy Bentham’s Equation, in: Utilitas 17, 2005, Nr.1, S. 46-61 Norbert Copray, Fairness, Der Schlüssel zu Kooperation und Vertrauen, Gütersloh: Gütersloher Verlagshaus 2010 Tim Crane, Die Bedeutung des Glaubens, Religion aus der Sicht eines Atheisten, 2. Aufl. Berlin: Suhrkamp 2019 Francien Dechesne, Martijn Warnier, Jeroen van den Hoven, Ethical Requirements for Reconfigurable Sensor Technology: A Challenge for

333

7.  Digitale Ethik

Value Sensitive Design, in: Ethics and Information Technology 15, 2013, no. 3, S. 173-181 Klaus Demmer, Deuten und Handeln, Grundlagen und Grundfragen der Fundamentalmoral, Freiburg/Breisgau: Herder 1985 Frans De Waal, Der Mensch, der Bonobo und die zehn Gebote, Moral ist älter als Religion, Stuttgart: Klett-Cotta 2015 Sascha Dickel, Enhancement-Utopien, Soziologische Analysen zur Konstruktion des Neuen Menschen, Baden-Baden: Nomos 2011 (= Dissertation Universität Bielefeld 2010) Wolfgang Edelstein, Monika Keller (Hrsg.), Perspektivität und Interpretation, Beiträge zur Entwicklung des sozialen Verstehens, Frankfurt/M: Suhrkamp 1982 Thomas Eggensperger, Ulrich Engel, Bartolomé de Las Casas, Dominikaner-Bischof, Verteidiger der Indios, 2. Auflage, Mainz: Matthias-Grünewald 1992 Michael W. Eysenck, Mark T. Keane, Cognitive Psychology, A Student’s Handbook, 6. Auflage, Hove-New York: Psychology Press 2010 Franziska Fink, Michael Moeller, Purpose Driven Organisations, Sinn, Selbstorganisation, Agilität, Stuttgart: Schaefer-Pöschel 2018 Batya Friedman, David G. Hendry, Value Sensitive Design, Shaping Technology with Moral Imagination, Cambridge/Mass.: MIT Press 2019 Hans-Georg Gadamer, Wahrheit und Methode, 7. Auflage,Tübingen: Mohr Siebeck 1960 Robert Gaschler, Peter A. Frensch, Kognitivismus, in: Eike Bohlken, Christian Thies (Hrsg.), Handbuch Anthropologie, Der Mensch zwischen Natur, Kultur und Technik, Stuttgart: Metzler 2009, S. 157-163 Arnold Gehlen, Der Mensch, Seine Natur und seine Stellung in der Welt, (ursprünglich 1940), hrsg. von Karl-Siegbert Rehberg, Frankfurt/M.: Vittorio Klostermann 1983

334

Literatur

Petra Grimm, Tobias O. Keber, Oliver Zöllner (Hrsg.), Digitale Ethik, Leben in vernetzten Welten, Stuttgart: Reclam 2019 Rainer Hagencord, Die Würde der Tiere, Eine religiöse Wertschätzung, Gütersloh: Gütersloher Verlagshaus 2011 Steven C. Hayes (Hrsg.), Relational Frame Theory, A Post-Skinnerian Account of Human Language and Cognition, New York: Kluwer 2001 Stephen (sic!) C. Hayes, Kirk D. Strosahl, Kelly G. Wilson, Akzeptanz& Commitment Therapie, Achtsamkeitsbasierte Veränderungen in Theorie und Praxis, Paderborn: Junfermann 2014 Ulrich Hemel, Ziele religiöser Erziehung, Beiträge zu einer integrativen Theorie, Frankfurt/M.: Peter Lang 1988 (= Habilitation Universität Regensburg 1988) Ulrich Hemel, Wert und Werte, Ethik für Manager, Ein Leitfaden für die Praxis, 2. Auflage, München: Hanser 2007 Ulrich Hemel, Andreas Fritzsche, Jürgen Manemann (Hrsg.), Habituelle Unternehmensethik, Von der Ethik zum Ethos, Baden-Baden: Nomos 2012 Ulrich Hemel, Die Wirtschaft ist für den Menschen da, Vom Sinn und der Seele des Kapitals Ostfildern: Patmos 2013 Ulrich Hemel, Tolerance and the “right of error”, in a world of religious plurality, in: Markus Krienke, Elmar Kuhn (Hrsg.), Two indispensable topoi of interreligious dialogue. New “languages” far beyond the dead ends of dialogue, Wien 2017, S. 65-78 Ulrich Hemel, Heimat und personale Selbstbildung. Eine pädagogische Reflexion, in: Ulrich Hemel, Jürgen Manemann (Hrsg.), Heimat finden – Heimat erfinden. Politisch-philosophische Reflexionen, Paderborn: Wilhelm Fink 2017, S. 157-173. Ulrich Hemel, Was heißt eigentlich digitale Fairness? https://www. institut-fuer-sozialstrategie.de/2016/11/10/was-heisst-eigentlich-digitale-fairness/Veröffentlicht am 10. November 2016; abgerufen am 16. April 2020 um 9.23h.

335

7.  Digitale Ethik

Ulrich Hemel (Hrsg.), Weltethos für das 21. Jahrhundert, Freiburg: Herder 2019 (= U. Hemel 2019a) Ulrich Hemel, Mentale Architektur und Wirtschaftsanthropologie – eine Zukunftsaufgabe, in: Sebastian Kiessig, Marco Kühnlein (Hrsg.), Anthropologie und Spiritualität für das 21.Jahrhundert, Festschrift für Erwin Möde, Regensburg: Pustet 2019, S. 335-350 Ulrich Hemel, Was ist Wahrheit? Die Wahrheitsfähigkeit der Welt und die Weltethos-Idee, 2020, in: www.institut-fuer-sozialstrategie.org, abgerufen am 25. April 2020 Hans Joas, Die Entstehung der Werte, Frankfurt/M.: Suhrkamp 1997 Karen Joisten, Philosophische Hermeneutik, Berlin: De Gruyter, 2009 Immanuel Kant, Grundlegung zur Metaphysik der Sitten, in; Kants Werke, Akademie-Textausgabe (= AA), Bd. IV, Berlin 1968 Peter Kirchschläger, Digital Transformation and Ethics, Ethical Considerations on the Robotization and Automatization of Society and Economy and the Use of Artificial Intelligence, Baden-Baden: Nomos 2020 Hans Küng, Projekt Weltethos, München: Piper 1990 Karl-Josef Kuschel, Weltreligionen im Dialog über Weltprobleme, Die Erklärung des Parlaments der Weltreligionen in Chicago, in: U. Hemel (Hrsg.), Weltethos für das 21. Jahrhundert, Freiburg/Br. 2019, S. 39-54 G. S. Leventhal, Jurgis Karuza, W. R. Fry, Beyond Fairness, A Theory of Allocation Preferences, in: Gerold Mikula (Hrsg.), Justice and Social Interaction, New York: Springer 1980, S. 167-218 Avishai Margalit, Politik der Würde, Über Achtung und Verachtung, 2. Auflage, Berlin: Suhrkamp 1997 Konrad Lorenz, Vergleichende Verhaltensforschung. Grundlagen der Ethologie, Wien/New York: Springer 1978 Alasdair MacIntyre, Der Verlust der Tugend, Zur moralischen Krise der Gegenwart, Frankfurt: Suhrkamp 1995 (engl. 1981)

336

Literatur

Catrin Misselhorn, Grundfragen der Maschinenethik, Stuttgart: Reclam 2018 Nikos Mourkogiannis, Purpose, The Starting Point of Great Companies, New York/Basingstoke: Palgrave Macmillan 2006 Julian Nida-Rümelin, Nathalie Weidenfeld, Digitaler Humanismus, Eine Ethik für das Zeitalter der Künstlichen Intelligenz, München: Piper 2018 Helen Nissenbaum, Computing and Accountability, Communications of the ACM, 37, Nr.1, 1994, S. 73-80 Parlament der Weltreligionen, https://parliamentofreligions.org/parliament/global-ethic/fifth-directive und https://parliamentofreligions.org/ publications/towards-global-ethic-initial-declaration, abgerufen am 11. April 2020, 19.34h. Josef Pieper, Gesammelte Werke, hrsg. von Berthold Wald, Band 4: Schriften zur Philosophischen Anthropologie und Ethik: Das Menschenbild der Tugendlehre, Hamburg: Felix Meiner 1996 Manfred L. Pirner, Johannes Lähnemann, Heiner Bielefeldt (Hrsg.), Human Rights and Religion in Educational Contexts, Cham: Springer International Publishing 2016 Erwin Roth, Heinz Holling, Sozialwissenschaftliche Methoden, Lehr- und Handbuch für Forschung und Praxis, 5. Auflage, Berlin: De Gruyter 2018 Max Scheler, Der Formalismus in der Ethik und die materiale Wertethik, hrsg. von Christian Bermes, Hamburg 2014 (Original: 1913-1916) Stephan Schlensog, Das Weltethos-Projekt, Drei Jahrzehnte globaler gesellschaftlicher Dialog, in: Ulrich Hemel (Hrsg.), Weltethos für das 21. Jahrhundert, Freiburg/Br.2019, S. 28-38 Volker Schubert, Die Inszenierung der Harmonie, Erziehung und Gesellschaft in Japan, Darmstadt: Wissenschaftliche Buchgesellschaft 1992

337

7.  Digitale Ethik

Alfred Schütz, Der sinnhafte Aufbau der sozialen Welt, Eine Einleitung in die verstehende Soziologie, Frankfurt am Main: Suhrkamp 1974 (ursprünglich Wien: Springer 1932) Alfred Schütz, Theorie der Lebensformen, hrsg. von Ilja Srubar, Frankfurt/M.: Suhrkamp 1981 Peter Singer, Animal Liberation, Die Befreiung der Tiere, Eine neue Ethik zur Behandlung der Tiere, München: Fischer 1982 (2. Aufl. 2015) Sarah Spiekermann, Digitale Ethik, Ein Wertesystem für das 21. Jahrhundert, München: Droemer 2019 Elisabeth Ströker (Hrsg.), Lebenswelt und Wissenschaft in der Philosophie Edmund Husserls. Frankfurt am Main: Klostermann 1979 Nassim Nicholas Taleb, Der Schwarze Schwan, Die Macht höchst unwahrscheinlicher Ereignisse, München: Hanser 2008 Paul Tiedemann, Was ist Menschenwürde? Eine Einführung, Darmstadt: Wissenschaftliche Buchgesellschaft 2006 J. Timmermans, Y. Zhao, J. van den Hoven, Ethics and Nanopharmacy: Value Sensitive Design of News Drugs, in: NanoEthics 5, 2011, S. 269283 Gotlind Ulshöfer, Monika Wilhelm (Hrsg.), Theologische Medienethik im digitalen Zeitalter, Stuttgart: Kohlhammer 2020 Hermann Wagner, Der Mensch als Tier, die biologische Perspektive, in: Ulrich Lüke, Georg Souvignier (Hrsg.), Der Mensch – ein Tier. Und sonst? Interdisziplinäre Annäherungen, Freiburg/Br.: Herder 2020, S. 45-65. Hans-Georg Ziebertz (Hrsg.), Menschenrechte, Christentum und Islam, Berlin: LIT 2010

338

8. Digitale Religion und digitale Humanität Religiöse Fragen verursachen im gesellschaftlichen Leben und speziell in akademischen Kontexten unter Natur-, Sozial- und Wirtschaftswissenschaftlern immer wieder ein gewisses Unbehagen. Religion lässt sich nicht wegdiskutieren, landet aber leicht in einer Tabuzone. Dazu trägt die Sorge bei, in den Bereich emotionaler Empfindlichkeiten zu geraten, wenn Religion zur Sprache gebracht wird. Schließlich weiß man ja oft nicht, welche Auffassung der Gesprächspartner hat und wie intensiv er sich weltanschaulich und religiös gebunden weiß. Die andere Seite der Medaille ist die szientistische Grundannahme, über Religion und religiöse Auffassungen sei wissenschaftlich kaum zu diskutieren. Dazu hat sich der britische Philosoph Tim Crane aus einer atheistischen Perspektive sehr nachdenklich geäußert (T. Crane 2019). Der antireligiöse Impuls szientistischer Kräfte erkennt zwar an, dass empirische Wissenschaften wie etwa die Religionssoziologie, Religionspsychologie und die Religions- und Theologiegeschichte nach wissenschaftlichen Standards ernst zu nehmen sind. Religiöse Auffassungen selbst werden aber vorschnell in den Bereich des subjektiven Meinens, vielleicht sogar der Esoterik, des Aberglaubens und der puren Spekulation verwiesen. Die entsprechenden Vorbehalte gelten auch im Bereich der digitalen Religion. Zunächst einmal braucht die digitale Transformation keinen religiösen oder weltanschaulichen Überbau. Daher ist für viele Personen die Beschäftigung mit Fragen digitaler Religion mit all ihren teilweisen bizarren und skurrilen Ausfaltungen unwichtig oder allenfalls nebensächlich. 339

8.  Digitale Religion und digitale Humanität

Auf der anderen Seite rufen Geschwindigkeit und Qualität der digitalen Transformation auch neue Fragen hervor, etwa die nach der Abgrenzung zwischen Menschen und Maschinen. Weiterhin regt die Welt der Computer, der Cyborgs und der Künstlichen Intelligenz die Fantasie von Romanschriftstellern, Filmemachern und Produzenten von Videospielen an. Aus dieser Fantasietätigkeit erwächst das, was im Begriff Science-Fiction enthalten ist, nämlich eine Mischung aus Wissenschaft und Fiktion, aus Technik und Fantasie. Ein Teil dieser Fantasie wiederum richtet sich auf die mögliche Überlegenheit von superintelligenten Maschinen oder Maschinenwesen. Die Verknüpfung der Idee von überlegenen Wesen und digitalen Maschinen auf der Basis Künstlicher Intelligenz führt dann sehr schnell in den Raum der philosophischen und theologischen Spekulation und in Gedankengänge, die zum Teil auch in den Bereich von Religion und Religiosität führen. Der amerikanische Autor John Updike (1932-2009) hat schon 1986 einen Roman namens „Das Gottesprogramm – Rogers Version“ verfasst, in dem es u. a. um einen Gottesbeweis auf der Grundlage elektronischer Datenverarbeitung geht (deutsch: J. Updike 1990). Rund 30 Jahre später geht es im Roman „Maschinen wie ich“ des Briten Ian McEwan um eine ganz andere Frage: Kann der Android Adam denken, fühlen und handeln wie ein Mensch, sodass er nicht zerstört werden darf, sondern mit den Rechten einer Person auszustatten wäre? Dann nämlich wäre die Zerstörung der Maschine ähnlich problematisch zu bewerten wie Mord (I. McEwan 2019).

Gottebenbildlichkeit: Die Würde von Menschen und von Maschinen Die Frage nach der Personalität eines von Künstlicher Intelligenz gesteuerten Androiden ist nicht nur eine Frage von Romanen, sondern 340

Gottebenbildlichkeit: Die Würde von Menschen und von Maschinen

führt sehr schnell zu juristischen, philosophischen und religiösen Fragestellungen. Wenn wir Menschenwürde als Ausgangspunkt für ethische Wertsysteme und eine praktische Alltagsmoral für Menschen in der globalen und lokalen Zivilgesellschaft des 21. Jahrhunderts ansehen, dann liegt die Frage nach der Begründung von Menschenwürde nahe. Im religiösen Kontext geht es dabei in der christlichen, jüdischen und islamischen Deutung um die Gottebenbildlichkeit des Menschen. Klassisch dazu ist der Text in Genesis Kapitel 1 Vers 26 „Dann sprach Gott: Lasst uns Menschen machen als unser Bild, uns ähnlich!“ Auf diesen Text gehen Vorstellungen zur Begründung der Menschenwürde in der Gottebenbildlichkeit zurück. Selbst das Wort „Bildung“ steht in einem Zusammenhang mit der „Bildwerdung“ oder „Formung“ des Menschen in die Richtung dieser „Gottesbildlichkeit“, wie es der Religionspädagoge Hans Schilling in seiner immer noch klassischen motivgeschichtlichen Studie zum Bildungsbegriff zeigt (H. Schilling 1961). Dem Menschen kommt daher eine grundsätzliche und unverlierbare Würde zu, die in seiner Personalität ihren Ausdruck findet. Ist der Mensch Person, so ist er mit Immanuel Kant Selbstzweck: Er darf nicht selbst zum Zweck werden. Ist der Mensch Person, so ist er zur Selbststeuerung in der Lage und zur Verantwortung fähig. Er kann also zur Rechenschaft gezogen werden, kann aber auch selbst Rechenschaft geben im Sinn der Darlegung guter Gründe für sein Handeln. Auf dieser Grundlage beruht nicht zuletzt unser demokratisch legitimiertes Rechtssystem. Dabei treten religiöse Motive in den Hintergrund, denn ein Menschenrechtsdiskurs und die Berufung auf Menschenwürde sind längst unabhängig von theologischen Argumentationen und religiösen Begründungslinien. Personalität und damit auch persönliche Verantwortung sind bis heute unverzichtbare Grundlagen für die Gestaltung der Zivilgesellschaft weit über Europa hinaus. Die religiösen Wurzeln von Personali341

8.  Digitale Religion und digitale Humanität

tät und Menschenwürde in der Gottebenbildlichkeit werden heute zwar vielfach nicht mehr in den Blick genommen. Sie haben aber eine durchaus prägende Kraft, die sich auch auf das Feld digitaler Religion auswirkt. Die Schaffung des Menschen durch Gott geht im biblischen Text unmittelbar mit dem sogenannten Schöpfungsauftrag einher, der wie folgt formuliert wird: „Gott segnete sie und sprach zu ihnen: Seid fruchtbar und mehrt euch, füllt die Erde und unterwerft sie euch“ (Gen 1,28). In Zeiten der Klimakrise und des Schwunds der Biodiversität deuten zwar auch die allermeisten Theologinnen und Theologen den Text zurückhaltender und kritischer als in früheren Jahrhunderten. Sie verweisen beispielsweise auf die Verantwortung für die Bewahrung der Schöpfung, der Teil des Schöpfungsauftrags ist, und erreichen so die Anschlussfähigkeit ihrer Bibelauslegung mit der heutigen ökologischen Bewegung. Klar ist aber, dass die biblische Erzählung zur Erschaffung des Menschen nach dem Bild Gottes bleibende Fragen aufwirft. Denn die Personalität des Menschen ist nicht zu haben ohne Freiheit. Freiheit aber zieht Handlungsmacht, damit aber auch Verantwortung nach sich. Gottebenbildlichkeit und Menschenwürde gehen also Hand in Hand. Die Erschaffung des Menschen als Person in Freiheit und Verantwortung geht freilich mit den bisweilen dramatischen Folgen von Freiheit in der Conditio humana einher, mit Schuld und Verfehlung, mit Ohnmacht und Verzweiflung, mit Unendlichkeitswahn und den harten Grenzen der Endlichkeit. Die metaphysische Frage der digitalen Transformation lässt sich aus diesen Überlegungen gut ableiten: Ist die Conditio humana auch eine Conditio machinae? Anders gesagt, kommt intelligenten Maschinen und digitalen Wesenheiten das Attribut der Person zu, mit allen Folgen? Dann wären nicht die Programmierer von Künstlicher Intelligenz, sondern die auf

342

Gottebenbildlichkeit: Die Würde von Menschen und von Maschinen

dieser KI beruhenden Maschinenwesen verantwortlich, aber auch schuldfähig, machtvoll, aber auch ohnmächtig. Sie wären, anders gesagt, Personen, geschaffen nach dem Ebenbild des Menschen. Und aus der Personalität von Maschinen wäre ihre personale Würde zwingend abzuleiten. Dann wäre die Zerstörung einer Maschine Mord oder Totschlag, so wie heute schon die Tötung eines Menschen Mord oder Totschlag zu nennen ist. Solche Gedankengänge sind bisweilen faszinierend. Denn so wie wir lernen müssen, den Unterschied zwischen Mensch und Tier durch die Unterscheidung zwischen Mensch und Maschine zu ergänzen, so würden wir in gewisser Weise die Schöpfungsgeschichte verdoppeln. Denn Gott schafft den Menschen nach seinem Bilde. Der Mensch aber schafft seinerseits digitale Wesen nach seinem eigenen Bild. Mit einer solchen neuen Schöpfungsgeschichte gehen mancherlei Fantasien einher. Die klassische Lehre von den Eigenschaften Gottes mit der Zuschreibung von Allmacht und Allwissenheit findet ihre Wiederentdeckung auf digitalem Feld. Folgt man alltäglichen Verschwörungstheorien, hört man schon heute immer wieder die Behauptung, große digitale Akteure „wissen alles über uns“ und „steuern uns“. Betrachtet man die Realität genauer, ist leicht zu erkennen: Nicht digitale Maschinen wissen und steuern, sondern Menschen, Organisationen und politische Mächte, die solche Maschinen zu nutzen wissen. Die Angst vor immer weiter um sich greifender Kontrolle ist dabei nicht ohne Anlass und Grund: Schließlich sind neue technologische Möglichkeiten ethisch keineswegs neutral. Sie können vielmehr zur Versuchung und zur Tatsache einer noch stärkeren Zentralisierung und Omnipräsenz digitaler Überwachung führen. Dagegen hilft aber weder digitale Religion noch die Zerstörung von Computern. Vielmehr sind Fragen nach der Qualität von Politik und der Zielgestalt gesellschaftlichen Zusammenlebens in einer digital geprägten Demokratie neu zu stellen! Gesucht werden folglich 343

8.  Digitale Religion und digitale Humanität

neue Modelle von Selbstbestimmung und Freiheit in der digitalen Welt. Dem Aspekt der Freiheit von ständiger digitaler Kontrolle kommt dabei eine ganz besondere Bedeutung zu. Einer Maschine hingegen wäre ihre eigene digitale Überwachung reichlich egal – wenn man überhaupt von realen Gefühlszuständen von Maschinen in einer Weise sprechen möchte, die Gleichgültigkeit als Gefühl signalisiert. Weil aber Maschinen gerade kein Selbstweck sind, sondern zu bestimmten Zwecken konstruiert und eingesetzt werden, ist es auch nicht sinnvoll, Maschinen personale Rechte und die Würde einer Person zuzusprechen. Maschinen haben keine Menschenwürde und auch keine spezielle Maschinenwürde! Maschinen können Zerstörungen anrichten oder unseren Alltag erleichtern. Sie können kaputtgehen oder besonders langlebig sein. Sie können zur Veränderung unseres Verhaltens beitragen und zu mancherlei hellen und dunklen Zwecken eingesetzt werden. Alle Maschinen aber sind Gegenstand technischer Erzeugung mit direkter oder indirekter Mitwirkung von Menschen. Maschinen werden daher nicht schuldig. Sie können außer Kontrolle geraten, aber sie werden als Maschinen nicht zur Rechenschaft gezogen: Nicht die Maschine geht ins Gefängnis, sondern ihr Konstrukteur oder sein Auftraggeber. Als am 10. März 2019 der Flug 302 der Ethiopian Airlines von Addis Abeba nach Nairobi kurz nach dem Start abstürzte und 157 Menschen starben, setzte eine intensive Fehlersuche ein. Dabei zeigte sich, dass die KI-basierte Programmierung der Boeing 737 MAX 8 menschliche Eingriffsmöglichkeiten nicht in ausreichendem Maß zuließ. Als Folge daraus wurde die Auslieferung dieses Flugzeugtyps gestoppt, mit enormen wirtschaftlichen Folgen für den Hersteller. Es kam zwar bislang nicht zu Gerichtsurteilen in diesem Fall, aber klar ist jedenfalls, dass niemand auf die Idee kam, das fehlerhafte Programm selbst zur Rechenschaft zu ziehen oder „zu bestrafen“.

344

Digitale Superintelligenz und digitale Unsterblichkeit

Jede Form der Maschinenethik kann daher den Begriff der ethischen Verantwortung einer Maschine nur in Gestalt einer Analogie, einer bildhaften Übertragung, verwenden. Digitale Maschinen rechnen. Ihr Rechenergebnis kann die Form einer Handlungsanweisung mit der Folge einer tatsächlichen Handlung annehmen. Rechenergebnisse der Künstlichen Intelligenz können ethische Entscheidungen simulieren. Die Qualität der Simulation ethischer Entscheidungen kann sogar besser sein als diejenige von menschlichen Entscheidern. Dennoch bleibt die Verantwortung beim Menschen, und zwar durch den Akt der impliziten oder expliziten Übernahme des maschinellen Ergebnisses im eigenen Handlungskontext. Die digitale Welt kann und darf uns nicht aus unserer ethischen Verantwortung entlassen: Denn Menschen sind Personen, Maschinen nicht.

Digitale Superintelligenz und digitale Unsterblichkeit Nun mag es auf den ersten Blick beruhigen, dass die Schöpfungsfantasie des Menschen eben doch eine Grenze findet, etwa weil digitale Maschinen ja gerade nicht die Entscheidungs- und Handlungsfreiheit, damit aber auch die Freiheit und Schuldfähigkeit von Menschen einzuräumen ist. Es ist kein Zufall, dass Yuval Hararis Erfolgsbuch den Titel „Homo Deus“ trägt, also übertragen „der Mensch als Gott“ oder „der gottähnliche Mensch“ (Y. Harari 2017). Dabei geht es um die Zukunft des Menschen, der sich selbst neu erschafft, auch mit der Hilfe neuer Technologien und mithilfe von Maschinen, die wir selbst erschaffen haben und die vieles deutlich besser können als wir. Die Suche nach Glück, Gesundheit und Macht kann dabei zur Verbesserung unseres Lebens beitragen, uns aber auch ins Unglück stürzen.

345

8.  Digitale Religion und digitale Humanität

Diese Einsicht begleitet uns freilich schon seit dem Mythos von Prometheus, der für die Menschen von den Göttern das Feuer raubte. Denn lebensverbessernde und zerstörerische Aspekte von Technik liegen oft nahe beieinander. Gerade digitale Technik bedient in besonderem Maß die Erwartung der kognitiven Leistungssteigerung. Sie wird zum Ausdruck von Enhancement-Utopien, wie es Sascha Dickel ausdrückt (S. ­Dickel 2011). Dabei gehört die Logik der Verbesserung physischer und geistiger Leistungsfähigkeit des Menschen von jeher zu seiner Geschichte, vom Blindenstock zur Sehhilfe, vom Hörgerät zum Herzschrittmacher. In die gleiche Logik der echten oder vermeintlichen Leistungssteigerung gehören aber auch Medikamente wie Ritalin oder Viagra, Schönheitsoperationen, Eigenblut zum Doping im Sport, aber auch psychotrope Substanzen wie LSD und andere Drogen, selbst wenn die genannten Anwendungen gesellschaftlich meist kritischer und ambivalenter bewertet werden. Ein „Hirndoping“ über Brain Chips, also digital funktionierende Implantate, ist längst nicht mehr außerhalb unserer Reichweite. Ein medizinisches Beispiel sind die schon erwähnten Hirnschrittmacher bei Parkinsonerkrankungen. Weil Menschen von Anfang an Technik genutzt haben, lässt sich Anthropologie immer auch als Technik-Anthropologie wahrnehmen. Dabei sind die Übergänge der Techniknutzung von low-tech (wie etwa einem Gehstock) zu high-tech wie etwa einem Neurostimulator oder einem Hirnschrittmacher grundsätzlich fließend. Eine Kultur der Digitalität (F. Stalder 2016) setzt jedenfalls die entsprechende technische Entwicklung inklusive ihrer Gefahren (vgl. J. Lanier 2014) voraus. Wer den Begriff Cyborg als Mensch-Maschine-Mischwesen deutet, wird alle Personen, die auf Prothesen, Cochlea-Implantate und andere medizintechnische Hilfen angewiesen sind, als Cyborgs betrachten können. Er trifft dabei in den seltensten Fällen ihr Selbstbild. Trotzdem ist es beachtlich, dass die Grenze zwischen dem Ausgleich für 346

Digitale Superintelligenz und digitale Unsterblichkeit

körperliche Schwächen und Maßnahmen zur Steigerung körperlicher und geistiger Leistungskraft nicht mehr eindeutig bestimmt werden kann. Im Rahmen einer „Kritik der digitalen Vernunft“ stellt sich hier die große Frage, an welcher Stelle der Gedanke der Leistungssteigerung aufhört und wann der Mensch, so wie wir ihn kennen, zum Artefakt oder gar zum „Designobjekt“ wird (vgl. B. Göcke, F. Meier-Hamidi 2018). Die Rede ist dann vom posthumanen Zeitalter oder vom Transhumanismus (vgl. B. Flessner, D. Spreen et al. 2018). Eine besondere Form der Grenzüberschreitung ist dabei das Biohacking (vgl. H. Charisius, R. Friebe, S. Karberg 2013). Dabei geht es um die Verbindung physiologischer und biologischer Funktionen des menschlichen Körpers mit digitalen Schnittstellen, etwa durch implantierte Chips, Sensoren oder Magnete. Oft steht experimentelle Neugier im Hintergrund, manchmal geht es um die schon erörterten Formen der Selbstoptimierung des eigenen Körpers, auch durch Versuche mit DNA-Sequenzen. Die Grenze zwischen spielerischer Experimentierfreude und ideologischer Fixierung auf der einen und kommerziellen oder auch transhumanistisch-ideologischen Interessen auf der anderen Seite wirkt dabei fließend. Neu ist darüber hinaus die Kombination von Neurowissenschaften und digitaler Technik. Über eine Hirn-Maschine-Schnittstelle oder ein Brain-Computer-Interface wird schon heute versucht, bei gelähmten Patienten über die elektrische Aktivität des Hirns deren Kommunikation mit der Außenwelt und Mobilitätsfunktionen zu verbessern (vgl. K. H. Pantke 2010). Hier handelt es sich allerdings um Medizintechnik, nicht um religiöse Konnotationen. Allein schon der Gedanke an eine Hirn-Maschine-Schnittstelle regt jedoch die menschliche Fantasie stark an. Zahlreiche Filme und Videospiele rund um Cyborgs, die von außen gesteuert werden, legen davon Zeugnis ab. Dabei geht es zum einen um Macht und Manipulation, zum anderen aber auch um Größenwahn und um spezifisch 347

8.  Digitale Religion und digitale Humanität

religiöse Vorstellungen. Gibt es nämlich für die kognitive Leistungssteigerung keine Grenze, gelangen wir ins Feld der Unendlichkeit, ja sogar der digitalen Unsterblichkeit. Eine besondere Facette in der Betrachtung der spekulativen und teilweise religiösen Züge digitaler Technologie ist in diesem Zusammenhang der Glaube an die Singularität oder diejenige Superintelligenz, die dem Menschen weit überlegen sein wird. Protagonisten dieser Idee sind beispielsweise der schwedische Philosoph Nick Boström (N. Bostrom 2005, 11-30) und der amerikanische IT-Unternehmer Ray Kurzweil (2005), der sogar 2008 eine eigene Singularity University im Silicon Valley gegründet hat. Mit dem Begriff der „Singularität“ wird der Zeitpunkt der Entstehung einer posthumanen, überlegenen Superintelligenz bezeichnet, die Menschen beherrschen kann und unsere Zivilisation komplett umgestaltet (vgl. näher dazu: S. Dickel 2011, 285). Denkt man intensiver über das Thema nach, dann kommt der Gesichtspunkt der Sorge oder gar der Angst vor einer Superiorität von Maschinen über Menschen in den Blick. Hier verbindet sich die Steigerungslogik digital gestützter kognitiver Fähigkeiten mit der Frage nach Macht oder gar der Beherrschung der Menschheit. Wie so häufig bei der Verbindung von Utopie und Apokalypse, von ungeahnten Möglichkeiten und existenziellen Risiken gibt es auch die Hoffnung auf Heilmittel. Eines davon ist das Uploading, also das digitale Hochladen des gesamten menschlichen Hirns und seine vollständige Digitalisierung, sodass wir gewissermaßen eine digitale Unsterblichkeit erreichen (vgl. O. Krüger 2004). Für die meisten Menschen entspricht eine rein digitale oder „zerebrale“ Existenz aber nicht ihren Vorstellungen vom guten Leben. Doch auch hier gibt es Abhilfe. Eine zumindest parareligiös angehauchte Möglichkeit ist das Einfrieren des Körpers mit der Idee einer Kontrolle der physikalischen Welt auf molekularer Grundlage. Die Alcor Life Extension Foundation und das Cryonics Institute haben bereits mehrere 348

Digitale Superintelligenz und digitale Unsterblichkeit

Hundert Personen nach ihrem Tod kryo-konserviert (vgl. S. Dickel 2011, 254). Die kryonischen Vertragspartner hoffen, dass ihre Körper dereinst wiederbelebt werden können. Es handelt sich also um eine im Wortsinn physikalische Auferstehungshoffnung. Solche Formen der unendlichen Selbsttranszendenz werden mit einer Semantik verknüpft, die an religiöse Sprache erinnert. Es geht beispielsweise um die Befreiung von der Natur, um die Allmachtsfantasie einer von Menschen gesteuerten Evolution und um die Verbindung von technischer und sozialer Utopie. So wie man das menschliche Genom entschlüsseln kann, ließe sich auch das menschliche Cognom, also die Gesamtheit des Strukturzusammenhangs menschlicher Hirne, enträtseln. In meiner eigenen Lebenszeit kann ich mich noch sehr gut an das revolutionäre Klima in bestimmten studentischen Zirkeln gegen Ende der 70er-Jahre erinnern. Um utopische Zusammenhänge besser zu verstehen, hatte ich mich in meiner Qualifikationsarbeit zum Lizentiat intensiv mit Herbert Marcuse auseinandergesetzt, einem der bekanntesten Theoretiker der Frankfurter Kritischen Schule (vgl. etwa H. Marcuse 1967). Dabei konnte ich zeigen, wie stark seine sozialrevolutionären Ideen vom religiösen Gedankengut des jüdischen Messianismus beeinflusst waren. Die sozialrevolutionären Hoffnungen und Illusionen der damaligen Zeit sind heute einer gewissen Ernüchterung in breiten Kreisen der Gesellschaft gewichen. Dagegen erscheint die Verbindung einer individualistischen politischen Tradition mit scheinbar wissenschaftlich und technisch begründbaren Utopien heute in technikeuphorischen Kreisen bisweilen anschlussfähig. Wir erleben also eine Art von liberaler Utopie. Sogar der Gegenstand der religiös anmutenden Hoffnung wird zum Objekt einer inneren Steigerung: Denn nicht allein die Gesellschaft, sondern die gesamte Natur des Menschen wird zum Ziel der Utopie. Dabei ist die digitale Entwicklung nur ein Teil, aber mit 349

8.  Digitale Religion und digitale Humanität

Blick auf das Uploading oder die Verbesserung der Hirnleistung durch implantierbare Brain Chips ein wesentlicher Teil dieser Hoffnungen. Ausgehend von der Annahme, dass ein Mensch im Lauf seines Lebens 10 Terabytes an Information verarbeitet, lässt sich sehr wohl vorstellen, dass 2040 eine solche Datenmenge auf einen Mikrochip passt. Dies berichtet bereits 2003 der Autor Christoph Keller über einen 1996 gehaltenen Vortrag von Chris Winter, damals Abteilungsleiter von Artificial Life im Forschungslabor der British Telecom. Mit solchen Mikrochips könnte man beispielsweise einem an Alzheimer erkrankten Menschen einfach einen anderen Brain Chip implantieren (vgl. Ch. Keller 2003, 39). Die ökonomische, politische und soziale Einbettung solcher Technikutopien wird auf dem Hintergrund eines stark angelsächsisch geprägten Individualismus und Utilitarismus häufig ausgeblendet. Dabei verschwimmt auch die Grenze zwischen technischer Zukunftshoffnung und religiös angehauchter Erlösungserwartung. Problematisch daran ist nicht einfach der bisweilen unkritische Glaube an das technisch Machbare, sondern das Überspringen der Frage nach sozialer Verfügungsmacht, ökologischen Folgen und politischer Entscheidungskultur. Pointiert gesagt: Wer sich nach seinem Ableben einfrieren lassen und zuvor sein Gehirn hochladen lassen will, der muss sich das finanziell leisten können. Das sind nach heutigem Stand nur sehr wenige, sehr reiche Menschen. Diese elitäre Exklusivität digitaler Sozialtechnologie steht im Gegensatz zu den universellen Heilserwartungen der großen Weltreligionen. Digital gestützte Unendlichkeit setzt nach bisherigem Stand der Dinge soziale Zuteilungs- und Auswahlmechanismen voraus, die zumindest kritisch hinterfragt werden können. Denn sie stehen eher für eine Utopie der sozialen Exklusion, nicht der Inklusion. Wer im religiösen Raum auf diese Weise vorgeht, wählt typischerweise die Sozialform der Sekte, nicht die der christlichen Kirche oder der umfassenden Glaubensgemeinschaft wie in der islamischen Umma. 350

Digitale Religion als digitale Heilserwartung

Entgegengesetzt zu einem solchen digitalen Heilsindividualismus zeigt die Phänomenologie der digitalen Welt aber auch Züge einer universellen Alltagsreligion. Diese Beobachtung soll im nächsten Abschnitt vertieft werden.

Digitale Religion als digitale Heilserwartung In seinem sehr zugespitzten Buch „Google Unser“ schildet der Autor Christian Hoffmeister die Kultur des Silicon Valleys am Beispiel des Technologieriesen Google (Ch. Hoffmeister 2019). Das Unternehmen Google, aber auch Facebook und Apple werden mit einer Kirche verglichen, deren Gläubige die User sind. Ihr Glaube wird bestimmt durch die Überzeugung, dass alle Probleme der Welt durch geeignete Daten, Algorithmen und Supercomputer gelöst werden können. Denn zum digitalen Glauben gehört die religiöse Überzeugung, die Welt sei grundsätzlich und vollständig berechenbar und vorhersehbar. In einer Parodie auf das christliche Vaterunser lautet das Gebet des Digitalgläubigen wie folgt (ebd., 2): „Google Unser in der Cloud, Geheiligt werde Deine Suche, Dein Crawler komme, Dein Algorithmus geschehe, auf dem Laptop wie auch auf dem Handy. Unsere täglichen Likes gib uns heute. Und vergib uns unsere Dislikes, wie auch wir vergeben unseren Hatern. Und führe uns nicht auf irrelevante Seiten, sondern erlöse uns vom eigenen Wissen 351

8.  Digitale Religion und digitale Humanität

Denn Dein ist das Netz und die Allwissenheit und die Singularität in Ewigkeit. Amen.“ Die digitale Heilserwartung drückt sich in diesem „Gebet“ dadurch aus, dass das eigene Denken im Vergleich mit digitalen Angeboten gering geschätzt und der Glaube an den technologischen Fortschritt großgeschrieben wird. Noch weiter geht Anthony Levandowski, der bei Google als Entwickler von Google Street View angestellt war. Er hat die Computer-Kirche Way of the Future gegründet und im August 2017 in den USA eintragen lassen. Ein Bericht darüber wurde in der Zeitschrift Techbook am 17. November 2017 veröffentlicht (https://www.techbook.de/easylife/web/religion-kuenstliche-intelligenz-way-of-the-future abgerufen am 2. Mai 2020 um 20.33h). Für diesen „Religionsgründer“ steht im Vordergrund die „Realisierung, Akzeptanz und Anbetung einer Gottheit, die auf einer Künstlichen Intelligenz basiert“. Es sei wichtig, ein positives Verhältnis zu den allmächtigen Systemen aufzubauen, die künftig die Welt kon­ trollieren würden (ebd.). Es ist nicht schwierig, sich von der pseudoreligiösen Polemik gegen Digitalkonzerne ebenso abzugrenzen wie von skurrilen Ideen zur Göttlichkeit der Künstlichen Intelligenz. Dennoch ist es Teil unserer Welt, dass die rasante Veränderung speziell im Bereich der Künstlichen Intelligenz sowohl zu apokalyptischen Überwältigungsängsten wie auch zu religiösen Heilserwartungen führen kann. Die klassischen Attribute Gottes werden allerdings sehr stark auf die Aspekte der Allwissenheit und der Allmacht reduziert. Liebe und Barmherzigkeit, die gerade im Christentum, im Judentum und im Islam ganz wesentliche Kennzeichen der Hinwendung Gottes zu den Menschen sind, spielen keine Rolle. Diese kognitivistische Engführung von Religion erinnert damit an einige Thesen aus der Gnosis. Dabei geht es um die Selbsterlösung 352

Religiöse Praxis in digitalen Welten und digitale Theologien

des Menschen durch überlegenes Wissen, also eine „Konkurrenz“ zur Gedankenwelt der Offenbarungsreligionen, die sich Erlösung und Heil durch das von außen kommende Eingreifen Gottes erwarten (vgl. W. Kosack 2014). Gnostische, esoterische und im weitesten Sinn parareligiöse Auffassungen verbinden sich dann mit digitalen Erlösungsideen. Größeren Erfolg haben digitale Kirchen, digitale Kulte und Gottheiten bisher aber nicht verzeichnet. Im Gegensatz dazu ist die Nutzung der digitalen Welt schon längst in die Praxis der etablierten Religionsgemeinschaften und Kirchen eingedrungen. Religiöse Praxis in der digitalen Welt und explizit digitale Theologien verdienen daher gesonderte Beachtung.

Religiöse Praxis in digitalen Welten und digitale Theologien Die amerikanische Kommunikationswissenschaftlerin Heidi Campbell weist in ihrem Buch „Digital Religion“ auf die Nutzung digitaler Technik durch religiöse Gemeinschaften hin (H. Campbell 2012). Gerade im Zug der Corona-Pandemie 2020 ist die Nutzung digitaler Gottesdienstformen in vielen Ländern sogar zur vermeintlich einzigen Möglichkeit geworden, sich mit der eigenen Glaubensgemeinschaft zu verbinden. Beispiellos war etwa der einsame Ostersegen von Papst Franziskus im April 2020 vor dem menschenleeren Petersplatz in Rom. Sämtliche Zeremonien der Karwoche fanden unter Ausschluss der physischen Öffentlichkeit statt und wurden per Livestream im Internet übertragen. Die zeitweise vom italienischen Staatsfernsehen RAI digital übertragene Frühmesse von Papst Franziskus wurde im Frühjahr 2020 in Italien mit über 1,5 Millionen Zuschauern und 30% Marktanteil sogar eine Art Quotenhit. Predigten und Gottesdienste auf YouTube und anderen Streaming-Kanälen sind inzwischen Teil der digitalen Inszenierung reli353

8.  Digitale Religion und digitale Humanität

giösen Lebens. In einigen evangelischen Landeskirchen in Deutschland kam es sogar zu neuen, hybriden Formen der Gottesdienstfeier, etwa wenn beim Abendmahl die Gläubigen dazu aufgefordert wurden, Brot und Wein vor dem Monitor bereitzuhalten (B. Lassiwe 2020, 32). Darüber hinaus gibt es Videobotschaften, Gebetseinladungen, virtuelle Andachtsräume, aber auch „das Anzünden von Online-Kerzen, Treffen zu Bibelkreisen über Skype, Houseparty oder Zoom, Rosenkranz- und Kreuzwegpodcasts oder eben auch die Übertragung von gottesdienstlichen Feiern“ (B. Krysmann 2020, 33). Formen digitaler Seelsorge ergänzen solche liturgischen Online-Formen. Auch für religiöses Lernen werden digitale Medien immer stärker genutzt (vgl. A. Dinter 2007, H. Allert, M. Asmussen, Ch. Richter 2017), sei es für den schulischen Religionsunterricht (vgl. H. Simojoki 2020, 57-63), sei es für außerschulische Lernformen (vgl. G. Ulshöfer, M. Wilhelm 2020). So haben beispielsweise Roland Rosenstock und Ines Sura digitale Spiele in der Religionspädagogik mit Blick auf Chancen ethischen Lernens beleuchtet (R. Rosenstock, I. Sura 2020, 171-184). Leider bietet die digitale Welt aber auch Raum für vielfältige Formen des Missbrauchs von Religion. Bekannt geworden ist beispielsweise die Rekrutierung von religiösen Extremisten des sogenannten Islamischen Staats über das Internet (vgl. J. Manemann 2015). Darüber hinaus haben religionswissenschaftliche und theologische Forscher längst Anteil an der großen digitalen Transformation, die mit dem Begriff der Digital Humanities bezeichnet wird (vgl. D. Berry, A. Fagerjord 2017). In vielen Fällen geht es hier vordergründig lediglich um die Vorteile digitaler Technik, etwa bei der Zugänglichkeit von Quellen, bei den schon erwähnten digitalen Gottesdiensten und dergleichen. Tatsächlich aber gibt es eine Reihe von neu entstehenden Anfragen an „digitale Theologie“ (J. Haberer 2015). Dabei werden auch Fragen nach Beteiligung und Befähigung, Wahrheit und Zensur, Stellvertretung und Fürsprache, Öffentlichkeit und Transparenz, Ge354

Religiöse Praxis in digitalen Welten und digitale Theologien

meinwohlorientierung und Gemeinwohlverpflichtung zur Sprache gebracht (J. Haberer 2020, 36-38). Die schon für die Arbeitswelt beobachtete Entstehung hybrider Formen zwischen analoger und digitaler Welt gilt folglich auch für den religiösen Bereich. Das Nebeneinander und Ineinander dieser Welten wird zum neuen Normalfall religiösen Lebens, erfordert aber auch neue Kommunikationsstrategien. Denn die Möglichkeiten digitaler Teilhabe stärken die religiöse Zivilgesellschaft und machen den von manchen Protagonisten gewünschten autoritären Durchgriff über angeblich legitime und nicht legitime Formen von Religiosität, Glaube und Kirchlichkeit immer schwieriger. Auch für den religiösen Bereich gilt folglich: Digitale Technik ist nicht nur eine instrumentelle Form des Alltagslebens, sondern sie dringt in die Wahrnehmung von Inhalten und in das Selbstverständnis von Menschen ein. Dies gilt für das Feuer ebenso wie für die Landwirtschaft, für die Nutzung von Kraftfahrzeugen ebenso wie für die durchgängige Elektrifizierung, schließlich aber auch für die Digitalisierung und die Entstehung der digitalen Weltverdopplung. Immer wieder und in immer neuen Kontexten wird dabei die Frage gestellt, ob der Mensch die Technik beherrscht oder umgekehrt. Diese Frage ist weder rein philosophisch noch rein religiös zu stellen. In ihr fließen zahlreiche Elemente der bisherigen Überlegungen zusammen. Sie kann gebündelt werden in der Frage nach unserem Verhältnis zu den digitalen Maschinen, die wir schaffen, die wir aber zunehmend als eigenständige Wesen erfahren. Der Mensch wird im wörtlichen Sinn zum Schöpfer einer neuen Welt. Wie soll und wie kann er sich zu dieser Welt verhalten? Die Ambivalenz zwischen der Vergöttlichung von Computern, Androiden, Cyborgs oder sonstigen digitalen Wesen und dem menschlichen Umgang mit seiner eigenen Rolle als dem Schöpfer der digitalen Welt ist Teil einer Kritik der digitalen Vernunft. In der noch einmal beleuchteten Frage nach der Persönlichkeit von Maschinen findet sie 355

8.  Digitale Religion und digitale Humanität

ihren Ausdruck. Sind Maschinen als eigene Personen als Utopie zu erhoffen oder als Apokalypse zu befürchten? Ist die oben getätigte Aussage, dass Maschinen keine Personen sind, das letzte Wort oder eben doch nur ein vorläufiger Stand der Technik?

Digitale Schöpfung: Digitale Maschinen als Quasi-Personen Die Religionsgeschichte bietet reichhaltige Anschauung dafür, dass unbelebten Gegenständen Persönlichkeitsmerkmale zugeschrieben werden und wurden. Der Animismus schreibt allen Gegenständen dieser Welt eine Seele zu. Insbesondere in den frühen Kulturen der Jäger und Sammler haben beispielsweise Bäume, Flüsse oder Tiere als Teil der Weltseele einen je eigenen Charakter und eine je eigene Wirkmacht. Diese Macht zu achten und mit ihr umzugehen, ist in zahlreichen Stammeskulturen eine Lernaufgabe für jeden jungen und jeden erwachsenen Menschen. In romantisierenden Deutungen wird dies gerne als ökologische Wachsamkeit verklärt, die wir heute wiedergewinnen müssten. Der amerikanische Rechtsphilosoph Christopher D. Stone fordert seit 1972 analog zu Menschen- und zu Tierrechten eigene Rechte für Pflanzen und für Bäume (vgl. Ch. Stone 2010). Im Jahr 2017 wurde in Australien ein Gesetz, das Yarra River Protection Act, verabschiedet, welches in Zusammenarbeit mit der indigenen Bevölkerung, den Wurundjeri, dem Yarra-Fluss tatsächlich eine Rechtspersönlichkeit zusprach. Animistische Ideen und Anliegen der ökologischen Bewegung fließen hier in einer Weise zusammen, bei der die Grenze zwischen religiös-animistischen Vorstellungen und Ökologie schwer zu ziehen ist (vgl. https://globalwaterforum.org/2018/06/07/indigenous-rightsand-river-rights-australia-and-new-zealand/, abgerufen am 13. Juni 2020 um 16.10h).

356

Digitale Schöpfung: Digitale Maschinen als Quasi-Personen

Verfolgt man solche Gedanken weiter, dann ist menschliches Bewusstsein allenfalls ein Ausschnitt aus dem kosmischen Bewusstsein. Wird dieses kosmische Bewusstsein, ob religiös oder spirituell gedeutet, als Realität angesehen, dann können Menschen verschiedene Formen der kosmischen Vereinigung und Annäherung suchen. Diese bedürfen einer bestimmten Resonanzfähigkeit und mentalen Praxis, wie sie beispielsweise in der Meditation, in Träumen, aber auch in der ekstatischen Aktivität von Schamanen zum Ausdruck kommt. Dabei wird unter anderem auf die Verbindung von schamanischen und quantenphysikalischen Erkenntnissen hingewiesen (vgl. H. Kalweit 2004, 376). Darüber hinaus existiert eine transpersonale Bewusstseinsforschung, die in ähnlicher Weise ein Weltbewusstsein proklamiert, welches weit über das Raum-Zeit-Bewusstsein einer einzelnen Person hinausgeht (vgl. F. Vaughan 1986). Einzelne Personen gelangen unter einem solchen Blickwinkel erst dann zu ihrer vollen Entfaltung, wenn sie die Ebene des eigenen kleinen Egos übersteigen. Diese Erfahrung eint Mystiker aller Religionen. Sie findet aber auch ein wissenschaftliches Echo. In seinem zum Klassiker gewordenen Buch „Die Entwicklungsstufen des Selbst“ greift der Psychologe Robert Kegan die Theorie zu den Stufen kognitiver Entwicklung von Jean Piaget (1896-1980) und die Gedanken von Lawrence Kohlberg zur moralischen Entwicklung auf. Lawrence Kohlberg (1927-1987) hatte in seinen Beobachtungen die Stufe der Orientierung an Strafe und Gehorsam (Stufe 1), des Zweckdenkens oder des „do ut des“ (Stufe 2), der Ausrichtung an Konvention und Konformität (Stufe 3), der Orientierung an gesellschaftlichen Normen (Stufe 4) und der Ausrichtung an universellen Prinzipien (Stufe 5) unterschieden (vgl. L. Kohlberg 1996). Robert Kegan postuliert für die gesamte Persönlichkeitsentwicklung ebenfalls unterschiedliche Phasen für die Organisationsform des Selbst, vom impulsiven über das souveräne, zwischenmenschliche, institutionelle und schließlich überindividuelle Gleichgewicht. Er sieht in der Rea357

8.  Digitale Religion und digitale Humanität

lisierung von „Überindividualität“ (R. Kegan 1991, 101), letztlich in einem „überindividuellen Gleichgewicht“ (ebd. 145), das höchste Entwicklungsziel eines einzelnen Menschen. Religionswissenschaftliche, ethnologische, anthropologische, psychologische und spirituelle Perspektiven konvergieren in der Erkenntnis, dass Menschen über sich hinauswachsen müssen und können. Wie nun das überindividuelle Bewusstsein, an dem jeder Mensch teilhat, bezeichnet wird, hängt von der Bildungsgeschichte und dem fachlichen Hintergrund der einzelnen Autoren ab. In religiösen Sprachwelten geht es hier um Gott, in der Sprache der Esoterik geht es um die Weltseele. Gregory Bateson (1904-1980) spricht von einer umfassenden „Ökologie des Geistes“ (G. Bateson 1985). Der Gedanke der „Alleinheit“ findet bis heute in der Religionsphilosophie, aber auch der Philosophy of Mind lebhaftes Interesse, wie ein jüngst erschienener Sammelband gut dokumentiert (G. Brüntrup, P. Göcke, L. Jaskolla 2020). Die technische Möglichkeit der Vernetzung und des Zusammenschaltens hoch performanter digitaler Anwendungen zu Zwecken der Kontrolle ebenso wie zu Zwecken der Erkenntnis machen diese Gedanken auch für eine Kritik der digitalen Vernunft relevant. Schließlich lässt sich, wie weiter oben schon ausgeführt, die Summe des digital verfügbaren Wissens schon heute als Exocerebrum, als externalisiertes Gehirn der Menschheit, betrachten. Es ist wie bereits im 2. Kapitel erläutert die Summe des ausgelagerten Weltwissens, aber auch der Ort der Verknüpfung von Wissensbeständen und des Entstehens von neuem Wissen. Das kollektive digitale Bewusstsein ist also schon heute zumindest kognitiv deutlich leistungsfähiger als das Hirn eines einzelnen Menschen. Kognitive Problemlösungen können durch Anwendungen Künstlicher Intelligenz wirksam unterstützt werden. Das ist uns mit Blick auf die Entwicklung der Arbeitswelt bereits bewusst, beispielsweise

358

Digitale Schöpfung: Digitale Maschinen als Quasi-Personen

bei Virtual Augmented Reality oder VAR-Brillen zum Einblenden wichtiger Informationen beim Arbeitsprozess. Bei den Formen schwacher KI ist klar, dass digitale Anwendungen den Status von technischen Hilfen haben. Sobald wir in den Bereich autonom agierender Roboter oder Androide kommen, stellen sich andere Fragen. So kann ein und dasselbe Programm auf verschiedene „Maschinenkörper“ heruntergeladen werden. Welche Identität hat dann etwa ein Android als Pflegecomputer, der einer von mehreren „digitalen Klonen“ ist? Wie wirkt sich sein erlerntes oder fest programmiertes Persönlichkeitsprofil aus? Wenn eine Interaktion zu enttäuschten Erwartungen führt, geht es dann um eine „Fehlfunktion“ oder um „böse Absichten“ oder gar „Verrat“? Die unausweichliche Moralisierung der Interaktion zwischen Menschen und Maschinen hat eine Reihe von Implikationen. So ist ethisch zu fordern, dass für jede Interaktion klar wird, dass das Gegenüber eine digitale Maschine ist. Denn mit dem technischen Fortschritt wird es immer schwieriger werden, die Mensch-Mensch-Interaktion von bestimmten Formen der Mensch-Maschine-Interaktion zu unterscheiden. Dies hat Alan Turing mit seinem bekannt gewordenen Turing-Test bereits 1950 scharfsinnig formuliert (A. Turing 1950, 433-460). Weil es darüber hinaus zur Eigenheit der menschlichen Interaktion gehört, das Gegenüber zu „humanisieren“, ist es eine Frage der Ethik, jederzeit Transparenz über den Status des eigenen Gegenübers zu haben. Dies gilt erst recht dann, wenn Roboter in die Alltagskommunikation eindringen und im Lauf der Zeit auch emotional spezifische Persönlichkeitsmerkmale annehmen, etwa im Sinn des OCEAN-Modells (P. T. Costa, R. R. McCrae 1992, 5-13). Wesentliche Merkmale einer Persönlichkeit sind nach diesem Modell Eigenschaften wie die „Offenheit für Erfahrung“, das „Bewusstsein“ (Conscientiousness), die „Extraversion“, der „angenehme Umgang“ (Agreeableness) und der „Hang zu neurotischem Verhalten“ (Neuroticism). 359

8.  Digitale Religion und digitale Humanität

Die Konstitution eines neuen „Gegenübers“ zum Menschen ist auch religiös und theologisch von Bedeutung, nicht nur bezüglich der weiter oben beschriebenen Schuld- und Freiheitsfähigkeit digitaler Artefakte. Vielmehr ist im Sinn einer „Kritik der digitalen Vernunft“ die Quasi-Personalität von Maschinen eine Herausforderung eigener Art. Denn nun ist es Menschen aufgegeben, sich selbst nicht nur gegenüber Gott oder dem universellen Bewusstsein und gegenüber Tieren zu verstehen, sondern auch mit einem neuen Wesen, einer Art Nicht-Spezies, umzugehen. Denn der Mensch schafft sich sein digitales Gegenüber nach seinem eigenen Bilde. Das hat nicht zuletzt zur Folge, dass er sich selbst neu zu verstehen lernt, etwa mit Blick auf die eigene Leiblichkeit. Weil Maschinen zwar physisch verfasst sind, Programme aber in traditioneller Sprache eher dem Bild des „reinen Geists“ entsprechen, wird die Identitätsbildung des Menschen noch deutlicher als in früherer Zeit durch ein Zusammenwirken von Körper, Geist und Seele charakterisiert. Wenn jemand diese traditionelle philosophische Sprechweise vermeiden will, kann er Menschen heute im Gegensatz zu digitalen Maschinen auch als denkende und fühlende Körper verstehen. Darüber hinaus bildet auch die Besonderheit des Selbstbewusstseins menschlicher Personen nach wie vor eine Grenzlinie zu ihrem digitalen Gegenüber. Die Rede von der Gottebenbildlichkeit und der aus ihr folgenden Menschenwürde findet also paradoxerweise bei der Entstehung humanoider Roboter eben doch eine gewisse Entsprechung. Dabei bleibt die Ambivalenz menschlicher Möglichkeiten von Aggression bis zu friedlicher Kooperation, von Zerstörung bis zur Freude schaffenden Förderung des guten Lebens nicht nur Teil der menschlichen, sondern in ihrer Spiegelung auch Teil der digitalen Welt. Religiös knüpft sich an die Phänomenologie digitaler Quasi-Personen die Frage nach dem Verhältnis von Gott und Mensch: Wenn Gott sich in der Welt offenbart, offenbart sich dann der Mensch auch

360

Digitale Schöpfung: Digitale Maschinen als Quasi-Personen

in seiner digitalen Schöpfung? Welchen Status können und wollen wir digitalen Quasi-Personen zuerkennen? Wenn wir Maschinen als Quasi-Personen ansehen, könnte dies als Widerspruch zur oben formulierten Ablehnung der Schuldfähigkeit von Maschinen angesehen werden. Dies ist aber nicht der Fall, denn tatsächlich liegen die Dinge komplizierter. Maschinen sind nämlich keine Personen im menschlichen Sinn, aber wir können sie als Quasi-Personen konstruieren. Diese unterscheiden sich von den oben erwähnten Pseudo-Personen, die kognitiv als digitale Akteure zu erkennen sind, aber im emotionalen Leben zu verschwimmen neigen, weil sie in der konkreten Interaktion im Grunde wie eine Person erfahren werden. Schon die sprachliche Unterscheidung zwischen menschlichen Personen und digitalen Pseudo- und Quasi-Personen zeigt allerdings auch auf, dass auf diesem neuen Feld Grenzen noch nicht klar gezogen werden können und weitere Feinarbeit an Begrifflichkeiten und Sichtweisen erforderlich ist. Wir hatten digitale Pseudo-Personen durch die emotional-kognitive Dissonanz zwischen dem erlebten Gefühl eines Gegenübers trotz des kognitiven Wissens um dessen Charakter als digitalen Artefakt gekennzeichnet. Roboter, Androide, aber auch Chatbots, Avatare, digitale Assistenten wie Siri und Alexa und zahlreiche andere Ausprägungen führen aber dazu, dass die Herausforderung der genauen Abgrenzung in den Schattierungen und Ausprägungen von Nicht-Personalität, Pseudo-Personalität und Quasi-Personalität uns als Menschen weiter beschäftigen wird, besonders mit Blick auf Fragen von Verantwortung, Haftung und Zuschreibung. Wir kommen damit erneut in das Feld ethischer und juristischer Fragen. Digitale Maschinen haben aber keine eigene Rechtspersönlichkeit und keinen juristischen Personenstatus. Wir können allerdings schon heute konkrete Persönlichkeitsprofile in humanoide Roboter einprogrammieren und sie als personales Gegenüber wahrnehmen. Dies erscheint auf den ersten Blick widersprüchlich, lässt sich aber 361

8.  Digitale Religion und digitale Humanität

mit dem oben eingeführten Begriff der Quasi-Person ­(Near-Person) gut auflösen. Der Terminus Quasi-Person folgt einer Begriffsbildung, die wir aus dem Finanzwesen kennen. Dort wird unterschieden zwischen Banken, Quasi-Banken (Near-Banks) und Nicht-Banken (Non-Banks). Einzelne Personen wie wir oder Frau Müller und Herr Maier sind erkennbar „Nicht-Banken“. Banken hingegen sind durch ihre Banklizenz und reich entfalteten Regularien klar definiert. Es gibt aber Finanzdienstleister, Kapitalsammelstellen wie Versicherungen, Kreditkartenanbieter, Private-Equity-Unternehmen, Vermögensverwalter, Family Offices, Leasing- und Factoring-Gesellschaften, die finanzielle Dienste leisten, ohne Banken zu sein. Sie haben mancherlei Ähnlichkeiten mit Banken und treten zu ihnen in lebhafte Konkurrenz. Sie benötigen für ihre Geschäfte aber keine Banklizenz nach dem Kreditwesengesetz. Quasi-Personen (Near-Persons) sind in analoger Sprechweise keine menschlichen Personen, haben aber eine Reihe von Ähnlichkeiten mit ihnen, so etwa Intelligenz, kognitive Problemlösungsfähigkeit, die Fähigkeit zur Durchführung autonomer Handlungen und die Fähigkeit, emotionale Zustände zu erkennen und zu simulieren (oder „emulieren“). Siri und Alexa könnten im wahren Sinn des Wortes als sprechende Beispiele für die Verkörperung von Quasi-Personen wahrgenommen werden, erst recht aber beispielsweise Weiterentwicklungen von Pflegerobotern. Quasi-Personen müssen aber als solche gekennzeichnet werden, um Verwirrung zu vermeiden. Maschinen als Quasi-Personen haben nach wie vor im engeren Sinn keine menschlichen Gefühle, keine moralische Verantwortung und keine Schuldfähigkeit. Sie sind aber ethische Akteure, sind zur Produktion verantwortlicher Akte und zur Emulation oder sichtbaren Äußerung von emotionalen Akten fähig. Wir geraten daher erneut an die oben beschriebene Grenze, denn in der hybriden analog-digitalen Welt verschwimmt biswei362

Digitale Schöpfung: Digitale Maschinen als Quasi-Personen

len der Unterschied zwischen menschlichen Personen und digitalen Quasi-Personen. Dies ist keine einfache Einsicht, wenn wir uns vergegenwärtigen, dass die Zuschreibung von Personalität, also der Person-Eigenschaft, zu einer Person im Grunde ein normativer Akt ist (vgl. dazu K. Leidlmair 1998,165-178). Die Zuschreibung von Personalität ist aber auch beim Menschen keineswegs so eindeutig und klar, wie wir es uns wünschen, etwa im Fall des Patienten im Dauerkoma, im Fall des noch nicht sprechenden Säuglings oder im Fall des seiner geistigen Kräfte nicht mächtigen Menschen. Im juristischen und sozialen Leben gibt es aber wirksame Stellvertretungsregeln, etwa bei den Eltern für den Säugling, beim bevollmächtigten Betreuer in anderen Fällen. Beispielsweise kann auch ein Säugling oder ein Komapatient ein Vermögen erben und vererben. Kommen wir erneut auf die Beschreibung von Pseudo-Personalität und Pseudo-Sozialität bei bestimmten funktionalen Software-Programmen zurück. Hier ist im Idealfall erkennbar, dass es sich weder um Personen noch um Quasi-Personen im genannten Sinn handelt. Die auf Menschen zugeschnittene Form der Interaktion solcher Programme führt aber dazu, dass Menschen psychologisch in sie eintauchen können, „als ob“ sie eine Person wären, etwa in Gaming-Welten. Anders gesagt stoßen wir in der Praxis erneut auf die schon oben beschriebenen Abgrenzungsschwierigkeiten. Gehen wir zurück zu den erörterten digitalen Quasi-Personen, deren Output nicht so leicht von alltäglicher menschlicher Interaktion zu unterscheiden ist. Entsprechende Fragen kommen vor allem durch die Fortentwicklung von Spielarten der starken Künstlichen Intelligenz zur Sprache, also wenn es um Roboter, Humanoide oder Androide geht. So wie es Zwischenstufen und Besonderheiten in der Zuschreibung von Personalität im juristischen Bereich und im gesellschaftlichen Zusammenleben gibt, so benötigen wir dann neue

363

8.  Digitale Religion und digitale Humanität

Wege von Rechtsprechung und sozialer Interaktion, wenn es um die Verantwortung von und die Verantwortung für Quasi-Personen geht. Digitale Schöpfung braucht insbesondere Praxisregeln, die eine klare Überordnung des mithilfe der Maschine handelnden Menschen vorsehen. Dabei geht es letztlich um Fragen der Zuschreibung von Verantwortung, Eigentum und Kontrolle. Solche Fragen wiederum sind im Verhältnis von Menschen und ihren technischen Hervorbringungen nicht neu. So bezeichnet im Hebräischen das Wort „Golem“ eine formlose Masse. Der Prager Rabbi Löw erschuf nach der Legende im Jahr 1580 einen Golem aus Lehm und belebte ihn nach einem bestimmten kabbalistischen Ritual. Später geriet dieser Golem außer Kontrolle und richtete ein Werk der Zerstörung an. Seit den Anfängen der Kybernetik bis zum Science-Fiction-Autor Stanislaw Lem hat die Fantasie des „Golem“ oder des Künstlichen Menschen immer wieder Werke der Kunst inspiriert (vgl. K. Völker 1994). Die Grenze zwischen technischen Visionen, literarischer Fantasie und dem Ausdruck von apokalyptischen Ängsten ist dabei nicht immer klar zu ziehen. Deutlich wird aber die Sorge rund um einen Kontrollverlust über die vielfältigen Formen digitaler Schöpfung, entweder durch unvorhergesehene Ereignisketten oder durch den Zugriff finsterer Mächte. Selbst wenn wir von Verschwörungstheorien Abstand nehmen, ist die Zuschreibung von Verantwortung für Quasi-Personen ein letztlich noch ungelöstes Problem. Denn bei komplexen Sachverhalten mit mehreren Beteiligten diffundiert Verantwortung. Jeder hat einen Handlungsanteil, aber niemand hat den Gesamtüberblick. In der klassischen Moraltheologie, aber auch in der Rechtswissenschaft und in der Psychologie kennt man hier den Begriff der Verstrickung (vgl. B. Hellinger 2007, V. Joelle Jost 2012). Gemeint sind Zusammenhänge, bei denen die kausalen Anteile der einzelnen Wirkursachen nicht mehr zweifelsfrei zu bestimmen sind. In komplexen Kontexten 364

Digitale Schöpfung: Digitale Maschinen als Quasi-Personen

von Verstrickung ist es schwer, einzelne Personen zur Verantwortung zu ziehen, gleich ob es beispielsweise um die Verursachung der Finanzkrise 2008, den Dieselskandal der deutschen Automobilindustrie oder die konkrete, KI-gestützte Programmierung einer militärischen Kampfdrohne geht. Die Frage nach der verschwimmenden oder diffundierenden Verantwortung wird sich im Umgang mit digitalen Quasi-Personen in den nächsten Jahren voraussichtlich verschärfen. Welche Verantwortungsanteile die User aufgrund ihrer individuellen Konfiguration, die Entwickler, die Herstellerfirmen oder sonstige Beteiligte haben werden, wird noch Gegenstand zahlreicher Debatten sein. Im Zusammenhang mit digitaler Religion und digitaler Schöpfung ist insbesondere der Gedanke der „Schöpfungsverantwortung“ von Bedeutung. Dabei geht es letztlich um die Tiefe und die Reichweite von Folgewirkungen aus der Konstruktion digitaler Quasi-Personen. Dabei ist das Verhältnis zwischen menschlicher Freiheit und Gottes Allmacht ein klassisches Thema der Theologie. Gerade weil der Mensch frei ist, kann er Fehler machen, Schuld auf sich laden und sich gegen seinen Schöpfer wenden. Ein solches Maß an Freiheit ist für keine digitale Quasi-Person vorgesehen. Mit steigender Leistungsfähigkeit der Künstlichen Intelligenz sind aber auch zunehmende Freiheitsgrade bei ethischen Entscheidungen zu erwarten. Dann kann es sein und steht sogar zu erwarten, dass die ethische Entscheidungslogik von Maschinen weit über der situativen Flughöhe von Menschen liegt. Anders gesagt: Digitale Maschinen oder Quasi-Personen könnten im Wortsinn die „besseren Menschen“ sein oder deren Rolle einnehmen. Was aber bedeutet das dann für das Selbstverständnis des Menschen als Individuum und als Spezies? Die Frage nach digitaler Humanität soll den Reflexionsgang dieses Buches daher zum Abschluss bringen.

365

8.  Digitale Religion und digitale Humanität

Digitale Humanität als Ziel Menschen leben in einer eigenartigen Mischung aus Endlichkeit und Unendlichkeit, aus Demut und Größenwahn, aus Angst und Selbstüberschätzung, aus Hoffnung und Verzweiflung, aus Liebe und aus Verblendung. Das Maß des Menschlichen spiegelt sich in der Komödie und der Tragödie unseres Lebens. Es ist Schicksal und doch Gegenstand freier Selbstbestimmung. Ausschließlich rationale Zugänge erschließen es nicht vollständig. Die reiche Kontextualität unseres Erlebens, die spezifische Mischung aus Selbststeuerung und Fremdbestimmung, die Besonderheiten der individuellen und der kollektiven Erinnerung, die Zielorientierung im unplanbaren Raum, das sind Eigenheiten des Menschen, die seine Größe und seine Tragik determinieren. Denn unser Wollen stößt immer wieder an die Grenze des Könnens, und wir sind uns dessen bewusst. Unser freier Wille stößt sich immer wieder mit dem freien Willen anderer, gerade weil keiner so frei ist, wie wir es wünschen und hoffen. Menschen können an Hindernissen wachsen. Sie gehen mit Widersprüchen um. Sie erfinden sich neu und deuten ihre eigene Lebensgeschichte immer wieder um. Der Philosoph und Theologe Eugen Biser (1918-2014) sieht den Menschen in seiner Anthropologie als das „uneingelöste Versprechen“ und fordert ihn zur Verantwortung auf (E. Biser 1995, 271-301). Er sieht den Menschen als den, der noch nicht das ist, „was er sein kann“ (ebd. 301). Menschen haben, anders gesagt, einen Potenzialüberschuss, weil sie über sich hinauswachsen können weit jenseits dessen, was sie selbst von sich meinen. Einen Potenzialüberschuss haben sie aber auch deshalb, weil sie stets und immer wieder hinter den eigenen Möglichkeiten zurückbleiben, weil sie scheitern und scheitern können. Sie sind auf Barmherzigkeit angewiesen und auf Liebe.

366

Digitale Humanität als Ziel

Maschinen und digitale Quasi-Personen scheitern nicht. Sie begehen keinen Verrat, sondern weisen Programmierfehler auf oder funktionieren einfach nicht. Digitale Quasi-Personen können Menschen auf kognitiven und anderen Teilgebieten überlegen sein. Hier greift aber eine ähnliche Analogie wie bei Leichtathleten im Sport: Der beste Weitspringer der Welt wird der Weitsprungleistung des besten Zehnkämpfers so gut wie immer überlegen sein. Aber in der Mischung der Disziplinen ist der Zehnkampf sehr anspruchsvoll. Und es gewinnt derjenige oder diejenige, dessen Gesamtpunktzahl am besten ist, nicht die Person mit einer isolierten Spitzenleistung. Angewendet auf die digitale Welt, können wir also schlussfolgern: Maschinen können besser sein als Menschen bei vielen isolierten und einer Reihe von kombinierten Leistungen. Im Zehnkampf des Lebens sind sie es nicht und brauchen es nicht zu sein. Die Singularität besteht also in der Einzigartigkeit und Würde der menschlichen Person, gerade auch mit ihren Schwächen. Technisch-kognitive Singularität im Sinn einer digitalen Maschine, die das menschliche Hirn übertrifft, ist für die Denkleistung des Hirns möglich, für den „ganzen Menschen“ nicht. Maschinen können lernen. Sie werden vermehrt auch zu sozialen Interaktionen fähig sein. Sie verdienen kreatürlichen Respekt, also diejenige Achtung, die wir anderen Dingen und anderen Lebewesen in unserer Welt entgegenbringen sollten. Gut programmiert, fördern digitale Maschinen das Humanisierungspotenzial im Menschen. Denn „Humanisierung“ ist ein normativer Begriff, der einen Sollens-Zustand beschreibt. Unser Leben ist idealerweise ein Lernweg in Richtung einer solchen Humanisierung. Oft aber ist das Gegenteil traurige Realität. Im schlimmsten Fall dienen digitale Maschinen narzisstischen, eigensüchtigen, destruktiven Zwecken. Dann können sie Katastrophen erzeugen und fördern. Wir dürfen aber nicht vergessen, dass

367

8.  Digitale Religion und digitale Humanität

auch solche Maschinen letztlich von Menschen programmiert und gesteuert werden. Schuldig werden also Menschen, nicht Maschinen. Für Maschinen gilt Accountability, also die Transparenz und die Rechenschaft über ihren Output, den wir als Verhalten deuten können. Zu unserem Glück ist die Steuerung komplexer Systeme wie weiter oben erläutert nicht immer so komplex wie die Systeme selbst: Die Steuerung der digitalen Welt können und dürfen wir Menschen uns zutrauen. Eine Kritik der digitalen Vernunft endet zwangsläufig in einer solchen Ambivalenz. Die digitale Welt eröffnet bislang ungeahnte Möglichkeiten, schafft aber auch neue Abgründe. Es ist die Aufgabe der Menschen, sie zu steuern und sich auch im politischen Raum eine Selbstbegrenzung aufzuerlegen, wo diese zum Nutzen aller Menschen erforderlich ist. Dies gilt auch im individuellen Leben. Wir müssen und können nicht alles tun, was wir können. Das Leben hat viele Facetten. Die digitale Welt und mit ihr die digitale Vernunft ist eine davon. Menschen aber gehen, ob sie wollen oder nicht, darüber hinaus. Sie leiden und lieben, und sie wissen, dass sie sterblich sind. Dieses Wissen kann man in digitale Quasi-Personen einprogrammieren. Und doch bleibt ihnen gerade aufgrund ihrer digitalen Natur die Tragik und die Komik des menschlichen Lebens erspart, aber auch vorenthalten. Das letzte Wort hat also unser gemeinsames Ziel, die Humanität. Denn das Leben ist mehr als ein Algorithmus und mehr als eine Rechenaufgabe.

368

Literatur

Literatur Heidrun Allert, Michael Asmussen, Christoph Richter (Hrsg.), Digitalität und Selbst, Bielefeld: transcript 2017 Gregory Bateson, Ökologie des Geistes, Anthropologische, psychologische, biologische und epistemologische Perspektiven, Frankfurt/M.: Suhrkamp 1985 David M. Berry, Anders Fagerjord (Hrsg.), Digital Humanities, Knowledge and Critique in a Digital Age, Cambridge: Malden 2017 Eugen Biser, Der Mensch – das uneingelöste Versprechen, Entwurf einer Modalanthropologie, Düsseldorf: Patmos 1995 Nick Bostrom, How Long Before Superintelligence? In: Linguistic and Philosophical Investigations, 5. Jahrgang, Heft 1, 2005, S. 11-30 Godehard Brüntrup, Benedikt P. Göcke, Ludwig Jaskolla (Hrsg.), Panentheism and Panpsychism, Philosophy of Religion Meets Philosophy of Mind, Leiden-Paderborn: Schöningh 2020 Heidi Campbell, Digital Religion, Understanding Religious Practice in New Media Worlds, London: Taylor & Francis 2012 Hanno Charisius, Richard Friebe, Sascha Karberg, Biohacking, Gentechnik aus der Garage, München: Hanser 2013 Paul T. Costa, Robert R. McCrae, Normal Personality Assessment in Clinical Practice: The NEO Personality Inventory, in: Psychological Assessment 4, 1992, S. 5-13 Tim Crane, Die Bedeutung des Glaubens, Religion aus der Sicht eines Atheisten, Berlin: Suhrkamp 2019 Sascha Dickel, Enhancement-Utopien. Soziologische Analysen zur Konstruktion des Neuen Menschen, Baden-Baden: Nomos 2011 (= zugleich Dissertation Universität Bielefeld 2010) Astrid Dinter, Adoleszenz und Computer, Von Bildungsprozessen und religiöser Valenz, Göttingen: Vandenhoeck & Ruprecht 2007 (= zugleich Habilitation Universität Frankfurt/M. 2006) 369

8.  Digitale Religion und digitale Humanität

Ian McEwan, Maschinen wie ich, Zürich: Diogenes 2019 Bernd Flessner, Dirk Spreen et. al., Kritik des Transhumanismus, Über eine Ideologie der Optimierungsgesellschaft, Bielefeld: transcript 2018 Benedikt Paul Göcke, Frank Meier-Hamidi (Hrsg.), Designobjekt Mensch, Die Agenda des Transhumanismus auf dem Prüfstand, Freiburg/Br.: Herder 2018 Johanna Haberer, Digitale Theologie, Gott und die Medienrevolution der Gegenwart, München: Kösel 2015 Johanna Haberer, Theologische Medienethik, gelingende Kommunikation als Lebenskunst, in: G. Ulshöfer, M. Wilhelm (Hrsg.), Theologische Medienethik, Stuttgart: Kohlhammer 2020, S. 31-46 Nuval Noah Harari, Homo Deus, Eine Geschichte von morgen, München: C. H. Beck 2017 Bert Hellinger, Ordnungen der Liebe, Ein Kursbuch, 8. überarbeitete Auflage, Heidelberg: Carl Auer 2007 Christian Hoffmeister, Google Unser, Hamburg: DCI Institute 2019 Viktoria Joelle Jost, Systemische Aufstellungsarbeit, Überwindung symbiotischer Verstrickungen, Hamburg: Diplomatica 2012 Holger Kalweit, Die Welt der Schamanen, Traumzeit und innerer Raum, Darmstadt: Schirner 2004 Christoph Keller, Building Bodies, Der Mensch im biotechnischen Zeitalter, Zürich: Limmat-Verlag, S. 38-50: Chip im Gehirn, Die Neuroinformatiker und ihre Visionen Wolfgang Kosack, Geschichte der Gnosis in Antike, Urchristentum und Islam, Texte-Bilder-Dokumente, Basel: Christoph Brunner Verlag 2014 Oliver Krüger, Virtualität und Unsterblichkeit, Die Visionen des Posthumanismus, Freiburg/Br.: Rombach 2004 Ray Kurzweil, The Singularity is Near, When Humans Transcend Biology, New York: Viking 2005

370

Literatur

Jürgen Manemann, Der Dschihad und der Nihilismus des Westens, Warum ziehen junge Europäer in den Krieg? Bielefeld: transcript 2015. Herbert Marcuse, Der eindimensionale Mensch, Studien zur Ideologie der fortgeschrittenen Industriegesellschaft, Neuwied: Luchterhand 1967 Robert Kegan, Die Entwicklungsstufen des Selbst, Fortschritte und Krisen im menschlichen Leben, 2. Auflage München: Peter Kindt Verlag 1991 Lawrence Kohlberg, Die Psychologie der Moralentwicklung, Frankfurt am Main: Suhrkamp 1996 Benjamin Krysmann, Not macht erfinderisch, Potenzial kirchlicher Medienangebote in Krisenzeiten, in: Herder-Korrespondenz 74. Jahrgang, 2020, Ht. 5, S. 33f. Ray Kurzweil, Menschheit 2.0, Die Singularität naht, 2. durchgesehene Auflage, Berlin: Lola Books 2014 (Original: The Singularity is Near, When Humans Transcend Biology, New York: Viking 2005) Jaron Lanier, Wem gehört die Zukunft? Du bist nicht der Kunde der Internetkonzerne, du bist ihr Produkt, Hamburg: Hoffmann und Campe: 2014 Benjamin Lassiwe, Protestantismus debattiert über Online-Abendmahl, in: Herder Korrespondenz 74. Jahrgang, 2020, Ht. 5, S. 32 Karl Leidlmair, Kants Verständnis von Personalität als normatives Konzept, in: Walter M. Neidl, Friedrich Hartl (Hrsg.), Person und Funktion, Regensburg: Pustet 1998 Karl-Heinz Pantke (Hrsg.), Mensch und Maschine, Wie Brain-Computer-Interfaces und andere Innovationen gelähmten Menschen kommunizieren helfen, Frankfurt/M.: Mabuse-Verlag 2010 Roland Rosenstock, Ines Sura, Gaming und Ethisches Lernen, Digitale Spiele in der Religionspädagogik, in: Gotlind Ulshöfer, Monika Wilhelm (Hrsg.), Theologische Medienethik, Stuttgart 2020, S. 171-184 Hans Schilling, Bildung als Gottesbildlichkeit, Eine motivgeschichtliche Studie zum Bildungsbegriff, Freiburg/Br.–Basel–Wien: Herder 1961

371

8.  Digitale Religion und digitale Humanität

Henrik Simojoki, Digitalisierung, Herausforderung und Chance für den RU, in: Religionspädagogische Beiträge Nr. 82, 2020, S. 57-63 Felix Stalder, Kultur der Digitalität, Berlin: Suhrkamp 2016 Christopher D. Stone, Should Trees Have a Standing? Law, Morality, and the Environment, Oxford: Oxford University Press, 3. Aufl., 2010 Alan M. Turing, Computing Machinery and Intelligence, in: Mind, Band 59, 1950, Nr. 236, S. 433-460 John Updike, Das Gottesprogramm, Rogers Version, Reinbek: Rowohlt 1990 Gotlind Ulshöfer, Monika Wilhelm (Hrsg.), Theologische Medienethik im digitalen Zeitalter, Stuttgart: Kohlhammer 2020 Frances Vaughan, Die transpersonale Perspektive, in: Stanislav Grof (Hrsg.), Alte Weisheit und Modernes Denken, Spirituelle Traditionen in Ost und West im Dialog mit der neuen Wissenschaft, München: Kösel 1986, S. 32-39 Klaus Völker (Hrsg.), Künstliche Menschen, Dichtungen und Dokumente über Golems, Homunculi, Androiden und lebende Statuen, München: Hanser 1971, Neuauflage Frankfurt/M.: Suhrkamp 1994

372

Glossar Akkumulierendes Lernen – geht u. a. auf den brasilianischen Pädagogen Paulo Freire (1971) zurück und steht für eine Lernform (= Lernen 1), bei der das Wissen angehäuft, memoriert, aber nicht zwangsläufig in einen Zusammenhang eingeordnet und verstanden wird. Alternative Formen der Rationalität – die Annahme, dass jenseits des wissenschaftsbasierten rationalen Diskurses andere Ausprägungen von Rationalität existieren können, die heute unbekannt sind oder die außerhalb der Wissenschaft (u. a. in Religionen) stattfinden können. Balance-Ethik – Ausdrucksweise für eine von Ulrich Hemel vorgeschlagene Ethik, die auf der Grundlage einer tugendethisch grundierten Haltungsethik Individualwohl und Gemeinwohl miteinander zu verbinden sucht. Böckenförde-Theorem – wurde von dem Rechtphilosophen Ernst-Wolfgang Böckenförde im Jahr 1964 formuliert und beschreibt das Paradox des liberalen Verfassungsstaates, der von geistigen und ethischen Voraussetzungen lebt, die er selbst nicht schaffen kann. Cloud-Ich – die „digital unbewusste“ Person als Gestalt der menschlichen Person in der Gesamtheit ihrer digitalen Spuren im Internet und in digitalen Speichermedien, unabhängig davon, ob der physischen Person diese Spuren bekannt sind oder ob sie Zugriff auf sie hat. Cobots – Roboter, speziell im industriellen Kontext, die mit arbeitenden Menschen zusammen ein Mensch-Maschine-System bilden und zur Arbeitserleichterung ebenso wie zur Produktivitätssteigerung beitragen.

373

Glossar

Coping – gemeint sind persönliche oder institutionelle Bewältigungsstrategien für alltägliche Situationen, aber auch für Konflikte. Dabei wird die Art der Handlung bestimmt durch das „Framing“, also die Einordnung und Wahrnehmung der gegebenen Situation. Credition Research – dieses interdisziplinäre Forschungsgebiet erforscht implizite Annahmen und Glaubensprozesse, wie sie im Alltag vorkommen, auch unabhängig von religiösen Inhalten. Data Mining – ein maschinengestütztes Verfahren, um große Datenmengen nach bestimmten politisch, sozial oder kommerziell sinnvollen Kriterien auszuwerten. Daten-Treuhandfonds – ein analoger Begriff zu einem treuhänderisch verwalteten Staatsfonds (z. B. norwegischer Staatsfonds); gemeint ist ein Unternehmen oder eine Organisation zur treuhänderischen Verwaltung und Verwertung anvertrauter Bürgerdaten. Deep Learning – ein Teilbereich des maschinellen Lernens, das auf künstlichen neuronalen Netzen mit mehreren verborgenen Ebenen (hidden layers) basiert. Digitale Bildung – ein kontinuierlicher Lernprozess, der dazu befähigt, nicht nur Wissen über digitale Medien und mit Hilfe digitaler Medien zu erwerben, sondern der auch als persönlicher Bildungsprozess zum selbstbestimmten, mündigen Umgang mit Digitalität ausgestaltet ist. Digitale Daseinsvorsorge – ein komplexer Auftrag des Staates, der sich aus der Digitalisierung aller Lebensbereiche ergibt; umfasst Aufgaben wie die Bereitstellung digitaler Infrastruktur, die Garantie von Datenschutz und die IT-Sicherheit bis hin zur Sicherung des Gemeinwohls. Digitales Eigenleben – bezeichnet eine Systemeigenschaft komplexer digitaler Programme und Systeme, die für Menschen eine Grenze für die rationale Nachvollziehbarkeit von Maschinen-Output darstellt.

374

Glossar

Digitale Exklusion – bezeichnet den Ausschluss von der Teilhabe an der digitalen Gesellschaft, etwa aufgrund eines geringen Bildungsniveaus, höheren Alters oder mangelnder Infrastruktur. Digitale Gewaltenteilung – gemeint ist die Übertragung des Systems von „checks und balances“, also der Verteilung von Legislative, Exekutive und Judikatur auf die digitale Welt. Digitale Humanität – Leitstern und Zielbegriff des Umgangs mit der digitalen Welt in einer solchen Form, dass die ethisch guten Potenziale des Menschen inklusive Mitgefühl, Solidarität und Fairness bestmöglich zum Ausdruck kommen können. Digitale Identität – bezeichnet beim Menschen die Frage nach der Verknüpfung von Person und digitalen Spuren, die dieser Person zugeschrieben werden; bei der digitalen Identität von Maschinen geht es neben der technischen Frage der Identifizierbarkeit einer Maschine um die Frage der Unterscheidung von Mensch und Maschine. Digitale Ignoranzkompetenz – eine Form von persönlichem Wissensmanagement; die Fähigkeit, sich in Beständen des eigenen digitalen Wissens und Nichtwissens zu orientieren und zu entscheiden, wo der Erwerb oder die Vertiefung eigenen Wissens sinnvoll ist oder nicht. Digitale Konnektivität – ein Teil des digitalen Wandels; bezeichnet die digitale Vernetzung von Menschen untereinander bis in ihre digitale Biografie. Zugleich Ausdruck für die digitale Vernetzung von Menschen und Maschinen sowie von Maschinen und Maschinen. Digitale Mündigkeit – selbstbestimmtes und eigenverantwortliches Handeln von Personen in der digitalen Welt. Digitale Professionsethik – eine spezifisch für die Herausforderungen digitaler Arbeitswelt zugeschnittene Ethik für digital tätige Berufsgruppen wie z. B. Programmierer, Data Analysts und viele andere.

375

Glossar

Digitale Rationalität – eine Form der Rationalität, die der besonderen Art der operativ wirksamen Ausdrucksweise und Formatierung in der digitalen Welt Rechnung trägt, unabhängig davon, ob die betreffende Sache selbst als vernünftig gelten kann. Digitale Religion – ein Begriff, der digitale Formen religiöser Praxis wie z. B. digitale Gottesdienste ebenso umfasst wie die religiöse Überhöhung der digitalen Welt, etwa in Form einer Computerkirche, einer Anbetung Künstlicher Intelligenz und anderen. Digitale Solidarität – Praktiken privater wie auch institutioneller Art, um einen möglichst fairen und gerechten Zugang zu Angeboten der digitalen Welt für alle Menschen zu sichern; bezeichnet zugleich die kontroverse Aufgabe der fairen Abgrenzung zwischen zivilgesellschaftlicher Freiheit und nötigen gesetzlichen Regelungen und Rahmenbedingungen. Digitale Teilhabe – die aktive Partizipation an der digitalen Welt, bewirkt durch die Verfügbarkeit digitaler Infrastruktur, digitaler Bildung und aktiv gestalteten Prozessen der Inklusion auch von tendenziell benachteiligten Menschengruppen. Digitaler Imperialismus – bezeichnet die Praxis oder die nur vermutende Praxis der Beherrschung anderer Staaten durch digitale Mittel, die zu Machtzwecken eingesetzt werden. Digitaler Kolonialismus – bezeichnet die Perspektive eines digital abhängigen Staates, dem bestimmte digitale Werkzeuge, Prozesse und Leistungen nicht ohne die Zustimmung und Mitwirkung mächtiger anderer Staaten oder Organisationen (wie etwa Digitalunternehmen) zur Verfügung stehen. Digitaler Verbraucherschutz – gesetzliche Schutzmaßnahmen vor Sicherheits- und Übervorteilungsrisiken, etwa dem Datenmissbrauch oder Cyber-Angriffen in der digitalen Welt.

376

Glossar

Digitales Ich – Gestalt der menschlichen Person in ihrer digitalen Repräsentation, typischerweise verbunden mit dem physischen Ich, aber auch unabhängig davon im Rahmen befugter und unbefugter Zugriffe Dritter auf die eigene digitale Identität. Digitale Souveränität – die Fähigkeit eines Menschen, in der digitalen Welt selbstbestimmt als Person zu handeln; zugleich der Ausdruck für die Selbstbestimmung eines Staates in digitalen Fragen, unabhängig von digitalen Abhängigkeiten bis hin zum digitalen Kolonialismus. Digitale Superintelligenz – eine überdurchschnittlich intelligente Maschine sehr hoher Rechenleistung, die menschliche Fähigkeiten in allen erkennbaren kognitiven Bereichen übertrifft. Der Zeitpunkt, an dem die künstliche Intelligenz den Menschen überlegen sein wird, heißt technische Singularität. Digitale Unsterblichkeit – eine Zukunftsvision mit dem Inhalt, dass ein Mensch durch Gehirn-Upload, also das Hochladen und Speichern des eigenen Gehirns in einen Computer, den Tod überwinden kann. Digitale Vernunft – eine Ausprägung der Vernunft in der besonderen Form und innerhalb der besonderen Voraussetzungen von Digitalität. Digital Humanities – Sammelbegriff für digital unterstützte Geistes-, Kultur- und Sozialwissenschaften; im engeren Sinn eine Disziplin zur Nutzung computergestützter oder „digitaler“ Methoden in der geistes-, kultur-, und sozialwissenschaftlichen Forschung. Digitalkompetenz – die erworbene Fähigkeit, sich selbstbestimmt mit den stets neuen Herausforderungen der digitalen Welt auseinanderzusetzen und mit ihnen umzugehen. Digital Mainstreaming – bezeichnet den Hang oder gar Druck in Richtung Konformität, der sich aus dem Gebrauch digitaler Massenmedien und Sozialer Netze ergeben kann.

377

Glossar

Digitale Ökosysteme – komplexe, teilweise miteinander verbundene, teilweise unverbundene digitale Umgebungen in Alltag und Beruf, in denen Menschen leben und agieren. Digitalvolumensteuer – ein Lösungsansatz der Besteuerung digitaler Transaktionen. Der Hebesatz für die Berechnung der Steuer könnten z.B. das digitale Transaktionsvolumen, die Anzahl der User, der Clicks oder der geleisteten Dienste sein. Emergenz – bezeichnet die nicht vollständige, eindeutige, zweifelsfreie Ableitung von Handlungen oder Maschinen-Output aus situativen Kontexten und vorab bekannten Parametern; bezeichnet den Überraschungseffekt von menschlichen oder maschinellen Priorisierungen. Emotionsüberschuss – bezeichnet die Eigenschaft menschlicher Handlungen, von vielschichtigen, persönlichen Emotionen begleitet zu werden, über den jeweils angestrebten Zweck einer Handlung hinaus. Unterscheidet bisher Menschen von digitalen Systemen. Enhancement-Utopie – eine utopische Diskursrichtung, die auf der Überzeugung gründet, dass der Mensch als Gattungswesen verbesserungsfähig und -bedürftig ist; ferner der Gedanke, dass durch den Einsatz diverser Technologien die natürlichen Grenzen des Menschen ausgedehnt und erweitert werden können. Epochenbruch – Ausdruck für die Verbindung einer tiefgreifenden, den gesamten Alltag durchdringenden technischen Veränderung mit Änderungen der soziokulturellen Lebensform von Menschen, z. B. beim Übergang vom Nomaden zum Bauern, jetzt: im digitalen Zeitalter. Erster Gödel’scher Unvollständigkeitssatz – wurde von dem österreichischen Mathematiker Kurt Gödel im Jahr 1931 formuliert. Der Satz besagt, dass es in bestimmten formalen Systemen mathematische Aussagen gibt, die sich weder beweisen noch widerlegen lassen.

378

Glossar

Ethics by Design – gemeint ist die Planung und Auslegung („design“) von digitalen Programmen und Produkten nach ethischen Maßstäben wie z. B. Fairness, Diskriminierungsfreiheit und anderen. Ethik ist also im Idealfall von vornherein „Teil des Produkts“. Ethische Abstinenz – eine überwiegend unreflektierte ethische Position, die soziale und ethische Fragen der digitalen Welt ausklammert und zu ihnen keine Position beziehen will. Ethische Kampfrhetorik – rhetorische Praktiken, bei denen Werte auf verschiedene Weise instrumentalisiert werden, um bestimmte eigene Ziele zu erreichen. Diese Ziele können völlig unabhängig von den nach außen proklamierten Werten sein. Ethische Perspektivität – bezeichnet die Unausweichlichkeit einer ethischen Perspektive, die durch Randbedingungen wie Lebensalter, Sprache, Beruf und soziokulturellen Kontext mitbestimmt ist, weil diese die konkrete Auslegung übergeordneter Werte prägen. Ethische Prinzipienreflexion – Reflexion über die zugrundeliegenden ethischen Prinzipien einer Entscheidung, idealerweise vorrangig, also in der Phase der Entscheidungsvorbereitung. Ethische Sprachfähigkeit – bezeichnet die Fähigkeit zur Versprachlichung ethischer Argumente zur Explikation ethischer Maßstäbe, speziell in ethischen Anwendungsfällen, Konflikten und Dilemmata. Ethisches Störgefühl – bezeichnet eine Emotion aufgrund eines Erlebnisses oder Ereignisses, aufgrund einer eigenen Handlung oder eines fremden Handlungsakts, die eigenen Werten deutlich widersprechen. Das Auftreten des ethischen Störgefühls ist von individuellen, aber auch kollektiven, zeittypischen und soziokulturellen Bewertungskontexten abhängig. Exocerebrum – der von dem mexikanischen Anthropologen Roger Bartra eingeführte Begriff bezeichnet das Bewusstsein, das sich außerhalb des Ge-

379

Glossar

hirns, etwa in sprachlichen und soziokulturellen Kontexten befindet; hier wird er auf den digitalen Raum als kollektiven Wissens- und Denkraum oder als kollektives Außenhirn erweitert. Framing – gemeint ist der Akt des Einordnens einer Situation in den Rahmen der eigenen mentalen Architektur, inklusive bestimmter emotionaler Tönungen wie „gefährlich“, „angenehm“, plausibel“ und dergleichen. Funktionale Rationalität – dieser Begriff aus der Organisationstheorie bezeichnet eine Form der Rationalität, die so weit wie möglich kontextfrei auf das Erreichen eines instrumentellen Zwecks ausgerichtet ist. Genetische Identität – eine Kategorie der Identität, die sich durch die genetische Einzigartigkeit jedes Menschen konstituiert. Globales Gemeinwohl – Anwendung des Gemeinwohlbegriffs auf das Gemeinwohl der globalen Zivilgesellschaft jenseits des Eigeninteresses von Individuen, Unternehmen und Institutionen, aber auch Staaten. Globale Zivilgesellschaft – Ausdruck für die Gesamtheit aller hier und heute auf der Erde lebenden Menschen und ihrer Institutionen. Gottebenbildlichkeit – Grundbegriff christlicher Theologie mit dem Gedanken der Schöpfung des Menschen durch Gott als dessen „Ebenbild“, vor allem mit Blick auf die menschliche Vernunft- und Liebesfähigkeit. Habitualisierung – bezeichnet den Übergang mehrfach wiederholter Handlungen in Gewohnheiten und Haltungen des Denkens und Handelns, auch auf ethischem Gebiet. Handlungspriorisierung – bezeichnet beim Menschen die emotional und kognitiv wirksame Selbststeuerung bei der Auswahl einer bestimmten Handlung aus dem situativ verfügbaren Handlungsrepertoire; bei Maschinen geht es um den kriteriengesteuerten Auswahlprozess, der zum gegebenen Maschinen-Output führt.

380

Glossar

Handlungsstrang – Ausdruck für eine Reihe unterschiedlicher, durch die Verfolgung eines Ziels logisch miteinander verknüpfter Handlungen oder Handlungsschritte von Menschen, Maschinen oder Mensch-Maschine-Systemen. Haus der Werte und Ziele – die Formulierung wurde von Ulrich Hemel eingeführt und beschreibt das Gesamtgefüge von Werten und Zielen in einer Organisation, typischerweise im Rahmen einer gegebenen Gesamtstrategie und einer identifizierbaren Organisationskultur. Hirn-Maschine-Schnittstelle (Brain-Computer-Interface) – eine Technologie, die menschliche Hirnaktivität in elektrische Signale umwandelt, mit welchen technische Geräte gesteuert werden können. Sie wird insbesondere bei behinderten und gelähmten Patienten eingesetzt. Humane Spitzenwerte – für das Individuum und die Zivilgesellschaft besonders wichtige Werte, wie Wahrheit und Wahrhaftigkeit, Fairness und Gerechtigkeit, Gewaltlosigkeit und Freundschaft, Partnerschaftlichkeit und Nachhaltigkeit. Humanität – normativ gemeinter Begriff für die sozial und ethisch besten Ausprägungen menschlicher Handlungsmöglichkeiten mit Blick auf humane Spitzenwerte; bezeichnet den Referenzpunkt für digitale Ethik und Ethik überhaupt. Hybride Identität – abgeleitet aus dem Forschungsfeld der Postkolonialismus-Studien, hier angewendet auf die zunehmende Verschmelzung von technischen und personalen Aspekten menschlicher Identität im Sinn einer hybriden, analogen und digitalen Existenz. Hybride Loyalität – die potenziell volatile Bindung an einen Arbeitgeber aufgrund der Mischung aus (a) der Identifikation mit den Unternehmenszielen und der eigenen Leistung einerseits und (b) dem Bedürfnis nach persönlicher Sinnerfüllung in der Arbeit andererseits.

381

Glossar

Identitätslernen – ein lebenslanger und offener Lernprozess (= Lernen 3) in der Interaktion zwischen Person und Gesellschaft, der die eigene Identitätsentwicklung prägt, weil er zur Ausbildung einer persönlichen Identitätsüberzeugung führt und auf die Frage antwortet „Wer bin ich?“. Identitätsmanagement – Ausdruck für die digitale Praxis des Verwaltens von eigenen Konten, Passwörtern und anderen personenbezogenen Daten im Internet. Illusion sozialer Reziprozität – bezeichnet eine Besonderheit der Mensch-Maschine-Interaktion dann, wenn die Reaktionen der Maschine oder des Programms sich emotional wie Mensch-Mensch-Interaktionen anfühlen. Internationaler Digitalgerichtshof – eine von Ulrich Hemel gestellte Forderung nach einer Institution, die allen physischen und juristischen Personen in der globalen Zivilgesellschaft offenstehen soll und die über das Recht auf digitalen Zugang, auf digitale Meinungsfreiheit und auf die Freiheit vor digitaler Repression urteilt. Katastrophenkompetenz – ein dem Menschen eigenes Set an Fähigkeiten, Katastrophen zu überstehen und zu bewältigen. Alternativ wird der Begriff auch für die Fähigkeit des Menschen verwendet, Katastrophen herbeizuführen. Kognitiv-emotionlae Dissonanz – bezeichnet das Auseinanderklaffen zwischen dem emotionalen Erleben und dem kognitiven Bewusstsein bei bestimmten Mensch-Maschine-Interaktionen, etwa mit Pseudo-Personen, die auf der Bewusstseinsebene als Maschine oder Programm erkannt werden. Kognitive Ethologie von Maschinen – der Begriff „kognitive Ethologie“ wurde aus der Verhaltensbiologie abgeleitet und hier auf Maschinen angewendet; gemeint ist die Erforschung von maschinellem Output im Sinn von Maschinenverhalten. Dabei werden ethische Bewertungen methodisch ausgeklammert.

382

Glossar

Kontextualität – bezeichnet das situative Umfeld beim Treffen einer handlungsleitenden Entscheidung; sie kann implizit und unbewusst wirken oder explizit erfasst, erkannt und verarbeitet werden. Die reichhaltige Kontextualität von Menschen umfasst auch Erinnerungen, Planungen und Gefühle; sie wird von verarbeiteten Maschinenkontexten bisher nicht annähernd erreicht. Kontextüberschuss – bezeichnet eine Systemgrenze von digitalen Programmen, die sich daraus ergibt, dass jedes Programm in Kontexten agiert, die nicht vollständig erfasst werden können, aufgrund von Grenzen der Programmierung oder von Grenzen der Datenerfassung. Künstliche neuronale Netze – im Aufbau dem menschlichen Gehirn nachempfundene Netze aus digitalen „Neuronen“, die vor allem im Bereich Künstlicher Intelligenz und maschinellen Lernens eingesetzt werden und maschinelles Lernen ermöglichen. Maschinenautonomie – bezeichnet einen Maschinen-Output, der nicht durch Programmierung vorher bestimmt zu sein scheint und so den Eindruck einer freien, autonomen Handlung erzeugt. Maschinenbewusstsein – ein nach heutigem Wissensstand noch spekulatives Konzept, nach dem Maschinen eigenes Bewusstsein entwickeln können. Maschinenethik – ein Bereich der Ethik, der untersucht, ob und wie Maschinen moralisch handeln können und als moralische Akteure gelten sollen. Maschinenwürde – Übertragung des Gedankens der Menschenwürde auf digitale Maschinen, verbunden mit der Frage nach deren Personalität und Eigenwert, daher auch nach deren Schuld- und Verantwortungsfähigkeit; bisher eher umstritten und spekulativ. Mehrschichtenmodell von Realität – die Annahme, dass unterschiedliche Ebenen von Realität parallel und relativ unabhängig voneinander existieren, beispielsweise die physische, die sprachliche und die digitale Realität.

383

Glossar

Menschenwürde – Gedanke der unveräußerlichen Einzigartigkeit und des Eigenwerts eines jeden Menschen unabhängig von Status, Alter, Herkunft und sonstigen Merkmalen; juristisch ausformuliert als Schutzgut gegenüber staatlichen Übergriffen (GG Art. 1). Maschine-Maschine-Interaktion – bezeichnet Interaktionen, an denen mindestens zwei Maschinen, aber unmittelbar keine Menschen beteiligt sind. Mensch-Maschine-Interaktion – bezeichnet Interaktionen, an denen mindestens ein Mensch mit einer Maschine handelnd in Beziehung tritt. Mensch-Mensch-Interaktion – bezeichnet Interaktionen, an denen Menschen miteinander in Beziehung treten, gleich ob im persönlichen Kontakt oder technisch und digital vermittelt. Mentale Architektur – der Begriff wurde von Ulrich Hemel (2019) geprägt. Gemeint ist ein Gefüge von Wahrnehmungsgewohnheiten und habituellen Glaubenssätzen als Bestandteil der praktischen Weltsicht von Menschen, ihrem „Weltmodell“. Mentale Rückkopplungseffekte – gemeint sind die Folgen einer rekursiven Auswertung und Einordnung einer Situation im menschlichen Denken und Handeln, sodass sich daraus relativ gut prognostizierbare Handlungsstränge oder Handlungspfade ergeben. Multiplizität der multiplen Verdopplung – gemeint ist die Möglichkeit, die physische Realität in unzähligen Variationen digital oder analog abzubilden, sodass aus einer physischen Realität unterschiedliche, ja potenziell unendlich viele digitale Repräsentationen entstehen können. Nicht-Opazität – bezieht sich auf die Eigenschaft solcher Entscheidungen und Entscheidungskontexte, die nicht komplett aufgehellt werden können und intransparent bleiben; so etwa beim Output von Programmen Künstlicher Intelligenz.

384

Glossar

Opazität – bezieht sich auf eine Eigenschaft von Entscheidungsprozessen; aufgrund knapper Zeit und Ressourcen wird nicht jeder Aspekt transparent, kann aber durch Kommunikation und Wissenserwerb weitgehend oder komplett aufgehellt werden. Paradoxie digitaler Ökosysteme – die scheinbar widersprüchliche Gleichzeitigkeit aus einer gesellschaftlichen Haltung mit starkem Systemvertrauen in digitale Systeme einerseits und tiefer Skepsis vor einem digitalen Systemversagen andererseits. Persona – ursprünglich der Akt des Sprechens durch die Schauspielermaske im antiken Theater (das Durchtönende); hier Ausdruck für den Personkern und das innere Selbst eines Menschen sowie seine äußere Spur in Rollen und Akten der digitalen und nicht-digitalen Welt. Personalität – Fachbegriff der christlichen Soziallehre und der Theorie der Sozialen Marktwirtschaft, der die Vorrang- und Zentralstellung der einzelnen Person in der Organisation von Staat, Wirtschaft und Gesellschaft hervorhebt. Perspektivität – bezeichnet die Unausweichlichkeit einer eigenen Wahrnehmungs- und Erkenntnisperspektive von Menschen, die durch Merkmale wie Alter, Geschlecht, Sprache und Kultur mitgeprägt wird; analog gilt der Begriff auch für die Perspektivität, die in digitalen Programmen und Systemen abgebildet wird. Physisches Ich – Gestalt der menschlichen Person in ihrer Ganzheit inklusive ihrer Körperlichkeit, im Rahmen unseres alltäglichen Lebens und Erlebens von physischen Personen. Plausibilitätsurteil – die Einstufung einer Situation nach ihrer wahrgenommenen Plausibilität für den jeweiligen Menschen, auch als Auslöser für zustimmende oder ablehnende Urteile in einer gegebenen Situation.

385

Glossar

Privacy by design – Ansatz, laut dem Datenschutz und Privatsphäre von Usern bereits bei der Entwicklung und Voreinstellung neuer technischer Produkte berücksichtigt werden sollen. Programmierungsmarionetten – in Anlehnung an den Begriff „Marionette“ aus dem Puppentheater wird hier das Verständnis markiert, dass digitale Maschinen als von Menschen gesteuerte Geräte verstanden werden, die letztlich nicht über Autonomie verfügen, sondern nur intendierte Handlungen ausführen. Pseudo-Personen – digitale Produkte, von denen Nutzer und menschliche Interaktionspartner wissen, dass sie digitale Programme sind, sie aber emotional wie eine menschliche Person erleben können, z. B. Avatare im Gaming-Bereich, Sex- und Pflegeroboter. Purpose – sinnstiftende Grundlage von Unternehmen oder übergeordneter Unternehmenszweck; aus ihm ergibt sich sein beabsichtigter Gemeinwohlbeitrag und seine ethisch-moralische Grundhaltung. Quasi-Personen – abgeleitet von dem Terminus „Quasi-Banken“ (Near-Banks) aus dem Finanzwesen; Maschinen, die einen Output produzieren, der vom Menschen mit einem hohen Grad an Ähnlichkeit mit menschlichen Interaktionspartnern erlebt wird. Dabei ist nicht immer bewusst, dass der Interaktionspartner eine Maschine ist. Rationale Priorisierung – Prozess, bei dem Entscheidungen idealtypisch nach ausschließlich rationalen Kriterien erfolgen, ohne Berücksichtigung emotionaler Komponenten. Recht auf „digitales Vergessen“ – Ansatz, der garantieren soll, dass personenbezogene Informationen im Internet nicht dauerhaft verfügbar sind und von der betreffenden Person oder anderen Berechtigten gelöscht werden können. Reichhaltige Kontextualität – Ausdruck für die menschliche Eigenart, im Fluss des eigenen Lebens und Erlebens äußere und innere Handlungskontexte

386

Glossar

von Erinnerungen und Gefühlen bis zu Stimmungen und sinnlichen Empfindungen als „Kontext“ mitzuführen. Relevanzurteil – die Einstufung einer Situation nach ihrer wahrgenommenen Bedeutung oder Signifikanz für den jeweiligen Menschen, auch als Auslöser für starke oder schwache emotionale Beteiligung bei der Reaktion auf eine Situation. Rohstoff-Fluch – bezeichnet ein Phänomen, dass rohstoffreiche Länder häufig unter sozialer Spaltung, Armut und Korruption leiden, weil es ein Zusammenspiel von politischen Akteuren und Vertretern des Rohstoffsektors gibt. Schöpfungsverantwortung – der religiös konnotierte Gedanke einer Verantwortung des Menschen für die von Gott geschaffene Natur („Schöpfung“), häufig im Kontext von Umweltfragen, im digitalen Raum auch im Kontext der Frage nach Verantwortung für die digitale Welt als einer menschlichen Schöpfung. Schwache Kausalität – gemeint ist der indirekte Effekt von Handlungssträngen und Ereignissen auf ein finales Ergebnis, sodass der Kausalbeitrag dieser Handlungsstränge und Ereignisse nicht zweifelsfrei quantifiziert werden kann. Schwache Künstliche Intelligenz – eine Form der Künstlichen Intelligenz, die spezifische, vorab definierte funktionale Aufgaben in Einzelbereichen lösen kann, aber insgesamt kein so hohes Maß an kognitiver Breite und Tiefe abbildet, dass Menschen sie als „konkurrierend“ empfinden würden. Smart Factory – Zukunftsvision einer Fabrik, in der Maschinen mittels digitaler Vernetzung als Maschine-Maschine-System eigenständig arbeiten und Produktionsabläufe weitgehend ohne menschliche Eingriffe organisiert werden. Solidarität – Fachbegriff der christlichen Soziallehre und der Theorie der Sozialen Marktwirtshaft, der auf die persönliche, gruppenspezifische und auch staatliche Praxis und Organisation wechselseitiger Unterstützung unter

387

Glossar

Menschen abzielt und nach geeigneten politischen Regeln für angemessene Unterstützungsleistungen und Hilfestellungen sucht. Soziokulturelle Obsoleszenz – im Allgemeinen wird unter Obsoleszenz die Alterung eines Produktes verstanden; hier die Eigenschaft digitaler Programme, die auf neue, nach ihrer Programmierung aufkommende soziokulturelle Veränderungen oder Gesetzesänderungen nicht entsprechend reagieren können und somit soziokulturell „veraltete Lösungen“ repräsentieren. Speziesismus – eine Art der Diskriminierung, die auf die eigene Spezies zurückgeht (meistens sind Menschen gemeint) und sich gegen andere Spezies richtet. Hier sind meistens, aber nicht immer Tiere gemeint, meistens sogar Wirbeltiere im engeren Sinn. Sprechakt – ein zentraler Begriff in der Sprechakttheorie von John L. Austin (1955) und John Searle (1969); er bezeichnet eine sprachliche Äußerung, mit der eine Handlung intendiert wird und der auch eine wirksame Handlung sein kann. Starke Künstliche Intelligenz – Arbeitsbegriff für die Spekulation zu einer noch nicht entwickelten Form der Künstlichen Intelligenz, die zumindest kognitiv die gleichen Fähigkeiten wie der Mensch hat oder ihn sogar übertrifft. Steuerungsfunktion – bezeichnet die Ebene der Steuerung komplexer und einfacher Systeme, wobei die Komplexität der Steuerung nicht unmittelbar mit der Komplexität des gesteuerten Systems zusammenhängt. Menschen können also auch dann steuern, wenn sie die Komplexität des gesteuerten Systems nicht durchschauen. Steuerungsparadox – die Komplexität der Steuerung ist nicht an die Komplexität des gesteuerten Handlungsstrangs oder Systems gebunden und muss auch nicht zwingend höher sein als die Komplexität des gesteuerten Systems selbst.

388

Glossar

Subsidiarität – Fachbegriff der christlichen Soziallehre und der Theorie der Sozialen Marktwirtschaft, der sich für den richtigen Ort der Verantwortung und für die möglichst dezentrale Organisation von Verantwortung ausspricht. Substitutionseffekt – eine Änderung der Nachfrage infolge einer Preissenkung oder -erhöhung. Sinkt der Preis, so steigt die Nachfrage nach einem Gut und vice versa. Supercomputer – besonders leistungsfähige Computer mit extrem großer Speicherkapazität, die üblicherweise für Forschungszwecke eingesetzt werden. Systemdopplung – die Führung eines zweiten parallelen und „redundanten“ Systems, um die Sicherheit zu erhöhen, etwa im Falle eines Systemausfalls in Flugzeugen. Systemkollaps – bezeichnet die Systemgrenze der Nicht-Funktionalität durch Zusammenbruch eines Systems aufgrund von Fehlern oder Störgrößen. Systemvertrauen – bezeichnet das individuelle und kollektive Vertrauen in die Funktionstüchtigkeit komplexer Systeme auch im Fall von Fehlleistungen und Störungen. Teilrationale Entscheidungen – bezeichnet bei vielen menschlichen Entscheidungen den Umstand, dass für deren Priorisierung sowohl rationale Argumente wie auch emotionale Anteile eine Rolle spielen. Theory of Mind – der Begriff wurde von den Verhaltensforschern David Premack und Guy Woodruff geprägt (1978); er bezeichnet die menschliche Fähigkeit, Handlungen, Absichten und Gefühle anderer abzuschätzen und in einem eigenen mentalen Modell abzubilden. Transhumanismus – bezeichnet eine in den Augen ihrer Anhänger technikund fortschrittsaffine Denkrichtung, die sich für die Optimierung kognitiver, physischer und psychischer Fähigkeiten von Menschen u.a. durch digitale Technik ausspricht.

389

Glossar

Transparenzgebot – Forderung nach Offenlegung von Annahmen und Risikoeinschätzungen als Teil ethisch verantworteter digitaler Programmierung. Triadische Arbeitsverhältnisse – moderne Beschäftigungsstruktur, an der drei Partner beteiligt sind: der Arbeitende, der Auftraggebende und der Plattformbetreiber, der die Leistung vermittelt. Turing-Test – wurde von dem britischen Informatiker Alan Turing im Jahr 1950 entwickelt. Der Test prüft, ob eine Maschine menschliches Verhalten darstellen kann. Er gilt als bestanden, wenn die Person im Lauf der Interaktion nicht bestimmen kann, ob es sich um eine Maschine oder um einen Menschen handelt. Unsichtbare Entscheidungen – bezeichnet bei der Programmierung und bei Trainingsdaten einer digitalen Anwendung solche potentiell oder real wichtigen Kontextdaten, die ohne bewusste Entscheidung durch Maschinen oder Menschen unberücksichtigt bleiben, aber dennoch als Entscheidung wirken, etwa im Fall von Diskriminierungen. Unvollständigkeitstheorem der digitalen Vernunft – abgeleitet vom Gödel’schen Unvollständigkeitssatz; gemeint ist die These, dass nicht alles, was vernünftig ist, digital abgebildet werden kann. Verantwortungsdiffusion – unklare Verteilung und Zuschreibung von Verantwortung, von besonderer Bedeutung für digitale Anwendungen und aus ihre folgende Haftungsfragen. Verstehendes Lernen – eine Lernform (= Lernen 2), die über die bloße Anhäufung von Wissen hinausgeht, Zusammenhänge zwischen Elementen des Lernens herstellt und so zur Anbindung des Wissens in die eigene Bildungsgeschichte motiviert. Vierte Kränkung der Menschheit – eine Erweiterung des Freud’schen kulturkritischen Konzepts von drei Kränkungen der Menschheit: kosmologischer (Kepler), biologischer (Darwin) und psychologischer (Freud). Die vierte, di-

390

Glossar

gitale Kränkung bezieht sich auf die zunehmende kognitive Überlegenheit von Maschinen über Menschen. Weltdeutungskompetenz – von Ulrich Hemel (1988) formuliert; gemeint ist eine anthropologisch verankerte Fähigkeit zur Weltdeutung, die sich auf das eigene Selbst- und Weltverständnis auswirkt. Weltdeutungsperformanz – situativ geäußerte Weltdeutung und konkreter Ausdruck von Weltdeutungsperformanz; eine Einordnung des gerade Erlebten in das eigene Weltmodell und die daran anschließende Reaktion. Weltdeutungszwang – der Begriff wurde von Ulrich Hemel (1988) eingeführt und beschreibt den jedem Menschen innewohnenden und unausweichlichen Zwang, die Welt und sich selbst zu deuten. Die übergreifende Weltdeutung kann auf religiöse oder nicht-religiöse Weise erfolgen. Weltethos-Idee – die Idee geht auf den Schweizer Theologen Hans Küng zurück, der im Rückgriff auf das Parlament der Weltreligionen eine Basis an Grundwerten formulierte, die alle Religionen teilen und die für gutes Zusammenleben essenziell sind. Weltethos-Werte – auf dem Parlament der Weltreligionen wurden die Werte Wahrhaftigkeit, Gerechtigkeit, Partnerschaftlichkeit und Gewaltlosigkeit als Weltethos-Werte definiert; zusätzlich wurde im Oktober 2018 der Wert der „Nachhaltigkeit“ verabschiedet. Weltmodell – Ausdruck für die Gesamtheit der impliziten und expliziten Annahmen über die Welt bei einer Person oder bei einem digitalen Programm, meist verwendet mit Blick auf die besonders relevanten Annahmen in einem solchen Weltmodell. Weltseele – ein in der Esoterik und Naturphilosophie gebrauchtes Konzept des überindividuellen kosmischen Bewusstseins, das analog zu der menschlichen Einzelseele existieren soll.

391

Glossar

Werte-Architektur – dieser analoge Begriff zu „mentaler Architektur“ steht für das Werteprofil oder das Gesamtgefüge von Werten inklusive ihrer Priorisierung bei einer Person, einem digitalen Programm oder einer Organisation wie z. B. einem Unternehmen. Wertepyramide – eine Priorisierung und hierarchische Anordnung von Werten, visuell in der Form einer Pyramide dargestellt, mit Blick auf Werte als wirksame Entscheidungsparameter für die im Alltag unumgängliche Priorisierung von Handlungen. Entscheidend ist daher der tatsächlich beachtete, nicht der verbal proklamierte Wert. Widersprüchlichkeit – bezeichnet die fehlende Handlungskonstanz beim Menschen, aufgrund situativer Kontexte, emotionaler Befindlichkeiten und nicht vollständig rationaler Abwägungen. Wirklichkeitsüberschuss – der Umstand, dass beim Wechsel einer Wirklichkeitsebene (etwa von der physischen in die sprachliche oder in die digitale) andere, neue Eigenschaften von Realität sichtbar werden. Wirklichkeitsverlust – Der Umstand, dass beim Wechsel einer Wirklichkeitsebene (etwa von der physischen in die sprachliche oder in die digitale) bestimmte Aspekte von Wirklichkeit nicht abgebildet werden, sondern verloren gehen (z. B. der Geruch eines Apfels). Wirklichkeit zweiter Ordnung – ein Ausdruck für diejenige Realität, die aufbauend auf der physischen Welt zu einer eigenen, rational zugänglichen, aber nach eigenen Gesetzen funktionierenden Welt und Wirklichkeit wird, so z. B. die sprachliche und die digitale Welt. Zeitsouveränität – menschenspezifische Fähigkeit, die eigene Zeit selbstbestimmt zu gestalten und teilweise über lange Zeitäume hinweg in die Richtung von Vergangenheit und Zukunft auszulegen. Zivilgesellschaft – nach der Definition von Ulrich Hemel aus seinem 2009 gegründeten Institut für Sozialstrategie die Bezeichnung für alles, was weder

392

Glossar

Staat ist noch organisiertes Verbrechen. Als Folge dieser Definition werden Unternehmen, Religionsgemeinschaften, aber auch Sport und Kunst als Teil und als verantwortliche Akteure der Zivilgesellschaft verstanden.

393

Namensregister Personen A Adler, Alfred 136 Aitchison, Jean 53 Allert, Heidrun 354 Altmaier, Peter 251 Ammann, Daniel 226 Anderson, John Robert 293 Angel, Hans-Ferdinand 14, 64, 304 Anzenbacher, Arno 268 Apostolopoulos, Nicolas 54 Aristoteles 289, 290 Arkin, Ronald 192 Asimov, Isaac 279, 281 Asmussen, Michael 354 Austin, John L. 388 Auty, Richard M. 245 B Bartra, Roger 117, 379 Bateson, Gregory 85, 358 Bauer, Joachim 71, 86 Bedford-Strohm, Jonas 320 Bendel, Oliver 65 Bengio, Yoshua 44 Bentham Jeremy 284, 289 Berg van den, Elena 11 Berry, David M. 354 Bhabha, Homi 146 Biallowons, Simon 12

Bielefeldt, Heiner 275 Binder, Franziska 297 Biser, Eugen 366 Bohlken, Eike 124, 293 Bollnow, Otto Friedrich 289 Bostrom, Nick 269, 348 Böckenförde, Ernst-Wolfgang 20, 373 Brand, Lukas 176, 256 Braun, Ulrike 312 Brinkmann, Heinz-Ulrich 146 Bruch, Guido 88 Brüntrup, Godehard 358 Bucher, Eliane 204 Bude, Heinz 240 Burgis, Tom 245 Burkard, Dagmar 178, 187 Burns, James Henderson 284 C Campbell, Heidi 353 Casas de la, Bartolomé 274 Cavoukian, Ann 150, 152, 153 Charisius, Hanno 347 Chávez Hugo 244 Copray, Norbert 183, 324 Costa, Paul T. 359 Courville, Aaron 44 McCrae, Robert R. 359 Crane, Tim 289, 339

395

Namensregister

D Darwin, Charles 116, 390 Dechesne, Francien 323 Demmer, Klaus 308 De Waal, Frans 276 Dickel, Sascha 146, 278, 346, 348, 349 Dierksmeier, Claus 70, 225 Dinter, Astrid 354 Dobelli, Rolf 67 Dreier, Horst 20 Dubiel, Jochen 146 E Eberl, Ulrich 146, 148, 178, 253 Edelstein, Wolfgang 308 Eggensperger, Thomas 274 Engel, Ulrich 274 Engemann, Christoph 187, 253 Erikson, Erik Homburger 85-86 Ertel, Wolfgang 38 McEwan, Ian 340 Eysenck, Michael William 293 F Fagerjord, Anders 354 Fieseler, Christian 204 Filipovic, Alexander 320 Fink, Franziska 208, 290 Flechtner, Stephan 244 Flessner, Bernd 347 Fouroutan, Naika 146 Förstl, Hans 100 Freire, Paulo 84-85, 373 Frensch, Peter A. 293 Freud Sigmund 116, 134, 136-137, 390 Frey, Carl Benedikt 167 Friebe, Richard 347

Friedman, Batya 323 Friedrichsen, Mike 239 Fromm, Erich 85-86, 136 Fry, William R. 331 Funk, Rainer 86 Funke, Joachim 109 Fülling, Hanna 175 Fülöp, Rea 333 G Gadamer, Hans-Georg 308 Gaschler, Robert 293 Gehlen, Arnold 277 Goffman, Erving 58 Gohl, Christopher 12 Goodfellow, Ian 44 Gostomzyk, Tobias 243 Göcke, Benedikt Paul 347, 358 Gödel, Kurt 22, 378 Gölz, Paul 239 Grävemeyer, Arne 150 Grimm, Petra 174, 267 Grunwald, Armin 184 Gstrein, Oskar Josef 137 Guaidó Juan 256 H Haarmann, Harald 142 Haberer, Johanna 354-355 Habermas, Jürgen 31, 112 Hagencord, Rainer 276 Harari, Yuval Noah 345 Hartmann, Martin 153 Hawking, Stephen 38 Hayes, Steven C. 297 Heidegger, Martin 124 Heitmann, Thomas 237 Hellinger, Bert 364 Hemel, Ulrich 12, 33, 51, 53, 56, 58, 62, 63, 86, 99, 124, 152, 183, 223,

396

Personen

232, 246, 272, 289, 290, 294, 295, 296, 306, 314, 316, 325, 331, 373, 381, 382, 390, 391, 392 Hendry, David G. 323 Henning, Clarissa 174 Herder, Manuel 12 Heßler, Martina 124 Hettinger, Michael 130 Hilden, Stefan 12 Hoffmann, Christian Pieter 204 Hoffmeister, Christian 351 Hofmann, Jeanette 240 Holling, Heinz 285 Hoven van den, Jeroen 182 Hull, Raymond 76 Husserl, Edmund 318 I Indset, Anders 252 J Janackova, Kristina 11 Jaskolla, Ludwig 358 Joas, Hans 289, 293 Joisten, Karen 308 Jonas, Hans 182 Jost, Viktoria Joelle 364 Jung, Harald 169 Jung, Carl Gustav 136 K Kaess, Michael 333 Kaffka, Thomas 194 Kalweit, Holger 357 Kant, Immanuel 10, 18, 69-70, 277, 286, 341 Karberg, Sascha 347 Karuza, Jurgis 331 Keane, Mark T. 293 Keber, Tobias O. 267

Kegan, Robert 357-358 Keller, Christoph 350 Keller, Monika 308 Kepler, Johannes 115, 390 Kersting, Norbert 240 Kirchschläger, Peter 324 Koenig, Julian 333 Kohlberg, Lawrence 357 Kohler, Harald 178, 187 Kohn, Roland 239 Kolbe, Daniela 241 Kosack, Wolfgang 353 Koslowski, Dennis 214 Koslowski, Peter 23 Kozubek, James 149 Köhler, Thomas 169 König Ferdinand II. 274 Köster, Thomas 169 Kreuzkamp, Norbert 178, 187 Kron, Friedrich Wilhelm 85 Krüger, Oliver 348 Krysmann, Benjamin 354 Kukaj, Arben 12 Künast, Renate 239 Küng, Hans 275, 331, 391 Kurzweil, Ray 348 Kuschel, Karl-Josef 275, 315, 331 L Lachmann, Werner 169 Lanier, Jaron 346 Lassiwe, Benjamin 354 Lähnemann, Johannes 275 Leidlmair, Karl 363 Lehman Brothers 215 Le Maire, Bruno 251 Lem, Stanislaw 364 Lenz, Fulko 203

397

Namensregister

Levandowski, Anthony 352 Leventhal, Gerald S. 331 Liggier, Kevin 124 Lorenz, Konrad 308 Lüke, Ulrich 125, 276 Luxburg, Ulrike 241 M MacIntyre, Alasdair 289 Maduro, Nicolás 244, 256 Manemann, Jürgen 314, 354 Marcuse, Herbert 349 Margalit, Avishai 183 Margritte, René 39 Mayer-Schönberger, Viktor 132 Mead, George Herbert 100 Meier, Gernot 175 Meier-Hamidi, Frank 347 Mertens, Wolfgang 136 Misselhorn, Catrin 125, 180, 182, 191, 269, 277, 287 Moeller, Michael 208, 290 Mokry, Stephan 174 Moltmann, Jürgen 23 Moor, James H. 180-181 Mourkogiannis, Nikos 207, 290 Müller, Christian 169 Musil, Robert 30 N Nassehi, Armin 36, 91, 131, 177 Nezere, Esther 12 Nida-Rümelin, Julian 267, 282 Niethammer, Lutz 54 Nietzsche, Friedrich 19 Nissenbaum, Helen 310, 324 O Oates, Joyce Carol 94 Oehler, Johanna 12

Orwell, George 229 Osborne, Michael 167 P Pagenstecher, Cord 54 Pannenberg, Wolfhart 124 Pantke, Karl-Heinz 347 Papst Franziskus 353 Parzer, Peter 333 Peter, Laurence Johnston 76 Peters, Benedikt 256 Piaget, Jean 357 Piccone, Ted 257 Pieper, Josef 289 Pirner, Manfred 275 Poel Van de, Ibo 182 Popper, Karl Raimund 255 Pörksen, Bernhard 140 Premack, David 99, 389 Proya, Alex 282 R Ratzinger, Joseph 23 Resch, Franz 333 Rich, Marc 226 Richter, Christoph 354 Ritzi, Claudia 240 Rockefeller, John Davison 233-234 Rosenstock, Roland 354 Rosling, Hans 160 Roth, Erwin 285 Rückert, Maximilian Th. L. 174 S Said, Edward 146 Sauter, Bernd 12 Scheler, Max 267, 289 Scherer, Andreas 194 Schilling, Hans 125, 341 Schindler, Dietrich 193

398

Personen

Schlecht, Karl 12 Schlensog, Stephan 315, 331 Schmid, Josef 178, 187 Schmidhäuser, Eberhard 130 Schnier, Victoria 201 Schöler, Walter 85 Schön, Nadine 237 Schönborn, Julia 12 Schreiber, Dagmar 244 Schubert, Volker 330 Schünemann, Wolf J. 240 Schütz, Alfred 318 Searle, John 388 Simitis, Spiros 241 Simojoki, Henrik 354 Simon, Josef 39 Singer, Peter 279 Souvignier, Georg 125, 276 Speck, Peter 212 Spiekermann, Sarah 153, 267, 269 Spreen, Dirk 347 Sprenger, Florian, 187, 253 Stalder, Felix 346 Steinmüller, Wilhelm 241 Stone, Christopher D. 356 Störig, Hans Joachim 39, 142 Ströker, Elisabeth 318 Strosahl, Kirk D. 297 Sultanalieva, Nurzat 11 Sura, Ines 354 T Taleb, Nassim Nicholas 305 Thies, Christian 124, 293 Thomas von Aquin 289 Tiedemann, Paul 275 Timmermans, Jens 323 Toman, Jiří 193 Tomfeah, Anna 12

Turing, Alan Mathison 43, 359, 390 U Ulshöfer, Gotlind 313, 354 Updike, John 340 Uslucan, Haci-Halil 146 V Vaill, Peter Brown 85 Vaterrodt, Bianca 109 Vaughan, Frances 357 Vargas, Llosa Mario 54 Villhauer, Bernd 12 Vincent, Nicole A. 182 Völker, Klaus 364 W Wagner, Hermann 293 Warnier, Martijn 333 Warren, Elizabeth 236 Weidenfeld, Nathalie 267, 282 Weiland, René 124 Weimer, Hermann 85 Welker, Martin 132 Werner, Amelie 333 Whorf, Benjamin Lee 39 Wiek, Ulrich 183 Wiener, Norbert 171 Wihlenda, Michael 12 Wilhelm, Monika 313, 354 Wilson, Kelly G. 297 Winter, Chris 350 Wittgenstein, Ludwig 30 Wolpaw, Elizabeth Winter 147 Wolpaw, Jonathan 147 Woodruff, Guy 99, 389 Z Zhao, Yandong 338 Ziebertz, Hans-Georg 275 Zöllner, Oliver 174, 267

399

Namensregister

Firmen Airbus SE 252 Amazon 152, 204, 226, 236 Ancestry.de 150 Apple 152, 351 Arthur Anderson 214 AT&T 234 BASF 234 Bayer 234 BMW 238 Boston Consulting Group 11 Centerra 244 Clearview AI 148, 236 Daimler 238 Enron 214 Facebook 67, 111, 135, 136, 152, 153, 161, 204, 224, 226, 235, 236, 351 GEMA 248-249 Glencore 226 Google 53, 114, 136, 152, 153, 226, 247, 351, 352 Hoechst 234 IBM 229 iGenea 150 IG Farben 234 Instagram 24, 67, 130, 131, 161, 224, 235 LinkedIn 67 MyHeritage.de 150 Netflix 67 Pinterest 67 Snapchat 67 Southwestern Bell Corporation 234 Spotify 111, 254 Standard Oil Company 233-234

Twitter 67, 111 VG Wort 248-249 VW 238 Western Union 225 WhatsApp 13, 14, 24, 67, 135, 139, 161, 224 YouTube 65, 67, 111, 161, 353

400

Über den Autor

Foto: Hemel Foto:©©Daniel Daniel Hemel

D

Prof. Dr. Dr. Ulrich Hemel verbindet in igi ungewöhnlicher Art und Weise die Welt te der Wirtschaft und die Welt der Wissenwa schaft. Seit 2018 ist er Direktor des WeltAuswirkung ethos-Instituts in Tübingen. Seit 1996 wirkt er außerdem als Progen für uns fessor für Religionspädagogik an der Was bedeu Universität Regensburg. 2009 gründete wie eine M er das Institut für Sozialstrategie (IfS) zur Erforschung der globalen ZivilgeReligion? W sellschaft. Er ist zudem Bundesvorsitzender des Bundes Katholischer tale Arbeit u Unternehmer (BKU). Zuvor war er in verschiedenen Spitzenposimit der digi tionen der Privatwirtschaft tätig, u. a. als Vorstandsvorsitzender der Prof. Dr. Dr. Ulrich Hemel verbindet in Paul Hartmann AG und von Private Equity Unternehmen. Er ist In seinem B ungewöhnlicher Art und Weise die Mitglied der Europäischen Akademie der Wissenschaften und der Welt deraußerdem Wirtschaft und die Welt der des Public Advisory ge im Zentr Künste, stellvertretender Sprecher Wissenschaft. Seit 2018 ist er Direktor Board des CyberValley Tübingen Stuttgart. ein Werkze

Ulrich Hemel

des Weltethos-Instituts in Tübingen. Seit 1996 wirkt er außerdem als Professor für Religionspädagogik an der Universität Regensburg. 2009 gründete er das Institut für Sozialstrategie (IfS) zur Erforschung der globalen Zivilgesellschaft. Er ist zudem Bundesvorsitzender des Bundes Katholischer Unternehmer (BKU). Zuvor war er in verschiedenen Spitzenposi401 tionen der Privatwirtschaft tätig, u. a. als Vorstandsvorsitzender der Paul

Dieses Prin ist der Leits formation f für unsere Z