Demokratietheorie im Zeitalter der Frühdigitalisierung [1. Aufl.] 9783658309961, 9783658309978

Die Effekte der Digitalisierung auf die Demokratie sind vielfältig. Die Einschätzungen der Debatte fächern sich von Gefa

282 23 3MB

German Pages VIII, 352 [347] Year 2020

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Front Matter ....Pages I-VIII
Front Matter ....Pages 1-1
Die Vision der Digitaldemokratie und die Realität – Versuch über einen Dialog (Isabelle Borucki, Michael Oswald)....Pages 3-15
Demokratie und Theorie in der Frühdigitalisierung (Isabelle Borucki, Michael Oswald)....Pages 17-22
Front Matter ....Pages 149-149
Grenzenlos, frei und politisch? Öffentlichkeit unter den Bedingungen der Digitalisierung aus radikaldemokratischer Perspektive (Claudia Ritzi, Alexandra Zierold)....Pages 25-46
Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie im digitalen Zeitalter (Gizem Kaya)....Pages 47-81
Demokratischer Wandel, dissonante Öffentlichkeit und die Herausforderungen vernetzter Kommunikationsumgebungen (Curd Knüpfer, Barbara Pfetsch, Annett Heft)....Pages 83-101
Europas digitale Souveränität. Bedingungen und Herausforderungen internationaler politischer Handlungsfähigkeit (Annegret Bendiek, Jürgen Neyer)....Pages 103-125
Zur Konstitution der digitalen Gesellschaft. Alternative Infrastrukturen als Element demokratischer Digitalisierung (Sebastian Berg, Daniel Staemmler)....Pages 127-147
Front Matter ....Pages 149-149
Kapitale Konsequenzen für organisierte Interessenvertretung in Demokratien – Pierre Bourdieu, politische Organisationen und webbasierte Technologien (Jasmin Fitzpatrick)....Pages 151-175
Europas pragmatische Netzöffentlichkeit (Moritz Wiesenthal)....Pages 177-198
Front Matter ....Pages 199-199
Was bedeutet „Freiheit“ in einem sozio-technischen Kontext? (Ben Wagner)....Pages 201-218
Diskriminierungen und Verzerrungen durch Künstliche Intelligenz. Entstehung und Wirkung im gesellschaftlichen Kontext (Paul F. Langer, Jan C. Weyerer)....Pages 219-240
Demokratie und digitale Kommunikationsökonomie: Lässt sich ein Fake-News-Verbot liberal-demokratisch begründen? (Adriano Mannino)....Pages 241-256
Die Digitalisierung der Hassrede in den USA – Bedrohung oder Bestandteil der Demokratie? (Sebastian Dregger)....Pages 257-276
Political Implications of the Digital Transformation – The Role of the Democratic State in Multi-Stakeholder Internet Governance (Carolin Stötzel)....Pages 277-304
Digitale Profile, Reputation Scoring und Social Credits am Beispiel von Chinas National Credit Management System (Paul F. Langer)....Pages 305-322
Front Matter ....Pages 323-323
Digitale Disruption: Demokratietheorie im Paradigma der entgrenzten Individualkommunikation (Michael Oswald)....Pages 325-347
Back Matter ....Pages 349-352
Recommend Papers

Demokratietheorie im Zeitalter der Frühdigitalisierung [1. Aufl.]
 9783658309961, 9783658309978

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Michael Oswald Isabelle Borucki Hrsg.

Demokratietheorie im Zeitalter der Frühdigitalisierung

Demokratietheorie im Zeitalter der Frühdigitalisierung

Michael Oswald · Isabelle Borucki (Hrsg.)

Demokratietheorie im Zeitalter der Frühdigitalisierung

Hrsg. Michael Oswald Lehrstuhl für Politikwissenschaft Universität Passau Passau, Deutschland

Isabelle Borucki Institut für Politikwissenschaft Universität Duisburg-Essen Duisburg, Deutschland

ISBN 978-3-658-30996-1 ISBN 978-3-658-30997-8  (eBook) https://doi.org/10.1007/978-3-658-30997-8 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Jan Treibel Springer VS ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Vorwort

Mit dem vorliegenden Band verfolgen wir das Ziel, die vielfältigen Debatten rund um die Digitalisierung in ihrer – wie wir meinen – Frühepoche näher zu beleuchten und deutlich zu machen, worum es sich bei den jeweiligen Phänomenen eigentlich handelt und was daraus für die demokratietheoretische Beschäftigung mit digitaler Transformation resultiert. Es wäre verwegen, auch nur im Ansatz eine umfassende Antwort auf die Fragen über die Digitale Transformation liefern zu wollen; daher ist dieses Werk vielmehr als eine Momentaufnahme zu verstehen, in der die Dinge, die um uns herum in rasender Geschwindigkeit ablaufen, aus der Nähe und in Ruhe betrachtet werden, um ihre Implikationen für Demokratie, Repräsentation und Freiheit einordnen zu können. Allen Autorinnen und Autoren gilt unser herzlicher Dank, die neben ihrem Beitrag auch bereit waren, sowohl das Board- auch ein internes Peer-Review-Verfahren zu durchlaufen, was aus unserer Sicht wesentlich zur ­ Qualitätssteigerung beigetragen hat. Weiterhin möchten wir Janna Hartmann danken, die uns bei der Redaktion und der Anpassung der Beiträge tatkräftig unterstützt hat. Tatevik Tophoven-Sedrakyan hat uns bei der Endredaktion unter die Arme gegriffen. Danken möchten wir auch Karl-Rudolf Korte, der als Impulsgeber des Begriffs Frühdigitalisierung den Stand der aktuellen technologischen wie auch demokratietheoretischen Entwicklung auf den Punkt brachte. Außerdem danken wir dem CAIS in Bochum. Mit seiner überaus großzügigen Finanzierung der AutorInnentagung und personellen Förderung dieses Projekts hat das CAIS zu seinem Gelingen maßgeblich beigetragen. Passau Duisburg im Mai 2020

Michael Oswald Isabelle Borucki

V

Inhaltsverzeichnis

Einführung Die Vision der Digitaldemokratie und die Realität – Versuch über einen Dialog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Isabelle Borucki und Michael Oswald Demokratie und Theorie in der Frühdigitalisierung. . . . . . . . . . . . . . . . . . 17 Isabelle Borucki und Michael Oswald Öffentlichkeit Grenzenlos, frei und politisch? Öffentlichkeit unter den Bedingungen der Digitalisierung aus radikaldemokratischer Perspektive . . . . . . . . . . . 25 Claudia Ritzi und Alexandra Zierold Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie im digitalen Zeitalter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 Gizem Kaya Demokratischer Wandel, dissonante Öffentlichkeit und die Herausforderungen vernetzter Kommunikationsumgebungen . . . . . . . . . . . . . . . 83 Curd Knüpfer, Barbara Pfetsch und Annett Heft Europas digitale Souveränität. Bedingungen und Herausforderungen internationaler politischer Handlungsfähigkeit. . . . . . . . . . . . . . . . . . . . . . 103 Annegret Bendiek und Jürgen Neyer Zur Konstitution der digitalen Gesellschaft. Alternative Infrastrukturen als Element demokratischer Digitalisierung. . . . . . . . . . . . . . . 127 Sebastian Berg und Daniel Staemmler VII

VIII

Inhaltsverzeichnis

Akteure Kapitale Konsequenzen für organisierte Interessenvertretung in Demokratien – Pierre Bourdieu, politische Organisationen und webbasierte Technologien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 Jasmin Fitzpatrick Europas pragmatische Netzöffentlichkeit. . . . . . . . . . . . . . . . . . . . . . . . . . . 177 Moritz Wiesenthal Disruptionen in Freiheit und Demokratie Was bedeutet „Freiheit“ in einem sozio-technischen Kontext? . . . . . . . . . 201 Ben Wagner Diskriminierungen und Verzerrungen durch Künstliche Intelligenz. Entstehung und Wirkung im gesellschaftlichen Kontext . . . . . . . . . . . . . . 219 Paul F. Langer und Jan C. Weyerer Demokratie und digitale Kommunikationsökonomie: Lässt sich ein Fake-News-Verbot liberal-demokratisch begründen?. . . . . . . . . . . . . 241 Adriano Mannino Die Digitalisierung der Hassrede in den USA – Bedrohung oder Bestandteil der Demokratie?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 Sebastian Dregger Political Implications of the Digital Transformation – The Role of the Democratic State in Multi-Stakeholder Internet Governance. . . . . . . . . . 277 Carolin Stötzel Digitale Profile, Reputation Scoring und Social Credits am Beispiel von Chinas National Credit Management System. . . . . . . . . . . . . . . . . . . . 305 Paul F. Langer Fazit und Ausblick Digitale Disruption: Demokratietheorie im Paradigma der entgrenzten Individualkommunikation. . . . . . . . . . . . . . . . . . . . . . . . . 325 Michael Oswald AutorInnenverzeichnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349

Einführung

Die Vision der Digitaldemokratie und die Realität – Versuch über einen Dialog Isabelle Borucki und Michael Oswald

1 Die Digitale Transformation In den 1990er Jahren brach mit dem breiten Zugang zum Internet eine neue Zeit individueller Kommunikation an, die in der Politikwissenschaft als Chance für Empowerment, politische Teilhabe und direkte Demokratie diskutiert wurde. Dreißig Jahre später ist der Begriff der Digitalisierung omnipräsent. Seine mannigfaltigen Bedeutungen erschwert dabei den wissenschaftlichen Diskurs, in der englischsprachigen Literatur wird dieser jedoch weitergehend differenziert in ‚Digitization‘, ‚Digitalization‘ und ‚Digital Transformation‘ (Mergel et al. 2019; Brennen 2014). Nach Mergel und Kollegen (2019, S. 12), verstehen wir ‚Digitization‘ als die technische Übersetzung analoger Signale in digitale, was eine Veränderung des Kanals und damit auch der Technologie zur Folge hat. Diese Dimension ist jedoch in erster Linie technisch und wenig politisch oder gar normativ. Unter ‚Digitalization‘ ist die Veränderung von Prozessen zu verstehen, die durch Digitalisierung herbeigeführt wird. ‚Digitale Transformation‘ schließlich beinhaltet die Implikationen der Digitalisierung auf die kulturelle, gesellschaftliche, politische, organisationale und letztlich relationale Ebene. Dies ist jener umfassende Begriff, der im Titel des vorliegenden Werkes die Bedeutung der Digitalisierung trägt. Entsprechend wollen wir uns im Folgenden der Frage

I. Borucki (*)  NRW School of Governance, Universität Düsseldorf, Düsseldorf, Deutschland E-Mail: [email protected] M. Oswald  Lehrstuhl für Politikwissenschaft, Universität Passau, Passau, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_1

3

4

I. Borucki und M. Oswald

widmen, wie sich Demokratie und digitale Transformation zueinander verhalten, welche Probleme, aber auch welche Gewinne denkbar bzw. bereits eingetreten sind, wenn wir davon ausgehen, dass die digitale Transformation dem Begriff nach ein sowohl omnipräsentes als auch fortwährendes Phänomen ist, das nicht einfach als unabhängige Variable an den Anfang eines monokausalen Zusammenhangs gestellt werden kann, will man nicht die Kontextualisierung und Einbettung eben jenes Prozesses verlieren. Hierzu ist die Definition der digitalen Konstellation hilfreich, welche technologische Eigenschaften, Affordanzen1 und politischen Formwandel umfasst (Berg et al. 2020). Daraus resultiert für unseren Kontext eine Orientierung an relational zu sehenden Beziehungen und Interaktionen. Um das Verhältnis von Demokratie und Digitalisierung eingehender zu betrachten, gehen wir im Folgenden auf drei klassische demokratietheoretische Stränge ein: Den Liberalismus, Kommunitarismus und Republikanismus. Zunächst erörtern wir, wie diese Theorien zu unserer Fragestellung sprechen, welche Erkenntnisse daraus gezogen werden können und hinterfragen, ob die vorhandenen Theorien im Kontext der Digitalen Transformation noch für uns entschlussfähig sind, um das zu erfassen, was wir unter diesem Prozess verstehen. Die inhaltliche Unterteilung des Bandes erklärt sich aus einem Theorie-EmpirieDialog entlang zentraler Begrifflichkeiten wie Öffentlichkeit, Akteuren sowie Disruptionen in Freiheit und Demokratie. Die grundlegende Idee für den vorliegenden Band ist, dass es sich bei der Digitalen Transformation um einen nicht weniger revolutionären Umbruch handelt als den Wandel mit der Erfindung des Buchdrucks und der damit verbundenen Alphabetisierung. Mit Marshall McLuhan (1962) teilen wir die Annahme, dass das elektronische Zeitalter, in dem wir uns nun befinden ‚nur weniger verwirrend‘ für uns sein wird als eben jene Erfindungen des Mittelalters, die eine massenhafte Verbreitung von Druckerzeugnissen und andere, alternative Übersetzungen der Bibel ermöglichten und letztlich zur Aufklärung und der Prägung unserer heutigen westlichen Gesellschaften führte (vgl. hierzu Oswald 2018 und Oswald in diesem Band). Dieses aufklärerische Projekt und seine Idee – sapere aude (Kant 1784) – sind allerdings durch das Aufkommen der massenhaften digitalisierten Kommunikations- und Interaktionsmöglichkeiten in Bedrängnis geraten. Denn, wie wir inzwischen wissen, ist das Internet alles, nur nicht per se demokratisch.

1Darunter

verstehen die Autoren eine „Beziehungsstruktur zwischen einem technischen Artefakt und dessen NutzerIn […], welche in einer konkreten Situation potentielle Handlungsergebnisse ermöglicht oder beschränkt“ (Berg et al. 2020, o. S.).

Die Vision der Digitaldemokratie und die Realität …

5

2 Demokratie als dynamisches Projekt Die Digitalisierung hat lange Zeit für viel Optimismus und die Erwartung einer qualitativ verbesserten Demokratie gesorgt. Bereits in den 1970er und 1980er Jahren entstanden im Umfeld des Silicon Valley erste visionäre Vorstellungen einer neuen Form anarchischer Demokratie, die ohne Staaten, Nationalismen und Herrschaftssystem auskommen könnte (Grossman 1995; Rheingold 1993). Die neuen technischen Möglichkeiten der umfassenden Bereitstellung von Informationen zu niedrigen Kosten weckten noch bis zur Jahrtausendwende Erwartungen an eine umfassend informierte und aktive Bürgerschaft. In der Tat korrespondierte die Entstehung eines breit zugänglichen Internets mit den Ideen der ‚starken Demokratie‘, wie sie sich Benjamin Barber (2004 [1984]) vorstellte. Jene partizipatorische Demokratie, in der die direkte Bürgermitwirkung die Conditio sine qua non ist, sollte auf maximale Inputorientierung ausgerichtet sein. Die sollte nicht nur ein Höchstmaß an bürgerlicher politischer Partizipation gewährleisten, sondern auch das Konzept der Bürgerschaft revitalisieren. Die allgemeine und freie Zugänglichkeit von politischer Information, die Lancierung elektronischer Abstimmungsverfahren auf dem Fundament einer ‚neuen Architektur des öffentlichen Raumes‘ sind bereits Elemente, für die das Internet prädestiniert ist. Nicht zuletzt aufgrund derlei idealistischer Vorstellungen standen die ‚neuen‘ Medien schnell im Lichte einer Renaissance der Agora. Ihnen wurde sogar die Bezeichnung ‚E-gora‘ zuteil, da sie als Medium des freien, individuellen Meinungs- und Ideenaustauschs angepriesen wurden (Gellner und Strohmeier 2002; Poster 1997). Mit dem Aufstieg der sozialen Medien in den Nullerjahren wurden diese Hoffnungen weiter befeuert und mit der Idee transnational aktiver Bürger ergänzt, die Nachrichten nicht bloß konsumierten, sondern zu Prosumenten würden und wurden (Bruns 2008; vgl. Toffler 1980).2 Hinzu kam die Hoffnung, dass Bürger im Rahmen kontinuierlicher Abstimmungsprozesse neu in politische Meinungsbildungs- und Politikformulierungsprozesse eingebunden werden und dass die als überholt angesehene Trennung zwischen Staat und Gesellschaft entweder weiter durchlässig oder letztlich vielleicht sogar ganz überwunden werden könnte. Staatliches Handeln würde durch die online-Bereitstellung von Dienstleistungen und Sachinformationen gläsern und damit bürgernäher, transparenter und responsiver werden können.

2Der

Begriff des Prosumenten stammt ursprünglich von Alvin Toffler (1980), der von Bruns mit dem Kofferwort des „Produser“ an die Social Media angepasst wurde.

6

I. Borucki und M. Oswald

Von dem Optimismus über die positiven Effekte des Internets sind die Theorien und eine Riege an enthusiastischen Netz-Aktivisten geblieben. Und obgleich heute durch die demokratietheoretischen Lager der Skeptizismus und die Befürchtung überwiegen, dass grundlegende Bausteine der Demokratie abgeräumt und eine neue Form der staatlich-privatwirtschaftlichen Manipulation von Bürgern und Öffentlichkeit Einzug halten könnte, wurde der Gedanke der digitalen Agora noch lange nicht beerdigt (Bradshaw und Howard 2017; Thieltges und Hegelich 2017). Die demokratietheoretische Debatte zu dieser Frage ist maßgeblich von drei großen Theoriesträngen geprägt: Dem Liberalismus, Kommunitarismus und radikaldemokratisch-deliberativen Diskursmodellen. Durch entsprechende Erkenntnisse wurde bereits die Common-Sense-Vermutung verworfen, dass sich frei verfügbare Information positiv auf Wissensstände auswirkt. Iyengar und Hahn (2009) stießen sogar bereits vor über zehn Jahren auf die beunruhigenden Hinweise, dass ein intensiver Online-Nachrichten-Konsum politische Horizonte eher verengt als erweitert (vgl. hierzu auch Sunstein 2001). Dies ist jedoch nicht gleichzusetzen mit der nahezu mythenhaften Verbreitung der Phänomene von Echokammern oder Filterblasen, die inzwischen hinsichtlich ihrer empirischen Evidenz teilweise als weniger wirkmächtig gelten können (Dubois und Blank 2018; Stark et al. 2019). Es handelt sich demnach weniger um Blasen, als vielmehr um einen Medientenor. Im Zuge der massiven Verbreitung digitaler Kommunikationsmittel im Rahmen der Frühdigitalisierung in ihrer ersten Ausprägung wurde die euphorische Prognose der digitalen Renaissance der Agora allerdings bislang eher zu einer ernüchternden Realität: Im Hinblick auf die klassischen Funktionen von Massenmedien repräsentieren anarchisch-individualistisch organisierte Plattformen und Foren transnationaler Megakonzerne demokratische Prinzipien wie Zugänglichkeit, Responsivität, Repräsentation und Transparenz nur unzureichend (vgl. Gellner 1995). Nicht selten agieren sie aus eigenen Beweggründen und übertragen dabei eine überlagernde Ideologie. Dies hemmt die Erfüllung des intermediären Auftrags, denn während klassische Nachrichten-Portale zumeist relativ ausgeglichen berichten, divergieren die Angebote im Internet mitunter stark von dieser angestrebten Neutralität, vor allem da sie nahezu kontroll- und herrschaftsfrei sind. Im anarchischen Onlinemediensystem gehen so mitunter sowohl die institutionalisierte Kontrolle als auch die Selbstkontrolle verloren (Oswald 2018; Entman 2010; Usher et al. 2018). Dies hat wert- und ideologiebehaftete – oder gar verfälschte – Darstellungen von Sachverhalten zur Folge, die

Die Vision der Digitaldemokratie und die Realität …

7

mit einem Medien-Bias – wie wir ihn auch in den etablierten Medien bisweilen antreffen – nur noch unzutreffend zu beschreiben sind. Insgesamt verschiebt sich mit den schier unendlichen Möglichkeiten der Kommunikation und Interaktion über Plattformmedien die Frage der politischen Herrschaft, denn schließlich sind wir zum ersten Mal an einem Punkt der Geschichte westlicher Regierungssysteme angelangt, an welchem eine direkte Demokratie zumindest strukturell möglich wäre. Gleichzeitig könnte die Frage gestellt werden, ob unsere derzeitigen demokratischen Systeme überhaupt in der Lage sind, mit den Veränderungen durch die digitale Transformation umzugehen. Unsere demokratischen Systeme sind schließlich auf der Idee und der Funktionslogik des Nationalstaats begründet, die Digitalisierung und ihre Effekte scheinen diese Strukturen jedoch vermehrt herauszufordern. Im Folgenden werden in diesem Kontext die genannten Theorietraditionen als Hintergrundfolie für diesen Band aufgespannt.

2.1 Liberalismus und das Projekt der offenen Gesellschaft Liberale Demokratietheorien sind eng mit der Popper’schen Idee der offenen Gesellschaft verbunden (Popper 2003 [1957]). Sie basieren auf dem Grundgedanken, dass staatliche Handlungskompetenzen auf ein Mindestmaß beschränkt sein sollten und dass Bürger eigenständig in der Lage sind, sich zu informieren und ihre Anliegen in politisches Handeln zu überführen. Märkte sollten sowohl relativ frei als auch unabhängig von staatlicher Regulierung sein und könnten so immer effizienter und damit dem Gemeinwohl zuträglicher funktionieren. Die politische Praxis der entstehenden digitalen Gesellschaft hat hier weitreichende Probleme aufgezeigt. Die neuen Sicherheitsbedrohungen durch den Terrorismus und befürchtete Angriffe auf kritische Infrastrukturen (also die Hardware des Internets) haben in den letzten Jahren zu einem Ausbau staatlicher Handlungskompetenzen geführt (Löblich und Musiani 2014). Die Snowden-Enthüllungen haben gezeigt, dass die nationalen Sicherheitsdienste ihren Auftrag zunehmend expansiv interpretieren und auch vor illegalen Eingriffen in den Datenschutz nicht zurückschrecken. In fast allen Staaten lässt sich ein Ausbau von Instrumenten beobachten, die Überwachungsmöglichkeiten ausdehnen und die Grenze zwischen Staat und Privatheit nachdrücklich zugunsten des Staates verschieben (vgl. Borucki und Schünemann 2019). Auch

8

I. Borucki und M. Oswald

die Hoffnungen auf freie Märkte haben sich angesichts des internationalen Finanzkollaps von 2007/8 so nicht bewahrheitet. Der Aufstieg von GAFA (Google, Amazon, Facebook und Apple) zu transnationalen Megakonzernen zeigt vielmehr, das digitale Märkte zu Lock-In Effekten und zur Konzentration von Marktmacht in den Händen weniger Konzerne tendieren. Hier könnte argumentiert werden, dass ein solches asymmetrisches und konzentriertes Marktgeschehen der grundlegenden Idee einer freien Gesellschaft widerspricht, wenn man bedenkt, dass nicht profit-orientierte Alternativen von Social Media gerade einen Bruchteil der Beliebtheit kommerzieller Angebote erfahren.3 Der Ausbau staatlicher Handlungskompetenzen und privater Konzentrationsprozesse verstärkt sich sogar wechselseitig. In vielen Fällen greifen staatliche Sicherheitsdienste auf die Datenbestände privater Konzerne zu oder versuchen dies zumindest. An ihre Grenze gelangen staatliche Akteure dabei schnell, wie das Beispiel des Attentäters von San Bernardino in den USA zeigt, bei welcher sich Apple weigerte, dessen iPhone zu entsperren4 oder auch die Ablehnung von Facebook gegenüber Regulations- und Zugriffsbestrebungen der Nationalstaaten. Im Ergebnis, so die Befürchtung, entsteht hier ein neuer staatlichprivater Komplex, der in Teilen im Widerspruch sowohl zu gesatztem Recht als auch zu dem Versprechen der offenen Gesellschaft steht.

2.2 Kommunitarismus und die bedrohte Gemeinschaft Wo liberale Demokratietheorien Hoffnungen auf die offene Gesellschaft setzen, betonen kommunitaristische Demokratietheorien die Notwendigkeit politischer Gemeinschaft. Ein über die Zeit gewachsenes normatives Fundament geteilter Werte und ethischer Grundüberzeugungen gilt als Vorbedingung dafür, dass anspruchsvolle Entscheidungsverfahren wie die Mehrheitsabstimmung und substantielle Politiken wie sozialer Ausgleich überhaupt erst umgesetzt werden können. Nur in einer Gemeinschaft, die auf dieser Basis ein Zusammengehörigkeitsgefühl entwickelt und sich als „Kommunikations-, Erfahrungs- und Erinnerungsgemeinschaft“ (Kielmannsegg 2003) versteht, kann eine Form von ‚starker Demokratie‘ (Barber 2004 [1984]) überhaupt existieren.

3Vgl.

hierzu den Beitrag von Berg und Staemmler in diesem Band. von Regierungsbehörden konnten das Handy schließlich selbst entsperren.

4Experten

Die Vision der Digitaldemokratie und die Realität …

9

Ähnlich wie liberale Demokratietheorien sind kommunitaristische Theorien durch die Digitalisierung mit einer grundlegenden Herausforderung konfrontiert. Schon vor über zwanzig Jahren diagnostizierte Manuell Castells, dass sich moderne Gesellschaften in einen „space of flows“ und einen „space of places“ aufspalteten (Castells 2007, 2008; Castells und Cardoso 2006). Während die gut ausgebildeten Symbolanalytiker (Reich 2010) überall auf der Welt arbeiten könnten und eine transnational vernetzte gemeinsame soziale Gruppe bildeten, würden immer mehr Menschen auch digital abgehängt und bildeten zunehmend sozio-ökonomisch und kulturell marginalisierte Gruppen an peripheren Orten (Ebo 1998; Lutz et al. 2015). Die verschiedenen ‚digital divides‘ (Schradie 2018; Hoffmann und Lutz 2019) zeigen dabei eine starke Verknüpfung klassischer sozio-demografischer Benachteiligung und digitaler Diskriminierung bzw. Selbst-Exklusion sowie steigender populistischer Neigung auf (Momoc 2018). Die Proteste der ‚Gilets jaunes‘ in Frankreich bringen diese Spaltung ebenso deutlich zum Ausdruck wie viele Trump-Wähler im US-amerikanischen ‚Rust Belt‘ oder auch weite Teile der populistischen Bewegungen in ganz Europa (Block und Negrine 2017; De Blasio und Sorice 2018; Momoc 2018). Die Digitalisierung lässt sich in dieser Perspektive als eine gesellschaftsdisruptive Kraft interpretieren (Oswald 2018), die die „imagined community“ des Nationalstaates (Anderson 1983) zerreißt und an ihrer Stelle transnationale „communities of practice“ (Stalder 2016) befördert. Spätestens seit ‚Bowling Alone‘ (Putnam 2000) wird zudem die These weitläufig vertreten, dass soziale Netzwerke aufgrund einer neuen Form von Freizeitverhalten zerfallen. Für die starke und auf bürgerschaftlichem Gemeinsinn aufbauende Demokratie ist dieser Prozess verheerend. Er droht den Zusammenhalt der Gesellschaften zu unterminieren, ohne an seine Stelle eine neue funktional äquivalente Konfiguration zu stellen. Hierfür finden sich in radikaldemokratischen Theorien alternative Vorschläge, zu denen neben den agonistischen (Mouffe) und autonomen (Marx) auch der Theoriestrang deliberativer Theorien (Habermas) zu zählen ist.

2.3 Deliberativer Republikanismus: diskursive Verständigung, öffentlicher Vernunftgebrauch Deliberative republikanische Demokratietheorien sind eng, aber nicht nur, mit dem Namen Jürgen Habermas verknüpft. Sie basieren auf der Idee eines herrschaftsfreien Diskurses, der von sich als gleich anerkennenden Rechtsgenossen in den Verfahren der repräsentativen Demokratie geführt wird. Der demokratische Rechtsstaat steht hier für eine institutionelle Konfiguration, in der

10

I. Borucki und M. Oswald

Bürger den öffentlichen Vernunftgebrauch pflegen, ihre partikularen Weltsichten argumentativ zur Disposition stellen und in der das majoritäre Verfahren idealiter nur noch als Instrument der Autorisierung eines öffentlichen Prozesses der Identifikation des besten Argumentes dient (Habermas 1990, 2008; Preyer 2018). Auch das deliberativ-republikanische Demokratiemodell ist mit gravierenden Problemen mit der konzeptionellen Verarbeitung der Digitalisierung konfrontiert. Wenn Filterblasen, Echo-Kammern, Desinformation und die Manipulation des öffentlichen Raumes durch strategisch handelnde Akteure wirklich zu einem zentralen Element von Öffentlichkeit geworden sind und sich dadurch fragmentierte und polarisierte Teil-Öffentlichkeiten herausbilden, dann steht die (kontrafaktische) Annahme eines herrschaftsfreien Diskurses auf offensichtlich wackeligen Füßen (Bernhardt et al. 2008; Prior 2013). Wie lässt sich noch an den zwanglosen Zwang des besseren Argumentes glauben, wenn sich zwischen wahren und falschen Aussagen kaum noch unterscheiden lässt und immer mehr Menschen davon ausgehen, dass Wahrheit ein Begriff ist, der von dem jeweiligen Standpunkt und der jeweiligen Interessenslage abhängt? Dies zeigt sich eindrucksvoll am Diskurs rund um den Klimawandel und die Corona-Pandemie. Auch die hohe Marktmacht von Google, Facebook und anderen Bereitstellern von Informationen und die hiermit einhergehende faktische Privatisierung kommunikativer Infrastrukturen ist alles andere als einem herrschaftsfreien Diskurs zuträglich.

3 Versuche der Rekonzeptualisierung von Demokratie Die Autoren dieses Bandes beschränken sich nicht auf die Beschreibung von Defekten der Demokratie, sondern setzen sich in einem zweiten Schritt mit Versuchen der Rekonstruktion digitaler Demokratie und letztlich auch einer Weiterentwicklung auseinander. Welche Ansätze finden sich in der neuen Literatur, die Chancen und Herausforderungen der digitalen Revolution gleichermaßen zur Kenntnis zu nehmen, um hierauf aufbauend ein neues Verständnis digitaler Demokratie zu denken? Hier wird sowohl auf neuere theoretische Ansätze über die drei geschilderten Perspektiven hinaus (Dahlberg 2011; Fung et al. 2013), als auch auf die Einbindung nationaler demokratischer Strukturen in europäische und internationale Meinungsbildungs- und Normsetzungsprozesse einzugehen sein. Denn gerade im Feld der so genannten radikalen Demokratietheorien werden verschiedene Vorschläge diskutiert. Diese reichen vom Schutz der ‚Kommunikationsrechte‘ Einzelner (liberal-individualistisches Modell), zur Beschaffung und Entwicklung von formalen sowie informellen

Die Vision der Digitaldemokratie und die Realität …

11

Online-Beratungsräume (deliberatives Modell), zur Ermutigung der direkten Anfechtung der staatlichen und kapitalistischen Herrschaft (Modell der Gegenöffentlichkeiten), und zuletzt an die Förderung von Vernetzungsformen, die radikal an staatlichen und kapitalistischen Systemen rüttelt (autonomes Modell) (Dahlberg 2011, S. 867). Wie ändert sich das Bild digitaler Demokratie, wenn wir den nationalen Kontext verlassen und Prozesse europäischen und internationalen Regierens mit einbeziehen? Stellt die Digitalisierung vielleicht gleichzeitig eine Bedrohung nationaler demokratischer Strukturen und eine Chance für europäische Interessenvermittlungsprozesse dar? Lässt sich im Kontext des digitalen Zusammenwachsens der Welt überhaupt noch sinnvoll von nationalen Demokratien sprechen oder haben sich wesentliche Prozesse im Bereich der Sicherheits- und der Kommunikations(infrastruktur)politik nicht schon längst auf staatsübergreifende Kontexte verlagert? Generell, so lässt sich festhalten, gibt es durch die digitale Transformation viele Veränderungen, die aber eher auf einer graduellen Ebene wirken und zunächst in ihren Konsequenzen marginal bleiben. Denn, diese Annahme kann man vorwegstellen: Empowerment der Massen und Information aller als demokratisches Ideal können so in keiner bisherigen Inkarnation des Internets eingelöst werden. Vielmehr werden die neuen Errungenschaften und ihre Möglichkeiten in alte Strukturen gepresst, die sich als deutlich widriger zeigen, als jedes Prokrustesbett. Was wir aus der klassischen Demokratietheorie lernen können, ist ihre gut funktionierende Sprache, die auch heutzutage in der Lage ist, Problemgebiete und Fragestellungen zu adressieren und dabei die Digitale Transformation einzubinden. Politische und gesellschaftliche Öffentlichkeit ist nicht erst mit dem Aufkommen des Internets bedroht, das war sie schon von jeher. Ebenso ist Freiheit als ein grundlegender Wert nicht erst seit der Digitalisierung umkämpft – er ist es zunehmend. Durch Digitalisierung und die damit verbundenen Technologien und damit eröffnete Affordanzen eröffnet sich gerade für autokratische Systeme ein nicht zu übersehendes Gelegenheitsfenster. Große Herausforderungen liegen in der Frage, wie wir mit solch disruptiven Phänomenen und negativen Erscheinungsformen einer digitalisierten Demokratie umgehen wollen. Namentlich sind dies die Fragen der Diskriminierung und möglichen Selbstautonomisierung von künstlicher Intelligenz (KI), die umfassende Akzeptanz und Hinnahme von Hatespeech, aber auch die Neu- und Umverteilung von Gestaltungsmacht in der Demokratie zugunsten digitaler Öffentlichkeitsunternehmen (etwa die großen vier Internetkonzerne Google/Alphabet, Amazon, Facebook und Apple), denen der Staat als Gegenspieler in Demokratien wenig entgegenzusetzen hat – in Autokratien und generell autoritären Gesellschaften

12

I. Borucki und M. Oswald

aber umso mehr, die sich der digitalen Technologien in einer Absicht bedienen, welche auf die umfassende Überwachung, Kontrolle und Beeinflussung von Menschen abzielt (Tucker et al. 2017). Daneben ist nicht klar, ob wir es mit einer allgemeinen Krise des Liberalismus und des liberalen Weltbildes als Role-Model zu tun haben oder ob die Digitalisierung als beeinflussende Größe von Veränderungen gesehen werden kann und muss. Denn grundlegend sind mit all den genannten Veränderungen und Disruptionen das humanistische Weltbild und die damit verbundenen Freiheitsrechte gefährdet. Dass digitale Transformation einen massiven Einfluss auch als soziale Praxis im Prozess ausübt, kann angenommen werden, muss aber noch näher untersucht werden. Welche Folgen all diese Veränderungen in theoretischer wie auch empirischer Hinsicht zeitigen werden, orientieren wir in diesem Band an den Begriffen der Öffentlichkeit, der Akteure sowie der Disruptionen in Freiheit und Demokratie. Diese Auflistung ist nicht vollständig, sie zielt aber darauf ab, diese Felder sowohl theoretisch als auch empirisch zu erschließen und damit Möglichkeiten aufzuzeigen, wie und auf welche Weisen sich demokratische Systeme und Entscheidungsprozesse durch digitale Transformation verändern. Denn wir haben bisher gesehen, dass die Annahmen von Ermächtigung und umfassender Information nur teilweise oder gar nicht durch digitale Technologie eingelöst werden. Mit diesem Band bezwecken wir, einen Vorstoß in eine demokratietheoretische Orientierung zu leisten, der aufzeigt, welche neuen Ansätze die Verbindung von Demokratie und Technologie behandeln. Dabei entsteht keine neue Digitalisierungstheorie; aber die Vorstellung, dass neue Dinge in alte Strukturen gepresst werden könnten, sollten wir hinter uns lassen.

Literatur- und Quellenverzeichnis Anderson, Benedict. 1983. Imagined communities: Reflections on the origin and spread of nationalism. London: Verso. Barber, Benjamin. 2004. Strong Democracy. Which technology and which democracy? In Democracy and the New Media, Hrsg. Henry Jenkins und David Thorburn. London: MIT Press (Erstveröffentlichung 1984). Berg, Sebastian, Niklas Rakowski, und Thorsten Thiel. 2020. Die digitale Konstellation. Eine Positionsbestimmung. Zeitschrift für Politikwissenschaft. OnlineFirst. https://doi. org/10.1007/s41358-020-00207-6.

Die Vision der Digitaldemokratie und die Realität …

13

Bernhardt, Dan, Stefan Krasa, und Polborn Mattias. 2008. Journal of public economics polborn. Political polarization and the electoral effects of media bias 92 (5–6): 1092– 1104. Block, Elena, und Ralph M. Negrine. 2017. The populist communication style: Toward a critical framework. International Journal of Communication 11: 178–197. Borucki, I., und W.J. Schünemann. 2019. Internet und Staat Perspektiven auf eine komplizierte Beziehung. Baden-Baden: Nomos Verlagsgesellschaft. Bradshaw, Samantha, und Philip J. Howard. 2017. Troops, trolls and troublemakers: A global inventory of organized social media manipulation. Computational Propaganda Research Project, Working Paper 2017. 12, Oxford: Oxford Internet Institute. Brennen, J. S., und D. Kreiss 2016. Digitalization. In The International Encyclopedia of Communication Theory and Philosophy, 1–11. American Cancer Society. https://doi. org/10.1002/9781118766804.wbiect111 Bruns, Axel. 2008. Blogs, Wikipedia, Second Life, and Beyond: From Production to Produsage. New York: Peter Lang. Castells, Manuel. 2007. Communication, power and counter-power in the network society. International Journal of Communication 1: 1. Castells, Manuel. 2008. The new public sphere: global civil society, communication networks, and global governance. The ANNALS of the American Academy of Political and Social Science 616 (1): 78–93. https://doi.org/10.1177/0002716207311877. Castells, Manuel, und Gustavo Cardoso. 2006. The network society: From knowledge to policy. Washington: Center for Transatlantic Relations, Paul H. Nitze School of Advanced International Studies, Johns Hopkins University. Dahlberg, Lincoln. 2011. Re-constructing digital democracy: An outline of four ‚positions‘. New Media & Society 13 (6): 855–872. https://doi.org/10.1177/1461444810389569. De Blasio, E., und M. Sorice. 2018. Populism between direct democracy and the technological myth. Palgrave Communications 4. https://doi.org/UNSP 1510.1057/s41599018-0067-y. Dubois, E., und G. Blank. 2018. The echo chamber is overstated: The moderating effect of political interest and diverse media. Information, Communication & Society 21 (5): 729–745. https://doi.org/10.1080/1369118x.2018.1428656. Ebo, Bosah Louis. 1998. Cyberghetto or cybertopia? Race, class, and gender on the Internet. In Non-Series. Westport: Praeger. Entman, Robert M. 2010. Media framing biases and political power: Explaining slant in news of campaign 2008. Journalism 11 (4): 389–408. Fung, Archon, Hollie Russon Gilman, und Jennifer Shkabatur. 2013. Six models for the internet + politics. International Studies Review 15 (1): 30–47. https://doi.org/10.1111/ misr.12028. Gellner, Winand. 1995. Medien und Parteien: Grundmuster Politischer Kommunikation. In Umbruch und Wandel in westeuropäischen Parteiensystemen, Hrsg. Winand Gellner und J.H. Veen, 17–33. Frankfurt a. M.: Lang. Gellner, Winand, und Gerd Strohmeier. 2002. Cyber-Kampagnen. In Wahl-Kämpfe, Bd. 2264, Hrsg. Andreas Dörner und Ludgera Vogt, 164–186. Frankfurt a. M.: Suhrkamp.

14

I. Borucki und M. Oswald

Grossman, Lawrence K. 1995. The electronic republic: Reshaping democracy in the information age. New York: Viking. Habermas, Jürgen. 1990. Strukturwandel der Öffentlichkeit: Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft, 1. Aufl., unveränd. Nachdr. der zuerst 1962 im Luchterhand-Verl. ersch. Ausg., erg. um ein Vorw. Aufl. Frankfurt a. M.: Suhrkamp. Habermas, Jürgen. 2008. Hat die Demokratie noch eine epistemische Dimension? Empirische Forschung und normative Theorie. In Ach, Europa, Bd. 2551, Hrsg. Jürgen Habermas, 138–191. Frankfurt a. M.: Suhrkamp. Hoffmann, C.P., und C. Lutz 2019. Digital divides in political participation: The mediating role of social media self-efficacy and privacy concerns. Policy & Internet 0 (0): poi3.225. https://doi.org/10.1002/poi3.225. Iyengar, Shanto, und Kyu S. Hahn. 2009. Red media, blue media: Evidence of ideological selectivity in media use. Journal of Communication 59 (1): 19–39. https://doi. org/10.1111/j.1460-2466.2008.01402.x. Kant, I. 1784. Beantwortung der Frage: Was ist Aufklärung? Berlinische Monatsschrift 12 (4): 481–494. Kielmannsegg, Peter Graf. 2003. Integration und Demokratie. In Europäische Integration, 2. Aufl., Hrsg. Markus Jachtenfuchs und Beate Kohler-Koch, 49–84. Opladen: Leske + Budrich. Löblich, Maria, und Francesca Musiani. 2014. Net neutrality and communication research the implications of internet infrastructure for the public sphere. Annals of the International Communication Association 38 (1): 339–367. https://doi.org/10.1080/238089 85.2014.11679167. Lutz, Christoph, Miriam Meckel, und Anabel Quan-Haase. 2015. Online but still not taking part? investigating online participation divides in Germany. St. Gallen. McLuhan, M. 1962. The Gutenberg Galaxy: The Making of Typographic Man. University of Toronto Press. Momoc, A. 2018. Populism 2.0, digital democracy and the new ‘enemies of the people’. Communication Today 9 (1): 58–76. Mergel, I., N. Edelmann und N. Haug 2019. Defining digital transformation: Results from expert interviews. Government Information Quarterly. https://doi.org/10.1016/j. giq.2019.06.002 Oswald, M. 2018. Strategische Politische Kommunikation im digitalen Wandel – ein disruptives Zeitalter. In Strategische Politische Kommunikation im digitalen Wandel. Interdisziplinäre Perspektiven auf ein dynamisches Forschungsfeld, Hrsg. Michael Oswald und Michael Johann, 7–35. Wiesbaden: Springer VS. Popper, K.R. 2003. Die offene Gesellschaft und ihre Feinde, 8. Aufl. Tübingen: Mohr Siebeck. Poster, Mark. 1997. Cyberdemocracy: Internet and the public sphere. In Internet culture, Hrsg. David Porter, 201–218. Routledge: New York. Preyer, Gerhard. 2018. Soziologische Theorie der Gegenwartsgesellschaft II: Lebenswelt – System – Gesellschaft, 2. Aufl. Wiesbaden: Springer VS. Prior, Markus. 2013. Media and political polarization. Annual Review of Political Science 16: 101–127. Putnam, R.D. 2000. Bowling alone: The collapse and revival of American community. https://books.google.de/books?id=rd2ibodep7UC.

Die Vision der Digitaldemokratie und die Realität …

15

Reich, Zvi. 2010. Measuring the impact of pr on published news in increasingly fragmented news environments – A multifaceted approach. Journalism Studies 11 (6): 799–816. Rheingold, Howard. 1993. Virtual community: Homesteading on the electronic frontier. Reading: Addison-Wesley. Schradie, Jen. 2018. The digital activism gap: How class and costs shape online collective action. Social Problems 65 (1): 51–74. https://doi.org/10.1093/socpro/spx042. Stalder, Felix. 2016. Kultur der Digitalität. Berlin: Suhrkamp Verlag. Stark, B., M. Magin, und P. Jürgens. 2019. Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern. In Digitaler Strukturwandel der Öffentlichkeit: Historische Verortung, Modelle und Konsequenzen, Hrsg. M. Eisenegger, R. Blum, P. Ettinger, und M. Prinzing.  Wiesbaden: Springer VS. https://doi.org/10.13195/j.kzyjc.2019.0382. Sunstein, Cass R. 2001. republic.com, 1. Aufl. Princeton: Princeton University Press. Thieltges, Andree, und Simon Hegelich. 2017. Manipulation in sozialen Netzwerken. Zeitschrift für Politik 64 (4): 493–512. https://doi.org/10.5771/0044-3360-2017-4-493. Toffler, A. 1980. The third wave: The corporate identity crisis. Management Review 69(5): 8–17. Tucker, J.A., Y. Theocharis, M.E. Roberts, und P. Barberá. 2017. From liberation to turmoil: Social media and democracy. Journal of Democracy 4: 46–59. Usher, Nikki, Jesse Holcomb, und Justin Littman. 2018. Twitter makes it worse: Political journalists, gendered echo chambers, and the amplification of gender bias. The International Journal of Press/Politics 23 (3): 324–344. https://doi. org/10.1177/1940161218781254.

Demokratie und Theorie in der Frühdigitalisierung Isabelle Borucki und Michael Oswald

Im Folgenden geben die HerausgeberInnen einen kurzen Überblick über die Beiträge des Bandes. Mit der Einleitung versuchen Isabelle Borucki und Michael Oswald, eine leitende Grundlage und Einbettung für die verbleibenden Kapitel dieses Bandes zu legen. Im Kontext des Zeitalters der Frühdigitalisierung wird hier versucht, auf Fragen von der Entwicklung der Öffentlichkeit, der Belastbarkeit von Theorien bis hin zur Begründung eines Verbotes der Fake News, eine Antwort zu geben. Claudia Ritzi und Alexandra Zierold beleuchten den Themenkomplex der Öffentlichkeit unter den Bedingungen der Digitalisierung aus radikaldemokratischer Perspektive. Angesichts des Bedeutungsgewinns des radikaldemokratischen Denkens in der Politischen Theorie der letzten Jahre verfolgen die Autorinnen das Ziel, aufbauend auf einer begrifflichen Klärung und Darstellung der Funktionen politischer Öffentlichkeit in der Demokratietheorie, die spezifischen Maßstäbe der radikaldemokratischen Demokratie an öffentliche Kommunikationsprozesse zu identifizieren und zu rekonstruieren. Davon angeleitet folgt eine Analyse grundlegender Strukturen und Merkmale zeitgenössischer Öffentlichkeit aus radikaldemokratischer Perspektive, wobei insbesondere die Eigenschaften und Qualitäten digitaler Technologien in den Blick genommen werden. Diese Untersuchung zeigt Folgendes: Obwohl sie wie kein anderes (Massen-)Medium nationale Grenzen politischer Kommunikation I. Borucki (*)  Universität Düsseldorf, Tannenbergweg, Deutschland E-Mail: [email protected] M. Oswald  Univeristät Passau, Passau, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_2

17

18

I. Borucki und M. Oswald

überwinden können und obwohl sie an vielen Stellen Zugang unabhängig von sozialem, ökonomischem oder institutionellem Status erlauben, sind auch die neuen Kanäle politischer Kommunikation im digitalen Raum von Monopolisierungs- und Monotonisierungstendenzen geprägt und ihre demokratische Funktionalität damit bedroht. Gizem Kaya stellt die Frage der Zukunft von Demokratietheorien im digitalen Zeitalter in den Kontext zwischen ‚Skylla und Charybdis‘. Grundlegend von einem radikalen Verständnis von Demokratie ausgehend fragt Kaya, wie sich die Digitalisierung auf die demokratietheoretische Landschaft insgesamt und das Gefüge darin auswirkt. Sie geht weiterhin darauf ein, welche der demokratietheoretischen Grundkonzepte, Normen und Prämissen durch das Internet in Bedrängnis geraten sind und wo sich Chancen eröffnen. Dies wird exemplarisch am Habermas’schen Modell der deliberativen Demokratie und der radikalen Demokratietheorie von Chantal Mouffe untersucht. Der Beitrag verweist damit beispielhaft auf vier Erscheinungsformen moderner digitaler Öffentlichkeiten aus digitaldemokratischer Perspektive: fragmentierte, affektive, ideologisch-polarisierte und manipulierte Öffentlichkeiten. Hieran anschließend werden im dritten Abschnitt die Implikationen für die deliberative und radikale Demokratietheorie herausgearbeitet: Wie wirken sich die neuen, digitalen Herausforderungen und Erscheinungsformen der Öffentlichkeit auf sie aus und vice versa? Curd Knüpfer, Annett Heft und Barbara Pfetsch befassen sich mit dem Demokratiewandel, der dissonanten Öffentlichkeit und den nicht-intendierten Folgen vernetzter Kommunikationsumgebungen. Sie diskutieren dabei Entwicklungen in der politischen Kultur und der Kommunikationsinfrastruktur, die mit einem Strukturwandel der Öffentlichkeit in westlichen Demokratien verbunden sind. Öffentlichkeiten sind demnach maßgeblich von Dissonanzen geprägt. Darunter verstehen die AutorInnen Situationen, in welchen öffentliche Deliberationsprozesse und Debatten vielstimmiger, unübersichtlicher und oftmals konträr zueinander verlaufen und somit die kollektive Willensbildung und demokratische Reflexivität öffentlicher Meinungen erschweren. Knüpfer et al. argumentieren, dass die dissonanten Öffentlichkeiten innerhalb westlicher Gegenwartsdemokratien durch zwei langfristige Entwicklungen bedingt sind: einen grundlegenden Wandel innerhalb der demokratischen Kultur, welcher von sinkendem Vertrauen in politische Institutionen geprägt ist, sowie den Prozessen der Digitalisierung, die mit einer Fragmentierung von Mediensystemen und neuartigen Vernetzungsstrukturen einhergehen. Als unbeabsichtigte Folge dieser Entwicklungen sind Opportunity Structures für neuartige politische Bewegungen und ChallengerAkteure entstanden, die bestehende Institutionen massiv unter Druck setzen.

Demokratie und Theorie in der Frühdigitalisierung

19

Moritz F. Wiesenthal beleuchtet das Thema der ‚pragmatischen Netzöffentlichkeit‘ Europas. Er beginnt mit der Debatte um eine europäische Öffentlichkeit in Medien, Wissenschaft und Politik, die seit Beginn der 1990er Jahre zunehmende Aufmerksamkeit erfahren habe. Grund dafür sei, neben der ansteigenden Mediatisierung von politischen Prozessen, das seit dem Vertrag von Maastricht immer deutlichere Vordringen der Europäischen Union (EU) in Kernbereiche vormals nationalstaatlicher Demokratien. Der hierbei entstehende transnationale Legitimationsbedarf erfährt nach Wiesenthal im Rahmen des digitalen Strukturwandels eine grundlegende Veränderung, welche auch die demokratieund kommunikationswissenschaftliche Forschung zur europäischen Öffentlichkeit vor neue Herausforderungen stellt. Der vorliegende Artikel spezifiziert diese Herausforderungen und zeigt mit John Deweys Konzept einer pragmatischen Öffentlichkeit einen fruchtbaren Ansatz zur Analyse einer digitalen europäischen Öffentlichkeit auf. Sebastian Berg und Daniel Staemmler fokussieren mit ihrem Beitrag zur Konstitution der digitalen Gesellschaft weniger eine Charakteristik digitalisierter Öffentlichkeit, als sie eine perspektivische Erweiterung dieser herausarbeiten. Diese Erweiterung besteht darin, dass durch den nun auch technisch induzierten Formwandel der Demokratie die Veränderung medialer Strukturen wieder einer politischen Lesart zugeführt werden muss, will man nach Berg und Staemmler das demokratische Postulat sozialer Vergesellschaftung ernst nehmen. Die Autoren argumentieren, dass die politische Theorie für die Deutung der digitalen Konstellation auf eine Erweiterung ihres Gegenstandsbereichs um die Prozesse der Technikentwicklung und -gestaltung angewiesen ist. Erst eine politiktheoretische Lesart der Konstitution digitaler Infrastrukturen erlaubt es, den digitalen Wandel an den andauernden Formwandel der Demokratie rückzubinden und Aussagen über die demokratische Qualität der Digitalisierung zu treffen. Dazu untersuchen die Autoren zunächst die Konzepte der Digitalisierung und Demokratie, um dann politische Qualitäten der Digitalisierung im Lichte der Science & Technology Studies näher zu beleuchten. Das Beispiel des sozialen Netzwerks Mastodon dient als Hinweis darauf, wie kommunikative Infrastrukturen als Prozesse im Sinne von Kommunikationsmacht zu verstehen seien. Jasmin Fitzpatrick befasst sich mit der Kapitaltheorie von Pierre Bourdieu und zieht Konsequenzen aus der Anpassung von Social Media für Non-ProfitOrganisationen. Fitzpatrick verfolgt mit ihrem Beitrag zwei Ziele: Zum einen überträgt sie Bourdieus Überlegungen zu verschiedenen Formen des Kapitals auf die Meso-Ebene; zum anderen stellt sie dar, welche Chancen sich für politische Organisationen durch den gezielten Einsatz webbasierter Technologien ergeben können. Diese Aspekte ergänzt sie um Fallbeispiele. Zudem beantwortet

20

I. Borucki und M. Oswald

sie die Frage, welche Organisationen inwiefern durch den Einsatz webbasierter Kommunikationstechnologien profitieren. Das zentrale Ergebnis besteht in der Feststellung, dass die Zugrundelegung von Bourdieus Kapitalbegriff einen Mehr­ wert für die Analyse politischer Organisationen darstellt. Carolin Stötzel analysiert die Digitale Transformation in Hinblick auf die Legitimität der mit dem Internet verbundenen Strukturen und Prozesse, was insbesondere in demokratischen Staaten zunehmend relevant wird. Die Autorin zeigt in ihrer Analyse, dass demokratisch legitimierte Regulierung im Internet an ihre Grenzen stößt und sie problematisiert, dass Informationsasymmetrien, Machtkämpfe und Zieldivergenzen der beteiligten Akteure schwer zu lösen sind. Um dennoch demokratische Prinzipien im Umgang mit der Internet-Governance zu gewährleisten, sieht Stötzel legitime (legitim gewählte) Regierungen in der Pflicht, die entsprechend handeln. Sie plädiert für eine weiterführende Forschung, damit das Dilemma bei der Internet-Governance in Bezug auf Kompetenz und Kontrolle überwunden werden kann. Darüber hinaus muss die Rolle der Legitimität in den Multi-Stakeholder-Konstellationen der Internet-Verwaltung weiter diskutiert werden. Zieldivergenz und Machtasymmetrien zwischen staatlichen und nichtstaatlichen Akteuren scheinen sich im Zuge der Digitalen Transformation zu verschärfen. Annegret Bendiek und Jürgen Neyer untersuchen Bedingungen für die digitale Souveränität Europas. Die digitale Souveränität dient hierbei als begriffliche Orientierungshilfe für die Skizzierung von Herausforderungen der digitalen Transformation und der Entwicklung von europäischen Antworten auf sie. Die AutorInnen beziehen die digitale Souveränität auf die Frage nach der Handlungsfähigkeit Europas in einem kompetitiven Umfeld. Dabei werfen sie mit dem Begriff ein Schlaglicht auf die disruptiven Auswirkungen digitaler Innovationen, des Aufstiegs der digitalen Megakonzerne sowie der Einführung von KI und stellen diese in den größeren europapolitischen Kontext. Abschließend verorten sie diese Herausforderungen im Rahmen eines europäischen digitalen Souveränitätsverständnisses, das die externe und die interne Betonung europäischer Werte als wesentliche Bestandteile europäischer Politik kombiniert. Ben Wagner stellt die Frage, was ‚Freiheit‘ in einem sozio-technischen Kontext bedeutet. Wagner diskutiert hierfür die unterschiedlichen Konzepte, welche in der Debatte zu Freiheit und Technik existieren. Er präsentiert zunächst einen Überblick über Freiheits- und Technikbegriffe, bevor die möglichen Konflikte und Spannungsverhältnisse zwischen den unterschiedlichen Konzepten aufgezeigt werden. Durch die Überwindung des Grundrahmens der positiven vs. negativen Freiheit und eines differenzierteren Verständnisses von Freiheit und Technologie soll Wagners Artikel dazu beitragen, ein klareres Bild vom Verhält-

Demokratie und Theorie in der Frühdigitalisierung

21

nis zwischen Freiheit und Technologie in der Praxis zu vermitteln. Der Autor stellt dabei heraus, dass es sich sowohl bei Freiheit als auch bei Technik nicht um perfekt unterscheidbare Kategorien handelt, sondern dass die Kategorien teilweise ineinander übergehen. Gleichzeitig erfüllen seiner Auffassung nach Argumente der Freiheit in der Technik oft mehrere Perspektiven, deren Betrachtung lohnenswert erscheinen. Jan Weyerer und Paul Langer untersuchen Diskriminierungsfaktoren durch Künstliche Intelligenz. Ziel ihres Beitrags ist es, aufzuzeigen, welche Faktoren die Entscheidungsgrundlagen der KI prägen, welche Wirkmechanismen zu erwarten sind und in welchen Bereichen KI-basierte Entscheidungen bestehende gesellschaftliche Missstände reproduzieren. Die Anwendung von KI eröffnet eine Vielzahl neuer Möglichkeiten für Staat und Gesellschaft. Sie verspricht außerdem erhebliche Effektivitäts- und Effizienzgewinne bei der Ausführung staatlicher Aufgaben im Bereich der Bildung, Mobilität und Gesundheit. Insbesondere durch das Chancen- und Transformationspotenzial für die Wirtschaft ist KI inzwischen auch weit nach oben auf die politische Agenda vieler Staaten gerückt. Neben ethischen Fragen, etwa die der informationellen Selbstbestimmung, der moralischen Verantwortung von KI-Entscheidungen etc. bezieht sich eine zentrale ethische Herausforderung auf den Aspekt der KI-basierten Diskriminierung. Diese besagt, dass KI-Technologien menschliche Vorurteile beziehungsweise diskriminierende Werthaltungen und Verhaltensweisen übernehmen und sogar verstärkend reproduzieren können. Dies wird an den Beispielen Tay und Zo verdeutlicht. Adriano Mannino diskutiert in seinem Beitrag die digitale Kommunikationsökonomie und liefert eine liberal-demokratische Begründung für das Verbot von unbestreitbaren Fake News, da diese Vertrauen erodieren lassen – eine relevante und knappe Ressource der Demokratie. Im digitalen Raum sieht Mannino eine neue Qualität, Ausdifferenzierung und Dimension politisch relevanter Fake News. Er analysiert diese Fake-News-Dynamik kommunikationsökonomisch und diskutiert sie in liberal-demokratischer Perspektive im Kontext eines Verbots. Schließlich argumentiert der Autor, dass eine Subklasse von Fake News existiert, die in ihrer Fälschungs- und Täuschungsabsicht unbestreitbar ist. Liberaldemokratisch spricht er sich daher für ein Verbot solcher Fake News aus, die ‚unbestreitbar bewusst‘ gefälscht sind. Sebastian Dregger analysiert die Digitalisierung der Hassrede in den USA und stellt die grundlegende Frage, ob sie ein Bestandteil oder eine Gefahr für die Demokratie sind oder diese gefährden. In dem Beitrag analysiert er das wechselvolle Spannungsverhältnis zwischen Meinungsfreiheit, Hassrede und digitaler Transformation in den USA und geht hier in vier Schritten vor. Im

22

I. Borucki und M. Oswald

Zentrum der Untersuchung steht dabei die folgende These: Die USA verfolgen eine Doppelstrategie im Umgang mit der digitalisierten Hassrede. Einerseits behalten sie weiterhin ein extrem weites verfassungsrechtliches Verständnis der Meinungsfreiheit bei; andererseits etablieren sich verstärkt Regulierungsansätze nicht-staatlicher Art – und zwar über satzungsartige Nutzungsbedingungen und Richtlinien der Internetkonzerne – mit denen die Verbreitung der Hassrede im Internet und deren Auswirkungen auf das politische System als Ganzes begrenzt werden sollen. Paul F. Langer betrachtet in seinem Beitrag digitale Profile, Reputation Scoring und Social Credits am Beispiel von Chinas National Credit Management System. Er eröffnet zunächst verschiedene Perspektiven auf das Konzept der Reputation und seiner Bedeutung für pro-soziales Verhalten im Kontext der Digitalisierung. Dazu diskutiert er relevante Teilkonzepte und die Mechanismen eines staatlichen Social Credit Systems in China. Mit der Digitalisierung geht laut Langer ein Prozess des Vermessens der Realität einher und damit eröffnet sich eine Möglichkeit, detaillierte Charakterbeschreibungen von Individuen abzuleiten. Auf Basis des Konzepts des Reputation-Scorings erläutert er die Grundgedanken der chinesischen Politik und die Idee des Social Engineerings. Weiterhin diskutiert er die Pläne des chinesischen Ansatzes eines Social Credit Systems. Zuletzt stellt er die Auswirkungen der Social Credit Systeme im Allgemeinen und solche, die auf das gesellschaftliche Anreizsystem gerichtet sind, dar. Michael Oswald versucht abschließend die Effekte der Disruption durch die Digitale Transformation zu erfassen und diskutiert die Demokratietheorie im Paradigma der entgrenzten Individualkommunikation. Er argumentiert, dass die Frühdigitalisierung mit Methoden und Denkweisen eines analogen Paradigmas nicht adäquat erfasst werden kann und diese Perspektive den wissenschaftlichen Fortschritt verhindert, aber auch normative Chancen vertut. Dazu zählt der Fokus auf die negativen Effekte der Digitalisierung.

Öffentlichkeit

Grenzenlos, frei und politisch? Öffentlichkeit unter den Bedingungen der Digitalisierung aus radikaldemokratischer Perspektive Claudia Ritzi und Alexandra Zierold 1 Einleitung „What is the relation between the idea of the public sphere and computermediated interaction?“ – diese Frage stellt ein 2003 erschienener Artikel von Jodi Dean. Die Antwort der Politischen Theoretikerin fällt kritisch aus: „I argue that the notion of the public sphere is not only inapplicable to the Net, but also and more importantly, that it is damaging to practices of democracy under conditions of contemporary technoculture“ (Dean 2003 S. 95). Die von Dean eingenommene Perspektive spiegelt eine Kehrtwendung in der wissenschaftlichen Debatte über Politik im digitalen Zeitalter. Bereits in den Anfangszeiten des allgemein zugänglichen Internets hatte das Konzept politischer Öffentlichkeit zwar eine Renaissance erlebt, in den 1990er Jahren wurden digitale Technologien dabei jedoch vor allem als „information superhighway“ und „town hall for millions“ (ebd., S. 97) betrachtet. Mit dem Beginn der Medienkrise Anfang der 2000er Jahre wurden jedoch die Schattenseiten der so genannten Neuen Medien zunehmend sichtbar (vgl. u. a. Wolff 2003): Die Internetstrategien selbst großer Verlagshäuser scheiterten, der Zeitungsmarkt wurde in Folge sinkender Auflagen schwächer, etablierte Werbemodelle reichten nicht mehr aus, um in gewohnter Weise (politische) Inhalte zu produzieren und zu publizieren – allzumal die C. Ritzi (*) · A. Zierold  Professur für Politische Theorie und Ideengeschichte, Universität Trier, Trier, Deutschland E-Mail: [email protected] A. Zierold E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_3

25

26

C. Ritzi und A. Zierold

Zahlungsbereitschaft der InternetnutzerInnen für digitalen „Content“ weit hinter den Erwartungen zurückblieb und noch immer bleibt. Gleichzeitig wurde eine kleine Zahl globaler Internetfirmen zu (über-)mächtigen ökonomischen Akteuren. In ideologiekritischer Absicht mahnt Dean gerade mit Blick auf die letztgenannte Entwicklung, dass das Internet nicht als ‚public sphere‘ begriffen werden sollte. Denn eine solche Perspektive führe dazu, „to make appear as a public sphere what is clearly the material basis of the global economy“ (ebd., S. 100).1 Dean zählt somit zum Kreis jener Politischer TheoretikerInnen, welche schon früh die Folgen digitaler Technik für Demokratien und ihre kommunikativen Grundlagen und Funktionsweisen überwiegend kritisch einschätzen. Ihre Kritik setzt bei einem habermasianischen Öffentlichkeitsbegriff an, welcher Vermachtungsprozesse politischer Öffentlichkeit – nicht zuletzt durch ökonomisch mächtige AkteurInnen – als eine zentrale Bedrohung demokratischer Meinungs-, Willensbildungs- und Integrationsprozesse betrachtet.2 Sie rekonstruiert die „online public sphere“ als einen weitgehend konflikt- und antagonismusfreien Raum, in dem es trotz der technologiebedingten Offenheit kaum Beispiele für gelingende Diskurse gibt (vgl. ebd., S. 105). Grenzenlosigkeit und Zugangsfreiheit allein sichern, so lässt sich schlussfolgern, weder Gleichheit noch ein angemessenes Maß an Vielfalt und auch keine offene Diskussion. Ausgehend von einem abweichenden, der deliberativen Konzeption sogar konträren, Demokratie- und Öffentlichkeitsbegriff, würden radikaldemokratische TheoretikerInnen ähnliche Schlüsse über die Bedingungen demokratischer Kommunikation im so genannten digitalen Zeitalter ziehen3. Sie zählen aktuell zu den schärfsten KritikerInnen demokratischer Öffentlichkeit im Kontext westlicher, repräsentativer Demokratien. In der radikaldemokratischen Theorieströmung kommt nicht (nur) der Pluralität in der argumentativen Debatte Bedeutung zu, sondern Konfliktivität wird als fundamentales Merkmal der Demokratie gefasst – und ihre Überwindung als Zeichen von Entpolitisierungsprozessen.

1Dean

argumentiert stattdessen für „zero institution“ (Levi-Strauss) als „placeholder to designate institutionality as such“, mit dem aber keine Normativität einhergehe (vgl. Dean 2003, S. 105). 2Kritisch anzumerken ist jedoch, dass Dean eine vergleichsweise einfache und enge Rekonstruktion des Öffentlichkeitsbegriffs vorlegt, dessen kritisches Potential erweitert werden kann, wie dies beispielsweise bei Fraser (2007) der Fall ist. 3Ein erheblich weiter gefasster Begriff der „radikalen Demokratietheorie“, der auch partizipative und deliberative Ansätze umfasst, findet sich im Handbuch „Radikale Demokratie“, das jüngst von Comtesse et al. 2019a) herausgegeben wurde. Für hiesige Zwecke erscheint eine Fokussierung auf die so genannte ‚postfundamentalistische‘ Theorietradition (vgl. Marchart 2010) jedoch geeigneter, insbesondere, um die Differenzen zu liberalen, republikanischen und deliberativen Ansätzen aufzuzeigen.

Grenzenlos, frei und politisch? …

27

Angesichts des Bedeutungsgewinns des radikaldemokratischen Denkens in der Politischen Theorie der letzten Jahre, insbesondere mit Blick auf den Einfluss von AutorInnen wie Chantal Mouffe und Jacques Rancière, verfolgt dieser Beitrag das Ziel, aufbauend auf eine begriffliche Klärung und Darstellung der Funktionen politischer Öffentlichkeit in der Demokratietheorie (Abschn. 1), die spezifischen Maßstäbe der radikaldemokratischen Demokratie an öffentliche Kommunikationsprozesse zu identifizieren und zu rekonstruieren (Abschn. 2). Darauf aufbauend erfolgt eine Analyse grundlegender Strukturen und Merkmale zeitgenössischer Öffentlichkeit aus radikaldemokratischer Perspektive, wobei insbesondere die Eigenschaften und Qualitäten digitaler Technologien in den Blick genommen werden (Abschn. 3). Diese Untersuchung zeigt Folgendes: Obwohl sie wie kein anderes (Massen-)Medium nationale Grenzen politischer Kommunikation überwinden können, und obwohl sie an vielen Stellen Zugang unabhängig von sozialem, ökonomischem oder institutionellem Status erlauben, sind auch die neuen Kanäle politischer Kommunikation im digitalen Raum von Monopolisierungs- und Monotonisierungstendenzen geprägt und ihre demokratische Funktionalität damit bedroht. Vor diesem Hintergrund fasst das Fazit die Perspektiven und Bedingungen radikaldemokratischer Öffentlichkeit am Beginn des 21. Jahrhunderts zusammen (Abschn. 4).

2 Begriff und Funktionen politischer Öffentlichkeit für die Demokratie Dass Demokratie ohne politische Öffentlichkeit nicht gelingen kann, zählt zu den Grundfesten der Demokratietheorie. Politik, welche weitgehend im Geheimen stattfindet, bzw. die in den geschlossenen Räumen verhandelt wird, kann nur in Ausnahmefällen als demokratisch legitim gelten (vgl. Ritzi 2016). Wird politische Macht auf der Basis von Geheimnissen erlangt oder erhalten, erfordert dies entweder Gehorsamkeit aufseiten der BürgerInnen oder ein hohes Maß an Vertrauen. Gehorsam kann und darf jedoch nicht die zentrale Basis einer demokratischen Beziehung zwischen BürgerInnen und ihren RepräsentantInnen sein. Und Vertrauen ist eine Ressource, die vor allem in den letzten Jahrzehnten zu einer Mangelware im Verhältnis zwischen Politik und Bürgerschaft zu werden droht – zumindest in westlichen Demokratien (vgl. u. a. Hartmann 2011; Schaal 2004). Angesichts der Größe und Komplexität moderner Staatlichkeit, bedarf es der Massenmedien, um diese Öffentlichkeit mit geeignetem Umfang und angemessener Reichweite zu entfalten. Als politische Öffentlichkeit bezeichnet folglich Jürgen Gerhards „den Teil an politischen Handlungen, der in der massenmedialen Öffentlichkeit, nach den Regeln des Öffentlichkeitssystems selektiert, für das politische System beobachtbar ist“ (Gerhards 1994, S. 97).

28

C. Ritzi und A. Zierold

Unabhängig davon, welche variierenden normativen Ansprüche im Einzelnen in der Demokratietheorie an die politische Öffentlichkeit gestellt werden, die Ermöglichung und Herstellung von Legitimität stellt im Kanon liberaler und republikanischer Theorien die zentrale Aufgabe der Öffentlichkeit dar. Denn „Legitimität als eine demokratietheoretische Fundamentalkategorie politischer Kommunikation knüpft den Geltungsanspruch politischer Herrschaft an eine kommunikative Begründungsleistung. […] Somit sind Öffentlichkeit und Kommunikation eine notwendige, keineswegs aber hinreichende Bedingung von Legitimität“ (Sarcinelli 2011, S. 89 f.). Wo Macht, wie in der Demokratie, begründungs- und zustimmungspflichtig ist, ist sie auf eine öffentliche Sphäre angewiesen, in der sich jene Akteure Gehör verschaffen können, die Macht innehaben oder erlangen möchten. Auch die ‚Herrschaft des Volkes‘ ist nur dann gewährleistet, wenn die BürgerInnen Zugang zu einem kommunikativen Netzwerk haben, über das sie ihre Probleme, Interessen und Präferenzen artikulieren können: „Democratic theory focuses on accountability and responsiveness in the decision-making process; theories of the public sphere focus on the role of public communication in facilitating or hindering this process“ (Marx Ferree et al. 2002, S. 289). Neidhardt differenziert folglich drei Funktionen von Öffentlichkeit: Er betrachtet Öffentlichkeit als ein Kommunikationssystem, „in dem Themen und Meinungen (a) gesammelt (Input), (b) verarbeitet (Throughput) und (c) weitergegeben (Output) werden“ (Neidhardt 1994, S. 8). Auf der ersten Stufe ist das Kriterium der Offenheit entscheidend: „Öffentlichkeit soll offen sein für alle gesellschaftlichen Gruppen sowie für alle Themen und Meinungen von kollektiver Bedeutung“ (ebd.). In dem Maße, indem dies gewährleistet sei, könne Öffentlichkeit die Funktion der Herstellung von Transparenz erfüllen. Auf der zweiten Prozessstufe (Throughput) erfüllt Öffentlichkeit eine „Validierungsfunktion“, hier werde entschieden, welche Ansprüche vom politischen System als relevant oder gerechtfertigt betrachtet werden (ebd.). Und auf der Ebene des Outputs wird der Öffentlichkeit von Neidhardt eine „Orientierungsfunktion“ zugeschrieben, da sie es den BürgerInnen ermögliche, die Autorität der Akteure des politischen Zentrums zu stärken oder zu hinterfragen. Andere AutorInnen ergänzen diese Liste noch um die ebenfalls auf der Output-Ebene angesiedelte „Kontrollfunktion“ und um die auf der Input-Ebene zu verortende „Informationsfunktion“ (Peters 2007 [1994], S. 62 ff.). Kurt Imhof fügt die „Integrationsfunktion“ hinzu, da nur in der politischen Öffentlichkeit „das, was wir nicht anders als immer auch in politischem Sinne ‚Gesellschaft‘ nennen können,“ beobachtet und gestaltet werden könne (Imhof 2008, S. 72). Zudem ergänzt er die

Grenzenlos, frei und politisch? …

29

„politisch-rechtliche“ Funktion, da in der Öffentlichkeit die Geltungsbereiche von Recht und Ordnung definiert würden (ebd.; vgl. Lang 2001). Im Kontext der postfundamentalistischen Theorien, zu denen besonders prominent die Foucaultschen Macht- und Diskursanalysen, aber auch viele andere Werke zählen, und der eng mit diesem Denken verbundenen radikalen Demokratietheorie stellt sich die Funktion der politischen Öffentlichkeit hingegen anders dar. In dieser Tradition politischen Denkens ist „Demokratisierung ein konfliktueller Prozess der Aktualisierung, Ausweitung und Vertiefung von Prinzipien der demokratischen Revolution“ (Marchart 2015, S. 22). Dieser Konflikt endet nicht mit der Etablierung demokratischer Institutionen, sondern grundlegende Werte wie Freiheit, Gleichheit, Solidarität und Volkssouveränität bedürfen der stetigen Aushandlung. Demokratie entsteht also nicht durch bestimmte Institutionen, sondern sie steht in einem stetigen Wechselspiel „zwischen der institutionellen Begrenzung von dynamischen Prozessen und den episodischen, zuweilen eruptiven Momenten der Entgrenzung“ (Comtesse et al. 2019b, S. 15). Demokratie ist dabei – so beschreibt Marchart die differentia specifica der radikalen Demokratietheorie – in diesen Theorien ein „Selbstzweck“ (Marchart 2015, S. 30), sie dient weder der ökonomischen, der sozialen noch einer anderen Nützlichkeit oder Verbesserung. Öffentlichkeit kommt in diesem stetigen Ringen eine ‚Politisierungs- bzw. Subjektivierungsfunktion‘ zu (vgl. Ritzi 2014). Erst durch den Eintritt eines Individuums in eine geteilte ‚Sphäre‘ entsteht die Möglichkeit der demokratischen Konfrontation verschiedener Weltanschauungen, Interessen, Ansprüche und Meinungen und der Teilhabe am Politischen und damit des Ringens um Anerkennung und Gleichheit. Die Öffentlichkeit ist in radikaldemokratischer Perspektive also nicht eine Bedingung für Demokratie, sondern die Grundlage des Politischen schlechthin. Inwiefern die Politisierungsfunktion erfüllt wird, hängt wesentlich vom Grad der Offenheit der politischen Öffentlichkeit ab.

3 Das radikaldemokratische Öffentlichkeitsmodell Während das liberale ‚Spiegelmodell‘ politische Öffentlichkeit als einen ‚Markplatz der Ideen‘ imaginiert, aus dessen Angebot die BürgerInnen dann jene Optionen auswählen und in ihre politische Präferenzgenese integrieren sollen, welche am besten ihren persönlichen Bedürfnissen entspricht und das ‚diskursive Modell‘ Konsens mithilfe deliberativer Verfahren generieren will (vgl. Ritzi 2014), basieren die Erwartungen der radikalen Demokratie auf der öffentlichen

30

C. Ritzi und A. Zierold

Ermöglichung von Politik schlechthin. Als „postfundamentalistische Ansätze“ (Marchart 2015, S. 21) machen sie die partikulare, plurale und reversible Natur sozialer und politischer Fundamente zu ihrem Gegenstand (ebd.). Ihr Öffentlichkeitsmodell kann als ‚Modell politisierender Öffentlichkeit‘ beschrieben werden (vgl. Ritzi 2014, S. 238 ff.), da Öffentlichkeit in dieser Perspektive nicht nur der Spiegelung hegemonialer Strukturen bzw. Machtverhältnisse dient, sondern als emanzipative Praxis auch der Konstitution politischer Subjekte und somit der Politisierung. Es resultiert aus expliziter Kritik an der ‚entpolitisierenden‘ Wirkung der deliberativen Konsensorientierung einerseits und an der liberalen Offenheit gegenüber ökonomisch geprägten Macht- und Einflussstrukturen andererseits. Die radikale Demokratietheorie mit Vertretern wie Jacques Rancière, Alain Badiou, Jacques Derrida, Giorgio Agamben, Ernesto Laclau und Chantal Mouffe strebt eine Integration und Partizipation all derjenigen an, die in einem politischen Kollektiv leben bzw. die von einer politischen Entscheidung betroffen sind und betrachtet die Integration in das öffentliche Leben als konstitutiv für den Status eines Subjekts und die Entstehung des Politischen. Dass dieses Modell in theoretischen Arbeiten zu politischer Öffentlichkeit bislang ein Schattendasein fristet und in einschlägigen Publikationen kaum Erwähnung findet (siehe bspw. Martinsen 2009; Imhof 2008; Jarren und Donges 2011), mag daran liegen, dass der praktische Ertrag der Arbeiten radikaldemokratischer AutorInnen häufig gering ist; dafür aber die subjekttheoretischen Grundlagen der Arbeiten zur radikalen Demokratietheorie abstrakt sind, was die Übertragung auf die politische Praxis erschwert. Angesichts des Bedeutungsverlusts etablierter Parteien und des hohen Mobilisierungs-, Innovations- und Thematisierungspotentials digitaler Medien, erscheint es jedoch dennoch sinnvoll, sich verstärkt mit radikaldemokratischen Ansätzen bzw. „Interventionen“ (Flügel et al. 2004, S. 7) auseinanderzusetzen, die „das Politische“ bzw. die Demokratie „nicht mehr als fixes Ensemble von Institutionen, als gesellschaftliches Teilsystem oder als Staat begriffen werden [kann], sondern nur noch als konstitutiv umkämpftes Terrain, dessen Grenzen immer wieder neu ausgehandelt werden müssen“ (ebd.). So „gibt uns die diskurstheoretische Reformulierung der Hegemonietheorie Gramscis die analytischen Instrumente an die Hand, um hegemoniale Formationen angemessen beschreiben zu können, denn als Diskurstheorie geht sie weder von überkommenen Ebenenunterscheidungen noch von der essentialistischen Annahme präkonstituierter politischer Subjekte aus, ist doch die Identität dieser Subjekte so wie die Struktur hegemonialer Formationen selbst Produkt diskursiver Artikulation, nicht umgekehrt“ (Marchart 2007, S. 109).

Grenzenlos, frei und politisch? …

31

Werden bestimmte Bevölkerungsteile direkt oder indirekt von der Möglichkeit ausgeschlossen, sich gesellschaftliches Gehör zu verschaffen, kann dies als Indikator für eine Entpolitisierung bzw. Postdemokratisierung gedeutet werden. Die Kriterien der Offenheit und Gleichheit spielen in der radikalen Demokratietheorie eine fundamentale Rolle, schließlich ist Postfundamentalismus nicht mit Antifundamentalismus gleichzusetzen: „Das Soziale ist immer partiell fundiert und nie völlig unbegründet, wobei seine Fundamente, da im Konflikt gelegt und durch Konflikt erneut hinterfragbar, immer nur temporäre Geltung beanspruchen können“ (Marchart 2015, S. 21). Spezifisch für demokratische Orientierungen ist das Festhalten an Gleichheit, das konstitutiv der Offenheit bedarf. Das emanzipatorische Streben nach Gleichheit lässt sich mit Marchart (2010, S. 183) als ein „fundamentalistischer Restbestand“ deuten, der jedoch gleichzeitig die normative Parteinahme für demokratische Ordnungen erst ermöglicht. Offenheit ist eine Bedingung für die Möglichkeit von Gleichheit und Subjektivierung. Sie bezieht sich mit Blick auf politische Öffentlichkeit nicht nur auf thematische Offenheit, deren Notwendigkeit schon aus dem Verständnis von Demokratie als unendliche Aufgabe bzw. als Unterbrechung der „Ordnung und Distribution von Körpern in der Gemeinschaft“ (Rancière 1996, S. 125; vgl. Meyer und Comtesse 2011, S. 72 ff.) resultiert, sondern legt besonderes Gewicht auf die Dimension der Teilhabe. „Nun ist das Eigene des politischen Dissens aber, dass die Partner nicht festgesetzt sind und auch nicht der Gegenstand und die Bühne der Diskussion“ (Rancière 2008, S. 36). Inhaltlich bezieht sich das Kriterium der Offenheit auch auf den Einfluss verschiedener Rationalitäten. So bemängelt beispielsweise Wendy Brown (2011, S. 47 f.), dass Öffentlichkeit heute überwiegend von „unternehmerischen“ Denkweisen beherrscht und kaum noch von „demokratischen Prinzipien“ geprägt sei, die es aus einer moralischen Perspektive heraus jedoch erst ermöglichten, die Teilhabe aller Bürger am gemeinsamen Entscheidungsprozess zu einem gesellschaftlichen Leitbild werden zu lassen. Im Zentrum der Ausführungen radikaldemokratischer Autoren, maßgeblich geprägt durch die Arbeiten von Chantal Mouffe und Ernesto Laclau, steht außerdem die Auffassung, dass Demokratien agonal verfasst sind. Demokratische Auseinandersetzungen über die angemessene Einrichtung des Gemeinwesens ließen sich nicht in transzendentalen Rechts- oder Vernunftprinzipien verankern, das Streben nach Konsens und Einigkeit gleiche dem Verfolgen einer Illusion (vgl. Heil und Hetzel 2006, S. 9; Mouffe 1993, S. 5 ff.). Aus dieser Prämisse ergibt sich die Forderung, dass angesichts der Kontingenz jeder gesellschaftlichen

32

C. Ritzi und A. Zierold

Ordnung der Ort der Macht aus demokratischer Perspektive „leer“ bleiben muss (Lefort 1990), dass Demokratie als stets ‚im Kommen‘ begriffen wird (Derrida 2003) und dass dem Agonismus eine besondere Rolle zukommt (Mouffe 1993, 2007). Entsprechend kann die Konfliktivität neben der Offenheit und Gleichheit als ein drittes Merkmal des normativen Öffentlichkeitsmodells der radikalen Demokratietheorie bzw. des Postmarxismus rekonstruiert werden: „For a radical and plural democracy, the belief that a final resolution of conflict is eventually possible, even if envisaged as an asymptotic approach to the regulative ideal of a free and unconstrained communication, as in Habermas, far from providing the necessary horizon of the democratic project, is something that puts it at risk“ (Mouffe 1993, S. 8).

4 Offenheit, Gleichheit und Konfliktivität: Merkmale politischer Öffentlichkeit unter digitalen Bedingungen? Gemäß den theoretischen Postulaten sind also aus radikaldemokratischer Perspektive klare Anforderungen an politische Öffentlichkeit zu stellen. Inwiefern diese in der demokratischen Praxis vorliegen, wird zwar punktuell in der Literatur diskutiert, umfassende oder gar vergleichende Studien aus einer spezifisch radikaldemokratischen Perspektive liegen jedoch bisher nicht vor. Dieser Mangel wird besonders im Kontrast zur umfangreichen empirischen Forschung im Kontext des deliberativen Paradigmas offenkundig (z. B. Rheingold 1994; Barber 1998; Dahlgren 2005; aktueller: Helbig 2018; Dijk und Hacker 2018). Das Gros der zeitgenössischen theoretischen wie empirischen Studien zur Öffentlichkeitsforschung steht vor dem Hintergrund deliberativer Theorie – andere Ansätze und ihre Kriterien zur Bewertung der politischen Qualität von Öffentlichkeit werden spätestens seit dem „deliberative turn“ (Dryzek 2002) in der Politikwissenschaft geradezu vernachlässigt (vgl. Ritzi 2014; Filipović 2019). Dabei liegt doch eigentlich gerade aus Sicht von Ansätzen, welche die theoretische wie praktische Vorherrschaft des liberalen und deliberativen Denkens kritisieren, die Frage nach dem demokratischen Potential sowie den Problemen des digitalen Wandels nahe: Bieten digitale Technologien die Möglichkeit zu einer Öffnung des öffentlichen Raumes? Oder bedingen sie neue Formen der Ausgrenzung? Ist eine Re- oder Entpolitisierung ihre dominante Konsequenz? Und spielen sie überhaupt eine Rolle für eine zeitgenössische Beobachtung des demokratisch Politischen?

Grenzenlos, frei und politisch? …

33

Vor dem Hintergrund solcher Fragen wird im Folgenden ein dezidiert radikaldemokratischer Blick auf Öffentlichkeit und den Einfluss der Digitalisierung auf ihre politische Qualität eingenommen. Die identifizierten Qualitätsmerkmale radikaldemokratischer Öffentlichkeit – Offenheit, Gleichheit und Konfliktivität – werden als Richtschnur genommen, um exemplarisch zu bewerten, wie politisch die ‚politische‘ Öffentlichkeit unter digitalen Bedingungen ist und um aufzuzeigen, welches Potential radikaldemokratische Ansätze zur Erforschung der Digitalität bergen.

4.1 Offenheit Die Offenheit politischer Diskurse ist in mehrfacher Hinsicht zentral für radikaldemokratische Theorien: Gleiche Zugangs- und damit Subjektivierungsmöglichkeiten für alle potentiell und faktisch Herrschaftsunterworfenen, thematische Freiheit und, damit eng verbunden, auch die Vielfalt der Gegenstände sowie die Ergebnisoffenheit der Darstellungsformen und der kommunikativen Aushandlungsprozesse, insbesondere von Konflikten, können als unabdingbare Möglichkeitsbedingungen des ‚Politischen‘ aus radikaldemokratischen Ansätzen abgeleitet werden. Digitale Technologien beeinflussen die Dimension der Offenheit in vielfältiger Hinsicht – sowohl in für die radikaldemokratische Perspektive positiver wie auch in problematischer Weise. So hat sich der Raum der politischen Öffentlichkeit durch die Digitalisierung wesentlich verändert – zunächst einmal durch das weitgehende Entfallen einer Begrenzung des Umfangs und der räumlichen Grenzen der vermittelten Inhalte. Im Vergleich zur letztlich definier- und überschaubaren Menge vordigitaler Informations- und Kommunikationskanäle lässt das Internet die flexible Einrichtung einer unbegrenzten Zahl an Themen, Perspektiven, Teil- oder Gegenöffentlichkeiten zu. Nicht nur das Angebot; im Bereich der Internetkommunikation unterliegt auch der Zugang kaum noch geografischen oder zeitlichen Begrenzungen. Vielfach sind auch die Anforderungen an ökonomische, kognitive und andere Ressourcen der Öffentlichkeitsakteure gering. Digitale Medienangebote stehen damit häufig weit mehr Menschen offen als dies bei klassischen massenmedialen Arenen der Fall ist. Unter anderem von Laclau und Mouffe (2006 [1985], S. 223) wird diese von deliberativen Ansätzen kritisch bewertete Fragmentierung von Öffentlichkeit entsprechend positiv gewendet: Das „Prinzip der Trennung von Räumen […] ist die Basis der Forderung nach Freiheit“. Teilöffentlichkeiten

34

C. Ritzi und A. Zierold

können in diesem Freiheitsverständnis der Kultivierung des „für die moderne Demokratie konstitutiven Pluralismus“ (Mouffe 2007, S. 22) und der Entwicklung von kollektiven Identitäten dienen.4 Was in anderen Theoriekontexten überwiegend kritisch mit den Begriffen ‚Echokammern‘ und ‚Filterblasen‘ bezeichnet wird (Pariser 2012; vgl. auch Quattrociocchi 2017; Smith 2017), offenbart aus radikaldemokratischer Perspektive nennenswertes Politisierungspotential.5 Diese aus radikaldemokratischer Perspektive positiv zu bewertenden Aspekte der Offenheit vieler digitaler Kommunikationsplattformen und -angebote können freilich nicht darüber hinwegtäuschen, dass auch weiterhin bestimmte Stimmen – etwa die von Obdachlosen, Armen, Menschen mit Beeinträchtigungen, denjenigen, die in Regionen ohne (zuverlässigen) Internetzugang leben, die von älteren Menschen, etc. – faktisch ausgeschlossen bleiben. Ein Menschenrecht „Internetzugang“, verbunden mit einer Stärkung von ‚digital literacy‘, ist nicht nur aus deliberativer Sicht sinnvoll, sondern könnte auch eine radikaldemokratische Forderung darstellen, um zumindest Minimalvoraussetzungen für die öffentliche Teilhabe vom „Anteil der Anteillosen“ (Rancière 2008, S. 29) zu schaffen. Die Ausschlüsse der „digital divide“ (Norris 2001) verschärfen in diesem Sinne jedoch die Verneinung von eigentlich Sprechfähigen als politische Subjekte. Die digital verfasste Medieninfrastruktur politischer Öffentlichkeit ist mit van Dijk und Hacker (2018) wesentlich durch zwei Trends gekennzeichnet, die Offenheit versprechen: Die Medienlandschaft kann als nach allen Seiten grundsätzlich durchlässiges „hybrid media system“ (Chadwick 2013) beschrieben werden, das aus „spreadable media“ (Jenkins et al. 2013) zusammengesetzt ist. Es besteht eine rege Verweiskultur zwischen den Inhalten nebeneinander existierender Medienformate, ob vornehmlich digital oder nicht. Themen, Meinungen und Akteure aus Teilöffentlichkeiten können in diesem Kommunikationssystem schnell auch mit größerer bzw. einer anderen Reichweite versehen werden. Wer dabei, und in welche Richtung, die Öffnung vornimmt, scheint durch die Pluralisierung von Medien und Akteuren an weniger institutionelle und ökonomische Voraussetzungen geknüpft als noch in der Rundfunk- und Zeitungslandschaft. Den „common-sense“ durch

4Vgl.

auch Mouffe (2007, S. 36): „Um politisch zu handeln, müssen Menschen sich mit einer kollektiven Identität identifizieren können, die ihnen eine aufwertende Vorstellung ihrer selbst anbietet“. 5Zumal die faktische Bedeutung von Echokammern für den demokratischen Prozess aktuell (noch) nicht überschätzt werden sollte, wie empirische Studien belegen (vgl. u. a. Dubois und Blank 2018).

Grenzenlos, frei und politisch? …

35

eine „Demonstration des Dissens“ aus marginalisierter Position herauszufordern (Rancière 2008, S. 33) oder „kontrahegemoniale Verfahrensweisen“ zu entwickeln, um „die bestehende Ordnung zu disartikulieren“ (Mouffe 2007, S. 27), wird durch den Wegfall traditioneller Gatekeeper zunächst vereinfacht. Die mediale Infrastruktur der Öffentlichkeit präsentiert sich zunehmend in solchen digitalen Formen. Auch Leitmedien haben neben ihren traditionellen ab den 1990er Jahren auch digitale Angebote entwickelt. Die Medienkrise Anfang der 2000er Jahre hatte jedoch – gerade mit Blick auf die Online-Angebote – große Verluste zur Folge, was zunächst zu einer stärkeren Zurückhaltung vieler Verlage im digitalen Bereich führte und später zum Versuch der Etablierung von neuen Abonnement-Modellen und Bezahlschranken (vgl. Wolff 2003). Einzelne Angebote (wie jenes des Hamburger Spiegel-Verlags) hingegen stärkten ihre Position als Online-Leitmedien. Die Vielfalt und damit auch Konkurrenz an frei verfügbarem ‚Content‘ ist heute nichtsdestoweniger groß: „communicative plenty means there is much to access, understand, digest, listen to, reflect upon and discuss“ (Ercan et al. 2018, S. 4). Selbst publizistisch tätig zu werden ist mit geringen bis keinen (Anfangs-) Kosten verbunden (Blogs, Micro-Blogging wie Twitter, Instagram, etc.) und die Reichweite von InfluencerInnen überschreitet oft die von traditionellen Medienoutlets. Blogs, Podcasts und Videos machen mittlerweile einen Großteil der politischen Öffentlichkeit aus, bei denen die ‚Content-Creators‘ auch eine gewisse Freiheit darin haben, wie sie, mit Rancière gesprochen, ihre ‚Bühne‘ errichten (vgl. Rancière 2016; auch: Linpinsel 2018). Das Kriterium der Offenheit mit Blick auf TeilnehmerInnen, Inhalte und Formen öffentlicher Kommunikation wird heutzutage aber vor allem von den großen Digitalunternehmen geprägt. Dolata und Schrape stellen fest, dass diese „nicht einfach Vermittlungsinstanzen wie etwa Telefongesellschaften“ (2018a, S. 5) darstellen, sondern „durch ihre infrastrukturelle und regelsetzende Macht zu handlungs- und meinungsprägenden Kuratoren des öffentlichen Diskurses“ geworden sind. Die digitalen Bedingungen politische Öffentlichkeit sind damit für die Autoren „sozio-technische“ (Dolata und Schrape 2018a): Individuelles und kollektives Kommunizieren auf Plattformen wie Facebook, Twitter, YouTube und Co. findet immer auch im Rahmen der Benutzungsoberflächen sowie Nutzungs- und Datenschutzbestimmungen statt. Welche Stimmen und Inhalte überhaupt in der digitalen Öffentlichkeit – und darüber hinaus im gesamten hybriden Mediensystem – Gehör finden können, legen diese Plattformen etwa über automatisiertes Content-Blocking und algorithmisch kuratierte News-Feeds fest. Twitter beispielsweise bevorzugt dabei nach eigenen Angaben „novelty over popularity“ (zitiert in Pasquale 2015, S. 76) und legt damit die Bedingungen fest,

36

C. Ritzi und A. Zierold

unter denen dissensuelle oder gegenhegemoniale Bewegungen überhaupt erst wahrgenommen werden können: Nur, wenn sie ‚media-savvy‘ genug sind, um möglichst schnell möglichst viele Stimmen hinter sich vereinen zu können. Die geringe Halbwertszeit manchen Protests ist damit auch schon vorgegeben. Hintz und Milan verweisen auf Social-Media-Plattformen als neue Gatekeeper: „With social media platforms mediating people’s access to the digital public sphere, such intermediaries become gatekeepers and take on the role of regulators“ (2018, S. 3942). Es können dadurch auch hochgradig individuelle ‚Bilder‘ von Wirklichkeit entstehen, die eine kollektive Politisierung erschweren können: „They make us see the world as we want to see it. By forging a specific reality for each user, they silently and subtly shape customised ‘information diets’, including around our voting preferences“ (Milan und Agosti 2019). Stalder spricht in diesem Zusammenhang auch von einer „paradoxe[n] Erfahrung aufseiten der User“ (2016, S. 230): Denn gerade jene Umgebungen, die ihnen im persönlichen Leben neue Handlungsoptionen eröffnen, erweisen sich dann, wenn es um grundlegende Entscheidungen geht, die alle betreffen, als völlig unbeeinflussbar“. Algorithmen hinter Plattformen oder Google rahmen unsere neue digitale Handlungsfreiheit und „[s]ie [die NutzerInnen; d. A.] lassen sich die Welt gern vorsortieren, um besser in ihr handeln zu können“ (Stalder 2016, S. 202). Doch: „what cannot be anticipated cannot be accounted for in the design/ engineering of algorithms“ (Keller und Klinger 2018, S. 4661). Algorithmen sind aus Sicht der radikalen Demokratietheorie ein Problem, da sie die Kontingenz politischer Ordnung bedrohen. Die beständige kommunikative Reflektion der technischen Infrastruktur der Öffentlichkeit und ihrer Angemessenheit muss also vor diesem Hintergrund noch mehr in den Vordergrund rücken (vgl. Keller und Klinger 2018). Gegenwärtig gibt es einen ‚tech lash‘, der sich auch durch ein gewachsenes gesellschaftliches Bewusstsein für die Macht von Digitalkonzernen sowie die deren Fähigkeiten zur Manipulationen (vgl. u. a. Persily 2017) auszeichnet und damit ein verstärktes Interesse an der Entwicklung von open-source-Infrastrukturen abseits der Monopole, bei der die NutzerInnen nicht von vornherein schon um die Gestaltungsmacht des öffentlichen Raumes, in dem sie kommunizieren gebracht sind, und sich die freie Nutzung der Infrastruktur mit ihren Daten erkaufen müssen (vgl. den Beitrag von Berg/Staemmler 2020 in diesem Band). Insgesamt kann festgehalten werden, dass die politische Öffentlichkeit auch unter digitalen Bedingungen kein machtfreier Raum ist. Es gibt Gatekeeper, die darüber entscheiden, wer Zugang zu ihren einzelnen Bereichen hat, welche Themen oder Akteure eine Rolle spielen und nach welchen Regeln kommuniziert

Grenzenlos, frei und politisch? …

37

werden kann. Es gibt Einfluss- und Anerkennungsstrukturen, die teilweise eigenen Logiken und Gesetzlichkeiten folgen, die zum Teil jedoch entsprechende Hierarchien und Differenzen aus anderen gesellschaftlichen Kontexten spiegeln. Sie bieten jedoch auch vielfältigere Möglichkeiten zur Beteiligung, zur Politisierung und zur Subjektivierung als je zuvor verfügbar waren. Mit Blick auf die wesentliche digitale Technologie, dem Internet, entzieht sich das Kriterium Offenheit also einer einfachen Bewertung – dies hat auch damit zu tun, dass es nicht ohne den Aspekt der Gleichheit diskutiert werden kann.

4.2 Gleichheit Die Kriterien von Offenheit und Gleichheit sind, wie Schwiertz (2019, S. 652) mit Verweis auf Jacques Rancières Der Hass der Demokratie (2011) herausstellt, nur miteinander zu denken: Demokratie ist „Kampf gegen Privatisierung“. Nicht nur der Zugang zur politischen Öffentlichkeit soll für alle gleichermaßen bestehen, damit Politik nicht „ein Wettstreit zwischen Eliten“ (Mouffe 2007, S. 31) bleibt. Die Offenheit der politischen Öffentlichkeit spiegelt sich im Grad der Gleichheit, die sie ihren TeilnehmerInnen zugesteht – und andersherum könne nur eine Öffentlichkeit, in der die TeilnehmerInnen als Gleiche unter Gleichen (vgl. Rancière 2016) auftreten, offen im Sinne politischer Handlungsfreiheit sein. Aus radikaldemokratischer Sicht rückt damit in den Blick, dass die in der „Declaration of the Independence of Cyberspace“ geäußerte Absicht – „We are creating a world that all may enter without privilege or prejudice accorded by race, economic power, military force, or station of birth“ (Barlow 1996) – praktisch ähnlich unerfüllt ist wie das Gleichheits- und Freiheitsversprechen der zum Vorbild genommenen Erklärung von 1776. In radikaldemokratischen Ansätzen ist genau dieses Auseinanderklaffen von Anspruch und Wirklichkeit in liberalen Demokratien der Ausgangspunkt für die Interventionen in den demokratietheoretischen Diskurs. Digitale Öffentlichkeit kann in diesem Sinne nur im Praktizieren der Gleichheit aller sprechenden Wesen (vgl. Rancière 2016) zur ‚politischen Öffentlichkeit‘ werden. Wie radikaldemokratisches Handeln im digitalen Raum möglich sein kann, zeigte sich vor einiger Zeit an jenem Ort, an dem der Internetpionier Barlow seine Unabhängigkeitserklärung formulierte: Nachdem die ugandische Klimaaktivistin Vanessa Nakate, Teil einer fünfköpfigen Delegation von jungen Klimaaktivistinnen beim 50. Weltwirtschaftsforum in Davos, erfuhr, dass sie auf einem von der Associated Press (AP) verbreiteten Fotos der Delegation herausgeschnitten worden war, protestierte sie auf Twitter. AP sah sich daraufhin genötigt zu erklären, die

38

C. Ritzi und A. Zierold

Entscheidung des Fotografen, die einzige schwarze Aktivistin aus dem Gruppenfoto der Delegation herauszuschneiden, „purely on composition grounds“ (Ake zitiert in Evelyn 2020) getroffen worden sei. Sie ersetzte das Foto mit einem, auf welchem alle fünf AktivistInnen abgebildet sind. Der Vorfall veranschaulicht zweierlei: Auch in der digitalen Öffentlichkeit wird die KuratorInnenrolle noch mitunter von den klassischen Medien und durch menschliche Akteure ausgefüllt. Andererseits ist hier der Einspruch gegen die so (re-)produzierte „Aufteilung des Sinnlichen“ (Rancière 2008, S. 31) mit geringen Mitteln und dennoch öffentlichkeitswirksam möglich. Nakates Protest über Twitter war so multimodal wie die Wirklichkeitsabbildung durch AP und enthielt neben einem Video auch die visuelle Gegenüberstellung der beiden Fotos. Die beiden Bilder verbreiteten sich massenhaft; auf Twitter und im Rest des hybriden Mediensystems (vgl. Evelyn 2020). Vanessa Nakate war damit in den Fokus der Öffentlichkeit gerückt und mit ihr nicht nur das Thema Klimaschutz, sondern auch jenes von Rassismus. Sie nahm so Einfluss auf das Agenda-Setting der politischen Öffentlichkeit („the things that a community considers as ‚to be looked into‘“; Rancière in Guénoun et al. 2000, S. 11). Ihr Handeln kann im radikaldemokratischen Sinne als politisch gelten, da sie die ihr verwehrte Gleichheit aktiv einforderte: Politisch handelt nach Rancière (2008, S. 21), wer „spricht, obwohl er nicht zu sprechen hat, derjenige, der an etwas teilnimmt, woran er keinen Anteil hat“. Soziale Medien wie Twitter sind – wie dieses Beispiel verdeutlicht – aus radikaldemokratischer Perspektive interessant, da sie Kommunikationsräume darstellen, die Agenda-Setting auch aus marginalisierter Position erlauben. Ann-Kathrin Koster (2020) zeigt etwa am Beispiel des Hashtags #metwo, wie Hashtag-Aktivismus (vgl. u. a. Bernard 2018) gewinnbringend mit der Politischen Theorie Rancières untersucht werden kann: Konzepte wie das der „algorithmic governance“ (vgl. für eine Übersicht: Katzenbach und Ulbricht 2019), die einen Fokus auf die handlungseinschränkenden Effekte technischer Infrastruktur legen, vernachlässigten zumeist deren subjektivierendes und handlungsermöglichendes Potential. Auch im Fall der Klimaaktivistin zeigt sich, wie durch und nicht etwa gegen die Infrastruktur Twitters politisches Handeln möglich wird: Der Ausschluss bzw. die Miss-Identifikation wurde mit der Amplifikation von Nakates Stimme in der Öffentlichkeit begegnet. Teil der Affordanz sozialer Medien ist also auch, politische Artikulationen von marginalisierten Stimmen zu verstärken und einen öffentlichen Ort des Streits zu ermöglichen, der die Wahrnehmungslogik der bestehenden sozialen Ordnung durchbricht (vgl. Koster 2020). Die Schwierigkeit, in der Öffentlichkeit Gehör zu finden, besteht jedoch auch im Digitalen. Unerlässlich für den politischen Effekt ist, wie auch Zivis (2016) Kritik an der scheinbar durch eine singuläre Artikulation möglichen

Grenzenlos, frei und politisch? …

39

Emanzipation bei Rancière zeigt, dass Dissens immer wieder artikuliert werden muss. Diese Iteration ist durch das Zuordnen zu einem Hashtag möglich, läuft aber auch hier Gefahr, nicht gegen die „hegemoniale Ordnung“ (Mouffe 2007, S. 27) anzukommen. Politisches Handeln bleibt demzufolge „immer punktuell, und ihre Subjekte sind stets prekär“ (Rancière 2008, S. 37). Das radikaldemokratische Merkmal der Gleichheit kann daher, wie von Marchart (2015) vorgeschlagen, auch um das der Solidarität ergänzt werden. Ob emanzipatorisches Handeln auf Plattformen wie Twitter gelingt, hängt nicht nur vom ‚Sender‘ der Nachricht ab, sondern auch davon, dass sich genügend andere finden, die die Nachricht weitertragen wollen. Der Fall von Vanessa Nakate belegt dies exemplarisch: Die Verbreitung ihres Protests geschah z. B. „in solidarity with @vanessa_vash whose voice was excluded“ (Maddrell 2020). Inwieweit diese Solidarität allerdings in Konflikt insbesondere mit der von Mouffe vertretenen Forderung nach der Konfliktivität von politischer Öffentlichkeit gerät, soll im letzten Abschnitt erläutert und für digitale Verhältnisse diskutiert werden.

4.3 Konfliktivität „Es wird heute viel von ‚Dialog‘ und ‚Deliberation‘ geredet, aber was bedeuten diese Wörter auf dem Gebiet des Politischen, wenn keine echte Wahlmöglichkeit besteht und die Diskussionsteilnehmer sich nicht zwischen klar voneinander abgehobenen Alternativen unterscheiden dürfen?“ (Mouffe 2007, S. 10). Von Chantal Mouffes Forderung nach der Schaffung „einer lebendigen ‚agonistischen‘ Sphäre des öffentlichen Wettstreits […], in der verschiedene hegemoniale politische Projekte miteinander konfrontiert werden könnten“ (ebd.), scheinen viele westliche Demokratien gegenwärtig weniger weit entfernt zu sein als es manche AutorInnen des „Postdemokratie“-Diskurses (Crouch 2004; Hay 2007) vorausgesehen haben. Dies liegt nicht nur am Erstarken populistischer Parteien, auch die Gelegenheitsstrukturen politischen Protests haben sich gewandelt (vgl. Baringhorst 2019; Oswald 2018). Die neue Niedrigschwelligkeit von politischer Artikulation hat in gewisser Weise zu einer Entfesselung der politischen Öffentlichkeit geführt. Das Internet hat sich als Medium des Konflikts etabliert (u. a.: Hands 2019; Bennett und Segerberg 2012; Gerbaudo 2012; Castells 2015), denn es „erweitert die Möglichkeiten der Skandalisierung von empfundenen Missständen und der Einflussnahme auf die öffentliche Meinungsbildung, erhöht die Sichtbarkeit von Protest und erleichtert dessen Mobilisierung und Vernetzung“ (Dolata und Schrape 2018b, S. 29). Nicht nur Mouffes Agonismus, sondern gerade Rancières Verständnis von Politik als die Inszenierung eines Unrechts könnte man hier also am Werk sehen (vgl. Rancière 2016, S. 50 f.).

40

C. Ritzi und A. Zierold

Ein wichtiges Kennzeichen zeitgenössischer politischer Öffentlichkeit ist damit einhergehend auch Affektivität. Die schon angesprochenen Möglichkeiten zur multimedialen Inszenierung des eigenen Ausdrucks werden rege genutzt. Ohne großen Aufwand produzier- und verbreitbare Videos oder Fotos transportieren und evozieren „die verschiedenen affektiven Kräfte, die am Ursprung der kollektiven Formen von Identifikation stehen“ (Mouffe 2007, S. 34 f.). Auch ‚Referentialität‘ ist dabei wichtiger Bestandteil der ‚Kultur der Digitalität‘ (Stalder 2016), in welcher Protestbewegungen z. B. auf Memes zurückgreifen, um Politisches in kulturelle und damit für Kollektivierungsprozesse geeignete Deutungsräume einzubetten. Solche kreativen Formen der politischen Partizipation laufen aber auch Gefahr, dass ihr Sprechen lediglich als unpolitischer ‚Lärm‘, wie es Rancière beschreibt, der den vernünftigen politischen Prozess stört, abgetan wird. Radikaldemokratische Öffentlichkeit, die diese ‚nicht als Sphäre‘ für gegeben akzeptieren kann, sondern „als Szene“ (Abbas zu Rancière 2011, S. 294), die noch ausgestaltet werden muss, ist auf die affektive und konfliktive Dimension angewiesen. Digitale Medien erlauben die besondere Ausgestaltung dieser beiden Dimensionen, allerdings ist Aufmerksamkeit ein knappes Gut und nicht nur „[f]or decision makers, communicative plenty means much more noise“ (Ercan et al. 2018, S. 4). Bennett und Iyengars (2008) „New Era of Minimal Effects“ kann nicht nur für die gesunkenen Effekte massenmedialer Kommunikation gelten, sondern trifft auch Akteure auf Plattformen, die teils nur durch besonders disruptives Verhalten in der Lage sind, die Zirkulation von Kommunikation zum Pausieren zu bekommen. Mit Blick auf Wahlergebnisse scheint es derzeit so, als ob die Digitalisierung vor allem konservativen und rechtsnationalistischen Kräften in die Hände spielt. Schradie (2019, S. 15) beschreibt eine ‚digital activism divide‘, welcher jedoch nicht überstürzt begegnet werden sollte: More recently, liberals and progressives awakened to their demoted digital status, and tried to place the blame on Russian bots, fake news, or gullible conservative voters who where easily manipulated. Whatever truth there may be to those accusations, they miss the far more profound reality of how the very nature of the internet and digital activism favors conservatives. It is only by truly understanding how these processes work that people who are not conservative – nor elite nor hierarchical nor reformist – may have a better chance at subverting them (Schradie 2019, S. 15). Die Ästhetik öffentlicher Meinung kann über die tatsächlichen Verhältnisse täuschen und Einfluss auf die Subjektivierungsfunktion haben (vgl. NoelleNeumann 1980), und die Existenz und Möglichkeit von Social Bots sind – auch wenn angezweifelt werden darf, dass sie (derzeit) politisch eine große Rolle

Grenzenlos, frei und politisch? …

41

spielen (vgl. z. B. Thieltges und Hegelich 2018) – eine Herausforderung, die nicht unterschätzt werden darf. Es ist daher auch für radikaldemokratische Ansätze wichtig, dass bei aller Konfliktivität Raum für die Entwicklung von Vertrauen und Solidarität bleibt.

5 Fazit Die Konsequenz, die Dean (2003) aus ihrer Kritik am deliberativen Öffentlichkeitsbegriff und den ökonomischen Grundlagen des Internets zieht; nämlich, den Öffentlichkeitsbegriff vollständig zu verwerfen, wäre aus der Sicht der hier besprochenen TheoretikerInnen der radikalen Demokratietheorie nicht sinnvoll. Bei aller Kritik, die ihrer Meinung nach an der faktischen Umsetzung von Demokratie in entsprechend bezeichneten Regierungssystemen nötig ist, so wird doch am Begriff der „Demokratie“ festgehalten und seine Resignifikation angestrebt. Dass „Demokratie im Kommen“ (Derrida 2003) und niemals endgültig verwirklicht ist, gehört zu den Grundüberzeugungen radikaldemokratischer Ansätze, und kann auch für den Begriff der Öffentlichkeit fruchtbar gemacht werden: Wie Demokratie ist auch politische Öffentlichkeit eine ständige Aufgabe. Dass die Öffentlichkeit aktuell tatsächlich wieder als aktiv zu bewältigende Herausforderung in den Blick geraten ist, kann als Effekt des epistemologischen Wandels, den die Digitalisierung angestoßen hat, gelten: Durch die Digitalisierung ist die räumliche und zeitliche Dimension der Demokratie stärker in den Vordergrund gerückt – denn die raumzeitliche Entgrenzung von politischer Öffentlichkeit zwingt dazu, sich wieder verstärkt mit den Grenzen von Demokratie und ihren Grundbegriffen auseinanderzusetzen. Zu den Grenzen von politischem Handeln gehören nicht zuletzt auch die technologischen Grundlagen einer Gesellschaft. Es gilt, bei der Bearbeitung der politischen Herausforderungen, die sich aus dem ihrem Wandel ergeben, weder in einen Determinismus noch in einen Solutionismus zu verfallen (vgl. auch Morozov 2011): Digitalisierung wirkt […] nicht deterministisch: Digitale Kommunikation legt aufgrund ihrer Eigenschaften bestimmte Nutzungsformen nahe oder macht diese überhaupt erst denkbar. Ob und wie diese in der Praxis genutzt werden, ist damit jedoch nicht vorgegeben (Jacob und Thiel 2017, S. 8). Jacob und Thiel heben hier, wie Andrew Feenberg und seine These von der Ambivalenz von Technik (1991), darauf ab, dass sowohl die Eigenschaften von Technologien als auch ihre tatsächliche Nutzung betrachtet werden müssen. Radikaldemokratische Ansätze eignen sich hierzu, da sie bei aller Kritik an antipolitischen/postdemokratischen Zuständen auch den Blick auf Möglichkeiten

42

C. Ritzi und A. Zierold

des individuellen und kollektiven Widerstands gegenüber Herrschaft – auch der von Technik – lenken. Die Infrastruktur, in der Demokratie immer wieder neu erkämpft werden soll, ist selbst zu demokratisieren. Dass keine Technokratie daraus wird und „die Macht derjenigen, die wissen, über diejenigen, die nicht wissen“ (Rancière 2008, S. 16) wächst, ist eine besondere Herausforderung bei einem Phänomen wie der Digitalisierung. „[D]ass die politischen Fragen nicht nur technische Probleme sind, die von Experten zu lösen wären“ (Mouffe 2007, S. 17; vgl. auch Rancière 2016, S. 51) scheint aber viele Protestbewegungen von heute zu beflügeln. Eine Kommunikationsverweigerung, die man aus Deans Setzung des ‚Communicative Capitalism‘ in dem jegliche Kommunikation letztendlich der Herrschaftsstabilisierung des Kapitalismus dient (vgl. Dean 2003), ebenfalls ableiten könnte, ist mit den Theorien von AutorInnen wie Mouffe und Rancière nicht zu machen. Sie bleiben angewiesen auf die Öffentlichkeit als Kommunikationsraum. Wie Abbas (2019, S. 392) in Erinnerung ruft, ist ‚Politik‘ bei Rancière „an die Bedingung gebunden, dass Subjekte ihren Ausschluss diskursiv artikulieren und derart die ihnen verweigerte Gleichheit beweisen“ – ohne die Begründung eines „kollektiven Sprachraum[s]“ (ebd.), würde Politik nicht in Erscheinung treten können.

Literatur- und Quellenverzeichnis Abbas, N. 2019. Jacques Rancière. In Radikale Demokratietheorie. Ein Handbuch, Hrsg. D. Comtesse, O. Flügel-Martinsen, F. Martinsen, und M. Nonhoff, 388–399. Berlin: Suhrkamp. Barber, B. 1998. Wie demokratisch ist das Internet? Telepolis. https://www.heise.de/tp/ features/Wie-demokratisch-ist-das-Internet-3446176.html. Zugegriffen: 18. Juli 2019. Baringhorst, S. 2019. Auswirkungen der Digitalisierung auf soziale Bewegungen Annahmen, Befunde und Desiderata der Forschung. In Politik in der digitalen Gesellschaft, Hrsg. J. Hofmann, N. Kersting, C. Ritzi, und W. J. Schünemann, 151–170. Bielefeld: transcript. Barlow, J. M. 1996. A declaration of the independence of cyberspace. Electronic Frontier Foundation. https://www.eff.org/cyberspace-independence. Zugegriffen: 28. Jan. 2020. Bennett, W.L., und S. Iyengar. 2008. A new era of minimal effects? The changing foundations of political communication. Journal of Communication 58: 707–731. Bennett, W.L., und A. Segerberg. 2012. The logic of connective action: Digital media and the personalization of contentious politics. Information, Communication & Society 15: 739–768. Berg, S., und D. Staemmler. 2020. Zur Konstitution der digitalen Gesellschaft. Alternative Infrastrukturen als Element demokratischer Digitalisierung. In Demokratietheorie im Zeitalter der Frühdigitalisierung, Hrsg. M. Oswald und I. Borucki. Wiesbaden: Springer.

Grenzenlos, frei und politisch? …

43

Bernard, A. 2018. Das Diktat des Hashtags: Über ein Prinzip der aktuellen Debattenbildung. Frankfurt a. M.: Fischer. Brown, W. 2011. „We are all democrats now…“. In Democracy in what state?, Hrsg. G. Agamben, A. Badiou, D. Bensaid, W. Brown, J.-L. Nancy, J. Rancière, K. Ross, und S. Žižek, 44–57. New York: Columbia University Press. Castells, M. 2015. Networks of outrage and hope: Social movements in the internet age, 2. Aufl. Cambridge: Polity. Chadwick, A. 2013. The hybrid media system. Politics and power. Oxford: Oxford University Press. Comtesse, D., O. Flügel-Martinsen, F. Martinsen, und M. Nonhoff (Hrsg.). 2019a. Radikale Demokratietheorie. Ein Handbuch. Berlin: Suhrkamp. Comtesse, D., O. Flügel-Martinsen, F. Martinsen, und M. Nonhoff. 2019b. Einleitung. Radikale Demokratietheorie. In Radikale Demokratietheorie. Ein Handbuch, Hrsg. D. Comtesse, O. Flügel-Martinsen, F. Martinsen, und M. Nonhoff, 11–16. Berlin: Suhrkamp. Crouch, C. 2004. Post-democracy. Cambridge: Polity. Dahlgren, P. 2005. The internet, public spheres, and political communication: Dispersion and deliberation. Political Communication 2: 147–162. Dean, J. 2003. Why the net is not a public sphere. Constellations 1: 95–112. Derrida, J. 2003. Schurken. Frankfurt a. M.: Suhrkamp. Dijk, J. van, und K.L. Hacker. (Hrsg.). 2018. Internet and democracy in the network society. London: Routledge. Dryzek, J.S. 2002. Deliberative democracy and beyond: Liberals, critics. Contestations: Oxford University Press. Dubois, E., und G. Blank. 2018. The echo chamber is overstated: The moderating effect of political interest and diverse media. Information, Communication & Society 5: 729–745. Dolata, U., und J.-F. Schrape. 2018a. Kollektivität und Macht im Internet. In Kollektivität und Macht im Internet. Soziale Bewegungen – Open Source Communities – Internetkonzerne, Hrsg. U. Dolata und J.F. Schrape, 1–5. Wiesbaden: Springer VS. Dolata, U., und J.-F. Schrape. 2018b. Kollektives Handeln im Internet. Eine akteurstheoretische Fundierung. In Kollektivität und Macht im Internet. Soziale Bewegungen – Open Source Communities – Internetkonzerne, Hrsg. U. Dolata und J.F. Schrape, 7–38. Wiesbaden: Springer VS. Ercan, S., C. Hendriks, und J. Dryzek. 2018. Public deliberation in an era of communicative plenty. Policy & Politics 1: 19–36. Evelyn, K. 2020. Outrage at whites-only image as Ugandan climate activist cropped from photo. The Guardian. https://www.theguardian.com/world/2020/jan/24/whites-onlyphoto-uganda-climate-activist-vanessa-nakate. Zugegriffen: 26. Jan. 2020. Feenberg, A. 1991. Critical theory of technology. New York: Oxford University Press. Filipović, A. 2019. Alles Habermas!? Alternative Theorien für eine Ethik öffentlicher Kommunikation in Zeiten der Digitalität. In Digitaler Strukturwandel der Öffentlichkeit. Interdisziplinäre Perspektiven auf politische Partizipation im Wandel, Hrsg. J. Bedford-Strohm, F. Höhne, und J. Zeyher-Quattlender, 219–232. Baden-Baden: Nomos. Flügel, O., R. Heil, und A. Hetzel. 2004. Die Rückkehr des Politischen. In Die Rückkehr des Politischen, Hrsg. O. Flügel, R. Heil, und A. Hetzel, 7–16. Darmstadt: Wissenschaftliche Buchgesellschaft.

44

C. Ritzi und A. Zierold

Fraser, N. 2007. Transnationalizing the public sphere: On the legitimacy and efficacy of public opinion in a post-Westphalian World. Theory, Culture & Society 4: 7–30. Guénoun, S., J.H. Kavanagh, und R. Lapidus. 2000. Jacques Rancière: Literature, politics, aesthetics: Approaches to democratic disagreement. SubStance 29: 3–24. Gerbaudo, P. 2012. Tweets and the streets: Social media and contemporary activism. London: Pluto Press. Gerhards, J. 1994. Politische Öffentlichkeit. Ein system- und akteurstheoretischer Bestimmungsversuch. Öffentlichkeit, öffentliche Meinung, soziale Bewegungen. Sonderheft der Kölner Zeitschrift für Soziologie und Sozialpsychologie, Hrsg. F. Neidhardt 34: 77–105. Hands, J. 2019. Gadget consciousness: Collective thought, will and action in the age of social media. London: Pluto Press. Hartmann, M. 2011. Die Praxis des Vertrauens. Frankfurt a. M.: Suhrkamp. Hay, C. 2007. Why we hate politics. Cambridge: Polity. Heil, R., und A. Hetzel. 2006. Die unendliche Aufgabe. In Die unendliche Aufgabe. Kritik und Perspektiven der Demokratietheorie, Hrsg. R. Heil und A. Hetzel, 7–24. Bielefeld: transcript. Helbig, K. 2018. Der Einfluss von Algorithmen auf demokratische Deliberation. In (Un) berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, Hrsg. R. Mohabbat-Kar, B.E.P. Thapa, und P. Parycek, 339–363. Berlin: Frauenhofer-Institut für Offene Kommunikationssysteme. Hintz, A., und S. Milan. 2018. Through a glass, darkly: Everyday acts of authoritarianism and surveillance cultures in the West. International Journal of Communication 12: 3939–3959. Imhof, K. 2008. Theorie der Öffentlichkeit als Theorie der Moderne. Wiesbaden: Springer VS. Jacob, D., und T. Thiel. 2017. Einleitung: Digitalisierung als politische Phänomen. In Politische Theorie und Digitalisierung, Hrsg. D. Jacob und T. Thiel, 7–26. BadenBaden: Nomos. Jarren, O., und P. Donges. 2011. Politische Kommunikation in der Mediengesellschaft: Eine Einführung, 3. Aufl. Wiesbaden: Springer VS. Jenkins, H., S. Ford, und J. Green (Hrsg.). 2013. Spreadable media. Creating value and meaning in a networked culture. New York: New York University Press. Katzenbach, C., und L. Ulbricht. 2019. Algorithmic governance. Internet Policy Review 4: 1–18. Keller, T.R., und U. Klinger. 2018. Social bots in election campaigns: Theoretical, empirical, and methodological implications. Political Communication 36: 171–189. Koster, A.-K. 2020. Das radikaldemokratische Moment von Hashtag-Aktivismus. In Forschungsjournal Soziale Bewegungen 33: 442–456. Laclau, E., und C. Mouffe. 2006. Hegemonie und radikale Demokratie: Zur Dekonstruktion des Marxismus. Dt. Erstausg, 3. Aufl. Wien: Passagen-Verl. Lang, S. 2001. Politische Öffentlichkeit im modernen Staat. Baden-Baden: Nomos. Lefort, C. 1990. Die Frage der Demokratie. In Autonome Gesellschaft und libertäre Demokratie, Hrsg. U. Rödel, 281–279. Frankfurt a. M.: Suhrkamp.

Grenzenlos, frei und politisch? …

45

Linpinsel, T. 2018. Von der politischen Differenz zur Soziologie der Gleichheit. In Gleichheit, Politik und Polizei: Jacques Rancière und die Sozialwissenschaften, Kulturelle Figurationen, Hrsg. T. Linpinsel und I.-T. Lim, 187–216. Wiesbaden: Springer VS. Maddrell, G. 2020. Day 6/30: #AfricanVoicesMatter #AllVoicesMatter #SayNoToRacism. #digitalstrike in solidarity with @vanessa_vash. https://twitter.com/ElmGrace/status/12 22618915907493888?s=20. Zugegriffen: 30. Jan. 2020. Marchart, O. 2007. Eine demokratische Gegenhegemonie. Zur neo-gramscianischen Demokratietheorie bei Laclau und Mouffe. In „Hegemonie gepanzert mit Zwang“. Zivilgesellschaft und Politik im Staatsverständnis von Antonio Gramsci, Hrsg. A. Fischer-Lescano und S. Buckel, 105–120. Baden-Baden: Nomos. Marchart, O. 2010. Die politische Differenz. Zum Denken des Politischen bei Nancy, Lefort, Badiou, Laclau und Agamben. Frankfurt a. M.: Suhrkamp. Marchart, O. 2015. Demokratischer Radikalismus und radikale Demokratie. Historischprogrammatische Anmerkungen zum Stand politischer Theorie. Berliner Debatte Initial 4: 21–32. Martinsen, R. 2009. Öffentlichkeit in der „Mediendemokratie“ aus der Perspektive konkurrierender Demokratietheorien. In Politik in der Mediendemokratie. Politische Vierteljahresschrift – Sonderheft, Hrsg. B. Pfetsch, und F. Marcinkowski 42: 37–69. Marx Ferree, M., W.A. Gamson, J. Gerhards, und D. Rucht. 2002. Four models of the public sphere in modern democracies. Theory and Society 31: 289–324. Meyer, K., und D. Comtesse. 2011. Plurale Perspektiven auf die Postdemokratie. In Zeitschrift für Politische Theorie 1: 63–75. Milan, S., und C. Agosti. 2019. Personalisation algorithms and elections: Breaking free of the filter bubble. Internet Policy Review Journal on Internet regulation. https:// policyreview.info/articles/news/personalisation-algorithms-and-elections-breaking-freefilter-bubble/1385. Zugegriffen: 28. Jan. 2020. Morozov, E. 2011. The net delusion. The dark side of internet freedom. London: PublicAffairs. Mouffe, C. 1993. The return of the political. London: Verso. Mouffe, C. 2007. Über das Politische. Wider die kosmopolitische Illusion. Frankfurt a. M.: Suhrkamp. Neidhardt, F. 1994. Öffentlichkeit, öffentliche Meinung, soziale Bewegungen. In Öffentlichkeit, öffentliche Meinung, soziale Bewegungen. Sonderheft der Kölner Zeitschrift für Soziologie und Sozialpsychologie, Hrsg. F. Neidhardt 34: 7–41. Noelle-Neumann, E. 1980. Die Schweigespirale: öffentliche Meinung, unsere soziale Haut. München: Riper [i. e. Piper]. Norris, P. 2001. Digital divide: Civic engagement, information poverty, and the Internet worldwide. Cambridge: Cambridge University Press. Oswald, M. 2018. Strategische Politische Kommunikation im digitalen Wandel – Ein disruptives Zeitalter? In Strategische Politische Kommunikation im digitalen Wandel: Interdisziplinäre Perspektiven auf ein dynamisches Forschungsfeld, Hrsg. Michael Oswald und Michael Johann, 7–34. Wiesbaden: Springer VS. Pariser, E. 2012. The filter bubble. What the internet is hiding from you. London: Penguin Books.

46

C. Ritzi und A. Zierold

Pasquale, F. 2015. The black box society. The secret algorithms that control money and information. Massachusetts: Harvard University Press. Persily, N. 2017. The 2016 U.S. election: Can democracy survive the internet? Journal of Democracy 28: 63–76. Peters, B. 2007. Der Sinn von Öffentlichkeit. Frankfurt a. M.: Suhrkamp (Erstveröffentlichung 1994). Quattrociocchi, W. 2017. Inside the Echo Chamber. How conspiracy theories spread online – And what can be done to stop them. Scientific American 4: 60–63. Rancière, J. 1996. Demokratie und Postdemokratie. In Politik der Wahrheit, Hrsg. A. Badiou und J. Rancière, 119–156. Wien: Turia + Kant. Rancière, J. 2008. Zehn Thesen zur Politik. Zürich: Diaphanes. Rancière, J. 2011. Der Hass der Demokratie. Berlin: August Verlag. Rancière, J. 2016. Das Unvernehmen: Politik und Philosophie, 6. Aufl. Frankfurt a. M.: Suhrkamp. Rheingold, H. 1994. Virtuelle Gemeinschaft: Soziale Beziehungen im Zeitalter des Computers. Bonn: Addison-Wesley. Ritzi, C. 2014. Die Postdemokratisierung politischer Öffentlichkeit. Kritik zeitgenössischer Demokratie – Theoretische Grundlagen und analytische Perspektiven. Wiesbaden: Springer VS. Ritzi, C. 2016. Geheimnis und Demokratie. In Staatsgeheimnisse. Arkanpolitik im Wechsel der Zeiten, Hrsg. R. Voigt, 179–204. Wiesbaden: Springer VS. Sarcinelli, U. 2011. Politische Kommunikation in Deutschland. Medien und Politikvermittlung im demokratischen System, 3. Aufl. Wiesbaden: VS Verlag. Schaal, G.S. 2004. Vertrauen, Verfassung und Demokratie. Über den Einfluss konstitutioneller Prozesse und Prozeduren auf die Genese von Vertrauensbeziehungen in modernen Demokratien. Wiesbaden: VS Verlag. Schradie, J. 2019. The revolution that wasn’t: How digital activism favors conservatives. Cambridge: Harvard University Press. Schwiertz, H. 2019. Grenzen. In Radikale Demokratietheorie: Ein Handbuch, Suhrkamp Taschenbuch Wissenschaft, Hrsg. D. Comtesse, O. Flügel-Martinsen, F. Martinsen, und M. Nonhoff, 647–657. Berlin: Suhrkamp. Smith, T.G. 2017. Politicizing digital space. Theory, the internet and renewing democracy. Westminster: University of Westminster Press. Stalder, F. 2016. Kultur der Digitalität. Berlin: Suhrkamp. Thieltges, A., und S. Hegelich. 2018. Falschinformationen und Manipulation durch social bots in sozialen Netzwerken. In Computational Social Science. Die Analyse von Big Data, Hrsg. A. Blätte, J. Behnke, K.-U. Schnapp, und C. Wagemann, 357–377. BadenBaden: Nomos. Wolff, V. 2003. Herausforderung – Wie Journalisten in der Medienkrise Kurs halten. In Die Meinungsmacher in der Mediengesellschaft, Hrsg. L. Rolke und V. Wolff, 137–144. Wiesbaden: Westdeutscher Verlag. Zivi, K. 2016. Politics is hard work: Performativity and the preconditions of intelligibility. Philosophy & Rhetoric 4: 438–458.

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie im digitalen Zeitalter Gizem Kaya 1 Einleitung Unter dem Begriff der Postdemokratie haben Intellektuelle wie Jacques Rancière, Sheldon Wolin oder Colin Crouch versucht, den Krisenzustand der Demokratie auf den Punkt zu bringen.1 Negative Diagnosen und defätistische Narrative dominieren Analysen moderner Demokratien. Vor diesem Hintergrund schien der Anbruch des digitalen Zeitalters zunächst neue Hoffnungen aufkeimen zu lassen. Die erweiterte Massenkommunikation des Internets wurde von Optimisten als Chance begriffen, die Krise der demokratischen Öffentlichkeit überwinden zu können, indem es den Wiedereinzug interaktiver und partizipatorischer Elemente in den gesamtgesellschaftlichen Diskurs zuließ (vgl. Dahlberg 2001; Ingold 2017; Newman et al. 2016; Lovejoy und Saxton 2012). Aus demokratietheoretischer Perspektive ist diese Zuversicht auf den Prüfstand zu stellen. Zwar haben die veränderten Kommunikationsbedingungen neue Chancen für eine demokratische Teilhabe eröffnet. Dennoch sind Tendenzen erkennbar, die die demokratischen Ansprüche an den politischen Diskurs zu untergraben scheinen, so beispielsweise das Erstarken eines neuen Populismus oder die zentrifugale Diversifizierung

1Siehe

zum Beispiel Colin Crouch, der mit seinem Buch Postdemokratie (2000), jenen Krisenzustand der Demokratie auf den Punkt bringt oder John Dewey, der bereits 1927 in The Public and its Problems die Öffentlichkeitsproblematik der modernen Demokratie analysiert.

G. Kaya (*)  Universität Potsdam, Potsdam, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_4

47

48

G. Kaya

der Öffentlichkeit (vgl. Oswald 2018, S. 10). Der vorliegende Beitrag nimmt dies zum Anlass, um der Frage nachzugehen, wie sich die Digitalisierung auf die demokratietheoretische Landschaft auswirkt. Welche ihrer Grundkonzepte, Normen und Prämissen sind durch das Internet in Bedrängnis geraten und wo eröffnen sich Chancen? Die Frage wird exemplarisch am Habermas’schen Modell der deliberativen Demokratie und der radikalen Demokratietheorie von Chantal Mouffe untersucht. Da hier keine vollständige Topographie abgebildet werden kann, wird eine Auslese für die Konkretisierung des Untersuchungsgegenstandes notwendigerweise stattfinden müssen. Den Untersuchungsgegenstand der Arbeit auf diese beiden Spielarten der Demokratietheorie zu fokussieren, erscheint aus zweierlei Gründen sinnvoll. Zum einen vereint die deliberative Demokratietheorie wichtige Grundprämissen aus den liberalen und republikanischen Demokratiemodellen. Zum anderen repräsentiert die radikale Demokratietheorie die exakt konträren Grundannahmen, so dass der Beitrag insgesamt eine Pluralität an Normen und Konzeptionen abbilden kann. Der Beitrag ist wie folgt aufgebaut: In einem ersten Abschnitt werden die Grundzüge der beiden Demokratietheorien skizziert. In einem zweiten Schritt werden die durch die Digitalisierung hervorgerufenen strukturellen Veränderungsmerkmale ausgearbeitet. Der Beitragstitel pointiert bereits die Spannungszonen und Ambivalenzen, die sich zwischen der Digitalisierung und Demokratietheorie eröffnen. Die hier vertretene These konstatiert mit einer zeitgenössischen Lesart von Richard Sennetts Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität (1974), die auf Andreas Reckwitz‘ Gesellschaft der Singularitäten (2017) rekurriert, dass die Demokratie angesichts des digitalen Zeitalters vor zwei problematischen Entwicklungen steht: einerseits der Personalisierung des Politischen und andererseits der zunehmenden Überlagerung der öffentlichen Sphäre durch das Private. Die Digitalisierung erzeugt mit seiner Tendenz zur Personalisierung des Politischen eine Reihe von Paradoxien und Spannungsfeldern. Sie ist nicht ihr alleiniger Auslöser, aber sie ermöglicht, regt an, beschleunigt und erzwingt zuweilen. Der Beitrag verweist auf vier Erscheinungsformen moderner digitaler Öffentlichkeiten: Fragmentierte Öffentlichkeiten, affektive Öffentlichkeiten, ideologisch-polarisierte Öffentlichkeiten und manipulierte Öffentlichkeiten. Hieran anschließend werden im dritten Abschnitt die Implikationen für die deliberative und radikale Demokratietheorie herausgearbeitet: Wie wirken sich die neuen, digitalen Herausforderungen und Erscheinungsformen der Öffentlichkeit auf sie aus und vice versa?

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

49

2 Deliberative und radikale Demokratiemodelle 2.1 Die deliberative Demokratietheorie Theorien der Demokratie gliedern sich in verschiedene Spielarten auf. Sie beschreiben grundlegend die Beziehung zwischen Gesellschaft und Staat unter dem Aspekt der Regelung von politischer Herrschaft. Ausgehend von der Frage der Legitimität kommt der Rückbindung der Herrschaft an das Volk eine entscheidende Bedeutung zu. Während diese Annahme von allen Demokratietheorien geteilt wird, unterscheiden sie sich in der Frage um die konkrete Verhältnisbestimmung zwischen Herrschenden und Beherrschten (vgl. Albrecht 2010, S. 36). Seit Beginn des 20. Jahrhunderts oszillierte das Demokratieverständnis größtenteils zwischen liberalen und republikanischen Idealtypen. Mit der deliberativen Demokratie hat allerdings ab Mitte der 1990er Jahre ein neues Konzept Einzug in die normative Demokratietheorie erhalten und sich seither zum Vorreiter der normativ-analytischen Reflexion über Demokratie entwickelt. Trotz unterschiedlicher Schwerpunktsetzungen steht im Zentrum dieser Modelle die Idee öffentlicher Diskussion als konstituierendes Element demokratischer Verfahrensweisen. Im deutschsprachigen Raum zählt Habermas zweifelsohne zum prominentesten und meistdiskutierten Vertreter des deliberativen Modells.2 Seine Konzeption bildet in diesem Beitrag den Ausgangspunkt der Auseinandersetzung mit deliberativen Demokratietheorien. Um sein Modell der deliberativen Demokratie zu erarbeiten, positioniert sich Habermas jenseits von Liberalismus und Republikanismus und schlägt einen dritten Weg vor (vgl. Habermas 1996, 2006; Giesen 2015, S. 168; Ottman 2006).3 Seine Konzeption besteht im Wesentlichen darin, die Demokratie unter dem Paradigma der Vernunft zu denken und die öffentliche Diskussion zum Ort der Willensbildung und Vorhof zur

2Zu

den deliberativen Demokratiemodellen gehören vor allem die Ansätze von Jürgen Habermas (Habermas 1989; 1994; 1999a; 1999b) und John Rawls (1995; 1997; 2003; 2005) sowie deren Schüler Seyla Benhabib (1995, 1996), Joshua Cohen (1997) und James Fishkin (2011). 3Gegen den Liberalismus wendet er ein, dass dieser den politischen Prozess vor allem als Verhandlung zwischen Privatinteressen sieht, in der das Moment der gesellschaftlichen Solidarität fehlt und die Kommunikation verflacht. Vom Republikanismus distanziert er sich, weil dieser von einem Begriff der Gemeinschaft ausgeht, der mit den pluralistischen Bedingungen der Moderne nicht vereinbar ist. Der Habermassche Ansatz versucht in der Alternative der deliberativen Demokratie, diese Unzulänglichkeiten zu vermeiden (Habermas 2006, S. 317).

50

G. Kaya

Entscheidungsfindung zu bestimmen. Der Zentralbegriff ‚deliberare‘ (lat. für ‚abwägen‘ und ‚beratschlagen‘) bezeichnet im Gegensatz zur reinen Dezision einen Beratungsprozess, bei dem das argumentative Abwägen von Positionen und Gegenposition sowie die verständigungsorientierte Beratschlagung jeder demokratischen Entscheidung vorausgeht (vgl. Suntrup 2010, S. 606). Deliberative Prozesses sind zudem klaren Bestimmungen und Kommunikationsbedingungen unterworfen. Diese prozessualen Bestimmungen regulieren einen idealen Diskurs, der darauf ausgelegt ist, die „vernünftige“ Qualität von Entscheidungen zu garantieren, aus der heraus sich politisches Handeln fernab von Machtwillkür legitimieren kann. Die entsprechenden formalen Bedingungen entstammen der Diskurstheorie, die Habermas in seiner Theorie des kommunikativen Handelns (1981) aufgestellt hat. Darin entwirft er die Parameter einer idealen Sprechsituation. In der Deliberation spielen Machtkonstellationen und wirtschaftliche Verhältnisse idealiter keine Rolle. Externe sowie interne Zwänge, die den Diskurs einschränken könnten, müssen ausgeschlossen sein, womit dem liberalen Grundsatz Rechnung getragen wird (vgl. Habermas 1981, S. 70). Durch die Beteiligungsberechtigung aller soll wiederum das Prinzip der Chancengleichheit zur Teilnahme an der Beratung gewährleistet werden: Deliberierende sind mit dem gleichen Recht ausgestattet, Vorschläge in die Diskussion einzubringen, Stellungnahmen zu formulieren und Argumente vorzutragen (vgl. ebd., S. 74). Subjektivität ist dabei zunächst inbegriffen. Die Chance, Bedürfnisse, vor-politische Einstellungen und Präferenzen auszudrücken und über diese zu beraten, steht den Diskursteilnehmenden zur Verfügung. Entscheidend ist hierbei aber die Konsenserwartung an die öffentliche Diskussion (vgl. ebd., S. 39). Mit der konsensuellen Ausrichtung zielt Habermas auf die Verständigung der Akteure ab. Diese müssen stets bereit sein, ihre Positionen mit guten Gründen zu unterlegen und dürfen ihrerseits jederzeit Rechtfertigungen von anderen Diskursteilnehmenden einfordern (vgl. ebd., S. 75). An erster Stelle steht damit der Wille, sich überhaupt verständigen zu wollen. Das schließt den Verzicht auf die Verächtlichung des Gegners sowie die Bereitschaft mit ein, ihm zuzuhören und zuzugestehen, dass er etwas Bedenkenswertes zum jeweiligen Thema zu sagen hat (vgl. Ottmann 2015, S. 225). Letztlich bestimmt das bessere Argument allein das Resultat der Diskussion. Habermas spricht hier vom „zwanglosen Zwang des besseren Argumentes“ (Habermas 1981, S. 52). Das Maßgebende des Diskurses ist nicht ein akzeptierter Kompromiss im Ausgleich von Interessen, sondern „die von allen Beteiligten anerkannte Autorität der Vernunft, […] eine über die horizontale Beziehung zwischen konkurrierenden Ansprüchen hinausgreifende Autorität (Habermas 1981, S. 416 f.). Demokratie realisiert sich demnach in einem durch

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

51

Freiheit und Gleichheit der Bürger charakterisierten kommunikativen öffentlichen Raum, in dem Interessen verhandelt und gemeinsame Ziele beratend erarbeitet werden (vgl. hierzu Wernecke 2015, S. 205). Die liberalen und egalitären Prinzipien sind dabei nicht das Resultat der Deliberation, sondern Voraussetzung derselben (vgl. hierzu auch Ottmann 2015, S. 225). Auch hinsichtlich der Themen ist Inklusion für die deliberative Demokratie elementar. Hier herrscht der Grundsatz, dass sich die Erörterungen auf alle Materien erstrecken können, die im Interesse aller zu regeln sind (Habermas 1992, S. 433). Zudem gilt die Maxime, dass die Beratung grundsätzlich unbegrenzt fortgesetzt oder, im Falle einer Unterbrechung, jederzeit wiederaufgenommen werden kann. Damit ist die deliberative Demokratie als ein argumentatives Verfahren zu verstehen, das sich im Austausch von Gründen und Gegengründen vollzieht und mit dem zwanglosen Siegeszug des besseren Arguments mündet (vgl. Habermas 1992, S. 370). Die Bedingungen des idealen Diskurses können wohl nie erreicht werden, bleiben aber als anzustrebendes Ziel bestehen und dienen vor allem als kritischer Maßstab für reale Diskurse. Deliberative Ansätze reagieren damit auf offensichtliche Unvollkommenheiten moderner Demokratien, in dem sie der politischen Welt der Machtspiele und der klandestinen Entscheidungen die Logik des Rechtfertigens und Argumentieren entgegensetzen (vgl. Suntrup 2010, S. 606).

2.2 Die radikale Demokratietheorie Im Feld der Demokratietheorien nehmen agonale Modelle markante Gegenpositionen zu deliberativen Ansätzen ein. Anstelle von Konzeptionen idealer Kommunikation (Jürgen Habermas) oder fairer Kooperationsbedingungen (John Rawls), deren Konsensorientierung als Ursache für gegenwärtige Krisenerscheinungen westlicher Demokratien interpretiert wird, zentrieren sich agonale Modelle um die Anerkennung einer Anthropologie des Politischen. Die Anerkennung von Gegensätzlichkeit und Differenz als konstante konfliktuelle Dimension gesellschaftlicher Konstitution wird zur conditio humana erklärt. In einem Primat des Politischen wird das „Moderne“ aktueller Gesellschaften gesehen, das mit einer pluralistischen demokratischen Öffentlichkeit verbunden werden muss (vgl. Schwarz 2017, S. 194). Seit der Veröffentlichung von Hegemonie und radikale Demokratie im Jahr 1985 gelten Ernesto Laclau und Chantal Mouffe als wichtigste Vertreter agonaler Positionen (vgl. Laclau und Mouffe 2006). Aufbauend auf diesem Hauptwerk entwickelt Mouffe in The Democratic Paradox (2000) aber auch in

52

G. Kaya

anderen Arbeiten wie On the Political (2005, 2007) oder Agonistics (2013) ein poststrukturalistisches Demokratiekonzept, anhand dessen die Besonderheit der radikalen Demokratietheorie im Folgenden ausgearbeitet wird.4 Neben Mouffes Krisenverständnis gegenwärtiger westlicher Demokratien bildet ihre Kritik am vorherrschenden liberalen Diskurs in der politischen Theorie den Ausgangspunkt ihres Konzepts. Hieran anschließend entwickelt sie eine agonale Konzeption demokratischer Öffentlichkeiten, die auf zwei Grundbedingungen basiert: der Notwendigkeit des Politischen und der Unmöglichkeit einer Welt ohne Antagonismen (vgl. Schwarz 2017, S. 196). Ihr Ziel ist es, eine Radikalisierung und Vertiefung von Demokratisierungsprozessen anzustoßen, bei dem vor allem staatliche Institutionen als demokratisierungsbedürftig thematisiert werden. In diesem Sinne formuliert Mouffe einen „call for a radicalization of liberal democratic institutions“ (Oppelt und Mouffe 2014, S. 264), der als Voraussetzung für eine Erweiterung von zivilgesellschaftlichen Demokratisierungsprozessen gilt (vgl. Hetzel 2017, S. 10). Mouffes Diagnose gegenwärtiger „Legitimitätskrise[n] westlicher Demokratien“ identifiziert als Hauptursache die Schwächung der Öffentlichkeit, die gleichsam auf die Entfremdung der BürgerInnen von den demokratischen Institutionen hinweist, die zu einer allgemeinen Politikverdrossenheit führt (Mouffe 2008a, S. 87). Diese Tendenz begreift Mouffe als Folge mehrerer sich wechselseitig verstärkender Entwicklungen: (1) die langjährige Vorherrschaft des Neoliberalismus, (2) die Überbetonung von Konsens in vorherrschenden Demokratietheorien und (3) die Unfähigkeit derselben, kollektive Identifizierung als entscheidenden Faktor gelingender Öffentlichkeit und Demokratie zu verstehen (vgl. Schwarz 2017, S. 196). Für Mouffe hängt die Krise moderner Demokratie ganz wesentlich mit der Hegemonie des neoliberalen Diskurses zusammen, der seit dem Ende des Kalten Krieges vorherrscht. Mit dem Systemzusammenbruch des Kommunismus habe die Demokratie ihren politischen Gegner verloren und erscheine als ebenso alternativlos wie der mittlerweile mit ihr assoziierte Neoliberalismus (vgl. Mouffe 2005, S. 89). Das löst ein paradoxes Gesellschaftsbild westlicher Demokratien aus, das sich in zwei Szenarien spaltet: Die Diagnose, dass westliche Demokratien auf dem Höchststand gesellschaftlicher Entwicklung angekommen sind, stehe einer zunehmenden Politikverdrossenheit und einer durch Nationalismus und Terrorismus gefährdeten Demokratie gegenüber (vgl. Mouffe 2008b,

4Mouffes

Arbeiten haben die Politische Theorie in den vergangenen Jahren entscheidend beeinflusst und wurden unter unterschiedlichen Aspekten kontroverst diskutiert (vgl. Beckstein 2011; Hildebrand und Seville 2015; Nonhoff 2007; Priester 2012).

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

53

S.  21). Der Siegeszug des Neoliberalismus inszeniere eine vermeintliche Alternativlosigkeit und schaffe damit eine zum politikleeren Raum mutierte gesellschaftliche Öffentlichkeit, in der Demokratie einen „Politiktypus jenseits von Links und Rechts“ verkörpert (ebd., S. 23). Damit sei die Möglichkeit des Politischen überhaupt unterminiert, denn der „dritte Weg“ der Kompromissorientierung und des starken Konsensstrebens der gegenwärtigen Politik verkläre die eigentliche Natur des politischen Konflikts (vgl. hierzu auch Schwarz 2017, S. 196). Den Mangel an klar unterscheidbaren Identifikationsangeboten durch die Schwächung der politischen Alternativen innerhalb des etablierten Parteienspektrums machten sich Mouffe zufolge vor allem rechtspopulistische Anti-Establishment-Parteien zunutze, deren starke Bindungsangebote vor dem Hintergrund der neoliberalen Alternativlosigkeit und dem Bedeutungszuwachs „ethnischer, religiöser oder nationalistischer“ Identifikation ein leichtes Spiel haben (Mouffe 2013, S. 93; Hetzel 2017, S. 19). Daher argumentiert Mouffe dafür, die Rechts-Links-Opposition in der Politik lebendig zu halten. In diesem Sinne betont sie zum einen die Rolle und Wiedereinführung politischer Leidenschaften, zum anderen eine Abkehr vom Ideal des politischen Konsenses und der rationalen Lösungsfindung (vgl. Mouffe 2007, S. 57).5 Der deliberativen Demokratietheorie gelinge es nicht, kollektive und unterschiedliche politische Identifizierungen als entscheidende Elemente von Politik zu erfassen. Diese Tendenz zur Aushöhlung von Pluralismus schaffe letztlich den Nährboden für fundamentalistische Identifikation (vgl. Mouffe 2007, S. 46 f.). In Habermas‘ deliberativem Modell geht es außerdem hauptsächlich darum, die Gesellschaft auf Basis von rationaler Beratschlagung statt durch Macht zu konstituieren. Darin sieht Mouffe eine Ursache für die wachsende Macht der Judikative und vor allem den Missbrauch des Rechtsystems, um Fragen sozialer und gesellschaftlicher Beziehung durch Gesetze zu klären, die eigentlich politisch geregelt werden müssten (vgl. ebd., S. 45). In dem Bedeutungszuwachs der Judikative sieht Mouffe die tatsächliche Schwächung der Politik und fordert,

5Damit

greift sie insbesondere das Modell der deliberativen Demokratie an, wie es von Habermas gedacht und in Deutschland zum Vorbild politischer Kommunikation und Partizipation geworden ist (vgl. Schwarz 2017, S. 165). Dazu schreibt Mouffe: „Given the current emphasis on consensus, it is not surprising that people are less and less interested in politics and that the rate of abstention is growing. Mobilization requires politicization, but politicization cannot exist without the production of a conflictual representation of the world, with opposed camps with which people can identify“ (Mouffe 2005, S. 24 f.).

54

G. Kaya

Macht nicht zu eliminieren, sondern „Formen der Macht [zu] schaffen […], die mit demokratischen Werten vereinbar“ sind (ebd., S. 44). Daher möchte Mouffe mit ihrem Ansatz einen „theoretische[n] Rahmen“ (Mouffe 2000, S. 27) für eine Öffentlichkeit schaffen, in dem zur Sicherung von Konflikt (und somit Pluralismus) die agonistische Auseinandersetzung zwischen Gegnern im Zentrum demokratischer Politik steht (vgl. Mouffe 2002b, S. 105). Der radikalen Demokratietheorie liegt die Prämisse zugrunde, dass die Gesellschaft und Politik von einem ständigen Kampf um politische und kulturelle Hegemonie bestimmt werden. In diesem Kontinuum ist das Politische Ausdruck kontingenter antagonistischer Machtverhältnisse in der Gesellschaft. Das kennzeichnet das Anwendungsfeld der Demokratie. Mouffes Betonung auf Konflikt ist explizit aus Carl Schmitts Kritik an der liberalen Demokratie entlehnt. Die Unterscheidung zwischen Freund und Feind ist Grundlage für Schmitts Verständnis des Politischen. In Der Begriff des Politischen (1932) stellt Schmitt fest, dass (politische) Identität immer durch Abgrenzung entsteht. Um eine Identität zu haben, muss man sich von einem konstituierenden Außen unterscheiden (vgl. Schmitt 1996, S. 33). Damit trägt jede Art von Identität unweigerlich ein Element der Negativität in sich. Aus dieser ontologischen Wir/Sie-Differenz speist sich ein fortwährender gesellschaftlicher Konflikt, bei dem sich zwei Seiten unversöhnlich gegenüberstehen (vgl. ebd., S. 32). In diesem, als Freund-Feind-Bestimmung erfassten, Antagonismus ist das Gegenüber ein Feind, den es zu vernichten gilt. Zwar geht auch Mouffe davon aus, dass sich (politische) Identitäten notwendigerweise relational konstituieren und folgerichtig auf ein „konstitutives Außerhalb“ angewiesen sind. Gleichwohl distanziert sie sich aber dezidiert von Schmitts völkisch aufgeladenem Antagonismus-Verständnis wie auch von seinen anti-pluralistischen und antidemokratischen Implikationen.6 Ein zentrales

6Mouffe

greift in ihren Ausführungen zur Kritik am Harmonie- und Konsensideal des Liberalismus immer wieder das Vokabular von Carl Schmitt auf und betont dabei, dass er das Wesentliche des Politischen richtig erkannte habe, wonach das Politische stets die Unterscheidung zwischen kollektiven Identitäten wie Freund und Feind brauche (vgl. Mouffe, Chantal. 1999. Carl Schmitt and the Paradox of Liberal Democracy. In: Mouffe, Chantal (Hg.): The Challenge of Carl Schmitt. London/New York, S. 38–53). Dabei macht sie in Über das Politische deutlich, dass ihr Rekurs auf Schmitt aufgrund dessen Nähe zum Nationalsozialismus „pervers“ erscheinen mag (2007, S. 11). Vor diesem Hintergrund betont sie, dass sie sich von Schmitt dort distanziere, wo dieser anti-pluralistische und anti-demokratische Züge annimmt. Sie lehnt Schmitts Auffassung, wonach die Herausbildung eines demokratischen „Wir“ auf die „elimination or eradication of heterogeneity“

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

55

Ziel von Mouffe besteht gerade darin, den Pluralismus lebendig zu halten und in diesem Sinne „mit Schmitt gegen Schmitt“ zu denken (Mouffe 2007, S. 22). Mouffe fordert dabei „moderne“ und „reife“ Bürger, die einen neuen Umgang mit Differenz praktizieren, der über bloße Toleranz hinausgeht. Für eine reifere Demokratie sei es notwendig, andere „Wir’s“ in ihrer Ungleichheit zu feiern, und zwar in der Erkenntnis, dass die Existenz des anderen „Wir“ unsere Identität erst bestärkt (vgl. Mouffe 2004, S. 48 f.). Anders als Schmitt glaubt sie nicht, dass die Wir/Sie-Unterscheidung eine antagonistische Form annehmen muss. Stattdessen gibt es Mouffe zufolge diverse Antagonismus-Verhältnisse, die sich nicht allein in einer vernichtenden Beziehung ausdrücken müssen. Wenn der Antagonismus aber ein unüberwindbares Grundprinzip des Politischen ist, bestehe eine demokratische Politik darin, den Antagonismus in einen ‚gezähmten‘ Agonismus zu überführen und dabei die „Wir/Sie-Unterscheidung“ weiterhin lebendig zu halten, anstatt sie überwinden zu wollen (vgl. etwa Mouffe 2007, S. 22). Mouffe denkt hier die Transformation von Schmitts Freund-Feind-Schema und ersetzt die Kategorie des Antagonismus durch Agonismus; die Kategorie des Feindes durch die des Gegners. Gegnerschaft bedeutet im Gegensatz zur Feindschaft nun nicht, dass das Gegenüber oder die politische Ordnung auszulöschen ist. Das Ziel des agonistischen Beziehungsmodus besteht in einem Verhältnis von „friendly enemies“ (vgl. Mouffe 2010, S. 13), in dem das Gegenüber als legitimer Widersacher („legitimate enemy“ [Mouffe 2004, S. 46]) mit gleichem Recht auf Verteidigung seiner eigenen Konzeption des Guten respektiert wird. Insbesondere der von Mouffe verwendete Begriff ‚adversary“ ist hier etymologisch interessant. Darin ist eine doppelte Bewegung gedacht: Das Sich-Entgegenstellen impliziert zugleich das Sich-Zuwenden, in der das Gegenüber respektiert und geachtet wird (Hetzel 2017, S. 19). Beide Seiten stimmen über liberal-demokratische Prinzipien überein. Der Gegner ist eine Person, „mit [der] wir die Loyalität gegenüber den demokratischen Prinzipien von ‚Freiheit und Gleichheit für alle’ teilen, obwohl wir bezüglich ihrer Interpretation nicht übereinstimmen.“ (Mouffe 2002a, S. 105). Innerhalb der demokratischen Ordnung herrscht ein „ethisch-politisches Band“ der Prinzipien Freiheit und Gleichheit, mit denen sich alle identifizieren. Gestritten wird innerhalb dieses Rahmens – gewaltfrei und friedlich – um unter-

angewiesen ist, dezidiert zurück (vgl. Mouffe 1999, S. 39) erforderlich mache, strikt zurück.

56

G. Kaya

schiedliche Interpretationen innerhalb der demokratischen Ordnung und um das Verständnis von Demokratie selbst (vgl. Mouffe 2000, S. 101 ff.). Es ist ein Streit um die temporäre Hegemonie der eigenen Konzeption, ohne dabei das Recht des Gegners auf seine eigene Konzeption des Guten in Abrede zu stellen.7 Die radikale Demokratietheorie plädiert damit für eine demokratische Öffentlichkeit, in der die Möglichkeit zur Ausbildung verschiedener politischer Subjektivierungsweisen geboten wird, die in gewaltfreier Weise ausgetragen werden können. Demokratische Verfahren sollen diese agonistische Auseinandersetzung ermöglichen. Der agonistischen Öffentlichkeit fällt die Aufgabe zu, als „demokratisches Ventil“, die Antagonismen zu zähmen, zu sublimieren (Mouffe 2008b, S. 139) und zu entwaffnen (Mouffe 2007, S. 38). Mouffe sieht die oberste Zielsetzung also nie als völlig realisierbar (vgl. Schwarz 2017, S. 215).8

3 Zwischen Skylla und Charybdis – Die Herausforderungen des digitalen Zeitalters 3.1 Der digitale Strukturwandel Es ist kaum von der Hand zu weisen, dass das digitale Zeitalter immense Veränderungen mit sich gebracht hat, die die Grundmuster der Gesellschaft und Politik umstrukturiert haben. Natürlich determiniert Technik soziale Strukturen nicht in einem absoluten Sinne. Vielmehr stellt sie Angebotsstrukturen dar, die einen Spielraum vielfältiger Verwendungsweisen bieten. Soziale Praktiken machen sich Technik erst durch Interaktion auf eine spezifische Weise zu Eigen (vgl. Reckwitz 2017, S. 225). Im Zentrum der digitalen Transformation befindet

7Dazu

schreibt Mouffe: „An adversary is an enemy, but a legitimate enemy, one with whom we have some common ground because we have a shared adhesion to the ethicopolitical principles of liberal democracy: liberty and equality. But we disagree concerning the meaning and implementation of those principles, and such a disagreement is not one that could be resolved through deliberation and rational discussion. Indeed, given the ineradicable pluralism of value, there is no rational resolution of the conflict, hence its agonistic dimension“ ( HYPERLINK "SPS:refid::bib76" Mouffe 2000, S. 102). 8In The Democratic Paradox heißt es dazu: “[T]he aim of democratic politics is to transform antagonism into agonism. This requires providing channels through which collective passions will be given ways to express themselves over issues which, while allowing enough possibility for identification, will not construct the opponent as an enemy but as an adversary” (Mouffe 2000, S. 103).

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

57

sich ein Komplex, der sich aus einem Zusammenspiel neuer Informations-, Partizipations- und Öffentlichkeitsmöglichkeiten ergibt. Sie werden wesentlich beeinflusst von den Eigenschaften des genutzten Kommunikationsnetzwerks, algorithmischen Verfahren des Computing und vor allem von den Subjekten, die sie nutzen; den Usern und Prosumern.9 Damit eröffnet die digitale Transformation vielfältige Chancen für die Demokratie, aber auch mancherlei Risiken für die öffentliche Kommunikation und Meinungsbildung. Um Letzteres soll es in diesem Abschnitt gehen.10 Vor diesem Hintergrund wird im Folgenden eine Gegenwartsdiagnose der digitalen Gesellschaft erstellt, in der ihr Strukturwandel und ihre Sozialdynamiken analysiert werden. Die hier vertretene These konstatiert, dass die Demokratie angesichts des digitalen Zeitalters vor zwei problematischen Entwicklungen steht: der Personalisierung des Politischen und der zunehmenden Überlagerung der öffentlichen Sphäre durch das Private. Die Öffentlichkeit ist nicht nur empirisch elementar für das Funktionieren von Demokratie, sondern auch ein Normativ der Demokratietheorien (vgl. Baynes 2010). Digitale Wandlungsdynamiken – wie die veränderte Bedeutung der klassischen Massenmedien und die Etablierung neuer Kommunikationsräume und Rollen (soziale Medien wie Facebook, Twitter und Instagram; vgl. Schaal 2019, S. 121) – transformieren die demokratische Öffentlichkeit (vgl. Gerhards/Schäfer 2010; Iosifidis und Wheeler 2016; Harper 2017; Kreide 2015). In Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität wies Sennett bereits darauf hin, dass die Öffentlichkeit in der Spätmoderne angesichts einer zunehmenden Überlagerung durch das Private erodiert. Der treibende Motor für diesen Verschiebungsprozess sei die vorherrschende „Ideologie der Intimität“. Sennett bezieht sich dabei auf die Tendenz, das Selbst als einziges Wahrheitskriterium zu betrachten, mit dem die soziale Wirklichkeit in ihrer gesamten Komplexität glaubwürdig beurteilt werden kann (vgl. Sennett 1974, S. 143).

9Der

Begriff geht auf Toffler (1980) zurück, der in The Third Wave den Unterschied zwischen dem User, der lediglich konsumierte und dem Prosumer, der eigenständig Inhalte produzieren und verbreiten kann. 10Der Fokus auf die Herausforderungen des digitalen Strukturwandels soll keineswegs suggerieren, dass der Facettenreichtum der Digitalisierung etwa auf ein Verfallsnarrativ zu reduzieren sei. Gesellschaften haben umfassende politische Möglichkeiten, um auf die Ausgestaltung der Digitalisierung einzuwirken. Die hiesige Gefährdungsdiagnose des Digitalen zielt vielmehr darauf ab, die Ermöglichungsstrukturen der Demokratietheorie in ein Rahmen zu setzen, der die Herausforderungen des digitalen Zeitalters zum Ausgangsbzw. Wendepunkt hat.

58

G. Kaya

Hierfür wird der Begriff „Psychologisierung der Lebenswelt“ eingeführt (vgl. ebd., S. 201). Die Umwelt zu psychologisieren, bedeutet, sie in dem Maße für (un-)bedeutungsvoll und (ir-)relevant zu halten, wie sie das eigene Selbst tangiert. So begriffen die Menschen auch das Politische inzwischen als einen Raum, in dem sich die „Persönlichkeit als solche“ Ausdruck verschaffen soll (ebd., S. 54). Die Distanz zwischen persönlicher Sphäre und dem Umgang, den man mit der Welt pflegte, sei praktisch obsolet geworden (ebd., S. 56). Damit ziehe die Persönlichkeit in den vormals durch unpersönliche Beziehungen geprägten öffentlichen Bereich ein. Als Symptom greift Sennett auf das Phänomen des modernen Politikers zurück, der als charismatischer Führer den Demos eher durch die Offenbarung seiner Motive und Absichten, anstatt durch sein Handeln im Amt überzeugt (ebd., S. 331). Sennetts Verfallsdiagnose liegt mittlerweile nicht nur einige Jahrzehnte zurück, sie wurde auch in einer Zeit verfasst, in der der Aufstieg des Internets zum Massenphänomen nicht einmal eingesetzt hatte. Nach Reckwitz‘ Interpretation wird jedoch deutlich, dass sich die Digitalisierung wie ein Katalysator auf die Ideologie der Intimität ausgewirkt und den Primat des Privaten vor dem Öffentlichen zugespitzt hat (vgl. hierzu auch Hetzel 2017, S. 20). In Gesellschaft der Singularitäten (2017) beschreibt Reckwitz die Umwälzungen, die seit den 1980er Jahren durch die Digitalisierung zu beobachten sind. Reckwitz’ zentrale These zielt auf einen Vergleich zwischen der Moderne und Spätmoderne ab: Während die industrielle Technik die Welt nur zu mechanisieren und standardisieren vermochte, forciere die digitale Technologie eine Singularisierung des Sozialen sowie der Subjekte und der Objekte. Während die Industrietechnik ein Motor der funktionalen Rationalisierung und Versachlichung war, sei das digitale Netz ein Generator der gesellschaftlichen Kulturalisierung und Affektintensivierung (Reckwitz 2017, S. 226 f.). Trotz unterschiedlicher Terminologien (Sennett spricht hier von der „Psychologisierung der Lebenswelt“) greifen sowohl Sennett als auch Reckwitz in ihren Diagnosen der Spätmoderne auf die zunehmende Selbstbezogenheit des Subjekts und die Personalisierung des Sozialen zurück. Für Reckwitz ermöglicht und erzwingt der technologische Komplex aus Computern, Digitalität und Internet eine fortdauernde Fabrikation von Subjekten, Objekten und Kollektiven als einzigartige (ebd., S. 227). Die technologisch angeregte Singularisierung reicht von den um Originalität und Sichtbarkeit konkurrierenden Profilen in den sozialen Netzwerken über das data tracking des „digitalen Fußabdrucks“ des Nutzers, der eine Personalisierung des Nutzzugangs erlaubt, bis zu den partikularen Web-Communities, die jeweils ihre eigene, in sich abgeschlossene Weltsicht teilen (ebd., S. 227).

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

59

Reckwitz beschreibt das Internet weiter als eine Affektmaschine, deren zirkulierende Bestandteile „erregen, unterhalten, freudig stimmen, entspannen, hetzen oder bewirken, dass man sich angenehm aufgehoben fühlt“ (ebd., S. 235). Er charakterisiert die digitale Kulturmaschine zudem als eine, die eine strukturelle Asymmetrie zwischen einer extremen Überproduktion von Kulturformaten und einer Knappheit der Aufmerksamkeit der Nutzer hervorbringt. Es herrsche ein Kampf um Sichtbarkeit in extremer Form (vgl., ebd., S. 239). Der Kampf um die Aufmerksamkeit der Rezipienten werde im Zweifelsfall durch affizierend wirkende – unterhaltende, empörende, faszinierende Texte, Bilder und Spiele gewonnen als durch affektarme Informationen (ebd.). In ihrem Zentrum stehe die Produktion, Zirkulation und Rezeption von „narrativen, ästhetischen, gestalterischen, ludischen“ Formaten der Kultur (ebd., S. 234). Die digitale Kultur sei in erheblichem Maße eine Kultur von Visualität, d. h., Bilder sind ihr primärer medialer Träger (ebd., S. 235).11 Gegenüber dieser omnipräsenten Visualität rückten (schrift-)sprachliche Texte an die zweite Stelle. Aber auch mit Blick auf Texte in den sozialen Medien finde nun eine Tendenz nach einer Entinformationalisierung und Emotionalisierung statt, sodass vermehrt Texte mit affektivem Gehalt verfertigt würden (ebd.). Auch der spätmoderne Journalismus im Netz sei nicht nur eine Informations-, sondern auch eine Narrationsmaschine mit erheblichen affektiven Wirkungen (vgl., ebd., S. 236). Dabei sei Technik immer weniger ein Werkzeug, sondern werde immer mehr zu einer technologischen Umwelt, in der sich die Subjekte bewegen und die sie immerfort affiziert (ebd., S. 237). Diese Kulturalisierung der digitalen Technologie gewinne ihre Intensität schließlich durch ihre sozialen Grenzüberschreitungen (vgl., ebd., S. 238). Dies betreffe die Grenzen zwischen dem Öffentlichen und dem Privaten sowie jene zwischen dem Medialen und dem Realen. Mit anderen Worten: „Die neuen Medien verwandeln das Persönliche und Private in etwas Öffentliches“ (ebd.). Damit greift Reckwitz dieselbe Tendenz zur Überschreibung des Öffentlichen auf wie schon Sennett vor der Verbreitung des Internets zum Massenphänomen. Die Differenzierung zwischen dem Persönlich-Privaten und dem SystemischAllgemeinen kollabiere in der Spätmoderne, und zwar nicht zuletzt durch die digitalen Technologien; die Einzigartigkeit des Subjekts habe den Raum des

11Das

sieht man nicht nur an Plattformen wie Youtube und Instagram, sondern auch daran, dass andere soziale Medien wie Facebook und Twitter, mehr und mehr auf Bilder umgestellt haben. Bilder dominieren auch die Nachrichten aus Politik, Sport und Unterhaltung (vgl. Reckwitz 2019, S. 235).

60

G. Kaya

Privaten und Persönlichen verlassen und trete mithilfe der digitalen Infrastruktur ins Licht der Öffentlichkeit eines potenziell globalen Publikums (ebd., S. 254 f.). Eine forcierte Ausrichtung des Sozialen am Besonderen könne zu einer Erosion des Allgemeinen führen. Diese Entwicklung ließe sich in der digitalen Öffentlichkeit exemplarisch beobachten. Hier finde eine Schwächung der allgemeinen Öffentlichkeit statt, die mit der Etablierung einer Vielzahl von Parallelöffentlichkeiten verbunden ist, in denen die Parallelexistenz von Differenzen und tendenziell Inkommensurablem gewahrt werde (ebd., S. 268 f.).

3.2 Spannungsfelder digitaler Öffentlichkeiten Die Digitalisierung erzeugt mit ihrer Tendenz zur Personalisierung der Welt (oder auch: Psychologisierung; Singularisierung) und Grenzveränderung zwischen dem Privaten und dem Öffentlichen eine Reihe von Paradoxien und Spannungsfeldern (vgl. hierzu auch Ritzi 2017). Sie ist nicht ihr alleiniger Auslöser, aber sie ermöglicht, regt an, beschleunigt und erzwingt zuweilen. Im Folgenden erfolgt der Verweis auf vier Erscheinungsformen moderner digitaler Öffentlichkeiten: Fragmentierte Öffentlichkeiten, affektive Öffentlichkeiten, ideologischpolarisierte Öffentlichkeiten und manipulierte Öffentlichkeiten. Erstens: Viele Autoren warnen vor einer potentiellen Fragmentierung der Öffentlichkeit (vgl. Graham 1999; Selnow 1998; Shapiro 1999; Sunstein 2001; Pariser 2011; van Oorschot 2018). Die Fragmentierungsdebatte wird breit geführt und hat ebenso ihre Skeptiker (vgl. Balkin 2004; Stromer-Galley 2003; Weinberger 2004; Dubois und Blank 2019), die die vermeintliche Fragmentierung aufgrund empirisch-methodischer Unklarheiten und zuweilen widersprüchlicher Resultate anzweifeln (vgl. Dahlberg 2007; Dubois und Blank 2019). Nichtsdestoweniger soll es hier um strukturelle Dynamiken gehen, in denen digitale Plattformen – wie soziale Netzwerke und Suchmaschinen – selbstreferentielle Kommunikationsräume schaffen, die potentiell geschlossen sind und tendenziell die Entstehung von Partikularöffentlichkeiten begünstigen. Grundlage hierfür ist die algorithmische Struktur jener Plattformen, die auf Personalisierung ausgerichtet sind. Mithilfe von data tracking lassen sich aus Massen von Daten – Big Data – Konsum- und Interessenprofile einzelner Personen erstellen (vgl. Reckwitz 2017, S. 244). Begriffsprägend wurde in diesem Zusammenhang der von Eli Pariser (2011) als Buchtitel verwendete Ausdruck „Filterblase“. Pariser beschreibt, wie Algorithmen bei Google die Suchergebnisse personalisiert hierarchisieren oder bei Facebook durch die Anzahl von Likes und Clicks bestimmen, welche Beiträge angezeigt werden. Je öfter Beiträge in einem

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

61

bestimmten Themenbereich angeklickt oder geliket werden, desto häufiger wird Facebook Beiträge aus genau diesem Themenbereich im persönlichen Newsfeed platzieren. „Zusammen erschaffen diese Maschinen ein ganz eigenes Informationsuniversum für jeden von uns – das, was ich die Filter Bubble nenne – und verändern so auf fundamentale Weise, wie wir an Ideen und Informationen gelangen“ (Pariser 2011, S. 17). Die personalisierenden Filter konstruieren nach Pariser Aufmerksamkeitskorridore, mit denen sie zu einer fragmentierten und selektiven Wahrnehmung der Wirklichkeit beisteuern (vgl. ebd.). In den Filterblasen bildeten sich persönlich zugeschnittene Informationsuniversen, in denen der Mensch vereinzele (vgl. ebd., S. 21). Solche Gebilde können zunächst als hermetisch abgeschlossene, ideologisch konstruierte Teilöffentlichkeiten verstanden werden (vgl. Bieber 2019, S. 152), denn in der Filterblase „steigt der Anteil der Inhalte, die unsere Erfahrungen bestätigen“ (vgl. Pariser 2011, S. 97), sodass man ständig mit den eigenen Meinungen und Interessen indoktriniert werde (vgl. ebd., S. 22).12 In Bezug auf die demokratische Öffentlichkeit bedeutet die selektive Wahrnehmung von Informationen, Weltsichten und Überzeugungen eine tendenzielle Abschottung homogener Teilöffentlichkeiten und damit die Fragmentierung einer allgemeinen Öffentlichkeit. Zweitens: Bedingt durch die Praxis der Personalisierung der großen digitalen Plattformen fördert die massenhafte Kommunikation in den sozialen Medien die Herausbildung affektiver Öffentlichkeiten (vgl. Baringhorst 2019, S. 104). Gleichwohl ist die auf affektiven Aktualismus ausgerichtete Big Data Nutzung der Medien prägend für die Entstehung und Konsolidierung einer affektiven Online-Kultur (vgl. z. B. Harper 2017). In Anlehnung an Reckwitz ist das digitale Netz im erheblichen Maße eine Affektmaschine (vgl. Reckwitz 2017, S. 234), die in einem Raum zwischen Überproduktion an Kulturformaten und Knappheit an Aufmerksamkeit operiert (ebd., S. 238). In solch einem Umfeld besteht das Wesentliche darin, die Aufmerksamkeit des Publikums zu bekommen. Um die Aufmerksamkeit des Users zu wecken, müssen die neuen „Texte, Bilder und Links […| mit affektivem Reiz verbunden sein: interessant oder empörend“ (Reckwitz 2017, S. 269). Am deutlichsten tritt die digitale Affektkultur in den Medien zutage (vgl. ebd., S. 236). News-Seiten, die von der Aufmerksamkeit der Leser abhängig sind, tendieren eher dazu, durch polarisierende und affiliative

12Ähnliche

Konstellationen dürften in der Frühzeit der Mediennutzung auch mit Blick auf den Zeitungskonsum beobachtet worden sein. Dennoch haben die durch die Nutzung digitaler Medienangebote entstehenden Filterblasen durchaus Auswirkungen auf die Gestaltung öffentlicher Kommunikationsprozesse.

62

G. Kaya

Inhalte das Chaos zu durchbrechen, das die heutige Informationslandschaft kennzeichnet (vgl. ebd., S. 269). Solche Inhalte werden längst nicht willkürlich aufgestellt, sondern richten sich dezidiert nach zuvor unternommenen Zielgruppenanalysen. Unter dem Begriff „Big data media“ wird jener mediale Inhalt verstanden, der gezielt durch die Nutzung von algorithmischen Analysen zur Auswertung großer Datenmengen konstruiert wird (vgl. Harper 2017, S. 1425). Diese Praxis kann sich – sofern sie in ausreichend hohem Maße handlungsleitend für Medienschaffende und einzelne Akteure ist – transformativ auf die Struktur und Qualität öffentlicher Diskussionen auswirken (vgl. ebd., S. 1426). Drittens: In den vergangenen Jahren scheinen die zunehmende Ideologisierung und Polarisierung der Öffentlichkeit an Bedeutung zu gewinnen. Forschungserkenntnisse gehen davon aus, dass diese Entwicklungen auf die zunehmende Polarisierung von politischen Eliten (vgl. Druckman et al. 2013; Levendusky 2010) und digitalen Medien (vgl. Jamieson und Cappella 2008; Robison und Mullinix 2016) zurückzuführen sind. Häufig werden auch die sozialen Netzwerke – wie etwa Twitter, Facebook und Youtube – dafür verantwortlich gemacht, den Fluss des ungehemmten Rassismus, der Misogynie und anderen „anti-sozialen“ Praktiken zu unterstützen (vgl. Johns und McCosker 2015, S. 45). Suler (2004) beschreibt dieses Phänomen mit dem Begriff „Enthemmung durch Anonymität und Nicht-Sichtbarkeit“ (vgl. auch Niederberger und Dreiack 2018). In diesem Sinne geraten die Großanbieter von digitalen Plattformen sowie Gesetzgeber vermehrt unter Druck, strengere Regeln gegen offensive Inhalte zu etablieren (vgl. Dibbel 2012; Packham 2012; Penman und Turnbull 2012). Ein Hauptargument für den korrelativen Zusammenhang zwischen den digitalen Medien und einer zunehmenden Meinungspolarisierung ist auf Bennett und Iyengar (2008) zurückzuführen, die geltend machen, dass die digitalen Medien unter dem Druck eines hyperkompetitiven Umfelds und der Kanalprofilierung zu selektiven und nischenhaften Publizierungen tendieren. Seither haben zahlreiche Studien auf die Auswirkungen selektiven Publizierens auf Polarisierung hingewiesen (vgl. z. B. Stroud 2011; Tsafti und Nir 2017). Über die Mediennutzung hinaus deuten Studien außerdem darauf hin, dass Internetnutzer in interpersonalen Unterhaltungen im Netz dazu neigen, mit Gleichgesinnten zu diskutieren (vgl. Huckfeldt et al. 2004). Mit Rückgriff auf die Fragmentierungsthese und Filterblasen wird betont, wie das Netz das Zusammenkommen Gleichgesinnter befördert (vgl. Sunstein 2017). Das bedeutet, dass auch politische Diskussionen tendenziell hauptsächlich unter Gleichgesinnten stattfinden, in denen existierende Ansichten sich gegenseitig bestärken und verfestigen. Dies führe im Gesamtergebnis zu einer polarisierten digitalen Öffentlichkeit

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

63

(vgl. Jacobson et al. 2016; Sunstein 2017), denn die Konfrontation mit primär übereinstimmenden Informationen und Ansichten extremisiere Meinungen und bedinge somit eine Polarisierung (vgl. Levendusky 2010; Sunstein 2001, S. 65 f.). Diese Polarisierung wird wiederum als Grund dafür gesehen, dass die Möglichkeiten zum Verstehen Andersgesinnter eingeschränkt werden und schließlich die Wahrscheinlichkeit für Feindseligkeiten in der öffentlichen Sphäre verstärkt werde (vgl. Graham 1999; Sunstein 2001; 2003). Viertens: Die politische Kommunikation im Internet, die die Entstehung von manipulierten Öffentlichkeiten begünstigt, kann im Wesentlichen auf zwei Schlagwörter zurückgeführt werden: Postfaktische Politik und Desinformation, darunter die Phänomene des Astroturfing, Trolle, (Social) Bots und Fake News.13 Dem liegt zum einen die digitale Praxis zugrunde, künstliche Intelligenz zur Erstellung und Verbreitung von falschen Accounts, Informationen und politischen Botschaften zu benutzen. Durch diesen Einsatz kann die Genese von politischen Präferenzen empfindlich gestört werden. Zum anderen verweist dies auf die politische Praxis, den Einsatz von Falschinformationen und künstlicher Intelligenz dafür zu nutzen, auf Meinungsbildungs- und Entscheidungsprozesse sowie Wahlverhalten Einfluss zu nehmen. Diese entgrenzte und un-authentische politische Kommunikation begünstigt Formen von Manipulation und einen neuen Populismus (Oswald 2018, S. 17), der sich die Personalisierungstendenz des Öffentlichen zunutze machen kann (vgl. Sennett 1974; Reckwitz 2017).

4 Implikationen für die deliberative und radikale Demokratietheorie Für die demokratietheoretische Auseinandersetzung mit der Digitalisierung waren deliberative Modelle bislang maßgeblich (vgl. z. B. Dahlberg 2001; Fang 1995; Graham 2002; Janssen und Kies 2005; Wilhelm 2000). Deliberative Ansätze betrachten das Internet als ein Mittel zur fortschreitenden Demokratisierung, die die Expansion von Deliberation und Formation einer rationalen öffentlichen Meinung bestärken und Entscheidungsträger zur Verantwortung ziehen kann (vgl. Benson 1996; Bohman 2004; Davis 1999; Fung und Kedl 2000; Gimmler 2001; Noveck 2000; Sunstein 2001; Tanner 2001; Wilhelm 2000). Durch die vielfältigen Partizipationsmöglichkeiten des Internets sind zahlreiche Ansätze

13Für

eine detaillierte Ausführung siehe Oswald 2018.

64

G. Kaya

entstanden, die versuchen, das deliberative Modell für E-Demokratie fruchtbar zu machen (vgl. Ingold 2017; Newman et al. 2016; Lovejoy und Saxton 2012). Allerdings stellen die unterschiedlichen Strukturmerkmale und Erscheinungsformen digitaler Öffentlichkeiten (siehe hierzu Abschitt 3) das deliberative Potential des Internets vor Herausforderungen. Während die politische Kommunikation in Anlehnung an Habermas’ Model idealerweise inklusiv, frei, gleich, aufrichtig, respektvoll, rational und argumentativ gedacht wird, begünstigt das Internet Tendenzen, die die ideale Kommunikation hemmen. Diese Faktoren gilt es aus deliberativer Sicht zu identifizieren; mit dem Ziel, Wege zu finden, die Demokratisierung der digitalen Öffentlichkeit voranzutreiben, z. B. durch technologische Lösungen oder Moderationssysteme. Parallel zu den Debatten in der normativen Demokratietheorie haben sich auch im Anwendungsfeld des Internets agonale Gegenmodelle zur Konzeption (digitaler) Öffentlichkeiten entwickelt (vgl. Bickel 2003; Downey und Fenton 2003; Kahn und Kellner 2005; Kellner 2004; Kowal 2002; Langman 2005; Palczewski 2001; Salazar 2003; Warf und Grimes 1997). Radikaldemokratische Ansätze sehen in der Expansion des deliberativen Modells auf das Internet eine Verstärkung von hegemonialen Diskursen, die weiterhin marginalisierte Gruppen ausschließen und Asymmetrien bestehender gesellschaftlicher Machtdynamiken aufrechterhalten (vgl. Harper 2017, S. 1428). Stattdessen fordern sie, das Internet als Ort und Mittel für Konflikt und politischen Kampf zu betrachten; als ein umkämpftes Terrain, auf dem Exklusion und Dominanz sowie Solidarität und Widerstand reproduziert werden (vgl. Dahlberg 2007, S. 56). Welche der Grundkonzepte, Normen und Ziele der deliberativen und radikalen Demokratietheorie sind durch das Internet in Bedrängnis geraten und wo eröffnen sich Chancen? Der folgende Abschnitt resümiert diese Frage mit Blick auf fragmentierte, affektive, ideologisch-polarisierte und manipulierte Öffentlichkeiten. Viele der problematischen Faktoren sind wohlgemerkt auch in der analogen Lebenswelt bekannte Hindernisse für die deliberative und radikale Demokratietheorie. Im Unterschied hierzu wirkt sich die Digitalisierung aber wie ein Katalysator auf sie aus (vgl. hierzu Abschn. 3).

4.1 Fragmentierte Öffentlichkeiten Fragmentierte und potentiell fragmentierende Öffentlichkeiten stellen für die deliberative Demokratie eine Herausforderung für das Normativ des Öffentlichen dar, während sie für die radikale Demokratietheorie eine Möglichkeit darstellen, das Ideal zur Anfechtung hegemonialer Diskurse zu verwirklichen.

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

65

Habermas’ ursprünglicher Impuls war es, die Demokratisierung und Umgestaltung der halböffentlich gewordenen gesellschaftlichen Großorganisation durch eine funktionsfähige Gesamtöffentlichkeit voranzutreiben (vgl. Baringhorst 2009). Wie eingangs beschrieben gilt die politische Öffentlichkeit in der deliberativen Demokratietheorie als Ort der gemeinsamen politischen Deliberation verschiedener Gesellschaftsgruppen und begründet die politische Legitimität und Stabilität des Staates (vgl. von Oorschot 2018). Dabei setzt Habermas auf drei Grundmerkmale, die angesichts der beschriebenen Tendenzen der Fragmentierung herausgefordert sind: (1) eine, allen zugängliche Öffentlichkeit, die (2) in eine nationale Rahmung gesetzt ist und (3) eine klare Trennlinie zwischen dem Privaten und Öffentlichen aufweist. In Abschn. 3 wurde bereits darauf hingewiesen, dass die Digitalisierung Impulse zur Personalisierung, Psychologisierung und Singularisierung schafft, die die Öffentlichkeit mit dem Privaten überlagert. Für das deliberative Ideal braucht es aber eine klare Trennlinie zwischen dem, was als Angelegenheit des öffentlichen Politischen und des privaten Nicht-Politischen gilt (vgl. Schachtner 2016, S. 136). Das Internet entzieht sich zunehmend dieser Unterscheidung und ist aus deliberativer Sicht daher als problematisch einzustufen. Zwar fördert das Internet die vom deliberativen Modell geforderte Egalität der Öffentlichkeit, indem es jedem User Zugangsmöglichkeiten bereitstellt. Darüber hinaus schafft das Internet aber zentrifugale Bewegungen, denen es aus sich heraus nichts entgegensetzen kann (vgl. Neuberger und Wendelin 2012): Anstelle einer Öffentlichkeit, aus der eine alle und alles Relevante einbeziehende Kraft ausgeht, die die verstreuten Botschaften auswählen, redigieren und synthetisieren kann, entstehen viele zerstreute Kommunikationsräume. Zudem endet die (digitale) Öffentlichkeit nicht an nationalen Grenzen (vgl. Schachtner 2016). Transnationale politische Öffentlichkeiten wie die Occupy-Bewegung oder Fridays for Future treten heutzutage durch die digitalen Netzwerke noch deutlicher in Erscheinung und intensivieren sich. Diese flanierende Existenz von Öffentlichkeit stellt einen empirischen Gegensatz zur statischen Öffentlichkeitskonzeption von Habermas dar (vgl. Mouffe 2007, S. 43; Schachtner 2016, S. 136). Durch die transnationale Mobilität des Internets können potentiell noch mehr Öffentlichkeiten entstehen, die zu den nationalstaatlichen Partikularöffentlichkeiten hinzukommen. Dieser Vielfalt an Öffentlichkeiten fehlt es an einer Art von Vermittlung (vgl. Brunkhorst 2009). Der Deliberationsprozess braucht aber eine Verständigung über das, was als gemeinsamer Lebensraum wahrgenommen und gestaltet werden muss. So kommt die Frage nach dem Gemeinsamen dieser Öffentlichkeiten auf und bringt die Herausforderung für die deliberative Demokratietheorie auf den Punkt: Inwiefern kann die zerstreute Wahrnehmung und Gestaltung angesichts

66

G. Kaya

fragmentierender Öffentlichkeiten von einem gemeinsamen lebensweltlichen Vorverständnis gedeckt werden (vgl. Echterhoff et al. 2009, S. 497)? Aus radikaldemokratischer Perspektive ist eine potentiell fragmentierende Öffentlichkeit per se kein Problem. Im Gegenteil: Die Fragmentierung kann dazu beitragen, die Teilhabe vormals ausgeschlossener und machtloser Teile der Gesellschaft zu ermöglichen. In diesem Sinne ist die in der Digitalisierung gesehene Chance zuvorderst eine emanzipatorische. Zum einen bietet das Internet Kommunikationsräume für marginalisierte Bevölkerungsgruppen jenseits des Mainstreams an, in denen sich Gegenöffentlichkeiten ausbilden können. Kommunikationsräume können die Artikulation von alternativen Identitäten und Positionen erleichtern. Damit leisten sie einen Beitrag zur Herausarbeitung ausgereifterer Standpunkte alternativer Diskurse (vgl. Dahlberg 2007). Zum anderen kann die Interaktivität und Reichweite des Internets dazu beitragen, dass politisch diverse und geographisch verstreute Gegenöffentlichkeiten gemeinsame Identifikationspunkte finden können, um Netzwerke und Koalitionen für wirkungsmächtigere oppositionelle Diskurse zu bilden (vgl. Dahlberg 2007). Die Identifikation findet insbesondere durch die gemeinsame Erfahrung von Exklusion und Dominanz statt. Diese Artikulation von Identität und Diskurs kann marginalisierten Gruppen, die vormals durch Isolation geschwächt waren, politische Stärke vermitteln (vgl. ebd.). Und schließlich kann das Internet dazu beitragen, dass artikulationsstarke Gegenöffentlichkeiten zur Anfechtung hegemonialer politischer Diskurse nicht nur online, sondern auch offline entstehen können. Die Interaktivität des Internets unterstützt die analoge Organisation von Gegenöffentlichkeiten und Protest durch beispielsweise E-Mail-Listen oder die sozialen Medien (vgl. Dahlberg 2001). Damit können Gegenöffentlichkeiten größere Öffentlichkeitsresonanz erlangen, wenn sie auf ausgeschlossene Positionen und die Kritik an hegemonialen Diskursen aufmerksam machen. Es ist jedoch auch bekannt, dass Machtasymmetrien der analogen Welt in der digitalen Welt reproduziert werden können (vgl. Murdock und Golding 2004). Eine für die politische Qualität dieser Gegenöffentlichkeiten zentrale Frage lautet daher, wer die individuelle Beteiligung und Praktiken eines herrschaftskritischen Diskurses im Netz in welcher Form organisiert. Wer bündelt die Interessen der schwach vernetzten Individuen im Internet? Und wer vermittelt den Diskurs und die Erwartungen artikulationsschwacher Individuen an reichweitenstarke Öffentlichkeiten sowie an die politischen und ökonomischen Entscheidungsträger? Aus radikal -demokratischer Perspektive ist die Fragmentierung daher nur dann als Erweiterung der Demokratie zu betrachten, wenn die Pluralität an Identitäten in Gänze zur Artikulation kommt und zur wirksamen Bestreitung von Dominanz und Exklusion wird. Wird die Fragmentierung

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

67

nicht von der Stärkung marginalisierter Identitäten begleitet, ist sie auch aus radikaldemokratischer Sicht als demokratiegefährdend einzustufen (vgl. Dahlberg 2011).

4.2 Affektive Öffentlichkeiten Die digitale Kultur ist in erheblichem Maße eine „Affektmaschine“. Dabei wird die Technik immer mehr von einem bloßen Werkzeug zu einer technologischen Umwelt, die die Subjekte immerfort affiziert (vgl. Reckwitz 2017, S. 237). Der digitale Impuls zur Entstehung affektiver Öffentlichkeiten trifft ein Kernanliegen der radikalen Demokratietheorie, die dafür plädiert, Affekte in kanalisierter Form als politische Leidenschaften zur Geltung zu bringen. Gleichwohl korrespondiert der Aspekt affektiver Öffentlichkeiten mit der empirisch-realistischen Kritik, die Mouffe an der deliberativen Demokratietheorie ausübt. Aus Sicht der deliberativen Demokratietheorien ist die Entstehung von affektiven Öffentlichkeiten weitgehend kritisch zu betrachten. Als „Affektmaschine“ findet in der digitalen Kultur eine Tendenz nach einer Entinformationalisierung und Emotionalisierung statt, sodass vermehrt Texte mit affektivem Gehalt verfertigt werden (vgl. Reckwitz 2017). Auch der spätmoderne Journalismus im Netz ist nicht nur eine Informations-, sondern auch eine Narrationsmaschine mit erheblichen affektiven Wirkungen, die nach Öffentlichkeitsresonanz strebt (vgl. ebd., S. 236). Für die deliberative Demokratietheorie bedeutet dies vor allem eine Herausforderung für vernünftige und rationale Kommunikation. Diese muss zur Entwicklung und Validierung von Präferenzen einerseits auf ausgewogene und umfassende Informationen zurückgreifen können. Andererseits muss die Grundanforderung an jeden Diskursteilnehmer gewährleistet sein, sowohl Bereitschaft dafür zu zeigen, erhobene Geltungsansprüche bei aufkommender Kritik mit einsehbaren Gründen zu verteidigen, als auch die Fähigkeit vorzuweisen, zur Selbstkritik und Selbstkorrektur motiviert zu sein. Eine digitale Kultur, die eine zunehmende Emotionalisierung politischer Kommunikation befördert, stellt sich dieser Rationalitätsvermutung der deliberativen Kommunikationsbedingungen diametral entgegen. Im Gegensatz zur radikalen Demokratietheorie, die sich leidenschaftsaffin zeigt, und vielen Spielarten liberaler Demokratietheorie, die ausdrücklich leidenschaftskritisch sind (vgl. Hall 2005, S. 21–37), findet bei Habermas keine explizite Auseinandersetzung mit Emotionen und Leidenschaften statt (Weber 2012, S. 199). Aufgrund seiner rationalistischen Theoriekonstruktion werden sie weitgehend ausgeklammert und bleiben Anathema (ebd.). Seit der Wieder-

68

G. Kaya

entdeckung der Emotionen in der Philosophie (vgl. Solomon 2003; Hartman 2005) und Soziologie (vgl. Flam 2002; von Scheve 2009) ist Habermas‘ Konzept deliberativer Politik nachhaltig infrage gestellt worden (vgl. Weber 2012, S. 200). Angesichts der faktischen Bedeutung, die Emotionen im demokratischen Prozess zukommt, sei das deliberative Model zum einen wirklichkeitsfern (Mouffe 2000, S. 80 ff.; Weber 2012, ebd.), zum anderen beruhe es auf einer einseitigen Rekonstruktion demokratischer Prozesse, die eine Kultur rationaler Beteiligung privilegiere, die faktisch andere – emotional bestimmte und durchaus innovative – Formen der Partizipation exkludiere (Young 1996; Kulynych 1997; Weber 2012). Da diese Einwände gegen die kommunikative Rationalisierung der deliberativen Demokratie aus der Empirie kommen, kann ihr prinzipiell der kontrafaktische Charakter des Theoriegebildes entgegengehalten werden, der eben ein Soll und kein Ist definiert. Sie stellen zudem eine Grundsatzkritik am rationalistischen Konzept der deliberativen Demokratie dar, sodass erst einmal kein unmittelbarer Bezug zum digitalen Zeitalter besteht. Dennoch scheint die grundsätzliche Frage, ob die deliberative Demokratietheorie Emotionen und Affekten eine angemessene Bedeutung zuschreibt, berechtigt zu sein, da sich gegenwärtig gerade durch die Digitalisierung eine verschärfte strukturelle Emotionalisierung der Politik zu konstatieren scheint. Der Aufschwung populistischer Strömungen in westlichen Demokratien sowie rechtsextremer Ressentiments verleihen dem empirischen Einwand neuen Nachdruck (vgl. Weber und Federico 2007). Als pragmatisches Anliegen führt Martha Nussbaum beispielsweise an, dass es einem auf Rationalität verengten Staatsverständnis an motivierender Wirkungsmacht fehle. Alle politischen Prinzipien bedürfen nach Nussbaum emotionaler Unterfütterung, wenn ihre Stabilität gewährleistet sein soll. Ihr pragmatisches Movens kommt angesichts realpolitischer Herausforderungen zum Ausdruck: „Überläßt [sic!] man die Prägung von Gefühlen antiliberalen Kräften, erlangen diese einen gewaltigen Vorsprung bei der Gewinnung der Herzen der Menschen, und dann besteht die Gefahr, daß [sic!] Menschen liberale Werte für lasch und langweilig halten.“ (Nussbaum 2016, S. 12 f.). Die deliberative Demokratietheorie scheint an einem doppelten Umschlagpunkt zu stehen, wenn es darum geht, wie sie auf die Herausforderung affektiver Öffentlichkeiten reagieren soll. Sie kann zum einen die empirische Kritik als rekonstruktiven Impuls annehmen und einen Weg einschlagen, der die vernachlässigte Rolle von Emotionen in der Theorie behebt (vgl. hierzu Weber und Federico 2007; Hartmann 2003; Jörke 2003). Zum anderen kann das deliberative Modell am eigenen Normativ festhalten, der die Entstehung affektiver Öffentlichkeiten kritisiert und ihr als erstrebenswertes Ideal gegenübersteht. Entscheidend ist, dass sie sich als normative Demokratietheorie nicht so weit von realen Erfahrungen,

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

69

Sprechgewohnheiten und Erwartungen entfernt, dass sie politisch gehaltlos wird und sich zur Handlungsorientierung nicht mehr eignet. Für die radikale Demokratietheorie eröffnet eine affektive Öffentlichkeit zunächst Chancen für den „call for a radicalization of liberal democratic institutions“ (Oppelt und Mouffe 2014, S. 264). Mouffe zufolge ist jedes Verständnis von Politik im Ansatz verfehlt, in dem Leidenschaften und Emotionen keine zentrale Rolle zugewiesen wird. Verkenne man diese Natur des Politischen, so beraube man mit dem Ausschluss der Leidenschaften die demokratische Politik faktisch ihrer wirksamsten Überzeugungs- und Mobilisierungspraktiken (vgl. Weber 2012, S. 201).14 Das politische Subjekt der radikalen Demokratie ist demnach von vornherein ein affektives. Mouffes normatives Ideal eines agonistischen Pluralismus hält politische Leidenschaften lebendig, rechnet mit ihnen und zielt darauf ab, sie einzuhegen und zu zähmen, um konfliktträchtige Antagonismen in produktive, agonistische Spannungen zu überführen (vgl. Mouffe 2000, S. 80–107).15 Einige Autoren beleuchten hierzu einen Aspekt, der bislang kaum durchdacht wurde, aber für Mouffes radikale Demokratietheorie elementar ist: Die Rolle und Funktionsweise von Institutionen für die Kanalisierung und Artikulation von Konflikten (vgl. Jörke 2004, S. 181 f.; Stäheli 2009, S. 277 f.; Wallaschek 2017, S. 4 f.). Institutionen sind für Mouffe der Ort, an dem unterschiedliche Meinungen, Alternativen und Gegenhegemonien zum vorherrschenden Diskurs formuliert werden. In ihnen werden die agonistischen Konflikte ausgetragen. Allerdings hat Mouffe keinen spezifischen Institutionsbegriff in ihrem

14Vorherrschende

rationalistische Modelle macht sie dafür verantwortlich, existierende Krisen zu verschärfen und keine adäquaten Antworten zu liefern (Schwarz 2017, S. 197): „If there is anything that endangers democracy nowadays, it is precisely the rationalist approach, because it is blind to the nature of the political and denies the central role that passions play in the field of politics“ ( HYPERLINK "SPS:refid::bib76" Mouffe 2000, S. 146). 15Die Rolle der menschlichen Leidenschaften bringt Mouffe mit dem Begriff „patio“ ins Spiel. Vor dem Hintergrund der klassischen Psychoanalyse erscheint für Mouffe die Trennung zwischen „ratio“ und patio“ unhaltbar. Gleichwohl ist darin „eine innere Gespaltenheit von Identitäten wie die menschliche Tendenz zu Aggresion“ mitgedacht (Schwarz 2017, S. 201). Für das Subjekt – als Ort des Mangels – wird das Streben nach Ganzheit zum Hauptbeweggrund für hegemoniale Bestrebungen, was „jouissance“ (dt. Genießen) verschafft (ebd.).

70

G. Kaya

theoretischen Ansatz (vgl. Wallaschek 2017, S. 4).16 Angesichts dieser Leerstelle im radikaldemokratischen Modell wird der agonistische Habitus zu einem hohen Anspruch. Seitens des Gesetzgebers liegt dem Regelungsimpuls für das sog. Netzwerkdurchsetzungsgesetz (NetzDG) die Wahrnehmung zugrunde, dass es zu massiven Veränderungen „des gesellschaftlichen Diskurses im Netz und insbesondere in den sozialen Netzwerken“ gekommen sei: „Die Debattenkultur im Netz ist oft aggressiv, verletzend und nicht selten hasserfüllt.[…] Hasskriminalität und andere strafbare Inhalte, die nicht effektiv bekämpft und verfolgt werden können, bergen eine große Gefahr für das friedliche Zusammenleben einer freien, offenen und demokratischen Gesellschaft.“ (vgl. Ingold 2017, S. 492). Exzesse und Verrohungen der Debattenkultur auf Kommunikationsplattformen im Internet werden in diesem Zusammenhang zum Diskurs über „Cyber Harassment“ (ebd.). Hier lassen sich zwei Fragestellungen vorbringen: Wie lässt sich die Bändigung radikaler Antagonismen in der (affektierten) Öffentlichkeit bändigen und wie müssen entsprechenden institutionelle Gefüge zur Artikulation und Einhegung gedacht werden?

4.3 Ideologisch-polarisierte Öffentlichkeiten Eine ideologische oder polarisierte Öffentlichkeit ist aus Sicht der deliberativen Demokratie nicht bloß eine zu überwindende Hürde für den Prozess der Deliberation, sondern auch ein illegitimes Deliberationssresultat. Die öffentliche Sphäre muss im deliberativen Modell in der Lage sein, die Interessen und Bedürfnisse der Gesamtgesellschaft zu repräsentieren. Sie darf nicht zu einer Arena des Disputs von partikularen Interessen und Ideologien werden (vgl. Burkenhorst 2009). Vielmehr zielt sie mit ihrer konsensuellen Ausrichtung auf eine Übereinkunft ab, die die Zustimmung aller Diskursteilnehmer qua ratio erhält. Die Legitimität solch eines consensus wird durch die idealen Kriterien

16Diese

Unklarheiten im radikalen Demokratiemodell hat ihr auch den Vorwurf des „institutional deficit“ gebracht (Howarth 2008, S. 189). Die Kritik ist nur bedingt berechtigt, denn die Institutionen westlich-liberaler Demokratien sind durchaus wichtige Schranken in Mouffes Modell, um die Entstehung von Antagonismen zu verhindern, die das demokratische System zerstören würden. Weder die Aufhebung existierender Institutionen noch die Verlagerung politischen Handels jenseits dieser Institution sind gangbare Wege für Mouffe (Wallaschek 2017, S. 5; vgl. auch Hansen und Sonnichsen 2014, S. 266).

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

71

der Deliberation gewährleistet. Hierzu zählen Reflexivität, Reziprozität und Inklusivität (vgl. Graham 2002; Janssen und Kies 2005). Zur Entstehung ideologisch-polarisierter Öffentlichkeiten tragen allerdings in sich geschlossene Kommunikationsräume bei, in denen sich die Bereitschaft zur Reflexivität und Reziprozität vor dem exklusiven Hintergrund Gleichdenkender abspielt. Sofern das Geflecht ideologisch-polarisierter Öffentlichkeiten in isolierte Kommunikationsräume zerfällt, in denen die Unmittelbarkeit der Sinneswahrnehmungen sowohl die zur Analyse von Argumenten notwendige Distanz als auch die Fähigkeit zur aufgeschlossenen Diskussionsbereitschaft mit Andersdenkenden vermindert, besteht die Gefahr, dass dieser „Hintergrundkonsens“ der Deliberation nicht gegeben ist. Zwar behauptet Habermas nie, dass es die ideale Sprechaktsituation in der Realität auch tatsächlich gibt. Jedoch besteht er darauf, dass diese Idealisierung vor jedem Diskurs implizit vorgenommen werden muss, damit es zu dem „zwanglosen Zwang des besseren Arguments“ kommen kann. Eine polarisierte Öffentlichkeit kann aber die Möglichkeiten zum Verstehen Andersgesinnter einschränken und schließlich die Wahrscheinlichkeit für Feindseligkeiten in der öffentlichen Sphäre verstärken (vgl. Graham 1999; Sunstein 2001, 2003). Angesichts ideologisch-polarisierter Kommunikationsräume kann man nun fragen, ob und inwiefern der gemeinsame Kommunikationsraum, den die deliberative Demokratietheorie benötigt, nicht immer mehr erodiert (vgl. Reckwitz 2018). Hieran schließt sich allerdings die Frage an, ob dies als Problem der Theorie oder der Empirie zu verstehen ist. Hält man an der Rationalitätsvermutung der deliberativen Demokratietheorie fest, gibt es Gründe, ideologisch-polarisierte Öffentlichkeiten als empirische Hürde zu betrachten. Denn das deliberative Modell konstatiert, dass die Polarisierung von extremen Ansichten nur durch rationale Deliberation zwischen ungleichdenkenden Individuen und Gruppen überwunden werden kann. Demzufolge führt eine rationale Deliberation mit Anderen von extremen Meinungen weg; hin zu einem räsonablen Mittelweg, der soziale Destabilisierung verhindert (vgl. Sunstein 2001). Rationale Deliberation operiert also als Mittel, um Differenz und Meinungsverschiedenheiten in Konsens und sozialen Zusammenhalt zu überführen. Als Appell seitens des deliberativen Modells formuliert, hieße das für die Empirie, die Schaffung von Begegnungsräumen für Andersdenkende zu gewährleisten und isolierte Deliberationsräume zu durchbrechen. Ähnliche Forderungen an die Empirie sind auch aus Sicht des radikaldemokratischen Modells berechtigt. Die beiden Modelle unterscheiden sich aber in einem wesentlichen Punkt: Mouffe argumentiert dafür, die RechtsLinks-Opposition in der Politik lebendig zu halten. Polarisierte-ideologische

72

G. Kaya

Öffentlichkeiten sind für Mouffe also keine zu überwindende Hürde, sondern ein Elementarteilchen für den demokratischen Prozess. In diesem Sinne ist auf Mouffes Betonung zur Rolle und Wiedereinführung politischer Leidenschaften hinzuweisen. Sie nennt zwei sich gegenüberstehende Leidenschaften; die der „Hoffnung“ pluralistischer Demokraten und die der ‚Angst‘.17 Mouffe denkt mit der Hervorhebung der Rolle der patio als „passion of hope“ einen Kampf gegen den Rechtsextremismus und schwört dabei dem mobilisierenden Potential des Populismus nicht ab. Die demokratische Öffentlichkeit soll ideologischpolarisierten Meinungen Ausdrucksmöglichkeiten zusichern, die agonistische Austragungsstätten fördern. Zur Kultivierung eines agonistischen Habitus benötigt die radikale Demokratie zwei Hilfestellungen: Erstens braucht sie einen Konsens über die für die Demokratie „konstitutiven Institutionen und über die ‚ethisch-politischen’ Werte, die das politische Gemeinwesen konstituieren – Freiheit und Gleichheit für alle“ (Mouffe 2010, S. 43). Zweitens benötigt sie agonistische Konfrontationsräume, in denen unterschiedliche demokratische „Wir’s“ übergreifende Ähnlichkeiten finden können und die, ohne völlige Gleichheit zu kultivieren, heterogene Gruppen in Austausch bringen; beispielsweise in Form von milieu-, generationen- und genderübergreifender Lern- und Arbeitsräume sowie Kommunikationsangebote. In derart heterogenisierten Lern- und Kommunikationsräumen könnten potenzielle Gegner neue Gemeinsamkeiten kennenlernen (vgl. Schwarz 2017, S. 227).

4.3.1 Manipulierte Öffentlichkeiten Handlungen, bei denen die Kommunikation nicht zum Zwecke der Verständigung, sondern für die unilaterale oder reziproke Einflussnahme der Handelnden eingesetzt wird, bezeichnet Habermas als strategische Handlungen. Diese „perlokutionären“ Eingriffe, die darauf abzielen, eine Zustimmung

17Hierzu

Mouffe 2014; „If you leave the affective dimension to right-wing populists, there is no way to fight against them. Not only has the affective dimension to be acknowledged, but it also has to be recognized that this affective dimension can be shaped in a much more progressive way. The two main passions in politics are fear and hope. The right-wing populists use fear – that is why they are fighting against immigrants. And it’s important for left-wing populists to mobilize the passion of hope: to show that there is an alternative to the current situation with the growing gap between rich and poor and the destruction of the welfare state. Right-wing populist are very much aware of the importance of using this affective dimension. It is crucial for the Left to acknowledge it and to intervene, to mobilize and to foster affect in order to create collective forms of identification that could deepen democracy“.

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

73

oder ein angestrebtes Verhalten seitens des Hörers zu bewirken, verletzen die Bedingungen, unter denen die Verständigung im deliberativen Modell verfolgt werden soll und die nur durch das Verstehen und Akzeptieren von glaubhaften Gründen bindende Kraft gewinnt (vgl. Schaal 2019). Durch die Verzerrung der informationellen Basis des Prozesses der Präferenzgenese kann das deliberative Ideal demokratischer Politik insgesamt untergraben werden, da die Ergebnisse deliberativer Verfahren nicht mehr die Vermutung höherer Rationalität für sich beanspruchen können. Vor diesem Hintergrund steht die normative Integrität öffentlicher Diskurse unter Vorbehalt und die Idee der räsonierenden Öffentlichkeit wird selbst infrage gestellt (vgl. ebd., S. 127). Der Zusammenhang zwischen Manipulation und agonistischer Öffentlichkeit ist in der radikalen Demokratietheorie bislang kaum im Fokus der Auseinandersetzungen gewesen. Zwei Stellungnahmen lassen sich jedoch aus dem Ansatz ableiten: Die Entstehung von manipulierten Öffentlichkeiten wird häufig mit populistischen Strömungen in Zusammenhang gebracht (vgl. Schwarz 2017). Der Diskurs um postfaktische Politik und Desinformation ist aus radikaldemokratischer Sicht aber allgemein unter dem Aspekt des Herrschaftskritischen zu betrachten und daher auf vorherrschende Strömungen der etablierten Parteien auszuweiten. Als Lösung für das Problem der Postfaktizität wird häufig vorgeschlagen, Demokratien durch die Stärkung von Fakten in der Entscheidungsfindung aus ihrer „gegenwärtigen Krise“ herauszuholen. Was allerdings als „wahr“ gilt, ist aus radikaldemokratischer Perspektive Teil des politischen Kampfes um Hegemonie. Somit ist auch die Verbreitung von Desinfomation und Fake News als die Gegenwart des politischen Kampfes zu sehen, in dem diese Phänomene zur diskursiven Waffe innerhalb konkurrierender Diskurse werden (vgl. Farkas 2018).

5 Fazit Das digitale Zeitalter hat immense Veränderungen hevorgerufen, die die Grundmuster der Gesellschaft und Politik umstrukturiert haben. Im Zentrum der digitalen Transformation befindet sich ein Komplex, der sich aus einem Zusammenspiel neuer Informations-, Partizipations- und Öffentlichkeitsmöglichkeiten ergibt. Damit hat die digitale Transformation nicht nur vielfältige Chancen für die Demokratie eröffnet, sondern auch mancherlei Risiken. Die hier vertretene These hat mit Rekurs auf Richard Sennetts Verfallsdiagnose der Öffentlichkeit und Andreas Reckwitz’ These von der Gesellschaft der Singularitäten auf zwei problematische Entwicklungen im digitalen

74

G. Kaya

Zeitalter hingewiesen: der Personalisierung des Politischen und der zunehmenden Überlagerung der öffentlichen Sphäre durch das Private. Die Digitalisierung erzeugt mit ihrer Tendenz zur Personalisierung des Politischen eine Reihe von Spannungsfeldern. Der Beitrag hat auf vier Erscheinungsformen moderner digitaler Öffentlichkeiten hingewiesen und nach ihren Implikationen für die deliberative und radikale Demokratietheorie gefragt: Fragmentierte, affektive, ideologisch-polarisierte und manipulierte Öffentlichkeiten. Viele der problematischen Entwicklungen sind wohlgemerkt auch in der analogen Lebenswelt bekannte Hindernisse für die deliberative und radikale Demokratietheorie. Im Unterschied hierzu wirkt sich die Digitalisierung aber wie ein Katalysator auf sie aus: sie ermöglicht, regt an oder beschleunigt: (1) Fragmentierte und potentiell fragmentierende Öffentlichkeiten stellen für die deliberative Demokratie eine Herausforderung für das Normativ des Öffentlichen dar, während sie für die radikale Demokratietheorie eine Möglichkeit darstellen, das Ideal zur Anfechtung hegemonialer Diskurse zu verwirklichen. (2) Auch der digitale Impuls zur Entstehung affektiver Öffentlichkeiten trifft ein Kernanliegen der radikalen Demokratietheorie, die dafür plädiert, Affekte in kanalisierter Form als politische Leidenschaften zur Geltung zu bringen. Gleichwohl korrespondiert der Aspekt affektiver Öffentlichkeiten mit der empirisch-realistischen Kritik, die Chantal Mouffe an der deliberativen Demokratietheorie übt. Die deliberative Demokratietheorie scheint wiederum an einem doppelten Umschlagpunkt zu stehen, wenn es darum geht, wie sie auf die Herausforderung affektiver Öffentlichkeiten reagieren soll. Sie kann zum einen die empirische Kritik als rekonstruktiven Impuls annehmen und einen Weg einschlagen, der die vernachlässigte Rolle von Emotionen in der Theorie ausgleicht. Zum anderen kann das deliberative Modell am eigenen Normativ festhalten, das die Entstehung affektiver Öffentlichkeiten kritisiert und ihr als erstrebenswertes Ideal gegenübersteht. (3) Eine ideologische oder polarisierte Öffentlichkeit ist aus Sicht der deliberativen Demokratie nicht bloß eine zu überwindende Hürde für den Prozess der Deliberation, sondern auch ein illegitimes Deliberationsresultat. Als Appell formuliert, hieße das für die Empirie, die Schaffung von Begegnungsräumen für Andersdenkende zu gewährleisten und isolierte Deliberationsräume zu durchbrechen. Wie oben erwähnt sind für Mouffe polarisierte-ideologische Öffentlichkeiten keine zu überwindende Hürde, sondern ein Elementarteilchen für den demokratischen Prozess. Nichtsdestoweniger ist auch die radikale Demokratie auf milieu-, generationen-, genderübergreifende Lern- und Arbeitsräume sowie Kommunikationsangebote angewiesen. (4) Angesichts manipulierter Öffentlichkeiten steht gemäß der deliberativen Demokratietheorie die normative Integrität öffentlicher Diskurse unter Vorbehalt und die Idee

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

75

der räsonierenden Öffentlichkeit wird selbst infrage gestellt. Aus radikaldemokratischer Sicht ist diese Tendenz unter dem Aspekt des Herrschaftskritischen zu betrachten, in dem Diskurse um Wahrheit als Kampf um Hegemonie gesehen werden können.

Literatur- und Quellenverzeichnis Albrecht, Steffen. 2010. Reflexionsspiele: Deliberative Demokratie und die Wirklichkeit politischer Diskurse im Internet. Bielefeld: Transcript. Baringhorst, Sigrid. 2019. Der Nutzer als Wächter – Zivilgesellschaftliche Medienpraktiken eines herrschaftskritischen Going Public im Internet. In Digitaler Strukturwandel der Öffentlichkeit, Hrsg. Jonas Bedford-Strohm, Florian Höhne, und Julian Zeyher-Quattlender, 103–120. Nomos: Baden-Baden. Balkin, J.M. 2004. ‘Political Organization and Political Discussion on the Internet’. https:// balkin.blogspot.com/2004_01_25_balkin_archive.html. Zugegriffen: 10. Okt. 2019 Baynes, Kenneth. 2010. Deliberative democracy and public reason. Veritas 55: 135–163. Beckstein, Martin. 2011. The dissociative and polemical political: Chantal Mouffe and the intellectual heritage of Carl Schmitt. Journal of Political Ideologies 16: 33–51. Benhabib, Seyla. 1995. Ein Deliberatives Modell Demokratischer Legitimität. Deutsche Zeitschrift Für Philosophie 43 (1): 3–30. Benhabib, Seyla. 1996. Toward a deliberative model of democratic legitimacy. In Democracy and Difference, Hrsg. Dies, 73–107. Princeton. Bennett, W.L., und S. Iyengar. 2008. A new era of minimal effects? The changing foundations of political communication. Journal of Communication 58 (4): 707–731. Benson, T.W. 1996. Rhetoric, civility, and community: Political debate on computer bulletin boards. Communication Quarterly 44 (3): 359–378. Bieber, Christoph. 2019. Forschungsfragen der digitalen Öffentlichkeit. Ein Ausblick. In Digitaler Strukturwandel der Öffentlichkeit, Hrsg. Jonas Bedford-Strohm, Florian Höhne, und Julian Zeyher-Quattlender, 151–156. Nomos: Baden-Baden. Bickel, B. 2003. Weapons of magic: Afghan women asserting voice via the Net. Journal of Computermediated Communication 8(2). Bohman, J. 2004. Expanding dialogue: The internet, the public sphere and prospects for transnational democracy. In After Habermas: New perspectives on the public sphere, Hrsg. N. Crossley und J.M. Roberts, 131–155. Oxford: Blackwell/The Sociological Review. Brunkhorst, Hauke. 2009. Habermas-Handbuch. Stuttgart: Metzler. Cohen, Joshua. 1997. Deliberation and Democratic Legitimacy. In The Good Polity, Hrsg. A. Hamlin, und P. Pettit, 17–34. Oxford. Dahlberg, L. 2001. The internet and democratic discourse: Exploring the prospects of online deliberative forums extending the public sphere. Information, Communication & Society 4 (4): 615–633. Dahlberg, Lincoln. 2007. Rethinking the fragmentation of the cyberpublic: Fom consensus to contestation. New Media & Society 9 (5): 827–847.

76

G. Kaya

Dahlberg, L. 2011. Re-constructing digital democracy: An outline of four ‘positions’. New Media & Society 13 (6): 855–872. Davis, R. 1999. The web of politics: The internet’s impact on the american political system. New York: Oxford University Press. Dibbel, K. 2012. Social media on trial over racism. The Sunday Mail. https://www.couriermail.com.au/news/queensland/social-media-on-trial-over-racism/storye6freoof-122647483013. Zugegriffen: 10. Okt. 2019. Downey, J., und N. Fenton. 2003. New media, counter publicity and the public sphere. New Media & Society 5 (2): 185–202. Druckman, J.N., E. Peterson, und R. Slothuus. 2013. How elite partisan polarization affects public opinion formation. American Political Science Review 107 (1): 57–79. Dubois, Elizabeth, und Grant Blank. 2019. The echo chamber is overstated: The moderating effect of political interest and diverse media. Information, Communikcation & Society 21 (5): 729–745. Echterhoff, G., E.T. Higgins, und J.M. Levine. 2009. Shared reality: Experiencing commonality with others’ inner states about the world. Perspectives on Psychological Science 4: 496–521. Fang, N.-H. 1995. The Internet as a Public Sphere: A Habermasian Approach, New York. Farkas, Johan. 2018. A case against the post-truth era: Revisiting Mouffe’s critique of consensus-based democracy. https://www.johanfarkas.com/wp-content/uploads/2018/08/ Farkas2018-Pre-Print.pdf. Zugegriffen: 10. Okt. 2010. Fishkin , James. 2011. When the people speak. Oxford. Flam, Helena. 2002. Soziologie der Emotionen. Konstanz: Eine Einführung. Fung, A.Y.-H., und K.D. Kedl. 2000. ‘Representative publics, political discourses and the internet: A case study of a degenerated public sphere in a chinese online community’. World Communication 29 (4): 69–84. Gerhards, Jürgen, und Mike S. Schäfer. 2010. Is the internet a better public sphere? Comparing old and new media in the USA and Germany. New Media & Society 12 (1): 143–160. Giesen, Klaus-Gerd. 2015. Habermas und die EU-Demokratie. In Deliberative Demokratie, Hrsg. Henning Ottmann, 165–182. Nomos: Baden-Baden. Gimmler, A. 2001. Deliberative democracy, the public sphere and the internet. Philosophy & Social Criticism 27 (4): 21–39. Graham, G. 1999. The internet: A philosophical inquiry. London: Routledge. Graham, T. 2002. Deliberating in online forums: New hope for the public sphere? Amsterdam school of communications. Habermas, Jürgen. 1981. Theorie des kommunikativen Handelns. Frankfurt a.  M.: Suhrkamp. Habermas, Jürgen. 1989. Vorstudien und Ergänzungen zu einer Theorie des kommunikativen Handelns. Frankfurt a. M. Habermas, Jürgen. 1992. Faktizität und Geltung Beiträge zur Diskurstheorie des Rechts und des demokratischen Rechtsstaats. Frankfurt a. M.: Suhrkamp. Habermas, Jürgen. 1994. Faktizität und Geltung. Beiträge zur Diskurstheorie des Rechts und des demokratischen Rechtsstaates, 349–398. Frankfurt a. M. Habermas, Jürgen. 1996. Drei normative Modelle der Demokratie: Zum Begriff deliberativer Politik. Frankfurt a. M.: Suhrkamp.

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

77

Habermas, Jürgen. 1999a. Drei normative Modelle der Demokratie. In: Die Einbeziehung des Anderen. Studien zur politischen Theoriem., 277–292. Frankfurt a. M. Habermas, Jürgen. 1999b. Über den internen Zusammenhang von Rechtsstaat und Demokratie. In Die Einbeziehung des Anderen. Studien zur politischen Theorie, 293–305. Frankfurt a. M. Habermas, Jürgen. 2006. Political Communication in Media Society: Does Democracy Still Enjoy an Epistemic Dimension? The Impact of Normative Theory on Empirical Research. In: Communication theory 16 (4): 411–426. Hall, Cheryl. 2005. The trouble with passion, New York. Hansen, Allan D., und Sonnichsen André. 2014. Radical democracy, agonism and the limits of pluralism: An interview with Chantal Mouffe. Distinktion: Scandinavian Journal of Social Theory 15: 263–270. Hartmann, Martin. 2003. Die Kreativität der Gewohnheit. Grundzüge einer pragmatistischen Demokratietheorie, Frankfurt a. M. Hartmann, Martin. 2005. Gefühle Wie die Wissenschaften sie erklären. New York: Frankfurt a. M. Harper, Tauel. 2017. The big data public and its problems: Big data and the structural transformation of the public sphere. New Media & Society 19 (9): 1424–1439. Hetzel, Andreas. 2017. Öffentlichkeit als Konflikt. fiph. Journal 30: 1–21. Hildebrand, M., und A. Seville. 2015. Populismus oder agonale Demokratie? Bruchlinien der theoretischen Symbiose von Laclau und Mouffe. Politische Vierteljahresschrift 56: 27–43. Howarth, David R. 2008. Ethos, Agonism and Populism. William Connoly and the case for radical democracy. British Journal of Politics and International Relations 10: 171–193. Huckfeldt, R., P.E. Johnson, und J. Sprague. 2004. Political disagreement. New York: Cambridge University Press. Ingold, A. 2017. Digitalisierung demokratischer Öffentlichkeiten. Der Staat 56 (4): 491– 533. Iosifidis, Petros, und Mark Wheeler. 2016. Public spheres and mediated social networks in the western context and beyond. London: Palgrave Macmillan. Jamieson, K.H., und J.N. Cappella. 2008. Echo chamber. New York: Oxford University Press. Janssen, D., und R. Kies. 2005. Online forums and deliberative democracy. Acta Politica 40 (3): 384–392. Jacobson, S., E.Y. Myung, und S.L. Johnson. 2016. Open media or echo chamber: The use of links in audience discussions on the Facebook pages of partisan news organizations. Information, Communication, and Society 19 (7): 875–891. Johns, Amelia, und Anthony Mccosker. 2015. Social media conflict: Platforms for racial vilification, or acts of provocation and citizenship? Communication, Politics & Culture 47 (3): 44–54. Jörke, Dirk. 2003. Demokratie als Erfahrung. Wiesbaden: John Dewey und die politische Philosophie der Ge- genwart. Jörke, Dirk. 2004. Die Agonalität des Demokratischen: Chantal Mouffe. In Die Rückkehr des Politischen. Demokratietheorie heute, Hrsg. O. Flügel und R. Heil, 164–184. Darmstadt: Verlag.

78

G. Kaya

Jörke, Dirk. 2006. Wie demokratisch sind radikale Demokratietheorien? In Die unendliche Aufgabe. Kritik und Perspektiven der Demokratietheorie, Hrsg. R. Hell und A. Hetzel, 253–266. Bielefeld: Transcript. Kahn, R., und D. Kellner. 2005. Oppositional politics and the internet: A critical/ reconstructive approach. Cultural Politics: An International Journal 1 (1): 75–100. Kellner, D. 2004. The media and the crises of democracy in the age of bush-2. Communication and Critical/Cultural Studies 1(1): 29–58. Kowal, D. 2002. Digitizing and globalizing indigenous voices: The Zapatista movement. In Critical perspectives on the internet, Hrsg. G. Elmer, 105–126. Rowman and Littlefield: Lanham. Kreide, Regina. 2015. Digital spaces, public places and communicative power: In de- fense of deliberative democracy. Philosophy & Social Criticism 42: 476–486. Kulynych, Jessica J. 1997. Performing politics. Foucault, habermas, and postmodern participation. Polity 30: 315–346. Laclau, Ernesto, und Chantal Mouffe. 2006. 1985 Hegemonie und radikale Demokratie. Zur Dekonstruktion des Marxismus. Wien. Langman, L. 2005. From virtual public spheres to global justice: A critical theory of internet- worked social movements. Sociological Theory 23 (1): 42–74. Levendusky, M. 2010. Clearer cues, more consistent voters: A benefit of elite polarization. Political Behavior 32 (1): 111–131. Lovejoy, K., und G. Saxton. 2012. Information, community, and action: How nonprofit organizations use social media*. Journal of Computer-Mediated Communication 17 (3): 337–353. Mouffe, Chantal. 2000. The democratic paradox. London: Verso books. Mouffe, Chantal. 2002a. Für eine agonistische Öffentlichkeit. In Demokratie als unvollendeter Prozess, Hrsg. Cantz, Hatje, 101–112. Kassel. Mouffe, Chantal. 2002b. Which kind of public space for a democratic habitus? In Habitus A sense of place. Urban and regional planning and development, Hrsg. Jean Hiller und Emma Rooksby, Burlington, S. 93–100. Mouffe, Chantal. 2005. On the political. London: Routledge. Mouffe, Chantal. 2007. Über das Politische Wider die kosmopolitische Illusion. Frankfurt a. M.: Suhrkamp. Mouffe, Chantal. 2008a. Art and democracy: Art as an agnostic inervention in public space. In Art as a public issue. How art and its institutions reinvent the public dimension, 6–13. Rotterdam: Nai Publishers. Mouffe, Chantal. 2008b. Das demokratische Paradox (2000) Wien. Mouffe, Chantal. 2010. Essay über Entpolitisierung. https://bpb.de/apuz/33565/ postdemokratie-und-die-zunehmende-enpolitisierung-essay?p=all. Zugegriffen: 25. Okt. 2019. Mouffe, Chantal. 2013. Agonistics. London: Thinking the World Politically. Mouffe, Chantal. 2014. Populism is a necessity. https://www.theeuropean-magazine.com/ chantal-mouffe—4/8420-why-the-eu-needs-populism. Zugegriffen: 10. Okt. 2019. Murdock, G., und P. Golding. 2004. Dismantling the digital divide: Rethinking the dynamics of participation and exclusion. In Towards a political economy of culture: Capitalism and communication in the twenty-first century, Hrsg. A. Calabrese und C. Sparks, 244–260. Lanham: Rowman & Littlefield.

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

79

Nonhoff, Martin. 2007. Diskurs, radikale Demokratie, Hegemonie – Einleitung. In Diskurs – radikale Demokratie – Hegemonie: Zum politischen Denken von Ernest Laclau und Chantal Mouffe, Bielefeld, Hrsg. Ders., 7–23. Neuberger, Christoph, und Manuel, Wendelin. (2012). Strukturwandel der Öffentlichkeit 2.0. https://www.goethe.de/wis/bib/prj/hmb/the/157/de9527384.htm. Zugegriffen: 18. Okt. 2019. Newman, Nic et al. 2016. “Reuters Institute Digital News Report 2016,” Reuters Institute for the Study of Journalism. https://reutersinstitute.poli-tics.ox.ac.uk/sites/default/files/ Digital-News-Report-2016.pdf. Zugegriffen: 28. Okt. 2019. Niederberger, Marlen, und Stefanie Dreiack. 2018. Inklusive Teilnahme zwischen Fiktion und Realität? Eine Diskussion des Potenzials von On- und Offline-Partizipation am Beispiel des Bürgerdialogs Zukunftsthemen. In Strategische Politische Kommunikation im digitalen Wandel: Interdisziplinäre Perspektiven auf ein dynamisches Forschungsfeld, Hrsg. Michael Oswald und Michael Johann, 259–288. Wiesbaden: Springer VS. Noveck, B.S. 2000. Paradoxical partners: Electronic communication and electronic democracy. In The internet, democracy, and democratization, Hrsg. P. Ferdinand, 18–35. London: Routledge. Nussbaum, Martha. 2016. Politische Emotionen. Berlin: Suhrkamp. Oswald, Michael. 2018. Strategische Politische Kommunikation im digitalen Wandel – ein disruptives Zeitalter? In Strategische Politische Kommunikation im digitalen Wandel: Interdisziplinäre Perspektiven auf ein dynamisches Forschungsfeld, Hrsg. Michael Oswald und Michael Johann, 7–34. Wiesbaden: Springer VS. Ottmann, Henning. 2006. Liberale, republikanische, deliberative Demokratie. Synthesis Philosophica 42 (2): 315–325. Packham, B. 2012. Abbott calls for greater social media curbs after racist page appears on facebook. The Australian. https://www.theaustralian.com.au/technology/abbott-callsfor-greater-social-media-curbs-after-racist-page-appears-on-facebook/story-e6frgakx1226446813345#sthash.3rEBbGac.dpuf. Zugegriffen: 28. Okt. 2019. Palczewski, C. 2001. Cyber-movements, new social movements, and counter-publics. In Counterpublics and the state, Hrsg. D. Brouwer und R. Asen, 9–27. New York: SUNY Press. Pariser, E. 2011. The filter bubble: How the new personalized web is changing what we read and how we think. New York: Penguin Books. Penman, R., und S. Turnbull. 2012. Socially inclusive processes: New opportunities with new media? Media International Australia 142: 74–86. Priester, Karin. 2012. Die Stunde der Entscheidung. Radikale Linke im Geiste Carl Schmitts. Blätter für deutsche und internationale Politik 57: 108–119. Rawls, John. 1995. Reply to Habermas. The Journal of Philosophy 92 (3): 132–180. Rawls, John. 1997. The idea of public reason revisited. University of Chicago Law Review, 64. Rawls, John. 2005. Political liberalism. New York. Rawls, John. 2003. Politischer Liberalismus. Frankfurt a. M.: Suhrkamp. Reckwitz, Andreas. 2017. Die Gesellschaft der Singularitäten. Berlin: Suhrkamp. Reckwitz, Andreas. 2018. „Digitalisierung führt dazu, dass die allgemeine Öffentlichkeit erodiert“. https://www.deutschlandfunkkultur.de/andreas-reckwitz-die-gesellschaft-dersingularitaeten.990.de.html?dram:article_id=412701. Zugegriffen: 23. Okt. 2019.

80

G. Kaya

Ritzi, Claudia. 2017. Alte Sphären –neue Dimensionen. Die Politisierung von Privatheit im digitalen Zeitalter. In Politische Theorie und Digitalisierung, Hrsg. Daniel Jacob und Thorsten Thiel, 83–112. Baden-Baden: Nomos. Robison, J., und K.J. Mullinix. 2016. Elite polarization and public opinion: How polarization is communicated and its effects. Political Communication 33 (2): 262–282. Salazar, J.F. 2003. Articulating an activist imaginary: Internet as counter public sphere in the Mapuche movement, 1997/2002. Media International Australia Incorporating Culture and Policy 107: 19–30. Schaal, Gary. 2019. Hybrid influencing und die Vulnerabilität digital eingebetteter demokratischer Öffentlichkeiten. In Digitaler Strukturwandel der Öffentlichkeit, Hrsg. Jonas Bedford-Strohm, Florian Höhne, und Julian Zeyher-Quattlender, 121–134. Nomos: Baden-Baden. Schachtner, C. 2016. Das narrative Subjekt – Erzählen im Zeitalter des Internets. Bielefeld: Transcript. Schmitt, Carl. 1996. Der Begriff des Politischen. Berlin: Duncker & Humbolt. Schwarz, Verena. 2017. Agonistische Öffentlichkeiten bei Chantal Mouffe: Zwischen lebendiger Demokratie und Populismus. In Radikale Demokratie. Zum Verständnis von Chantal Mouffe und Ernesto Laclau, Hrsg. Andreas Hetzel, 193–230. Baden-Baden: Nomos. Shapiro, A. 1999. The control revolution: How the internet is putting individuals in charge and changing the world as we know it. New York: Public Affairs. Selnow, G.W. 1998. Electronic whistle-stops: The impact of the internet on American politics. Westport: Praeger. Sennett, Richard. 1974. Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität. Frankfurt a. M.: Fischer Verlag. Solomon, Robert C. 2003. What is an emotion? Classic and contemporary readings. New York: Oxford. Stäheli, Urs. 2009. Die politische Theorie der Hegemonie: Ernesto Laclau und Chantal Mouffe. In Politische Theorien der Gegenwart II: Eine Einführung, Hrsg. André Brodocz und Gary S. Schaal, 3. Aufl., 253–284. Opladen. Stromer-Galley, J. 2003. ‘Diversity of political conversation on the internet: Users’ perspectives’, Journal of Computer-mediated Communication 8(3) Stroud, N.J. 2011. Niche news. New York: Oxford University Press. Suler, J. 2004. The online disinhibition effect. CyberPsychology & Behavior 7 (3): 321– 326. Sunstein, C. 2001. Republic.com. Princeton: Princeton University Press. Sunstein, C. 2003. Why societies need dissent. Cambridge: Harvard University Press. Sunstein, C. 2017. #Republic. Princeton: Princeton University Press. Suntrup, Jan Christoph. 2010. Zur Verfassung der Deliberativen Demokratie. Strukturelle Probleme und Perspektiven. In: Der Staat 49 (4): 605–629. Tanner, E. 2001. Chilean conversations: Internet forum participants debate Augusto Pinochet’s detention. Journal of Communication 51 (2): 383–403. Toffler, A. 1980. The third wave. London: Collins. Tsfati, Y., und L. Nir. 2017. Frames and reasoning: Two pathways from selective exposure to affective polarization. International Journal of Communication 11: 301–322.

Zwischen Skylla und Charybdis? Die Zukunft der Demokratietheorie ...

81

Von Oorschot, Frederike. 2018. „Facebook ist das Opium des Volkes“ Politische Meinungsbildung in sozialen Netzwerken als Herausforderung theologischer Ethik. In Zwischen Diskurs und Affekt Vergemeinschaftung und Urteilsbildung in der Perspektive Öffentlicher Theologie, Hrsg. Thomas Wabel, Torben Stamer, und Jonathan Weider, 149–166. Leipzig: EVA. von Scheve, Christian. 2009. Emotionen und soziale Strukturen. Die affektiven Grundlagen sozialer Ordnung. Frankfurt a. M. Warf, B., und J. Girmes. 1997. Counterhegemonic discourses and the internet. Geographical Review 87 (2): 259–274. Wallaschek, S. 2017. Chantal Mouffe und die Institutionenfrage. Zeitschrift für Politische Theorie 8 (1): 3–22. Weber, Florian. 2012. Unterkühlter Diskurs. Zum Verhältnis von Emotion und Deliberation bei Jürgen Habermas. In Politische Theorie und Emotionen, Hrsg. F. Heidenreich 199– 215. Nomos: , Baden-Baden. Weber, Christopher und Federico, C.M. 2007. Interpersonal attachment and patterns of ideological belief. In: Political Psychology 28 (4): 389–416. Weinberger, D. 2004. ‘Is there an echo in here?’, Salon.com. https://www.salon.com/tech/ feature/2004/02/20/echo_chamber/index_np.html. Zugegriffen: 25. Okt. 2019. Wilhelm, A.G. 2000. Democracy in the digital age: Challenges to political life in cyberspace. London: Routledge. Young, Iris Marion. 1996. Communication and the other: Beyond deliberative democracy. In Democracy and difference. Contesting the boundaries of the political, Hrsg. Seyla Benhabib, 120–135. Princeton.

Demokratischer Wandel, dissonante Öffentlichkeit und die Herausforderungen vernetzter Kommunikationsumgebungen Curd Knüpfer, Barbara Pfetsch und Annett Heft 1 Einleitung Demokratien in Gegenwartsgesellschaften sind derzeit von zwei langfristigen und tief greifenden gesellschaftlichen Wandlungsprozessen betroffen, welche die politische Öffentlichkeit nachhaltig verändern. In unserem Beitrag argumentieren wir, dass im Wandel politischer Strukturen und Kulturen Prozesse der Segmentierung auszumachen sind. Digitalisierung und der Wandel von Mediensystemen haben zudem eine Fragmentierung des Publikums zur Folge. Beide Entwicklungen sind eng mit Krisenerscheinungen innerhalb demokratischer Öffentlichkeiten verbunden, denen zentrale Funktionen der Beobachtung, Orientierung und Validierung von öffentlichen Meinungen (Neidhardt 2010)

Diese Arbeit wurde durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert (Förderkennzeichen: 16DII114 – „Deutsches Internet-Institut“). C. Knüpfer (*)  John F. Kennedy Institut, Freie Universität Berlin, Berlin, Deutschland E-Mail: [email protected] B. Pfetsch  Weizenbaum-Institut für die vernetzte Gesellschaft, Freie Universität Berlin, Berlin, Deutschland E-Mail: [email protected] A. Heft  Weizenbaum-Institut für die vernetzte Gesellschaft, Berlin, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_5

83

84

C. Knüpfer et al.

zukommen. Die Veränderungen führen zu Konstellationen dissonanter Öffentlichkeiten, die durch Polyvokalität wie auch Polarisierungstendenzen bis hin zum Lärm geprägt sind (Pfetsch et al. 2018). Das gleichzeitige Zusammenwirken von Wandlungsprozessen in Medien und Politik bedingen als nicht-intendierte Folge neue Sprecher und Sprecherkonstellationen sowie neuartige Strukturen und Dynamiken von politischen Debatten, die zusätzlich und jenseits der herkömmlichen Informationsinfrastrukturen entstehen. Diese Situation setzt demokratische Institutionen und Ordnungen unter Druck bis hin zu deren Unterminierung, mit derzeit nicht absehbaren Folgen für die Demokratie. Unser Beitrag ist in drei Teile gegliedert: Zunächst untersuchen wir die Evidenzen für die langfristigen Veränderungsprozesse aus der politischen Kulturforschung sowie Kommunikationsforschung. In einem zweiten Schritt befassen wir uns mit dem digital bedingten Wandel der Mediensysteme. Beide Punkte betonen die zentrale und derzeit prekäre Situation von Massenmedien als zentrale Informations- und Kommunikationskanäle demokratischer Systeme. Mit Blick auf die Verbreitung digitaler Medien untersuchen wir die prägenden Merkmale von hybriden Mediensystemen (Chadwick 2013), die mit dissonanten Öffentlichkeiten verbunden sind. Wir erläutern zunächst das Konzept der Dissonanz und diskutieren dann Aspekte von Vernetzung und Entkopplung von digitalen Netzwerköffentlichkeiten. Im dritten Teil des Beitrages erörtern wir die Probleme für die Demokratie, welche infolge von dissonanten Öffentlichkeiten entstehen.

1.1 Demokratische Institutionen und politische Kulturen In der gegenwärtigen Diskussion der Demokratieforschung werden Krisenerscheinungen demokratischer Ordnungen anhand von Indikatoren auf unterschiedlichen Dimensionen belegt: Zum einen durch das Aufkommen von Anti-System-Parteien und populistischen Bewegungen (Hutter und Kriesi 2019). Zum anderen werden Legitimationsprobleme demokratischer Systeme gesehen, wenn der Grad der Unterstützung der Demokratie als Regierungsform allgemein und zu demokratischen Institutionen im speziellen sinkt (Foa und Mounk 2016). Dies bedeutet, dass etwas mit der Demokratie im Argen liegt, sollten sich die Menschen von den demokratischen Parteien abwenden und in ihren Einstellungen von den Ideen demokratischer Regeln, dem Regime und der Bürgerschaft entfremden. Schließlich hängen Krisenerscheinungen der Demokratie auch damit zusammen, dass Institutionen wie die Medien und der Rechtsstaat in Zweifel gezogen werden oder an Vertrauen und Glaubwürdigkeit in der Bevölkerung

Demokratischer Wandel, dissonante Öffentlichkeit …

85

verlieren. Tatsächlich deuten aktuelle Studien (Foa und Mounk 2016, 2017; Lührmann et al. 2019) auf Symptome einer Dekonsolidierung hin, welche sich in zeitgenössischen Demokratien in Europa und den USA ausmachen lassen. Und bemerkenswerterweise sind dies Länder, welche sich selbst als liberale Demokratien bezeichnen und sich in der Vergangenheit durch relativ stabile politische Institutionen ausgezeichnet haben. Betrachtet man die Parteiensysteme, so erleben zahlreiche Demokratien, gerade auch in Nord- und Westeuropa, seit den 2010er Jahren eine kontinuierliche Erosion der Mainstream-Parteien, die unter einer zunehmenden Entfernung von ihren WählerInnen, einem Rückgang ihrer Mobilisierungskapazität und einer Zunahme an populistischen Herausforderern leiden (Bremer und SchulteCloos 2019; Hutter und Kriesi 2019). Besonders die sozialdemokratischen und die bürgerlichen Volksparteien der Mitte sind über die vergangenen zehn Jahre in eine Krise geraten. Peter Mair (2013) schrieb in diesem Kontext über eine Aushöhlung der Mitte innerhalb westeuropäischer Demokratien. Über die zweite Hälfte des 20. Jahrhunderts und bis in die späten 2000er Jahre zeigte er Trendlinien auf, in denen er abnehmende Wahlbeteiligungen, Parteiidentifikation und -mitgliedschaften beobachtete und durch eine Entkopplung der Bevölkerungen von politischen Prozessen erklärte (vgl. Mair 2013, S. 17–44). Der graduelle Niedergang der einstigen „Kartellparteien“ (Katz und Mair 1995) innerhalb der politischen Mitte und insbesondere der Sozialdemokratie, wurde bis heute nicht im gleichen Maße durch neue Organisationsformen aufgefangen, die in der Lage wären, neuentstehende Formen von demokratischen Deliberationsprozessen in die politischen Institutionen hereinzutragen und in politisches Handeln umzusetzen. So mag es nicht weiter verwunderlich erscheinen, dass Studien über die Einstellungen der EU-BürgerInnen zeigen, dass deren Vertrauen in die politischen Institutionen ihrer jeweiligen Länder niedrig ist und teilweise weiterhin sinkt: Nur rund ein Drittel hat Vertrauen in die nationale Regierung und das Parlament; die Parteien schneiden noch schlechter ab (Europäische Kommission 2018, S. 43 ff.). Ähnlich niedrig sind die Werte in den USA, wo nur noch ein Drittel der Bevölkerung der Regierung vertraut (Inglehart et al. 2014). Die Krise demokratischer Institutionen geht derweil einher mit einer Krise der traditionellen Massenmedien als einem weiteren institutionellen Pfeiler der demokratischen Grundordnung. Hier kann man von einer parallelen Entwicklung sprechen, die genauso langfristig verläuft wie die Veränderung der politischen Kultur. Infolge des Wandels von Technologien und Marktstrukturen sind die Praktiken des Journalismus herausgefordert und verändern die Mechanismen und Logiken der Nachrichtenproduktion. So wies etwa Jay

86

C. Knüpfer et al.

Blumler (2018) zu Recht darauf hin, dass viele der Probleme, die heute in westlichen Demokratien zutage treten, sich bereits Mitte der 1990er Jahre als „Krise der öffentlichen Kommunikation“ andeuteten. Blumler beobachtete damals eine Professionalisierung politischer Kommunikation infolge der Kommerzialisierung und eine normative Verunsicherung über die ethischen Regeln und Formen von Öffentlichkeit (vgl. Blumler 2018, S. 84). Diese Diagnose schlägt sich auch in einem langfristigen Vertrauensverlust in die Medien nieder: In der Zeit zwischen 2009 und 2016 vertrauten dem Fernsehen zuletzt zwischen 48 bis 50 % der EU BürgerInnen. Das Vertrauen in die Printmedien lag im gleichen Zeitraum bei Werten zwischen 40 bis 46 % (Europäische Kommission 2016, S. 22–35). Die Abnahme der Unterstützung der etablierten Parteien und das sinkende Vertrauen in Medieninstitutionen schaffen Freiräume für neue politische Akteure, welche die Legitimität der bestehenden Institutionen und demokratischen Praktiken grundlegend infrage stellen (Bennett et al. 2017). In der Tat zeigt sich gerade in den Ländern, in denen rechte Parteien starken gesellschaftlichen Zuspruch erfahren, dass die Einschätzungen zur Funktionsfähigkeit der Medien als zentrale Institutionen demokratischer Öffentlichkeiten zunehmend kritischer werden. Auch hier deutet sich eine Wechselwirkung an, wie Lührmann et al. (2019) in einer ländervergleichenden Studie zum Zustand demokratischer Institutionen zeigen: in den Ländern, in denen sich Trends einer Dekonsolidierung der Demokratie zeigen, geraten vor allem Medien und zivilgesellschaftliche Strukturen unter Druck. Dies habe wiederum zur Folge, dass BürgerInnen weniger unabhängige und akkurate Informationen zur Verfügung stehen (Lührmann et al. 2019, S. 902). Die Dekonsolidierung der Demokratie wird in der jüngeren Literatur vor allem in Bezug auf rechtspopulistische Parteien und Bewegungen diskutiert. Norris und Inglehart (2019, S. 9–12) sprechen von einem graduellen Anstieg des „autoritären Populismus“, welcher in Westeuropa auf dem Vormarsch und in neukonsolidierten Demokratien in Osteuropa, wie Ungarn, Polen, Slowenien oder Tschechien, mittlerweile innerhalb der Regierungen vertreten sei. In diesen Ländern und auch in den USA beobachten die Autoren, dass einzelne politische Akteure um ihrer eigenen Macht willen die Fundamente und Normen der Demokratie untergraben und damit Prozesse der demokratischen Dekonsolidierung aktiv befördern (vgl. Norris und Inglehart 2019, S. 409–442). In den von Norris und Inglehart angeführten Ländern zeigt sich auch, dass die Rechtspopulisten in der Regierung die Rechtstaatlichkeit und die Legitimität der Unabhängigkeit der Gerichte unterminieren und politische Gegner diskreditieren. AAm deutlichsten zeigen sich die Spannungen zwischen autoritären Populisten und

Demokratischer Wandel, dissonante Öffentlichkeit …

87

Abb. 1:   Entwicklung der Medienfreiheit aus Expertensicht seit 2001 in Ländern mit rechtspopulistischen Regierungen (Index1) Index basierend auf den V-Dem Variablen Government censorship effort – Media, Print/ broadcast media critical, Harassment of journalists, Media self-censorship (Coppedge et al. 2018, S. 179–182); eigene Berechnung.

demokratischen Institutionen jedoch in gezielten Angriffen auf Vertreter der „vierten Gewalt“ – also auf etablierte Medien und journalistische Organisationen. Dass die Dekonsolidierung der Demokratie mit einer Unterminierung der Medienfreiheit einhergeht, lässt sich für die von Norris und Inglehart genannten Länder (USA, Polen, Ungarn, Slovenien und Tschechien) anhand der Daten des Varieties of Democracy (V-Dem) Projektes (Pemstein et al. 2019, S. 21) eindrücklich nachvollziehen. Abb.  1 zeigt die Werte eines aggregierten Indexes der Entwicklung der Medienfreiheit1 in Ländern mit Regierungen, die aktiv einen rechtspopulistischen Kurs verfolgen. Im Zeitraum von 2001 bis

1Dieser

Index beruht auf Experteneinschätzungen zum Stand journalistischer Institutionen in den jeweiligen Ländern und erfasst inwiefern Medien dort 1) eine kritische Distanz zur Regierung wahren, 2) systematisch an ihrer Arbeit gehindert oder 3) zensiert werden und 4) ob Journalist*innen Selbstzensur ausüben.

88

C. Knüpfer et al.

2018 zeigen sich zwar deutliche Schwankungen, bezeichnend ist aber, dass die Medienfreiheit gerade dann sinkt, wenn autoritäre Populisten in Regierungspositionen kommen. Die Krise der Demokratie ist also unmittelbar mit einer Krise der Medien verbunden.

1.2 Digitalisierung und Fragmentierung von Mediensystemen Neben den politischen Wandlungsprozessen haben auch die Infrastrukturen der politischen Kommunikation langfristige Veränderungsprozesse durchlaufen. Die gegenwärtige Phase kann man anhand der Typologisierung von Blumler und Kavanagh (1999) und Blumler (2015) als „viertes Zeitalter der politischen Kommunikation“ bezeichnen. Zeichnete sich die erste Phase noch durch die dominanten Muster traditioneller Parteien- und Regierungskommunikation aus, die sich auf starke Wählerloyalitäten stützen konnte, so war das zweite Zeitalter geprägt vom Fernsehen als zentralem Medium der politischen Kommunikation. Zudem kam es zu einer Professionalisierung von Wahlkampfkampagnen in der Parteienkommunikation, welche auf die Nachrichtenagenda abzielte. Im dritten Zeitalter, den 1990er und 2000er Jahren, erreichten politische Nachrichten das Publikum auf unterschiedlichen Kanälen. Diese Ära war durch eine Pluralisierung und Kommerzialisierung des Fernsehens sowie die Einführung des Internets gekennzeichnet und ging mit einer zunehmenden Professionalisierung von politischem Marketing, Medienberatung und des Nachrichtenmanagements einher. Die Digitalisierung und das Web 2.0 prägen indessen das aktuelle, vierte Zeitalter der politischen Kommunikation seit den 2010er Jahren. Diese Phase ist durch eine enorme Vielfalts- und Komplexitätssteigerung und Dynamik der Kommunikation sowie durch einen Niedergang der öffentlichen Rundfunksysteme gekennzeichnet (Blumler 2015). In diesem Kontext haben sich nicht zuletzt auch die Regeln des politischen Kommunikationssystems verändert, die das Verhältnis von Journalisten, politischen Akteuren und den jeweiligen Publika prägten (Esser und Pfetsch 2020, S. 338–340). Die digital vernetzte politische Kommunikation lässt sich anhand von fünf Merkmalen charakterisieren (Coleman und Freelon 2015, S. 4–7). Dazu zählen 1) der Verlust einer zentralen Kommunikationsarena als Garant einer kollektiven gesellschaftlichen Aufmerksamkeit, 2) zunehmende Anteile horizontal verlaufender Informationsflüsse und dem hiermit eng verbundenen 3) Aufkommen einer co-produzierenden Teilöffentlichkeit, deren Akteure nicht länger als passive Rezipienten zu verstehen sind. Ferner kam es zu 4) einer Wandlung von

Demokratischer Wandel, dissonante Öffentlichkeit …

89

politischen Ritualen und öffentlichen Diskussionen, die weniger professionalisiert und dabei zwangsläufig inklusiver werden, sowie 5) eine gewisse Ohnmacht des Staates, wenn es um die Regulierung kommunikativer Inhalte geht. Die Digitalisierung hat ferner in den vergangenen Jahren neue Formen von politischer Teilhabe und Mobilisierung im Sinne von „connective action“ (Bennett und Segerberg 2012) ermöglicht, welche davor nur schwer denkbar gewesen wären. Wichtig erscheint uns, dass die Digitalisierung nicht als deterministischer Prozess begriffen wird und ihre Folgen für die politische Kommunikation nicht als unidirektionale, kausale Zusammenhänge gesehen werden. Soziale, technische, nationale und situative Kontextfaktoren beeinflussen die Erscheinungsformen, Anpassungsprozesse aber auch Widersprüche digital vernetzter Kommunikation. Dennoch durchdringen die Verbreitung und umfassende Verfügbarkeit digitaler Informationen alle Aspekte der technischen, institutionellen und sozialen Infrastruktur der öffentlichen Kommunikation. Die Entwicklung und der Zustand der neuen Kommunikationsinfrastrukturen bedeuten, dass langgeltende Theorien, Wissensstände und Gewissheiten über die Abläufe politischer Kommunikationsprozesse neu überdacht werden müssen (Bennett und Pfetsch 2018; Knüpfer 2018b). Die Unberechenbarkeit politischer Kommunikationsprozesse ist eng mit der Krise etablierter Institutionen der politischen Information verflochten. So haben die öffentlich-rechtlichen und Qualitätsmedien ihre Rolle als Gatekeeper politischer Information zumindest teilweise eingebüßt (Bruns 2009; Neuberger 2009). Neben den traditionellen Massenmedien haben sich teils komplett neuartige Infrastrukturen der Kommunikation etabliert, welche das Fundament und die Funktionen der zuvor etablierten Nachrichtenkanäle infrage stellen. Es steht mittlerweile außer Frage, dass es nicht länger genügt, die herkömmlichen Massenmedien als einziges Referenzsystem der Öffentlichkeit zu betrachten. Diese Idee wird in Andrew Chadwicks Ausführungen zur Interaktion zwischen alten und neuen Medien in der politischen Kommunikation aufgegriffen, der von der Entstehung eines „hybriden Mediensystems“ (2013) spricht. Die neue politische Kommunikationsinfrastruktur umfasst eine Vielzahl von Kanälen und eine große Reichweite der unterschiedlichsten Akteure, die sich gegenseitig in ihrem Agenda-Setting bedienen. Kommunikationsmöglichkeiten gestalten sich damit zunehmend vielfältig und disperser als zu den Zeiten, als gesellschaftliche Aushandlungsprozesse kommunikativ vor allem über traditionelle Medien vermittelt wurden. Das wichtigste Kennzeichen des hybriden Mediensystems ist, dass sich das Gewicht und die Position der traditionellen Medien gegenüber Online-Medien und sozialen Netzwerken verschiebt. Chadwick (2011) zeigt, dass die traditionellen

90

C. Knüpfer et al.

Medien nicht-etablierte Akteure und Informationen aus dem Online-Bereich in ihre eigenen Produktionspraktiken und -routinen integrieren. In der Tat gibt es Hinweise darauf, dass sich Weblogs, soziale Medien und Zeitungen zunehmend als Nachrichtenquellen (Messner und Distaso Watson 2008) gegenseitig beeinflussen (Lee 2015). Neue Dynamiken bei der Herausbildung der Themenagenda und der politischen Mobilisierung zeichnen sich ab (Pfetsch et al. 2016). Dies bedeutet auch, dass etablierte Institutionen und professionalisierte Kommunikationsprozesse ihre privilegierten Positionen, ihre Deutungshoheit und somit ihre Funktion als autoritative Nachrichtenquellen zunehmend einbüßen. Das hybride Mediensystem hat die Interaktion zwischen politischen Akteuren und traditionellen Massenmedien also deutlich komplexer gemacht. Dies bedeutet auch, dass die Infrastruktur öffentlicher und politischer Informationen vielfältiger, differenzierter, unbeständiger und weniger klar organisiert ist. Auch wenn die etablierten Massenmedien nach wie vor die zentrale Rolle in der politischen Kommunikation demokratischer Systeme spielen, so haben sich zusätzliche und parallele Informationsökologien (Haller et al. 2019; Häussler 2019; Heft et al. 2020) herausgebildet, die außerhalb der etablierten Strukturen der Kommunikation operieren. Die Öffentlichkeitsräume, die dadurch entstehen, unterscheiden sich fundamental in den Strukturen und Verarbeitungsmechanismen gesellschaftlicher Debatten (Waldherr 2017).

2 Dissonante Öffentlichkeit als demokratische Herausforderung Offene Artikulation politischer Interessen, sowie Mobilisierung rund um divergierende Perspektiven gehören zu den Grundpfeilern demokratischer Auseinandersetzungen und pluralistischer Institutionen. In den beschriebenen Wandlungsprozessen verlieren Medien und Parteien an Bedeutung. Sie waren bisher maßgeblich daran beteiligt, Formen von Dissens in gesamtgesellschaftlich produktive Bahnen zu leiten, indem sie gegenseitige Beobachtung ermöglichen, Positionen und Kompromisse verhandelbar machen und Konditionen des Konsenses vermitteln. Wenn man also die Konsequenzen der Veränderungsprozesse politischer Kulturen und Kommunikationsinfrastrukturen abschätzen möchte, muss man sich den Dynamiken und Qualitäten von Öffentlichkeit und öffentlicher Meinungsbildung widmen. In der Gesellschaftstheorie ist der Begriff von Öffentlichkeit eng mit den Schriften von Jürgen Habermas (1996, 2006) verknüpft, der unter Öffentlichkeit

Demokratischer Wandel, dissonante Öffentlichkeit …

91

einen kommunikativen Prozess versteht, in welchem die bestmöglichen Lösungen für gesellschaftliche Probleme einschließlich ihrer normativen Grundlagen diskursiv bearbeitet werden. Die Hauptfunktionen dieser Öffentlichkeit bestehen darin, dass sie ein Forum für Sprechakte und einen rationalen, auf Argumenten basierenden Diskurs bietet und dass die Deliberationsprozesse dabei in einem verbindlichen Konsens enden, der als Entscheidungsgrundlage im politischen System gedacht werden kann. Angesichts der grundlegenden Veränderungen der Kommunikationsinfrastrukturen wird die Gültigkeit dieses Konzeptes von Öffentlichkeit infrage gestellt (s. auch Van Dijk und Hacker 2018, S. 90).

2.1 Vom Konsens zur Dissonanz Im Gegensatz zur Habermas’schen Vorstellung von Konsens als Ergebnis von Öffentlichkeit schlagen andere Autoren vor, das Wesen der Öffentlichkeit in der Sichtbarmachung von Konflikten zu sehen, die sich aus Formen der Marginalisierung und Entmündigung, Rassismus, politischer Polarisierung und gesellschaftlichen Krisen speisen. Downey und Fenton betonen, dass die Polyvokalität der Öffentlichkeit eine große Anzahl neuer Quellen und kommunikativer Verbindungen innerhalb der Arena diskursiver Auseinandersetzungen mit sich bringt. Damit haben sich auch die Bedingungen der Entstehung von Gegenöffentlichkeiten verbessert (Downey und Fenton 2003, S. 195). In dieser Perspektive und vor dem Hintergrund der Digitalisierung schlagen wir vor, die Arena der öffentlichen Kommunikation in hybriden Mediensystemen als „dissonante Öffentlichkeit“ zu verstehen (Pfetsch et al. 2018). Der Begriff soll dabei nicht normativ belegt werden, sondern spielt auf das Wesen der Polyvokalität, inkompatibler Klänge und schriller Disharmonien in der Musiktheorie an. Diese widersetzen sich dem Wunsch nach chromatischer Harmonie des Publikums. Dissonanzen in Öffentlichkeiten können „als Situationen verstanden werden, in denen vielfältige Akteure synchron und asynchron Themen, Informationen und Meinungen artikulieren, zwischen denen Spannungen, Gegensätze oder Brüche bestehen. Dissonanz umfasst dabei sowohl ein bezugloses Nebeneinander verschiedener Öffentlichkeitsbeiträge als auch die explizite Gegenrede zur (vermeintlich) hegemonialen Perspektive“ (Pfetsch et al. 2018, S. 482). In diesen Öffentlichkeiten beobachten wir zunehmende Geräusch- oder gar Lärmpegel, zersplitterte Akteurskonstellationen, parallel aufkommende Agenden, ablenkende oder widersprüchliche Meinungen oder grundlegende Konflikte über wesentliche Probleme. Dabei werden Stimmen übertönt, welche

92

C. Knüpfer et al.

Einklang oder gar eine Reparatur der Bruchstellen einfordern würden. Das dialogische Wechselspiel von Rede und Gegenrede oder von Mehrheits- und Minderheitspositionen löst sich in Vielstimmigkeit und einem eher „bezuglose[n] Nebeneinander“ (Pfetsch et al. 2018, S. 482) auf. In dissonanten Öffentlichkeiten können zentrale Momente demokratischer Partizipation zwar punktuell ausgelebt und gesellschaftlich sichtbar(er) werden, sich dabei jedoch durch Ignorierung oder Ablehnung der Legitimation anderer Perspektiven oder Interessen gegenseitig lähmen. Gleichzeitig verändern sich die Anreize für die Produktion bestimmter Inhaltsformen und die Art und Weise wie politische Debatten insgesamt durch sie vermittelt werden (Knüpfer 2018a). In dissonanten Öffentlichkeiten bilden sich ideologische oder demographische Asymmetrien, gerade dort wo sich demokratische Verhandlungsprozesse besonders stark in (bisher) nicht-institutionalisierte Bahnen verlagern, oder dort wo nach wie vor oder neuerdings eine starke Bindung zwischen politischer Willensbildung und den Möglichkeiten zur institutionellen Einflussnahme existiert (Bennett et al. 2017).

2.2 Netzwerke: Von Verbindung zu Entkopplung Neben der Preisgabe von Konsensansprüchen sind Öffentlichkeiten im digitalen Zeitalter durch Vernetzung und deren soziale Aneignung durch individuelle und kollektive Akteure gekennzeichnet. So argumentiert beispielsweise Benkler (2006, S. 247), dass die vernetzte Öffentlichkeit reaktionsfähiger und vielfältiger sei als die der Massenmedien, da sie „einen breiteren Zugang, partizipatorische Filtermechanismen und relativ stabile Plattformen zur Schaffung von öffentlicher Aufmerksamkeit bieten“. Empirische Studien belegen die Gewinne an Zugangsoffenheit und Transparenz (Nuernbergk 2013). Zentrale Charakteristiken vernetzter Öffentlichkeiten sind die Möglichkeiten zur bi- und multidirektionalen Kommunikation und Interaktion, die gleichzeitig mit Dezentralisierung und höherer Komplexität einhergehen (Benkler 2006; Neuberger 2009; Nuernbergk 2013; Waldherr 2017). Die Interaktionsmechanismen begünstigen dabei fluide Rollen und flexible Rollenwechsel zwischen Produzenten und Rezipienten öffentlicher Kommunikation, was insgesamt mit einem heterogeneren Sprecherensemble bei gleichzeitigem Relevanzverlust der traditionellen Medien einhergeht (Bruns 2008; Neuberger 2009). Zusätzlich steigt die Anzahl der Foren öffentlicher Kommunikation, was nicht per se zur Fragmentierung öffentlicher Meinungsbildungsprozesse führen muss, aber doch die Frage nach den Mechanismen der Vermittlung, Integration und Qualitätssicherung aufwirft (Benkler 2006; Neuberger 2009; Nuernbergk 2013; Waldherr 2017).

Demokratischer Wandel, dissonante Öffentlichkeit …

93

In Abgrenzung zu den Argumenten, welche die Vorteile von Netzwerken, die Konnektivität und die integrative Kraft digitaler Medien hervorheben, argumentiert Waisbord (2016), dass die Theoretiker der Netzwerköffentlichkeit die Möglichkeit der Entkopplung übersehen. Seiner Meinung nach „existiert eine Welt der vermittelten Verbindungen mit mehrfachen Unterbrechungen“ (Waisbord 2016, S. 3). Das Ausbleiben von Verbindungen zwischen verschiedenen öffentlichen Sphären amplifiziert eher anti-kommunikative Einstellungen, die zu Intoleranz, Apathie und Feindseligkeit führen. Skeptischere Perspektiven weisen auch auf eine zunehmende Dissonanz im Zuge von Fragmentierung des Publikums und kurzfristigen Kommunikationsstrategien politischer Eliten (Napoli 2010) hin, wenn diese mit der schnelllebigen, oftmals zufällig erscheinenden Interaktion digitaler Medien, Online-Kanälen und traditioneller Medien konfrontiert werden. Waisbord (2016) argumentiert daher, statt das Publikum in Verbindung zu bringen und die sozialen Bande zu stärken habe das Internet tatsächlich die Lücken in der Kommunikation amplifiziert, was sich wiederum in einer „Unfähigkeit, über Unterschiede hinweg zu kommunizieren“ (S. 2) ausdrücke. Hier sei auf Exklusionsmechanismen hingewiesen, die sich aus Ungleichheiten in der Aufmerksamkeitsverteilung in vernetzten digitalen Öffentlichkeiten ergeben. Während durch Kostenreduktion und Veränderung der Produzenten- und Publikumsrolle die Möglichkeiten der Artikulation und das Erschaffen neuer Informationen rasant anwachsen, wird die Ressource “Aufmerksamkeit” in gleichem Maße rarer (Hindman 2008, 2018). Zudem führt der ‚long tail‘ digitaler Kommunikation zu einer ungleichen Verteilung von Aufmerksamkeit auf der Rezipientenseite, was strukturell zur Exklusion bestimmter Alternativen führen und damit die Orientierung in öffentlichen Meinungsbildungsprozessen beeinträchtigen kann (Nuernbergk 2013). Wenn Prozesse der Digitalisierung dissonante und eher fragmentierte Öffentlichkeiten befördern, dann findet demokratische Willensbildung in einem höchst prekären Kontext statt. Es geht dabei nicht allein um die technologischen Möglichkeiten, die digitale und hybride Kommunikationsräume bieten, sondern insbesondere auch um die politischen, medialen und kulturellen Rahmenbedingungen, in welchen Informationen zirkulieren und deren Aneignung erfolgt. Das heißt, die Veränderungen von politischer Kultur einerseits sowie die Veränderungen in den Kommunikationsinfrastrukturen sind als sich wechselseitig beeinflussende und treibende Prozesse zu sehen, die in ihren Konsequenzen weitreichende Folgen für demokratische Meinungs- und Willensbildungsprozesse mit sich bringen können. Vorrangig ist hiermit der Wandel deliberativer Arenen und kollektiver kommunikativer Dynamiken gemeint, die durch ein hohes Maß an Dissonanz für Frustration und Polarisierung unter den teilnehmenden Akteuren

94

C. Knüpfer et al.

sorgen und somit Prozesse der Entkopplung zu verstärken und beschleunigen drohen. Damit ändert sich die Qualität der Beziehung von BürgerInnen und politischen Institutionen infolge der Kommunikationsbedingungen.

3 Desinformationsordnungen und Populismus als Begleiterscheinung Dissonante Öffentlichkeiten entstehen aus einer Kakophonie öffentlicher Stimmen und „zu viel Streuung und Polyvokalität“ (Dahlgren 2005, S. 151; Sunstein 2001), einer Vielzahl von Akteuren aus der Peripherie, aus Gegenöffentlichkeiten und aus der Zivilgesellschaft. Neben den traditionellen Sprechern des politischen Zentrums treten nun BloggerInnen, NetzwerkaktivistInnen, BürgerjournalistInnen, Online-Agenturen und Laien öffentlich auf und artikulieren ihre Sichtweisen und Interessen. Die Rolle von professionellen JournalistInnen und MeinungsführerInnen der traditionellen Medien in ihrer Interaktion mit politischen Eliten relativiert sich. Neben den Auseinandersetzungen über Themensetzung innerhalb politischer Institutionen gibt es nun zahlreiche andere Debatten, die sich in der Kommunikationsweise, dem Konfliktniveau und letztendlich auch im Ton und in den Verbindungen zwischen ihren jeweiligen Quellen voneinander absetzen. Über die Reichweite, die Geschwindigkeit und die Aufmerksamkeit, die sie über soziale Medien und Plattformen generieren können, schaffen neue Sprecher nun Kommunikationsnetzwerke, die in Konkurrenz zu den traditionellen Informationsketten treten. Die medial bedingte Heterogenität fördert somit auch neue Formen der Disintermediation und trägt damit gleichzeitig zu einer weiteren Segmentierung und Fragmentierung von Öffentlichkeiten bei. Neuartige Mobilisierungsphänomene, wie Shitstorms oder Networked-Framing-Kampagnen, verschieben die Grenzen zwischen gesellschaftlichen Gruppierungen und ermöglichen kurzfristig neue digitale Vergemeinschaftungen. Gleichzeitig befördern die Kommunikationsinfrastrukturen Polarisierungen, die nicht nur zwischen den ideologischen Lagern verlaufen (Newman et al. 2017), sondern auch zwischen traditionellen ‚Eliten‘Medien und neuen alternativen Medienangeboten (Institut Montaigne 2019). Derartige Kontextbedingungen verstärken daher nicht nur vorhandene Dissonanzen – sie machen diese teilweise erst sichtbar und verleihen ihnen somit gesellschaftliche und politische Relevanz. Gerade in diesen verstärkt auftretenden Spaltungsund Spannungsdynamiken lässt sich also eine Erweiterung des diskursiven und politischen Raumes ausmachen, welcher sich einerseits inklusiver, anderseits aber auch konfliktreicher gestaltet.

Demokratischer Wandel, dissonante Öffentlichkeit …

95

Das Spektrum der Akteure, die sich an der politischen Kommunikation in digitalen Plattformen beteiligen, ist vielfältig. Ihre Kommunikation ist dabei situativ, kurzfristig und flüchtig, und die Orientierungen und Handlungen einzelner Akteure sind oftmals intransparent. Vor diesem Hintergrund ist das Entstehen populistischer Bewegungen in vielen europäischen Ländern ein Prozess, der auch durch das Aufkommen oder die gezielte Verbreitung „alternativer“ Nachrichtenangebote und Angriffe auf traditionelle Medien begleitet wird. Sie agieren dabei in ihrer eigenen Medienlogik, in ihrer eigenen Geschwindigkeit und verfolgen dabei in erster Linie eigene politische Interessen. Das bedeutet auch, dass die auf digitalen Plattformen gehandelten Nachrichten nicht unbedingt wahr sind und dass die Botschaften Desinformation, Halbwahrheiten, Gerüchte, Verschwörungskampagnen und Lügen beinhalten können (Bennett und Livingston 2018). Neu ist gegenüber den bisherigen Medien, dass sich unter den Bedingungen der Digitalisierung Desinformationen in und durch Soziale Medien um ein Vielfaches schneller und weiträumiger verbreiten als Botschaften, die journalistisch bearbeitet werden (Vosoughi et al. 2018). Dissonante Öffentlichkeiten bieten somit neue Anknüpfungspunkte für Manipulation und dubiose wirtschaftliche und politische Praktiken. Durch das Hacken oder Kaufen von Social-Media-Daten gehören Dark Ad-Kampagnen und Microtargeting zum Handlungsrepertoire der politischen Kommunikation. So zeigt der jüngste Bericht des House of Commons (2019, S. 47) über Desinformation am Beispiel von Cambridge Analytica wie solche Kampagnen verlaufen, wie ein solches Manipulationsnetzwerk aufgebaut und im Fall der Brexit Kampagne genutzt wurde. Bemerkenswert ist, dass dieses Netzwerk nicht nur aus der englischen Pro-Brexit-Kampagne bestand, sondern transnational agierte. Im Netzwerk waren auch eine Datenbank mit Informationen zu registrierten Wählern in den USA und die Daten einer von den Koch-Brüdern finanzierten Organisation, die Verbindungen zur Präsidentschaftskampagne von Donald Trump aufwies. Die Allgegenwärtigkeit sozialer Netzwerke und digitaler Medien schafft zudem auf der Seite der Rezipienten personalisierte, alternative Öffentlichkeiten, in denen die Menschen ihre eigenen ‚Wahrheiten‘ und ‚gefühlten Nachrichten‘ teilen können. Die Schwächung traditioneller Strukturen des Journalismus, die einst mit der Prüfung von Informationen betraut waren, macht den gesellschaftlichen Diskurs für Desinformationskampagnen von außen anfällig (Bradshaw und Howard 2017). Auch wenn der Anteil derartiger „Fake News“ (im ursprünglichen Sinne des Begriffs) möglicherweise relativ gering ist, so unterminiert allein schon ihr potentielles Auftreten dennoch das Vertrauen in die Informationsflüsse im demokratischen Prozess und damit auch in demokratische Deliberationsprozesse.

96

C. Knüpfer et al.

Aus der Perspektive der politischen Ökonomie ist das Herstellen von Informationen durch einzelne Nutzer von digitalen Plattformen ein Geschäftsmodell, um Aufmerksamkeit durch Likes, Shares und Klicks zu generieren. Im Kontrast zu den gängigen Modellen des professionalisierten Journalismus, kommt es beim Vermitteln dieser Informationen zunächst nicht primär auf deren Inhalt oder gar ihren Wahrheitsgehalt an. Der kommerzielle Charakter von sozialen Medien oder Suchmaschinen ist grundsätzlich auf ein gewisses Mindestmaß an Verhaltenssteuerung seiner Nutzer zu Werbezwecken ausgelegt. Datenbasierte Geschäftsmodelle stellen daher einen weiteren Faktor dar, der die Konjunktur von Informationen in dissonanten Öffentlichkeiten anheizt und traditionelle Medienorganisationen herausfordert. Giganten wie Facebook, Twitter und Google arbeiten bei der Verbreitung von Nachrichten mit datenbasierten Geschäftsmodellen, die von Werbekunden und der Effektivität gezielter Werbemaßnahmen angetrieben werden. Eine Folge der Konkurrenzbeziehungen sind dann erhöhter wirtschaftlicher Druck und die verstärkte Berücksichtigung von Effizienzerwägungen auch in traditionellen Medienorganisationen: Wenn Nutzer kollektiv die extremeren und schrilleren Töne bevorzugen, verändern Feedbackmechanismen und Popularitätskennzahlen auch journalistische Entscheidungen über die Publikationswürdigkeit von Nachrichten (Carlson 2018; Hanusch 2017; Lee et al. 2014). Es ist daher auch nicht verwunderlich, dass sich die großen digitalen Plattformen in der Regel davor sträuben, größere Verantwortung für die Inhalte zu übernehmen, welche über sie zirkulieren – zumindest solange es hierfür noch keine klare Regulierung gibt, die ihnen derartige Entscheidungen erleichtern und effektiv abnehmen. Fasst man zusammen, so sind dissonante Öffentlichkeiten geprägt durch Prozesse der Disintermediation, der Segmentierung und Fragmentierung von Publika, neue Sprecherensembles, Kommunikationsmodi ohne Wahrheitsanspruch und Geschäftsmodelle im hybriden Mediensystem, welche den traditionellen Journalismus zusätzlich herausfordern. Legitimationsprobleme politischer Parteien und Vertrauensverluste in Medien und Demokratie verschärften die Dissonanzen in der öffentlichen Debatte, sodass es zu unbeabsichtigten Wechselwirkungen kommt. Bennett und Livingston (2018, S. 134) argumentieren, dass diese Situation einer „Ordnung der Desinformation“ Vorschub leistet, welche die Krise demokratischer Institutionen weiterhin verstärke. Gleichwohl ist es schwer, die Ursachen von den Wirkungen zu trennen und dabei einzelne Faktoren zu isolieren, welche die genannten Dynamiken antreiben. Wenn wir hier von komplexen Wechselwirkungen statt unidirektionalen Entwicklungen sprechen, dann ist unsere Schlussfolgerung, dass es gilt, diese Prozesse in ihrer Komplexität und Vielfalt zu verstehen sowie die Dynamiken und ihre Kontexte zu beschreiben und zu erklären. Hier steht die Sozialwissenschaft theoretisch und methodisch noch am Anfang.

Demokratischer Wandel, dissonante Öffentlichkeit …

97

4 Fazit: Dissonanz und die Zukunft der Demokratie In der Forschungsliteratur wird der Zustand von Gegenwartsdemokratien auf Prozesse des langfristigen sozio-kulturellen Wandels, Veränderungen in der politischen Kultur und strukturelle, meist länderspezifische Faktoren zurückgeführt. Zudem notieren wir einen genauso langfristigen Wandel der Kommunikationsinfrastruktur zu hybriden Mediensystemen, bei denen die Grenzen zwischen traditionellen Massenmedien, Onlinemedien, digitalen Plattformen und interaktiven Sozialen Netzwerken zunehmend durchlässiger und brüchiger werden und damit neue Kommunikationsumgebungen schaffen. Beide Entwicklungen kommen zusammen, indem die für demokratische Systeme lebenswichtigen politischen Diskurse und Aushandlungsprozesse in dissonanten Öffentlichkeiten stattfinden, bei denen die herkömmlichen Prozesse der Sortierung und Strukturierung von Information und Meinungen ihre Gültigkeit verloren haben und dem Anschein nach fast beliebig geworden sind. Wir nehmen an, dass dissonante Öffentlichkeiten eine Transformationsphase markieren, in der wir eine Entkopplung und Neuausrichtung der Schnittstellen von Demokratie und Öffentlichkeit beobachten. Dies spiegelt sich in der Kommunikationspraxis, den politischen Informationsökologien und dem Verhalten des Publikums wider. Dissonante Öffentlichkeiten markieren Kontexte der demokratischen politischen Kommunikation, in denen andere Formen demokratischer Teilhabe möglich sind. Dies bietet zunächst grundsätzliche Chancen auch für neue bisher ungehörte Stimmen im politischen Prozess und verspricht eine Neubelebung innerhalb der politischen Kultur. Doch in dissonanten Öffentlichkeiten werden auch Prozesse der Disruption und Dysfunktionalität sichtbar, welche die Krise etablierter demokratischer Institutionen sowie das Misstrauen gegenüber professionellen Medien befeuern (Bennett und Pfetsch 2018; Oswald 2018). In dieser Situation führt die Digitalisierung nicht nur zu Polyvokalität und einem zunehmenden Lärmpegel in der öffentlichen Debatte, sondern auch zu parallelen und alternativen Kommunikationsarenen, die Ausgrenzungstendenzen verstärken. Das Aufkommen neuartiger politischer Bewegungen am rechten Rand, welche digitale Plattformen und soziale Medien als separate Kommunikationsinfrastruktur für ihre rechtspopulistischen Framing-Prozesse nutzen, verstärken indessen die Spaltung politischer Öffentlichkeiten (Knüpfer 2018a). Damit konterkarieren sie die tatsächlichen Möglichkeiten der demokratischen Teilhabe. Unsere Analyse zielt darauf ab, die Situation politischer Öffentlichkeit in Gegenwartsdemokratien als komplexe und nicht-beabsichtigte Konsequenzen langfristiger Wandlungsprozesse in politischer Kultur und digitalen Medien zu interpretieren: Es geht uns darum zu zeigen, dass politische und soziale Akteure,

98

C. Knüpfer et al.

die kommerzielle Internetbranche sowie einzelne Akteure und Technologien dank technologischer Affordanzen demokratische Prozesse strategisch unterminieren können und dies unter gegebenen Umständen auch tun (Bradshaw und Howard 2017). Das Problem verschärft sich in Zukunft möglicherweise zunehmend, da nicht transparent ist, wie die Nutzer Nachrichten vermeiden können, die durch Algorithmen manipuliert oder durch künstliche Intelligenz oder Social-Bots erzeugt oder in ihrer Verbreitung gefördert werden. Wir gehen davon aus, dass die beschriebenen Entwicklungen nicht rückgängig zu machen sind und dass Formen der Öffentlichkeit in digitalen Netzwerken und hybriden Mediensystemen, die wir mit dem Begriff der Dissonanz charakterisieren, auch in Zukunft ein fester Bestandteil gesellschaftlicher Deliberationsprozesse sind. Perspektiven für die Demokratie liegen indessen im Erhalt und der Stabilisierung responsiver demokratischer Institutionen sowie in neuartigen Formen der Moderation gleichzeitig auftretender und oftmals entgegengesetzter gesellschaftlicher Debatten. Dabei kommt sowohl der Zivilgesellschaft als auch politischen Eliten eine wichtige Rolle zu. Erstere müssen zunächst Reformprozesse und institutionelle Strukturen einfordern und Impulse für diese Prozesse setzen. Letztere müssen sich für diese Prozesse öffnen und sich auf neue Formen und Regeln der Kommunikation einlassen. Dadurch können neue Sortierungsmechanismen für Informationsflüsse und Meinungsbildung entstehen, welche wiederum Glaubwürdigkeit und demokratische Legitimität erlangen können und die Möglichkeiten bieten, politische Salienzen zu erkennen und gesellschaftlich verhandelbar zu machen. Wenn demokratische Institutionen responsiv sind, können sie Mechanismen entwickeln, durch welche neue Tonlagen erkannt und in Deliberationsprozesse eingebunden werden. Die Hoffnung liegt also nicht darin, Dissonanzen zum Verstummen zu bringen. Vielmehr muss sich die Rezeption der Töne verändern, indem die politischen Institutionen die vielfältigen und oftmals schiefen Tonlagen produktiv verarbeiten.

Literatur- und Quellenverzeichnis Anna, Lührmann, Sandra Grahn, Richard Morgan, Shreeya Pillai, und Staffan I. Lindberg. 2019. State of the world 2018: Democracy facing global challenges. Democratization 26 (6): 895–915. Benkler, Y. 2006. The wealth of networks. How social production transforms markets and freedom. New Haven: Yale University Press. Bennett, W.L., und S. Livingston. 2018. The disinformation order: Disruptive communication and the decline of democratic institutions. European Journal of Communication 33 (2): 122–139.

Demokratischer Wandel, dissonante Öffentlichkeit …

99

Bennett, W.L., und B. Pfetsch. 2018. Rethinking political communication in a time of disrupted public spheres. Journal of Communication 68 (2): 243–253. Bennett, W.L., und A. Segerberg. 2012. The logic of connective action. Digital Media and the Personlization of Contentious Politics. Information, Communication & Society 15 (5): 739–768. Bennett, W.L., A. Segerberg, und C.B. Knüpfer. 2017. The democratic interface: technology, political organization, and diverging patterns of electoral representation Information. Communication & Society 21 (11): 1655–1680. Blumler, J.G. 2015. Core theories of political communication: Foundational and freshly minted. Communication Theory 25 (4): 426–438. Blumler, J.G. 2018. The crisis of public communication, 1995–2017. Javnost – The Public 25 (1–2): 83–92. Blumler, J.G., und D. Kanavagh. 1999. The third age of political communication: Influences and features. Political Communication 16 (3): 209–230. Bradshaw, S., und P. N. Howard 2017. Troops, Trolls and Troublemakers: A Global Inventory of Organized Social Media Manipulation. https://comprop.oii.ox.ac.uk/wpcontent/uploads/sites/89/2017/07/Troops-Trolls-and-Troublemakers.pdf. Bremer, B., und J. Schulte-Cloos. 2019. Restructuring British and German Party politics in times of crisis. In European party politics in times of crisis, Hrsg. S. Hutter und H. Kriesi, 281–301. Cambridge: Cambridge University Press. Bruns, A. 2008. Life beyond the public sphere: Towards a networked model for political deliberation. Information Polity 13 (1/2): 65–79. Bruns, A. 2009. Vom Gatrekeeping zum Gatewatching: Modelle der journalistischen Vermittlung im Internet. In Journalismus im Internet: Profession – Partizipation – Technisierung, Hrsg. C. Neuberger, C. Nuernbergk, und M. Rischke, 107–128. Wiesbaden: VS Verlag. Carlson, M. 2018. Confronting measurable journalism. Digital Journalism 6 (4): 406–417. Chadwick, A. 2011. The political information cycle in a hybrid news system: The British prime minister and the „Bullygate“ affair. The International Journal of Press/Politics 16 (1): 3–29. Chadwick, A. 2013. The hybrid media system. Politics and Power: Oxford Oxford University Press. Coleman, S., und D. Freelon Hrsg. 2015. Handbook of digital politics. Cheltenham: Elgar. Coppedge, M., J. Gerring, C.H. Knutsen, S.I. Lindberg, S.-E. Skaaning, J. Teorell, und D. Ziblatt 2018. V-Dem Codebook v8" Varieties of Democracy (V-Dem) Project. https:// www.v-dem.net/media/filer_public/e0/7f/e07f672b-b91e-4e98-b9a3-78f8cd4de696/vdem_codebook_v8.pdf. Dahlgren, P. 2005. The internet, public spheres, and political communication: Dispersion and deliberation. Political Communication 22 (2): 147–162. Downey, J., und N. Fenton. 2003. New media, counter publicity and the public sphere. New Media & Society 5 (2): 185–202. Esser, F., und B. Pfetsch. 2020. Political communication. In Comparative politics, 5. Aufl., Hrsg. D. Caramani, 336–358. Oxford: Oxford University Press. Europäische Kommission, 2016. Standard-Eurobarometer, Ansichten der Europäer zu den Prioritäten der Europäischen Union, Herbst 2016. Brüssel: Europäische Kommission.

100

C. Knüpfer et al.

Europäische Kommission, 2018. Standard-Eurobarometer, Die öffentliche Meinung in der Europäischen Union, Frühjahr 2018. Brüssel: Europäische Kommission. Foa, R.S., und Y. Mounk. 2016. The danger of deconsolidation: The democratic disconnect. Journal of Democracy 27 (3): 5–17. Foa, R.S., und Y. Mounk. 2017. The signs of deconsolidation. Journal of Democracy 28 (1): 5–15. Habermas, J. 1996. Between facts and norms. Contributions to a discourse theory of law and democracy. Cambridge: Polity Press. Habermas, J. 2006. Political communication in media society: Does democracy still enjoy an epistemic dimension? The impact of normative theory on empirical research. Communication Theory 16 (4): 411–426. Haller, A., K. Holt, und R. de la Brosse. 2019. The “other” alternatives: Political right-wing alternative media. Journal of alternative and community media 4 (1): 1–6. Hanusch, F. 2017. Web analytics and the functional differentiation of journalism cultures: individual, organizational and platform-specific influences on newswork. Information, Communication & Society 20 (10): 1571–1586. Häussler, T. 2019. Civil society, the media and the internet: Changing roles and challenging authorities in digital political communication ecologies. Paper presented at the 69th annual conference of the ICA, Washington, D.C. Heft, A., E. Mayerhöffer, S. Reinhardt, und C.B. Knüpfer. 2020. Beyond Breitbart: Comparing right-wing digital news environments in Western Democracies. Policy & Internet 12 (1): 20–45. Hindman, M. 2008. The myth of digital democracy. Princeton: Princeton University Press. Hindman, M. 2018. The internet trap: How the digital economy builds monopolies and undermines democracy. Princeton: Princeton University Press. House of Commons, Digital, Culture, & Media and Sport Committee. (2019). Disinformation and 'fake news': Final Report. London: House of Commons. Hutter, S., und H. Kriesi Hrsg. 2019. European party politics in times of crisis. Cambridge: Cambridge University Press. Inglehart, R., C. Härpfer, A. Moreno, C. Welzel, K. Kizilova, J. Diez-Medrano, und B. Puranen et al. 2014. World Values Survey: Round Six – Country-Pooled Datafile Version. Abrufbar unter Madrid. Institut Montaigne. (2019). Media Polarization „À la français“? Comparing the French and American Ecosystems. https://www.institutmontaigne.org/ressources/pdfs/publications/ media-polarization-a-la-francaise-report.pdf. Katz, R.S., und P. Mair. 1995. Changing models of party organization and party democracy: The emergence of the cartel party. Party Politics 1 (1): 5–28. Knüpfer, C.B. 2018a. Diverging projections of reality: Amplified frame competition via distinct modes of journalistic production. Journalism Studies 19 (4): 594–611. Knüpfer, C.B. 2018b. Trump als Medieneffekt: Der US Wahlkampf 2016, digitale Medien und das „vierte Zeitalter“ der politischen Kommunikation. In Die gespaltenen Staaten von Amerika, Hrsg. W. Gellner und M. Oswald, 123–139. Wiesbaden: Springer VS. Lee, A.M., S.C. Lewis, und M. Powers. 2014. Audience clicks and news placement: A study of time-lagged influence in online journalism. Communication Research 41 (4): 505–530.

Demokratischer Wandel, dissonante Öffentlichkeit …

101

Lee, F.L.F. 2015. Internet, citizen self-mobilisation, and social movment organisations in environmental collective action campaigns: Two Hong Kong cases. Environmental politics 24 (2): 308–325. Mair, P. 2013. Ruling the void: The hollowing of western democracy. New York: Verso Books. Messner, M., und M. Distaso Watson. 2008. The source cycle. Journalism Studies 9 (3): 447–463. Napoli, P.M. 2010. Audience evolution: New technologies and the transformation of media audiences. New York: Columbia University Press. Neidhardt, F. 2010. Funktionen politischer Öffentlichkeit. Neue Soziale Bewegungen 23 (3): 26–34. Neuberger, C. 2009. Internet, Journalismus und Öffentlichkeit. Analyse des Medienumbruchs. In Journalismus im Internet: Profession – Partizipation – Technisierung, Hrsg. C. Neuberger, C. Nuernbergk, und M. Rischke, 19–105. Wiesbaden: VS Verlag. Newman, N., R. Fletcher, A. Kalogeropoulus, D.A.L. Levy, und R.K. Nielsen 2017. Reuters Institute Digital News Report 2017. https://reutersinstitute.politics.ox.ac.uk/ sites/default/files/Digital%20News%20Report%202017%20web_0.pdf. Norris, P., und R. Inglehart. 2019. Cultural backlash: Trump, Brexit, and Authoritarian Populism. Cambridge: Cambridge Universtiy Press. Nuernbergk, C. 2013. Anschlusskommunikation in der Netzwerköffentlichkeit  : ein inhalts- und netzwerkanalytischer Vergleich der Kommunikation im „Social Web“ zum G8-Gipfel von Heiligendamm. Baden-Baden: Nomos. Oswald, Michael. 2018. Strategische Politische Kommunikation im digitalen Wandel – ein disruptives Zeitalter. In Strategische Politische Kommunikation im digitalen Wandel. Interdisziplinäre Perspektiven auf ein dynamisches Forschungsfeld, Hrsg. Michael Oswald und Michael Johann, 7–35. Springer VS, Wiesbaden. Pemstein, D., K. L. Marquardt, E. Tzelgov, Y.-T. Wang, und F. Miri 2019. The V-Dem Measurement Model: Latent Variable Analysis for Cross-National and Cross-Temporal Expert-Coded Data. V-Dem Working Paper No. 21, 4. Edition. Retrieved from Pfetsch, B., P. Miltner, und D. Maier. 2016. Old and new dynamics of agenda building in a hybrid media system. In Political communication in the online world: Theoretical approaches and research designs, Hrsg. G. Vowe und P. Henn, 45–58. New York: Routledge. Pfetsch, B., M. Löblich, und C. Eilders. 2018. Dissonante Öffentlichkeiten als Perspektive kommunikationswissenschaftlicher Theoriebildung. Publizistik 63 (4): 477–495. Sunstein, C.R. 2001. The daily we. Boston Review 26 (3): 1–13. Van Dijk, J.A.G.M., und K.L. Hacker. 2018. Internet and democracy in the network society. New York: Routledge. Vosoughi, S., D. Roy, und S. Aral 2018. The spread of true and false news online. Science (New York) 359 (6380): 1146–1151. Waisbord, S. 2016. Disconnections: Media sociology and communication across differences. Paper presented at the Conference of the International Communication Association, Fukuoka, Japan. Waldherr, A. 2017. Öffentlichkeit als komplexes System. Theoretischer Entwurf und methodische Konsequenzen. Medien & Kommunikationswissenschaft 65 (3): 534–549.

Europas digitale Souveränität. Bedingungen und Herausforderungen internationaler politischer Handlungsfähigkeit Annegret Bendiek und Jürgen Neyer 1 Souveränität im Wandel Die Europäische Union sieht sich heute einer grundlegend neuen Herausforderung gegenüber. Nachdem die letzten sechzig Jahre des Integrationsprozesses wesentlich von internen Herausforderungen wie der Krise des leeren Stuhls, der Eurosklerose und der Finanzkrise gekennzeichnet waren, steht heute zunehmend die internationale Politik im Fokus. In einer Vielzahl von Politikfeldern, vom Kampf gegen Hassreden bis zur Ächtung von autonomen Waffensystemen, von der Debatte über das Verbot der Gesichtserkennung bis zur Regulierung der künstlichen Intelligenz lassen sich internationale und innereuropäische Regelsetzungsprozesse kaum noch voneinander trennen. China, die USA, Russland und Europa befinden sich heute in einem intensiven Regulierungswettbewerb, in dem unterschiedliche normative Modelle über globale Marktprozesse und internationale politische Regulierungsinstanzen vermittelt sind. Die Globalisierung der europäischen Datenschutzbestimmungen (etwa die Datenschutzgrundverordnung, DSGVO), die Verfolgung von Verantwortlichkeitsregelungen für Online-Plattformen (in D, das NetzDG) und die Förderung einer rechtsstaatlich orientierten, vorsorgenden ­Technologie-Governance im Bereich der künstlichen Intelligenz sind eindeutige A. Bendiek (*)  Stiftung Wissenschaft und Politik, Berlin, Deutschland E-Mail: [email protected] J. Neyer  Europa Universität Viadrina, Frankfurt/Oder, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_6

103

104

A. Bendiek und J. Neyer

Beispiele für diesen Prozess. In allen diesen Feldern geht es nicht nur um die ökonomisch motivierte Internationalisierung eigener EU-Standards und damit den Versuch der Externalisierung eigener Anpassungskosten, sondern letztlich um die Aufrechterhaltung des eigenen, europäischen Gesellschaftsmodells in einem zunehmend umkämpften Umfeld. Um in diesem neuen Umfeld bestehen zu können, so der weit verbreitete Tenor, müsse Europa sich so verhalten wie andere Großmächte auch, d. h. lernen, wie eine geopolitische Macht zu denken und eine neue Form von Souveränität zu entwickeln (Timmers 2019a; European Commission and European External Action Service 2017; European Commission 2018; Leonard und Shapiro 2019a; Leonard und Shapiro 2019b). Was aber genau ist unter digitaler Souveränität eigentlich zu verstehen? Und wie gut ist die Europäische Union darauf eingestellt, digitale Souveränität auszuprägen? Nachdem im folgenden Abschnitt der Begriff der digitalen Souveränität näher erläutert wird, beschreibt Kap. 3 wie sich Europa in der internationalen Politik der Herausforderung stellt, seine Wirtschafts- und Gesellschaftsordnung gegenüber konkurrierenden Mächten zu bewahren, auf globale Standardsetzungen Einfluss zu nehmen und technologisch wettbewerbsfähig zu bleiben. Kap. 4 geht auf die interne Dimension von digitaler Souveränität ein. Es beschreibt die innenpolitische Herausforderung, unter den Bedingungen sozialer und kommunikativer Fragmentierung inklusive Prozesse der sozialen Integration und der Meinungsbildung zu gestalten. Beiden Herausforderungen, so das abschließende Kap. 5, lässt sich im Rahmen eines europäischen digitalen Souveränitätsverständnisses begegnen, das die externe und die interne Betonung europäischer Werte als wesentliche Bestandteile europäischer Politik kombiniert.

2 Digitale Souveränität Der Begriff der digitalen Souveränität wird bislang noch kaum für die wissenschaftliche Analyse der Fähigkeit der EU zur politischen Interessenswahrnehmung verwandt. Und wenn doch, dann wird digitale Souveränität bisher fast ausschließlich in Expertisen politiknaher Stiftungen und Beratungsinstitutionen genutzt, um die Fähigkeit von BürgerInnen und Unternehmen, informationell selbstbestimmt digitale Technologien nutzen zu können, zu beschreiben (Gräf et al. 2018; BITKOM 2015; SVR (2017). Für die Beschreibung der Fähigkeit der Europäischen Union zur Artikulation und Durchsetzung ihrer Interessen mit (und gegen) Andere(n) finden allerdings eine Reihe verwandter Begriffe wie ‚technologische Souveränität’ (Leonard und Shapiro 2019a), ‚strategische Autonomie’

Europas digitale Souveränität …

105

(European Commission 2019) oder ‚digitale Autonomie’ (Voss 2020) durchaus Verwendung. In diesem Text gehen wir davon aus, dass es sinnvoll ist, die Beschreibung der Fähigkeit der EU zur Selbstbehauptung entlang der beiden Begriffe von ‚digital’ und ‚Souveränität’ auszubuchstabieren. Der Begriff des Digitalen greift den Umstand auf, dass wir es heute in der Politik mit einer umfassenden algorithmischen Erfassung und Verarbeitung von Sachverhalten in den drei Sachbereichen der Herrschaft, der Wohlfahrt und der Sicherheit zu tun haben.1 Sachverhalte werden zunehmend ermittelt über algorithmische Abbildungen wahrgenommen und in Form digitaler Strategien bearbeitet (Nassehi 2019).2 Hierdurch verändert sich nicht nur die Ausdrucksform politischer Gegenstände, sondern auch ihr Inhalt und damit ihr Konfliktpotential. Digitale Souveränität ist so verstanden die Fähigkeit der Europäischen Union, interne Entscheidungsprozesse in algorithmisch geprägten Umgebungen zu realisieren und extern in entsprechende Politikergebnisse zu überführen. Dieses Begriffsverständnis kombiniert drei Traditionen der Interpretation des Souveränitätskonzeptes:3 Rechtliche Souveränität bezieht sich in der Tradition von Jean Bodin auf die Befugnis, für alle anderen verbindlich kraft autoritativer Entscheidung Recht setzen zu dürfen. Souverän ist demzufolge derjenige, der das unumschränkte Recht hat, Recht zu setzen (Hillgruber 2014). Rechtliche Souveränität kennt weder moralische noch politische Grenzen; sie beschreibt schlicht einen rechtlichen Zustand, der gegeben ist oder auch nicht. Politische Souveränität bezieht sich im Anschluss an AutorInnen wie Carl Schmitt auf einen Zustand der faktischen Fähigkeit, verbindliche Regelungen zu erlassen, völlig unabhängig davon, ob diese rechtlich abgesichert sind oder auch nicht. „Souverän“, so das berühmte Diktum von Schmitt, „ist wer über den Ausnahmezustand entscheidet“

1Für

einen Überblick s. (Hofmann et al.2019). Beispiel der Corona-Krise von 2020 lässt sich dieser Sachverhalt gut illustrieren. Die Ausbreitung des Virus wird von der Politik als algorithmisch abgebildeter Prozess der zeitlichen Veränderung der Anzahl Neuinfizierter verstanden. Politische Maßnahmen der Intensivierung oder Erleichterung von Kontaktsperren werden entsprechend daran ausgerichtet, wie diese Messzahl sich verändert. Auch die Maßnahmen selbst sind stark digital geprägt. In China werden inzwischen alle Personen mit einem personalisierten QR-Code ausgestattet, der es erlaubt, ihren Gesundheitszustand, ihre Bewegungsprofile und ihre sozialen Kontakte zu erfassen. Digitale Instrumente sind damit sowohl für die Beschreibung und damit Wahrnehmung der Pandemie als auch für wesentliche Instrumente zu ihrer Bekämpfung zuständig. 3Grundsätzlich hierzu vgl. (Grimm 2009). 2Am

106

A. Bendiek und J. Neyer

(Schmitt 1922, S. 9). Ein drittes Verständnis von Souveränität lässt sich mit Rousseau als Volkssouveränität beschreiben. Souveränität ist hier die Qualität eines Volkes (oder moderner: der Gesamtheit der Staatsangehörigen), einen gemeinsamen Willen auszubilden (Maus 2011). Souveränitätskonzepte lassen sich weiterhin danach unterscheiden, ob sie die innere oder die äußere Dimension von Staatlichkeit thematisieren. Innere Souveränität bezieht sich auf die staatliche Eigenschaft einer Überordnung öffentlicher Autorität gegenüber allen Individuen und Organisationen, die innerhalb seiner Grenzen leben oder arbeiten. Äußere Souveränität bedeutet, dass in der Gemeinschaft der Staaten kein Staat einer anderen Autorität untergeordnet ist und, dass kein anderer Staat und keine internationale Organisation die Herrschaft über einen Staat für sich beanspruchen. Für ein angemessenes Verständnis von europäischer Souveränität unter Bedingungen der Digitalisierung braucht es die Entwicklung eines komplexen Souveränitätsbegriffes, der alle diese Verständnisse in sich aufnimmt. Komplexe Souveränität beinhaltet zuerst einmal eine rechtliche Dimension der formalen inneren und äußeren Zuständigkeit. Politik in Europa ist Politik innerhalb der Rechtsgemeinschaft – und damit außerhalb rechtlicher Verfahren kaum möglich. Die geringe Effektivität von intergouvernementalen Politiken wie der GASP unterstreicht diese Abhängigkeit deutlich. Die Teilhabe Europas an politischen Prozessen in der International Telecommunication Union (ITU) oder anderen internationalen Gremien wird zudem erst dann politisch relevant, wenn Akteure wie die Europäische Kommission ihre formalen inneren und äußeren Kompetenzen entweder gegen andere oder im Zusammenspiel mit diesen umsetzen können. Hierzu gehört sowohl Verhandlungsmacht gegenüber anderen Staaten als auch die innereuropäische Fähigkeit, Einigungen zwischen den Mitgliedstaaten zu etablieren. Die Vergangenheit hat deutlich gezeigt, dass diese Dimension alles andere als unwichtig ist. Mitgliedstaatliche Uneinigkeiten werden leicht von anderen Staaten dazu ausgenutzt, diese gegeneinander auszuspielen und gemeinsame europäische Politiken zu blockieren. Komplexe Souveränität bezieht sich somit auf die innere und äußere Fähigkeit der EU, rechtliche Kompetenzen sowohl innereuropäisch als auch international auf der Basis erfolgreicher europäischer Meinungsbildungsprozesse effektiv ausüben zu können.

3 Europas digitale Souveränität in der internationalen Politik Der globale Kontext Europas hat sich in den letzten zwanzig Jahren deutlich verändert. Das erste Jahrzehnt des 21. Jahrhunderts wurde von der Idee eines ‚Raumes der Ströme‘ geprägt, der den alten ‚Raum der Orte‘ zunehmend über-

Europas digitale Souveränität …

107

lagert (Castells 1996).4 Die Kategorie des Territoriums schien ihre Bedeutung für das Verständnis und die Funktionsweise der globalisierten Wirtschaft verloren zu haben (Ohmae 1995).5 Die wissenschaftliche und politische Diskussion dieser Zeit drehte sich um das Konzept einer ‚flachen Welt‘ (Friedman 2007), in der die Distanzen zwischen den Kulturen und Nationen verschwinden würden und eine neue transnationale und durch globale Kommunikationsströme integrierte Elite die Kontrolle übernähme. TheoretikerInnen der internationalen Politik schrieben über eine ‚unpolare‘ Welt, in der die Macht so weit verbreitet wäre, dass kein Staat mehr Kontrolle über die Ergebnisse der Politik habe (Nye 2011, S. 113). Digitale Libertäre stellten alle Formen staatlicher Interventionen infrage, gaben eine ‚Unabhängigkeitserklärung‘ des Internets ab und plädierten für eine Form der politischen Organisation, die auf dem Modell der MultiStakeholder-Governance basiert (Barlow 1996). Mueller behauptete sogar, dass ‚die Menschen des Internets‘ eine transnationale, von der staatlichen Autorität unabhängige Volkssouveränität bilden sollten (Mueller 2017, S. 134). Diese neue Souveränität sollte die Nationalstaaten in allen Fragen der Regulierung des Internets verdrängen und eine eigene politische Identität entwickeln.

3.1 Konfliktive Re-Territorialisierung Seitdem hat sich viel geändert. In der ganzen westlichen Welt erleben wir heute eine erneute Betonung von Territorium und Nation als wichtige politische Kategorien (Wimmer 2019; Snyder 2019; Goldsmith und Wu 2008). Die Entwicklung riskanter Technologien hat die moderne Gesellschaft in eine „Risikogesellschaft“ transformiert, „in der der Ausnahmezustand zum Normalzustand zu werden droht“ (Beck 1986, S. 31). Moderne Infrastrukturen sind gekennzeichnet von Konnektivität (umfassende Vernetzung mit resultierenden Kaskadeneffekten), Komplexität (vielfach überlagerte und interdependente Kausalitäten) und damit einhergehender Kontingenz (beschränkte Vorhersehbarkeit). Die zunehmende Konnektivität und Komplexität unterschiedlicher Lebensbereiche hat zu einem

4Castells

described the emergence of a new world being organized "in networks pertaining to a space of flows that links them up around the world, while fragmenting subordinate functions, and people, in the multiple space of places, made of locales increasingly segregated and disconnected from each other“ (S. 476). 5”[…] traditional nation states have become unnatural, even impossible, business units in a global economy” (S. 5).

108

A. Bendiek und J. Neyer

Zustand „systemischer Vulnerabilität“ (Edwards 2013) geführt. Das Systemversagen ist das Erwartbare geworden, welches das Zufällige infrage stellt (Virilio 2009).6 Die Maßgabe lautet, „sich auf das forcierte Bewusstsein ungewisser Zukünfte einzustellen und sich auf das Nicht-Vorbereitbare vorzubereiten“ (Blum et al. 2016, S. 155). Wenn Sicherheit nicht mehr als Zustand, sondern nur noch als Prozess gedacht werden kann, dann erfordert sie ein Denken in Kategorien permanenter Herausforderung und der Bereitschaft zur Anerkennung struktureller Unsicherheit: wir können nicht wissen, was morgen auf uns zukommen wird (Vgl. Scharte und Thoma 2016, S. 132 f.). Nicht bloß Prävention gegenüber dem Wiederauftreten des Bekannten, sondern Reaktionsfähigkeit gegenüber dem Unbekannten ist die zentrale Herausforderung in der Gestaltung moderner offener Infrastrukturen. In der neuen Welt von Konnektivität, Komplexität und Kontingenz kann sich die Frage der sicheren Gestaltung von Infrastrukturen nicht mehr auf die Minimierung von Wahrscheinlichkeit und Risiko beschränken, sondern muss in Begriffen von Möglichkeit und Plausibilität gedacht werden. Das Denken in Kategorien des Konfliktmanagements von der Vorsorge bis hin zur Nachsorge wird abgelöst durch ein Denken in den Kategorien von Resilienz7. Transnationale Netzwerke werden in diesem Kontext heute zunehmend als Orte der Gefährdung, der harten Machtpolitik und des Ringens um Einfluss verstanden (Leonard 2016, S. 95).8 Sie generieren aufgrund der ungleich verteilten Einflusskanäle und Knotenpunkte die Möglichkeit, Informationsflüsse zu steuern und Interdependenz als Waffe in der internationalen Politik zu benutzen (Farrell und Newman 2019). Beispielsweise sind komplexe Systeme wie die Netzwerktechnik für 5G in diesem Kontext sehr viel mehr als bloße Technologien. Sie werden für Jahrzehnte in den Infrastrukturen eines Staates verbaut und drohen bei einer Auftragsvergabe an Unternehmen aus unfreundlich gesinnten oder autoritären Staaten

6Paul

Virilio spricht vom»integralen Unfall«: Ob Blackout, Börsencrash oder Bevölkerungsexplosion, ob Stau oder Super-GAU, Server-Breakdown, nervous breakdown oder neuerdings der»Klimakollaps« (Virilio 2009, S. 7) siehe auch (Perrow 1999). 7Resilienz wird daher auch als „a technology of governing the unknowable“ verstanden (Kaufmann 2013, S. 65). Einen guten Überblick über die aktuelle Forschungslandschaft in unterschiedlichsten wissenschaftlichen Disziplinen bieten (Wink 2016) und (Karidi et al. 2018). 8„Schlachtfeld ist die vernetzte Infrastruktur der globalen Wirtschaft und als Waffe dient die Unterbrechung oder Reduzierung unserer globalen Verknüpfungen: Handel und Investitionen, internationales Recht, Internet, Transportwege und Personenfreizügigkeit. Willkommen im Zeitalter der Verknüpfungskriege.“

Europas digitale Souveränität …

109

unwillkommener fremder politischer Kontrolle zu unterliegen. Netzwerkprodukte entwickeln sich derzeit zu einer im Wesentlichen durch Software definierten Technologie weiter, deren regelmäßige Updates für den einsetzenden Betreiber kaum nachvollziehbare Funktionalitätsveränderungen bringen. Gleichzeitig verändert die digitale Transformation alle Marktsegmente, von landwirtschaftlichen Produkten, über die Medizintechnik bis zum Maschinenbau. Kaum noch ein wichtiges Produktsegment existiert heute komplett außerhalb des Internets, anspruchsvoller Algorithmen und damit jenseits von technologischen Abhängigkeiten gegenüber großen US-amerikanischen oder – zunehmend – chinesischen Konzernen. Handelsfragen werden immer stärker mit dem Ringen um digitale Kontrollfähigkeit verschränkt (vgl. Bendiek und Schallbruch 2019). Die Relevanz der aktuellen wirtschafts- und handelspolitischen Konflikte zwischen den USA, China und der EU geht daher weit über rein ökonomische Fragen hinaus. Digitale Technologien sind die Kommunikationsinfrastruktur hochentwickelter Informationsgesellschaften. Wer die Kontrolle über Hard- und Software hat, bestimmt auch, wer zu welchem Zeitpunkt und zu welchem Preis Zugriff auf welche Informationen hat. Mit der Digitalisierung geht eine neue Konflikthaftigkeit in der globalen Politik, eine neue Auseinandersetzung um global gültige Standards und damit letztlich auch um die Gültigkeit europäischer Werte einher. Diese Auseinandersetzung findet derzeit nur wenig konstruktive Begleitung in der internationalen Politik. Globale Normen und Regulierungen in Fragen der Cybersicherheit sind nach über zehn Jahren erfolgloser Verhandlungen in einem Klima der Cyberrivalität zwischen den USA und China stecken geblieben. Die Debatten über staatliches Verhalten im Cyberraum, die globale Ächtung oder Beschränkung von Cyberangriffen und eine völkerrechtlich abgesicherte Organisation zur Cyberabwehr wurden zwar in fünf Verhandlungsrunden der Gruppe von Regierungsexperten auf VN-Ebene (Group of Governmental Experts GGE) verhandelt, blieben aber erfolglos. In der aufgeladenen Konfliktsituation zwischen den USA und China und aufgrund der erheblichen Interessendivergenzen zwischen liberalen Demokratien und autoritären Staaten sind baldige Fortschritte der derzeitigen Verhandlungsrunden der GGE und der von Russland und China initiierten Open Ended Working Group (OEWG) auch weiter unwahrscheinlich. Die neue Konflikthaftigkeit ist zuerst einmal eng mit dem Aufstieg Chinas zur technologischen Großmacht verbunden. Über die chinesische Marktmacht erhalten auch die in chinesischer Technologie von Huawei und ZTE aufgehobenen Werte Einzug nach Europa. Gesichtserkennungssoftware, Social Scoring und andere Überwachungsinstrumente werden bereits auf dem

110

A. Bendiek und J. Neyer

europäischen Markt angeboten und können leicht von interessierten Staaten (selbst in der Europäischen Union) für die Kontrolle oppositioneller Gruppen angewandt werden. Der Aufstieg der USA zur globalen Hegemonialmacht ging nach 1945 mit einer Ausbreitung des American Way of Life einher. Genauso könnte der Aufstieg Chinas eine vergleichbare Attraktivität seines Gesellschaftsmodells nach sich ziehen. Das chinesische Cybersicherheitsgesetz von 2017 hat hier für viel Irritation gesorgt. Es sieht u. a. die Registrierung von Vollnamen für InternetnutzerInnen vor und verbietet Virtul Private Networks (VPN), verlangt verschärfte Sicherheitsauflagen für kritische Infrastrukturen und für Anbieter ‚kritischer Informationsinfrastruktur‘ (vgl. auch Langer in diesem Band). Der Staat behält sich das Recht vor, die privaten Datenschutzansprüche seiner BürgerInnen dann einzuschränken, wenn Fragen der nationalen Sicherheit oder der nationalen Wirtschaft berührt sind. Individuelle Freiheitsrechte stehen hiermit faktisch unter dem Vorbehalt ihrer Vereinbarkeit mit staatlichen Interessen. Hinzu kommt, dass chinesische Unternehmen unter einem Generalverdacht stehen, von der chinesischen Regierung ferngesteuert zu sein oder sich zumindest im Konfliktfall einer derartigen Instrumentalisierung nicht entziehen zu können. Am Streit um den chinesischen Technologiekonzern Huawei ist diese Befürchtung jüngst deutlich geworden.9 Das Angebot Huaweis, auf dem europäischen Markt den Aufbau der 5G Infrastruktur mit voranzutreiben, stößt auf massive Vorbehalte seitens der US-amerikanischen sowie einer Reihe europäischer Regierungen. Die US-Regierung betrachtet Huawei als das trojanische Pferd einer gegnerischen Regierung, deren Politik mit den amerikanischen Interessen unvereinbar sei (Marcus 2019). Der Konflikt um Huawei droht einen grundlegenden Bruch mit der Logik einer globalen Marktwirtschaft zu signalisieren. Er könnte eine neue Phase des internationalen Merkantilismus einleiten, in der der Gewinn einer Partei als identisch mit dem Verlust einer anderen Partei verstanden wird (Marcus 2019). In dieser neuen Wahrnehmung des Nullsummenaustauschs ist die Konvergenz der Märkte nicht mehr nur eine Chance für Wohlstand, sondern zunehmend eine Bedrohung für die öffentliche Sicherheit. Neue Konzepte wie technologische Souveränität und wirtschaftliche Verwundbarkeit beginnen den Glauben an eine globale Wirtschaftsordnung des gemeinsamen Marktes zu ersetzen.

9Dokumentationen des Konfliktes sind zu finden in (Johnson und Groll n.d.; Rühlig et al. 2019).

Europas digitale Souveränität …

111

Die neue Konflikthaftigkeit in der digitalisierten Politik beschränkt sich allerdings nicht auf die Beziehungen zwischen dem Westen und China. Auch in den transatlantischen Beziehungen sind die normativen Vorstellungen oftmals nur schwer in Einklang zu bringen.10 Die vielbeschworene transatlantische Wertegemeinschaft kollidiert immer häufiger mit grundlegend unterschiedlichen Vorstellungen zum Umgang mit Daten, der Regulierung des Wettbewerbs und dem Schutz von Privatheit. Während die US-Regierung für ihre Sicherheitsdienste den Zugriff auch auf sensible Daten fordert, im Verhältnis zwischen Konzernen und KonsumentInnen die Vertragsfreiheit betont und sich gegen die Regulierung des Marktes durch europäische Institutionen wehrt, sind die Europäer stolz darauf, in allen diesen Bereichen ihre eigenen Wertvorstellungen zum Ausdruck zu bringen. Ein klares Beispiel für die zunehmende Kluft zwischen den USA und Europa ist die Reaktion der Regierung Trump auf die Strafen, die die Europäische Kommission Google wiederholt wegen Verstößen gegen das europäische Wettbewerbsrecht auferlegt hat. Unter völliger Missachtung der verfassungsrechtlichen und regulatorischen Gründe für diese Entscheidungen bewertete USPräsident Donald Trump sie als eine reine Racheaktion einer „tax lady who hates the US“ (Becker 2018). Dies ist mehr als ein Tweet. Es ist ein Beweis für die Lücke zwischen zunehmend schwierig zu vereinbarenden Regulierungsphilosophien auf beiden Seiten des Atlantiks.

3.2 Ethisch verantwortete digitale Souveränität Der wachsenden internationalen Konflikthaftigkeit wird in Europa mit der Forderung nach mehr europäischer Eigenständigkeit und der Etablierung einer ‚digitalen Souveränität‘ (Benner 2010) und ‚strategischen Autonomie der EU‘11 begegnet. Die alte Idee einer globalen liberalen Ordnung, die auf der Basis konsentierter Werte und Normen einen rechtlichen Rahmen für die Etablierung globalen Regierens etabliert, tritt immer stärker in den Hintergrund und wird

10Für

eine aufschlussreiche Analyse über die Ursachen der Krise der liberalen Ordnung siehe (Ikenberry 2018). 11Strategische Autonomie ist “the ability, in terms of capacity and capabilities, to decide and act upon essential aspects of one’s longer-term future in the economy, society and their institutions” (Timmers 2019b, S. 2).

112

A. Bendiek und J. Neyer

zunehmend von der Forderung nach einem selbstbewussteren Auftreten Europas, verstärkter ‚Datensouveränität‘ oder gar ‚digitalen Grenzkontrollen‘ überlagert.12 Die Europäische Union ist auf Denktraditionen aufgebaut, denen protektionistische und auf Abschottung ausgerichtete Ideen zuerst einmal fremd sind. Sie basiert auf einer engen Verbindung zwischen ethischen Normen, abstrakten Verfassungsgrundsätzen und konkreten rechtlichen Anforderungen. In Art. 3 und 10 EUV betont die EU die individuelle Selbstbestimmung der europäischen Bürgerinnen und Bürger durch ihr Bekenntnis zu Marktfreiheit und Demokratie. Sie realisiert eine politische Ordnung, die zu grundlegenden ethischen Fragen Stellung nimmt, ohne den Anspruch auf eine universelle Wahrheit zu erheben. Dieses ethisch fundierte Gesellschaftsverständnis findet sich auch in aktuellen Positionspapieren der europäischen Institutionen zu den Chancen und Herausforderungen der digitalen Gesellschaft. Der Europarat (Council of Europe 2019a), der Europäische Rat (Council of Europe 2019b) und die Europäische Kommission (European Commission 2018) haben eine Reihe von Erklärungen und Positionspapieren verabschiedet, die die Idee einer demokratischen digitalen Gesellschaft zum Ausdruck bringen, die sowohl sozial als auch individuell zentriert ist. In all diesen Papieren wird der technologische Fortschritt als eine von Menschen gemachte Chance gesehen, die grundsätzlich offen ist für die Verbesserung der Gesellschaft. Neue Technologien müssen nicht nur effizient sein, sondern auch zu Demokratie und Menschenrechten beitragen. Ein deutliches Beispiel für diesen besonderen europäischen Ansatz ist die Haltung der EU zur künstlichen Intelligenz (KI). KI wird von der Kommission nicht als Selbstzweck verstanden, sondern als ein Instrument, das im Dienst der Menschheit und des öffentlichen Wohls steht. Im Juni 2018 setzte die Kommission eine Expertengruppe ein, die die Aufgabe hat, ethische Richtlinien für eine ‚vertrauenswürdige KI‘ zu entwickeln. Der im April 2019 veröffentlichte Abschlussbericht der Gruppe betont die Notwendigkeit, die menschliche Autonomie zu bewahren, Schaden von Menschen zu vermeiden und generell die Prinzipien der Fairness und Verständlichkeit zu berücksichtigen.13 In ähnlicher Weise fordert der Europäische Rat die Einführung einer Bewertung der Auswirkungen der KI auf die Menschenrechte. KI-Systeme sollten verständlich und

12In

Deutschland gibt es mit GAIA-X inzwischen konkrete Pläne, der deutschen und europäischen Industrie eine eigene europäische Datenplattform anzubieten, die nach deutschen Sicherheitsstandards und damit – so die Bundesregierung – „unter vertrauenswürdigen Bedingungen“ funktioniert. 13European Commission (2019).

Europas digitale Souveränität …

113

leicht abschaltbar sein (Council of Europe 2019a). Der Europarat fordert darüber hinaus, dass den technologiebedingten Machtverschiebungen in der Gesellschaft und dem Verhältnis zwischen Staat und Gesellschaft besondere Aufmerksamkeit geschenkt werden sollte.14 Der europäische Ansatz zur Regulierung der digitalen Gesellschaft spiegelt sich auch in wichtigen neueren EU-Rechtsakten zur digitalen Gesellschaft wider. Die Datenschutz-Grundverordnung (DSGVO)15 setzt neue Standards für die Erhebung und Nutzung von Daten und ein angemessenes Gleichgewicht zwischen dem Schutz personenbezogener Daten und der Schaffung eines freien Datenverkehrs im Binnenmarkt. Auch die vom Rat im April 2019 verabschiedete Urheberrechtsrichtlinie16 bringt europäische Werte zum Ausdruck. Sie schützt die Interessen von AutorInnen und KünstlerInnen vor der Verwertung durch die großen Social-Media-Plattformen, indem sie sie zur Zahlung fairer Gebühren verpflichtet. Sie sieht außerdem für öffentliche Interessen wie Online-Bildung und die Erhaltung und Verbreitung des kulturellen Erbes besondere Ausnahmen von ehrgeizigen urheberrechtlichen Bedenken vor. Auch in der internationalen Politik verfolgt die EU einen wertebasierten Ansatz, der sich keinem einfachen Unilateralismus zuordnen lässt. Die Kommission betont das Prinzip der Anwenderneutralität und lehnt jede Diskriminierung aufgrund nationaler Herkunft ab. Es müsse anstelle dessen darum gehen, die Kontrolle des Datenverkehrs und eine transparente Softwarebereitstellung zu verbessern, Redundanzen in Mobilfunknetzen zu stärken, Rechenzentren zu dezentralisieren und Monokulturen in Netz- und Systemkomponenten zu vermeiden (Rühlig et  al. 2019, S.  4  f.). Die kürzlich verabschiedete europäische Richtlinie zur Sicherheit von Netz- und Informationssystemen (NIS-Richtlinie) folgt diesem Weg bereits.17 Sie fördert den Informations­

14„(P)articular

attention should be paid to the significant power that technological advancement confers to those–be they public entities or private actors – who may use such algorithmic tools without adequate democratic oversight or control“, Declaration by the Committee of Ministers on the Manipulative Capabilities of Algorithmic processes (Adopted by the Committee of Ministers on 13 February 2019 at the 1337th meeting of the Ministers' Deputies). 15Regulation on the Protection of Natural Persons with Regard to the Processing of Personal Data and on the Free Movement of Such Data, and Repealing Directive 95/46/EC (Data Protection Directive). 16(European Parliament und Council of the European Union 2019). 17(Das Europäische Parlament und Rat der Europäischen Union 2016).

114

A. Bendiek und J. Neyer

austausch zwischen den Mitgliedstaaten, um eine rasche und wirksame operative Zusammenarbeit bei Cybersicherheitsvorfällen und den Austausch von Informationen über Risiken zu fördern. Die NIS-Richtlinie folgt damit der Idee einer Steigerung von Resilienz ohne unnötige Konfrontationen und Abschottungen aufzubauen. Es gibt Stimmen, die diesen europäischen Weg „naiv“ nennen und befürchten, dass die hohen Standards der EU Wettbewerbsnachteile bedeuten. KonsumentInnen wollten effektive Produkte und wären nicht bereit, für anspruchsvolle Standards zu bezahlen. Wie zuvor schon beim Datenschutz stellt sich auch hier die Frage der Relevanz und Durchsetzungsfähigkeit europäischer Vorgaben: Muss Europa erst globaler Technologieführer werden, um sich anspruchsvolle lokale Standards leisten und diese auch international durchsetzen zu können? Die Realität spricht hier eine offensichtlich andere Sprache. Der Vorbildcharakter der Datenschutzgrundverordnung der EU für andere Staaten (so z. B. Japan, Brasilien und Kalifornien) und seine positive Bewertung seitens des Bundesdatenschutzbeauftragten kann als Beispiel für die Möglichkeit einer Bewahrung europäischer Werte bei gleichzeitiger Verfolgung einer Strategie der Verflechtung verstanden werden. Die Datenschutzgrundverordnung zielt darauf ab, Unternehmen auf einen sparsamen und die Privatheit respektierenden Umgang zu verpflichten. Sie ist damit erst einmal nur auf den europäischen Markt ausgerichtet und beansprucht keine Geltung für außereuropäische Räume. Gleichzeitig allerdings setzt die Datenschutzgrundverordnung Maßstäbe, die von vielen Unternehmen außerhalb Europas angewendet werden (Bendiek und Römer 2019, S. 37). Die Auswirkungen der Datenschutzgrundverordnung auf den US-amerikanischen Markt sind bereits heute für viele BeobachterInnen verblüffend. „Ironically, many Americans are going to find themselves protected from a foreign law” (Romm et al.2018). Die EU hat sich als die mächtigste Regulierungsbehörde des Silicon Valley herauskristallisiert: Sie ist dort eingetreten, „where Washington has failed or simply has been unwilling – to limit some of the United States’ most lucrative and politically influential companies” (ibid.). Der wesentliche Grund für diesen sogenannten „Brüssel-Effekt“ (Bradford 2012; Bendiek und Römer 2019) findet sich zuerst einmal darin, dass es für globale Unternehmen wie Google, Facebook oder Amazon weder eine Option ist, den europäischen Markt zu verlassen, noch ihr Geschäft nach zwei unterschiedlichen gesetzlichen Vorschriften zu organisieren. Die inhärente Mobilität von Daten erfordert de facto eine transnationale Regulierung, auch wenn dies auf einigen Märkten politisch nicht erwünscht ist. Es ist für Unternehmen oftmals weitaus kosteneffizienter, die anspruchsvollen europäischen Vorschriften auf globaler Ebene umzusetzen, als auf unterschiedlichen Märkten

Europas digitale Souveränität …

115

mit unterschiedlichen Standards zu operieren. Im Ergebnis erweitert die EU de facto die territoriale Reichweite ihres Datenschutzrechts und stellt starke Anreize für ausländische Marktteilnehmer bereit, sich auch außerhalb der EU an das ­EU-Recht zu halten. Das Beispiel zeigt, dass in der globalen Produktregulierung die gleiche Logik gilt wie in der EU: Hohe Standards verdrängen niedrige Standards, wenn sie in relevanten Teilmärkten rechtsverbindlich sind (Vogel 2009, S. 250).

4 Europas interne digitale Souveränität Souveränität, verstanden als die Fähigkeit, eigene normative Vorstellungen in einem umstrittenen internationalen Umfeld umzusetzen, ist in Europa nicht nur von externen, sondern auch von internen Vorbedingungen abhängig. Damit die EU machtvoll gegenüber Dritten auftreten kann, muss sie intern einig sein. Interne Einigkeit hat in Europa wiederum zumindest zwei Vorbedingungen, die von der Digitalisierung direkt betroffen sind und sich als die soziale und die kommunikative Herausforderung der Digitalisierung beschreiben lassen.

4.1 Die soziale Herausforderung der Digitalisierung Ethische Richtlinien für den Datenschutz oder die Verwendung von künstlicher Intelligenz und anspruchsvolle Produktstandards sind von wesentlicher Bedeutung, um die globale Entwicklung anspruchsvoller digitaler Technologien im Einklang mit den politischen Werten und kulturellen Traditionen Europas zu halten. Sie sind eine notwendige Voraussetzung, um die soziale Akzeptanz einer potenziell disruptiven Technologie zu sichern. Ethische Richtlinien sind alleine jedoch nicht ausreichend. Der Aufstieg der digitalen Revolution und der künstlichen Intelligenz (KI) signalisiert eine zweite große Transformation des Kapitalismus mit erheblichen sozialen Auswirkungen, die nur mit der Industrialisierung vergleichbar sind. Es stimmt, dass niemand heute ihre zukünftige Bedeutung mit Sicherheit vorhersagen kann. Es stimmt aber auch, dass die künstliche Intelligenz zunehmend „lebenswichtig für alles“ (Franke 2019) wird. Die KI ermöglicht die Entwicklung selbstoptimierender Maschinen. Schon heute ist KI in der Lage, anspruchsvolle intellektuelle Aufgaben wie die Mustererkennung, Personalrekrutierungen, Finanzentscheidungen und vieles mehr zu vollführen. Die KI ersetzt den Menschen bei der automatisierten Entscheidungsfindung in Bereichen wie der Genehmigung von Krediten, der Ent-

116

A. Bendiek und J. Neyer

scheidung, ob ein Kunde mit an Bord eines Flugzeugs genommen werden soll oder der Identifizierung von Korruption und Finanzkriminalität. Es überrascht nicht, dass in einer Reihe von Beiträgen über das langfristige Entstehen einer allgemeinen Intelligenz nachgedacht wird, die zumindest im Prinzip Probleme jeder Art aus eigener Kraft lösen kann: Autoren wie Chace argumentieren, dass die Fähigkeit der KI exponentiell wächst und in der Zukunft zwei „Singularitäten“ hervorbringen könnte (Chace 2018).18 Sich wiederholende, gefährliche und langweilige Arbeit würde von Maschinen erledigt werden, und kein Mensch in digitalisierten Gesellschaften würde für seinen Lebensunterhalt arbeiten müssen. Die neuen Technologien könnten zudem von einer starken Nachfrage nach Menschen mit Fachkenntnissen in Bereichen wie neuronalen Netzen und maschinellem Lernen begleitet werden. Es würden viele neue Jobs von AppEntwicklerInnen bis hin zu Cloud-Computing-IngenieurInnen, DesignerInnen von Nutzererfahrungen und DatenvisualisierungsexpertInnen entstehen, die es bis zu diesem Jahrhundert nicht gab. Eine aktuelle Studie des World Economic Forum (WEF) schätzt, dass bis 2025 die von Maschinen geleistete Arbeit von 29 % auf über 50 % steigen wird (Centre for the New Economy and Society 2018). In ähnlicher Weise schätzt das McKinsey Global Institute, dass etwa dreißig bis sechzig Prozent der Arbeitsplätze vollständig automatisiert werden können (Bughin et al. 2017). Es ist jedoch bei weitem nicht sicher, dass die neuen Technologien zu besseren Lebensbedingungen für alle Menschen führen werden. Bereits heute ersetzen von KI angetriebene Maschinen eine große Anzahl an Menschen, die in ‚automatisierbaren‘ Berufen arbeiten, wie VerwaltungsassistentInnen, KundenbetreuerInnen, BuchhalterInnen, FahrerInnen, TelemarketerInnen, Fast-Food-Köche oder Köchinnen und PraktikantInnen und Elektro-/MaschinentechnikerInnen. Fahrerlose Autos und vollautomatisierte Convenience Stores ohne menschliche Kasse sind Realität. Sogar Menschen in anspruchsvolleren Berufen wie RadiologInnen, AnwältInnen und JournalistInnen werden allmählich ersetzt. Die KI lernt zunehmend, anspruchsvolle intellektuelle Aufgaben zu erfüllen, wie das Erkennen komplexer Muster, das Synthetisieren von Informationen, das Ziehen von Schlussfolgerungen und die Erstellung von Prognosen, von denen vor nicht allzu langer Zeit angenommen wurde, dass sie menschliche Kognition erfordern.

18„[T]he

very real potential to democratize manufacturing, transforming how we make (unmake and remake) Things and empower billions of people to make what they consume“ (Gershenfeld et al. 2017, S. 183).

Europas digitale Souveränität …

117

Alle diese Entwicklungen werden nicht ohne Auswirkungen auf die Demokratie bleiben. Sinnhafte Beschäftigungen sind ein wesentliches Element für die subjektive Identifikation der Menschen mit der Gesellschaft, in der sie leben. Eine Gesellschaft, in der Menschen ökonomisch ‚überflüssig‘ werden, gerät schnell in Schwierigkeiten, den sozialen Zusammenhalt zu bewahren. Technische Innovationen wie die Blockchain und ausgeklügelte virtuelle Realitäten könnten es Unternehmen zudem ermöglichen, sich der Regierungsautorität zu entziehen, Firmengewinne in Offshore-Oasen zu deponieren und demokratische Regulierungen zu umgehen. Einige spekulieren bereits über das Entstehen eines Oligopols von Megakonzernen und DatenmilliardärInnen, die von Algorithmen geschaffenen Reichtum ernten und den Nachkriegskonsens einer sozial ausbalancierten Gesellschaft zerstören (Xiang 2018). Es ist durchaus möglich, dass diese Spekulationen eher in den Bereich von Science-Fiction gehören. Sicher ist das aber nicht. Zahlreiche Studien des Weltwirtschaftsforums, der europäischen politischen Institutionen und der Vereinten Nationen beschreiben ihre Wahrscheinlichkeit. Um die sozialen und politischen Konsequenzen der digitalen Transformation zu glätten, muss Europa seine Sozialpolitik ausweiten und die wirtschaftlich schwächeren Mitgliedstaaten mit zusätzlichen Investitionen und Ausbildungsprogrammen sowie mit Mitteln für diejenigen unterstützen, die nicht in der Lage sind, ihren Rückstand aufzuholen. Andernfalls dürften nicht nur die sozio-ökonomischen Disparitäten, sondern auch die hiermit einhergehenden politischen Konflikte zwischen den Mitgliedstaaten der EU zunehmen. Die interne Dimension politischer Souveränität und die Fähigkeit zur Formulierung einer gesamteuropäischen politischen Position zu Fragen der Regulierung von KI, der Besteuerung US-amerikanischer Technologiekonzerne oder auch des Zugangs Chinas zum europäischen Markt würden hiervon mit hoher Wahrscheinlichkeit negativ betroffen werden.

4.2 Mediale Emanzipation in der digitalen Gesellschaft Anspruchsvolle soziale Politiken entstehen nur selten ohne politische Mobilisierung der Betroffenen. Wie aber steht es um die Mobilisierungsfähigkeit Betroffener in der digitalen Gesellschaft? Hat die Idee der internen Souveränität unter den Bedingungen digitaler Vergesellschaftung eine realistische Perspektive? Aktuelle soziologische Analysen sind hier eher skeptisch und beschreiben eine generelle „Krise des Allgemeinen“ (Reckwitz 2017). Der Einzelne würde sich zunehmend als egozentrischer Performer in einem Wettbewerb um Aufmerksamkeit präsentieren und habe nur noch wenig Bereitschaft zur Übernahme

118

A. Bendiek und J. Neyer

von sozialer Verantwortung. Alte Klassen- und Gruppenidentitäten verlören mit dem Untergang des Industriekapitalismus an Prägekraft. An ihre Stelle träte ein neues Vergesellschaftungsmodell, das sich um so genannte „Neo-Communities“ (Reckwitz 2017, S. 261) oder „Communities of Practice“ (Stalder 2016, S. 135) organisiere. Felix Stalder beschreibt einen „vernetzten Individualismus“, wonach „Menschen in westlichen Gesellschaften […] ihre Identität immer weniger über die Familie, den Arbeitsplatz oder andere stabile Kollektive definieren, sondern zunehmend über ihre persönlichen sozialen Netzwerke, also über die gemeinschaftlichen Formationen, in denen sie als Einzelne aktiv sind und in denen sie als singuläre Personen wahrgenommen werden“ (Stalder 2016, S. 144). Diese neuen sozialen Gruppen weisen im Vergleich zur ehemaligen nationalstaatlichen Gesellschaft des Industriezeitalters einen sehr viel geringeren Verpflichtungsgrad gegenüber der nationalen Gemeinschaft auf. Es sind keine „Erinnerungs-, Erfahrungs- und Traditionsgemeinschaften“ (Kielmannsegg 2003) mehr und auch keine tief ins kollektive Bewusstsein implantierten „imagined communities“ (Anderson 1983). Die neuen partikularen Vergesellschaftungsformen sind vielmehr funktional ausgerichtet und üben nur solange Verbindlichkeit für ihre Teilnehmer (User) aus, wie sie vom Einzelnen anerkannt werden (vgl. auch Borucki und Oswald in diesem Band). Die Idee einer von der digitalen Vernetzung beförderten Krise des Allgemeinen wird ebenfalls in den beiden verwandten Begriffen der Filterblase (Pariser 2012) und der Echokammer (Sunstein 2007) aufgegriffen. Eli Pariser und Cass Sunstein zufolge bricht der einst allumfassende öffentliche Raum in eine Vielzahl paralleler Echokammern auf, in denen jeder Einzelne sich nur noch solche DiskurspartnerInnen aussucht, die das Gleiche denken, die gleichen Vorlieben haben und die gleichen Interessen verfolgen. Der Prozess des öffentlichen Vernunftgebrauches, der ehemals die Vielzahl der unterschiedlichen Meinungen in der Demokratie immer wieder aufs Neue zusammengefügte und „Solidarität unter Fremden“ (Brunkhorst 1997) schuf, degeneriere zu einer Vielzahl paralleler Diskursuniversen. Die Bewohner dieser partikularen Universen überzeugten sich nicht mehr von abweichenden Meinungen, sondern bestätigten nur noch ihre Vorurteile. Sie lebten in Filterblasen, in denen alles Abweichende und Irritierende ausgefiltert werde. Gemeinschaft entsteht hier nur noch unter Gleichen, ohne dass das Abweichende und Andere mitintegriert würde. In der Konsequenz, so die Befürchtung, bröckele der kommunikative Kitt gesamtgesellschaftlicher Verständigung und dünne sich die Identifikation von BürgerInnen mit der Gesellschaft insgesamt aus. Aus der ehemaligen nationalen Gemeinschaft werde so eine „dissonante Öffentlichkeit“ (Knüpfer et al. in diesem Band) ohne übergreifende Verständigungsfähigkeit.

Europas digitale Souveränität …

119

Der hier zum Ausdruck kommende Pessimismus über die Fähigkeit der digitalisierten Gesellschaft, interne Souveränität in Form von Verantwortung und Gemeinschaftsbewusstsein zu generieren, ist allerdings nicht unbestritten. Gerade die digitalaffine junge Generation zeichnet sich durch ein hohes Maß an politischem Aktivismus sowohl on- als auch offline aus. Der aktuellen ­Shell-Jugendstudie zufolge halten es mehr als ein Drittel aller Jugendlichen heute für wichtig, sich politisch zu engagieren; ein Wert, der höher ist als jemals zuvor in den letzten fast zwanzig Jahren. Der Protest gegen die Überwachungspraktiken der USA und ihrer europäischen Partner im Zuge der Enthüllungen des ehemaligen NSA-Mitarbeiters Edward Snowden, der Kampf gegen die Einführung von Upload-Filtern und für ein freies Internet bringen regelmäßig Millionen junger Menschen auf die Straße. Die Proteste gegen die Urheberrechtsrichtlinie haben in mehr als 80 Städten in ganz Europa Kundgebungen ausgelöst (Biselli 2019). Die Bewegung Fridays for Future hat am 15. Mai 2019 weltweit mehr als 1,7 Mio. DemonstrantInnen auf die Straße gebracht. In Deutschland erhielt ein politischer Videoclip 2019 des damals 27jährigen Rezo mit dem Titel Die Zerstörung der CDU mehr als 15 Mio. Klicks innerhalb von weniger als zwei Wochen. Hier entwickelt sich eine neue Form interner politischer Souveränität an der Schnittstelle zwischen analoger und digitaler Welt. Viele analoge politische Praktiken werden durch Online-Aktivitäten überhaupt erst angeregt. Menschen, die nie für etwas gekämpft hätten, können eine geeignete Online-Community finden und so offline soziale Veränderungen und Solidarität fördern. Spezielle Plattformen für den lokalen Gebrauch wie Ozeanhousing oder Nebenan können die lokalen Beziehungen stärken. Eine ganz ähnliche Logik ist in der Teilhabe an der Entwicklung von Open-Source-Software sowie Projekten wie der Wikipedia oder Open Data zu beobachten. Stalder sieht hier das Potential für „eine radikale Erneuerung der Demokratie“ (Stalder 2016, S. 205). Kommunikationsintensive und horizontale Prozesse ließen sich mit den digitalen Technologien sehr viel effektiver organisieren als noch zuvor. Die ehemals an Koordinierungskosten scheiternde politische Organisation von Betroffenen werde zu einer konkreten Möglichkeit. Die Digitalisierung ermöglicht ebenfalls eine neue Hinwendung zu Europa. BürgerInnen aus ganz Europa treffen sich heute bei #Europe, #EUelections, #GDPR und Hunderten von anderen Kommunikationsknoten auf Twitter. Sie können individuelle Portfolios von Nachrichten gestalten, kommentieren, mit anderen online diskutieren und damit zu einem aktiven ProsumentInnen für Nachrichten und Debatten werden (Toffler 1980; vgl. auch Borucki und Oswald in diesem Band). Youtube, Twitter, Facebook und viele Online-Vertriebskanäle

120

A. Bendiek und J. Neyer

früherer Offline-Zeitungen beginnen das zu bilden, was in Europa in den letzten sechs Jahrzehnten fehlte: einen wirklich europäischen öffentlichen Raum, der weitaus lebendiger, vielfältiger und dynamischer ist als alles, was die europäische Demokratie bisher gesehen hat. Benkler erklärt diesen Prozess der Fusion zwischen der alten Offline- und der neuen Online-Welt als „die Grunderfahrung, andere, auch Fremde, als potentielle Kooperationspartner zu behandeln (was, bdk/JN) zu einer Verdickung des Gefühls möglicher sozialer Bindungen über bloße Mitkonsumenten standardisierter Produkte hinaus beiträgt. Die Peer-Produktion kann eine neue Domäne mit relativ dichten Verbindungen zu anderen Menschen in der Ferne schaffen“ (Benkler 2006, S. 466 f.). Der Vermutung, dass soziale Medien eine Kultur der Singularitäten (siehe oben) angeregt haben könnten, werden empirische Belege entgegengehalten, die darauf hinweisen, dass soziale Medien von Vielen genutzt werden, um in Verbindung zu bleiben und sich zu informieren und eben nicht primär zur Selbstdarstellung genutzt werden (Alloway et al. 2014). Online-Kommunikation trägt zur Offline-Entwicklung von Vertrauen, Identität und Kooperation bei (Sherman et al. 2013). Die sozialen Medien sind somit zunehmend die Räume, in denen mächtige transnationale Interessengruppen politische Aktivitäten organisieren und in die analoge Welt hinausreichen, um Menschen und Entscheidungen zu treffen. Die Digitalisierung der Gesellschaft ist daher nur sehr verkürzt als eine Verringerung von Verantwortungsübernahme in der Gesellschaft zu verstehen. Sie erlaubt so sehr den Rückzug in private Welten der Selbstbezüglichkeit und des Narzissmus wie die Entwicklung aktiver ProsumentInnen in einer zunehmend offenen Gesellschaft (Alloway et al. 2014; Sherman et al. 2013; Vossen et al. 2016). Die grundlegende Erfahrung, andere, auch Fremde, als potenzielle KooperationspartnerInnen zu behandeln, trägt in der souveränen digitalisierten Gesellschaft dazu bei, eine über bloße Marktbeziehungen und die Selbstdarstellung hinausgehende neue Qualität sozialer Bindungen zu ermöglichen.

5 Komplexe digitale Souveränität als Integrationsaufgabe Der Begriff der digitalen Souveränität dient in diesem Kapitel als begriffliche Orientierungshilfe für die Skizzierung wesentlicher Herausforderungen der digitalen Transformation und der Entwicklung von europäischen Antworten. Er

Europas digitale Souveränität …

121

greift die durch die Digitalisierung induzierten veränderten internationalen und innereuropäischen Rahmenbedingungen auf und setzt sich von allen Souveränitätsverständnissen ab, die lediglich seine interne oder seine externe Dimension betonen. Digitale ‚komplexe‘ Souveränität ist sowohl für die rechtliche und die politische als auch die gesellschaftliche Dimension von Souveränität offen und bezieht diese auf die Frage nach der Handlungsfähigkeit Europas in einem herausfordernden Umfeld. Die Stärke dieses Begriffes ist seine Sensibilisierung für die vielfachen Herausforderungen, denen Europa heute in der digitalisierten Umwelt gegenübersteht. Er wirft ein Schlaglicht auf die disruptiven Auswirkungen digitaler Innovationen, des Aufstiegs der digitalen Megakonzerne und der Einführung von KI und stellt diese in den größeren europapolitischen Kontext. Die Europäische Union ist mit der Herausforderung konfrontiert, ihr Marktmodell so umzustellen, dass menschliche Arbeit nicht ersetzt, sondern ergänzt wird, dass die Autonomie der menschlichen Entscheidungsfindung nicht infrage gestellt wird und dass die internationalen Rahmenbedingungen eine innerstaatliche Entwicklung erlauben, die im Einklang mit den europäischen Werten steht. Die digitale Souveränität Europas wird von entscheidender Bedeutung dafür sein, ob das marktwirtschaftliche Modell seine soziale Kompetenz behalten und ob die liberale Demokratie und die europäische Integration ihre Glaubwürdigkeit als probate Instrumente auf dem Weg zu einer besseren Gesellschaft behalten werden. Beide beruhen auf Verfassungsprinzipien, die das Versprechen einer fairen Regelung für alle Bürgerinnen und Bürger in sich tragen. Ihre Legitimität hängt davon ab, dass sie nicht nur Innovationen, sondern auch ein solides Maß an sozialer Stabilität liefern. Wenn dieses Versprechen unplausibel wird, wird Europa einen Großteil seiner Legitimität verlieren. Die Rechtsstaatlichkeit, die Grundsätze der liberalen Demokratie und die Menschenrechte werden in einigen Mitgliedstaaten bereits heute infrage gestellt. Es ist nicht abwegig zu spekulieren, dass weitere gesellschaftliche Fragmentierungen die Kritik der Autoritären an der liberalen Ordnung und der digitalen Öffnung der europäischen Gesellschaften fördern werden. Europa wird seine politischen Ressourcen bündeln müssen, um innere Einigkeit zu erzielen und damit die Vorbedingungen externer digitaler Souveränität zu realisieren. In einer immer schneller zusammenwachsenden digitalen Welt lassen sich Innen- und Außenpolitik genauso wenig mehr voneinander trennen, wie die Technologieund die Gesellschaftspolitik. Digitale Souveränität kann daher nur als komplexe Souveränität gedacht werden und stellt eine der zentralen Herausforderungen für den heutigen europäischen Integrationsprozess dar.

122

A. Bendiek und J. Neyer

Literatur- und Quellenverzeichnis Alloway, T., R. Runac, M. Qureshi, und G. Kemp. 2014. Is Facebook linked to selfishness? Investigating the relationships among social media use, empathy, and narcissism. Social Networking 3: 150–158. Anderson, B. 1983. Imagined communities: Reflections on the origin and spread of nationalism. London: Verso. Barlow, J.P. 1996. A declaration of the independence of cyberspace. Electronic frontier foundation. 8. Februar. https://www.eff.org/cyberspace-independence. Beck, U. 1986. Risikogesellschaft – Auf dem Weg in eine andere Moderne. Frankfurt a. M.: Suhrkamp. Becker, B. 2018. Your tax lady. Politico. Retrieved März 31, 2020, 6. November. https:// www.politico.com/newsletters/morning-tax/2018/06/11/your-tax-lady-248338. Bendiek, A., und M. Römer. 2019. Externalizing Europe: The global effects of European data protection. Digital Policy, Regulation and Governance 21 (1): 32–43. Bendiek, A., und M. Schallbruch. 2019. Europas dritter Weg im Cyberraum – Der Beitrag der neuen Cybersicherheitsverordnung. SWP Aktuell. https://www.swp-berlin. org/10.18449/2019A60/. Benkler, Y. 2006. The wealth of networks. How social production transforms markets and freedo. New Haven: Yale Univ Press. Benner, T. 2010. Technological sovereignty: Blind rage against the US is not enough. Global Public Policy Institute. Abrufbar unter https://www.gppi.net/2015/02/01/ technological-sovereignty-blind-rage-against-the-us-is-not-enough Biselli, A. 2019. Upload-Filter: Alle Demos auf einen Blick. Netzpolitik.org. 1. März https://netzpolitik.org/2019/upload-filter-alle-demos-auf-einen-blick/. BITKOM. 2015. Digitale Souveränität – Positionsbestimmung und erste Handlungsempfehlungen für Deutschland und Europa. BITKOM. https://www.bitkom.org/sites/ default/files/file/import/BITKOM-Position-Digitale-Souveraenitaet.pdf. Blum, S., M. Endreß, S. Kaufmann, und B. Rampp. 2016. Soziologische Perspektiven. In Studien zur Resilienzforschung, Hrsg. R. Wink. Wiesbaden: Springer Fachmedien Wiesbaden. Bradford, A. 2012. The Brussels effect. Northwestern University Law Review 107(1). Brunkhorst, H. 1997. Solidarität unter Fremden. Frankfurt a. M.: Fischer Taschenbuch. Bughin, J., E. Hazan, S. Ramaswamy, M. Chui, T. Alla, P. Dahlström, M. Trench. 2017. Artificial intelligence. The next digital frontier? McKinsey Global Institute. Juni. https:// www.mckinsey.com/~/media/McKinsey/Industries/Advanced%20Electronics/Our%20 Insights/How%20artificial%20intelligence%20can%20deliver%20real%20value%20 to%20companies/MGI-Artificial-Intelligence-Discussion-paper.ashx. Castells, M. 1996. The network society. The information age: Economy, society and culture, Bd. 1. Oxford: Blackwell. Centre for the New Economy and Society. 2018. The Future of Jobs Report. World Economic Forum. https://www3.weforum.org/docs/WEF_Future_of_Jobs_2018.pdf. Chace, C. 2018. Artificial intelligence and the two singularities. Boca Raton: Chapman & Hall. Council of Europe. 2019a. Unboxing artificial intelligence: 10 steps to protect human rights. https://www.coe.int/en/web/commissioner/-/unboxing-artificial-intelligence-10steps-to-protect-human-rights.

Europas digitale Souveränität …

123

Council of Europe. 2019b. Declaration by the committee of ministers on the manipulative capabilities of algorithmic processes (adopted by the Committee of Ministers on 13 February 2019 at the 1337th meeting of the Ministers' Deputies). https://www.coe.int/ en/web/artificial-intelligence. Das Europäische Parlament, & Rat der Europäischen Union. 2016. Richtlinie (EU) 2016/1148 DES Europäischen Parlaments und des Rates vom 6. Juli 2016 über Maßnahmen zur Gewährleistung eines hohen gemeinsamen Sicherheitsniveaus von Netz- und Informationssystemen in der Union. https://eur-lex.europa.eu/legal-content/ DE/TXT/PDF/?uri=CELEX:32016L1148&from=EN. Edwards, P.N. 2013. A vast machine – Computer models, climate data and the politics of gobal warming (Infrastructures). Cambridge: MIT Press. EUR-Lex. (n.d.). Regulation on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing directive 95/46/EC. Europ. Commission and Europ. External Action Serv. 2017. Resilience, Deterrence and Defence: Building strong cybersecurity for the EU, JOIN(2017)250 final. 13. September. European Commission. 2018. Artificial Intelligence for Europe – Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions. COM(2018) 237 final. European Commission. 2018. The hour of european sovereignty. 12. September https:// ec.europa.eu/commission/sites/beta-political/files/soteu2018-speech_en.pdf. European Commission. 2019. Ethics guidelines for trustworthy AI. High-level expert group on artificial intelligence. European Parliament, & Council of the European Union. 2019. DIRECTIVE (EU) 2019/790 of the European Parliament and of the Council of 17 April 2019 on copyright and related rights in the Digital Single Market and amending Directives 96/9/EC and 2001/29/EC. 17 Mai https://eur-lex.europa.eu/legal-content/EN/TXT/ PDF/?uri=CELEX:32019L0790 Farrell, H., und A. Newman. 2019. Weaponized interdependence: How global economic networks shape state coercion. International Security 44 (1): 42–49. Franke, E. 2019. Harnessing Artificial Intelligence. In Strategic Sovereignty: How Europe Can Regain the Capacity to Acr (ECFR Policy Brief, 2019) Hrsg. M. Leonard und J. Shapiro, 49–60. Friedman, T.L. 2007. The world is flat: The globalized world in the twenty-first century. London: Penguin Books. Gershenfeld, N., A. Gershenfeld, und J. Gershenfeld-Cutcher. 2017. Designing reality: How to survive and thrive in the third digital revolution. New York: Basic Book. Goldsmith, J., und T. Wu. 2008. Who controls the internet. Illusions of a borderless world. Oxford: Oxford University Press. Gräf, E., H. Lahmann, P. Otto. 2018. Die Stärkung der digitalen Souveränität: Wege der Annäherung an ein Ideal im Wandel, Diskussionspapier von iRights.Lab. Deutsches Institut für Vertrauen und Sicherheit im Internet – DIVSI. Mai. https://irights-lab.de/wpcontent/uploads/2018/05/Themenpapier_Souveraenitaet.pdf.

124

A. Bendiek und J. Neyer

Grimm, D. 2009. Souveränität. Herkunft und Zukunft eines Schlüsselbegriffs. Berlin: Berlin Univ. Press. Hillgruber, C. 2014. Die Souveränität der Staaten. Der Staat 53 (3): 475–493. Hofmann, J., N. Kersting, C. Ritzi, und W.J. Schünemann (Hrsg.). 2019. Politik in der digitalen Gesellschaft. Zentrale Problemfelder und Forschungsperspektiven. Bielefeld: Transcript. Ikenberry, G.J. 2018. The end of liberal international order? International Affairs 94 (1): 7–23. Johnson, K., und E. Groll (n.d.). The Improbable Rise of Huawei – How did a private Chinese firm come to dominate the world’s most important emerging technology? Foreign Policy2019. Retrieved Juli 7, 2019, https://foreignpolicy.com/2019/04/03/theimprobable-rise-of-huawei-5g-global-network-china/. Karidi, M., M. Schneider, und R. Gutwald. 2018. Resilienz. Interdisziplinäre Perspektiven zu Wandel und Transformation. Wiesbaden: Springer. Kaufmann, M. 2013. Emergent Self-Organisation in Emergencies: Resilience Rationales in Interconnected Societies, 53–68. Resilience: International Policies, Practices and Discourses. Kielmannsegg, P. 2003. Integration und Demokratie. In Europäische Integration, Hrsg. M. Jachtenfuchs und B. Kohler-Koch, 49–84. Wiesbaden: Springer Fachmedien Wiesbaden. Leonard, M. 2016. Interdependenz als Waffe. Die EU muss die Zeichen der geoökonomischen Zeit erkennen. Internationale Politik, 94–103 1. März. Leonard, M., und J. Shapiro. 2019a. Empowering EU member states with strategic sovereignty. European Council on Foreign Relations. https://www.ecfr.eu/page/-/1_ Empowering_EU_member_states_with_strategic_sovereignty.pdf. Leonard, M., und J. Shapiro 2019b. Strategic sovereignty: How Europe can regain the capacity to act. European Council on Foreign Relations. https://www.ecfr.eu/ publications/summary/strategic_sovereignty_how_europe_can_regain_the_capacity_ to_act. Marcus, J. 2019. What the Huawei battle tells us about US-China relations. BBC News. 25. Mai https://www.bbc.com/news/business-48397081. Maus, I. 2011. Über Volkssouveränität: Elemente einer Demokratietheorie. Frankfurt a. M.: Suhrkamp. Mueller, M. 2017. Will the internet fragment? Sovereignty, globalization, and cyberspace. Polity. Nassehi, A. 2019. Muster Theorie der digitalen Gesellschaft. Beck. Nye, J. 2011. The future of power. UK: Hachette. Ohmae, K. 1995. The end of the nation state: The rise of regional economies. New York: Simon & Schuster. Pariser, E. 2012. Filter Bubble: Wie wir im Internet entmündigt werden. München: Hanser. Perrow, C. 1999. Normal Accidents. Living with High-Risk Technologies. Princeton: Princeton Paperbacks. Reckwitz, A. 2017. Die Gesellschaft der Singularitäten. Berlin: Zum Strukturwandel der Moderne. Rethinking Strategic Autonomy in the Digital Age. 2019. European Commission – Strategic Note 30. 18. Juli https://wayback.archive-it.org/12090/20191129072400/

Europas digitale Souveränität …

125

https://ec.europa.eu/epsc/publications/strategic-notes/rethinking-strategic-autonomydigital-age_en. Romm, T., C. Timberg, und M. Birnbaum. 2018. Europe, not the U.S., is now the most powerful regulator of Silicon Valley. The Washington Post. 25. Mai. https://www. washingtonpost.com/business/technology/europe-not-the-us-is-now-the-most-powerfulregulator-of-silicon-valley/2018/05/25/f7dfb600-604f-11e8-8c93-8cf33c21da8d_story. html. Rühlig, T., J. Seaman, und D. Voelsen. 2019. 5G and the US–China tech rivalry – A test for Europe’s future in the digital age. SWP Comment 29. https://www.swp-berlin. org/10.18449/2019C29/. Scharte, B., und K. Thoma. 2016. Resilienz – Ingenieurwissenschaftliche Perspektive. In Multidisziplinäre Perspektiven der Resilienzforschung, Hrsg. R. Wink, 123–150. Wiesbaden: Springer VS. Schmitt, C. 1922. Politische Theologie – Vier Kapitel zur Lehre von der Souveränität. Berlin: Duncker & Humblot. Sherman, L.E., M. Michikyan, und P.M. Greenfield. 2013. The effects of text, audio, video, and in-person communication on bonding between friends. Cyberpsychology: Journal of Psychosocial Research on Cyberspace, 7 (2), Article 3. https://cyberpsychology.eu/ article/view/4285/3330. Snyder, J. 2019. The Broken Bargain – How nationalism came back. Foreign Affairs. https://www.foreignaffairs.com/articles/world/2019-02-12/broken-bargain. Stalder, F. 2016. Kultur der Digitalität. Berlin: Suhrkamp. Sunstein, C. 2007. Republic.com 2.0. Princeton Univ. Press. SVR. 2017. Digitale Souveränität – Gutachten des Sachverständigenrats für Verbraucherfragen. https://www.svr-verbraucherfragen.de/wp-content/uploads/Gutachten_Digitale_ Souver%C3%A4nit%C3%A4t_.pdf. Timmers, P. 2019a. Ethics of AI and cybersecurity. Minds & Machines 29: 635–545. Timmers, P. 2019b. Ethics of AI and cybersecurity when sovereignty is at stake. Minds and Machines 29: 1–11. Toffler, A. 1980. The third wave. New York. Virilio, P. 2009. Der integrale Unfall. In Die Unordnung der Dinge. Eine Wissens- und Mediengeschichte des Unfalls, Hrsg. C. Kassung. Bielefeld: Transcript. Vogel, D. 2009. Trading up: Consumer and environmental regulation in a global economy. Cambridge: Harvard University Press. Voss, A. 2020. Digital Autonomy. The Parliament. 17. März. https://www. theparliamentmagazine.eu/articles/opinion/digital-autonomy Vossen, H., G.M. Valkenburg, und M. Patti. 2016. Do social media foster or curtail adolescents’ empathy? A longitudinal study. Computers in Human Behavior 63: 118–124. Wimmer, A. 2019. Why nationalism works. And why it isn't going away. Foreign Affairs, 27–35. https://www.foreignaffairs.com/articles/world/2019-02-12/why-nationalismworks Wink, R. 2016. Multidisziplinäre Perspektiven der Resilienzforschung. Wiesbaden: Springer. Xiang, F. 2018. AI will spell the end of capitalism. The Washington Post. 5. März.

Zur Konstitution der digitalen Gesellschaft. Alternative Infrastrukturen als Element demokratischer Digitalisierung Sebastian Berg und Daniel Staemmler 1 Einleitung Techniken spielen im Bereich des Politischen eine konstitutive Rolle, indem sie Handlungen ermöglichen oder begrenzen sowie politische Prozesse und Akteure sichtbar machen. Dies wird in einem Bonmot von Niklas Luhmann deutlich: „Was wir über unsere Gesellschaft, ja über die Welt, in der wir leben, wissen, wissen wir durch die Massenmedien“ (1995, S. 5). Die Digitalisierung intensiviert die mediale Wahrnehmung gesellschaftlicher Wirklichkeit weiter, wobei nicht abzusehen ist, wie dieser Wandel sich auf die Gesellschaft und ihre politischen Verhältnisse auswirken wird. Hinsichtlich der sozialen Veränderungen gibt es mittlerweile eine ganze Reihe an Deutungsangeboten (etwa Nassehi 2019; Baecker 2018; Reckwitz 2017; Stalder 2016). Für die politischen Auswirkungen und vor allem ihre politiktheoretische Deutung kann dies nicht in gleichem Maße behauptet werden. Politische und vor allem demokratietheoretische Deutungsangebote

Wir bedanken uns herzlich bei den Herausgeber*innen, den Teilnehmer*innen des Workshops am CAIS in Bochum, Christian Volk und Laura Gorriahn für ihre hilfreichen Anmerkungen zu früheren Versionen dieses Beitrags. S. Berg (*)  Weizenbaum Institut für die Vernetzte Gesellschaft, Berlin, Deutschland E-Mail: [email protected] D. Staemmler  Humboldt-Universität zu Berlin, Berlin, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_7

127

128

S. Berg und D. Staemmler

zum Thema bleiben eher die Ausnahme (etwa Jacob und Thiel 2017). Demnach lässt sich konstatieren: „Die Sphäre der Technizität leidet unter Sprachnot, unter einem Kategoriendefekt“ (Blumenberg 2009, S. 27) auf dem Feld demokratischer Normativität. Es erscheint daher notwendig, den Prozess der Digitalisierung aus demokratischer Perspektive stärker ins Auge zu fassen und eine demokratietheoretische Sprechfähigkeit zu entwickeln. Wir argumentieren, dass die politische Theorie für die Deutung der digitalen Konstellation auf eine Erweiterung ihres Gegenstandsbereichs um die Prozesse der Technikentwicklung und -gestaltung angewiesen ist. Erst eine politiktheoretische Lesart der Konstitution digitaler Infrastrukturen erlaubt es, den digitalen Wandel an den andauernden Formwandel der Demokratie rückzubinden und Aussagen über die demokratische Qualität der Digitalisierung zu treffen. Dazu wollen wir an dieser Stelle einen Beitrag leisten. Zu Beginn problematisieren wir die Übersetzungsprobleme zwischen den Konzepten der Digitalisierung und der Demokratie, indem wir Überlegungen zum Digitalisierungsverständnis mit der Norm zur Verteilung von Kommunikationsmacht in Demokratien zusammenbringen (1). Über den Import einiger Konzepte der Science & Technology Studies erörtern wir in einem zweiten Schritt die politischen Qualitäten der Digitalisierung (2) Anhand des sozialen Mediums Mastodon illustrieren wir anschließend, inwiefern die Konstituierung kommunikativer Infrastrukturen digitaler Öffentlichkeit bereits als gestaltender, politischer Prozess zu verstehen und seine Wirkung auf die Verteilung von Kommunikationsmacht berücksichtigt werden kann (3). Abschließend gehen wir auf die Relevanz dieser Perspektive für die Analyse und Bewertung der Verteilung von Kommunikationsmacht im gegenwärtigen, digitalen Strukturwandel von Öffentlichkeit ein (4).

2 Übersetzungsprobleme zwischen Demokratie und Digitalisierung Nicht erst seit dem Aufkommen von Massenmedien und Digitalisierung sind moderne Gesellschaften von Technik durchdrungen. Es ist vielmehr grundsätzlich in über-lokalen Gemeinschaften der Fall, „that the social is constructed from, and through, technologically mediated processes and infrastructures of communication“ (Couldry und Hepp 2017, S. 1). Folglich ist die Organisation der Gesellschaft – die Vergesellschaftungsform und ihre politische Ordnungsbildung – immer bereits technisch bedingt. Gesellschaften entwickeln sich entlang der Anforderungen von Technologien, also in den durch technische Artefakte und Rationalitäten eröffneten Möglichkeitsräumen sozialen und politischen

Zur Konstitution der digitalen Gesellschaft …

129

Handelns – den Affordanzen, die sich wiederum aus dem Zusammenspiel von Schlüsselfunktionen und dem Nutzungskontext ergeben, indem sie realisiert werden (Hutchby 2001, S. 444; vgl. Latour 2017, S. 124; Reckwitz 2017, S. 225). Hinzu tritt zweitens der Anspruch moderner Politik auf die Kontingenz der Vergesellschaftung. Indem „nicht sein muß, was ist“ (Blumenberg 1987, S. 57; vgl. Greven 1999), erhebt ein modernes Denken des Politischen den Anspruch auf eine zumindest relative Gestaltung sozialer Verhältnisse.1 In demokratischen Gesellschaften ergibt sich zudem die Besonderheit, dass nicht allein die technischen Möglichkeiten, sondern auch spezifische normative Anforderungen den Prozess sozialer Gestaltung strukturieren. Das Kontingenzbewusstsein als Bedingung moderner Politik korreliert daher nicht zufällig mit Formen demokratischer Legitimation. Es offeriert mit dem Selbstregierungspostulat der BürgerInnen einen normativen Maßstab für die Gestaltung gesellschaftlicher Verhältnisse und Institutionen. Das neuzeitliche politische Denken reflektiert diesen Zusammenhang insbesondere in der Dimension der Öffentlichkeit, wo er konstitutiven Eingang findet in liberal-demokratische Traditionen. Die mediale Seite dieser Beziehung wird dazu vor allem in der Bedeutung des Buchdrucks und der Entwicklung von Pressewesen und Massenmedien als Entstehungsbedingung und Infrastruktur der Demokratie thematisiert, die sich gewissermaßen ko-konstitutiv mit politischen Handlungsweisen und demokratischer Normativität entwickeln – der räsonierende Bürger (leider weniger die Bürgerin*) hat sich dem kollektiven Imaginären klassischerweise als aufmerksamer Zeitungsleser eingeprägt (Rosanvallon 2017a; Anderson 1991; Habermas 1962). Kritische Zeitdiagnosen zur Digitalisierung beziehen sich daher häufig auf diese Dimension des Politischen, da die Kommunikationsstrukturen von Öffentlichkeit besonders deutlichen Veränderungen unterliegen. Etwaige Problemfelder sind die Fragmentierung der Öffentlichkeit (Sunstein 2007), das Problem personalisiert-selektierter Filterblasen (Pariser 2011), die Ökonomisierung von einst (zumindest dem Anspruch nach) rational ausgerichteten Nachrichtenwerten zur Bestimmung medialer Relevanz von Nachrichten (Helbig 2018; Lischka und Stöcker 2017, S. 19 ff.) oder die chillingEffekte aufgrund des politisch-ökonomischen Überwachungskomplexes (Hintz und Milan 2018). Ein digitaler Strukturwandel von Öffentlichkeit ist angesichts der

1Programm

und Geschichte der Sozialdemokratie legen vor dem Hintergrund der Industrialisierung eindrucksvoll Zeugnis darüber ab, wie umfassend und tief greifend die Verbindung aus den Möglichkeiten der Technik und den politischen Gestaltungsabsichten und -fähigkeiten bisweilen zu sein vermag.

130

S. Berg und D. Staemmler

vielfältigen Diagnosen nicht von der Hand zu weisen, das große Bild bleibt über die Einzelphänomene hinaus jedoch unterbestimmt. Damit gerät außer Acht, dass eine auf (gute wie schlechte) Ergebnisse der Digitalisierung fokussierte Betrachtung die konstitutive Gestaltbarkeit sozialer Institutionen durch die Externalisierung des Technischen entpolitisiert – und sie damit einer angemessenen demokratietheoretischen Bewertung entzieht (Berg et al. 2020; Kaufmann und Jeandesboz 2017). Nicht allein die Folgen der Digitalisierung gilt es zu reflektieren, sondern vor allem ihren Vollzug als politischen Prozess, die „Anerkennung des geschichtlich geschaffenen Charakters der Institution“ (Castoriadis 1990, S. 333). Unser Beitrag fokussiert daher weniger eine Charakteristik digitalisierter Öffentlichkeit, sondern arbeitet vielmehr eine perspektivische Erweiterung heraus. Diese besteht darin, dass durch den auch technisch induzierten Formwandel der Demokratie die Veränderung medialer Strukturen wieder einer politischen Lesart zugeführt werden muss, will man das demokratische Postulat sozialer Vergesellschaftung ernst nehmen. Technische Bedingtheit als blinder Fleck der Demokratietheorie An dieser Stelle kann Nadia Urbinatis repräsentationstheoretischer Ansatz paradigmatisch herangezogen werden, da sie einerseits die auch technisch bedingten Ungleichgewichte im Formwandel der Demokratie zu befragen sucht, andererseits in der medial verkürzten Lesart der Disziplin verharrt. Für Urbinati lassen sich gegenwärtige Disfigurationen2 moderner Demokratien auf Verzerrungen in der öffentlichen Sphäre zurückführen, die mit der Sphäre institutionalisierter Verfahren die beiden tragenden Säulen repräsentativer Demokratie bilden. In der öffentlichen Sphäre üben BürgerInnen Souveränität aus, indem sie von ihrem Recht auf freie Rede und Meinungsäußerung Gebrauch machen. Sobald über Medien, in Versammlungen und weiteren Kommunikationsprozessen Bedeutungen von Sachverhalten ausgehandelt, Ideen ausgetauscht und politische Urteile gefällt werden, leistet die öffentliche Sphäre soziale Integration, fördert die Politisierung von Konflikten ebenso wie die kritische Beurteilung der RepräsentantInnen in politischen Institutionen (Urbinati 2014, S. 40 ff.; vgl. Thaa 2012, 2013). Demokratische Souveränität äußert sich demnach sowohl in Wahlen als auch über den anhaltenden Wettstreit zwischen öffentlich geäußerten politischen Urteilen. Um diese Funktionen der öffentlichen Sphäre zu garantieren, bemüht Urbinati die Norm eines maximalen Verteilungsprinzips von Kommunikationsmacht,

2Als

Disfigurationen moderner Demokratien arbeitet Urbinati in Democracy Disfigured (2014) die Vereinnahmungen der öffentlichen Sphäre für epistemische, populistische und plebiszitäre politische Projekte aus.

Zur Konstitution der digitalen Gesellschaft …

131

das sie allgemein definiert als „the possibility that all citizens should have to participate in the formation, manifestation, and exposition of these views“ (2014, S.  59). Kommunikationsmacht bezieht sie im Anschluss an John Rawls auf die in einer Demokratie notwendige Fähigkeit, über den Zugang zu Informationen eine Meinung auszubilden und diese gegenüber MitbürgerInnen, RepräsentantInnen und Institutionen in gestaltender Absicht zu kommunizieren. Während für den Bereich der Willensausübung das allgemeine und gleiche Wahlrecht eine umfassende Gleichheit formalisiere, sei dies in der Sphäre öffentlicher Meinungsbildung nicht gegeben (Urbinati 2014, S. 53, 59; vgl. Rosanvallon 2017b, S. 47 f.). Die Ungleichheit sozialer Verhältnisse führe zu einer Ungleichheit in öffentlicher Beteiligung und der Kommunikation von Ideen. Das Prinzip der größtmöglichen Verteilung von Kommunikationsmacht soll den daraus entstehenden Machtungleichgewichten und -konzentrationen entgegenwirken und egalitäre Ausgangsbedingungen für die Beteiligung der BürgerInnen an der Formierung, Kundgebung und Darstellung voneinander abweichender Meinungen garantieren (Urbinati 2014, S. 59).3 Dabei gehe es nicht um die Bedeutung der individuellen Ausdrucksfreiheit, sondern um die damit einhergehende kollektive Handlungskomponente in der Gestaltung des Gemeinwesens: „The issue at stake today is not that of free speech as the right of the individual but of free speech as participation in making democracy work“ (Urbinati 2014, S. 52; vgl. Plotke 1997). Urbinati führt zwei Kriterien an, welche für die demokratische Ausprägung von Kommunikationsmacht ausschlaggebend sind: Responsivität (responsiveness) und Chancengleichheit (equal opportunity) (ebd., S.  65). Institutionen und gewählte VertreterInnen sollten also einerseits ansprechbar sein und auf die Beiträge und Eingabe ihrer BürgerInnenschaft reagieren. Andererseits gilt die gleichmäßige Chance, zu sprechen, gehört und anerkannt zu werden als Prämisse für die Teilhabe der BürgerInnen an der Bestimmung der politischen Agenda und der Kontrolle von RepräsentantInnen und Institutionen. Gemeinsam wirken beide Kriterien darauf hin, das kommunikative, aufeinander bezogene Handeln in demokratische Kommunikationsmacht zu übersetzen. In ihrer Darstellung der Ungleichheiten öffentlicher Beteiligung erwähnt Urbinati zwar die materiellen Bedingungen demokratischer Politik, also die konkreten Umstände der Meinungsbildung, wenn sie anführt, dass „opinion does not rest merely on voice and the choice of the individual to use it. The rights to

3„The

domain of political opinion requires strategies of control similar in kind to those that constitutional democracy has adopted in order to regulate the actuating power of will“ (Urbinati 2014, S. 65).

132

S. Berg und D. Staemmler

free speech and freedom of opinion are exercised with the help of technical tools, and this material indirecteness is primed to become a new source of inequality“ (2014, S. 60; Herv. i. Original).4 Allerdings beschränkt sich ihre Kritik an der materiellen Bedingtheit letztlich auf die ökonomische Verfügungsmacht als „Pathologie der politischen Kommunikation“ (Habermas 2008, S. 180 f.; vgl. Urbinati 2014, FN 144) und ignoriert die Strukturierungsleistung technischer Architekturen. Wenn aber zwischen den Eigenheiten unterschiedlicher Formen medialer Durchdringung, etwa aufgrund des Buchdrucks einerseits und des Smartphones andererseits, nicht unterschieden werden kann, bleibt ihr Begriff der Kommunikationsmacht zu unscharf, um die Spezifika und Herausforderungen des digitalen Wandels zu erfassen und zu bewerten. Die Kommunikationsmacht der öffentlichen Sphäre mag unformalisiert sein, unformiert ist sie jedoch nicht (Hofmann 2019a). Die formgebende Dimension technischer Infrastrukturen muss daher demokratietheoretisch in den Blick genommen werden – was wir im Folgenden unternehmen. Von Kommunikationsmacht zu Konstitutionsmacht Die Digitalisierung von Öffentlichkeit zeichnet sich gerade dadurch aus, dass bestehende Institutionen und die mit ihnen verschränkten, technisch-materiellen Zusammenhänge sich auflösen, reformiert oder ergänzt werden. Hybride Mediensysteme, in denen „newer media practices in the interpenetrated fields of media and politics adapt and integrate the logics of older media practices“ (Chadwick 2013, S. 4; Herv. i. Original), verändern die impliziten Ausgangsbedingungen demokratietheoretischer Überlegungen. Die hier erwähnten Integrations- und Adaptionsprozesse selbst nehmen wir als politische Prozesse in den Blick, in welchen Institutionen der Meinungsbildung und Urteilsfindung konstituiert werden. Die Dimension der Kommunikationsmacht ist folglich ergänzt um die „material infrastructures, through which, and on the basis of which, communications today take place“ (Couldry und Hepp 2017, S. 6). Damit wird die technische Infrastruktur der Öffentlichkeit als politischer Handlungsraum erkennbar, der gestaltet werden will. Insofern muss Kommunikationsmacht hier auch im Sinne einer Konstitutionsmacht gedacht werden.

4Unter

diese Bedingungen werden auch die technischen Voraussetzungen von Kommunikation als entscheidender Faktor subsumiert: „The technological medium that steps in between the right to free speech and the actual ‘visibility’ of opinions is a crucial factor that adds to the uniqueness of representative democracy as a government by opinion“ (Urbinati 2014, S. 60 f.).

Zur Konstitution der digitalen Gesellschaft …

133

Diese perspektivische Erweiterung lässt sich für den vorliegenden Gegenstand in analoger Anlehnung an Manuel Castells als networking making power ausdeuten. Castells unterscheidet für die globale Netzwerkgesellschaft vier Dimensionen von Macht. Unterschieden wird so zwischen der network power von Standards und Protokollen, welche die Form von Nachrichten prägen; der networking power als Macht des Ein- bzw. Ausschlusses von inkludierten Akteuren über noch nicht im Netzwerk befindliche Akteure; und networked power als der Macht von einem spezifischen Knotenpunkt über andere. Insbesondere hebt er jedoch die networking-making power hervor, die „capacity to set up and program a network“ (Castells 2009, S. 42), welche er von den anderen Machtformen abgrenzt. Für Castells stellt sie die „most crucial form of power“ (ebd., S. 45) dar, die als konstituierende Machtform wirksam wird und die Möglichkeit mit sich bringt, die Bedingungen und Institutionen für andere Handlungsund Machtformen zu etablieren. Sie baut Vernetzung auf, schreibt Vorstellungen und Ziele in Institutionen, beispielsweise in das verbindende Netzwerkprotokoll, ein und kann insofern als Institutionen konstituierende Dimension der Macht verstanden werden. Übersetzt man Castells Metapher des Netzwerks dann als Umschreibung der institutionalisierten Öffentlichkeit, so wird deutlich, dass demokratische Kommunikationsmacht nicht auf die immanenten Dimensionen der networking power und networked power beschränkt werden kann – die Macht in einem gegebenen Netzwerk –, sondern um jene der network-making power ergänzt werden muss. Daraus folgt, dass – nimmt man die Notwendigkeit demokratischer Machtausübung ernst – nicht nur die immanente Verteilung von Kommunikationsmacht in einer technisch gegebenen Öffentlichkeit, sondern auch die aus der Digitalisierung resultierende Konstitutionsmacht zur Einrichtung neuer Verhältnisse den Prinzipien der Responsivität und Chancengleichheit unterworfen ist. Die Digitalisierung gerät dann in ihrer rechtfertigungsbedürftigen Politizität in den Blick, und die Verteilung von Macht im Konstitutionsprozess der digitalen Infrastrukturen wird zu einer relevanten Frage für die Konfiguration von Öffentlichkeit. Um sie zu beantworten, erscheint es notwendig, die technischen, oftmals unter den Benutzeroberflächen und Kommunikationsinhalten verborgenen Infrastrukturen von Kommunikation konzeptuell greifbar zu machen.

3 Infrastrukturelle Inversion Die demokratietheoretische Betrachtung benötigt eine infrastrukturelle Inversion, d. h. die implizit und unsichtbar gewordenen Ressourcen von Praxis müssen in den Vordergrund gerückt und sichtbar gemacht werden, um die Veränderungen von

134

S. Berg und D. Staemmler

Öffentlichkeit in der digitalen Konstellation entsprechend erfassen und bewerten zu können (Star 2017, S. 423). Ein geeignetes Vokabular für Untersuchungen zum Zusammenhang zwischen Kommunikationsprozessen und -infrastrukturen und deren Konstitution bieten die Science & Technology Studies (Latour 1990; Winner 1980). Ebenso wie die neuere Techniksoziologie (Dolata 2011; Rammert 2016), folgt dieser Forschungsbereich der Überzeugung, dass das Verhältnis von Gesellschaft und Technikentwicklung weder auf einen Technikdeterminismus noch eine einseitige soziale Prägung von Technik reduzierbar ist. Aus der Perspektive der Koproduktion wird stattdessen das konstitutive Wechselverhältnis von Gesellschaft und Technik betont. So tritt hervor, wie Normen und Werte in das Design technischer Verfahrensweisen eingeschrieben werden und deren Anforderungen das Verfahren mit Technik ermöglichen, strukturieren und einschränken (Jasanoff 2004, S. 2 f.). Materielle Kommunikationsstrukturen lassen sich so als Institutionalisierungen politischer Aushandlungs- und Gestaltungsprozesse verstehen und für politiktheoretische Deutungen anschlussfähig machen. Die Prozesse, aus denen Infrastrukturen digitaler Kommunikation hervorgehen, konzeptualisieren wir als Praktiken, welche Technikverwendung organisieren. Soziale Praktiken sind jene „know-how abhängige[n] und von einem praktischen ‚Verstehen’ zusammengehaltene[n] Verhaltensroutinen“ (Reckwitz 2003, S. 289), die von Subjekten mithilfe inkorporierter Kompetenzen und Wissensbestände bewältigt werden. Technische Verfahren und Artefakte werden erst in ihrem sinnhaften Gebrauch durch individuelle, kollektive und korporative Akteure, also sowohl durch ihre faktischen Vorgaben als auch das Verstehen ihres Gebrauchs, zum Teil dieser Praktiken (Sterne 2003, S. 385). Kommt es in der Wiederholung dieser eingeübten Routinen zu Irritationen, etwa infolge von Technik- oder Kompetenzwandel, stehen die Konventionen der Technikverwendung zur Disposition. Technikentwicklung erfolgt aus dieser Perspektive im Modus eines iterativen, nicht-linearen Prozesses, in dem immer wieder Richtungsentscheidungen getroffen werden. Den Bezugspunkt dieser Entscheidungen bilden mit Blick auf digitale Öffentlichkeiten Infrastrukturen, die über die Gestaltungspraktiken der Entwicklung, Aufrechterhaltung und Nutzung5 geschaffen und geprägt werden. Infrastrukturen lassen sich allgemein fassen als jene ständig verfügbaren Ressourcen, Werkzeuge und Artefakte, die den kollektiven Praxisvollzug unterstützen und auf Dauer durch diesen Vollzug bestimmt werden (Star 2017, S. 422 ff.).

5Im

Detail ist sicherlich eine Vielfalt weiterer Praktiken zu berücksichtigen. Im Sinne einer Eingrenzung dienen die hier genannten Praktiken jedoch als basale Heuristik für unsere Deutung.

Zur Konstitution der digitalen Gesellschaft …

135

Sie zeichnen sich durch einen modularen, vielschichtigen Aufbau und somit ein hohes Maß an Komplexität aus, das in konkreten Verwendungssituationen oftmals verborgen bleibt. Bei der Verwendung von digitalen Endgeräten und den Diensten des Internets greifen NutzerInnen notwendig auf technische Infrastrukturen zurück, die wiederum neue oder veränderte Formen von Kollektivität hervorbringen. In Analogie zu den Marktplätzen des 19. Jahrhunderts wird auch bei digitalen Versammlungen von „Infrastrukturen des Kollektiven“ (Stäheli 2012) gesprochen. Mithilfe von Protokollen und Anwendungen verhelfen digitale Infrastrukturen dabei, Ordnung in die Unordnung des Internets zu bringen (vgl. Stalder 2016, S. 116). Jenseits dieser Ermöglichung führen sie aber auch zu neuen Formen der Regulierung sowie der sozialen Kontrolle (Hofmann 2019b: 3). Wie die. Wie die anhaltende öffentliche Debatte um soziale Medien illustriert, werden Infrastrukturen immer dann zum Gegenstand der Aushandlung, wenn Missverhältnisse zwischen den eingeschriebenen Normen und Werten und den jeweiligen Verwendungsweisen entstehen. Normen und Werte, verstanden als die gesellschaftliche Dimension in der soziotechnischen Gestaltung digitaler Infrastrukturen, treten insbesondere in diskursiven Bedeutungszuschreibungen und Zukunftserwartungen hervor, die sich auf technische Verfahren beziehen. In Aushandlungs- und Entscheidungsprozessen werden demnach soziotechnische Imaginäre deutlich (Jasanoff 2015). Solche Imaginäre lassen sich mit Sheila Jasanoff verstehen als „understandings of forms of social life and social order attainable through, and supportive of, advances in science and technology“ (2015, S. 4). Sie mögen der Vision Einzelner entspringen, erreichen ihren Status als soziotechnische Imaginäre allerdings erst, wenn sie von einem Kollektiv geteilt werden. Denn aus der Koproduktion digitaler Technologien in der Gesellschaft folgen normative Vorstellungen sowohl über die damit verbundenen Formen soziotechnischer Ordnung als Erwartungen an den technischen Fortschritt als auch Befürchtungen über dessen Schattenseiten (ebd.). In modernen, differenzierten Gesellschaften sind somit multiple, nebeneinander existierende Imaginäre zu erwarten. Die Digitalisierung als politischer Prozess Die Konzepte der Praktiken, Infrastrukturen und soziotechnischen Imaginäre erweitern das begriffliche wie konzeptuelle Repertoire für die Deutung der Strukturen digitaler Kommunikation. Sie eröffnen darüber hinaus die Möglichkeit, den digitalen Wandel als politischen Prozess analytisch zu sortieren, der sich grob in drei Ebenen gliedern lässt. Erstens verdeutlicht die Geschichte des Internets beispielhaft, wie die Digitalisierung durch Politik und Recht gerahmt wird. Der digitale Wandel verläuft immer auch unter dem Einfluss transnationaler

136

S. Berg und D. Staemmler

Governance, staatlicher Rechtsrahmen und gesetzlicher Regulierungen, an deren Koordinations- und Aushandlungsprozessen staatliche, wissenschaftliche und zivilgesellschaftliche Akteure beteiligt sind (Clarke 2016; Goldsmith und Wu 2006; Mueller 2002). Angesichts des daraus entstandenen, vielschichtigen Institutionenensembles der Internet Governance gilt die vermeintliche These einer Unregierbarkeit des Internets gemeinhin als obsolet. Initiativen zur Regulierung der Plattformökonomie wie auch der Techniken des machine learning auf europäischer wie nationaler Ebene verweisen indessen darauf, dass dies auch für weitere digitale Technologien behauptet werden kann. Die politische Qualität der Digitalisierung offenbart sich jedoch nicht allein in der Auseinandersetzung über diesen Wandel in Parlamenten, Gerichtssälen und Massenmedien. Vielmehr – und dies ist die zweite Ebene – wird sie auf verschiedenste Art und Weise in Gang gesetzt, wenn Technologien, Dienste und Anwendungen entwickelt, modifiziert und genutzt werden. Über diese Praktiken werden soziotechnische Imaginäre in technische Sprachen übersetzt und erfahren dabei eine Autorität, die oftmals hinter der Faktizität des Technischen verborgen und unhinterfragt bleibt (Feenberg 2017, S. 57).6 Entgegen der Rede von der einen verdinglichenden, instrumentellen Vernunft schreiben sich so spezifische Logiken in Technik ein. Insofern dabei soziale Ungleichheiten und Diskriminierungsformen perpetuiert werden, zeitigen technische Verfahren und Artefakte eben solche Herrschaftseffekte. Wiederum mit Blick auf soziale Medien setzt diese „governance by platforms“ (DeNardis und Hackl 2015) sich nicht nur aus dem Setzen von policies durch Privatunternehmen und der internen Praxis der Inhaltsregulierung zusammen, sondern beginnt bereits bei der technischen Gestaltung, etwa in Form des User Experience Design (Mühlhoff 2018). Neben der diskursiven Auseinandersetzung über Technikgestaltung werden bei der Konstituierung von Technologien, Diensten und Anwendungen also vielfältige Politiken der Digitalisierung realisiert. Zugleich unterliegen sie der „interpretative flexibility“ (Pinch und Bijker 1984, S. 420) derer, die sie verwenden. Dies schließt das Potenzial der Politisierung eben solcher Herrschaftseffekte im Zeichen abweichender Imaginäre und Ordnungsvorstellungen ein. Ebenso müssen die Normentwicklung und die Modifizierung von soziotechnischen Imaginären im Rahmen der Nutzungspraxis berücksichtigt

6Ein

weitreichendes Beispiel bildet die im Silicon Valley verbreitete Überzeugung, soziale Missstände und Probleme seien nicht mehr durch politische Institutionen, sondern rein technisch lösbar, welche Evgeny Morozov als technologischen Solutionismus bezeichnet hat (2013; vgl. Nachtwey und Seidl 2017).

Zur Konstitution der digitalen Gesellschaft …

137

werden (Kennedy et al. 2016, S. 154; Van Dijck 2012, S. 172). An Artefakten können sich demnach Konflikte um deren soziotechnische Gestaltung und die Organisation von Kommunikationspraktiken entzünden. Drittens erachten wir die Digitalisierung als einen umkämpften Prozess und somit als Terrain des Politischen, weil deren Auseinandersetzungen über einzelne Objekte hinausgehen. Neben der Ausweitung der „mass self-communication“ (Castells 2009, S. 55) mit der ständigen Möglichkeit, ein globales Publikum zu erreichen, umfasst die Digitalisierung von Kommunikation ebenfalls die ubiquitäre Verfügbarkeit nicht nur von digitalen Artefakten und Werkzeugen sondern auch von Standards und Ressourcen. Indem so die Schranken für die produktiv-populäre Aneignung digitaler Infrastrukturen sinken, zeichnet sich Digitalisierung durch eine Entgrenzung der Möglichkeitsstrukturen für Praktiken der Mediennutzung und -gestaltung aus (Feenberg 2017, S. 54 ff.).7 Ermöglicht wird damit das „argument-by-technology“ (Kelty 2005, S. 187) um die soziotechnische Gestaltung digitaler Kommunikation. Die Konstitution – das Entwickeln, Bereitstellen und mitunter Nutzen – digitaler Kommunikationsinfrastrukturen bildet hierbei eine Positionierung, weil über die materielle Institutionalisierung soziotechnischer Imaginäre jeweils unterschiedliche Kommunikationsräume und Möglichkeitsbedingungen präfiguriert werden. Neben den bereits angesprochenen, nahezu als selbstverständlich geltenden Räumen digitaler Kommunikation wie Facebook oder Twitter entstehen so auch Alternativen, die es zu berücksichtigen gilt.

4 Mastodon als ein Projekt der Dezentralisierung Im Folgenden wollen wir anhand einer Alternative exemplarisch illustrieren, wie sich Kommunikationsmacht als Konstitutionsmacht innerhalb dieser Infrastruktur verteilt und weshalb bereits die technische Dimension der Institutionalisierung für eine demokratietheoretische Deutung der Digitalisierung heranzuziehen ist. Mastodon dient uns als Ausgangspunkt, um ein erstes, exploratives Schlaglicht auf die Konstitution digitaler Kommunikationsinfrastrukturen zu werfen. Der

7Aus

der Verfügbarkeit lässt sich keineswegs die Reichweite der hier beschriebenen Aneignungen oder die gewählten Strategien ableiten. Die anhaltende Diffusion des Internets und freier Software sowie die fortschreitende Vereinfachung ihrer Nutzung erlauben unseres Erachtens jedoch die Annahme einer zunehmenden Aneignung und Gestaltung alternativer Infrastrukturen.

138

S. Berg und D. Staemmler

Dienst wurde im Oktober 2016 von Hauptentwickler Eugen Rochko veröffentlicht, bietet seitdem eine freie Alternative zu Twitter und verfügt im November 2019 über insgesamt ca. 2,2 Mio. Profile. Diese Zahl erscheint gegenüber den etwa 335 Mio. Twitter-Accounts verschwindend gering. Allerdings gewinnt der Dienst zum einen immer dann schubweise NutzerInnen, sobald es auf anderen Plattformen zu Änderungen der Nutzungsbedingungen und der Praxis der Inhaltsregulierung kommt. Zum anderen bindet Mastodon im Kontext alternativer, auf Open Source basierender Social-Media-Projekte die weitaus meisten NutzerInnen.8 Darüber hinaus implementiert das Projekt ein Protokoll, das den Austausch von Inhalten mit weiteren Diensten erlaubt, und bleibt damit anschlussfähig für zukünftige Projekte. Unsere Deutung orientiert sich an den Gestaltungspraktiken der Nutzung, des Betriebs und der Entwicklung. Anhand dieser Ebenen veranschaulichen wir die jeweiligen Bezüge zu soziotechnischen Imaginären und digitalen Infrastrukturen, um anschließend die Verteilung von Konstitutionsmacht zu diskutieren. Das Material hierzu bilden öffentlich zugängliche Dokumente und Interviews. Nutzen, Betreiben und Entwickeln Für die kommunikative Praxis der NutzerInnen von Mastodon unterscheidet sich der Dienst kaum von seinem Vorbild und ist ebenso um zwei zentrale streams konzipiert. Der erste Strom enthält die Inhalte anderer Profile, auf die reagiert oder denen eigene Inhalte hinzugefügt werden können. Demgegenüber basiert der andere Strom auf dem eigenen Profil und enthält allein die selbstproduzierten Inhalte (Paßmann 2018, S. 14). Auch die Gestaltung lehnt sich an die ehemals beliebte Anwendung TweetDeck an. Praktiken wie das Veröffentlichen, Weiterleiten, Ansprechen, Suchen oder gar Blockieren werden auf Mastodon durch zusätzliche Optionen und Eigenschaften, wie etwa content warnings und weitere Filter differenziert. Für die Nutzungspraxis stellt Mastodon also eine digitale Infrastruktur dar, die die Vernetzung und Kommunikation mit Bekannten wie Unbekannten ohne unmittelbare, formale oder thematische Eingrenzungen ermöglicht. Abseits einer etwas höheren maximalen Nachrichtenlänge von 500 Zeichen und deutlich differenzierteren Sichtbarkeitseinstellungen für eigene Inhalte hält der Dienst auf den ersten Blick kaum tief greifende Unterschiede zu Twitter bereit.

8Einen

statistischen Überblick über aktuell verfügbare Dienste, die sich dem Prinzip der Dezentralisierung bzw. der Föderation von nutzergenerierten Inhalten verschreiben, bietet die Webseite www.the-federation.info.

Zur Konstitution der digitalen Gesellschaft …

139

Tatsächliche Differenzen offenbaren sich eher auf der Ebene des Betreibens: Während Twitter als börsennotiertes Unternehmen ein zentrales Management für Daten und Community betreibt, verteilen sich diese Betriebsmaßnahmen bei der Alternative auf das Fediverse, eine globale, dezentrale Serverinfrastruktur von über 2500 Instanzen. Diese Instanzen sind über ActivityPub, ein gemeinsames W3C-standardisiertes Protokoll, miteinander verbunden. Prinzipiell werden zwischen den Instanzen nur jene Inhalte synchronisiert, die die NutzerInnen über ihre Abonnements und Interaktionen abrufen, was zu einer Verteilung der Rechenlast und Datensparsamkeit führt. Jede Instanz verfügt über AdministratorInnen und ModeratorInnen, wie auch individuelle, gestalterische und technische Modifikationen, eigene Community-Richtlinien und mitunter schwarze Listen für Server, deren Inhalte nicht übertragen werden, etwa weil sie Spam, nicht-jugendfreie Inhalte oder diskriminierende Inhalte erlauben. Geleitet wird der Betrieb der Instanzen von der Imagination digitaler Infrastruktur als Gemeinschaftswerkzeug. Wie es einer der Betreiber der Instanz chaos.social ausdrückt, sei es „die Idee, eine Community […] zu schaffen […], offen für vieles weitere, um das eigene Weltbild zu erweitern“ (rixx 2018). Die Dezentralisierung wird als Vorteil begriffen, weil sie einerseits den Betrieb kultur-, sprachoder themenspezifischer Server ermöglicht, ohne diese von der Außenwelt abzuschließen und andererseits das community management, also die Moderation problematischer oder illegaler Inhalte anhand eigens gesetzter Regeln, in die Hände der jeweiligen Gemeinschaften selbst legt: „On Mastodon, […] you have your community of your neighbors on the same node who would report spam and bad content and there is this communal way of solving“ (Rochko 2018). Für die Moderation liefert Mastodon ein differenziertes System mit Verwarn-, Blockierund Löschoptionen. Zu der Dezentralisierung des technischen Betriebs tritt also auch die horizontale wie vertikale Verteilung der Inhaltsregulierung. Die Folge dieser selbstbestimmten Synchronisation und Regelsetzung der Instanzen ist ein starker Binnenpluralismus innerhalb des Mastodon-Netzwerks. NutzerInnen können sich ihre Instanz, die damit verbundenen Regeln und Gemeinschaften bewusst aussuchen. Markiert wird ihre Heimatinstanz bereits in ihrem handle: Anstelle von ‚@nutzerin‘ werden diese nach dem Schema ‚@[email protected]‘ vergeben. Instanzen bieten meist verschiedene Möglichkeiten für individuelle Beteiligung. Zugleich können MastodonNutzerInnen ihre Instanz ohne Verluste wieder verlassen, weil das gemeinsame Protokoll und eine Datenimport und -export-Funktion zusammen Interoperabilität ermöglichen. Unterhalb dieses Binnenpluralismus offenbart der Blick auf die Entwicklung von Mastodon die grundlegende Vorstellung des Dienstes und seiner Software

140

S. Berg und D. Staemmler

als „public utility“ (Rochko 2018). Rochko nennt die Free/Libre Open Source Software (FLOSS) Bewegung als Vorbild und verbindet mit seiner Tätigkeit den Wunsch nach möglichst langlebiger Software für digitale Kommunikation. Daher erfolgt die Softwareentwicklung mithilfe der Plattform GitHub und dezidierten Chaträumen, die es Rochko und über 500 weiteren Beteiligten ermöglichen, gemeinsam am Programmcode zu arbeiten und dessen Eigenschaften zu diskutieren. Weiter orientiert sich die Entwicklung an den Debatten im zugehörigen Diskussionsforum und Rochkos Austausch auf der von ihm betriebenen Instanz mastodon.social. Wie auch Twitter basiert die Alternative auf offener Software, jedoch verfügt sie über eine uneingeschränkte Programmierschnittstelle (API), die es DrittanwenderInnen ermöglicht, für eigene Anwendungen auf den Dienst zuzugreifen. Der Quellcode steht vollständig unter einer GNU Affero General Public License (AGPL) frei zur Verfügung. NutzerInnen und Interessierte können sich demnach auch abseits der Serverinstanzen an der Modifizierung und Weiterentwicklung des Projekts beteiligen. Technische Expertise ist hierbei hilfreich aber keine Voraussetzung, da stetig nach Textarbeit, Übersetzungen und Hilfe, etwa zu konzeptuellen Fragen, wie zum Beispiel der zukunftsweisenden Governance-Struktur des Projekts, gesucht wird. Dezentralisierung und Offenheit Die explorative, infrastrukturell umgekehrte Betrachtung von Mastodon legt die soziotechnischen Verfahren und Strukturen offen, die den Dienst als soziales Medium hervorbringen. Die Prinzipien der Dezentralisierung und der Offenheit sind hierbei besonders zu betonen. Zum einen ist Mastodon sowohl ein Kommunikations- und Interaktionsdienst als auch eine dezentrale Serverinfrastruktur und steht damit in einer langen Tradition der Medienentwicklung im Allgemeinen sowie der computerisierten Technikentwicklung seit dem Zweiten Weltkrieg im Speziellen (Turner 2006; Wu 2012). Dezentralisierung erhält insbesondere in den Technikutopien der 1990er Jahre eine normative Aufladung, nicht zuletzt, weil sie zu einem bestimmenden Prinzip der logischen Infrastruktur des Internets wurde. So wird mit Dezentralisierung eine möglichst freie Zirkulation von Informationen und damit eine allgemeine Demokratisierung moderner Gesellschaften verbunden. Genauso dienen Utopien der Dezentralisierung der Komplexitätsreduktion und der Verstärkung bestehender ­sozio-ökonomischer Kontextbedingungen (Schrape 2019). Bei Mastodon erfolgt Dezentralisierung oberhalb der Anwendungsebene der Internet-Architektur und imitiert dabei gewissermaßen die Gestalt des Web 1.0. Das Protokoll, das dem Fediverse zugrunde liegt, diversifiziert allerdings die Funktionsweise des Hyperlink, indem es verschiedene Kommunikationspraktiken wie das Veröffent-

Zur Konstitution der digitalen Gesellschaft …

141

lichen, Kommentieren oder Teilen von Inhalten standardisiert. Die tatsächliche Verteilung der NutzerInnen auf die ­Mastodon-Instanzen markiert allerdings die de facto vorhandenen Zentralisierungstendenzen des Netzwerks: Über die Hälfte der ca. 2,2 Mio. Profile verteilt sich auf die fünf größten Instanzen. Inwiefern das Versprechen der Dezentralisierung zu halten ist, hängt also stark davon ab, wie neue NutzerInnen auf die Instanzenvielfalt aufmerksam gemacht werden und inwiefern sich Nutzung und Betrieb der jeweiligen Serverinstanzen auf Dauer stellen lassen. Mit der Standardisierung ist das zweite Merkmal angesprochen: Mastodon zeichnet sich durch seine externe wie interne Offenheit aus. Aus der Verwendung eines offenen Protokolls folgt einerseits die Anschlussfähigkeit für weitere Softwareprojekte an das Netzwerk, wie beispielsweise Nextcloud oder Friendica, sowie die Weiterverwendung des Quellcodes für neue Projekte.9 Weitaus konstitutiver ist andererseits die interne Offenheit bei der Softwareentwicklung, wie sie für die FLOSS-Bewegung üblich ist (Coleman 2013; Schrape 2018). Über die Versioning-Plattform GitHub verläuft die Entwicklung im Modus der „commons-based peer production“ (Benkler 2006, S. 72). Innerhalb dieser Produktionsgemeinschaft aus EntwicklerInnen entfallen formal-hierarchische Beziehungen, wobei sich Hauptentwickler Rochko seinen SpenderInnen gegenüber für die Weiterentwicklung verantwortlich zeigt und stetig über den Projektverlauf berichtet. Informell führt die meritokratische Selbstorganisation jedoch zur Herausbildung von faktischen Autoritäten (Stalder 2016, S. 250): Das Gros der Arbeit am code verteilt sich auf einige wenige Personen und diese Beteiligung erfolgt in zeitlich begrenzten Phasen. Abschließend ist festzuhalten, dass Mastodon in hohem Maße auf die Beteiligung Freiwilliger angewiesen ist. Mit Blick auf die Verteilung von Kommunikationsmacht als Konstitutionsmacht führt die technische Infrastruktur des Netzwerks eine intermediäre Ebene zwischen Softwareentwicklung und Nutzungspraxis ein, die im Vergleich zu Twitter kleinere Hürden für die Kommunikation zwischen NutzerInnen und BetreiberInnen sowie NutzerInnen und EntwicklerInnen nahe legt. Gegeben ist damit eine grundsätzliche Chancen-

9Im

Sommer 2019 schloss sich die Plattform Gab, die der diffusen alt-right Bewegung nahesteht, mit einer modifizierten Mastodon-Version dem Fediverse an. Zuvor war es zu technischen Problemen mit der eigens erstellten Software sowie Ausschlüssen aus den App-Stores von Google und Apple gekommen. Ein Großteil der aktiven MastodonInstanzen und der mobilen Anwendungen reagierten auf Gab, indem sie deren Instanzen auf ihre schwarzen Listen setzten (Eleanor 2019).

142

S. Berg und D. Staemmler

gleichheit für die Artikulation relevanter Urteile in der Konstitution von Mastodon als sozialem Medium. Weiter ist auch mit einem hohen Maß an Responsivität zu rechnen, das sich gerade im Verhältnis von Rochko zur Mastodon-Gemeinschaft abzubilden scheint. Ebenso ist deutlich geworden, dass die tatsächliche Beteiligung zum Schema der 1 %-Regel digitaler Beteiligung10 tendiert: Ein äußerst geringer Teil der NutzerInnen wie auch derjenigen, die zu Entwicklung und Betrieb beitragen, ist für das Fortbestehen des Projekts verantwortlich. Bleibt die Offenheit des Projekts ein Garant für die Chancengleichheit innerhalb bestimmter politischer Grenzen der Vernetzung, ist bei allen natürlichen wie technischen Zentralisierungstendenzen fraglich, wie die Dezentralität des Fediverse gewahrt bleiben kann (Raman et al. 2019). Während die technische Infrastruktur für ein gemeinschaftlich betriebenes und gemeinwohlorientiertes soziales Netzwerk gegeben ist, kommt es nicht nur auf wachsende Nutzungszahlen, sondern ebenso auf diskursive Zukunftserwartungen an, die zur Beteiligung anregen und Mastodon dauerhaft als alternative Kommunikationsinfrastruktur tragen.

5 Digitalisierung politisch lesen Am Beispiel Mastodon ist klar geworden, dass wir den ko-produktiven Charakter digitaler Infrastrukturen von Öffentlichkeit in der demokratischen Bewertung berücksichtigen müssen. Verstehen wir Technikgestaltung als politischen Prozess, so lassen sich bereits auf den Ebenen der Konstitution der Technik demokratisch relevante Institutionalisierungen identifizieren. Zum einen entgehen wir damit der Gefahr, die tief greifende Mediatisierung als durch Technik hervorgerufenen Verfallsprozess zu begreifen. Die Verteilung von Kommunikationsmacht ist vielmehr ohne die Berücksichtigung der konstitutiven Prozesse der Koproduktion und die Strukturierungsleistung von Technik nicht vollumfänglich zu erfassen und bewerten. Betrachten wir die Konstituierungsweisen digitaler Infrastrukturen von Öffentlichkeit, werden Unterschiede normativ differenzierbar. Die Digitalisierung gerät als Adaptionsgeschichte, nicht als Verfallserzählung in den Blick.

10Wie

sich ungleiche Online-Beteiligung entlang des Schemas 1-10-89 in digitalorganisierten Parteien abbildet, belegt eindrucksvoll die Studie von Paolo Gerbaudo (2019).

Zur Konstitution der digitalen Gesellschaft …

143

Zum anderen lassen sich erste Erkenntnisse hinsichtlich der Frage konstatieren, wie die demokratische Verteilung von Kommunikationsmacht in der Digitalisierung realisiert wird respektive realisiert werden kann. Zwar lassen sich aus der explorativen Durchsicht keine Aussagen zu den faktischen, empirischen Nutzungspraktiken auf Mastodon ableiten. Allerdings ist deutlich geworden, wie eine Untersuchung der medialen Konstitutionsbedingungen den Blick auf die unterschiedlichen Ebenen und Prozesse der Verteilung von Kommunikationsmacht freigibt, die eine differenzierte Analyse der kommunikativen Infrastrukturen digitalisierter Öffentlichkeit befördert. Folgt man Urbinatis normativer Forderung nach einer möglichst umfassenden Verteilung von Kommunikationsmacht als Kriterium demokratischer Funktionalität, so darf diese Verteilung nicht in der bereits kritisch gestreiften Frage nach Eigentumsrechten oder Unabhängigkeit der Medien enden, sondern muss ihre technische, d. h. materielle und praktische Koproduktion im Sinne politischer Handlungsfähigkeit reflektieren: Die Konstitution digitaler Infrastrukturen kann als Gestaltungsprozess ebenfalls politisch gelesen und die darin sichtbar werdende Machtkonstellation demokratisch eingehegt werden. Unsere Lesart von Mastodon zeigt, dass dort Konstitutionsmacht weit gestreut ist. Der Wechsel von der Rolle eine*r NutzerIn zu*r BetreiberIn einer Instanz oder die Fähigkeit, eigene Gemeinschaftsstandards zu etablieren, bietet dabei nicht nur breite, positive Beteiligungsmöglichkeiten, indem sie Kommunikationsmacht im Sinne der networking-making power oder networking power egalitär verteilt und die pluralistischen Positionen der NutzerInnen respektive BürgerInnen gegenüber den Instanzen responsiver gestaltet. Das Charakteristikum der Dezentralisierung der Infrastruktur sichert auch Rückzugsräume gemeinsamen Handelns, indem sie zentralisiert entschiedener Kommerzialisierung und damit einhergehenden Standardsetzungen – also der Ausübung einseitiger network power – entgegenwirkt. Die Instanzen ließen sich mit Hannah Arendt sogar als kleine Inseln des Politischen verstehen, indem sie ein Miteinander-Handeln eröffnen, die Einbeziehung und diskursive Anerkennung des Anderen – ein politisches Handeln, dem der „Horizont einer Institutionen hervorbringenden neuen politische[n] Ordnung“ inhärent ist (Thiel und Volk 2016, S. 352; vgl. Arendt 2000, S. 349). Dem gegenüber steht die Tendenz einer meritokratischen Hierarchisierung aufgrund einer ungleichen Beteiligungsverteilung wie auch ein damit zusammenhängendes, für viele NutzerInnen abschreckend wirkendes Interface, das diese ungleiche Beteiligung weiter perpetuiert. Aus demokratietheoretischer Betrachtung bietet die Dimension der Technikgestaltung jedoch die Möglichkeit, die Praxis der Konstitution

144

S. Berg und D. Staemmler

digitaler Infrastrukturen einer emanzipativen Entwicklung zugänglich und ihre Meinungs- und Willensbildungsprozesse potenziell derart einzubinden, dass eine legitime Verteilung von Kommunikationsmacht auch unter den Bedingungen der Digitalisierung generiert zu werden vermag. Um solche demokratischen Potentiale erfassen und abbilden zu können sowie zwischen den unterschiedlichen Infrastrukturen differenzieren zu können, ist eine stärkere Auseinandersetzung im Detail ebenso unumgänglich wie eine prozesshafte Betrachtung, die auch ihre Konstitutionsbedingungen reflektiert. Erklärung Dieser Artikel wurde vom Europäischen Forschungsrat (ERC) im Rahmen des Forschungs- und Innovationsprogramms Horizont 2020 der Europäischen Union (Nr. 757452) finanziert.

Literatur- und Quellenverzeichnis Anderson, B. 1991. Imagined communities. Reflections of the origin and spread of nationalism. London: Verso. Arendt, H. 2000. Über die Revolution. München: Piper. Baecker, D. 2018. 4.0 oder Die Lücke die der Rechner lässt. Berlin: Merve. Benkler, Y. 2006. The wealth of networks: How social production transforms markets and freedom. New Haven: Yale University Press. Berg, S., N. Rakowski, und T. Thiel. 2020. Zeitschrift für Politikwissenschaft 30(2): 171–191. Blumenberg, H. 1987. Die Sorge geht über den Fluß. Frankfurt a. M.: Suhrkamp. Blumenberg, H. 2009. Geistesgeschichte der Technik. Berlin: Suhrkamp. Castells, M. 2009. Communication power. New York: Oxford University Press. Castoriadis, C. 1990. Sozialismus und autonome Gesellschaft. In Autonome Gesellschaft und libertäre Demokratie, Hrsg. U. Rödel, 329–357. Frankfurt a. M.: Suhrkamp. Chadwick, A. 2013. The Hybrid Media System: Politics and Power. New York: Oxford University Press. Clark, D.D. 2016. The contingent internet. Daedalus 145(1): 9–17. Coleman, G.E. 2013. Coding freedom: The ethics and aesthetics of hacking. Princeton: Princeton University Press. Couldry, N., und A. Hepp. 2017. The mediated construction of reality. Cambridge/MA: Polity. DeNardis, L., und A.M. Hackl. 2015. Internet governance by social media platforms. Telecommunications Policy 39(9): 761–770. Dolata, U. 2011. Wandel durch Technik: Eine Theorie soziotechnischer Transformation. Frankfurt a. M.: Campus. Eleanor. 2019. Statement on Gab’s fork of Mastodon. Official Mastodon Blog. https:// blog.joinmastodon.org/2019/07/statement-on-gabs-fork-of-mastodon/. Zugegriffen: 8. November 2019.

Zur Konstitution der digitalen Gesellschaft …

145

Feenberg, A. 2017. Technosystem: The social life of reason. Cambridge/MA: Harvard University Press. Gerbaudo, P. 2019. The digital party: Political organisation and online democracy. London: Pluto. Goldsmith, J.L., und T. Wu. 2006. Who controls the internet? Illusions of a borderless world. Oxford: Oxford University Press. Greven, M.T. 1999. Die politische Gesellschaft. Kontingenz und Dezision als Probleme des Regierens und der Demokratie. Opladen: Leske + Budrich. Habermas, J. 1962. Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Neuwied: Luchterhand. Habermas, J. 2008. Hat die Demokratie noch eine epistemische Dimension? Empirische Forschung und normative Theorie. In Ach, Europa. Kleine Politische Schriften XI., Hrsg. J. Habermas, 138–191. Frankfurt a. M.: Suhrkamp. Helbig, K. 2018. Der Einfluss von Algorithmen auf demokratische Deliberation. In (Un) berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, Hrsg. R.M. Kar, B. Thapa, und P. Parycek, 339–363. Berlin: Kompetenzzentrum Öffentliche IT. Hintz, A., und S. Milan. 2018. ’Through a glass, darkly’: Everyday acts of authoritarianism in the liberal west. International Journal of Communication 12: 3939–3959. Hofmann, J. 2019a. Mediated democracy – Linking digital technology to political agency. Internet Policy Review 8(2): 1–18. Hofmann, J. 2019b. Digitale Kommunikationsinfrastrukturen. In Handbuch Digitalisierung in Staat und Verwaltung, Hrsg. T. Klenk, F. Nullmeier, und G. Wewer, Wiesbaden: Springer VS. Hutchby, I. 2001. Technologies, texts and affordances. Sociology 35(2): 441–456. Jacob, D., und T. Thiel (Hrsg.). 2017. Politische Theorie und Digitalisierung. BadenBaden: Nomos. Jasanoff, S. 2004. The idiom of co-production. In States of knowledge: The co-production of science and social order, Hrsg. S. Jasanoff, 1–12. London: Routledge. Jasanoff, S. 2015. Future imperfect: Science, technology, and the imaginations of modernity. In Dreamscapes of modernity: Sociotechnical imaginaries and the fabrication of power, Hrsg. S. Jasanoff und S.-H. Kim, 1–33. Chicago und London: University of Chicago Press. Kaufmann, M., und J. Jeandesboz. 2017. Politics and ‘the Digital’: From singularity to specificity. European Journal of Social Theory 20(3): 309–328. Kelty, C. 2005. Geeks, Social Imaginaries, and Recursive Publics. Cultural Anthropology 20(2): 185–214. Kennedy, J., J. Meese, und E. van der Nagel. 2016. Regulation and social practice online. Continuum 30(2): 146–157. Latour, B. 1990. Technology is society made durable. The Sociological Review 38(1_suppl): 103–131. Latour, B. 2017. Eine neue Soziologie für eine neue Gesellschaft. Berlin: Suhrkamp. Lischka, K., und C. Stöcker. 2017. Digitale Öffentlichkeiten. Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen. Arbeitspapier. Gütersloh: BertelsmannStiftung. Luhmann, N. 1995. Die Realität der Massenmedien. Wiesbaden: Springer Fachmedien.

146

S. Berg und D. Staemmler

Morozov, E. 2013. To save everything, click here: The folly of technological solutionism. New York: PublicAffairs. Mueller, M.L. 2002. Ruling the root: Internet governance and the taming of cyberspace. Cambridge/MA: MIT Press. Mühlhoff, R. 2018. Digitale Entmündigung und User Experience Design. Leviathan 46(4): 551–574. Nachtwey, O., & Seidl, T. (2017). Die Ethik der Solution und der Geist des digitalen Kapitalismus. Working Paper 11. Frankfurt: Institut für Sozialforschung. Nassehi, A. 2019. Muster. Theorie der digitalen Gesellschaft. München: C.H. Beck. Paßmann, J. 2018. Die soziale Logik des Likes. Eine Twitter Ethnografie. Frankfurt: Campus. Pariser, E. 2011. The filter bubble. What the internet is hiding from you. New York: Penguin. Pinch, T.J., und W.E. Bijker. 1984. The social construction of facts and artefacts: Or how the sociology of science and the sociology of technology might benefit each other. Social Studies of Science 14(3): 399–441. Plotke, D. 1997. Representation is democracy. Constellations 4(1): 19–34. Raman, A., Joglekar, S., Cristofaro, E. De, Sastry, N., und Tyson, G. 2019. Challenges in the decentralised web: The mastodon case. Proceedings of the Internet Measurement Conference – IMC ’19, (S. 217–229). Amsterdam: ACM Press. Rammert, W. 2016. Technik – Handeln – Wissen: Zu einer pragmatistischen Technik- und Sozialtheorie. Wiesbaden: Springer VS. Reckwitz, A. 2003. Grundelemente einer Theorie sozialer Praktiken. Eine sozialtheoretische Perspektive. Zeitschrift für Soziologie 32(4): 282–301. Reckwitz, A. 2017. Die Gesellschaft der Singularitäten: Zum Strukturwandel der Moderne. Berlin: Suhrkamp. Rixx. 2018. Decentralize the web [Podcast]. In Richter, M. (Moderator), Chaosradio vom 27.08.2018. https://chaosradio.de/cr249-decentralizetheweb. Zugegriffen: 28. Mai 2019. Rochko, E. 2018. Mastodon: Federated Social Network [Podcast]. In Meyerson, J. (Moderator), Software Engineering Daily vom 12.04.2018. https:// softwareengineeringdaily.com/2018/04/12/mastodon-federated-social-network-witheugen-rochko/. Zugegriffen: 28. Mai 2019. Rosanvallon, P. 2017. Die Gegen-Demokratie. Politik im Zeitalter des Misstrauens. Hamburg: Hamburger Edition HIS. Rosanvallon, P. 2017. Die Gesellschaft der Gleichen. Berlin: Suhrkamp. Schrape, J.-F. 2018. Open-Source-Communities. In Kollektivität und Macht im Internet: Soziale Bewegungen – Open Source Communities – Internetkonzerne, Hrsg. U. Dolata und J.-F. Schrape, 71–100. Wiesbaden: Springer VS. Schrape, J.-F. 2019. Technology and the Promise of Decentralization. Origins, Development, Patterns of Arguments. Stuttgarter Beiträge zur Organisations- und Innovationssoziologie, Discussion Paper 2019–01. Stuttgart: Universität Stuttgart. Stalder, F. 2016. Kultur der Digitalität. Berlin: Suhrkamp. Stäheli, U. 2012. Infrastrukturen des Kollektiven: Alte Medien – Neue Kollektive? Zeitschrift für Medien- und Kulturforschung 4(2): 99–116. Sterne, J. 2003. Bourdieu, Technique and technology. Cultural Studies 17(3–4): 367–389.

Zur Konstitution der digitalen Gesellschaft …

147

Star, S.L. 2017. Die Ethnografie der Infrastruktur. In Grenzobjekte und Medienforschung, Hrsg. S. Gießmann und N. Taha, 419–436. Bielefeld: transcript. Sunstein, C.R. 2007. Republic.com 2.0. Princeton: Princeton University Press. Thaa, W. 2012. Partizipation und Repräsentation. Eine theoretische Neubewertung und ihre offenen Fragen. In Partizipation und Staatlichkeit. Ideengeschichtliche und aktuelle Theoriediskurse, Hrsg. G. Riescher und B. Rosenzweig, 109–129. Stuttgart: Steiner. Thaa, W. 2013. Weder Ethnos noch Betroffenheit: Repräsentationsbeziehungen konstituieren einen handlungsfähigen Demos. In Die Versprechen der Demokratie, Hrsg. Hubertus Buchstein, 104–123. Baden-Baden: Nomos. Thiel, T., und C. Volk. 2016. Republikanismus des Dissenses. In Die Aktualität des Republikanismus, Hrsg. T. Thiel und C. Volk, 345–369. Baden-Baden: Nomos. Turner, F. 2006. From counterculture to cyberculture: Stewart Brand, the whole earth network, and the rise of digital utopianism. Chicago: University of Chicago Press. Urbinati, N. 2014. Democracy disfigured. Opinion, truth, and the people. Cambridge/MA: Harvard University Press. Van Dijck, J. 2012. Facebook as a tool for producing sociality and connectivity. Television & New Media 13(2): 160–176. Winner, L. 1980. Do Artifacts Have Politics? Daedalus 109(1): 121–136. Wu, T. 2012. Der Master Switch: Aufstieg und Niedergang der Medienimperien. Heidelberg: mitp.

Akteure

Kapitale Konsequenzen für organisierte Interessenvertretung in Demokratien – Pierre Bourdieu, politische Organisationen und webbasierte Technologien Jasmin Fitzpatrick 1 Einleitung Pierre Bourdieu zählt ohne Zweifel zu den großen Soziologen des 20. Jahrhunderts (ähnlich u. a. Ignatow und Robinson 2017, S. 950). Dabei steht sein Name besonders mit seinen Überlegungen zu verschiedenen Kapitalformen und deren Einfluss auf die Werdegänge von Individuen in Verbindung (z. B. Bourdieu und Köhler 1981). Bourdieu differenziert verschiedene Arten von Kapital, die akkumuliert und ineinander konvertiert werden können. Grundlegend sind dabei vor allem das ökonomische Kapital, das kulturelle Kapital und das soziale Kapital (Bourdieu 1983). Während die Konzeptionen anderer Autoren zu Sozialkapital in der politikwissenschaftlichen Betrachtung Würdigung erfahren – vor allem Putnam (2000) und Granovetter (1973) sind hier zu nennen –, scheinen Bourdieus Überlegungen eher ein Schattendasein zu fristen. Sie verdienen jedoch gerade aus der Perspektive von Beobachtern politischer Organisationen Aufmerksamkeit.

Dank geht an Michael Oswald und Isabelle Borucki sowie an die TeilnehmerInnen des Autorenworkshops am CAIS in Bochum für ihre hilfreichen Kommentare. Außerdem danke ich den studentischen Hilfskräften Sarah Kluth, Friederike Holthuis und Jakob Gutmann für ihre Unterstützung bei der Recherche und der Formatierung. J. Fitzpatrick (*)  Johannes Gutenberg-Universität Mainz, Mainz, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_8

151

152

J. Fitzpatrick

Warum wird dieses Plädoyer jedoch in einem Sammelband platziert, der die Verbindung von Digitalisierung und Demokratie ins Zentrum rücken möchte? Technologische Errungenschaften haben seit der Verbreitung des World Wide Web und schließlich dem Siegeszug der sozialen Medien unser gesellschaftliches Leben in so gut wie jedem Aspekt verändert. Dies zeigt sich in besonderer Weise in der Verbreitung und Verfügbarkeit von Informationen und der Möglichkeit, diese mit einer Vielzahl von anderen schnell und global zu teilen. Gerade für die demokratische Interessenvertretung in pluralistischen, kompetitiven politischen Systemen eröffnen sich hier Potenziale. Die Mobilisierungs- und Normalisierungsthesen finden im Kontext der digitalen Spaltung gerade für die Teilhabechancen von Individuen seit längerer Zeit in der Forschung Beachtung. Auch für die Organisationsebene widmen sich Studien verstärkt der Nutzung webbasierter Technologien (z. B. Spierings und Jacobs 2019; Fitzpatrick 2018a, 2018b; Koc-Michalska et al. 2016; Gibson und McAllister 2015; Schweitzer 2011). Welche Organisationen inwiefern durch den Einsatz webbasierter Kommunikationstechnologien profitieren, ist jedoch nicht abschließend geklärt. Hier kann ein Einbezug Bourdieus nützlich sein. Der vorliegende Beitrag verfolgt somit zwei Ziele: Zum einen sollen Bourdieus Überlegungen zu verschiedenen Formen des Kapitals begründet auf die Meso-Ebene übertragen werden. Zum anderen soll dargestellt werden, welche Chancen sich für politische Organisationen durch den gezielten Einsatz webbasierter Technologien ergeben können. Diese Aspekte werden um Fallbeispiele ergänzt.

2 Formen des Kapitals bei Pierre Bourdieu und ihre Verortung auf der Mesoebene Pierre Bourdieus Ausführungen zu verschiedenen Formen des Kapitals wurden durch ihn für die Individualebene formuliert. Eine Übertragung auf die Mesoebene erfordert somit ein Umdenken.1 Zunächst beschreibt Kapital „akkumulierte Arbeit, entweder in Form von Materie oder in verinnerlichter ‚inkorporierter‘ Form“ (Bourdieu 1983, S. 183). Bourdieu schreibt weiter explizit, dass Kapital „von einzelnen Aktoren oder Gruppen […] angeeignet“ werden kann (ebd.).

1An

dieser Stelle geht besonderer Dank an die Teilnehmer des Workshops zu „Digital (non) Democracy? New Pathways to Participation and the Role of Political Institutions in the Digital Age“ im Rahmen der ECPR Joint Sessions 2018 für die kritischen und gleichzeitig ermutigenden Kommentare.

Kapitale Konsequenzen für organisierte Interessenvertretung …

153

Trotzdem beziehen sich nur wenige Studien zu Organisationen oder Gruppen auf Bourdieu. Greenspan (2014, S. 102) sieht den Grund dafür in der fälschlichen Annahme („flawed belief“), dass nur Individuen Kapital besitzen können. Kapital nimmt nach Bourdieu (1983) zunächst drei Formen an: ökonomisches Kapital, kulturelles Kapital und soziales Kapital. Diese kann man als Primärformen verstehen. Ökonomisches Kapital „ist unmittelbar und direkt in Geld konvertierbar“ (Bourdieu 1983, S. 185), es entspricht somit dem, was gemeinhin als Kapital verstanden wird. Nicht nur im deutschen Rechtssystem ist es Organisationen als juristischen Personen möglich, ökonomisches Kapital zu besitzen. Werden sie als gemeinnützig anerkannt, genießen sie sogar einen besonderen Status im Steuerrecht. Dies ist für viele (deutsche) zivilgesellschaftliche Organisationen (gemäß § 52 der Abgabenordnung im Einklang mit § 5 Abs. 1 Nr. 9 des Körperschaftssteuergesetzes) und (deutsche) politische Parteien (gemäß §  2  Parteiengesetz im Einklang mit §  5 Abs.  1  Nr.  7 des Körperschaftssteuergesetzes) der Fall. Dass politische Organisationen also ökonomisches Kapital besitzen können, scheint unbestritten. Jedoch, so Bourdieu (1983, S. 184), „[ist es] nur möglich, der Struktur und dem Funktionieren der gesellschaftlichen Welt gerecht zu werden, wenn man den Begriff des Kapitals in allen seinen Erscheinungsformen [Anm.: Hervorhebung im Original] einführt, nicht nur in der aus der Wirtschaftstheorie bekannten Form.“ Deshalb beschreibt er weitere Kapitalformen. Das kulturelle Kapital ist wissens- und informationsbezogen und kann in drei Unterkategorien unterteilt werden: inkorporiert, objektiviert und institutionalisiert (Bourdieu 1983, S. 185). Inkorporiertes kulturelles Kapital kann als Wissen verstanden werden, in dem Sinne, dass Wissen eine „subjektiv verarbeitete Information“ darstellt (Zillien 2009, S. 6). Dies „setzt einen Verinnerlichungsprozess [Anm.: Hervorhebung im Original] voraus“ (Bourdieu 1983, S. 186). Können Organisationen Informationen in inkorporiertes Wissen umwandeln? Bourdieu schreibt dazu: „[D]as kulturelle Kapital ist auf vielfältige Weise mit der Person in ihrer biologischen Einzigartigkeit verbunden“ (Bourdieu 1983, S. 187). Damit verknüpft er seinen Begriff des inkorporierten Kulturkapitals mit dem (sterblichen) Individuum. Wie sollen also Organisationen, die eben keine biologischen Organismen sind, inkorporiertes Kapital besitzen können? Dies ist eher indirekt möglich. Institutionalisierte und nicht institutionalisierte Regeln und Standards, die eine Organisation ausmachen, können als funktionales Äquivalent verstanden werden. So wie ein Individuum lernt und sich weiterentwickelt, können dies auch Organisationen tun (z. B. Garvin 1993). Sie richten sich neu aus, etablieren intern neue Standards für ihre Mitglieder und stehen für Außenstehende in einem bestimmten Bedeutungszusammenhang. Außenstehende

154

J. Fitzpatrick

kontaktieren mit Anliegen die Organisation, die pars pro toto durch Angehörige bearbeitet werden. Demnach wenden sich zum Beispiel Angehörige einer Regierungspartei, die ein Gesetz zum besseren Schutz der Menschenrechte verabschieden möchte, an eine Menschenrechtsorganisation, um sich deren Expertise zunutze zu machen. Es findet ein Austausch von Information zwischen Individuen statt, die jeweils eine Rolle für ihre Organisation erfüllen. Information steht in Bezug zum objektivierten kulturellen Kapital, denn „[z]u ihrem Transfer müssen Informationen mit einem Träger (z. B. Datei oder Dokument) verbunden werden“ (Zillien 2009, S. 6) – Kulturkapital dieser Form ist „materiell übertragbar“ (Bourdieu 1983, S. 188). Dieser Informationsaustausch ist auch Organisationen möglich. Institutionalisiertes kulturelles Kapital kann als zertifiziertes Wissen verstanden werden, das in Form eines Abschlusses oder Titels belegt worden ist (Bourdieu 1983, S. 185). Dieses institutionalisierte Kapital wird einerseits durch Institutionen verliehen, andererseits ist es Organisationen auch möglich, diese Form des Kapitals zu erhalten. Etwa kann eine Organisation ein Spendensiegel erhalten, das zertifiziert, dass die Organisation und ihre Mitglieder Wissen zum regelkonformen Umgang mit Spenden erworben haben und dieses Wissen handlungsleitend ist. Die Übersetzbarkeit dieser Subtypen kulturellen Kapitals in die konstitutiven Begriffe der Wissens- und Informationsgesellschaft zeigen bereits die deutlichen Anknüpfungspunkte auf, die Bourdieus Kapitalkonzept eine Auseinandersetzung mit sozialen Medien ermöglicht. Ergänzend zu diesen Formen beschreibt Bourdieu das Sozialkapital. Diese Ausprägung des Kapitals beruht auf den „aktuellen oder potentiellen Ressourcen, die mit dem Besitz von mehr oder weniger institutionalisierten Beziehungen gegenseitigen Kennens und Anerkennens verbunden sind“ (Bourdieu 1983, S. 190). Hier sind zwei Ausprägungen von Sozialkapital auf Organisationsebene denkbar: das Kennen und Anerkennen der Organisation durch zum einen Mitglieder und zum anderen durch Außenstehende. Die Außenstehenden können dabei Individuen oder selbst Organisationen sein. Es gilt (Bourdieu 1983, S. 193): „Für die Reproduktion von Sozialkapital ist eine unaufhörliche Beziehungsarbeit in Form von ständigen Austauschakten erforderlich, durch die sich die gegenseitige Anerkennung immer wieder neu bestätigt.“ Dies ist ebenso für Gruppen (oder Organisationen) formuliert, in denen es „mehr oder weniger institutionalisierte Formen der Delegation [Anm.: Hervorhebung im Original]“ gibt (ebd.). Hier bringt Bourdieu selbst explizit Parteien und Verbände ins Spiel. Neben diesen primären Formen des Kapitals bestimmt Bourdieu weitere, sekundäre Formen. In Das Politische Feld (2001) führt er etwa das politische Kapital ein. Bourdieu (2001, S. 43) beginnt seine Ausführungen mit der

Kapitale Konsequenzen für organisierte Interessenvertretung …

155

Feststellung, dass der „Zugang zur Politik“ von sozialen Bedingungen abhängt2 und warnt vor Problemen für die Demokratie, sollte ein Fernbleiben von Wählern nicht in zufälligen, sondern systematischen Begebenheiten begründet sein. Diesen Zugang zum politischen Feld kann man über das angehäufte politische Kapital verstehen. Dieses Kapital ordnet Bourdieu als Prestigekapital ein (2001, S. 52 f.). Es kann durch eine Umwandlung anderer Kapitalarten erworben werden3 und steht weiterhin in Zusammenhang mit der Position innerhalb der Partei (Bourdieu 2001, S. 53). Die Partei selbst nimmt laut Bourdieu dabei die Rolle einer Bank ein, die über das politische Kapital verfügt (2001, S. 53). Parteien können als Ort angesehen werden, in denen politisches Kapital institutionalisiert worden ist (Bourdieu 2001, S. 105 ff.). Während Bourdieu diese Aspekte (vor allem) für Parteien ausführt, können seine Anmerkungen zum Teil auf andere politische Organisationen, wie etwa zivilgesellschaftliche Organisationen, übertragen werden. Diese Organisationen stellen sich keinen kompetitiven Wahlen, jedoch formulieren sie politische Visionen, die Teilaspekte des gesellschaftlichen Zusammenlebens betreffen. Hier von politischem Kapital in Bourdieus Sinne zu sprechen, scheint jedoch nicht angemessen. Diese Organisationen sind besser über ihre Expertise (Kulturkapital) und ihre Mobilisierungsstärke aufgrund ihrer Netzwerke (Sozialkapital) zu begreifen, leisten damit jedoch auch einen wichtigen Beitrag in Demokratien. Während bisher die Übertragbarkeit von Bourdieus Überlegungen auf die Organisationsebene im Fokus stand, sollen darüber hinaus nun noch Anmerkungen zu seinem Einfluss auf die digitale Sphäre folgen. Einen wichtigen Vorstoß in diese Richtung haben Ignatow und Robinson mit ihrem 2017 erschienenen Beitrag geleistet. Sie verweisen zum einen darauf, dass sich in soziologischen Auseinandersetzungen mit dem Digitalen im Allgemeinen und der digitalen Spaltung im Besonderen Bourdieus Konzept des Feldes seit einiger Zeit als nützlich erweist (Ignatow und Robinson 2017, S. 952). Zum anderen führen sie das digitale Kapital ein, welches sich bei Akteuren auf „the reach, scale, and sophistication of his or her online behavior“ bezieht (ebd.). Diese Form des Kapitals wird zwar wieder für

2In

diesem Punkt distanziert er sich deutlich von Robert Michels und den NeoMachiavellisten, deren Postulat von ehernen Gesetzen, nach denen politische Organisationen funktionieren, er als „pessimistische Sicht der Geschichte“ deklariert (Bourdieu 2001, S. 43). 3Bourdieus Ausführungen sind oftmals im Zusammenhang mit dem französischen Bildungssystem zu sehen, und insbesondere der Rolle, die die ENA in der Ausbildung der politischen und administrativen Elite spielt. Anspielungen darauf finden sich immer wieder.

156

J. Fitzpatrick

die Individualebene konzipiert, jedoch widerspricht die Definition nicht der Übertragbarkeit auf die Organisationsebene. Digitales Kapital ist als sekundäres Kapital sowohl durch primäre Kapitalformen als auch durch andere, sekundäre Kapitalformen generierbar. Tab. 1 bietet eine zusammenfassende Übersicht über alle angesprochenen Kapitalformen und ihre Bedeutung für politische Organisationen. Während Ignatow und Robinson damit direkten Bezug auf Bourdieu nehmen und seine Arbeit fortführen, unterscheiden auch andere Autoren Organisationen in Bezug auf ihre Ressourcenausstattung – allerdings ohne expliziten Bezug auf Bourdieu. In der offline Sphäre kann etwa der zentrale Beitrag von Katz und Mair (1995) mit Bourdieu verbunden werden. Die Autoren stellten bekanntermaßen in ihrem Beitrag zur Kartellpartei die These auf, dass Parteien sich von der Gesellschaft lösen und gewissermaßen Teil des Staatsapparats werden. Damit einher geht ein Zuwachs an politischem Gewicht (politisches Kapital) und ein exklusiver Zugriff auf Finanzmittel in Form von staatlicher Parteifinanzierung (ökonomisches Kapital). So konnten sich große Parteien Chancenvorteile sichern, neue Kontrahenten im politischen Wettbewerb haben es zunächst ungleich schwerer, sich ihren Platz zu sichern. Diese Annahme spiegelt den Kern der Kartellthese wider, die jedoch nicht unumstritten ist (vgl. etwa Helms 2001). Folgt man der Kartellthese, zeigt sich ein Dilemma: Da Demokratien sich durch ihren pluralistischen Wettbewerb (gerade auf Ebene der Parteien) auszeichnen, mag eine Kartellbildung Anlass zur Sorge bieten. Mit Aufkommen webbasierter Technologien wurde anfangs die Hoffnung verbunden, dass sich diese Wettbewerbsvorteile ausgleichen ließen (Mobilisierungsthese). So können etwa kleinere, neue Akteure durch kompetenten Webeinsatz und eine ausgeklügelte Social Media-Strategie politischen Einfluss gewinnen, indem sie etwa kostengünstig aber effektiv im Web für sich werben. Jedoch stellte sich bald heraus, dass die Ausbreitungsmuster von Innovationen (vgl. Rogers 2003) auch in Bezug auf das Internet und das Web Geltung behalten und diejenigen, die Ressourcenvorteile hatten, diese durch den Einsatz der neuen Technologien erhalten können (Normalisierungsthese). Auch Arbeiten, die sich mit dem Einfluss webbasierter Technologien auf den Parteienwettbewerb befassen, können in Bezug zu Bourdieus Kapitalkonzept gebracht werden. Dazu gehört etwa der Beitrag von Koc-Michalska et al. (2016), die Parteien während des Europawahlkampfs 2014 vergleichen und feststellen, dass die Normalisierungsthese unterstützt werden sollte, obwohl kleinere Parteien, die sich auf das Web 2.0 und seine interaktiven Möglichkeiten einlassen, an Sichtbarkeit gewinnen können (Koc-Michalska et al. 2016, S. 347). Ohne die Termini zu verwenden, stellen sie also einen Zusammenhang zwischen digitalem und politischem Kapital her. Der Fokus auf Ressourcenakkumulation und -umwandlung war bisher also keine terra incognita in der Parteienforschung.

Kapitalform

Soziales Kapital

Digitales Kapital

Ausprägung auf Organisationsebene

Z. B. Berichte und Expertisen, Grundsatzprogramme

Objektiviert

Demokratiebezug (Beispiele)

Mobilisierungspotenzial im Wahlkampf oder für andere politische Zwecke (Boykottaufrufe, gemeinsame Aktionen)

Darstellung gesellschaftlicher Werte und Normen

Handlungsempfehlungen, Begründung von Gesetzen und Maßnahmen

Anpassung der eigenen Satzung, Enquetekommissionen

Ungleichheit im politischen Wettbewerb, Professionalisierung

Ausarbeitung und Umsetzung einer Social Media-Strategie, Erfolg dieser Strategie (Follower, Influencer bzw. Themensetzung)

Mobilisierungspotenzial, Beeinflussung der öffentlichen Agenda, Accountability und Responsiveness

Hervorgehobene Stellung im politischen Politische Macht, GestaltungsSystem etwa durch Wahlerfolge, Amts- potenzial träger in Schlüsselpositionen

Eigene Mitglieder, andere Organisationen, Institutionen oder außenstehende Individuen

Institutionalisiert Z. B. Zertifikate, Siegel, Preise

Z. B. Regeln und Standards, Expertenwissen

Einnahmen aus Mitgliederbeiträgen, Spenden, steuerliche Begünstigungen, Liegenschaften etc. Inkorporiert

Kulturelles Kapital

Ökonomisches Kapital

Sekundärformen Politisches Kapital

Primärformen

Tab. 1   Kapitalformen in Bezug auf politische Organisationen. (Quelle: eigene Darstellung)

Kapitale Konsequenzen für organisierte Interessenvertretung … 157

158

J. Fitzpatrick

Die Verbindung mit Bourdieu erscheint vielmehr als selbstevidenter, nächster Schritt. Im nächsten Abschnitt soll daher mit explizitem Bezug zu Bourdieu beschrieben werden, worin Potenziale und Risiken für Organisationen liegen, wenn sie Kapitalformen akkumulieren und dabei webbasierte Technologien nutzen.

3 Webbasierte Technologien und ihr potenzieller Nutzen für politische Organisationen Politische Organisationen, wie Parteien und zivilgesellschaftliche Organisationen, können durch webbasierte Technologien viele Aspekte ihres Handelns in die digitale Sphäre migrieren – dies betrifft administrative, kommunikative und finanzielle Aspekte sowie Prozesse der Entscheidungsfindung. Zu vielen dieser Aspekte sind in den letzten 15 Jahren (vergleichende) Fallstudien entstanden (Fitzpatrick 2019 für einen Überblick). Während viele dieser Studien betonen, dass Internet und Web politischen Organisationen große Potenziale eröffnen, kommen sie ebenso zu dem scheinbar einhelligen Ergebnis, dass diese Potenziale nur zu einem Bruchteil erschöpft werden (u. a. Dommett 2018; Jensen 2017; Gibson et al. 2014; Jackson und Lilleker 2009). Seit einiger Zeit wird jedoch auch deutlich, dass Demokratien durch das Internet und das Web Schaden erfahren können (hierzu etwa Margetts 2019). Dieser kann entweder dadurch entstehen, dass Parteien bzw. handelnde Akteure innerhalb der Parteien unzureichend über Funktionsweisen, Logiken und Konsequenzen (vgl. dazu Bossetta 2018) gerade sozialer Medien informiert sind oder diese unterschätzen. Unter Einbezug von Bourdieus Kapitalformen werden im Folgenden Beispiele vorgestellt, die zeigen, wie Parteien und zivilgesellschaftliche Organisationen durch webbasierte Technologien profitieren oder Schaden nehmen können. Hierzu werden die oben erwähnten Kapitalformen und Umwandlungsprozesse als Ausgangspunkt sowie zur Strukturierung herangezogen.

3.1 Ökonomisches Kapital: Erzielen von Spenden durch den Einsatz von Online-Fundraising Politische Organisationen können durch den Einsatz webbasierter Technologien ihre (Spenden-)Einnahmen erhöhen. Dies kann zum einen auf verschiedene Weisen geschehen und zum anderen unterschiedliche Grade der Digitalisierung

Kapitale Konsequenzen für organisierte Interessenvertretung …

159

annehmen. Extrempunkte hinsichtlich dieser graduellen Digitalisierung können in der bloßen Veröffentlichung der Kontendaten im Impressum auf der Webseite (versehen mit einem Spendenaufruf) und der professionalisierten Zusammenarbeit mit Onlinespendenplattformen gesehen werden. In der Erforschung politischer Parteien und Wahlkampagnen wurde dieser Aspekt bereits teilweise recht prominent aufgegriffen. Wegweisenden Charakter hatte etwa die Kampagne des Demokraten Howard Dean, der während der Primaries im US-Wahlkampf 2004 erstmals zeigte, welchen immensen Einfluss online generierte Mikrospenden im Wahlkampf haben können (Hindman 2005; Kreiss 2012). Gerade Webseiten können hier nennenswerte Unterstützung bieten. Lilleker et al. (2011) unterscheiden vier Funktionen, die Webseiten im Wahlkampf erfüllen: informing, engaging, mobilizing und interacting. Mobilisierung umfasst dabei verschiedene Aspekte der Ressourcengenerierung und explizit auch das Sammeln von Spenden (Lilleker et al. 2011, S. 198). Weiterhin kommen sie in ihrer Vergleichsstudie zu dem Schluss, dass die Parteien im Vereinigten Königreich gerade hinsichtlich ihres Web 2.0-Einsatzes führen (Lilleker et al. 2011, S. 206). Bei der Analyse verschiedener Parteien vor allem über mehrere Jahre hinweg4 fällt auf, dass einige Parteien in ihrem Online-Auftritt experimentieren. Beispielsweise variiert die Platzierung, farbliche Hervorhebung oder sonstige Gestaltung des ‚Spenden‘-Buttons. Ein Beispiel sind etwa die Conservative Party und die Liberal Democrats im Vereinigten Königreich, auf die nun ein etwas genauerer Blick geworfen werden soll. Beide Parteien konkurrieren um denselben nationalen Wählermarkt unter identischen rechtlichen Rahmenbedingungen – sie unterscheiden sich jedoch hinsichtlich ihres Wahlerfolgs und ihrer Einnahmen. Inwiefern können sie durch den Einsatz von Mobilisierungstools, wie dem ‚Spenden‘-Button, profitieren und digitales in ökonomisches Kapital umwandeln? Es werden jeweils die Europawahljahre 2004, 2009 und 2014 verglichen, soweit Daten verfügbar sind. Zum Vergleich dienen die Vorjahre 2008 und 2013, um beurteilen zu können, ob es sich um einen ‚Wahljahreseffekt‘ handeln könnte. Für diese Jahre sind die Spendenzahlen bzw. Einnahmenberichte über die Wahlkommission zugänglich (vgl. Tab. 2 sowie Abb. 1 und 2). Ein Blick auf die Zahlen verdeutlicht, dass im Wahlkampfjahr 2004 die Einnahmen insgesamt am niedrigsten ausgefallen sind und zum anderen, dass in Wahlkampfjahren ein Anstieg im Spendenaufkommen zu verzeichnen ist. Eine

4Ein

zeitlicher Rückblick ist etwa mit der „Wayback Machine“ möglich (archive.org). Die Wayback Machine ist ein Onlinearchiv, das eine Art Momentaufnahme der Landingpage von URLs abspeichert und archiviert.

160

J. Fitzpatrick

Tab. 2   Spendenaufkommen der Conservatives und der Liberal Democrats. (Quelle: Finanzberichte der Parteien, verfügbar unter www.electoralcommission.org.uk) Conservatives

Europawahl

„Spenden“-Button auf Webseite

Einkommen aus Spenden

2004

Ja

Ja

£ 13.336.000

2008

Nein

Nein

£ 16.536.000

2009

Ja

Ja

£ 25.219.000

2013

Nein

Ja

£ 15.589.000

2014

Ja

Ja

£ 28.448.000

Liberal Democrats

Europawahl

Spendenbutton auf Webseite

Einkommen aus Spenden

2004

Ja

Nein



2008

Nein

Nein

£ 1.542.840

2009

Ja

Ja

£ 2.670.454

2013

Nein

Nein

£ 2.540.657

2014

Ja

Ja

£ 3.647.064

Abb. 1   Einnahmen und Ausgaben der Conservatives im Zeitverlauf. (Quelle: www. electoralcommission.org.uk, 01.06.2019)

Kapitale Konsequenzen für organisierte Interessenvertretung …

161

Abb. 2   Einnahmen und Ausgaben der Liberal Democrats im Zeitverlauf. (Quelle: www. electoralcommission.org.uk, 01.06.2019)

bloße Rückführung auf den ‚Spenden‘-Button scheint also zu kurz gegriffen. Auch der Langzeitvergleich in Abb. 1 spricht für einen Wahlkampfeffekt. Eine Mutmaßung, dass erhöhtes ökonomisches Kapital auf erhöhtem digitalem Kapital fußt, erscheint in diesem Beispiel also voreilig.

3.2 Kulturelles Kapital: Wissen gewinnen – Einfluss gewinnen? In Abschn. 2 wurde bereits erläutert, dass auch Organisationen lernen. Dieses Lernen ist zum einen ein kontinuierlicher Prozess, der es ermöglicht, sich an neue Rahmenbedingungen (gesetzlich, medial, gesellschaftlich) anzupassen. Zum anderen kommt es aber besonders nach schwierigen Situationen, wie etwa Skandalen, auf die Reaktions- und Anpassungsfähigkeit von Organisationen an. Ein Beispiel für solche Lernprozesse ist die Onlineadaptation bei UNICEF Deutschland. Als eine große und lang etablierte Organisation verfügt UNICEF über langjährige Erfahrung. In den 2000er Jahren sah sich UNICEF in Deutschland einem Spendenskandal ausgesetzt (Meiritz 2008), der auch zum Entzug des

162

J. Fitzpatrick

Spendensiegels führte. In den Folgejahren strengte UNICEF Umstrukturierungen an, die 2010 mit der Erteilung des Spendensiegels und 2012 mit dem Transparenzpreis von PwC belohnt worden sind (Deutsches Komitee für UNICEF o. J.a). Die Organisation macht auf ihrer Webseite umfassende Angaben und orientiert sich dabei an den Standards der Initiative Transparente Zivilgesellschaft (ebd.). Durch die Bereitstellung dieser Informationen (objektiviertes Kulturkapital) sowie durch die Zertifizierungen (institutionalisiertes Kulturkapital) verdeutlicht UNICEF nicht nur den Lernprozess (inkorporiertes Kulturkapital) nach dem Spendenskandal, sondern sichert auch Reputation (Sozialkapital) und Spendenaufkommen (ökonomisches Kapital). Das organisationale Lernen ist bei UNICEF jedoch noch in einem weiteren Aspekt sichtbar: Um für die Herausforderungen des digitalen Zeitalters gewappnet zu sein, richtete die Organisation 2013 eine eigene Onlineabteilung ein, in welcher bisherige ­ Online-Aktivitäten gebündelt worden sind und, die durch Mitarbeiter mit Berufserfahrung in Kommunikationsagenturen bereichert worden ist (vgl. Fitzpatrick 2018a, S. 214, 220). Durch diesen Import von Expertenwissen investierte UNICEF ökonomisches Kapital und wandelte es in Kulturkapital um. Der Webseite von UNICEF Deutschland ist zu entnehmen, dass die Abteilung im Jahr 2019 drei Schwerpunkte bildet: Digital Marketing, Digital Content und Digital Technology (Deutsches Komitee für UNICEF o. J.b). Auch politische Parteien machen sich Kulturkapital zunutze. Als Beispiel hierfür können parteinahe Stiftungen und Think Tanks angeführt werden. Hildmann (2011) betont die Besonderheit politischer Stiftungen und charakterisiert sie als „weltweit einmalig“ (ebd., S. 123). Sie sind politisch unabhängig, aber parteinah. „Wissenschaftliche Politikberatung […] [sei] heute ein unverzichtbarer Teil demokratischer Prozesse“, so Hildmann (2011, S. 125). Dabei generieren die Stiftungen aus ihren Netzwerken (Sozialkapital) kulturelles Kapital, denn „[s]ie pflegen und knüpfen Netzwerke auf allen relevanten wissenschaftlichen, wirtschaftlichen, gesellschaftlichen und natürlich politischen Ebenen“ und wirken als „wissenschaftliche Ideenbörse ihrer jeweiligen Mutterpartei“ (Hildmann 2011, S. 125). Etwas komplexer ist die Umwandlung ökonomischen Kapitals in Kulturkapital: die politischen Stiftungen sind zu einem überwiegenden Teil durch öffentliche Mittel finanziert. Die Konrad-Adenauer-Stiftung schreibt etwa auf ihrer Webseite, dass sie sich zu 99 % aus öffentlichen Mitteln finanziert. Diese Mittel werden etwa durch Ministerien zur Verfügung gestellt. Insofern wird politisches Kapital der Parteien in ökonomisches Kapital der Stiftungen umgewandelt. Ein Großteil dieses Budgets wird in Bildungsprojekte übersetzt, die der Allgemeinheit zugute kommen, oder in Stipendien für Studierende. Ein Teil des Budgets wird auch in Forschungsprojekten – also direkt zur Generierung von Kulturkapital – genutzt (vgl. Abb. 3).

Kapitale Konsequenzen für organisierte Interessenvertretung …

163

Abb. 3   Einnahmen und Ausgaben politischer Stiftungen (FES: Friedrich-Ebert-Stiftung; KAS: Konrad-Adenauer-Stiftung; RLS: Rosa-Luxemburg-Stiftung; HBS: HeinrichBöll-Stiftung; HSS: Hanns-Seidel-Stiftung; FNS: Friedrich-Naumann-Stiftung.) (Auswahl). (Quelle: eigene, vergleichende Zusammenstellung auf Basis von Auskünften der Stiftungen)

Unter den politischen Stiftungen haben die Friedrich-Ebert-Stiftung und die Konrad-Adenauer-Stiftung den größten Gesamtetat. Sie sind auch die einzigen, die über ein Forschungsbudget verfügen.5 Betrachtet man die Stipendien, die nicht per se als Forschungsausgabe gelten können, jedoch zum Beispiel Promovierende und begabte Studierende fördern, fällt auf, dass der Anteil, den Stiftungen hierfür aufwenden, in etwa gleich ist und bei 15–18 % des Gesamtetats liegt. Auch hier wird ökonomisches Kapital in Kulturkapital umgewandelt – allerdings nicht zugunsten der Parteien selbst, sondern zugunsten von begabten

5Die

Angaben stammen aus den Jahres- bzw. Geschäftsberichten der jeweiligen Stiftung. Bei den vier kleineren Stiftungen wurde zusätzlich die Finanzabteilung kontaktiert, um Klarheit zu schaffen.

164

J. Fitzpatrick

Studierenden und Promovierenden, die den Parteien jedoch wiederum selbst nahestehen. Die politischen Stiftungen leisten also gerade im Bereich der Bildungsarbeit wichtige Dienste für Demokratie und Parteien zugleich, die neben dem politischen Wissenserwerb auch eine Politisierung bewirken. In den letzten Jahren wurde zusätzlich zu den Printprodukten und Veranstaltungen, die Stiftungen bereitstellen, Onlineangebote entwickelt, die politische Bildung fördern. Auf der Seite der Friedrich-Ebert-Stiftung findet sich etwa die FES-Online-Akademie mit Erklärfilmen, Webinaren und Texten. Die Heinrich-Böll-Stiftung hält Podcasts bereit – ganz ähnlich wie die Friedrich-Naumann-Stiftung mit ihrer Mediathek.

3.3 Soziales Kapital: Unterstützermobilisierung UnterstützerInnen sind für politische Organisationen zentral, um ihren politischen Konzepten Gewicht zu verleihen und sie letztendlich verwirklichen zu können. Eine hohe Zahl an aktiven und passiven UnterstützerInnen kann dabei als Online-Sozialkapital verstanden werden, das eine spezielle Form des Sozialkapitals darstellt. Es unterscheidet sich vom Digitalkapital (s. o. und Ignatow und Robinson 2017) in der Hinsicht, dass nicht die Reichweite im Vordergrund steht, sondern das Netzwerk aus Individuen, die laut Bourdieus Definition des Sozialkapitals durch ihre Beziehungen im Sinne des „gegenseitigen Kennens und Anerkennens verbunden sind“ (Bourdieu 1983, S. 190). Diese Beziehung kann ausschließlich oder ergänzend in der digitalen Sphäre bestehen. Die Generierung von ­Online-Sozialkapital ist nicht unumstritten hinsichtlich ihres ‚realen‘ Wertes. Das hat verschiedene Gründe: Zum einen steuern unterschiedliche theoretische Schulen hier Argumente bei, die es bei der eigenen Positionierung abzuwägen gilt. Faucher (2018) konzipiert das Verständnis von (sozialem Online-)Kapital in Anlehnung an Marx. Mit dieser kritischen Perspektive wirft er Fragen auf, die den Vergleich von Social-Media-Nutzern mit Arbeitern herstellen, die jedoch keinem klaren Arbeitgeber zuzuordnen sind (Faucher 2018, S. 15). Faucher zweifelt zudem an der direkten Umwandelbarkeit von Online-Sozialkapital in andere Kapitalarten. Diese Perspektive scheint in mancherlei Hinsicht schwierig mit Bourdieus Verständnis vereinbar zu sein und wird daher an dieser Stelle ausgeklammert. Zum anderen könnte angeführt werden, dass Online-Sozialkapital leicht zu manipulieren sei, da Click Farms, Bots und dergleichen starke Verzerrungen verursachen können (vgl. etwa Faucher 2018). Folgt man der oben genannten Definition von Bourdieu, ist dies jedoch nicht unbedingt ein Problem des Sozialkapitals, denn dieses beruht auf „gegenseitige[m] Kennen und Anerkennen“. Digitales Kapital im Verständnis von Ignatow und Robinson (2017)

Kapitale Konsequenzen für organisierte Interessenvertretung …

165

Abb. 4   Buttons auf www.greenpeace.org/africa/en/am 03.09.2016. (Quelle: archive.org)

kann jedoch durch Click Fraud manipuliert werden, da es sich auf Reichweiten, Dimension und Gewandtheit im Onlineverhalten bezieht. Wie generieren und nutzen politische Organisationen Sozialkapital online? Onlinenutzer, die eine politische Organisation kennen und die Onlinepräsenzen dieser Organisationen wahrnehmen, sind eine wichtige Ressource, um andere auf die Organisation aufmerksam zu machen und gegebenenfalls zu aktivieren. Beispielsweise steuern Individuen, die eine zivilgesellschaftliche Organisation oder politische Partei kennen und ideell unterstützen, deren Webseite an, um sich zu informieren und darüber hinaus vielleicht auch zu handeln. Viele politische Organisationen bieten daher gezielt die Rubriken Information, Mitmachen und Spenden auf ihren Webseiten an. Gerade beim Vergleich vieler Webseiten politischer Organisationen im Zeitverlauf fallen Besonderheiten auf. Einige Organisationen experimentieren mit Design und Funktionen oder tragen durch spezielle Angebote ihrer Zielgruppe Rechnung. Greenpeace Africa etwa lieferte bis 2018 auf der Organisationswebseite ein auffälliges Beispiel für Kapitalumwandlung: Die Organisation rief die Besucher der Webseite dazu auf, einen Tweet zu spenden: „Donate a tweet! (it’s free)“ lockte der entsprechende Button6 . Auf dem weißen Webseitenhintergrund fiel der hellgrüne Button besonders auf (vgl. Abb. 4). Greenpeace Africa verwendet den Spendenbegriff, der eigentlich eher im Kontext von ökonomischem Kapital steht, um gezielt digitales Kapital aus dem Sozialkapital ihrer Seitenbesucher zu generieren. Die Seitenbesucher machen ihr digitales Netzwerk (Sozialkapital) so auf Inhalte von Greenpeace Africa

6Via

archive.org ist die Seite von Greenpeace Africa rückwirkend bis 2010 abrufbar unter der Suchfeldeingabe https://www.greenpeace.org/africa/en/.

166

J. Fitzpatrick

aufmerksam und erhöhen dadurch die Reichweite der Organisation bei Twitter (digitales Kapital). Direkt darüber findet sich der Aufruf sich bei Greenwire zu registrieren. „Greenwire ist eine Plattform für alle Menschen, die mit Greenpeace aktiv werden wollen“ (Greenpeace o. J.). Hier nutzt Greenpeace also die webbasierte Technologie, um seine Mitglieder global miteinander zu vernetzen. Mitglieder, die die Organisation kennen, können so mit anderen Mitgliedern in Kontakt treten und umweltpolitische Themen diskutieren sowie Projekte koordinieren. Auch der eingetragene Verein Sozialhelden nutzt sein online Sozialkapital. Sozialhelden vereint verschiedene Projekte, die z. B. eine konsequente Barrierefreiheit, Spenden von Flaschenpfand für wohltätige Zwecke oder Integration Geflüchteter zum Ziel haben. Ein Projekt ist Accessibility.Cloud. Mit diesem Projekt wandelt Sozialhelden e. V. sein Online-Sozialkapital in Kulturkapital um. Seitenbesucher können sich auf www.accessibility.cloud für das Projekt registrieren, dort Informationen zu Barrierefreiheit erhalten und selbst Informationen einspeisen. Ein weiteres Beispiel für eine Umwandlung von Sozialkapital durch Organisationen kann im Volksbegehren Artenvielfalt und Naturschönheit Bayern gesehen werden. Hier schließen sich mehrere Parteien und zivilgesellschaftliche Organisationen zusammen7 , um ein politisches Ziel zu verwirklichen. „[D] urch gegenseitiges Kennen und Anerkennen“ (Bourdieu 1983, S. 190) dieser Organisationen entsteht Sozialkapital. Das Volksbegehren wird durch eine umfassende Social-Media-Präsenz begleitet, die sich über YouTube, Facebook, Twitter, Pinterest und Instagram erstreckt und damit alle großen Plattformen bespielt. Dabei folgen die Bündnispartner jeweils der Social-Media-Präsenz des Volksbegehrens und umgekehrt, wie bei einer Betrachtung der Accounts zu sehen ist. So wird Sozialkapital einerseits in digitales Kapital verwandelt, aber auch in politisches Kapital. Die Effektivität zeigt sich im politischen Erfolg des Volksbegehrens, das durch die Bayerische Landesregierung aufgegriffen worden ist.

3.4 Politisches Kapital: Von Laien unter Druck gesetzt Politisches Kapital ist wie oben bereits beschrieben Prestigekapital, das mit Position und Macht einhergeht. Es kann beispielsweise über Sozialkapital und

7Eine

Liste aller Bündnispartner findet sich unter: https://volksbegehren-artenvielfalt.de/ buendnis-partner/ (04.07.2019).

Kapitale Konsequenzen für organisierte Interessenvertretung …

167

digitales Kapital generiert werden. In Zusammenhang mit sozialen Medien und Macht ist der Gedanke an den ‚Twitterpräsidenten‘ Donald Trump fast unvermeidlich. Als chancenlos geglaubter Außenseiter gestartet, verschaffte sich Trump durch sein aggressives Auftreten auf Twitter schnell große Reichweite (digitales Kapital). Zwar ist sein Wahlsieg mit Sicherheit nicht auf seine Nutzung von Twitter zurückzuführen, jedoch war er der Erste, der große Teile seines Wahlkampfes auf dieses Medium konzentrierte. Das mediale Echo, das durch das Aufgreifen seiner Posts durch klassische Medien erzeugt worden ist, transportierte Trumps Kommentare in die Sphäre außerhalb der sozialen Medien. Dort konnte Trump somit auch andere Gruppen erreichen, als jene, die ihm in den sozialen Medien folgten. Mit seinen oftmals amateurhaft wirkenden Äußerungen, die entweder kalkuliert oder Ausdruck eines unberechenbaren Kandidaten waren, übertrumpfte Trump die professionalisierte Kampagne seiner Gegnerin (Enli 2017). Auch während seiner Amtszeit beruht ein Großteil der Kommunikation Trumps auf Twitter. Dieses Beispiel zeigt, wie sich Außenseiter über eine Anhäufung von digitalem Kapital auch politischen Einfluss verschaffen können. Bourdieu schreibt, „da[ss] das politische Universum auf Schließungen beruht“ (2001, S. 44). Damit einher geht, „da[ss] bestimmte Politiker, denjenigen Laien, die sich in die Politik einmischen wollen, den Vorwurf der Inkompetenz machen“ (ebd.). Diese Ausführungen zum politischen Feld sind besonders interessant, wenn man bedenkt, dass das Web und insbesondere das Web 2.0 immer wieder als Hoffnungsträger für politische Teilhabe gesehen wird. Wie einzelne AkteurInnen mit hohem digitalen Kapital AkteurInnen mit hohem politischen Kapital herausfordern können, war im Europawahlkampf 2019 zu beobachten. Während der Wahlkampf zwischen den beteiligten Parteien überwiegend ereignislos verlief, sorgte in der letzten Woche vor dem Wahlkampf ein unvorhergesehener Akteur für Furore: Rezo. Rezo ist ein YouTube-Künstler, der vor allem Musik-Content über die Videoplattform verbreitet hat. Insofern ist er politischer Laie. Mit seinem Video ‚Die Zerstörung der CDU‘ positionierte er sich jedoch politisch.8 Mithilfe von teilweise selektiven Informationen, die jedoch stets mit Quellen versehen waren, attackierte er die Regierungsparteien CDU, CSU und SPD und kritisierte vor allem deren Klima- und Sozialpolitik. Dabei formulierte er seine Aussagen in Jugendsprache; schnelle Schnitte und Einblendungen von Video- und Bildmaterial unterlegt mit Musik stellten innerhalb weniger Tage eine Herausforderung für die Parteien dar, mit der sie zum einen

8Das

Video ist auf YouTube unter folgendem Link abrufbar: https://www.youtube.com/ watch?v=4Y1lZQsyuSQ (04.07.2019).

168

J. Fitzpatrick

nicht gerechnet hatten und auf die sie zum anderen keine überzeugende Antwort produzieren konnten. Nach einigen Tagen konterte die CDU mit einem mehrseitigen P ­ DF-Dokument, das sowohl in der Aufmachung als auch inhaltlich keine zielgruppengerechte, adäquate Antwort gewesen ist, die den Reputationsschaden mindern konnte.9 Auf die Stellungnahme der CDU folgte stattdessen eine erneute Videoproduktion, in der neben Rezo andere InfluencerInnen die Positionen aus dem Video unterstrichen und ihre enorme Reichweite bei YouTube und anderen Medien nutzten, um ihre Botschaft zu verbreiten. Unterstützung fand die CDU zum Teil etwa von der Frankfurter Allgemeinen.10 Losgelöst von Fragen zum Inhalt oder zur Sprache muss konstatiert werden, dass hier eine Umwandlung von Kapital stattgefunden hat. Mit seinem Video erreichte Rezo Millionen. Dies lag nicht zuletzt daran, dass auch die klassischen Medien über sein Video berichteten und damit andere Nutzer, außerhalb seines ursprünglichen Follower-Kreises, auf ihn aufmerksam geworden sind. Durch seine erfolgreiche Intervention in den Wahlkampf beabsichtigte Rezo das politische Kapital der Regierungsparteien zu schmälern. Dazu setzte er sein digitales Kapital ein (vgl. unten). Was sich mit etwas zeitlichem Abstand feststellen lässt, ist die Beobachtung, dass wir einen Kampf um Deutungshoheit bezeugen konnten. Die CDU, die auf Basis von Studien aber auch ihres politischen Einflusses und ihrer Position als stärkste Partei Deutungshoheit für sich beanspruchte und ein Herausforderer, der ebenso Studien und seinen digitalen Einfluss und seine Position in einem Netzwerk von InfluencerInnen geltend machte, um Deutungshoheit über politische Themen zu erhalten. Dieser Schlagabtausch ist mindestens in Deutschland beispiellos. Inwiefern jedoch dieses Ereignis Einfluss auf das Wahlergebnis hatte, ist nicht mit Klarheit zu beantworten. Grüne Themen sind durch Bewegungen wie Fridays for Future, Volksbegehren wie Artenvielfalt und Naturschönheit Bayern und die anhaltende Debatte um die CO2-Reduktion bereits bei vorherigen Wahlen auf Landesebene in der Öffentlichkeit präsent gewesen. Die anhaltenden Personalfragen bei Union und SPD hatten zusätzlich zu den policy-bezogenen Aspekten sicherlich auch einen Einfluss auf das aus Sicht dieser Parteien ernüchternde Wahlergebnis bei der letzten Europawahl.

9Das

PDF ist abrufbar unter: https://www.cdu.de/artikel/offene-antwort-rezo-wie-wir-diesache-sehen (04.07.2019). 10Hier mischte sich vor allem Jasper von Altenbockum ein, etwa mit dem Beitrag „Jeder Link ein Armutszeugnis“ (https://www.faz.net/-gpg-9n9rq, 04.07.2019) und einer Debatte auf Twitter z.  B. unter https://twitter.com/altenbockum/status/1131827503025283072 (Tweet vom 24.05.2019, 9:41 Uhr; zuletzt abgerufen am 04.07.2019).

Kapitale Konsequenzen für organisierte Interessenvertretung …

169

3.5 Digitales Kapital: Teures Gut Während ein professioneller Onlineauftritt und große Reichweiten im Wettbewerb um Aufmerksamkeit unverzichtbar geworden sind, gehen damit finanzielle Kosten einher, die für Personal, Endgeräte, aber auch Softwarelizenzen und IT-Sicherheit aufgewendet werden müssen. Zudem ist Wissen notwendig, wie die Komponenten digitalen Kapitals nach Ignatow und Robinson (2017, S. 952) – „the reach, scale, and sophistication of […] online behavior“ optimiert werden können. Dazu sind im Kontext der politischen Parteien in Deutschland beispielsweise in den letzten Jahren spezialisierte Think Tanks entstanden, wie etwa D64 (SPD-nah), cnetz (unionsnah) oder LOAD (FDP-nah). Diese gemeinnützigen Vereine bieten Plattformen für Diskussion und Meinungsbildung zum Thema Internet und Netzpolitik. Ein Blick auf die dahinterstehenden Personen verdeutlicht zugleich, dass hier viele Parteiaktive sowie AmtsträgerInnen involviert sind. Diese Think Tanks sind somit auch Zentralen der wechselseitigen Umwandlung von kulturellem, digitalem, sozialem und politischem Kapital. Anknüpfend an die Frage, wie viel ökonomisches Kapital politische Organisationen in ihr digitales Kapital umwandeln, soll hier ein Beispiel aus Schottland dienen. Seit 2012 berichtet die Scottish National Party (SNP) in ihren Finanzaufstellungen die Ausgaben für Informations- und Kommunikationstechnologien (ICTs) (vgl. Tab. 3). Aus den Zahlen ist generell ein Anstieg in den Ausgaben für ICTs erkennbar. In den Wahljahren ab 2014, in denen den WählerInnen jeweils mehrere richtungsweisende Entscheidungen abverlangt worden sind, ist das Budget laut Finanzberichten für die Computer Systeme, Server, IT-Support, Programming und Development sowie für die Webseite verwendet worden. Für das Jahr 2017 ist hier ein enormer Anstieg in diesem Kostenpunkt zu bemerken. Noch interessanter als der deutliche Anstieg an sich ist die Begründung: The importance of defending ICT systems from malicious attacks and protecting personal data from unauthorised access and misuse is fully recognised by the SNP. In response to the increasing risk in this area, significant investment is being made in a programme of work to upgrade SNP computer systems and extend the use by staff and volunteers of new and more powerful software primarily using the [Anm. der Autorin: Anbieter geschwärzt] CRM platform. Schließt man sich der Definition an, die Ignatow und Robinson digitalem Kapital zugrunde legen (Reichweiten, Dimension und Gewandtheit im Onlineverhalten), scheint hier eine Umdeutung des Aspekts der Gewandtheit (sophistication) notwendig zu werden. Dazu sollte auch die Fähigkeit gezählt

Schottische Parla- – mentswahl

Wahlen/ Abstimmungen

2012 144.125

2011

94.906

SNP

£ für ICTs –

114.301

2013 EP/Independence

166.692

2014 General Election

149.460

2015

BREXIT/Schottische Parlamentswahl

144.796

2016

General Election

233.496

2017

Tab. 3   Ausgaben der SNP für ICTs. (Quelle: Finanzberichte der Partei; verfügbar unter www.electoralcommission.org.uk, 01.06.2019)

170 J. Fitzpatrick

Kapitale Konsequenzen für organisierte Interessenvertretung …

171

werden, sich gegen Cyberattacken, bei denen Daten ausgespäht, Konten missbraucht oder Nutzer in anderer Art und Weise geschädigt werden können. Damit erhält Onlineverhalten zusätzlich zu seiner aktiven, kreativen Gestalt auch noch eine defensive Komponente. Für diese Komponente ist zum einen kulturelles Kapital notwendig, um Gefahren abschätzen und schützende Maßnahmen ergreifen zu können. Zum anderen wird anhand des oben genannten Beispiels ersichtlich, dass diese Maßnahmen kostenintensiv sind und somit ökonomisches Kapital umgewandelt werden muss.

4 Implikationen für die Demokratie Im Folgenden sollen die bisherigen Überlegungen in Bezug zu demokratietheoretischen Konsequenzen von Digitalisierung gesetzt werden. Bourdieu tritt in der Politikwissenschaft oftmals hinter andere Theoretiker zurück, da er einen anderen Kapitalbegriff zugrunde legt als Marx und Sozialkapital in der Façon á la Putnam oder Granovetter mit ihrem Netzwerkcharakter für die Betrachtung politikwissenschaftlicher Fragestellungen vielleicht naheliegender sind. Jedoch wurde gezeigt, dass Bourdieus Kapitalbegriff gerade auch für eine Betrachtung der Konsequenzen von Digitalisierung sinnvoll ist. Kapital in jeglicher Form ist ungleich verteilt. Das hat sich auch durch die digitale Revolution nicht geändert. Hinzugekommen ist jedoch ein weiterer Faktor, der Umwandlung ermöglicht und der Umwandlung und Umverteilung von anderen Kapitalarten ermöglicht. Digitales Kapital begriffen als „the reach, scale, and sophistication of […] online behavior“ (Ignatow und Robinson 2017, S. 952) kann kombiniert mit dem Wissen um dessen Potenziale (Kulturkapital) Chancen für AkteurInnen bieten, die durch die vorherige Kapitalverteilung benachteiligt gewesen sind. Dies kann bedeuten, dass Pluralismus und Wettbewerb, verstanden als Streit um die besten Ideen, ehrlicher betrieben werden kann. Davon würde Demokratie profitieren, wenn zwei Bedingungen erfüllt wären: Erstens müssen Standards wie Grund- und Menschenrechte und fundamentale demokratische Prinzipien als unveräußerlich gelten. Meinungsfreiheit ist dabei als ebenso hohes Gut zu betrachten, wie ein angemessener Modus diese auszuleben – dazu zählt es sich nicht zu Beleidigungen, Verunglimpfungen und Tatsachenverdrehung hinreißen zu lassen. Dies würde eine gefestigte Identität als DemokratInnen erfordern und zugleich verstärken. Die zweite Bedingung ist Offenheit für Wandel. Demokratie und die Art, wie wir diesen Begriff mit Leben füllen, hat sich immer verändert, im Hinblick auf die, die teilnehmen dürfen, aber auch auf die Ausgestaltung von Gremien und Prozeduren. Gefestigte, resiliente

172

J. Fitzpatrick

DemokratInnen können sich auf das Neue, das die Digitalisierung bereithält, einlassen, ohne ihren demokratischen Kern zu verlieren oder zu verfälschen. Insofern hat die Digitalisierung vielleicht weniger verändert, als wir es uns wünschen. Es kommt nach wie vor darauf an, wie BürgerInnen Demokratie leben. Die Frage nach notwendigen Tugenden guter BürgerInnen ist dabei keine neue, noch muss sie komplett neu für die digitalisierte Demokratie gestellt werden. Diese Punkte bilden unter Stichworten wie Anxieties of Democracy, Democratic Resilience oder Democratic Innovations Forschungsschwerpunkte, die unter Beteiligung verschiedener Universitäten interdisziplinär betrachtet werden.11

5 Fazit und offene Fragen Dieser Beitrag verfolgte zwei Ziele: Es sollte zum einen gezeigt werden, wie Bourdieus Überlegungen zu verschiedenen Formen des Kapitals und der Möglichkeit der wechselseitigen Umwandlung dieser Formen für eine politikwissenschaftliche Auseinandersetzung mit politischen Organisationen nutzbar gemacht werden können. Dabei sollte zum anderen der Schwerpunkt auf Umwandlungsprozessen liegen, die durch den Einsatz webbasierter Technologien ermöglicht werden. Es wurde gezeigt, dass einige Studien bereits implizit Bourdieus Überlegungen Rechnung tragen, ohne direkten Bezug auf ihn zu nehmen. Zudem wurden zentrale, primäre und sekundäre Formen des Kapitals (ökonomisch, kulturell, sozial, politisch und digital) in den Fokus gestellt und anhand verschiedener Beispiele erläutert, welchen Stellenwert diese Kapitalformen für politische Organisationen haben und wie sie jeweils dieses Kapital webbasiert generieren. Dabei wurden sowohl Parteien als auch zivilgesellschaftliche Organisationen aus unterschiedlichen Ländern beispielhaft betrachtet. Zentrale Ergebnisse bestehen in der Feststellung, dass die Zugrundelegung von Bourdieus Kapitalbegriff mit seinen verschiedenen Formen einen deutlichen Mehrwert für die Analyse politischer Organisationen darstellt. So machen die verschiedenen Kapitalformen wahrnehmbare Entwicklungen beschreibbar

11Zu

nennen sind hier etwa die gemeinsame Initiative des Social Science Research Councils mit der DFG, die ein internationales Forschernetzwerk zum Thema „Democratic Anxieties“ fördert sowie die Forschungsstelle Demokratische Innovation an der Goethe Universität Frankfurt oder die Arbeitsgruppen Digital Citizenship und Demokratie und Digitalisierung am Weizenbaum Institut Berlin.

Kapitale Konsequenzen für organisierte Interessenvertretung …

173

und nachvollziehbar. Digitalisierung bietet politischen Akteuren einerseits die Möglichkeit ökonomisches Kapital zu generieren, erfordert jedoch auch stetige Reinvestitionen – nicht nur in Form von ökonomischem Kapital. Aus dieser Erkenntnis heraus lassen sich Anschlussfragen formulieren: Beispielsweise finden wir unterschiedliche Befunde, wenn es darum geht zu evaluieren, ob die Normalisierungsthese oder die Mobilisierungsthese durch eine fortschreitende Verbreitung webbasierter Technologien zu unterstützen ist. Hier könnte eine differenzierte Betrachtung verschiedener Kapitalformen unter Kontrolle anderer, bekannter Kontexteffekte einen Mehrwert bringen. Während in diesem Beitrag zunächst anhand von Beispielen gezeigt wurde, dass Umwandlungsprozesse stattfinden, könnten künftige Betrachtungen ausgewählte Kapitalformen in den Fokus stellen und auf breiterer Basis Systematiken identifizieren. Zudem gilt es herauszufinden, welche Kontextfaktoren wirken. Hier ist es zum Beispiel möglich, dass Effekte der Digitalen Spaltung auch auf der Mesoebene feststellbar sind. Des Weiteren ist es denkbar, dass zivilgesellschaftliche Organisationen in verschiedenen Policy-Feldern jeweils typische Umwandlungsstrategien entwickelt haben, die sich zum einen von Organisationen in anderen Policy-Feldern und/oder Parteien unterscheiden. Zudem könnte noch geprüft werden, welche Kapitalarten und Umwandlungsprozesse für Organisationen im Sinne ihrer Ziele essenziell sind.

Literatur- und Quellenverzeichnis Bossetta, M. 2018. The digital architectures of social media: Comparing political campaigning on Facebook, Twitter, Instagram, and Snapchat in the 2016 U.S. election. Journalism & Mass Communication Quarterly 95(2): 471–496. Bourdieu, P. 1983. Ökonomisches Kapital, kulturelles Kapital, soziales Kapital. In Soziale Ungleichheiten, Hrsg. R. Kreckel, 183–198. Göttingen: Schwartz (Soziale Welt. Sonderband, 2). Bourdieu, P. 2001. Das politische Feld. Zur Kritik der politischen Vernunft, 29. Konstanz: UVK-Verlagsgesellschaft mbH (Édition discours). Bourdieu, P., und H. Köhler. 1981. Titel und Stelle. Über die Reproduktion sozialer Macht. Frankfurt a. M.: Europäische Verlagsanstalt. Deutsches Komitee für UNICEF. o. J.a. Transparenzpreise & Siegel. https://www.unicef. de/informieren/ueber-uns/transparenz-bei-unicef/transparenzpreise-und-siegel. Zugegriffen: 3. Juni 2019. Deutsches Komitee für UNICEF. o. J.b. Über uns. https://www.unicef.de/informieren/ ueber-uns/unicef-deutschland/kontakt. Zugegriffen: 3. Juni 2019. Dommett, K. 2018. Roadblocks to interactive digital adoption? Elite perspectives of party practices in the United Kingdom. Party Politics. doi: 10.1177/1354068818761196.

174

J. Fitzpatrick

Enli, G. 2017. Twitter as arena for the authentic outsider: Exploring the social media campaigns of Trump and Clinton in the 2016 US presidential election. European Journal of Communication 32(1): 50–61. Faucher, K.X. 2018. Social capital online: Alientation and accumulation. London: University of Westminster Press. Fitzpatrick, J. 2018a. Digital Civil Society. Wie zivilgesellschaftliche Organisationen im Web 2.0 politische Ziele verfolgen. Wiesbaden: Springer VS. Fitzpatrick, J. 2018b. Zwitschern für Stimmen – Der Einsatz von Twitter im Bundestagswahlkampf 2017. Zeitschrift für Parlamentsfragen 49(3): 603–617. Fitzpatrick, J. 2019. The Five-Pillar-Model of Parties' Migration into the Digital. [Eingereichtes Manuskript, zudem angenommenes Konferenzpapier bei der ECPR General Conference 2019 in Wroclaw, Polen]. Garvin, D.A. 1993. Building a learning organization. Harvard Business Review. https://hbr. org/1993/07/building-a-learning-organization. Zugegriffen: 31. Mai 2019. Gibson, R.K., und I. McAllister. 2015. Normalising or equalising party competition? Assessing the impact of the web on election campaigning. Political Studies 63(3): 529– 547. Gibson, R., A. Römmele, und A. Williamson. 2014. Chasing the digital wave: International perspectives on the growth of online campaigning. Journal of Information Technology & Politics 11(2): 123–129. Granovetter, Mark S. 1973. The strength of weak ties the strength of weak ties. The American Journal of Sociology 78: 1360–1380. Greenpeace. o.  J. Handbuch Greenwire. https://greenwire.greenpeace.de/handbuch. Zugegriffen: 2. Juli 2019. Greenspan, I. 2014. How can Bourdieu’s theory of capital benefit the understanding of advocacy NGOs? Theoretical framework and empirical illustration. Nonprofit and Voluntary Sector Quarterly 43(1): 99–120. Helms, L. 2001. Die „Kartellparteien“-These und ihre Kritiker. Politische Vierteljahresschrift 42: 698–708. Hildmann, P. 2011. Aufgefordert, das Undenkbare zu denken: Politische Stiftungen als Akteure wissenschaftlicher Politikberatung. Zeitschrift Für Politikberatung (ZPB)/ Policy Advice and Political Consulting, 4(3), 123–129. Hindman, M. 2005. The real lessons of Howard Dean: Reflections on the first digital campaign. Perspectives on Politics 3(1): 121–128. Ignatow, G., und L. Robinson. 2017. Pierre Bourdieu: Theorizing the digital. Information, Communication & Society 20(7): 950–966. Jackson, N.A., und D.G. Lilleker. 2009. Building an architecture of participation? Political parties and web 2.0 in Britain. Journal of Information Technology & Politics 6(3–4): 232–250. Jensen, M.J. 2017. Social media and political campaigning: Changing terms of engagement? The International Journal of Press/Politics 22(1): 23–42. Katz, R.S., und P. Mair. 1995. Changing models of party organization and party democracy: The emergence of the cartel party. Party Politics 1(1): 5–28. Koc-Michalska, K., D.G. Lilleker, A. Smith, und D. Weissmann. 2016. The normalization of online campaigning in the web 2.0 era. European Journal of Communication 31(3): 331–350.

Kapitale Konsequenzen für organisierte Interessenvertretung …

175

Kreiss, D. 2012. Taking our country back: The crafting of networked politics from Howard Dean to Barack Obama. New York: Oxford University Press Inc. Lilleker, D.G., K. Koc-Michalska, E.J. Schweitzer, M. Jacunski, N. Jackson, und T. Vedel. 2011. Informing, engaging, mobilizing or interacting: Searching for a European model of web campaigning. European Journal of Communication 26(3): 195–213. Margetts, H. 2019. 9. Rethinking democracy with social media. The Political Quarterly 90(S1): 107–123. Meiritz, A. 2008. Spendenaffäre. Unicef-Geschäftsführer räumt erstmals Fehler ein. Spiegel online. https://www.spiegel.de/politik/deutschland/spendenaffaere-unicefgeschaeftsfuehrer-raeumt-erstmals-fehler-ein-a-533348.html. Zugegriffen: 2. Juli 2019. Putnam, R.D. 2000. Bowling alone: The collapse and revival of american community. New York: Simon & Schuster. Rogers, E.M. 2003. Diffusion of innovations. New York: Free Press. Schweitzer, E.J. 2011. Normalization 2.0: A longitudinal analysis of German online campaigns in the national elections 2002–9. European Journal of Communication 26(4): 310–327. Spierings, N., und K. Jacobs. 2019. Political parties and social media campaigning. Acta Politica. 54(1): 145–173. Zillien, N. 2009. Digitale Ungleichheit. Wiesbaden: VS Verlag.

Europas pragmatische Netzöffentlichkeit Moritz Wiesenthal

1 Einleitung Die Digitalisierung hat tief greifende Auswirkungen auf Form, Funktion und Prozesse moderner Gesellschaften. Als Querschnittsthema prägt sie alltägliche Lebensbereiche der verschiedensten Kategorien, von Arbeitswelt über Konsumverhalten bis hin zu Klimaschutz. Damit unterliegt zwangsweise jeder Versuch einer einheitlichen Definition von Digitalisierung einer konzeptionellen Schwierigkeit, es sei denn, er beschränkt sich auf ihre rein technische Natur. Aus politikwissenschaftlicher Perspektive wird Digitalisierung erst dann zum spannenden Untersuchungsobjekt, wenn ihre Auswirkungen gesellschaftliche Strukturen im allgemeinen und politische Prozesse, Akteure und Institutionen im Besonderen betreffen (Jacob und Thiel 2017, S. 7). Doch auch im spezifischen Feld der Politikwissenschaft gestalten sich Begriffsgebrauch und -deutung schwierig. Grund dafür ist nicht selten, dass digitale Transformationsprozesse in den einzelnen Teilbereichen politischer Theorie durchaus unterschiedliche und gegensätzliche Auswirkungen haben können. Während beispielsweise in der politischen Ökonomie bereits früh die Auswirkungen der Digitalisierung auf das globale Wirtschaftssystem durchaus kritisch hinterfragt wurden, wirkte die politische Partizipationsforschung noch lange euphorisiert ob der neuen Möglichkeiten internetbasierter Beteiligung (für eine kritische Auseinandersetzung mit Partizipation s. z. B.: Partizipation: Tucker et al. 2017).

M. Wiesenthal (*)  Europa-Universität Viadrina, Frankfurt (Oder), Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_9

177

178

M. Wiesenthal

Vor diesem Hintergrund scheint es mir angebracht, eine demokratieorientierte Analyse der digitalen Transformation in einem einzelnen Teilbereich zu konzentrieren. In der Schnittmenge empirischer Auswirkungen des digitalen Wandels und aktueller Debatten um demokratische Entwicklungen in der Europäischen Union (EU) erscheint hierbei Öffentlichkeit1 von besonderem Interesse. Erstens war und ist Öffentlichkeit besonders von Prozessen der Digitalisierung betroffen, u. a. in Form von Akteuren (wie Zivilgesellschaft und JournalistInnen2), Prozessen (wie politischer und privater Kommunikation) und Strukturen (Verlagswesen und Medien). Zweitens ist Öffentlichkeit ein konstitutives Element des demokratischen Willensbildungsprozesses und erfüllt darüber hinaus Integrationsfunktionen für weitere politische Teilsegmente (vgl. Gerhards und Neidhardt 1991, S. 40). Schließlich kommt dem Teilsegment Öffentlichkeit gerade im Kontext der EU eine besondere Relevanz zu, denn auch hier gilt die unverzichtbare Verschränkung von Demokratie und Öffentlichkeit: Solange die EU den Anspruch für sich selbst erhebt, ein demokratisches Konstrukt zu sein, kann sie auf Öffentlichkeit nicht verzichten (Lingenberg 2010, S. 80). Gleichzeitig weist die zunehmende Politisierung der EU auf einen Arenenwechsel hin, bei dem die Auseinandersetzung um europäische Politik von einer interessenorientierten Verhandlung zwischen Eliten in eine identitätsverankerte Debatte in Massenarenen umschwenkt (Hooghe und Marks 2019). Damit steigen auch die Herausforderungen an eine europäische Öffentlichkeit als legitimatorischer Resonanzboden für politische Entscheidungen. Aus einer europäischen Perspektive betrachtet steht die Auseinandersetzung um den Begriff Öffentlichkeit damit in einem doppelten Spannungsfeld: Einerseits muss die Konzeptualisierung des Begriffs den spezifischen Strukturmerkmalen der EU Rechnung tragen. Andererseits sollte ein zeitgemäßer Öffentlichkeitsansatz die Veränderungen durch den digitalen Wandel analytisch erfassen können, ohne von vorneherein in seiner Konsequenzanalyse normativ verengt zu sein.

1Öffentlichkeit

wird in diesem Artikel als Sammelbegriff verwendet. Für einen vertiefenden Einblick in die Qualität politischer Öffentlichkeit im digitalen Wandel siehe den Beitrag von Claudia Ritzi und Alexandra Zierold in diesem Band. 2Im vorliegenden Artikel wird zur Personenbezeichnung vor allem das generische Femininum (z.B. „die NutzerInnen“) verwendet. Selbstverständlich sind immer alle Geschlechter gemeint.

Europas pragmatische Netzöffentlichkeit

179

Als möglichen Ansatz thematisiert der folgende Artikel das Öffentlichkeitskonzept des amerikanischen Polit-Philosophen John Dewey.3 Als Teilelement von Deweys Konzept des demokratischen Experimentalismus bieten seine Ausführungen einen fruchtbaren Ansatz zur Vernetzung öffentlichkeitstheoretischer Überlegungen mit der empirischen Herausbildung einer europäischen ‚Public Sphere‘. Gleichzeitig eröffnet seine pragmatische Wissenschaftstheorie offene Schnittstellen für die analytischen Herausforderungen der Digitalisierung. Nach einer Einführung in das Wissenschaftsverständnis Deweys (Abschn. 2.1) skizzieren die folgenden zwei Kapitel analytische Stärken und normative Bezugspunkte seines Öffentlichkeitsverständnisses (Abschn. 2.2 und 2.3). Im folgenden Kapitel wird die Eignung seines Ansatzes im Rahmen eines normativen Modells europäischer Öffentlichkeit veranschaulicht (Kap. 3). Das letzte Kapitel hinterfragt die Substanz von Deweys Konzeption vor dem Hintergrund des digitalen Wandels in der Europäischen Union.

2 Pragmatische Öffentlichkeit 2.1 Deweys Wissenschaftsverständnis John Deweys Öffentlichkeitsbegriff ist maßgeblich vom wissenschaftstheoretischen Verständnis des amerikanischen Philosophen geprägt. Im Zentrum steht dabei die grundlegende Annahme des Pragmatismus, der gemeinhin als erste unabhängige Strömung der US-amerikanischen Philosophie bezeichnet wird (Neubert 1998, S. 57). Die Kernsubstanz von Deweys Auffassung über Wissenschaft eröffnet sich in seinen eigenen Worten, wenn er in einem seiner Hauptwerke Demokratie und Erziehung schreibt: Ein Gramm Erfahrung ist besser als eine Tonne Theorie, einfach deswegen, weil jede Theorie nur in der Erfahrung lebendige und der Nachprüfung zugängliche Bedeutung hat. Eine Erfahrung, selbst eine sehr bescheidene Erfahrung, kann Theorie in jedem Umfang erzeugen und tragen, aber eine Theorie ohne Bezugnahme auf irgendwelche Erfahrung kann nicht einmal als Theorie bestimmt und klar erfasst werden. (Dewey 2011).

3John

Dewey (1859-1952) war US-amerikanischer Philosoph, Pädagoge und Theoretiker. Er gilt als einer der bedeutendsten Vertreter des amerikanischen Pragmatismus und prägende Figur der Chicagoer Schule.

180

M. Wiesenthal

Mit dieser Auffassung nimmt Dewey zentrale Aspekte des Kritischen Rationalismus vorweg. Gleichzeitig spiegelt sein Pragmatismus die Annahme wider, dass gesellschaftliche Fragen und Probleme im Licht einer rein philosophischen Betrachtung nur unzureichend beleuchtet werden können. Für Dewey ist die Empirie in Form alltäglicher Erfahrung Ausgangspunkt und zugleich Projektionsfläche sozialwissenschaftlichen und philosophischen Handelns. Mit dieser Rückbindung theoretischer Überlegungen an konkrete Erfahrungen unterläuft er eine kategorische Abgrenzung zwischen normativer und deskriptiver Perspektive und damit zwischen Theorie und Empirie (Antić 2017, S. 141). Im Rahmen seiner Öffentlichkeitskonzeption ist Deweys Wissenschaftsverständnis von Bedeutung, weil es seine Anspruchshaltung gegenüber dem Konzept der Öffentlichkeit maßgeblich prägt: Weder stellt es einen ausschließlich empirischen Ansatz dar, der auf das reine Messen vorhandener Kommunikationsflüsse abstellt, noch kann es als normatives Denkmuster bezeichnet werden, das Öffentlichkeit ausschließlich in ihrer Zielfunktion für Demokratie definiert. Damit gewinnt Deweys Ansatz besonders für den digitalisierungsinduzierten Wandel von Öffentlichkeitsbegriffen mit europäischem Bezug an Attraktivität, weil es nicht von vorneherein aus maximalistischen Ansprüchen heraus eine europäische Öffentlichkeit für unmöglich erklärt. Gleichzeitig formuliert es jedoch Rahmenbedingungen, die zu einem normativen Öffentlichkeitsverständnis beitragen. Eine erste Anbindung von Deweys Öffentlichkeitskonzept an Demokratietheorien ergibt sich in den historischen Rahmenbedingungen ihrer Entstehung. Zu Beginn des 20. Jahrhunderts war die US-amerikanische Gesellschaft geprägt von technologischen Fortschritten, insbesondere im Bereich der Mobilität. Flächendeckender Ausbau von Schienennetzen, Schifffahrt und der Beginn des Automobils veränderten auch den Bezugsrahmen politischer Gemeinschaften. Die mit steigender Mobilität einhergehenden wirtschaftlichen Verflechtungen überspannten zusehends vormals lokale Räume und führten so, zunächst innerhalb der USA, zur Entstehung einer gemeinschaftstranszendierenden Gruppe von „Betroffenen“. Angelehnt an Dahls (1994) Transformation der Demokratie lassen sich hier Parallelen zur Evolution vom Stadtstaat zum Nationalstaat ziehen. Diese Veränderungen stellten bislang etablierte Überlegungen zu Öffentlichkeit vor ein Dilemma, da sie in ihrer legitimatorischen Funktion durch die gesteigerten Interdependenzen nicht mehr auf einen lokalen Raum begrenzt werden konnte. Die sich anschließende Debatte über Öffentlichkeit in den USA hatte dann auch sehr unterschiedliche Ausprägungen. Während Walter Lippmann (2002) in einer pessimistischen Perspektive die Funktion der Öffentlichkeit

Europas pragmatische Netzöffentlichkeit

181

für die Demokratie schlussendlich ganz abstritt und von der „Öffentlichkeit als Phantom“ sprach, entwickelte Dewey aus den zeitgenössischen Herausforderungen neue Rahmenbedingungen für die demokratischen Funktionen von Öffentlichkeit. Am treffendsten lassen sich diese Rahmenbedingungen und die analytischen Auswirkungen seiner Konzeption anhand von Deweys Definition von Öffentlichkeit verdeutlichen. Für Dewey entsteht Öffentlichkeit über „die objektive Tatsache, daß menschliche Handlungen Folgen für andere haben, daß einige dieser Folgen wahrgenommen werden und daß ihre Wahrnehmung zu dem anschließenden Bestreben führt, die Handlung zu kontrollieren, um einige dieser Folgen sichern und andere vermeiden zu können.“ (Dewey 1996, S. 26). In dieser Definition als Grundlage von Deweys Konzept lassen sich drei analytische Anschlusspunkte und drei normative Anspruchsformulierungen an Öffentlichkeit erkennen, welche für den digitalen Wandel in Europa von Relevanz sind und die in diesem Beitrag beleuchtet werden sollen.

2.2 Analytische Anschlusspunkte Zunächst behält Öffentlichkeit ihren legitimatorischen Charakter, in dem sie von Dewey als Bezugsrahmen zur Reflektion von Handlungsfolgen charakterisiert wird. Damit bewegt er sich im kantischen Verständnis einer selbstbestimmten Demokratie, in der BürgerInnen sowohl NormautorInnen als auch -adressatInnen sind, sich also als „Autoren jener Gesetze und Institutionen betrachten können, denen sie sich selbst unterwerfen“ (Imhof 2003, S. 205). Anders als in prozeduralen Demokratiekonzeptionen kommt Öffentlichkeit damit primär ein funktionaler Stellenwert zu. Zweitens entzieht sich Dewey in den Ausführungen seiner Öffentlichkeitskonzeption einer strikten Trennung zwischen Öffentlichkeit und Privatheit. Anders als in republikanischen Demokratiemodellen (beispielsweise bei Hannah Arendt) speist sich bei Dewey die Entscheidung darüber, ob eine Handlung als öffentlich oder privat einzustufen ist, nicht aus ihrem kommunikativen Handlungsrahmen, sondern aus ihren Folgen. Die daraus resultierende Unterscheidung verläuft an einer funktionalen Achse, die zwischen direkten und indirekten Handlungsfolgen differenziert. Als direkte Handlungsfolgen gelten „jene, welche die direkt mit einer Transaktion befaßten Personen beeinflussen“ (Dewey 1996, S. 27). Von einer Transaktion Betroffene verhandeln etwaige Konsequenzen also im direkten Austausch („face-to-face“) miteinander. Indirekte Handlungsfolgen

182

M. Wiesenthal

andererseits gelten als „diejenigen, welche andere außer den unmittelbar Betroffenen beeinflussen“ (Ibid.), bei denen also Betroffene nicht unmittelbar am Aushandlungsprozess beteiligt sind. In der Analogie zu Privatheit und Öffentlichkeit fallen Vermittlungsprozesse zu direkten Handlungsfolgen bei Dewey unter Privatheit (und sind für Öffentlichkeit zunächst nicht weiter von Interesse), während indirekte Handlungsfolgen als Grundvoraussetzung für die Schaffung von Öffentlichkeit gelten (vgl. Antić 2018, S. 213). Was in einer mangelnden Trennschärfe zunächst als theoretische Schwachstelle erscheinen mag, stellt im Vergleich zu anderen Konzeptionen von Öffentlichkeit und Privatheit eine zentrale Stärke von Deweys Ansatz dar. Denn anstatt in einer konzeptionell-starren Dichotomie zu verharren, ermöglicht die Definition von Privatheit und Öffentlichkeit entlang einer funktionalen Achse eine dynamische Anwendung: Handlungsfolgen, die sich zunächst direkt auf am Verhandlungsprozess Beteiligte auswirken und damit privat wären, können im späteren Verlauf Auswirkungen auf Dritte haben und damit einen öffentlichkeitsschaffenden Charakter bekommen (z. B. ein privates Treffen polit. EntscheidungsträgerInnen). Neben der Einbeziehung zeitlicher Faktoren bietet Deweys Konzept auch eine Schnittstelle für gesellschaftsspezifische Elemente. Werden Aushandlungsprozesse nämlich im speziellen Normenkontext einer Gesellschaft als privat eingeordnet, können sie im Kontext eines anderen Wertehorizonts als öffentlich eingestuft werden, beispielsweise weil sie anerkannte politische Normen verletzen und damit indirekte Handlungsfolgen generieren (vgl. Götz 2017, S. 57). Damit lässt sich eine Analyse von Privatheit und Öffentlichkeit an ihren jeweiligen sozialen Kontext anpassen. Diese gesellschaftstranszendierte Eigenschaft ist in Deweys Ausführungen nicht auf die Unterscheidung von Privatheit und Öffentlichkeit reduziert, sondern erfasst die Gesamtheit seiner Öffentlichkeitskonzeption. Daraus entsteht eine dritte Analysestärke seiner Ausführungen, die besonders in der Diskussion um eine europäische Öffentlichkeit von Bedeutung ist. Traditionelle Öffentlichkeitstheorien waren in ihrem Erfassungshorizont oftmals auf einen homogenen Bezugsrahmen fixiert. Dieser besteht entweder im Rückgriff auf staatliche Strukturen, wie z. B. in Habermas‘ erster institutioneller Gegebenheit in „Strukturwandel der Öffentlichkeit“ (vgl. Habermas 1990) oder in der Forderung nach einem homogenen Diskursraum, wie die konfrontativen Theoriedebatten zu europäischer Öffentlichkeit der 1990er Jahre eindrucksvoll nachweisen (für einen Überblick s. Gerhards 2002). Deweys Konzeption der Öffentlichkeit als Ergebnis der Auseinandersetzung Betroffener über Handlungsfolgen setzt sich von diesen Bezugsrahmen jedoch maßgeblich ab. „Betroffen-

Europas pragmatische Netzöffentlichkeit

183

heit“ als kategorische Bedingung für Öffentlichkeitsgenese speist sich bei ihm weder aus partikularistischen Ansprüchen an Öffentlichkeitsadressaten, wie im nationalstaatlichen Konzept, noch aus vereinheitlichenden Voraussetzungen (beispielsweise einer gemeinsamen kulturellen Identität), wie in homogenen Diskursräumen. Zentraler Bezugspunkt ist vielmehr die ‚Wahrnehmung‘ und ‚Kontrolle‘ der Folgen menschlicher Handlungen. Daraus ergeben sich zwei zentrale Schlussfolgerungen. Zum einen ist Deweys Konzept nicht an einen nationalstaatlichen oder diskursiven Rahmen gebunden. Zum anderen entzieht er sich einer Definition, die Öffentlichkeit als singulären und geschlossenen Raum begreift. Vielmehr als eine einzelne ergeben sich verschiedene „funktional, sektoral und lokal differenzierte Öffentlichkeiten“ (Jörke 2003, S. 209), die nebeneinander bestehen, miteinander verschmelzen und wieder diffundieren. Diese Teilöffentlichkeiten können jedoch nicht als voneinander unabhängige, abgeschlossene Räume betrachtet werden, sondern sind über verschieden starke Verknüpfungen miteinander verbunden (Antić 2017, S. 150). Diese Verknüpfungen können sich entweder über Sachfragen (Handlungsfolgen) oder Akteure (Betroffene) ergeben und bilden in ihrer Gesamtheit die komplexe Verschachtelung einer von Interdependenzen geprägten zeitgenössischen Gesellschaft ab. Die drei hervorgehobenen analytischen Elemente von Öffentlichkeit lassen erste Stärken von Deweys Konzeption im digitalen Europa erahnen. Diese gehen jedoch nicht ohne Bedingungen für die Konstitution von Öffentlichkeit einher, die im folgenden Abschnitt kurz beleuchtet werden.

2.3 Normative Anspruchsformulierungen Auch wenn bei Dewey die Herausbildung von Öffentlichkeit als ein offener Prozess charakterisiert werden kann, der in Entstehung, Entwicklung und Auswirkung immer von situationsspezifischen Faktoren abhängig ist und damit nur schwer anhand einheitlicher Merkmale definiert werden kann, so lassen sich doch drei zentrale Rahmenbedingungen für die Konstitution von Öffentlichkeit herausstellen. Eine erste Voraussetzung entsteht in der kollektiven Wahrnehmung von Betroffenheit. Diese lässt sich allgemein definieren als Bewusstwerden einer nicht näher definierten Anzahl von Akteuren über die gemeinsame Betroffenheit von einer bestimmten Handlungsfolge. Wann und warum es zu einem gemeinsamen Problembewusstsein kommt und ob beispielsweise die Stärke der Betroffenheit dafür eine Rolle spielt, ist aus Deweys Perspektive weniger

184

M. Wiesenthal

relevant – ausschlaggebend ist, dass Akteure sich selbst als Betroffene einstufen und Handlungsfolgen als regulierungsbedürftig erachten (Götz 2017, S. 67)4. Diese Einordnung von Handlungsfolgen stellt allerdings nur einen ersten Schritt dar. Zur Konstituierung einer Öffentlichkeit müssen sich Betroffene in einem zweiten Schritt finden und vernetzen. Kollektive Wahrnehmung als zwingende Vorbedingung für Öffentlichkeit entsteht erst dort, wo sich Akteure im Wissen um gemeinsame Betroffenheit im Diskurs zusammenfinden. Dieser ersten Voraussetzung ordnet Dewey zentrale Relevanz zu und beschreibt sie als „[…] das Problem der Öffentlichkeit.“ (Dewey 1996, S. 173). Ein zweiter Anspruch ist hiermit unmittelbar verbunden. Wenn das Finden und Vernetzen von Akteuren von zentraler Relevanz ist, dann dürfen keine künstlichen Schranken oder Beschränkungen diesen Prozess behindern. Damit wird uneingeschränkte Kommunikation und der freie Austausch von Erfahrungen zum notwendigen Ermöglichungsparadigma für Deweys Öffentlichkeit. Allerdings erweitert Dewey diese „diskursive Freiheit“ mit Bedingungen: Umso höher das Reflexionsniveau und der Austausch über indirekte Handlungsfolgen, umso eher findet eine Annäherung an eine „ideale Kommunikationsgesellschaft“ (Imhof 2006, S. 22) in Deweys Sinn statt. Ein freier Kommunikationsfluss reduziert sich also nicht auf die einfache Bereitstellung von austauschermöglichender Infrastruktur, sondern entsteht erst in diskursiver Reflexion über gemeinsame Betroffenheit. Ein dritter Referenzpunkt bezieht sich auf Medien. In Deweys Konzeption kommt diesen ein zentraler Stellenwert dabei zu, gesellschaftsrelevante Informationen aufzugreifen und zu verbreiten. Diese Verbreitung erschöpft sich jedoch nicht in einem „ziellosen Ausstreuen“ (Dewey 1996, S. 150), sondern ist mit Ansprüchen verbunden. Dazu gehören Deweys Ablehnung von sensationsund profitorientierter Berichterstattung (vgl. Antić 2018, S. 223). Vielmehr sieht er Medien als Scharnierelemente, welche diejenigen Entwicklungen verbreiten, die für die kollektive Regulierung indirekter Handlungsfolgen von Relevanz sind. Dazu können auch solche Informationen gehören, die von Subgruppen und spezifischen Fachkreisen produziert werden, vorausgesetzt, auch andere sind von ihnen in relevanter Weise betroffen (Schultz 2002, S. 43). Diese funktionale Randbedingung greift einmal mehr den handlungstheoretischen Hintergrund von Deweys Öffentlichkeitskonzeption auf und spielt im Rahmen einer zusehend vielfältig

4Auch

in der Definition von regulierungsbedürftigen Folgen selbst bleibt Dewey ungenau (Dewey 1996, S. 66).

Europas pragmatische Netzöffentlichkeit

185

ausgestalteten Medienlandschaft eine besondere Rolle, die im Folgenden untersucht werden wird. Insgesamt ist im Rahmen dieses Beitrags nur eine selektive Beleuchtung der normativen Ansprüche von Deweys Öffentlichkeitskonzept möglich. Nichtsdestoweniger zeigen sie zusammen mit den drei genannten analytischen Merkmalen, dass seine Idee der „Public Sphere“ sowohl ergiebige Schnittstellen als auch gehaltvolle Forderungen beinhaltet. Inwieweit sich sein Konzept für die Analyse und Beurteilung des digitalen Wandels in Europa verwerten lässt, soll in den folgenden Kapiteln erarbeitet werden.

3 Europas pragmatische Netzöffentlichkeit 3.1 Normative Modelle europäischer Öffentlichkeit Die theoretische Debatte um Entstehung, Ausgestaltung und Bedeutung einer europäischen Öffentlichkeit hat seit dem Vertrag von Maastricht deutlich zugenommen. Dieses gestiegene wissenschaftliche Interesse wird häufig mit einer zunehmenden Sichtbarkeit der EU im Alltag der BürgerInnen in Verbindung gebracht (Koopmans und Erbe 2004, S. 98). Aus demokratietheoretischer Perspektive hat insbesondere der mit den Verträgen von Maastricht und Lissabon verknüpfte Souveränitätstransfer den Fokus auf europäische Öffentlichkeit verstärkt: Gestiegene Gesetzgebungskompetenzen werden dabei mit der Forderung nach einer vertieften Öffentlichkeit als Legitimationsquelle verbunden (Lingenberg 2010, S. 115). Angesichts der aktuellen Kontroversen um den europäischen Integrationsprozess hat diese Perspektive an zusätzlicher Relevanz gewonnen. Insofern ist es nicht verwunderlich, dass sich auch in der aktuellen Theoriedebatte um europäische Öffentlichkeit der Anspruch an ihre legitimatorische Funktion als Konsens ausmachen lässt. Dieser erste Bezugspunkt ist deckungsgleich mit Deweys Anspruch an Öffentlichkeit. Allerdings bestehen in der Theoriedebatte um Europas Öffentlichkeit auch zentrale Unterschiede, die sich aus grundlegend divergierenden Auffassungen über normative Bezugspunkte der unterschiedlichen Modelle ergeben (Gerhards 2002, S. 135). Überblicksartig lassen sich drei zentrale Modelle europäischer Öffentlichkeit unterscheiden (Lingenberg 2008). Das Supranationale Modell setzt für die Konstitution einer europäischen Öffentlichkeit die Herausbildung eines länderübergreifenden Kommunikationsraums voraus, angelehnt an das traditionelle Verständnis von Öffentlichkeit im Nationalstaat. Zentraler Bezugspunkt sind geteilte Werte, kulturelle Normen und Identitäten der TeilnehmerInnen. Als

186

M. Wiesenthal

empirische Referenz für die Herausbildung einer solchen Öffentlichkeit wird die Entstehung eines einheitlichen europäischen Mediensystems herangezogen, das länderübergreifend über dieselben Inhalte berichtet (vgl. Gerhards 2002, S. 142). Reflektiert man die kulturelle Vielfalt der EU, ihre diversen nationalstaatlichen Mediensysteme und ihre sprachliche Diversität muss eine Analyse europäischer Öffentlichkeit nach diesen theoretisch und empirisch anspruchsvollen Merkmalen zwangsweise zu dem Schluss gelangen, dass die EU an einem Öffentlichkeitsdefizit leidet. In der kritischen Auseinandersetzung mit transnationalen Öffentlichkeiten hat sich in der Vergangenheit jedoch bereits gezeigt, dass eine einfache Übertragung nationalstaatlicher Öffentlichkeitskonzepte auf transnationale Gemeinschaften wie die EU unzureichend sind (vgl. Fraser 2016). In ihrer normativen Verengung negieren sie die Existenz von Öffentlichkeit dort, wo schon lange deutlich sichtbare transnationale Kommunikationsflüsse zu demokratischer Legitimation beitragen und verunmöglichen somit jede empirische Analyse. Damit bildet das supranationale Modell in meiner Lesart keinen geeigneten theoretischen Rahmen zur Analyse des digitalen Wandels europäischer Öffentlichkeit. Ein zweites Modell europäischer Öffentlichkeit lässt sich unter dem Begriff Transnationaler Öffentlichkeit subsumieren. Im Unterschied zum supranationalen Modell setzt es keinen einheitlichen Diskursraum voraus, sondern geht von einer Europäisierung nationaler Öffentlichkeiten aus. Diese verdeutlicht sich in einer europabezogenen Berichterstattung nationaler Medien bei gleichzeitigem Fokus auf ein gesamteuropäisches Interesse (Gerhards 1993). Zwar ist das Transnationale Modell offener gestaltet und damit im europäischen Kontext anwendbar. Dennoch lassen sich grundlegende theoretische Einwände vorbringen. In seinem Anspruch einer auf das europäische Gesamtinteresse ausgerichteten Berichterstattung widerspricht das Modell zunächst dem traditionellen Medienverständnis, das an spezifischen Vermittlungsinteressen orientiert ist und Sachverhalte aus verschiedenen Perspektiven beleuchtet (Jarren und Klinger 2017). Darüber hinaus wäre mitunter vorerst zu klären, wie sich ein europäisches Gesamtinteresse definiert. Schließlich verengt das Transnationale Modell in seinem Fokus auf nationale Öffentlichkeiten die analytische Perspektive soweit, dass die Einbeziehung transnational entstehender Öffentlichkeiten unmöglich wird. Damit scheint auch das Transnationale Modell für die Analyse und Bewertung einer europäischen Öffentlichkeit vorerst ungeeignet. Das dritte Modell europäischer Öffentlichkeit kann chronologisch gesehen als jüngstes Modell eingeordnet werden und ist begrifflich nicht abschließend definiert. Lingenberg (2010) definiert es als „Netzwerk themenund ereigniszentrierter Teilöffentlichkeiten“, Kantner (2004) bezeichnet es als

Europas pragmatische Netzöffentlichkeit

187

„Hermeneutisch-pragmatistisches Öffentlichkeitsverständnis“. Als Vereinfachung wird im Verlauf dieses Artikels in Anlehnung an Wixforth (2014) der Begriff des Netzwerkmodells verwendet. Das Netzwerkmodell erkennt ebenso wie andere Modelle die grundlegende demokratische Funktion von Öffentlichkeit als legitimatorischen Resonanzraum an, unterscheidet sich aber sowohl im normativen Horizont als auch in den empirischen Referenzpunkten. Europäische Öffentlichkeit entsteht in diesem Ansatz in einem „Netzwerk themen- und ereigniszentrierter Teilöffentlichkeiten, das durch transnationale Diskurse konstituiert wird und genau dann existiert, wenn die gleichen Themen zur gleichen Zeit unter gleichen Relevanzpunkten diskutiert werden“ (Lingenberg 2010, S. 108). Ähnlich dem Transnationalen Modell entsteht kein übergreifender, supranationaler Diskursraum, sondern eine in Teilöffentlichkeiten fragmentierte Diskursarena, die in ihren unterschiedlichen Ausprägungen kulturellen Eigenheiten Rechnung trägt und über nationale Medien transportiert wird. Damit ist ein erster analytischer Referenzpunkt zur Übertragung auf die Europäische Union gegeben. Auch in den Voraussetzungen an nationale Debatten (gleiche Themen, gleiche Zeit) ist das Netzwerkmodell an das Transnationale Modell angelehnt. Ein zentraler Unterschied vergegenwärtigt sich jedoch in der Definition gleicher Relevanzpunkte: Hier wird keine einheitliche, am gesamteuropäischen Interesse orientierte Perspektive mehr vorausgesetzt. Vielmehr steht eine gemeinsame „Bedeutungszuweisung“ (Ibid.) im Vordergrund, die durchaus eine Diskussion gleicher Themen mit unterschiedlichen Meinungen ermöglicht. Das Netzwerkmodell verschiebt also den Fokus von einer vertikalen Definition europäischer Öffentlichkeit (Supranationales Modell) hin zu einem horizontalen Verständnis verschiedener Teilöffentlichkeiten, die sich im Kontext der genannten Rahmenbedingungen konstituieren. Diese erste Übersicht lässt eine konzeptuelle Nähe zu Deweys Öffentlichkeitskonzeption bereits erahnen. Die Fruchtbarkeit von Deweys Ansatz eröffnet sich aber insbesondere in den theoretischen Einwänden gegen das Netzwerkmodell, die hier in Anlehnung an Lingenberg (2010) aufgegriffen wird. Zunächst hat Esser (2001, S. 23) angemerkt, die minimalistische Konzeption des Netzwerkmodells sei normativ so anspruchslos, dass sich damit über den europäischen Kontext hinaus fast jede transnationale Kommunikation zur demokratielegitimierenden Öffentlichkeit erheben ließe. Aus den theoretischen Rahmenbedingungen von Deweys Ansatz lässt sich hier jedoch entgegnen, dass transnationale Kommunikationsflüsse keineswegs a priori als Öffentlichkeit definiert werden können. Entscheidend für ihre Legitimationsfunktion ist vielmehr der gemeinsame Bezug auf regulierungsbedürftige Handlungsfolgen. Damit ergibt sich eine Abgrenzung von Öffentlichkeit auf eben jene Räume, in denen

188

M. Wiesenthal

soziale Interdependenzen mit größerer Wahrscheinlichkeit regulierungsbedürftige Folgen nach sich ziehen – wie im Fall der Europäischen Union. Exemplarisch seien hier europaweite Debatten über die Finanz- und Schuldenkrise, Migrationsbewegungen und Grenzschutz, internationale Handelsabkommen, Klimaschutz und nicht zuletzt Datenschutz und Urheberrechte genannt. Ein weiterer theoretischer Kritikpunkt greift die dem Netzwerkmodell inhärente Konzeption von Öffentlichkeit als Teilöffentlichkeiten auf. Hochspezialisierte Debatten in abgeschlossenen Diskursräumen, seien sie national, regional oder sektoral, tragen nicht zur Herausbildung einer Öffentlichkeit mit legitimatorischer Funktion für gesamtgesellschaftliche Prozesse bei. Die versuchte Verteidigung des Netzwerkmodells über gemeinsame Strukturbedingungen dieser Teilöffentlichkeiten (z. B. Berichterstattung unter gleichen Relevanzpunkten) wird dabei mit empirischen Argumenten beiseitegeschoben: die Konvergenzansprüche an Teilöffentlichkeiten sei bisher nicht eindeutig genug definiert (Peters und Wessler 2006, S. 134), gleiche Relevanzpunkte als Konzept zu ungenau. Auf die Spezifika dieses Kritikpunktes im Rahmen des digitalen Wandels wird im nächsten Kapitel noch eingegangen. In der Konzeption einer europäischen Öffentlichkeit lässt sich aus Deweys Öffentlichkeitsbegriff heraus jedoch bereits zweierlei entgegnen. Theoretisch betrachtet fügt sein pragmatisches Konzept den Strukturbedingungen von Teilöffentlichkeit ein wesentliches Element hinzu, nämlich die Verbindung dieser Teilöffentlichkeiten über gemeinsame Akteure oder Sachfragen: Teilöffentlichkeiten sind also nur so lange von Relevanz, wie sie miteinander in Verbindung gebracht, vernetzt werden können. Damit verschwimmt die grundlegende Kritik einer „fragmentierten Öffentlichkeit“. Empirisch betrachtet eröffnet dieser Zusatz gleichzeitig die Möglichkeit einer genaueren Spezifizierung von Konvergenzansprüchen, konkret umsetzbar beispielsweise in einer empirischen Messung europaweit öffentlicher Meinung zur Betroffenheit von einzelnen Themen. Übertragen auf obig skizzierte Analyseauswirkungen von Deweys Konzept lassen sich zusammenfassend vier zentrale Punkte festhalten. Erstens steht sein Öffentlichkeitsbegriff im demokratischen Anspruch einer Legitimierungsfunktion, die besonders in der EU von steigender Relevanz ist, und erfüllt damit die zentrale normative Voraussetzung tradierter Öffentlichkeitsverständnisse. Zweitens vermeidet er in seiner Abweichung von einer strengen Dichotomie zwischen Privatheit und Öffentlichkeit eine normative Verengung von Öffentlichkeit auf kulturell homogene Bezugsräume, und wird so für die EU anschlussfähig. Drittens eröffnet er über seinen funktionalistischen Charakter eine Schnittstelle für transnationale Kommunikationsflüsse. Viertens und

Europas pragmatische Netzöffentlichkeit

189

abschließend ermöglicht er eine Spezifizierung des Netzwerkmodells und reagiert auf theoretische und empirische Kritikpunkte. Mit der Anreicherung des Netzwerkmodells durch Deweys Ausführungen gehen jedoch auch Kriterien einher, die hier als normative Ansprüche eingeführt wurden. Während die analytischen Auswirkungen des Modells eine Erfassung der Öffentlichkeitsrealität ermöglichen, sind es diese Rahmenbedingungen, die normative Bezugspunkte zur Beurteilung von Europas „Public Sphere“ schaffen. Diese Weiterentwicklung eines europäischen Öffentlichkeitsbegriffs, wie sie in Ansätzen auch in der europawissenschaftlichen Theoriedebatte zu finden ist, soll im Folgenden unter dem Begriff einer pragmatischen Netzöffentlichkeit subsumiert werden.

3.2 Europäische Öffentlichkeit im digitalen Wandel Digitalisierungsinduzierte Veränderungen der Kommunikation haben vielfältige Auswirkungen auf die Struktur von Öffentlichkeit und erstrecken sich über diverse Teilbereiche wie Partizipation, kommunikative Freiheit oder Mediensysteme. Die folgenden Unterkapitel zeigen, inwieweit sich diese Auswirkungen in den normativen Bezugspunkten einer pragmatischen Netzöffentlichkeit abbilden lassen und welche Konsequenzen sich daraus für die Konstituierung europäischer Öffentlichkeit im digitalen Wandel ergeben.

3.3 Finden & Vernetzen Ein erster Aspekt des digitalen Wandels beeinflusst Deweys Grundvoraussetzung für Öffentlichkeit, die Wahrnehmung und Vernetzung. Die Digitalisierung der Kommunikation hat zu einer breit rezipierten Vervielfältigung und Ausdifferenzierung von Kommunikationsinfrastruktur geführt. Soziale Medien, Chatplattformen, Blog-Dienste, Wikis, Video- und Fotoplattformen und Mailinglisten ergänzen in der Öffentlichkeit des 21. Jahrhunderts tradierte Kommunikationsforen wie z. B. BürgerInnenversammlungen. Die Ausweitung der Kommunikationsmöglichkeiten ist in ihrer technologischen Dimension für die Entwicklung von Öffentlichkeit nicht deterministisch, entsprechend divers fällt ihre Bewertung auch in den politischen Kommunikationswissenschaften aus: Während zu Beginn des Wandels optimistische Ansätze zu dominieren schienen, die den neuen partizipativen Charakter der Entwicklung betonten, entwickelt

190

M. Wiesenthal

sich aktuell eine zunehmend kritische Perspektive auf den digitalen Wandel der Öffentlichkeit (für einen Überblick vgl. Jacob und Thiel 2017). Jenseits unterschiedlicher Bewertungen lässt sich für die Ausweitung der Kommunikationsinfrastruktur konstatieren, dass sie zu einem grundlegenden Wandel der Kommunikationsbeziehungen geführt hat. Digitale „Mass SelfCommunication“ (Castells 2007) hat das klassisch dyadische Sender-Empfänger Modell aufgelöst und in ein triadisches Sender-Empfänger-Dritte Modell transformiert (Jarren und Klinger 2017, S. 35). Digitale Infrastruktur fördert eine Auflösung der vormals starren Grenze zwischen persönlicher Kommunikation und Gesprächsakten, an denen wissentlich oder unwissentlich Dritte beteiligt sind: Ursprünglich bilaterale face-to-face Kommunikation vollzieht sich in Sozialen Medien, Foren oder Chat-Gruppen heute unter Einbeziehung Dritter, die als Publikum nicht nur Zugriff auf die Inhalte des Austauschs haben, sondern sich in Form von Reaktionen (Likes, Kommentare) direkt mitbeteiligen oder Inhalte sogar eigenständig weiterverbreiten können (Shares). Betrachtet man diese Transformation in Deweys Konzeption, so hat sie zu einer grundlegenden Ausweitung möglicher Erkennungsmomente für Betroffenheit geführt: das Wahrnehmungspotenzial indirekter Handlungsfolgen, die im folgenden kommunikativen Austauschprozess als regulierungsbedürftig anerkannt werden können, ist in der „triadischen Transformation“ maßgeblich gestiegen. Durch die Öffnung persönlicher Kommunikation für Dritte tangiert der digitale Wandel maßgeblich Deweys Grundvoraussetzung für die Konstitution von Öffentlichkeit. Diese erschöpft sich jedoch nicht in der reinen Wahrnehmung von Betroffenheit, sondern setzt auch eine Vernetzung der Betroffenen voraus. Auch hier zeichnet sich in der Digitalisierung europäischer Kommunikationsinfrastruktur eine Transformation ab. Transnationale Foren, Chatrooms, Videoplattformen und insbesondere Soziale Medien eröffnen ein technisches Potenzial für grenzüberschreitende Vernetzung von Akteuren. Als empirische Referenzpunkte für diese Vernetzung können exemplarisch die europaweiten zivilgesellschaftlichen Bewegungen des Jahres 2018 in Betracht gezogen werden, die sich unter Kommunikationsreferenzen wie #fridaysforfuture und #savetheinternet konstituierten. Groshek und Al-Rawi (2015) hatten schon für den Fall der Austeritätskrise einen direkten Zusammenhang zwischen Online-Vernetzung und Offline-Protesten nachgewiesen. Erweitert man diese bottom-up Perspektive auf Vernetzung um einen top-down Ansatz, tragen digitale Partizipationsinfrastrukturen der Europäischen Union selbst zum Prozess der Vernetzung bei. Dazu gehören die regelmäßigen Konsultationen der EU-Kommission, bei denen BürgerInnen um Stellungnahmen zu bevorstehenden Gesetzesinitiativen gebeten werden, sowie die

Europas pragmatische Netzöffentlichkeit

191

Europäische BürgerInneninitiative, welche die Kommission zur Befassung mit einem Gesetzgebungsvorschlag zwingen kann. Für Konsultationen ist i. d. R. kein offline-Verfahren mehr vorgesehen, sie finden online statt. Die Europäische BürgerInneninitiative als Ermöglichungsinstrument für „transnationale Diskursräume“ (Kaufmann und Plottka 2013) wiederum ist in ihren Anforderungen zentral auf einen online-Prozess zugeschnitten und eine reine offline Durchführung gleichsam unmöglich (Sprengel 2019, S. 133). Damit eröffnet der digitale Wandel auch aus der Europäischen Union heraus bisher nicht vorhandenes Vernetzungspotenzial. Im europäischen Kontext lohnt hier die Betonung eines weiteren Aspekts. Denn die mögliche Ausweitung von Wahrnehmung und Vernetzung transzendiert auch die Sprachenvielfalt der EU als spezifisches Strukturmerkmal europäischer Öffentlichkeit. Automatisierte Übersetzungen sind in Sozialen Medien (u. a. Facebook, Twitter, Instagram) bereits seit längerer Zeit fest etabliert und werden zunehmend auch von elektronischen Massenmedien wie Zeitungen genutzt. Aktuelle Entwicklungen im Bereich der künstlichen Intelligenz verstetigen diese Überbrückungstendenz. Damit unterläuft die Digitalisierung zumindest potenziell eine zentrale Hürde in bisherigen Konzeptionsversuchen europäischer Öffentlichkeit. Inwieweit die selektiv beleuchteten Aspekte von Wahrnehmung und Vernetzung in Europa genutzt werden, kann bislang nicht abschließend beurteilt werden. In empirischen Untersuchungen der Nutzung dieses Potenzials konstituiert sich jedoch ein Bezugspunkt zur Evaluierung einer europäischen Öffentlichkeit im Modell einer pragmatischen Netzöffentlichkeit, das sich hier analytisch offen für digitalisierungsinduzierte Veränderungsprozesse zeigt.

3.4 Freier Kommunikationsfluss Als zentrale Voraussetzung für das Finden und Vernetzen von Akteuren skizziert Dewey einen freien Kommunikationsfluss, in dem „der Idee Gelegenheit gegeben wird, sich auszubreiten und zum Besitz der Masse zu werden“ (Dewey 1996, S. 173). Besonders dieses Element einer Netzöffentlichkeit ist im digitalen Wandel zunehmenden Kontroversen ausgesetzt. Einerseits hat der digitale Wandel der grundsätzlichen Verbreitung von und dem Zugriff auf Informationen und Ideen erhebliches Potenzial verschafft. Als niedrigschwellige Austauschplattform ermöglicht das Internet eine Reduzierung kommunikativer Transaktionskosten und hat eine Vervielfältigung von Produktions- und Zugangsmöglichkeiten für Inhalte ermöglicht. Damit sollte die

192

M. Wiesenthal

grundlegende Vernetzung von Akteuren im gemeinsamen Betroffenheitsbewusstsein deutlich vereinfacht sein. Andererseits identifizieren normative Öffentlichkeitskonzeptionen gerade im Zuwachs an Informationsmöglichkeiten eine zentrale Schwierigkeit. In der Vervielfältigung zugänglicher Kommunikationskanäle diversifiziert sich Öffentlichkeit in von NutzerInnen selbst gewählte Teilforen, denen die Kommunikationswissenschaft unter Oberbegriffen wie „Filterblasen“ und „Echokammern“ selbstreferentielle, polarisierende und isolierende Effekte nachweist (s. u. a. Pariser 2012). Jürgen Habermas diagnostizierte aus diesem Kontext heraus eine „Fragmentierung der Öffentlichkeit“ (2008) in der Wolfgang Schweiger (2017) eine demokratiegefährdende Unmündigkeit der BürgerInnen entstehen sieht. Diese überwiegend negative Darstellung einer diversifizierten Öffentlichkeit muss für ihre Auswirkung auf einen freien Kommunikationsfluss zur Erkennung von und Austausch über Betroffenheit kritisch hinterfragt werden. Denn erstens stellen Teilöffentlichkeiten für die demokratische Gesamtfunktion von Öffentlichkeit eine aktuell zumeist unbeachtete Funktion zur Verfügung: erst geschützte Räume ermöglichen die Entstehung kollektiver Identitäten, die auf spezifischen Interessen, politischen Prägungen, geschlechtsspezifischen oder kulturellen Eigenheiten basieren (Dahlgren 2005, S. 152). Besonders Gegenöffentlichkeiten profitieren in ihrer Konstituierung vom digitalen Wandel (Downey und Fenton 2003). Die daraus erwachsende Artikulationsmöglichkeit von spezifischen Interessen und von Gegenöffentlichkeiten ist für den Austausch über indirekte Handlungsfolgen konstitutiv. Zweitens sind Teilöffentlichkeiten kein neues, digitalisierungseigenes Phänomen. Wie oben erläutert sind sie auch in Modellen europäischer Öffentlichkeit von zentraler Relevanz. Doch anstatt aus einer vorgelagerten Ablehnung von Teilöffentlichkeiten heraus transnationalen Kommunikationsflüssen in der EU ihren normativen Gehalt abzuerkennen, haben Öffentlichkeitsmodelle wie das Netzwerkmodell Teilöffentlichkeiten als Bezugselemente anerkannt und für eine Gesamtanalyse fruchtbar gemacht. Ein ähnlicher Ansatz bietet sich im Rahmen digitalisierungsinduzierter Strukturveränderungen der Öffentlichkeit an: Anstatt ihre Diversifizierung a priori als schädliche Entwicklung zu definieren, könnte in der Erarbeitung von teilöffentlichkeitsverbindenden Voraussetzungen eine fruchtbare Grundlage zur normativen Analyse real bestehender Kommunikationsflüsse entstehen. Theoretische Vorüberlegungen hierzu sind in der Kommunikationswissenschaft bereits skizziert worden (vgl. u. a. Rössler 2000; Neuberger et al. 2007). Im Konzept eines freien Kommunikationsflusses als Evaluierungspunkt für eine pragmatische Netzöffentlichkeit in Europa stellt die Einbindung von

Europas pragmatische Netzöffentlichkeit

193

Teilöffentlichkeiten nur eines von mehreren potenziellen Elementen dar. In Anlehnung an Dewey ließen sich als weitere Parameter u. a. Diskursqualität und Reflexionsniveau entwickeln (Dewey 1996, S. 121 f. und 173 f.). Aufgrund ihrer Bedeutung für den digitalen Wandel einerseits und europäische Öffentlichkeit andererseits kommt der analytischen Erfassbarkeit von Teilöffentlichkeiten und ihrer Bewertung jedoch eine besondere Relevanz zu. Deweys Ansatz einer handlungstheoretischen Untersuchung konkreter Teilöffentlichkeiten und ihrer Vernetzungen eröffnet hierfür eine vielversprechende methodische Herangehensweise.

3.5 Medien Als dritte und letzte Evaluierungsreferenz habe ich in Anlehnung an Dewey das Mediensystem aufgegriffen. Auch hier verschränken sich im Modell einer pragmatischen Netzöffentlichkeit Europas die spezifischen Elemente eines stark heterogenen Mediensystems in der EU einerseits mit den Auswirkungen des digitalen Wandels auf die Rolle von Medien andererseits. Deweys Öffentlichkeitskonzept formuliert hohe Ansprüche an Medien als Kommunikationsakteure. Zum einen kommt ihnen zentrale Bedeutung dabei zu, von Experten kreiertes Wissen aufzubereiten und den BürgerInnen damit die Möglichkeit zu geben, „[…] die Auswirkungen des von anderen zur Verfügung gestellten Wissens auf die gemeinsamen Angelegenheiten zu beurteilen“ (Dewey 1996, S. 173). Zum anderen lehnt er die Profitinteressen von Medien ab und erwartet für die Öffentlichkeit positive Veränderungen, „[…] wenn den wirklichen Interessen der Berichterstatter freier Lauf gelassen würde.“ (Dewey 1996, S. 154). Konzeptualisiert man diese Ansprüche als normative Referenzen, müsste eine Analyse von Europas Medienlandschaft tief gehende Defizite diagnostizieren. Europas Massenmedien sind in der globalisierten Welt wachsenden Herausforderungen ausgesetzt: zunehmende Komplexität internationaler Zusammenhänge, eine steigende Diversifizierung der Medienlandschaft und damit einhergehender Konkurrenzdruck, Platz- und Zeitmangel und die Dominanz sensationsorientierter Nachfrage erschweren tief gehende Berichterstattung, die einem breiten Publikum zugänglich wäre (Antić 2017, S. 152). Im europäischen Kontext kommt erschwerend hinzu, dass Medien durch ihren Bezugsrahmen oft an spezifische, nationale Vermittlungsinteressen gebunden sind. Damit können sie einer transnational-kommunikationsermöglichenden Rolle für Betroffenheitsdiskurse in Deweys Sinn scheinbar nur schwerlich gerecht werden.

194

M. Wiesenthal

Zwei Elemente einer pragmatischen Netzöffentlichkeit in Europa relativieren die Bedeutung dieser Befunde jedoch. Einerseits ist die Konzeption einer europäischen Öffentlichkeit im Netzwerkmodell nicht auf den Anspruch paneuropäischer Medien verengt, sondern zeigt sich anschlussfähig für einen Pluralismus unterschiedlicher Mediensysteme. Spezifische nationale Vermittlungsinteressen dieser Medien sind hierbei keine grundlegende Schwierigkeit, denn so lange sie in der Bedeutungszuweisung von themen- und ereignisbezogener Berichterstattung konvergieren, sind unterschiedliche Perspektiven auf diese Themen oder Ereignisse eher förderlich für die Entstehung von Öffentlichkeit (Risse und van de Steeg 2003; Kantner 2004). Deweys Vermittlungsanspruch an Medien scheitert damit nicht von vorneherein an der Fragmentierung der europäischen Medienlandschaft. Gleichzeitig forciert die Digitalisierung in Bezug auf Medien eine grundlegendere Fokusanpassung. Standen in der Öffentlichkeitsforschung bislang oft Massenmedien als Kommunikationsakteure im Vordergrund, hat der digitale Wandel eine Veränderung initiiert, die sich unter dem Begriff Many-to-ManyCommunication subsumieren lässt. InternetnutzerInnen, die vormals passive KonsumentInnen von Nachrichten und Informationen waren, verwandeln sich in der digitalen Kommunikation in aktive „ProsumentInnen“ (Toffler 1981), die Informationen sowohl konsumieren als auch produzieren. Vorbei an tradierten Massenmedien als klassischen Gatekeepern entsteht für das ehemalig passive Publikum die Möglichkeit, aktiv eigene Akzente zu setzen und Betroffenheitsdiskurse in Deweys Sinn selbstständig zu initiieren. Das Fundament der Öffentlichkeit verschiebt sich damit von vertikalen Selektionsprozessen in horizontale Partizipationsprozesse, empirischer Referenzpunkt hierfür sind Soziale Medien. Diese Entwicklung hin zu einer Öffentlichkeit der „Creative Commons“ geht einher mit einer potenziellen Abwendung von Kommunikation als profitorientiertem Geschäftsmodell, da „[…] Laienkommunikatoren oft kein kommerzielles Interesse verfolgen.“ (Neuberger 2009, S. 42). Auf den hierbei entstehenden Einwand, die neue Währung der Kommunikation sei Aufmerksamkeit, lässt sich entgegnen, dass viele ProsumentInnen eher an einer Vernetzung mit Gleichgesinnten denn an einer Reputationsmaximierung interessiert sind (Ibid.). Dieser Wandel von Profit- zu Vernetzungsinteressen schließt passgenau an Deweys Forderung nach einer „Demokratisierung des Mediensystems“ (Antić 2018, S. 223) an. Zusammengefasst zeigt sich das Modell einer pragmatischen Netzöffentlichkeit analytisch offen für die genannten Elemente der europäischen Medienlandschaft und des digitalen Wandels der Kommunikation, füllt sie aber gleichzeitig mit normativem Gehalt in Deweys Sinne. Eine Diagnosefunktion für

Europas pragmatische Netzöffentlichkeit

195

die europäische Öffentlichkeit entfalten diese Elemente in ihrer Anschlussfähigkeit für empirische Überprüfung: Zeigen europaweite Medienuntersuchungen tatsächlich gemeinsame Bedeutungsstrukturen? Dominieren Vernetzungsinteressen in Europas digitaler Kommunikation? Und wie reagieren Medien auf Digitalisierungsprozesse? Die Antworten auf diese Fragen bilden einen dritten normativen Bezugspunkt im Modell einer pragmatischen Netzöffentlichkeit in Europa und bieten im Rahmen der anhaltenden digitalen Kommunikationstransformation breiten Raum für theoretische Weiterentwicklung.

4 Fazit In diesem Artikel wurde aufgezeigt, wie grundlegende Elemente von John Deweys Öffentlichkeitskonzeption für die europäische Öffentlichkeit im Digitalen Wandel fruchtbar gemacht werden können. Sein handlungstheoretischer Ansatz eröffnet analytische Schnittstellen, die sowohl Spezifika der EU als auch des Digitalen Wandels erfassen. Hierzu gehören die Loslösung vom Nationalstaat als Bezugshorizont ebenso wie die Überwindung einer starren Dichotomie zwischen Privatheit und Öffentlichkeit. Gleichzeitig lassen sich aus Deweys Konzeption heraus normative Bezugspunkte zur Bewertung einer europäischen Öffentlichkeit entwickeln, in denen sich Digitalisierungsprozesse abbilden lassen. Exemplarisch sei hier auf die Rolle von Medien und ihren Wandel im Digitalisierungsprozess hingewiesen. Abschließend sind Deweys Ausführungen fest in einer demokratietheoretischen Funktion von Öffentlichkeit verankert, wie in seiner Betonung auf Betroffenheitsdiskurse als konstitutives Element für Öffentlichkeit deutlich wird. Subsumiert man diese Elemente im Modell einer pragmatischen Netzöffentlichkeit, zeigt sich das Potenzial von Deweys Beitrag für die Öffentlichkeitsforschung im Zeitalter der Digitalisierung. Dem grundlegenden Einwand gegenüber diesem Modell, seine analytischen Stärken würden mit einer normativen Anspruchslosigkeit einhergehen, stehen hierbei drei Bezugspunkte entgegen, die eine Grundlage für Evaluierungsreferenzen darstellen und gleichzeitig die Anschlussfähigkeit des Modells für empirische Überprüfung in der europäischen Öffentlichkeit aufzeigen. Darüber hinaus führt die hohe Dynamik technologischer Entwicklung in der politikwissenschaftlichen Forschung zu Digitalisierungsprozessen zu immer schneller aufeinanderfolgenden Forschungswellen, die auch in ihrer theoretischen Konzeption einer ständigen Anpassung unterworfen sind (Kneuer 2017, S. 503 f.). Nicht wenige Öffentlichkeitskonzeptionen sind in ihrem normativen Anspruch jedoch so stark verengt, dass sie den digitalen Kommunikationswandel

196

M. Wiesenthal

nicht erfassen können. Bleibt die grundlegende Verankerung in einer demokratietheoretischen Funktion gewahrt, bietet Deweys handlungstheoretische Methodik deshalb gerade für die Öffentlichkeitsforschung im digitalen Wandel einen vielversprechenden Ansatz. Abschließend sei hier noch darauf hingewiesen, dass für die Europawissenschaften Deweys Ansatz über Öffentlichkeitsforschung hinaus nutzbar gemacht werden kann. Jüngere Integrationsforschung hat verdeutlicht, dass die Politisierung der EU seit dem Vertrag von Maastricht mit einem Arenawechsel vom elitengeprägten Diskurs hin zu Debatten in öffentlichkeitsorientierten Massenarenen einhergeht (vgl. Hooghe und Marks 2009, 2019). Hier spiegelt sich einmal mehr Deweys Betroffenheitskomponente, denn über zunehmende Intensität indirekter Handlungsfolgen im politisch eng verzahnten Raum der EU entsteht eine Öffentlichkeitstransformation, die theoretische Anschlussfähigkeit für deliberative Integrationstheorien eröffnet (für eine Übersicht s. Neyer 2006). Eine zukünftige Einbeziehung seiner theoretischen Überlegungen scheint damit für den transnationalen Kommunikationsraum der EU durchaus lohnend.

Literatur- und Quellenverzeichnis Antić, A. 2017. Digitale Öffentlichkeiten im demokratischen Experimentalismus. In Politische Theorie und Digitalisierung, Hrsg. D. Jacob und T. Thiel, 139–161. BadenBaden: Nomos. Antić, A. 2018. Digitale Öffentlichkeiten und intelligente Kooperation. Dissertation. Universitätsverlag Potsdam. Castells, M. 2007. Communication, power and counter-power in the network society. International Journal of Communication 1: 238–266. Dahl, R. 1994. A democratic dilemma: System effectiveness versus citizen participation. Political Science Quarterly 109: 23–36. Dahlgren, P. 2005. The internet, public spheres, and political communication: Dispersion and deliberation. Political Communication 22: 147–162. Dewey, J. 2011. Demokratie und Erziehung. Eine Einleitung in die philosophische Pädagogik; mit einer umfangreichen Auswahlbibliographie, 5. Aufl., Hrsg. Jürgen v. Oelkers. Weinheim: Beltz. http://www.content-select.com/index.php?id=bib_ view&ean=9783407223852. (Erstveröffentlichung 1916). Dewey, J. 1996. Die Öffentlichkeit und ihre Probleme, 1. Aufl. Bodenheim: Philo Fine Arts ((Erstveröffentlichung 1927)). Downey, J., und N. Fenton. 2003. New media, counter publicity and the public sphere. New media & Society 5: 185–202. Esser, F. 2001. Auf der Suche nach einer europäischen Öffentlichkeit: Inhaltsanalyse der Debatte über eine EU-Verfassung in europäischen Tageszeitungen. Magisterarbeit: Universität Konstanz, Konstanz. Politik- und Verwaltungswissenschaft.

Europas pragmatische Netzöffentlichkeit

197

Fraser, N. 2016. Rethinking the public sphere. A contribution to the critique of actually existing democracy: Create Space Independent Publishing Platform. Gerhards, J. 1993. Westeuropäische Integration und die Schwierigkeiten der Entstehung einer europäischen Öffentlichkeit. Zeitschrift für Soziologie 22: 96–110. Gerhards, J. 2002. Das Öffentlichkeitsdefizit der EU im Horizont normativer Öffentlichkeitstheorien. In Transnationale Öffentlichkeiten und Identitäten im 20. Jahrhundert, Hrsg. H. Kaelble, M. Kirsch, und A. Schmidt-Gernig, 135–158. Frankfurt a. M.: Campus-Verl. Gerhards, J., und F. Neidhardt. 1991. Strukturen und Funktionen moderner Öffentlichkeit. Fragestellungen und Ansätze. In Öffentlichkeit, Kultur, Massenkommunikation. Beiträge zur Medien- und Kommunikationssoziologie, Hrsg. S. Müller-Doohm, 31–89. BIS Bibliotheks- und Informationssystem (Studien zur Soziologie und Politikwissenschaft): Oldenburg. Götz, A. 2017. Kritik der Öffentlichkeiten. Wiesbaden: Springer VS. Groshek, J., und A. Al-Rawi. 2015. Anti-austerity in the Euro crisis: Modeling protest with online-mobile-social media usage, users, and content. International Journal of Communication 9: 3280–3303. Habermas, J. 1990. Strukturwandel der Öffentlichkeit Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft; mit einem Vorwort zur Neuauflage 1990. Zugl.: Marburg, Univ., Habil.-Schr., 1961, 14. Aufl. Frankfurt a. M.: Suhrkamp (SuhrkampTaschenbuch Wissenschaft, 891). Habermas, J. 2008. Ach, Europa, 5. Aufl., 2551. Frankfurt a. M.: Suhrkamp (Edition Suhrkamp). ISBN: 978-3-518-12551-9. Hooghe, L., und G. Marks. 2009. A postfunctionalist theory of European integration: From permissive consensus to constraining dissensus. British Journal of Political Science 39: 1–23. Hooghe, L., und G. Marks. 2019. Grand theories of European integration in the twenty-first century. Journal of European Public Policy 95: 1–21. Imhof, K. 2003. Öffentlichkeitstheorien. In Öffentliche Kommunikation. Handbuch Kommunikations- und Medienwissenschaft, Hrsg. G. Bentele, H.-B. Brosius, und O. Jarren, 193–210. Wiesbaden: VS Verlag. Imhof, K. 2006. Der normative Horizont der Freiheit. Discussion Paper. Universität Zürich, Zürich. Forschungsbereich Öffentlichkeit und Gesellschaft. Jacob, D., und T. Thiel. 2017. Einleitung. In Politische Theorie und Digitalisierung, Hrsg. D. Jacob und T. Thiel, 7–26. Baden-Baden: Nomos. Jarren, O., und U. Klinger. 2017. In Medienkompetenz Herausforderung für Politik, politische Bildung und Medienbildung, Hrsg. H. Gapski, M. Oberle, und W. Staufer, 33–42. Bonn: Bundeszentrale für politische Bildung (Schriftenreihe/Bundeszentrale für Politische Bildung, Band 10111). Jörke, D. 2003. Demokratie als Erfahrung. John Dewey und die politische Philosophie der Gegenwart. Wiesbaden: VS Verlag. Kantner, C. 2004. Kein modernes Babel. Kommunikative Voraussetzungen europäischer Öffentlichkeit. Wiesbaden: VS Verlag (Bürgergesellschaft und Demokratie, 21). Kaufmann, S.-Y., und J. Plottka. 2013. Die Europäische Bürgerinitiative: Start in ein neues Zeitalter partizipativer Demokratie auf EU-Ebene. BBE-Europa 2: 1–12.

198

M. Wiesenthal

Kneuer, M. 2017. Digitale Medien und Kommunikation in der Vergleichenden Politikwissenschaft. Zeitschrift für Vergleichende Politikwissenschaft 11: 503–511. Koopmans, R., und J. Erbe. 2004. Towards a European public sphere. Innovation: The European Journal of Social Science Research 17: 97–118. Lingenberg, S. 2008. Europäische Öffentlichkeit aus Publikumssicht. Medien & Zeit 23: 43–57. Lingenberg, S. 2010. Europäische Publikumsöffentlichkeiten Ein pragmatischer Ansatz, 1. Aufl. Wiesbaden: VS Verlag (Medien, Kultur, Kommunikation). Lippmann, W. 2002. The phantom public. (3rd print). New Brunswick: Transaction Publishers. (Erstveröffentlichung 1925). Neuberger, C. 2009. Internet, Journalismus und Öffentlichkeit. In Journalismus im Internet Profession, Partizipation, Technisierung, 1. Aufl., Hrsg. C. Neuberger, C. Nuernbergk, und M. Rischke, 19–106. Wiesbaden: VS Verlag. Neuberger, C., C. Nuernbergk, und M. Rischke. 2007. Weblogs und Journalismus: Konkurrenz, Ergänzung oder Integration? Media Perspektiven 2: 96–112. Neubert, S. 1998. Erkenntnis, Verhalten und Kommunikation. John Deweys Philosophie des „experience“ in interaktionistisch-konstruktivistischer Interpretation. Zugl.: Köln, Univ., Diss., 1997. Münster: Waxmann (Internationale Hochschulschriften, 274). Neyer, J. 2006. The deliberative turn in integration theory. Journal of European Public Policy 13: 779–791. Pariser, E. 2012. The filter bubble. What the Internet is hiding from you. London: Penguin Books. Peters, B., und H. Wessler. 2006. Transnationale Ӧffentlichkeiten – Analytische Dimensionen, normative Standards, sozialkulturelle Produktionsstrukturen. In Demokratie in der Mediengesellschaft Mediensymposium Luzern, Bd. 9, 1. Aufl., Hrsg. K. Imhof, R. Blum, H. Bonfadelli, und O. Jarren, 125–145. Wiesbaden: VS Verlag. Risse, T., und van de Steeg, M. 2003. An emerging European public sphere? Empirical evidence and theoretical clarifications. Paper presented to the conference on the “Europeanisation of Public Spheres, Political Mobilisation, Public Communication and the European Union,” Science Center Berlin, June 20–22. https://www.polsoz.fu-berlin. de/polwiss/forschung/international/atasp/Publikationen/4_artikel_papiere/21/index.html. Rössler, P. 2000. Vielzahl = Vielfalt = Fragmentierung? Empirische Anhaltspunkte zur Differenzierung von Medienangeboten auf der Mikroebene. In Zerfall der Öffentlichkeit?, Hrsg. O. Jarren, K. Imhof, und R. Blum, 168–188. Wiesbaden: VS Verlag. Schultz, T. 2002. Große Gemeinschaft und Kunst der Kommunikation. Zur Sozialphilosophie von John Dewey und ihrem Revival im Public Joumalism. In Integration und Medien, Hrsg. K. Imhof, O. Jarren, und R. Blum, 36–56. Wiesbaden: VS Verlag. Schweiger, W. 2017. Der (des)informierte Bürger im Netz. Wiesbaden: Springer. Sprengel, R. 2019. Digitalisierung, Partizipation und die EU: EU als Mitmachprojekt für Alle? In Digitalisierung und Teilhabe, Hrsg. S. Skutta und J. Steinke, 127–136. BadenBaden: Nomos. Toffler, A. 1981. The third wave. Toronto: Bantam Books. Tucker, J. A., Theocharis, Y., Roberts, M. E. und Barberá, P. 2017. From Liberation to Turmoil: Social Media and Democracy. Journal of Democracy 4: 46–59. Wixforth, D. 2014. Das Netzwerk bin ich! Zur Konstruktion eines adäquaten Modells digitaler europäischer Öffentlichkeit unter den spezifischen Bedingungen transnationalisierter und fragmentierter Informationsgesellschaften im Europa des 21. Jahrhunderts. Berlin: epubli GmbH.

Disruptionen in Freiheit und Demokratie

Was bedeutet „Freiheit“ in einem soziotechnischen Kontext? Ben Wagner

1 Einführung Der Zusammenhang zwischen Freiheit und Technik muss grundlegend neu gedacht werden. In den letzten zwei Jahrzehnten hat es im Rahmen der Digitalisierung eine breite öffentliche Debatte über das Verhältnis von Freiheit und Technik gegeben (Wagner et al. 2019). Dieser Dialog wird meist bloß implizit geführt. Die Annahmen, welche die Debatte bestimmen, werden jedoch nicht deutlich genug definiert. Gleichzeitig ist in vielen Fällen nicht klar, welche Konsequenzen solche Annahmen mit sich bringen, da sie nicht trennscharf voneinander abgegrenzt und entwickelt werden. Der folgende Artikel stellt deshalb den Versuch dar, zur Entwirrung dieser Thematiken und Fragen beizutragen. Dieser Text soll die unterschiedlichen Konzepte, welche in der Debatte zu Freiheit und Technik existieren, zunächst als Überblick präsentieren, bevor die möglichen Konflikte und Spannungsverhältnisse zwischen den unterschiedlichen Konzepten aufgezeigt werden. Dabei sollte dem Leser bewusst sein, dass die Herausarbeitung von Kategorien im Sinne von Idealtypen nach Max Weber bloß eine Annäherung an real-existierende Kategorien darstellt (Weber 1980). Gleichzeitig sollen die einzelnen Kategorien eine Unterstützung bieten, etwas Struktur in eine sehr vielseitige und komplexe Debatte zu bringen, bei der das Verhältnis zwischen Freiheit und Technik einen allgegenwärtigen Grundton bilden. Wo fängt diese Diskussion an? Während die bestehende Debatte zunächst stark von öffentlichen Diskursen rund um Protestbewegungen im Iran (Carafano B. Wagner (*)  WU Wien, Wien, Österreich E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_10

201

202

B. Wagner

2009), Ägypten (Aouragh 2011) und in jüngster Zeit um Privatsphäre und Überwachung (Bauman et al. 2014) kreisen, ist sie weitaus breiter angelegt und bezieht sich nicht nur auf autoritäre Regierungen (Glasius 2018). Allerdings enthält die Debatte über Freiheit und Technologie zahlreiche implizite Annahmen, was eine eingehende Untersuchung schwierig macht (Sartor 2017; Brownsword 2017). Diese Annahmen sind in vielen dieser Debatten so verbreitet, dass es wichtig ist, sie zunächst systematisch zu analysieren, um das Gesagte richtig nachvollziehen zu können. Um all das zu verstehen ist es hilfreich, auf das von Isaiah Berlin entwickelte Grundverständnis der menschlichen Freiheit zurückzukommen: die Unterscheidung zwischen negativer Freiheit und positiver Freiheit.1 Wie Berlin feststellt, „ergibt sich der „positive“ Sinn des Wortes „Freiheit“ aus dem Wunsch des Einzelnen, sein eigener Herr zu sein […] Ich möchte ein Subjekt sein und nicht ein Objekt“ (Berlin 1958, S. 131). Diese Aussage Berlins enthält zahlreiche Annahmen, die ein weiteres ‚unpacking‘ verlangen, insbesondere wenn sie im Zusammenhang mit Technik betrachtet werden. So auch die spezifische Beziehung zwischen der Vernunft, welche den Menschen definiert, und dem, was es bedeutet, sein eigener Herr zu sein (Wendler 2016). So reicht die Unterscheidung zwischen negativer und positiver Freiheit nicht aus, um die zahlreichen Ebenen komplexer Wechselbeziehungen zwischen Freiheit und Technik zu beschreiben. Es ist seit einigen Jahren bekannt, dass das Konzept zunehmend unzureichend ist, um dem Freiheitsbegriff ausführlich auf den Grund zu gehen (Simhony 1993; Blau 2004). Allerdings fehlen bisher alternative Konzepte, um den Freiheitsbegriff und insbesondere dessen Verhältnis zur Technik spezifischer und konkreter zu beleuchten. Inspiriert von Solove‘s wegweisender Taxonomie zur Privatsphäre (Solove 2006) bietet der folgende Artikel eine Taxonomie der sieben Hauptdimensionen des Verhältnisses von Freiheit und Technologie, welche im Folgenden behandelt werden (s. Abb. 1): Jedes dieser Freiheitskonzepte stellt ein spezifisches Verständnis von Freiheit dar, was wiederum direkt zu einem spezifischen Verständnis des Verhältnisses zwischen Technik und Menschen selbst führt (Sartor 2017). Die folgenden Kategorien von Freiheit sind jedoch nicht als abschließende Aussage darüber zu verstehen, wie diese Arten von Freiheit zu definieren sind. Vielmehr sind die folgenden sieben Dimensionen der Freiheit ein heuristisches Werkzeug, um ein besseres Verständnis der laufenden Debatten über Freiheit und Technologie zu ermöglichen.

1Anmerkung

der Herausgeber: Dies wurde bereits mit dem Kantschen Idealismus eingeführt. Weitere Autoren wie Schelling und Heidegger übernahmen diese Unterscheidung.

Was bedeutet „Freiheit“ in einem sozio-technischen Kontext?

203

Freiheit als Essenz Freiheit als Verantwortung

Freiheit als Autonomie

Freiheit als Aufklärung

Freiheit als Instrument

Freiheit als Verfahren

Freiheit als Entscheidungsfr eiheit

Abb. 1   Sieben Dimensionen von Freiheit. (Quelle: Eigene Darstellung)

2 Konzepte von Freiheit 2.1 Freiheit als Essenz Wesentliche Freiheit ist eine der Eigenschaften, die am häufigsten der Technologie und insbesondere den digitalen Technologien zugeschrieben werden. In dieser Perspektive sind die Technologien selbst von Fragmenten der Freiheit durchdrungen (Morcheeba et al. 2000). Durch die Nutzung dieser Technologien wird der Benutzer selbst freier. Andrew Feenberg (2000) folgend argumentiere ich, dass zahlreiche Philosophen von Heidegger bis Habermas die Technologie essentialisiert haben, entweder indem sie behaupteten, sie sei eine unvermeidliche Naturgewalt oder, indem sie sie einfach ignorierten. In beiden Fällen verdeckt die proklamierte Essenz der Technologie ihre historisch und kontextuell lokalisierte Bedeutung. Indem man der Technologie eine Essenz verleiht, ist es außerdem möglich, ihr wesentliche Werte zuzuordnen, von denen die Freiheit die am häufigsten verwendete ist. Dieses wesentliche Argument wird häufig im Zusammenhang mit den Debatten über die Internetfreiheit, sowie die Befreiungstechnologien angeführt, welche auf die in digitalen Technologien verankerten Werte verweisen. Am weitesten verbreitet in der Debatte sind Befreiungstechnologien, die von Larry Diamond als „jede Form der Informations- und Kommunikationstechnologie (ICT), die die politische, soziale und wirtschaftliche Freiheit erweitern kann“

204

B. Wagner

(Diamond 2010) beschrieben wurden. Während versucht wird, spezifische befreiende Effekte mit Aspekten der Technologie zu verknüpfen – z. B. indem vorgeschlagen wird, dass der „dezentrale Charakter und die Fähigkeit des Internets (zusammen mit Mobilfunknetzen), sehr schnell eine große Anzahl von Menschen zu erreichen, gut für die Organisation an der Basis geeignet sind“ (Diamond 2015, S. 133) – sollte beachtet werden, dass dem Internet selbst ein essenzieller Charakter zugeschrieben wird. Die Vermutung hinter der essenziellen Freiheit ist, dass das Wesen der Technologie so mächtig ist, dass dieses auch auf ihre Nutzer abfärbt. Durch den bloßen Einsatz der Technologie sind die Nutzer in der Lage, Strukturen zu transzendieren, welche einschränkend wären und durch die Überwindung dieser freier werden. Diese Perspektive wird durch den berühmten MCI-Werbespot von 1997 veranschaulicht, in dem Herkunft, Religion und Behinderung nicht mehr existieren (Chun 2006), in dem aber alle Nutzer einer bestimmten Technologie, durch den Gebrauch des Internets, von diesen zweckmäßigen Einschränkungen befreit werden. In ähnlicher Weise argumentierte Hillary Clinton in ihrer ‚Internet Freedom Agenda‘ (McCarthy 2011), dass allein durch den Einsatz bestimmter Technologien Aktivisten auf der ganzen Welt in ihrer Freiheit gestärkt werden würden (Clinton 2011). All dies spiegelt sich auch in den Debatten über Überwachungstechnologien wider, in denen die „negative Essenz“ der Technologien in den Vordergrund gestellt wird (FIDH 2014). In jüngster Zeit ist dieser Diskurs auch in die Debatte über Robotik und KI eingetreten. Robotiker werden ermutigt, ‚Moral Machines‘ zu entwickeln (MIT Media Lab 2018) und ethische Werte und Standards in Robotik und KI-Anwendungen zu integrieren (Winfield und Jirotka 2018). Schließlich ­ bekennen sich auch Wissenschaftler wie Norbert Wiener zu den wesentlichen Freiheiten, indem sie vorschlagen, dass um ihren Zweck zu erreichen, „eine Person eine Vielfalt von Informationsverarbeitungsaktivitäten betreiben muss [….] der Mensch, der gedeiht, daher völlig abhängig von der Informationsverarbeitung ist“ (Hoven Van Den und Weckert 2008, 11). Die Anhänger dieses Verständnisses konzentrieren sich in der Regel darauf, den Zugang zu diesen Technologien zu ermöglichen oder zu verhindern. Da die Art der spezifischen Technologien als (meist) statisch angesehen wird, besteht die einzige Möglichkeit darin, sicherzustellen, dass diese Technologien in die richtigen Hände gelangen. Ein typisches Beispiel ist der Versuch, Aktivisten auf der ganzen Welt Zugang zum Internet zu verschaffen und gleichzeitig zu versuchen, den Fluss der Überwachungstechnologien weltweit zu begrenzen.

Was bedeutet „Freiheit“ in einem sozio-technischen Kontext?

205

Wenn das Wesen dieser Technologien als formbar angesehen wird, liegt der gesamte Fokus der Debatte darauf, dieses technische Wesen zu beeinflussen und Maschinen zu bauen, die in ihrer Essenz moralischer oder ethischer sind. Infolgedessen kommt es selten zu einer zusätzlichen Berücksichtigung gesellschaftlicher oder politischer Faktoren.

2.2 Freiheit als Instrument Will man aber von der grundlegenden Freiheit zur instrumentellen Freiheit gelangen, stellt dies eine komplexe Aufgabe dar, denn die beiden Freiheitsbegriffe weisen eine Vielzahl an Überschneidungen auf. Während das Wesen der Technologie selbst beim Begriff der ‚essentiellen Freiheit‘ im Vordergrund steht, bildet beim Begriff der ‚instrumentelle Freiheit‘ die funktionale Natur der Technologien den Begriffskern. In einem instrumentalen Kontext werden Technologien als austauschbar angesehen. Die einzig relevante Frage ist, ob sie für einen bestimmten Zweck nützlich sind oder nicht. Die Fokussierung auf die funktionalen Eigenschaften der Technologie dient auch dazu, den Anwender stärker in den Fokus zu rücken. Die Annahme der instrumentellen Freiheit ist, dass die Technologie einen, je nachdem, wie man sie nutzt, befreien kann. Es wird daher davon ausgegangen, dass je größer ihr Zugang zu technologischen Werkzeugen und Fachwissen ist, der Freiheitsgrad im Verhältnis ansteigt. Dies ist vielleicht nicht überraschend, denn diese Perspektive auf die Technologie ist in der Ingenieurswelt weit verbreitet und in der Ingenieurskunst als der ultimative Weg zur Freiheit angesehen wird (Coleman 2013). Ein höherer Grad der Fähigkeiten im Umgang mit Technologie bedeutet ein Mehr an Fähigkeit frei zu sein. Das Konzept führt im Ergebnis zu einer ständigen Spirale aus Selbstverbesserung und technologischer Verbesserung auf der Suche nach Freiheit. Der Drang nach instrumenteller Freiheit manifestiert sich auch in einigen der wichtigsten politischen Reaktionen der öffentlichen Hand, durch den Aufstieg der sozio-technischen Systeme. Kindern und Erwachsenen wird ständig gesagt, dass sie lernen müssen mit neuen Technologien umzugehen, wenn sie in ihrer zukünftigen Karriere erfolgreich sein wollen, d. h. „frei“ in einer primär marktwirtschaftlichen Gesellschaft zu sein (Hargrave 2018; Pisani 2018; Conway 2014; Cremer 2018). Solche Ansätze sind auch in der ­Open-Source-Software-Gemeinschaft stark vertreten, die auf der Idee basieren, dass grundsätzlich jeder Mensch einen Beitrag leisten und damit den Gesamtzustand der Software verbessern kann.

206

B. Wagner

2.3 Freiheit als Verfahren Im Gegensatz zu diesen liberalen oder libertären Konzepten von Freiheit steht das Verständnis von Freiheit durch Verfahren, welches ebenfalls eine lange demokratische Tradition hat und hier prozedurale Freiheit genannt wird. Historisch gesehen war dies eines der wichtigsten Freiheitskonzepte, wobei Philosophen von Locke (2004) bis Montesquieu (2004) ihre Ideen auf Konzepte der Prozessfreiheit gründeten, sowie in jüngster Zeit wichtige Verfechter von Privatsphäre wie Caspar Bowden (2013). Daher ist es nicht verwunderlich, dass große Teile dessen, was die meisten Juristen typischerweise unter dem Begriff der Menschenrechte verstehen, auf dem Konzept der Verfahrensfreiheit gründet. Hier spielen Verfassungen und Verträge eine Schlüsselrolle bei der Ermöglichung von Freiheit. Infolgedessen argumentieren viele der an der Debatte über Überwachung und Privatsphäre Beteiligten – wie sie nach den Enthüllungen von Edward Snowden in vielen Ländern geführt wurden (Baums 2016; Greenwald 2014; Rosenbach und Stark 2014; Schirrmacher 2015) – gerade für diese Art von Freiheit (Wagner et al. 2015; Bowden 2013; Crawford und Schultz 2014). Damit der Einzelne frei sein kann, braucht die Verfahrensfreiheit eine zuverlässige Reihe von Mechanismen, auf deren Grundlage Entscheidungen getroffen werden können. Diese Verfahrensmechanismen können sehr umfangreich sein und werden am besten in der allgemeinen Datenschutzverordnung (GDPR) der EU veranschaulicht. Durch ein umfangreiches und hochkomplexes Verfahren sowie Prozesse können Grundrechte wie die Privatsphäre geschützt werden. In der Welt der GDPR ist es nicht möglich, ohne diese Garantien frei zu sein. Die Herausforderung des Konzepts ist, dass es bestimmte Ergebnisse nicht garantieren kann. Da die Konzepte notwendigerweise eher prozedural als ergebnisorientiert sind, entwickeln und verbessern sie ständig die bestehenden Mechanismen zum Schutz der Rechte. Solche verfahrenstechnischen Freiheitskonzepte sind sowohl in Großunternehmen als auch in Organisationen des öffentlichen Sektors äußerst verbreitet. Beide sind hochgradig risikoavers und bevorzugen daher Verfahrensmechanismen, die nach Möglichkeit eine Haftungsbefreiung vorsehen (Dannenbaum 2010; Schebesta 2017).

2.4 Freiheit als Entscheidungsfreiheit Die Entscheidungsfreiheit steht im Zusammenhang mit Freiheit als Verfahren, ist aber von dieser in wichtigen Punkten zu unterscheiden. Während der Schwer-

Was bedeutet „Freiheit“ in einem sozio-technischen Kontext?

207

punkt von Freiheit als Verfahren darin besteht, institutionelle Unterstützungsmechanismen zu schaffen, die aus sich heraus Freiheit garantieren sollen, konzentriert sich die Freiheit als Entscheidungsfreiheit stattdessen auf die Ermöglichung menschlicher Freiheit am Ort der Entscheidungsfindung. Die Vorstellung, dass die Freiheit einer Entscheidung zu einer Stärkung der Grundrechte beitragen kann, ist am weitesten in der Literatur über die Automatisierung von Technologien diskutiert (Fitts 1951; Billings 1991), insbesondere in Bezug auf militärische Technologieanwendungen (Crootof 2016; Linnenkamp und Dickow 2013). Man kann aber auch über militärische Technologieanwendungen hinaus argumentieren, dass die Beteiligung des Menschen an der Entscheidungsfindung eine besondere Art von menschlicher Tätigkeit darstellt, die für die Wahrung der Menschenrechte von entscheidender Bedeutung ist (Wagner 2012). Der Kern des Konzepts der Entscheidungsfreiheit versucht, menschliche Entscheidungskonzepte wie „menschliches Ermessen“ (Wagner 2018), „Gnade“ und andere Kernaspekte dessen, was es bedeutet, Mensch zu sein, zu schützen (Spiekermann 2015; Fuller 2011). Allerdings wurde dieses Konzept von Wissenschaftlern wie Thomas B Sheridan als unrealistisch und schwer umsetzbar kritisiert (Sheridan 2000). Darüber hinaus legen Autoren wie Laurie F. Cranor (2008) nahe, dass menschliche Entscheidungen in Bereichen wie der Computersicherheit tatsächlich ein Hindernis für den Schutz der Sicherheit darstellen und daher nach Möglichkeit vermieden werden sollten. Die Herausforderung dieses Ansatzes besteht darin, dass er sich auf sehr spezifische Entscheidungspunkte fokussiert. Dies ähnelt zwar dem Verfahrensansatz, konzentriert sich aber auf einen ganz bestimmten Teil der menschlichen Interaktion. So ist sie auf eine spezifische Fragestellung angewiesen (Solove 2012). Wenn es jedoch keinen offensichtlich relevanten „Entscheidungspunkt“ gibt, welcher klar definiert werden kann, kämpft das Konzept der Entscheidungsfreiheit mit seiner Validität. Während es natürlich möglich ist relevante Entscheidungspunkte endlos zu erweitern, stellt dies keine realistische Erwartung für alle Entscheidungsszenarien dar.

2.5 Freiheit als Aufklärung Im Gegensatz zur Entscheidungsfreiheit ist die Freiheit als Aufklärung nicht auf einzelne Entscheidungspunkte angewiesen. Vielmehr stützt sich der Begriff auf alle Annahmen, die die Freiheit auf rationale, kognitive Fähigkeiten des Menschen konzentrieren. Zu diesem Zweck sind rationale Menschen durchaus

208

B. Wagner

in der Lage, frei zu sein, solange sie Zugang zu ausreichenden Informationen haben (Habermas 1990). So sind in diesem Zusammenhang öffentliche Transparenzinitiativen (Calland und Bentley 2013; Jaeger und Bertot 2010), die Open-Source-, Open-Wissens- und Open-Bildungsressourcen-Bewegungen (Gómez und Bongiovani 2012; Marcus-Quinn und Diggins 2013; Stallman 1985) und große Teile des aufklärerischen Denkens seit John Locke (Schouls 2018) zu sehen. Auch die Bildungssysteme spielen in diesem Zusammenhang eine Schlüsselrolle und stellen sicher, dass der Aufklärer alle relevanten Informationen verstehen kann. Aus technologischer Sicht sind Annahmen über die Freiheit als Aufklärung von Nutzern keineswegs selbstverständlich. Vielmehr gibt es bei Technologieentwicklern eine lange Geschichte von Schuldzuweisungen an ihre Benutzer, weil sie die Technologie nicht „richtig“ eingesetzt haben (Norman 2013). Im Zusammenhang mit der Wahrung der Freiheit als Aufklärung gibt es jedoch in vielen Teilen der Welt eine starke Tendenz zur technologischen Transparenz. Für einen erheblichen Teil der Entwickler ist es ganz normal, ihren Code auf ­Code-sharing-Plattformen wie Github (Tsay et al. 2014) öffentlich zugänglich zu machen. Daher sollte es nicht überraschen, dass die Technologie als Schlüsselfaktor für Transparenz angesehen wird, der dafür sorgt, dass Parlamentsdebatten, öffentliche Ausschreibungen und sogar Wahlen transparenter werden sollen. In ihren weiter entwickelten, technologischen Vorschlägen auf der Grundlage der Freiheit als Aufklärung wurde vorgeschlagen, bestehende Institutionen zu ersetzen durch direkte Abstimmungen und Entscheidungen. Derartige Systeme werden Beispielsweise von der 5-Sterne-Bewegung in Italien betrieben, oder von dem System ‚Liquid Democracy‘ das von der deutschen Piratenparteien eingesetzt wird (Cammaerts 2015; Blum und Zuber 2016). Doch auch neue Formen von Abstimmungs- und Verhandlungsverfahren werden verbreitet und stellen einen sinnvollen Beitrag zur demokratischen Debatte dar.

2.6 Freiheit als Autonomie Über die Freiheit als Aufklärung gelangt man hin zu Freiheit als Autonomie, die vielleicht am engsten mit dem verbunden ist, was Isaiah Berlin als positive Freiheit bezeichnet hätte (Berlin 1958). In diesem Zusammenhang stehen die menschliche Autonomie und der Versuch, sie zu schützen, im Vordergrund der relevanten Entscheidungen. Dies ist aus technologischer Sicht besonders relevant, da immer mehr Technologien entwickelt werden, um das Nutzerverhalten zu

Was bedeutet „Freiheit“ in einem sozio-technischen Kontext?

209

beeinflussen, zu manipulieren oder einfach nur zu stören, oft ohne deren Wissen oder Erlaubnis (Bond et al. 2012; IJsselsteijn et al. 2006; Marteau et al. 2011). Infolgedessen wird es immer schwieriger, Räume zu konstruieren, in denen Menschen wirklich für sich selbst entscheiden können. Es geht nicht nur darum, dass Unternehmen wie Cambridge Analytica und andere versuchen, das Ergebnis von Wahlen zu manipulieren, es geht auch darum, dass Fluggesellschaften versuchen werden, Kunden zu manipulieren, um Entscheidungen zu treffen, die sie normalerweise nicht treffen wollen (Noggle 2018; Yeung 2017; IJsselsteijn et al. 2006). Diese manipulativen Designtechniken, die typischerweise als „Dark Patterns“ bezeichnet werden, (Gray et al. 2018) werden, in weiten Teilen der technologischen Welt zunehmend zur Norm. Infolgedessen fragen einige Autoren, inwieweit es in diesem Zusammenhang überhaupt möglich ist, Meinungsfreiheit sinnvoll auszuüben? (Alegre 2017; Wagner 2014, 2016, 2011). Um Freiheit als Autonomie zu gewährleisten, ist es nach Norbert Wiener unerlässlich, dass Technologien zu ‚enabling ecosystems‘ werden, um das ‘flourishing as a person’ zu ermöglichen (Wiener 1961; Berlin 1958). Dieser Ansatz ähnelt Ansätzen in der internationalen Entwicklung,2 wo solche capacityorientierten Herangehensweisen seit einiger Zeit üblich sind (Biggeri et al. 2017). Diese Konzepte gehen auf Amartya Sen und seine Idee eines capacity-orientierten Ansatzes (Sen 1985) zurück, bei dem Entwicklung eine zentrale Rolle bei der Sicherung der Freiheit spielt (Sen 1999). Freiheit als Autonomie konzentriert sich ebenfalls darauf, die Rahmenbedingungen für menschliches Handeln in technologischen Umgebungen zu schaffen. In spezifischen sozialen und technischen Kontexten ist das Konzept der autonomen Freiheit jedoch außerordentlich schwer zu operationalisieren. An welchem Punkt wurde ein Mensch unangemessen beeinflusst und was ist noch im Rahmen der Möglichkeiten der menschlichen Entwicklung? Da fast alle Technologien das menschliche Verhalten in irgendeiner Weise beeinflussen, kann dies erhebliche Herausforderungen mit sich bringen. Die Herausforderung besteht vor allem darin, dass das Konzept in der Realität kaum umzusetzen ist. Irgendeine Art von technologischer Beeinflussung wird letztlich immer existieren, weshalb es eher sinnvoll wäre, zu fragen, mit welchen Arten von technologischen Einflüssen man leben kann und welche zu vermeiden sind.

2Internationale

Entwicklung bedeutet hier nicht Softwareentwicklung, sondern die wirtschaftlichen, sozialen und politischen Formen der Entwicklung eines Landes, die von Entwicklungsförderorganisationen wie der Weltbank, der DfID oder den Hivos unterstützt werden.

210

B. Wagner

Eine weitere damit zusammenhängende Herausforderung besteht darin, ob die Schaffung von Rahmenbedingungen, die die menschliche Autonomie gewährleisten, notwendigerweise im Interesse einzelner Menschen ist. Viele Philosophen von Rousseau (Rousseau 1968) bis Habermas (Habermas 1990) haben sich für eine höhere Instanz wie einen Leviathan oder eine kommunikative Elite ausgesprochen, die wichtige Funktionen übernimmt. Insbesondere diese höheren Instanzen sind typischerweise an einer umfassenden Beeinflussung ihrer Bevölkerung beteiligt, die von weniger subtilen Befehlen des Leviathans bis hin zu subtileren Versuchen, die öffentliche Debatte zu gestalten (Habermas 1994).

2.7 Freiheit als Verantwortung Das Konzept von Freiheit als Autonomie unterscheidet sich von dem der verantwortungsvollen Freiheit und dies kann auch Gestaltungsszenarien treffen, welche sogar als diametral entgegengesetzt angesehen werden können. Während Freiheit als Autonomie auf die Wahrung der individuellen Autonomie ausgerichtet ist, konzentriert sich Freiheit als Verantwortung auf die Freiheit durch Selbstbegrenzung und Zurückhaltung. Frei zu sein in diesem Zusammenhang bedeutet, sich selbst eigene Gesetze zu geben (Kant 1797). Im Rahmen der verantwortungsvollen Freiheit kann man nur frei sein, wenn man die Verantwortung für das eigene Handeln übernimmt. Verantwortungsbewusste Freiheit setzt voraus, dass die Möglichkeit, für sich selbst verantwortlich zu sein, eine befreiende Komponente haben kann, wodurch der Einzelne aufgrund der von ihm selbst auferlegten Einschränkungen erst frei sein kann. Während dieser Begriff der Freiheit durch Selbstbeschränkung für viele liberale Denker (van der Vossen und Vallentyne 2018) wie ein Oxymoron klingen mag, ist der Begriff dennoch ein gebräuchlicher. Man könnte sogar argumentieren, dass dies eines der grundlegendsten Prinzipien der Ethik ist: dass nicht alles, was getan werden kann, getan werden sollte (Grant und Moses 2017). Indem sie dies anerkennt, versucht die verantwortungsvolle Freiheit, ein passendes Gleichgewicht zwischen den sozialen und technischen Möglichkeiten und den konkreten Handlungen eines Einzelnen herzustellen. Allerdings wird das Konzept der verantwortungsvollen Freiheit häufig missbraucht, um Freiheit einzuschränken. Zahlreiche Länder auf der ganzen Welt sprechen über die Rechte und Pflichten der Bürger (Donnelly 2007) oft nur als Vorwand um die eigenen autoritären Praktiken zu rechtfertigen (Glasius 2018). Dennoch sollte anerkannt werden, dass es eine relevante Tradition des Denkens um den Begriff der verantwortungsvollen Freiheit gibt, die sich hauptsächlich

Was bedeutet „Freiheit“ in einem sozio-technischen Kontext?

211

auf den Einzelnen und seine ethische Rolle in der Gesellschaft konzentriert. Wenn Kant über Gesetze spricht, die ein Individuum für sich selbst festlegen sollte, dann versteht Kant darunter keine Gesetze, die durch einen Prozess der Legislative, also durch das Parlament, entstehen, sondern ein individuell gesetztes Regelwerk oder ein persönliches Gesetzbuch, nach dem ein Individuum leben sollte (Höffe 1977; Kant 1797). Diese Perspektive auf den Begriff der verantwortungsvollen Freiheit ist auch in der Berufsethik weit verbreitet, wo bestimmte Gruppen in der Gesellschaft Kodizes oder Normen für ihren eigenen Beruf festlegen. Diese Regeln können verbindlich oder unverbindlich ausgestaltet sein, aber sie sind nicht für die gesamte Gesellschaft anwendbar, sondern zeigen vielmehr einen Fall der eigen-gegebenen Kontrolle oder Selbstbeherrschung durch eine bestimmte gesellschaftliche Gruppe (wie beispielsweise Ingenieure, Anwälte und Journalisten).

3 Konzepte von Freiheiten in der Praxis: Spannungen zwischen den Kategorien Nachdem diese unterschiedlichen Vorstellungen von Freiheit beschrieben wurden, ist es wichtig an dieser Stelle anzuerkennen, dass es sich nicht um perfekt unterscheidbare Kategorien handelt, sondern dass die Kategorien teilweise ineinander übergehen. Gleichzeitig erfüllen Argumente der Freiheit in der Technik oft mehrere Perspektiven. Um nur ein Beispiel zu nennen: Heute berührt die Technologie fast jeden Aspekt unseres täglichen Lebens […] In vielerlei Hinsicht befähigt uns die Technologie, unsere Rechte umfassender auszuüben, indem sie uns neue Möglichkeiten bietet, Verbindungen aufzubauen und Ideen außerhalb unserer unmittelbaren Gemeinschaft auszutauschen.[…] Sie können verwendet werden, um marginalisierte Gemeinschaften in einem Ausmaß zu überwachen und zum Schweigen zu bringen, das bisher nicht möglich war [….] Es fehlt an Vielfalt unter denjenigen, die neue Technologien entwickeln, was bedeutet, dass es eine inhärente Verzerrung gibt, die die Bedürfnisse und Anwendungsfälle vieler Gemeinschaften nicht berücksichtigt. (Tackett 2018). Dieser Blog-Post der Digital Rights NGO Access Now berührt mehrere verschiedene Dimensionen von Freiheit und Technologie. Auf der einen Seite ermöglicht die Technologie Empowerment, das der Erzählung von Freiheit als Autonomie folgt. Gleichzeitig ist diese Ermächtigung eng mit technischen Maßnahmen verbunden, bei denen das Internet ein Werkzeug ist, bei denen Softwareentwickler diejenigen sind, die Macht ausüben. Diese Erzählung handelt viel mehr von der Freiheit als Instrument, bei der die Kontrolle über ein bestimmtes

212

B. Wagner

Werkzeug oder Instrument die Freiheit gewährleistet. Im Gegensatz dazu nimmt Ithiel de Sola Pool die folgende Perspektive ein: Die bürgerliche Freiheit funktioniert heute in einem sich wandelnden technologischen Kontext. Fünfhundert Jahre lang wurde ein Kampf geführt und in einigen wenigen Ländern wurde erkämpft, dass das Recht der Menschen, frei zu sprechen und zu drucken [….] neue Kommunikationstechnologien nicht alle rechtlichen Immunitäten übernommen haben, die für die alten [….] Der Markt, nicht die Technologie, setzt die meisten Grenzen. Beispielsweise schreibt die Technologie keine Lizenz- und Regierungsvorschriften mehr vor (Pool 1983, S. 1 ff.). Dieser Auszug aus Technologies of Freedom von Ithiel de Sola Pool (1983) kombiniert drei verschiedene Perspektiven auf Freiheit. Während das Hauptelement Freiheit als Verfahren ist, wie die Debatte über die rechtliche Immunität der Technologie zeigt, gibt es auch ein Element von Freiheit als Instrument, wenn die Rolle der Technologien zur Selbstregulierung diskutiert wird. Schließlich gibt es ein Element der Freiheit als Entscheidungsfreiheit im Verständnis von Technologien, die selbst eine Entscheidung zu Lizenz- und Regulierungsanforderungen treffen. Alle diese drei Dimensionen überschneiden sich, um ein Gesamtverständnis für Technologie zu schaffen, welches prozedurale, entscheidungsbezogene und instrumentelle Elemente von Freiheit kombiniert.

4 Fazit Welche Interpretation des Verhältnisses von Freiheit und Technik werden in der Breite diskutiert? Um diese Frage zu beantworten reicht es nicht aus, sich auf die bestehenden Begriffe rund um positive und negative Freiheit zu beschränken. Es braucht trennschärfere und klarere Kategorien, um die Debatte einzufangen und sinnvoll die unterschiedlichen Strömungen zu interpretieren. In diesem Artikel wurden unterschiedliche Verwendungen dieses Begriffs aufgeführt und kategorisiert, sowie die Spannungsverhältnisse und Überlappung zwischen den unterschiedlichen Kategorien dargestellt. Der Beitrag soll eine Stütze zum Verständnis der gegenwärtigen Diskurse zu Freiheit und Technik bieten, findet seine Grenze aber in einer kompletten und ganzheitlichen Auflösung der oft verwirrenden und unterschiedlichen Konzepte. Durch die Überwindung des Grundrahmens der positiven/negativen Freiheit und eines differenzierteren Verständnisses von Freiheit und Technologie soll dieser Artikel dazu beitragen, ein klareres Bild von dem Verhältnis zwischen Freiheit und Technologie in der Praxis zu vermitteln. Es gibt sicherlich auch weitere

Was bedeutet „Freiheit“ in einem sozio-technischen Kontext?

213

Kategorien, aus Sicht der Autoren sind die Dimensionen die relevantesten Punkte von Freiheit und Technologie, die sich in der öffentlichen Debatte aktuell finden. Sie können daher als nützliche Heuristik dienen, um das, was tatsächlich gesagt wird, besser zu verstehen. Es ist wichtig, an dieser Stelle darauf hinzuweisen, dass keine der Dimensionen notwendigerweise ‚besser‘ oder ‚schlechter‘ ist als jede andere, sie stellen einfach verschiedene Wege dar, um zu versuchen, Freiheit zu erlangen und begrifflich zu fassen. Die größte Herausforderung in weiten Teilen der Debatte über Freiheit und Technologie besteht darin, dass sie sehr ideologisch bleibt. Wichtig ist auch zu erwähnen, dass das Verständnis des Zusammenhangs zwischen Freiheit und Technologie erhebliche Auswirkungen auf politische Entscheidungen hat. Je nachdem auf welche der Kategorien referenziert wird und, welche von Entscheidern genutzt wird, hat dies erhebliche Auswirkungen auf ihre tatsächlichen Entscheidungen. Je nachdem ob Technologie als Werkzeug oder als Essenz verstanden wird, werden sehr unterschiedliche Entscheidungen auf Grundlage dieser Kategorien getroffen. Diese Perspektiven prägen die Wahl der als angemessen erachteten technologischen Maßnahmen grundsätzlich (Yeung 2016). Innerhalb dieser Debatte gibt es also einen enormen Spielraum für unterschiedliche Auffassungen und Interpretationen von Freiheit. Daher kann es hilfreich sein, die Kategorien besser zu verstehen, die im Rahmen von gesellschaftlichen Diskursen zu Freiheit und Technik genutzt werden.

Literatur- und Quellenverzeichnis Alegre, Susie. 2017. Rethinking Freedom of Thought for the 21st Century. European Human Rights Law Review, 3: 13. Aouragh, Miriyam. 2011. The Egyptian Experience : Sense and Nonsense of the Internet Revolution University of Cambridge. International Journal of Communication 5: 1344– 1358. Bauman, Zygmunt, Didier Bigo, Paulo Esteves, Elspeth Guild, Vivienne Jabri, David Lyon, und R.B.J. Walker. 2014. After Snowden: Rethinking the Impact of Surveillance. International Political Sociology 8 (2): 121–144. https://doi.org/10.1111/ips.12048. Baums, Ansgar. 2016. Digitale Standortpolitik in Der Post-Snowden-Welt. In Digitale Souveränität, 223–235. Springer. Berlin, Isaiah. 1958. Two Concepts of Liberty: An Inaugural Lecture Delivered Before the University of Oxford on 31 October, 1958. Clarendon Press. Biggeri, Mario, Enrico Testi, und Marco Bellucci. 2017. Enabling Ecosystems for Social Enterprises and Social Innovation: A Capability Approach Perspective. Journal of Human Development and Capabilities 18 (2): 299–306. https://doi.org/10.1080/19452 829.2017.1306690.

214

B. Wagner

Billings, Charles E. 1991. Human-Centered Aircraft Automation: A Concept and Guidelines. https://ntrs.nasa.gov/search.jsp?R=19910022821. Blau, Adrian. 2004. Against Positive and Negative Freedom. Political Theory 32 (4): 547– 553. Blum, Christian, und Christina Isabel Zuber. 2016. Liquid Democracy: Potentials, Problems, and Perspectives. Journal of Political Philosophy 24 (2): 162–182. Bond, Robert M., Christopher J. Fariss, Jason J. Jones, Adam D I. Kramer, Cameron Marlow, Jaime E. Settle, und James H. Fowler. 2012. A 61-Million-Person Experiment in Social Influence and Political Mobilization. Nature 489 (7415): 295–298. Bowden, Caspar. 2013. The US Surveillance Programmes and Their Impact on EU Citizens’ Fundamental Rights. Brussels, Belgium: European Parliament. Brownsword, Roger. 2017. Law, Liberty, and Technology. The Oxford Handbook of Law, Regulation and Technology, July. https://doi.org/10.1093/oxfor dhb/9780199680832.013.2. Calland, Richard, und Kristina Bentley. 2013. The Impact and Effectiveness of Transparency and Accountability Initiatives: Freedom of Information. Development Policy Review 31: s69–s87. Cammaerts, Bart. 2015. Pirates on the Liquid Shores of Liberal Democracy: Movement Frames of European Pirate Parties. Javnost-The Public 22 (1): 19–36. Carafano, JJ. 2009. All a Twitter: How Social Networking Shaped Iran’s Election Protests. Heritage Foundation Backgrounder. http://thf_media.s3.amazonaws.com/2010/pdf/ bg2300.pdf. Chun, Wendy Hui, und Kyong. 2006. Control and Freedom : Power and Paranoia in the Age of Fiber Optics. Cambridge Mass.: MIT Press. Clinton, Hillary. 2011. Secretary Clinton on Internet Freedom. In Freedom Online – Joint Action for Free Expression on the Internet. The Hague, Netherlands: Bureau of Democracy, Human Rights and Labor, U.S. Department of State. Coleman, E. 2013. Gabriella. Coding Freedom: The Ethics and Aesthetics of Hacking. Princeton University Press. Conway, Zoe. 2014. Do Children Need to Learn to Code? BBC News. 2014. https://www. bbc.com/news/av/education-26061864/do-children-need-to-learn-to-code. Cranor, Lorrie F. 2008. A Framework for Reasoning about the Human in the Loop.” Crawford, Kate, und Jason Schultz. 2014. Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms. Boston College Law Review 55 (1): 93. Cremer, John. 2018. Is Coding Necessary for Children? South China Morning Post. April 20, 2018. https://www.scmp.com/news/hong-kong/education/article/2142622/doesyour-child-need-learn-coding. Crootof, Rebecca. 2016. A Meaningful Floor for Meaningful Human Control. Temp. Int’l & Comp. LJ 30: 53. Dannenbaum, Tom. 2010. Translating the Standard of Effective Control into a System of Effective Accountability: How Liability Should Be Apportioned for Violations of Human Rights by Member State Troop Contingents Serving as United Nations Peacekeepers. Harv. Int’l LJ 51: 113. Diamond, Larry. 2010. Liberation Technology. Journal of Democracy 21 (3): 69–83. Diamond, Larry. 2015. In Search of Democracy. Routledge.

Was bedeutet „Freiheit“ in einem sozio-technischen Kontext?

215

Donnelly, Jack. 2007. The Relative Universality of Human Rights. Human Rights Quarterly, 281–306. Feenberg, Andrew. 2000. From Essentialism to Constructivism: Philosophy of Technology at the Crossroads. Technology and the Good Life, 294–315. FIDH. 2014. Surveillance Technologies ‘Made in Europe’. Regulation Needed to Prevent Human Rights Abuses.” Fitts, Paul M. 1951. Human Engineering for an Effective Air-Navigation and ­Traffic-Control System.” Fuller, S. 2011. Humanity 2.0: The Past, Present and Future of What It Means to Be Human. Palgrave Macmillan. Glasius, Marlies. 2018. What Authoritarianism Is … and Is Not: A Practice Perspective. International Affairs 94 (3): 515–533. https://doi.org/10.1093/ia/iiy060. Gómez, N D, and P C Bongiovani. 2012. Open Access and A2K: Collaborative Experiences in Latin American. \ldotsaccess to Knowledge \ldots. https://books. google.co.uk/books?hl=en&lr=&id=QkIQJ-qMPDsC&oi=fnd&pg=PA343& dq=access+to+knowledge+a2k+shaver&ots=6kPd4IN1Mi&sig=f19kd2PP7OZwJHwYstDaLBONIE. Grant, David, and Lyria Bennett Moses. 2017. Technology and the Trajectory of Myth. Gray, Colin M., Yubo Kou, Bryan Battles, Joseph Hoggatt, and Austin L. Toombs. 2018. The Dark (Patterns) Side of UX Design. In , 1–14. ACM Press. https://doi.org/https:// doi.org/10.1145/3173574.3174108. Greenwald, Glenn. 2014. Die Globale Überwachung: Der Fall Snowden. Droemer eBook: Die Amerikanischen Geheimdienste Und Die Folgen. Habermas, Jürgen. 1990. Strukturwandel Der Ӧffentlichkeit (German Edition). Suhrkamp Verlag. Habermas, J.ürgen. 1994. Three Normative Models of Democracy. Constellations 1 (1): 1–10. Hargrave, Sean. 2018. Rise of the Machines: Why Coding Is the Skill You Have to Learn. The Guardian, October 25, 2018, sec. New faces of tech. https://www.theguardian.com/ new-faces-of-tech/2018/oct/25/rise-of-the-machines-why-coding-is-the-skill-you-haveto-learn. Höffe, Otfried. 1977. Kants Kategorischer Imperativ Als Kriterium Des Sittlichen. Zeitschrift Für Philosophische Forschung, no. H. 3: 354–384. Hoven Van Den, Jeroen, and John Weckert. 2008. Information Technology and Moral Philosophy. Cambridge University Press; 1 edition. https://www.amazon.com/ Information-Technology-Philosophy-Cambridge-Studies/dp/0521855497. IJsselsteijn, Wijnand, Yvonne de Kort, Cees Midden, Berry Eggen, and Elise van den Hoven. 2006. Persuasive Technology for Human Well-Being: Setting the Scene. In Proceedings of the First International Conference on Persuasive Technology for Human Well-Being, 1–5. PERSUASIVE’06. Berlin, Heidelberg: Springer-Verlag. https:// dl.acm.org/citation.cfm?id=1986822.1986823. Jaeger, Paul T., und John Carlo Bertot. 2010. Transparency and Technological Change: Ensuring Equal and Sustained Public Access to Government Information. Government Information Quarterly 27 (4): 371–376.

216

B. Wagner

Kant, Immanuel. 1797. Metaphysik Der Sitten. Königsberg: bey Friedrich Nicolovius. https://www.worldcat.org/title/metaphysik-der-sitten/oclc/461477510&referer=brief_ results. Linnenkamp, Hilmar, and Marcel Dickow. 2013. Combat Drones-Killing Drones: A Plea against Flying Robots. https://www.ssoar.info/ssoar/handle/document/39964. Locke, John. 2004. Two Treatises of Government. New Haven, Conn.; London: Yale University Press. Marcus-Quinn, Ann, und Yvonne Diggins. 2013. Open Educational Resources. ­Procedia-Social and Behavioral Sciences 93: 243–246. Marteau, Theresa M., David Ogilvie, Martin Roland, Marc Suhrcke, und Michael P. Kelly. 2011. Judging Nudging: Can Nudging Improve Population Health? BMJ (Clinical Research Ed.) 342 (January): d228. McCarthy, Daniel R. 2011. Open Networks and the Open Door: American Foreign Policy and the Narration of the Internet. Vol. 7. 1. MIT Media Lab. 2018. Moral Machine. Moral Machine. 2018. https://moralmachine.mit. edu. Montesquie, CL. 2004. The Spirit of Laws. Cambridge. Morcheeba, Mr., Biz Markie Complex, und Bahamadia. . 2000. Fragments of freedom. New York, NY: Sire. Noggle, Robert. 2018. How to Tell the Difference between Persuasion and Manipulation – Robert Noggle | Aeon Ideas. Aeon, 2018. https://aeon.co/ideas/how-to-tell-thedifference-between-persuasion-and-manipulation. Norman, Don. 2013. The Design of Everyday Things: Revised and Expanded Edition. Revised. Expanded. New York, New York: Basic Books. Pisani, Joseph. 2018. Amazon’s New Goal: Teach 10 Million Kids a Year to Code | CTV News. 2018. https://www.ctvnews.ca/sci-tech/amazon-s-new-goal-teach-10-millionkids-a-year-to-code-1.4158761. Pool, Ithiel de Sola. 1983. Technologies of Freedom. Harvard University Press. Rosenbach, Marcel, and Holger Stark. 2014. Der NSA-Komplex: Edward Snowden Und Der Weg in Die Totale Überwachung. DVA. Rousseau, Jean-Jacques. 1968. The Social Contract. Harmondsworth: Penguin. https:// www.worldcat.org/title/social-contract/oclc/2616139&referer=brief_results. Sartor, Giovanni. 2017. Human Rights and Information Technologies. The Oxford Handbook of Law, Regulation and Technology, July. https://doi.org/10.1093/oxfor dhb/9780199680832.013.79. Schebesta, Hanna. 2017. Risk Regulation Through Liability Allocation: Transnational Product Liability and the Role of Certification. Air and Space Law 42 (2): 107–136. Schirrmacher, Frank. 2015. Technologischer Totalitarismus: Eine Debatte. Suhrkamp Verlag. Schouls, Peter A. 2018. Reasoned Freedom: John Locke and Enlightenment. Cornell University Press. Sen, Amartya. 1985. Well-Being, Agency and Freedom: The Dewey Lectures 1984. The Journal of Philosophy 82 (4): 169. https://doi.org/10.2307/2026184. Sen, Amartya. 1999. Development as Freedom. New York: Anchor books.

Was bedeutet „Freiheit“ in einem sozio-technischen Kontext?

217

Sheridan, Thomas B. 2000. Function Allocation: Algorithm, Alchemy or Apostasy? International Journal of Human-Computer Studies 52 (2): 203–216. https://doi.org/10.1006/ ijhc.1999.0285. Simhony, Avital. 1993. Beyond Negative and Positive Freedom: TH Green’s View of Freedom. Political Theory 21 (1): 28–54. Solove, Daniel J. 2006. A Taxonomy of Privacy. University of Pennsylvania Law Review 154 (3): 477. https://doi.org/10.2307/40041279. Solove, Daniel. 2012. Introduction: Privacy Self-Management and the Consent Dilemma. Harv. L. Rev. 126: 1880. Spiekermann, Sarah. 2015. Ethical IT Innovation: A Value-Based System Design Approach. CRC Press. Stallman, Richard. 1985. The GNU Manifesto. Tackett, Carolyn. 2018. Digital Rights 101: Understanding How Technology Affects Human Rights for All. Access Now (blog). April 24, 2018. https://www.accessnow.org/ digital-rights-101-understanding-how-technology-affects-human-rights-for-all/. Tsay, Jason, Laura Dabbish, and James Herbsleb. 2014. Influence of Social and Technical Factors for Evaluating Contribution in GitHub. In Proceedings of the 36th International Conference on Software Engineering, 356–366. ACM. Vossen, Bas van der, and Peter Vallentyne. 2018. Libertarianism. In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Fall 2018. Metaphysics Research Lab, Stanford University. https://plato.stanford.edu/archives/fall2018/entries/ libertarianism/. Wagner, Ben. 2011. Freedom of Expression on the Internet: Implications for Foreign Policy. GISWatch. https://giswatch.org/en/freedom-expression/freedom-expressioninternet-implications-foreign-policy. Wagner, Ben. 2012. After the Arab Spring: New Paths for Human Rights and the Internet in European Foreign Policy. Brussels, Belgium: European Union. https://www.europarl. europa.eu/activities/committees/studies.do?language=EN. Wagner, Ben. 2014. The Politics of Internet Filtering: The United Kingdom and Germany in a Comparative Perspective. Politics 34 (1): 58–71. https://doi.org/10.1111/14679256.12031. Wagner, Ben. 2016. Algorithmic Regulation and the Global Default: Shifting Norms in Internet Technology. Etikk Praksis Etikk i Praksis 10 (1): 5–13. Wagner, Ben. 2018. Algorithms and Human Rights: Study on the Human Rights Dimensions of Automated Data Processing Techniques and Possible Regulatory Implications. DGI(2017)12. Strasbourg, France: Council of Europe. https:// rm.coe.int/algorithms-and-human-rights-study-on-the-human-rights-dimension-ofaut/1680796d10. Wagner, Ben, Joanna Bronowicka, Cathleen Berger, und Thomas Behrndt. 2015. Surveillance and Censorship: The Impact of Technologies on Human Rights. Brussels, Belgium: Policy Department, Directorate-General for External Policies, European Parliament. Wagner, Ben, Matthias C. Kettemann, und Kilian Vieth. 2019. Research Handbook on Human Rights & Digital Technology: Global Politics, Law & International Relations. Cheltenham, UK: Edward Elgar Publishing.

218

B. Wagner

Weber, Max. 1980. Wirtschaft Und Gesellschaft: Grundriss Einer Verstehenden Soziologie. https://books.google.com/books?hl=it&lr=&id=RWK_6TKVENcC&pgis=1. Wendler, Rick. 2016. Hannah Arendts Freiheitsbegriff | Forum Freie Gesellschaft. 2016. https://www.forum-freie-gesellschaft.de/hannah-arendts-freiheitsbegriff/. Wiener, Norbert. 1961. Cybernetics: Or, Control and Communication in the Animal and the Machine. Winfield, Alan, und Marina Jirotka. 2018. Ethical Governance Is Essential to Building Trust in Robotics and AI Systems, 13. Philosophical Transactions A: Mathematical, Physical and Engineering Sciences. Yeung, Karen. 2016. The Forms and Limits of Choice Architecture as a Tool of Government. Law & Policy 38 (3): 186–210. Yeung, Karen. 2017. ‘Hypernudge’: Big Data as a Mode of Regulation by Design. Information, Communication & Society 20 (1): 118–136. https://doi.org/10.1080/1369 118X.2016.1186713.

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz. Entstehung und Wirkung im gesellschaftlichen Kontext Paul F. Langer und Jan C. Weyerer Jeder hat Anspruch auf die in dieser Erklärung verkündeten Rechte und Freiheiten ohne irgendeinen Unterschied, Etwa nach Rasse, Hautfarbe, Geschlecht, Sprache, Religion, Politischer oder sonstiger Überzeugung, Nationaler oder sozialer Herkunft, Vermögen, Geburt oder sonstigem Stand. Des Weiteren darf kein Unterschied gemacht werden aufgrund der politischen, Rechtlichen oder internationalen Stellung des Landes oder Gebiets, Dem eine Person angehört, Gleichgültig ob dieses unabhängig ist, Unter Treuhandschaft steht, Keine Selbstregierung besitzt oder sonst in seiner Souveränität eingeschränkt ist. (Artikel 2, Allgemeine Erklärung der Menschenrechte, Vereinte Nationen 1948, S. 2)

1 Einleitung Diskriminierung als unverschuldete Benachteiligung oder Herabwürdigung von Personen oder Gruppen durch bewusste, unreflektierte und teilweise auch unbewusste Einstellungen, Vorurteile oder emotionale Assoziationen ist ein gesellschaftliches Phänomen, welches demokratischen Grundprinzipien widerspricht und somit politisch und gesellschaftlich geächtet wird (Vereinte Nationen 1948, S. 2). Da es sich dabei um eine sehr menschliche Erscheinung handelt, wird

P. F. Langer (*)  Universität Speyer, Mannheim, Deutschland E-Mail: [email protected] J. C. Weyerer  Universität Speyer, Speyer, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_11

219

220

P. F. Langer und J. C. Weyerer

Diskriminierung zunächst nicht von als neutral angesehenen Maschinen erwartet, welche lediglich auf Anweisung entsprechende Rechenoperationen durchführen. Dabei ist genau diese Diskriminierung von Personen und Personengruppen durch Maschinen mit zunehmender Nutzerorientierung eine wachsende Herausforderung. Die Nutzerorientierung digitaler Technologien erfolgt zunehmend individuell und geht somit auch auf persönliche Merkmale ein, was einer Auflösung der Nutzerneutralität gleichkommt. Zudem unterliegen IT-Systeme einer fortschreitenden Automatisierung und treffen somit komplexe Entscheidungen zunehmend selbstständig. Ein wesentlicher Faktor bei der Einführung algorithmischer Systeme für die Entscheidungsfindung ist ihre Fähigkeit, große Mengen an unterschiedlichen Datensätzen (d. h. große Datenmengen) zu verarbeiten, die mit maschinellen Lernmethoden gekoppelt werden können, um statistische Modelle direkt aus den Daten abzuleiten. Diese Eigenschaften der Durchdringung von Komplexität und autonomer Abstraktion und Inferenz sind jedoch mit der zunehmenden Sorge verbunden, dass die Prozesse undurchsichtig sind und keine klaren Erklärungen für die von ihnen getroffenen Entscheidungen liefern. Dieser Mangel an Transparenz birgt die Gefahr, dass eine sinnvolle Kontrolle und Rechenschaftspflicht untergraben wird, was ein Problem darstellt, wenn diese Systeme im Rahmen von Entscheidungsprozessen angewendet werden, die erhebliche Auswirkungen auf die Menschenrechte haben können (Koene et al. 2019). Während die nutzerspezifischen Zugänge und Dienstleistungen eines datenbasierten Profilings bedürfen (Hofstetter 2018, S. 142), basiert die zunehmende Entscheidungsfindung von IT-Systemen auf autonomen Systemen, die immer mehr einer Künstlichen Intelligenz (KI) gleichkommen. Die Anwendung von KI eröffnet eine Vielzahl neuer Möglichkeiten für Staat und Gesellschaft und verspricht erhebliche Effektivitäts- und Effizienzgewinne bei der Ausführung staatlicher Aufgaben im Bereich der Bildung, Mobilität, Gesundheit etc. (Eggers et al. 2017, S. 2 ff.). Insbesondere durch das Chancen- und Transformationspotenzial für die Wirtschaft ist KI inzwischen auch weit nach oben auf die politische Agenda vieler Staaten gerückt (Dutton 2018). Es existieren jedoch große Risiken und Herausforderungen im Zusammenhang mit der Anwendung von KI, die technologischer, rechtlicher, sozialer und ethischer Natur sein können (Wirtz et al. 2019, S. 9 ff.). Im politischen und auch wissenschaftlichen Diskurs stehen insbesondere Fragen im Raum, wie die Entwicklung und Anwendung von KI sowie ihre Folgen ethisch und moralisch zu bewerten sind, beziehungsweise wie ethische Grundwerte in KI-Anwendungen integriert werden können (Anderson und Anderson 2007, S. 15 ff.; Lin 2012, 3 f.; Wirtz et al. 2019, S. 1 f.). Neben ethischen Fragen, etwa die der informationellen Selbstbestimmung, der moralischen Verantwortung von KI-Entscheidungen etc. bezieht sich eine zentrale

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz ...

221

ethische Herausforderung auf den Aspekt der KI-basierten Diskriminierung. Diese besagt, dass KI-Technologien menschliche Vorurteile beziehungsweise diskriminierende Werthaltungen und Verhaltensweisen übernehmen und sogar verstärkend reproduzieren können (Basu 2018). Im Allgemeinen bedeutet dies, dass KI-Anwendungen möglicherweise nicht nur gegen nationale Antidiskriminierungsgesetze verstoßen können, die von einer Vielzahl von Staaten, wie den USA (z. B. Age Discrimination in Employment Act von 1967), Großbritannien (z. B. Equality Act 2010) oder Deutschland (z. B. Allgemeines Gleichbehandlungsgesetz) gelten, sondern auch gegen das in Artikel 2 der Allgemeinen Erklärung der Menschenrechte verankerte Diskriminierungsverbot. Da sich KI als Querschnittstechnologie durch ein nahezu universelles Anwendungsspektrum auszeichnet und sowohl im Entwicklungsprozess als auch im Einsatz noch ganz am Anfang steht, ist es wichtig, die schon heute auftretenden Konflikte kritisch zu untersuchen und die Entwicklung und Verbreitung von ­ KI-Technologien entsprechend zu begleiten (Weyerer und Langer 2019, S. 509 f.). Dabei ist das Problem der Diskriminierung im Zusammenhang mit der KI und ihren potenziell negativen Auswirkungen auf Mensch und Gesellschaft im öffentlichen Sektor besonders relevant und weitreichend, da die Monopolstellung staatlicher Akteure dazu führen kann, dass sich Personen der KI-Diskriminierung, anders als teilweise im privaten Sektor, nicht entziehen können. Die folgenden Abschnitte werden daher relevante Aspekte im Zusammenhang mit der Entstehung und den Auswirkungen KI-basierter Diskriminierung sowie die daraus resultierenden Implikationen für Staat, Gesellschaft und Demokratie vorstellen. Ziel ist es, aufzuzeigen, welche Faktoren die Entscheidungsgrundlagen der KI prägen, welche Wirkmechanismen zu erwarten sind und in welchen Bereichen KI-basierte Entscheidungen bestehende gesellschaftliche Missstände reproduzieren.

2 KI-Diskriminierung Es gibt verschiedene Formen von Diskriminierung, die auch Ergebnis automatisierter KI-basierter IT-Systeme sein können. Dazu gehört insbesondere die Verunglimpfung von Minderheiten oder benachteiligten Personengruppen im sprachlichen und visuellen Kontext, die in Form der Ehrverletzung, Herabsetzung oder Hetze durch Menschen auftreten kann (sog. Hate Speech). Mit der Etablierung der sozialen Medien als wichtige Plattformen für soziale Interaktion sind verschiedene Formen der Verunglimpfung im öffentlichen und geschlossenen Raum ein häufig anzutreffendes Phänomen, welchem mit automatisierten, aber auch von Menschen vorgenommenen Löschmaßnahmen begegnet wird (Davidson et al. 2017, S. 512 f.).

222

P. F. Langer und J. C. Weyerer

Neben der teils automatisierten Löschung sind einige der Social Bots beziehungsweise Chatbots, also autonom agierende Akteure im Netz, bereits durch diskriminierende Beiträge aufgefallen (Munger 2017, S. 630 f.). Ein bekanntes Beispiel der Verunglimpfungen durch KI ist das Pilotprojekt Tay von Microsoft. Tay war ein selbstlernender Chatbot mit eigenem Twitter-Profil, der lernte, wie junge Menschen auf Social-Media-Plattformen kommunizieren. Innerhalb weniger Stunden auf Twitter, verwandelte sich Tay in einen rassistischen, antisemitischen, sexistischen Chatbot, da seine menschlichen Interaktionspartner ihn mit entsprechenden Inhalten konfrontierten, von denen er lernte und erkannte, welche Posts besonders erfolgreich Interaktionen generieren (Neff und Nagy 2016, S. 4920 ff.; Scherer 2016). Bereits nach 16 h war Microsoft gezwungen, Tay offline zu nehmen, um seine diskriminierenden Nachrichten zu unterbinden. Die direkte Diskriminierung ist die einfachste Form der Diskriminierung und beschreibt eine Benachteiligung, zum Beispiel bei Gericht, Polizeieinsätzen, im Beruf oder in der Schule aufgrund eines bewertungsunabhängigen persönlichen Merkmals wie dem Geschlecht, der Zugehörigkeit zu einer Religion oder Ethnie (Dalenberg 2018, S. 616 ff.; Ellis und Watson 2012, S. 143). Diese Form von Diskriminierung tritt ebenfalls schon heute durch KI-Anwendungen auf, beispielsweise durch einen Bewerbermanagement-Algorithmus bei Amazon, der weibliche Kandidatinnen nicht für hochbezahlte Jobs vorschlug (Dastin 2018). Die indirekte Diskriminierung bezieht sich auf eine ungerechte Behandlung oder Regel, die für alle gilt, aber negative Auswirkungen auf eine bestimmte Gruppe hat (Ellis und Watson 2012, S. 148). Dies trifft beispielsweise zu, wenn in bestimmten Stadtteilen, in denen überproportional viele Angehörige einer Minderheit leben, weniger Services wie Straßenreinigung, Parkanlagen etc. angeboten werden. Eine solche indirekte Diskriminierung kann ebenfalls das Ergebnis von KI-Technologien sein, wenn beispielsweise Algorithmen Preise aufgrund von Kundenmerkmalen setzen und damit eine bestimmte Menschengruppe diskriminieren. Die Maximierung von Einnahmen durch eine solche Preisdiskriminierung, die nicht notwendigerweise KI-basiert sein muss, findet heute schon statt. Es werden im Internet bereits Preise aufgrund von Nutzungsverhalten und Personendaten den persönlichen Zahlungsbereitschaften angepasst (Personalised Pricing) oder personendatenbezogene unterschiedliche Angebote (Steering) gemacht (Hupperich et al. 2018; Obama White House 2015; White 2012). Die intersektionale Diskriminierung beschreibt eine Form der sozialen Differenzierung auf Grundlage individueller Merkmale wie Geschlecht, ethnischer Zugehörigkeit oder sexueller Orientierung, die nicht getrennt voneinander auftreten, sondern miteinander verwoben sind (Crenshaw 1989, S. 141). Dabei können

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz ...

223

spezifische Kombinationen zu einer besonderen Benachteiligung führen. Beispielsweise können Frauen mit Migrationshintergrund auch dann benachteiligt sein, wenn separat gemessen weder grundsätzliche Benachteiligungen gegen Menschen mit Migrationshintergrund noch gegen Frauen festzustellen sind. Intersektionalität ist damit weniger leicht zu identifizieren und kann somit auch dann Ergebnis von KI-Anwendungen sein, wenn diese darauf ausgelegt sind, klar definierte Minderheiten nicht zu diskriminieren, etwa durch den Ausschluss der Differenzierung nach Geschlecht oder Herkunft (Raji und Buolamwini 2019, S. 5 f.).

3 Rückkopplung von KI-Diskriminierung Die Einführung und Verbreitung von KI-Technologien ist zudem mit der Hoffnung verbunden, eine größere Rationalität in Entscheidungsprozessen zu etablieren und somit einer Subjektivität, Voreingenommenheit und emotionalen Behandlung von Individuen entgegen zu wirken. Es besteht also die Hoffnung, mit computergestützten Entscheidungen dem offenen oder latenten Alltagsrassismus und -sexismus zu begegnen. Ergebnisse von Computern werden schon seit längerem als besonders objektiv und rational bezeichnet: “The ideal calculator is a computer, widely revered in part because it is incapable of subjectivity“ (Porter 1996, S. 74). So wird logischen und regelbasierten Berechnungen unterstellt, dass sie die menschlichen Lasten der Vorurteile und Emotionen ausschließen: „the desires and biases of individuals are screened out” (Porter 1996, S. 74). Wenn Technologien allerdings eine besondere Glaubwürdigkeit genießen und zudem aufgrund der oben beschriebenen Zusammenhänge die KI-Ergebnisse weder nachvollziehbar noch frei von Diskriminierungen sind, dann kann daraus sogar ein verstärkender Diskriminierungseffekt entstehen, da die vermeintlich neutrale Instanz der Technik Vorurteile bestätigt. So könnte beispielsweise die Weltsicht von sexistisch oder rassistisch eingestellten PersonalmanagerInnen bezüglich des Vorurteils von mangelnden Kompetenzen unter Frauen und MigrantInnen bestätigt werden, wenn ihnen das KI-Personalrekrutierungs-Tool seltener Frauen oder Migranten für ausgeschriebene Managementpositionen vorschlägt (Dastin 2018). Diskriminierende Ergebnisse von KI-Anwendungen stellen somit nicht nur tatsächliche Diskriminierung dar, sondern generieren auch einen Rückkopplungseffekt. So verfestigen sich Vorurteile durch entsprechende Bestätigungen von vermeintlich neutralen Maschinen (Weiss 1999, S. 29 ff.). Wenn nicht nachvollziehbare Ergebnisse von Maschinen schließlich durch Menschen reproduziert werden und damit indirekt oder sogar direkt die Datenbasis weiterer

224

P. F. Langer und J. C. Weyerer

Abb. 1   KI-basierte Reproduktion von Vorurteilen und diskriminierendem Verhalten. (Quelle: eigene Darstellung)

­ I-Anwendungen werden, kann ein Kreislaufeffekt von sich verstärkenden disK kriminierenden Ergebnissen (s. Abb. 1) eintreten (Weyerer und Langer 2019).

4 KI-Input – Design und Datenbasis Basis aller KI-Entscheidungen sind die menschliche Programmierung der Software und die gegebene Datenbasis, die ebenso durch menschliche Einflüsse, etwa im Rahmen der Datenerhebung und –verarbeitung, determiniert wird (vergleiche im Folgenden auch Weyerer und Langer 2019). In Analogie zum Aufwachsen und Lernen von Kleinkindern, die frei von Vorurteilen geboren werden, sind es die Eltern, die Umgebung und entsprechenden Erfahrungen, die Vorurteile und Diskriminierung formen. Um es mit den Worten der KI-Expertin Kate Crawford auszudrücken: „Like all technologies before it, artificial intelligence will reflect the values of its creators“ (Crawford 2016, S. 11). Künstliche Lern- und Verarbeitungsmuster werden vom Menschen mit entsprechenden Emotionen, Werten, Ängsten, Wissenslücken und Vorurteilen entworfen. Sie können dabei bewusst als politische Werkzeuge (bspw. politische Twitterbots) oder unbewusst durch die Voreingenommenheit von EntwicklerInnen (bspw. KI-gestützte Personalauswahl) geprägt werden. Im Ergebnis entstehen Anwendungen, die entsprechende Personengruppen beispielsweise sexistisch oder rassistisch diskriminieren. KI-Lösungen erfüllen somit oftmals nicht die an sie gestellten Objektivitätserwartungen.

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz ...

225

Neben der technischen Ausgestaltung der KI, die aus der Programmierung und dem Design durch den Menschen resultiert, ist es insbesondere die Datenbasis (etwa Trainingsdatensätze), welche die Grundlage für alle Bewertungen und Weiterverarbeitungen einer KI darstellt. Die Lern- und Leistungsfähigkeit von KI hängt entscheidend von der Menge und Qualität der verfügbaren und zugänglich gemachten Daten ab. Diese spiegeln allerdings nie die ganze Wirklichkeit wieder. Ein häufiger Grund für falsche Schlüsse einer KI-Anwendung ist somit meist eine unvollständige Datengrundlage. Darüber hinaus gibt es Datensätze, die verletzende Aussagen enthalten, zum Beispiel in Form rassistischer Berichte, Hassreden oder diskriminierender Social-Media-Kommentare. Daraus ziehen auch automatisierte Twitter-Bots und andere KI-Anwendungen ihre Informationen. In den jeweiligen Datensätzen sind auch Metainformationen enthalten, die auf den Erfolg jener Inhalte hinsichtlich Zuhörerschaft, Klickzahlen, Likes und Shares schließen lassen. In diesem Kontext ist der zuvor erwähnte Fall des Chatbots Tay zu verorten. Aber nicht nur Tay kann als Beispiel genannt werden. Auch andere Social Bots lernen aus bestehenden Einträgen, wie eine Studie der ­Anti-Defamation League darstellt. 28,14 % von 3060 untersuchten TwitterAccounts, die antisemitische Nachrichten versendeten, wurden als Bot-Accounts identifiziert (Novick et al. 2018). Als Beispiel kann auch IBMs umfangreicher KIService namens Watson herangezogen werden. Watson verarbeitet wissenschaftliche Studien, Interneteinträge, Lexika und Wörterbücher, um Unternehmen und Institutionen konkrete Antworten auf gegebene Probleme – oft im medizinischen Bereich – zu liefern. Nachdem Watson das Online-Lexikon Wikipedia und das Urban Dictionary (ein Online-Wörterbuch, das umgangssprachliche Begriffe erklärt) analysiert hatte, wurde mehrfach unangemessene Sprache verwendet, weshalb IBM schließlich einen Swear-Filter einrichtete (Smith 2013). Unabhängig vom spezifischen Grund für diskriminierende oder verzerrende Inhalte in Datensätzen kann konstatiert werden, dass bei den meisten zur Verfügung stehenden Datensammlungen grundlegende Anforderungen an Zuverlässigkeit und Gültigkeit nicht gegeben sind und somit nur ein unvollständiges und oftmals irreführendes Bild der realen Welt dargestellt wird. Abb.  2 veranschaulicht die duale menschliche Input-Quelle für eine KI, die sowohl die Programmierung und das Design als auch die Quellen und Daten umfasst. Beide Inputfaktoren unterliegen menschlichen Vorurteilen und Wertvorstellungen. Es lässt sich daraus folgern, dass eine objektivierte Programmierung und Implementation von KI durch den Menschen kaum möglich ist, da diese selten ohne Einflüsse von Vorprägungen durch Vorurteile, Stereotype oder Werturteile wirken können. Einer Erwartung durch die Anwendung von ­KI-Technologien eine wirklich objektive Entscheidungsfindung zu ermöglichen,

226

P. F. Langer und J. C. Weyerer

Abb. 2   Verzerrter und diskriminierender Input als Grundlage der KI. (Quelle: eigene Darstellung)

wie sie in Abschnitt 2 dargestellt wird, kann somit nicht gerecht werden. Dabei ist allerdings wichtig festzuhalten, dass Algorithmen durchaus Hilfestellung leisten können, um effizientere, an Kriterien orientierte und nachvollziehbarere Entscheidungen zu treffen. Vor dem Hintergrund komplexerer Sachverhalte sind digitale Entscheidungshilfen in der Lage die Komplexität zu reduzieren und menschliche Fehlschlüsse (z.  B. Gambler’s Fallacy, Availability Heuristic, Law of Averages, etc.) zu erkennen (Chen et al. 2016; Savage 2012; Schwarz et al. 1991). Trotz der zweckmäßigen Zuhilfenahme von Algorithmen zur Reduzierung menschlicher Subjektivität ist ein Verlassen auf technische Objektivität allerdings riskant: Zeichnen sich digitale Technologien nicht durch fixe Entscheidungskriterien aus, sondern erlernen auf Grundlage von historischen menschengemachten Entscheidungen lediglich die emotionalen und subjektiven Entscheidungsheuristiken der Menschen zu reproduzieren, so ist nichts gewonnen.

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz ...

227

5 Auftretende Verzerrungen durch KI-Technologie Nachdem die Datengrundlage bereits als einer der Hauptgründe für KI-basierte Diskriminierung vorgestellt wurde, sollen im Folgenden besonders relevante Verzerrungen im Kontext von KI-Anwendungen dargestellt werden (vgl. im Folgenden Weyerer und Langer 2020): Die Datensatzverzerrungen (dataset bias), die Assoziationsverzerrungen (association bias), die Automatisierungsverzerrungen (automation bias), die Interaktionsverzerrungen (interaction bias) und die Bestätigungsverzerrungen (confirmation bias) (Lloyd 2018, S. 2). Eine Verzerrung durch einen gegebenen Datensatz tritt auf, wenn die Datenbasis eines KI-Systems eine bestimmte Population nicht ausreichend widerspiegelt, was zu verzerrten Verallgemeinerungen führen kann (Selektionsverzerrung/Selection Bias zum Beispiel bei Geschlecht, Sexualität, Alter, Bildung etc.). So sind beispielsweise Internetdaten nicht genderneutral, da Frauen zahlenmäßig geringer oder bezüglich der Inhaltsbeiträge anders repräsentiert werden als Männer (Yong 2018, S. 203 f.). Daraus könnte ein Algorithmus beispielsweise den Schluss ziehen, dass Frauen weniger beitragen können oder wollen. Weibliche, junge und dunkelhäutige Individuen werden auch von ­KI-basierten Gesichtserkennungsanwendungen schlechter erkannt, als männliche und hellere Personen, unter anderem auch, weil sie überwiegend mit Gesichtern trainiert wurden, die durch letztere Merkmale gekennzeichnet sind (Buolamwini und Gebru 2018, 1 ff.; Garvie 2016, S. 8, 53; Klare et al. 2012, S. 1789 ff.). Eine Assoziationsverzerrung liegt vor, wenn die Trainingsdaten für ein ­KI-System eine Verzerrung suggerieren, die nicht auf kausalen Effekten basiert. Korrelationen zwischen Merkmalen, Ereignissen, oder Zuständen werden fälschlicherweise als ursächliche Wirkungsbeziehung dargestellt, die aber nicht direkt gegeben ist. Höhere durchschnittliche Gehälter bei Männern lassen beispielsweise keinen Schluss auf Leistungsfähigkeit zu (Dastin 2018). Eine Verzerrung durch Automatisierung tritt auf, wenn teilautonome Systeme von Menschen wenig kontrolliert werden und damit falsche oder ungewünschte Ergebnisse zustande kommen. So gibt es bei vielen heutigen KI-Anwendungen eine letzte menschliche Entscheidungsinstanz, die dafür verantwortlich ist, Arbeitsweisen und Ergebnisse von Algorithmen auf Konformität mit sozialen, moralischen und kulturellen Werten hin zu prüfen und gegebenenfalls zu korrigieren. Wird diese menschliche Kontrolle vernachlässigt, kann es zu Entscheidungen oder Aktionen führen, die entsprechenden Werten zuwiderlaufen und somit bestimmte Minderheiten diskriminieren. Ein Beispiel für eine solche Automatisierungsverzerrung bot die Foto-App von Google. Eine ihrer Funktionen

228

P. F. Langer und J. C. Weyerer

ordnet Bildern automatisch selbstgenerierte Labels zu. Dabei kam es im Jahr 2015 fälschlicherweise dazu, dass afrikanisch-stämmige Menschen als Gorillas klassifiziert wurden (Kasperkevic 2015; Skirpan und Yeh 2017, S. 64). Da Google das Problem technisch nicht bewältigen konnte, schloss es schließlich das Label ‚Gorilla‘ von der Bildererkennung aus. Eine Interaktionsverzerrung kann auftreten, wenn ein KI-System aus Kommunikationsdaten von Menschen lernt und entsprechende Muster ableitet. Das prominenteste Beispiel für eine Interaktionsverzerrung im Kontext von KI ist der bereits beschriebene Fall des Twitter-Chatbots Tay von Microsoft, der aufgrund der hohen Interaktion nach rassistischen, sexistischen oder verschwörerischen Posts selbst entsprechende Beiträge versendete (Harringer 2018, S. 261; Neff und Nagy 2016, S. 4916 ff.). Eine Bestätigungsverzerrung kann vorliegen, wenn selektiv Informationen wahrgenommen oder bevorzugt werden, die zuvor bestehende Überzeugungen oder Verzerrungen bestätigen. Bestätigungsverzerrungen treten häufig im Zusammenhang mit nutzerprofilbasierten Empfehlungssystemen und Suchmaschinen auf. Shoppingplattformen empfehlen beispielsweise Produkte, die in der Vergangenheit gekauften Produkten ähneln oder Produkte, die von ähnlichen Kundenprofilen bereits gekauft wurden. Wenn diese nun gekauft werden, wird die Annahme bestätigt, dass die empfohlenen Produkte richtigerweise empfohlen wurden. Möglicherweise wäre die Kaufentscheidung ohne die entsprechende Empfehlung allerdings nicht zustande gekommen (Chou et al. 2017). Ähnlich sind auch Filterblasen oder Echoräume im Internet zu erklären (Flaxman et al. 2016, S. 298 ff.). Abb. 3 stellt die grundlegenden Verzerrungen im Zusammenhang mit KI-Anwendungen dar. Dabei ist zu beachten, dass es noch einige weitere Verzerrungseffekte im Kontext von KI geben kann.

6 KI-Lernen und Verarbeitung Während Algorithmen bisher auf Grundlage von Programmierungscodes nachvollziehbare Entscheidungen fällen und somit auch ersichtlich diskriminieren können, ist in Zeiten von Deep Learning und neuronalen Netzen nicht immer nachverfolgbar, auf welcher Basis computerbasierte Ergebnisse zustande kommen. Somit werden Entscheidungsprozesse solcher Algorithmen auch oftmals als Blackbox beschrieben (Castelvecchi 2016, S. 21 ff.). Der Lernprozess von modernen KI-Technologien basiert auf der Auswertung von großen Datensätzen (Big Data) und der Identifizierung sinnvoller Strukturen. Darüber hinaus orientieren sich KI-Technologien oft an menschlichen

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz ...

229

Datensatzverzerrungen Eine unvollständige oder nicht repräsentative Datengrundlage führt zu falschen Schlussfolgerungen.

Assoziationsverzerrungen Es werden identifizierte Häufigkeiten und Merkmale fälschlicherweise mit einer Personengruppe assoziiert.

Automatisierungsverzerrung In hochautomatisierten Prozessen nimmt die Aufmerksamkeit zur Identifikation falscher Ergebnisse ab.

Interaktionsverzerrung Es werden aus Informationen bezüglich Antwort- und Feedbackverhalten in Kommunikationsdatensätzen falsche Schlüsse gezogen.

Bestätigungsverzerrungen Entscheidungen auf Grundlage einer eingeschränkten Wahlmöglichkeit oder Informationsbasis bestätigen zuvor getroffene Annahmen, die zur entsprechenden Einschränkung geführt haben.

… Abb. 3   Grundlegende Verzerrungen im Zusammenhang mit KI-Anwendungen. (Quelle: eigene Darstellung)

Entscheidungen und versuchen diese auf Grundlage historischer Daten nachzuvollziehen und gegebenenfalls in neuen Situationen nachzubilden (Arel et al. 2010, S. 13 ff.). Der Prozess des KI-Lernens und Entscheidens wird in drei Schritte unterteilt (vgl. im Folgenden Weyerer und Langer 2019). Zunächst wird die Datengrundlage aufgenommen, erkannt und übernommen (Erkennen). Anschließend werden die Datensätze analysiert und auf Muster geprüft (Verstehen). Schließlich werden die Daten verwertet, um eine entsprechende Aufgabe zu erfüllen. Dabei werden die erkannten Muster und Abhängigkeiten auf die Aufgabenstellung hin geprüft und entsprechend abstrahiert (Produzieren). Abb. 4 illustriert diesen Prozessablauf. In allen drei Phasen des KI-Lernens und -Entscheidens können Ursachen für diskriminierende Ergebnisse von KI-Anwendungen liegen. Wie zuvor beschrieben ist der Input ein entscheidender Faktor für das K ­ I-Anwendungsergebnis. Ist die

230

P. F. Langer und J. C. Weyerer

KI-Lernen und Verarbeiten Wahrnehmung und Annahme einer Informationsbasis

Verarbeitung und Analyse von Daten

Erstellung und Integration von KIErgebnissen

Erkennen (Input)

Verstehen (Logik)

Produzieren (Akon)

Abb. 4   Phasen des KI-Lernens. (Quelle: eigene Darstellung)

Datengrundlage verzerrt oder unzureichend, so sind auch Analyseergebnisse unvollständig oder falsch, was gegebenenfalls dazu führen kann, dass einzelne Personen oder Gruppen zu Unrecht diskriminiert werden. Die zum Maschinenlernen zur Verfügung gestellte Datenbasis ist somit der erste Ansatzpunkt zur Vermeidung von diskriminierenden KI-Ergebnissen. Die Verstehensphase ist insbesondere durch die Programmierung der KI-Anwendung determiniert. Auch hier können entsprechende Verzerrungen ­ vorliegen, welche human kritisch geprüft und angepasst werden müssen, um potenziell diskriminierende Ergebnisse zu verhindern. Schließlich ist das Ergebnis von KI erst dann diskriminierend, wenn es von dem System entsprechend produziert oder veröffentlicht wird. Auch hier existieren Schutzmechanismen, die eine potenzielle Diskriminierung verhindern können (vgl. im Folgenden Weyerer und Langer 2020). Vor diesem Hintergrund gibt es bereits eine Vielzahl von Initiativen um Abhilfemaßnahmen gegen KI-bezogene Verzerrungen und Diskriminierungen zu entwickeln. Insbesondere in der IT-Branche, die sich einer kritischen Kundschaft gegenübersieht, werden Versuche unternommen, diese Probleme zu bewältigen. Die Unternehmensberatung Accenture hat KI-Test-Services auf Basis einer Teach and Test-Methodik eingeführt, um Unternehmen bei der Bereitstellung von KI-Systemen ohne Vorurteile und diskriminierende Inhalte zu unterstützen (Accenture 2018). Google verfolgt einen Forschungsansatz namens Testing with Concept Activation Vectors (TCAV) um KI-Bias und ­-Diskriminierung zu identifizieren und zu begegnen (Google 2019). Dabei soll das Analysetool TCAV EntwicklerInnen helfen zu verstehen, wie ein KI-System seine Entscheidungen trifft. Die Nachvollziehbarkeit von KI-basierten Entscheidungen stellt eine der größten Herausforderungen dar, da man ohne sie nie sicher sein kann, ob eine Entscheidung aus ethischer Sicht legitim ist oder nicht (­Blackbox-Herausforderung). Einer der umfassendsten technischen Lösungsansätze für KI-bezogene

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz ...

231

Verzerrungen und Diskriminierungen ist der von IBM eingeführte AI Fairness 360 Toolkit (Bellamy et al. 2018; IBM 2018b). Dieser Ansatz verbindet Wissen aus Forschung und Industrie, und wurde als Open-Source-Projekt konzipiert, um die Beteiligung der weltweiten Forschungs- und Entwicklergemeinschaft zu fördern. Das Toolkit umfasst derzeit einen Satz von mehr als 70 Fairness-Metriken zur Überprüfung auf Verzerrungen in KI-Systemen und zehn Beispiele von Algorithmen zur Vermeidung von Verzerrungen in KI-Systemen. Neben technischen Lösungsansätzen gibt es auch eine Vielzahl von Arbeiten, die sich konzeptionell mit der Frage von Lösungen zur Herausforderung KI-basierter Diskriminierung auseinandersetzen. Krüger und Lischka (2018) ­ geben beispielsweise eine grundsätzliche Handlungsempfehlung zur Prüfung und Kontrolle von KI: Zunächst sollen algorithmische Systeme auf ihre gesellschaftliche Angemessenheit geprüft werden. Des Weiteren soll der Wirkungseffekt von algorithmischen Systemen auf ihre Auswirkungen untersucht werden. Grundsätzlich empfehlen Krüger und Lischka die Sicherstellung einer Diversität von algorithmischen Systemen, um eine Abhängigkeit von wenigen Systemen zu vermeiden. Schließlich soll auch die Setzung eines entsprechenden Rechtsrahmens dazu führen, Diskriminierung von KI zu vermeiden (Krüger und Lischka 2018).

7 Bewertung und Lösungsansätze von KI-Diskriminierung Vor dem Hintergrund der zuvor dargestellten Wirkungszusammenhänge sind Ergebnisse von KI-Anwendungen bezüglich ihres potenziell diskriminierenden Outputs mit Vorsicht zu genießen. Schon heute ist die häufig durch ­KI-Anwendungen generierte Auswahl von Inhalten bei Suchanfragen und Social Media Walls stark auf das eigene Nutzerprofil ausgelegt, was die Wahrnehmung der Wirklichkeit beeinflusst und somit potenziell verzerrt (Baumann et al. 2019; Dahlgren 2019; Del Vicario et al. 2016; Dylko et al. 2017; Garcia et al. 2015; Garrett 2009; Johnson et al. 2009; Passe et al. 2018; Törnberg 2018; Williams et al. 2015). Diese Verzerrung und die damit einhergehende Aufrechterhaltung von bestehenden Vorurteilen kann die Polarisierung einer heterogenen Gesellschaft verstärken und stellt damit eine der vielen Gefahren der digitalen Transformation des Staats (d. h. politische Ordnung und öffentliche Institutionen) und der Gesellschaft (d. h. Gesamtheit der Menschen im Staat und entsprechende soziale Gefüge und Werte) dar. Um die Anwendung von KI und ihre potenziell diskriminierenden Ausfälle bewerten zu können, sollte allerdings geprüft werden, ob die Nichtanwendung von

232

P. F. Langer und J. C. Weyerer

KI tatsächlich einen höheren Nutzen für Staat und Gesellschaft schaffe: „any fair assessment of algorithms must be made against their alternative” (Thierer et al. 2017, S. 37). Dies kann auf zwei Ebenen geschehen: Erstens, mit Sicht auf konkrete Fälle mit der Frage: Kann man KI im gegebenen Fall zum Nutzen von Staat und Gesellschaft einsetzen, ohne dass Menschen diskriminiert werden? Zweitens, mit der Absicht einer grundsätzlichen Technologiebewertung: Schadet die Anwendung von KI und der damit einhergehende potenzielle Verlust der Nachvollziehbarkeit technischer Ergebnisse grundsätzlich Staat und Gesellschaft? Ohne eine abschließende Bewertung zu geben, möchten wir hier erste Gedanken anbringen. Die Frage einer Fallbewertung ist nicht generell zu beantworten und verlangt sowohl eine genaue Prüfung der Gefahren der betrachteten Anwendung als auch ein konsequentes Handeln zur Minimierung potenzieller KI-getriebener Diskriminierung. In der Wissenschaft hat sich eine Reihe von Beiträgen mit der Frage beschäftigt, wie man Voreingenommenheit und Diskriminierung im Zusammenhang mit der KI in konkreten Fällen verhindern oder beseitigen kann. Die meisten Ansätze stammen aus dem Bereich der Informationstechnologie und schlagen technologische Abhilfemaßnahmen vor, wie etwa bestimmte Algorithmen oder Fairness-Metriken (z. B. Amini et al. 2019; Calmon et al. 2017; Goel et al. 2018; Speicher, Ali et al. 2018; Speicher, Heidari et al. 2018; Zhang et al. 2018; Zhao et al. 2017), von denen einige in das zuvor genannte AI Fairness 360 Toolkit von IBM aufgenommen wurden (IBM 2018a). Dabei ist auch zu erwähnen, dass angenommen werden kann, dass viele EntwicklerInnen keine schlechten Absichten verfolgen: „[…] many of the engineers who work on such algorithms do not wish to develop a reputation for furthering the social ills of racism, sexism, or corruption” (Thierer et al. 2017, S. 33). Darüber hinaus heben einige Versuche auch soziale, rechtliche, politischeoder managementbezogene Aspekte bei der Behandlung von Voreingenommenheit und Diskriminierung im Zusammenhang mit der KI hervor (z. B. Gwagwa und Koene 2018; Kirkpatrick 2016; West et al. 2019; Williams et al. 2018; World Economic Forum Global Future Council on Human Rights 2018). Williams et al. (2018, S. 108) stellen zum Beispiel mehrere Abhilfemaßnahmen vor, darunter externe Auditierung, die Gestaltung algorithmischer Urteile, die über soziale Kategorien hinweg gültig sind, die Berücksichtigung der Frage, wie rechtliche und andere Einschränkungen algorithmische Systeme gestalten können, und die Fokussierung der Forschung auf eine bestimmte Gruppe, um Erkenntnisse zu gewinnen. Insgesamt zeigen die genannten wissenschaftlichen Beiträge, dass es nicht nur wichtig ist, das KI-System selbst als technologische Einheit zu betrachten, sondern auch seinen breiteren Kontext zu berücksichtigen, wenn es um den Umgang mit KI-bezogener Verzerrung und Diskriminierung geht.

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz ...

233

So zeigt das Beispiel Tay und insbesondere die nachfolgende S­ ocial-Bot-Identität Zo, wie schwer es sein kann, autonome KI-Anwendungen moralisch agieren zu lassen. Während Tay in kürzester Zeit offen rassistisch, antisemitisch, sexistisch und verschwörerische Inhalte veröffentlichte, wurde Zo grundsätzlich jegliche politische Äußerung untersagt. „Zo is politically correct to the worst possible extreme; mention any of her triggers, and she transforms into a judgmental little brat” (Stuart-Ulin 2018). Der Fall Zo macht klar, dass ­KI-Anwendungen heute nicht in der Lage sind, Mitteilungen und Taten ethisch abzuwägen, sondern lediglich in ihren Aussagen gebremst beziehungsweise gehindert werden. Vor diesem Hintergrund bleibt die Frage des gesellschaftlichen Nutzens von KI-Anwendungen im Allgemeinen unbeantwortet. Es kann angenommen werden, dass KI-Technologie als fortgeschrittene selbstständige Lern- und Abstraktionsmaschine zwar den rationalen Teil des menschlichen Geistes zunehmend nachahmen, aber gleichzeitig nicht soziale Fähigkeiten wie Empathie aufbauen kann. Sollten KI-Anwendungen als rationalere und effektivere Akteure in Staat und Gesellschaft großen Einfluss erhalten und gleichzeitig keine ethische Kompetenz haben, so kann dies zu einer Gefahr für offene und demokratische Gesellschaften werden. Wie bei vielen anderen staatlichen und gesellschaftlichen Risiken, fällt der Gesellschaft und dem politischen System die Rolle zu, einen entsprechenden Ordnungsrahmen zu setzen, um diese Gefahren bei gleichzeitiger Ermöglichung potenzieller Vorteile einzudämmen.

8 Resümee und Ausblick Fünf Aspekte der KI-basierten Diskriminierung wurden im vorliegenden Beitrag näher vorgestellt: 1) die verschiedenen Formen der KI-basierten Diskriminierung, 2) der Rückkopplungseffekt von KI-basierter Diskriminierung, 3) die Ursachen für KI-basierte Diskriminierung, 4) die Verzerrungen durch K ­ I-Anwendungen und 5) der KI-Lern- und Verarbeitungsprozess. Alle dargestellten Punkte stellen jeweils Wirkungszusammenhänge dar, die eine ernstzunehmende gesellschaftliche Herausforderung im Kontext der zunehmenden Anwendung von K ­ I-Technologie darstellen. Insbesondere der Blackbox-Charakter vieler KI-Anwendungen macht es WissenschaftlerInnen, EntwicklerInnen und insbesondere NutzerInnen schwer, den Ergebnissen der KI-Anwendung bezüglich ihrer Voreingenommenheit zu trauen. Je bedeutender die aus KI-Anwendungen resultierenden Informationen für Staat und Gesellschaft werden, desto ernster ist auch die Gefahr einer Ausgrenzung, Benachteiligung oder Diffamierung

234

P. F. Langer und J. C. Weyerer

von Personen oder Gruppen. „In vielen Kontexten sind Algorithmen den Schwankungen und Vorteilen menschlicher Entscheidungsfindung zwar überlegen, diskriminierungsfrei sind sie aber nicht; ihnen fehlt ein ethischer Kompass“ (Martini 2017, S. 1019). Neben der Anwendung der dargestellten technischen wie konzeptionellen Lösungsansätze kann die gesellschaftliche Auseinandersetzung mit dem Thema bereits einen ersten und wichtigen Schritt zur Bewältigung dieser Herausforderung darstellen. KI-Anwendungen sind keine Zaubertechnologien, sondern eine Verfahrensinnovation, die von Menschen entwickelt wurden und somit auch von Menschen eingesetzt und geleitet werden können. Ihr Potenzial zum Nutzen wie zum Schaden ist groß, weshalb eine breite Auseinandersetzung mit dem Thema wichtig und notwendig ist. Transparenz im Einsatz und die Offenlegung der Funktionsweisen sind entscheidende Voraussetzungen für eine demokratische Auseinandersetzung mit dem Thema (Gwagwa und Koene 2018, S. 2). Angesichts jüngerer Vorfälle von KI-Diskriminierung (Beispiele: Tay, ­Amazon-Personalrekrutierungs-Tool, Gorilla-Fall von Google Photos) und der daraus resultierenden Menschenrechtsverletzungen ist es unerlässlich, das Bewusstsein für dieses Thema bei ForscherInnen, PolitikerInnen, BeamtInnen und Führungskräften zu schärfen und ein grundlegendes Verständnis für die Kernaspekte und sozialen Auswirkungen von KI-Diskriminierung zu vermitteln. Transparenz und Rechenschaftspflicht (Algorithmic Accountability) sind in diesem Zusammenhang Instrumente zur Förderung fairer algorithmischer Entscheidungen, indem sie die Grundlagen für den Rückgriff auf sinnvolle Erklärungen, Korrekturen oder die Feststellung von Fehlern schaffen, die Kompensationsprozesse bewirken könnten (Koene et al. 2019). Die Komplexität der algorithmischen Verarbeitung, kombiniert mit der Größe und Vielfalt der an den Berechnungen beteiligten Daten macht eine vollständige Erklärung der Schritte des Algorithmus in vielen Bereichen unwahrscheinlich. Dies gilt insbesondere dann, wenn das System auch den Einsatz von maschinellen Lernmethoden zur Ableitung statistischer Modelle direkt aus den Daten vollzieht. Es gibt jedoch technische Methoden, um die algorithmische Undurchsichtigkeit zu reduzieren beziehungsweise Erklärungen für das Verhalten eines Systems trotz mangelnder Transparenz zu liefern (ibid). Ziel muss sein, zu verstehen, wie das System funktioniert oder wie es sich verhält. Es lässt sich beispielsweise „eine umfangreiche Protokollierung der Programmabläufe und Rückkopplungsprozesse“ (Martini 2017, S. 1021) in Algorithmen einbauen, die der ­Blackbox-Problematik entgegenwirken kann. So können Entscheidungsmechanismen, die Personengruppen benachteiligen, identifiziert und eliminiert werden

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz ...

235

(Martini 2019). Eine Herausforderung solcher Ansätze besteht darin, dass sie ohne direkte Beteiligung der SystementwicklerInnen unmöglich sind. Mechanismen für die Entscheidungstransparenz müssen in Systeme integriert werden und erfordern somit eine rechtsverbindliche algorithmische Rechenschaftspflicht.

Literatur- und Quellenverzeichnis Accenture. (2018). Accenture launches new artificial intelligence testing services. https:// newsroom.accenture.com/news/accenture-launches-new-artificial-intelligence-testingservices.htm. Zugegriffen: 28. Mai 2019. Amini, A., A. Soleimany, A., W. Schwarting, S. Bhatia, und D. Rus. (2019). Uncovering and Mitigating Algorithmic Bias through Learned Latent Structure. In Association for the Advancement of Artificial Intelligence (AAAI) (Hrsg.), Proceedings of the 2019 AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society . Anderson, M., und S.L. Anderson. 2007. Machine ethics: Creating an ethical intelligent agent. AI magazine 28 (4): 15–26. Arel, I., D.C. Rose, und T.P. Karnowski. 2010. Deep machine learning – A new frontier in artificial intelligence research. IEEE computational intelligence magazine 5 (4): 13–18. Basu, A. (Oxford Human Rights Hub, Hrsg.). (2018). Discrimination in the age of artificial intelligence. https://ohrh.law.ox.ac.uk/discrimination-in-the-age-of-artificialintelligence/. Zugegriffen: 18. Dez. 2018. Baumann, F., P. Lorenz-Spreen, I Sokolov, I. M., und Starnini, M. (2019, 28. Juni). Modeling echo chambers and polarization dynamics in social networks. https://arxiv. org/pdf/1906.12325v1. Bellamy, R. K. E., Dey, K., Hind, M., Hoffman, S. C., Houde, S., Kannan, K., Lohia, P., Martino, J., Mehta, S., Mojsilovic, A., Nagar, S., Ramamurthy, K. N., Richards, J. T., Saha, D., Sattigeri, P., Singh, M., Varshney, K. R., und Zhang, Y. (2018). AI Fairness 360: An Extensible Toolkit for Detecting, Understanding, and Mitigating Unwanted Algorithmic Bias. CoRR abs/1810.01943. https://arxiv.org/abs/1810.01943. Zugegriffen: 15. Juli 2019. Buolamwini, J., und T. Gebru. 2018. Gender Shades: Intersectional Accuracy Disparities inCommercial Gender Classification. Proceedings of Machine Learning Research 81: 1–15. Calmon, F., Wei, D., Vinzamuri, B., Natesan Ramamurthy, K. & Varshney, K. R. (2017). Optimized Pre-Processing for Discrimination Prevention. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan et al. (Hrsg.), Advances in Neural Information Processing Systems 30 (S. 3992–4001). Curran Associates, Inchttps:// papers.nips.cc/paper/6988-optimized-pre-processing-for-discrimination-prevention.pdf. Zugegriffen: 15. Juli 2019. Castelvecchi, D. 2016. Can we open the black box of AI? Nature News 538 (7623): 20–23. Chen, D.L., T.J. Moskowitz, und K. Shue. 2016. Decision making under the gambler’s fallacy: Evidence from asylum judges, loan officers, and baseball umpires. The Quarterly Journal of Economics 131 (3): 1181–1242.

236

P. F. Langer und J. C. Weyerer

Chou, J., Murillo, O. & Ibars, R. (2017). What the Kids' Game "Telephone" Taught Microsoft about Biased AI. https://www.fastcompany.com/90146078/what-the-kids-gametelephone-taught-microsoft-about-biased-ai. Zugegriffen: 3. Juni 2019. Crawford, K. (2016, 28. Juni). Artificial Intelligence’s White Guy Problem. The New York Times, New York Edition, S. 11. https://www.nytimes.com/2016/06/26/opinion/sunday/ artificial-intelligences-white-guy-problem.html. Zugegriffen: 22. Mai 2019. Crenshaw, K. (1989). Demarginalizing the intersection of race and sex: A black feminist critique of antidiscrimination doctrine, feminist theory and antiracist politics. University of Chicago Legal Forum 1989 (1), 139. https://​ chicagounbound.uchicago.edu/cgi/ viewcontent.cgi?article=1052&context=uclf. Zugegriffen: 15. Juli 2019. Dahlgren, P.M. 2019. Selective Exposure to Public Service News over Thirty Years: The Role of Ideological Leaning, Party Support, and Political Interest. The International Journal of Press/Politics 24 (3): 293–314. https://doi.org/10.1177/1940161219836223. Dalenberg, D. J. (2018). Preventing discrimination in the automated targeting of job advertisements. Computer Law & Security Review 34 (3), 615–627. https://search. ebscohost.com/login.aspx?direct=true&db=bsu&AN=129568345&site=ehost-live. Dastin, J. (Reuters, Hrsg.). (2018). Amazon scraps secret ai recruiting tool that shoed bias against women. https://www.reuters.com/article/us-amazonc o m - j o b s - a u t o m a t i o n - i n s i g h t / a m a z o n - s c r a p s - s e c r e t - a i - r e c r u i t i n g - t o o l -​ ­that-showed-bias-against-women-idUSKCN1MK08G. Zugegriffen: 15. Juli 2019. Davidson, T., Warmsley, D., Macy, M. & Weber, I. (2017). Automated hate speech detection and the problem of offensive language. Proceedings of the Eleventh International AAAI Conference on Web and Social Media (ICWSM 2017), 512–516. Del Vicario, M., G. Vivaldo, A. Bessi, F. Zollo, A. Scala, G. Caldarelli, und W. Quattrociocchi. 2016. Echo Chambers: Emotional Contagion and Group Polarization on Facebook. Scientific reports 6: 37825. https://doi.org/10.1038/srep37825. Dutton, T. (Medium, Hrsg.). (2018). An Overview of National AI Strategies. https:// medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd. Zugegriffen: 18. Dezember 2018. Dylko, I., I. Dolgov, W. Hoffman, N. Eckhart, M. Molina, und O. Aaziz. 2017. The dark side of technology: An experimental investigation of the influence of customizability technology on online political selective exposure. Computers in Human Behavior 73: 181–190. https://doi.org/10.1016/j.chb.2017.03.031. Eggers, W. D., Schatsky, D. & Viechnicki, P. (2017). AI-augmented government: Using cognitive technologies to redesign public sector work. Deloitte Center for Government Insights, 1–24. Ellis, E., und P. Watson. 2012. EU Anti-Discrimination Law, 2. Aufl. Oxford, UK: Oxford University Press. Flaxman, S., S. Goel, und J.M. Rao. 2016. Filter bubbles, echo chambers, and online news consumption. Public opinion quarterly 80 (S1): 298–320. Garcia, D., A. Abisheva, S. Schweighofer, U. Serdült, und F. Schweitzer. 2015. Ideological and Temporal Components of Network Polarization in Online Political Participatory Media. Policy & Internet 7 (1): 46–79. https://doi.org/10.1002/poi3.82. Garrett, R.K. 2009. Echo chambers online?: Politically motivated selective exposure among Internet news users. Journal of Computer-Mediated Communication 14 (2): 265–285. https://doi.org/10.1111/j.1083-6101.2009.01440.x.

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz ...

237

Garvie, C. (2016). The perpetual line-up: Unregulated police face recognition in America: Georgetown Law, Center on Privacy & Technology. Goel, N., Yaghini, M. & Faltings, B. (2018). Non-Discriminatory Machine Learning through Convex Fairness Criteria. In J. Furman, G. Marchant, H. Price & F. Rossi (Hrsg.), Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society – AIES '18 (S. 116). New York, New York, USA: ACM Press. Google. (2019). At I/O '19: Building a more helpful Google for everyone. https://www. blog.google/technology/developers/io19-helpful-google-everyone/. Zugegriffen: 28. Mai 2019. Gwagwa, A. & Koene, A. (2018). Minimizing algorithmic bias and discrimination in the digital economy. Working group for IEEE Standard on Algorithm Bias Considerations UNCTAD Africa e-Commerce week, 10–14 December 2018, Nairobi, Kenya. Harringer, C. 2018. „Good Bot, Bad Bot “? Information-Wissenschaft & Praxis 69 (5–6): 257–264. Hofstetter, Y. (2018). Neue Welt. Macht. Neue Menschen. Wie die Digitalisierung das Menschenbild verändert. In G. Küenzlen, S. Haring-Mosbacher & P. Diehl (Hrsg.), Der Neue Mensch (Schriftenreihe/Bundeszentrale für Politische Bildung, Band 10247, S. 135–150). Bonn: bpb Bundeszentrale für Politische Bildung. Hupperich, T., Tatang, D., Wilkop, N. & Holz, T. (2018). An empirical study on online price differentiation. In Z. Zhao & G.-J. Ahn (Hrsg.), CODASPY'18. Proceedings of the Eighth ACM Conference on Data and Application Security and Privacy : March 19–21, 2018, Tempe, AZ, USA (S. 76–83). New York, NY, USA: ACM Association for Computing Machinery. IBM. (2018a). AI Fairness 360. https://developer.ibm.com/open/projects/ai-fairness-360/. Zugegriffen: 28. Mai 2019. IBM. (2018b). Introducing AI Fairness 360. https://www.ibm.com/blogs/research/2018/09/ ai-fairness-360/. Zugegriffen: 28. Mai 2019. Johnson, T.J., S.L. Bichard, und W. Zhang. 2009. Communication Communities or CyberGhettos?: A Path Analysis Model Examining Factors that Explain Selective Exposure to Blogs. Journal of Computer-Mediated Communication 15 (1): 60–82. https:// doi.org/10.1111/j.1083-6101.2009.01492.x. Kasperkevic, J. (2015, 07. Januar). Google says sorry for racist auto-tag in photo app. The Guardian. https://www.theguardian.com/technology/2015/jul/01/google-sorry-racistauto-tag-photo-app. Zugegriffen: 5.7.19. Kirkpatrick, K. 2016. Battling algorithmic bias. Communications of the ACM 59 (10): 16–17. https://doi.org/10.1145/2983270. Klare, B.F., M.J. Burge, J.C. Klontz, R.W.V. Bruegge, und A.K. Jain. 2012. Face recognition performance: Role of demographic information. IEEE Transactions on Information Forensics and Security 7 (6): 1789–1801. Koene, A., Clifton, C., Hatada, Y., Webb, H. & Richardson, R. (2019). A Governance Framework for Algorithmic Accountability and Transparency (Scientific Foresight Unit, Hrsg.) (PE 624.262). Brussels: Directorate-General for Parliamentary Research Services (EPRS) of the Secretariat of the European Parliament. Krüger, J. & Lischka, K. (2018). Damit Maschinen den Menschen dienen. Lösungsansätze, um algorithmische Entscheidungen in den Dienst der Gesellschaft zu stellen. Impuls Algorithmenethik #6, Gütersloh.

238

P. F. Langer und J. C. Weyerer

Lin, P. (2012). Introduction to Robot Ethics. In P. Lin, K. Abney & G. A. Bekey (Hrsg.), Robot Ethics: The Ethical and Social Implications of Robotics. Cambridge, MA: MIT Press. Lloyd, K. (2018). Bias Amplification in Artificial Intelligence Systems. AAAI FSS-18: Artificial Intelligence in Government and Public Sector, Arlington, Virginia, USA. Martini. . 2017. Algorithmen als Herausforderung für die Rechtsordnung. JuristenZeitung 72 (21): 1017–1025. Martini, M. (2019). Blackbox Algorithmus–Grundfragen einer Regulierung Künstlicher Intelligenz: Springer-Verlag. Munger, K. 2017. Tweetment effects on the tweeted: Experimentally reducing racist harassment. Political Behavior 39 (3): 629–649. Neff, G., und P. Nagy. 2016. Automation, algorithms, and politics| talking to Bots: Symbiotic agency and the case of Tay. International Journal of Communication 10: 4915–4931. Novick, P.,. Schrier, K. & Woolley, S. (Anti-Defamation League, Hrsg.). (2018). Computational Propaganda, Jewish-Americans and the 2018 Midterms. The Amplification of Anti-Semitic Harassment Online. A report from the Center on Technology and Society, Anti-Defamation League. https://www.adl.org/media/12028/download. Zugegriffen: 22/11/19. Obama White House. (2015). Big Data and Differential Pricing. https://​obamawhitehouse. archives.gov/sites/default/files/whitehouse_files/docs/Big_Data_Report_Nonembargo_ v2.pdf. Zugegriffen: 29.11.19. Passe, J., C. Drake, und L. Mayger. 2018. Homophily, echo chambers, & selective exposure in social networks: What should civic educators do? The Journal of Social Studies Research 42 (3): 261–271. https://doi.org/10.1016/j.jssr.2017.08.001. Porter, T. M. (1996). Trust in numbers: The pursuit of objectivity in science and public life: Princeton University Press. Raji, I. D. & Buolamwini, J. (2019). Actionable auditing: Investigating the impact of publicly naming biased performance results of commercial ai products. In Association for the Advancement of Artificial Intelligence (AAAI) (Hrsg.), Proceedings of the 2019 AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society (Bd. 1, S. 1–7). Savage, S. L. (2012). The flaw of averages: Why we underestimate risk in the face of uncertainty: John Wiley & Sons. Scherer, M. (Future of Life Institute, Hrsg.). (2016). Tay the Racist Chatbot: Who is responsible when a machine learns to be evil? https://futureoflife.org/2016/03/27/ tay-the-racist-chatbot-who-is-responsible-when-a-machine-learns-to-be-evil/?cnreloaded=1. Zugegriffen: 5. Juni 2019. Schwarz, N., H. Bless, F. Strack, G. Klumpp, H. Rittenauer-Schatka, und A. Simons. 1991. Ease of retrieval as information: another look at the availability heuristic. Journal of Personality and Social psychology 61 (2): 195. Skirpan, M. & Yeh, T. (2017). Designing a moral compass for the future of computer vision using speculative analysis. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) 2017 (S. 64–73). Smith, D. (2013). IBM's Watson gets a'Swear Filter'after learning the urban dictionary. International Business Times. https://www.ibtimes.com/ibms-watson-gets-swear-filterafter-learning-urban-dictionary-1007734. Zugegriffen: 25/11/19.

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz ...

239

Speicher, T., M. Ali, G. Venkatadri, F.N. Ribeiro, G. Arvanitakis, F. Benevenuto, K.P. Gummadi, P. Loiseau, und A. Mislove. 2018. Potential for Discrimination in Online Targeted Advertising. Proceedings of Machine Learning Research 81: 1–15. Speicher, T., Heidari, H., Grgic-Hlaca, N., Gummadi, K. P., Singla, A., Weller, A. & Zafar, M. B. (2018). A Unified Approach to Quantifying Algorithmic Unfairness. In Y. Guo & F. Farooq (Hrsg.), Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining – KDD '18 (S. 2239–2248). New York, New York, USA: ACM Press. Stuart-Ulin, C. R. (2018, 31. Juli). Microsoft's politically correct chatbot is even worse than its racist one, Quartz. https://qz.com/1340990/microsofts-politically-correct-chat-bot-iseven-worse-than-its-racist-one/. Zugegriffen: 5/7/19. Thierer, A., O’Sullivan Castillo, A. & Russell, R. (Mercatus Center at George Mason University, Hrsg.). (2017). Artificial Intelligence and Public Policy. Mercatus Research. https://www.mercatus.org/system/files/thierer-artificial-intelligence-policy-mrmercatus-v1.pdf. Zugegriffen: 2. Juli 2018. Törnberg, P. 2018. Echo chambers and viral misinformation: Modeling fake news as complex contagion. PLoS ONE 13 (9): e0203958. https://doi.org/10.1371/journal. pone.0203958. Vereinte Nationen. (1948). Allgemeine Erklärung der Menschenrechte. Resolution der Generalversammlung 217 A (III), Generalversammlung der Vereinte Nationen. A/RES/217 A (III). https://www.un.org/depts/german/menschenrechte/aemr.pdf. Zugegriffen: 19.06.19. Weiss, G. 1999. Multiagent systems: a modern approach to distributed artificial intelligence. Cambridge, MA: MIT Press. West, S. M., Whittaker, M. & Crawford, K. (2019). Discriminating Systems: Gender, Race and Power in AI (AI Now Institute, Hrsg.). https://ainowinstitute.org/ discriminatingsystems.pdf. Zugegriffen: 21. Mai 2019. Weyerer, J. C. & Langer, P. F. (2019). Garbage In, Garbage Out: The Vicious Cycle of ­AI-Based Discrimination in the Public Sector. In Y.-C. Chen, F. Salem & A. Zuiderwijk (Hrsg.), Proceeding dg.o 2019 20th Annual International Conference on Digital Government Research (S. 509–511). New York, NY, USA. Weyerer, J. C. & Langer, P. F. (2020). Bias and Discrimination in Artificial Intelligence: Emergence and Impact in E-Business. In R. Luppicini (Hrsg.), Handbook of Research on Interdisciplinary Approaches to Digital Transformation and Innovation. forthcoming. Hershey, PA: IGI Global. White, M. C. (2012, 26. Juni). Orbits Shows Higher Prices to Mac Users. Time. https:// www.business.time.com/2012/06/26/orbitz-shows-higherprices-to-mac-users. Williams, Brooks, und Shmargad. . 2018. How Algorithms Discriminate Based on Data They Lack: Challenges, Solutions, and Policy Implications. Journal of Information Policy 8: 78–115. https://doi.org/10.5325/jinfopoli.8.2018.0078. Williams, H.T.P., J.R. McMurray, T. Kurz, und F. Hugo Lambert. 2015. Network analysis reveals open forums and echo chambers in social media discussions of climate change. Global Environmental Change 32: 126–138. https://doi.org/10.1016/j. gloenvcha.2015.03.006. Wirtz, B.W., J.C. Weyerer, und C. Geyer. 2019. Artificial Intelligence and the Public Sector—Applications and Challenges. International Journal of Public Administration 42 (7): 596–615. https://doi.org/10.1080/01900692.2018.1498103.

240

P. F. Langer und J. C. Weyerer

World Economic Forum Global Future Council on Human Rights. (2018). How to Prevent Discriminatory Outcomes in Machine Learning. White Paper. https://www3.weforum. org/docs/WEF_40065_White_Paper_How_to_Prevent_Discriminatory_Outcomes_in_ Machine_Learning.pdf. Zugegriffen: 21. Mai 2019. Yong, H. (2018). Das Internet ist nicht genderneutral. Über Geschlechterethik in Netzöffentlichkeit. In P. Otto & E. Gräf (Hrsg.), 3TH1CS. Die Ethik der digitalen Zeit (Schriftenreihe/Bundeszentrale für Politische Bildung, Band 10181, Sonderausgabe für die Bundeszentrale für Politische Bildung, S. 198–208). Bonn: Bundeszentrale für Politische Bildung. Zhang, L., Wu, Y. & Wu, X. (2018). Achieving Non-Discrimination in Prediction. In J. S. Rosenschein & J. Lang (Hrsg.), Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence (S. 3097–3103). Zhao, J., Wang, T., Yatskar, M., Ordonez, V. & Chang, K.-W. (2017). Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints. In M. Palmer, R. Hwa & S. Riedel (Hrsg.), Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (S. 2979–2989). Stroudsburg, PA: Association for Computational Linguistics.

Demokratie und digitale Kommunikationsökonomie: Lässt sich ein Fake-News-Verbot liberal-demokratisch begründen? Adriano Mannino 1 Einleitung Die Digitalisierung erleichtert die Massenkommunikation stark, sodass mehr Individuen und Gruppierungen mit einem gesellschaftlichen ‚Megaphon‘ ausgestattet sind als jemals zuvor. Politisch kann diese Transformation der Kommunikationsökonomie zunächst als Chance für die liberale Demokratie begriffen werden: Wenn mehr politische Akteure ihr Recht auf freie Meinungsäußerung mit massenkommunikativer Wirkung wahrnehmen, wird womöglich ein diskursiver Empowerment-Prozess in Gang gesetzt, der bislang marginalisierten Stimmen Gehör verschafft (Shirky 2009). Eine entsprechende Egalisierung der politischen Wettbewerbsbedingungen – Chancengleichheit im politischen Diskurs – schiene in liberal-demokratischer Perspektive intrinsisch wünschenswert und könnte darüber hinaus auch die Qualität der demokratischen Deliberation erhöhen. Hoffnungen oder optimistische Vorhersagen dieser Art wurden indessen stark gedämpft. Realiter zeigen sich in der digitalen Kommunikationsökonomie verschiedene Dynamiken, die sich für die liberale Demokratie als Herausforderungen erweisen – unter anderem jene, dass die Produktion und Verbreitung Für die kritische Durchsicht des Manuskripts und viele wertvolle Hinweise danke ich Isabelle Borucki, Michael Oswald und Janna Hartmann. A. Mannino (*)  Ludwig-Maximilians-Universität München & Solon Center for Policy Innovation, München, Deutschland © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_12

241

242

A. Mannino

politisch relevanter Fake News besonderen Anreizstrukturen ausgesetzt ist, die im vordigitalen Diskursraum abwesend oder schwächer ausgeprägt waren (Stanoevska 2012). Gesellschaftlich-politische Propaganda mit Fake-NewsCharakter gab es immer, doch im digitalen Raum tritt das Phänomen in neuer Qualität, Ausdifferenzierung und Dimension auf. Der vorliegende Artikel ist bestrebt, diese Fake-News-Dynamik kommunikationsökonomisch zu analysieren und in liberal-demokratischer Perspektive – insbesondere mit Habermas und Nida-Rümelin (Habermas 1981; Nida-Rümelin 1999) – kommunikationsethisch zu bewerten, um schließlich die folgende kommunikationsrechtliche These zur Diskussion zu stellen: Es gibt eine Subklasse von Fake News, deren manipulativer Ursprung (Fälschungs- und Täuschungsabsicht) unbestreitbar ist. Entsprechende Fake News äußern keine Meinung, welche die ursprünglichen Sprecher bzw. Fake-News-Produzenten tatsächlich haben, sodass sie von der Meinungsäußerungsfreiheit nicht gedeckt sind; zudem schädigen sie all jene in illegitimer Weise, die kooperativ zur demokratischen Deliberation beitragen. Dies spricht liberal-demokratisch für ein Verbot jener Fake News, die als ‚unbestreitbar bewusst gefälscht‘ taxiert werden können (nicht etwa: als ‚falsch’, denn falsche Äußerungen können als redlicher Beitrag zur kollektiven Deliberation intendiert sein). Deliberative Demokratietheorien implizieren diese Konklusion ebenfalls, zumal Fake News die Bedingungen der Möglichkeit kollektiver Deliberation unterminieren (vgl. Cohen 2006; Fishkin 2009). Agonistische Demokratietheorien hingegen könnten geneigt sein, Fake News als kaum vermeidbaren Teil diskursiver Kämpfe zu akzeptieren, zumal wenn der politische Gegner ebenfalls Fake News einsetzt (vgl. Laclau und Mouffe 2001; Mouffe 2013). Die Tatsache allerdings, dass Fake-NewsDynamiken schnell zu Negativsummenspielen werden, sollte die Gegner dazu bewegen, sich auf eine wechselseitig vorteilhafte diskursive ‚Abrüstung‘ zu einigen und gemeinsam gegen offensichtliche Newsfälschungen vorzugehen.

2 Was sind Fake News? Definitorische Annäherung und normativ relevante Differenzierungen Im Sinne einer ersten definitorischen Annäherung lässt sich feststellen, dass Fake News Informationen sind, die in Form einer Nachrichtenveröffentlichung präsentiert und verbreitet werden. Diese Informationen weiter als falsche zu qualifizieren, wäre aber bereits problematisch: Auch Informationen, die im besten Wissen und Gewissen verbreitet wurden und zum Publikationszeitpunkt in der

Demokratie und digitale Kommunikationsökonomie …

243

Tat mit an Sicherheit grenzender Wahrscheinlicher wahr waren, können sich im Nachhinein als falsch herausstellen. Ein interessanter Fake-News-Definitionsvorschlag, der unlängst vorgelegt wurde, konzentriert sich insbesondere auf den Aspekt, dass Fake News mit Indifferenz gegenüber der Wahrheit kommuniziert werden (Mukerji 2018). Mukerji diagnostiziert eine besonders enge Verbindung zwischen Fake News und dem, was seit Harry Frankfurts philosophischer Begriffsprägung als ‚Bullshit’ bekannt ist (Frankfurt 1986, 2005): Fake News sind nichts anderes als Bullshit, der im Rahmen von Nachrichtenveröffentlichungen geäußert wird (Mukerji 2018, S. 929 ff.). Nach Frankfurt vollzieht der ‚Bullshitter‘ Sprechakte mit der Intention, die RezipientInnen ohne Rücksicht auf die Wahrheit zu überzeugen, was eine Abgrenzung des Lügners – dem es sehr wohl auf die Wahrheit ankommt, zumal er sie gezielt zu verbergen sucht – vom ‚Bullshitter’ ermögliche (Frankfurt 2005, S. 61). Dass das Phänomen der Fake News in enger Verbindung zum Frankfurt’schen ‚Bullshitting‘ steht, ist evident. Insbesondere mit Blick auf die normative Ethik und die politische Theorie kann aber kritisch gefragt werden, wie scharf und sinnvoll die Linie tatsächlich ist, die den ‚Bullshitter’ vom Lügner bzw. vom bewussten Entsteller und Verfälscher der Wahrheit trennt. Werden beispielsweise Nachrichten frei erfunden, die von kriminellen Akten berichten, die Ausländer verübt haben sollen, können sich die Produzenten der entsprechenden Fake News nicht dadurch verteidigen, dass die Information im Prinzip ja wahr sein könnte. Sie können nicht geltend machen, sie seien der Wahrheit gegenüber lediglich indifferent gewesen (‚Bullshitting’), hätten aber nicht bewusst gelogen. Selbst wenn es zutrifft, dass frei erfundene Informationen prinzipiell wahr sein können, so ist dies mit an Sicherheit grenzender Wahrscheinlichkeit nicht der Fall, was den Fake-News-Produzenten auch bewusst ist. Verfügen sie aber über dieses Bewusstsein, wissen sie um die (höchstwahrscheinliche) Falschheit der Informationen, die sie als wahr präsentieren, sodass durchaus eine Lüge vorliegt. Für die Zwecke der normativen Ethik und der politischen Theorie – insbesondere auch für die Frage, wann massenkommunizierte Information aus liberal-demokratischer Sicht problematisch ist – scheint in der Tat die folgende Unterscheidung zentral: falsch versus bewusst gefälscht. Hielte man die Verbreitung bloß falscher Information für problematisch, sähe man sich sofort dem Einwand ausgesetzt, dass in der liberalen Demokratie kein Konsens darüber besteht noch bestehen sollte, was wahr und was falsch ist. Selbst wenn man einen hypothetischen Konsens, der aus einer idealen Diskurssituation letztlich hervorgehen könnte (Habermas 1981, 1992), als regulative Idee anerkennt, so

244

A. Mannino

ist der Dissens für die faktische Deliberation und den liberalen Charakter einer Demokratie dennoch höchst bedeutsam (Nida-Rümelin 2006). Wer ernsthaft und wahrhaftig eine Meinung äußert, die andere für falsch halten, macht von seinem Recht auf freie Meinungsäußerung Gebrauch und leistet (zumindest der Intention nach) einen Beitrag zur kollektiven Deliberation. Entsprechend definierte Fake News – falsche Information bzw. von anderen für falsch gehaltene Information – an sich für politisch problematisch zu erklären und womöglich sanktionieren zu wollen, wäre in liberal-demokratischer (wie auch in deliberativ-demokratischer) Perspektive ein argumentativ aussichtsloses Unterfangen. Ob dies für die andere der genannten Fake-News-Definitionen ebenfalls gilt – bewusst gefälschte Information –, soll im Folgenden untersucht werden.1 Dazu ist es erforderlich, zunächst die Kommunikationsethik der liberalen Demokratie zu erörtern und die kommunikationsökonomischen Herausforderungen zu skizzieren, mit denen sie sich besonders im digitalen Raum konfrontiert sieht.

3 Zur Kommunikationsethik der liberalen Demokratie im digitalen Raum Liberale Demokratien zeichnen sich durch einen normativen Fokus auf das Individuum und seine Autonomie aus. Sie schützen ein individuelles Prärogativ vor Tyrannei sowie vor wohlwollend-paternalistischen Kollektivismen, die gewillt sein könnten, Personen unbeschränkt zu aggregieren und die kleinere Zahl der größeren oder einem abstrakter definierten Kollektiv zu opfern. Vor diesem Hintergrund erstaunt es nicht, dass die rechtfertigenden Grundlagen der liberalen Demokratie meist eine im weitesten Sinne kontraktualistische Form annehmen. So verlangen sie beispielsweise eine Erwägung dessen, wozu jede ‚separate

1Eine

aktuell prominent vertretene Fake-News-Definition verbindet die beiden Elemente der Falschheit und der bewussten Fälschung bzw. der Unaufrichtigkeit seitens des Sprechers (Jaster und Lanius 2019a, b). Entsprechend wäre nicht von ‚Fake News‘ die Rede, wenn bewusst gefälschte Informationen entgegen der Intention des Fälschers zufällig der Wahrheit entsprächen. Andere Autoren haben sechs verschiedene Definitionen bestimmt, denen der Gebrauch des Ausdrucks ‚Fake News‘ aktuell folgt (Tandoc et al. 2018). Die terminologische Frage, wie genau der Ausdruck ‚Fake News‘ verwendet wird, ist substanziell – etwa für die Zwecke der normativen Ethik und der politischen Theorie – jedoch irrelevant. Ich konzentriere mich im vorliegenden Artikel auf den Aspekt der bewussten Fälschung und Täuschung bzw. der Manipulation, weil dieser in liberal-demokratischer Perspektive von besonderer Relevanz ist.

Demokratie und digitale Kommunikationsökonomie …

245

Person‘ unter normativ adäquaten, Unparteilichkeit garantierenden Bedingungen zustimmen würde (Rawls 1971); was in einer idealen, herrschaftsfreien und kooperativen Diskurssituation für jede Person zustimmungs- und also konsensfähig wäre (Habermas 1981, 1992); was keine Person vernünftigerweise zurückweisen könnte (Scanlon 1998); oder wie faire Kooperationsbedingungen unter Personen geartet wären, die sich gegenseitig als Freie und Gleiche achten (NidaRümelin 1999). Fake News – so die These, die im Folgenden ausgearbeitet und plausibilisiert werden soll – unterminieren die diskursive Kooperation. Die stabile Umsetzung fairer, allgemein zustimmungsfähiger Kooperationsbedingungen liegt im langfristigen Interesse eines jeden Einzelnen. Allerdings sind Einzelpersonen oder auch Gruppen der (gruppen)egoistischen Versuchung ausgesetzt, die sozialvertraglichen Kooperationsbedingungen zu verletzen und sich als Trittbrettfahrer zu betätigen. Dies führt zu weitreichenden Problemen kollektiven Handelns, insbesondere zum sogenannten Gefangenendilemma (Prisoner’s Dilemma), das sich als sogenannte Tragik der Allmende manifestieren kann, wenn viele Akteure aufeinander treffen (Tragedy of the Commons, vgl. Olson 1965 und Ostrom 1990).2 Die Handlungssituation eines Gefangenendilemmas besteht spieltheoretisch darin, dass sich zwei Akteure ‚kooperativ‘ oder ‚unkooperativ’ verhalten können, wobei die unkooperative Option für jeden Akteur individuell vorteilhaft ist, wie auch immer sich der jeweils andere verhält. Zugleich gilt aber, dass beide Akteure individuell schlechter abschneiden, wenn sich beide – entsprechend ihrem Anreiz – unkooperativ verhalten, als wenn sie beide die kooperative Option gewählt hätten. Die Tragik der Allmende ergibt sich bei analoger Anreizstruktur, wenn nicht nur zwei, sondern beliebig viele Akteure beteiligt sind: Ob sich die anderen kooperativ oder unkooperativ verhalten, es ist für jeden Akteur individuell vorteilhaft, sich unkooperativ zu verhalten. Zeigen sich aber alle oder hinreichend viele unkooperativ,

2Die

Bezeichnung des Gefangenendilemmas geht zurück auf ein illustratives Beispiel, das in den 1950er-Jahren von der RAND Corporation in die spieltheoretische Debatte eingebracht wurde: Zwei Ganoven A und B befinden sich in Untersuchungshaft und werden getrennt verhört. Sagt A gegen B aus und schweigt B, kommt A frei und B erhält die maximale Haftstrafe; sagt B gegen A aus und schweigt A, kommt B frei und A erhält die maximale Haftstrafe; sagen beide gegeneinander aus, erhalten beide eine mittlere Haftstrafe; schweigen beide, erhalten beide eine kurze Haftstrafe. Eine klare Einsicht in dieses Kooperationsdilemma findet sich erstmals in Hobbes’ Leviathan (1998 [1651]). Für die Tragik der Allmende wurde illustrativ die mittelalterliche Allmende herangezogen, auf der die Bauern ihr Vieh weiden ließen – mit dem steten Anreiz, sie egoistisch zu übernutzen.

246

A. Mannino

ist das Ergebnis für jeden Akteur schlechter, als wenn alle die kooperative Option gewählt hätten. Fake-News-Dynamiken können nun als Instanziierung einer Tragik der Allmende betrachtet werden. Es liegt zunächst im Interesse jedes Einzelnen und jeder politischen Gruppe, die kommunikationsethische Norm der Aufrichtigkeit bzw. Wahrhaftigkeit zu verletzen und die eigenen Ziele mittels nützlicher Wahrheitsverzerrungen und Diskursmanipulation zu befördern. Von dieser Strategie versuchen insbesondere populistische Bewegungen zu profitieren, aber durchaus auch Mainstream-Medien, in denen sich nicht selten die politischen Einstellungen und Interessen gesellschaftlicher Eliten spiegeln (vgl. etwa Di Tella 2017). Sobald hinreichend viele politische Akteure die faire Kooperation in puncto Wahrhaftigkeit brechen, drohen der politische Diskursraum und womöglich die Gesellschaft insgesamt das zu verlieren, was man als ‚Vertrauensallmende‘ bezeichnen kann. Dieser Verlust schadet letztlich jedem einzelnen politischen Akteur, zumal ohne Vertrauensbasis keinerlei verständigungsorientierter Diskurs mehr stattfinden kann und einzig der diskursive Manipulationskrieg bleibt – ein Negativsummenspiel. Der diskursive Kooperationsbruch, wie er sich im Phänomen der Fake News manifestiert, verstößt gegen kommunikationsethische Normen, die für die liberale Demokratie höchst bedeutsam sind. Die Perspektiven der liberalen und der deliberativen Demokratietheorie divergieren in diesem Punkt nicht, zumal die Befolgung diskursiver Kooperationsnormen für die kollektive Deliberation essentiell ist. Habermas hat in diesem Zusammenhang die Unterscheidung zwischen ‚strategischer‘ und ‚verständigungsorientierter‘ Kommunikation geprägt (Habermas 1983, S. 141 ff. und 1981, passim): Wer strategisch kommuniziert, nimmt das Gegenüber als autonome, freie und gleiche Person nicht ernst, sondern versucht es so zu manipulieren, dass es zum bloßen Instrument der eigenen Agenda wird.3 Nida-Rümelin hat diesen Sachverhalt spieltheoretisch analysiert (Nida-Rümelin 2009, Kap. 6/7) und die Strukturanalogie zum Gefangenendilemma aufgezeigt: Wenn hinreichend viele AkteurInnen

3Der

hier unterstellte Begriff der ‚strategischen‘ Kommunikation entstammt der philosophischen Debatte – namentlich dem Werk Habermas’ – und bezieht sich auf Sprechakte, die manipulativen Charakter haben, also bewusst fälschen und täuschen. Demgegenüber hat der sozial- und politikwissenschaftlich gebräuchliche Begriff einen viel breiteren Anwendungsbereich (vgl. Oswald und Johann 2018; Oswald 2019). In diesem breiteren Sinn kann man selbstredend in vielen Formen strategisch kommunizieren, ohne zu fälschen und zu täuschen.

Demokratie und digitale Kommunikationsökonomie …

247

verständigungsorientiert kommunizieren, sich also kooperativ verhalten, kann es einzelnen AkteurInnen gelingen, als egoistisch-strategische TrittbrettfahrerInnen das Vertrauen auszunutzen, das andere ihnen entgegenbringen. Unabhängig davon, wie sich alle anderen AkteurInnen verhalten, ist es für jede(n) zunächst vorteilhaft, sich als TrittbrettfahrerIn zu betätigen: Verhalten sich die anderen fair, gewinnt man als TrittbrettfahrerIn; verhalten sie sich unfair, d. h. betätigen sie sich als TrittbrettfahrerIn, gewinnt man als TrittbrettfahrerIn auch. Werden nun aber alle oder hinreichend viele zu TrittbrettfahrerInnen, fällt ihnen ihre egoistische Kommunikationsstrategie auf die eigenen Füße – das Vertrauen erodiert nach und nach, wahrheitsorientierte Kommunikation wird unmöglich. Das aber kann nicht das Ziel der politischen AkteurInnen sein, die sich massenkommunikativ als ‚VertrauenstrittbrettfahrerInnen‘ betätigen, indem sie ‚Fake News‘ verbreiten und das Vertrauen ausbeuten, das ihnen die NewsRezipientInnen zunächst entgegenbringen. Jedes halbwegs geregelte gesellschaftliche Zusammenleben setzt – permanent – das Gelingen wahrheitsorientierter Kommunikation voraus.4 Man kann an dieser Stelle zu bedenken geben, dass die gesellschaftliche Vertrauensallmende – und mit ihr die demokratischen Institutionen – ein erhebliches Maß an Ausbeutung tolerieren: Selbst wenn viele AkteurInnen die Wahrheit in ihrer Massenkommunikation bewusst zu verzerren beginnen, so bricht das Vertrauen in zentrale Institutionen demokratischer Gesellschaften nicht zwingend ein. Aus risikoethischen Gründen sollten wir es aber unterlassen, hier mit dem Feuer zu spielen (vgl. Nida-Rümelin et al. 2012): Wir wissen zum aktuellen Zeitpunkt nicht, wie sich demokratische Gesellschaften entwickeln, sobald digitale Kommunikationstechnologien Fake-News-Dynamiken lostreten, die etwa populistische Bewegungen gegen eine ‚Lügenpresse‘ aufbringen. Die empirischen Daten dazu erzeugen demokratische Gesellschaften gerade erst – in einigen Jahren und Jahrzehnten werden wir im Rückblick mehr wissen. Selbst wenn man es für höchst unwahrscheinlich hält, dass Fake-News-Dynamiken die Demokratie wesentlich beschädigen werden, so empfiehlt angesichts der Restunsicherheit und der hohen Stakes jede vernünftige Risikoethik, Vorsicht walten zu lassen und nach – liberal-demokratisch legitimen – Wegen zu suchen, Fake-NewsAuswüchse einzudämmen.

4Selbst Akteure,

die einen (Bürger-)Krieg planen, haben kein Interesse am Zusammenbruch jeder wahrheitsorientierten Kommunikation mit ihrem Feind. Die wechselseitig vorteilhafte Begrenzung von Kollateralschäden etwa setzt kommunikative Akte voraus, denen die Parteien vertrauen können.

248

A. Mannino

Das kommunikative Gefangenendilemma kann prinzipiell dadurch gelöst bzw. vermieden werden, dass die involvierten AkteurInnen kommunikationsethische Normen befolgen – insbesondere jene der Aufrichtigkeit bzw. der Wahrhaftigkeit – und sich gegenseitig als Personen achten, die nicht instrumentalisiert werden dürfen (Nida-Rümelin 2006).5 Immanuel Kant figuriert als Ahnherr dieser Argumentation, obwohl er die spieltheoretischen Aspekte seiner Erwägungen zum Wahrhaftigkeitsgebot noch nicht explizit machen konnte (Kant 1913 [1797]). Er hat aber qualitativ richtig gesehen, dass die gesellschaftliche Vertrauensallmende durch unwahrhaftige Kommunikation untergraben, übernutzt und schließlich zerstört wird. Richten sich die AkteurInnen nach den Testfragen der verschiedenen Varianten des kategorischen Imperativs, lässt sich dies vermeiden: Was, wenn alle AkteurInnen so handeln würden bzw. dürfen? Wird durch die Handlung eine Person instrumentalisiert, d. h. als bloßes Mittel zum (eigenen) Zweck behandelt? Strategisch-manipulative Kommunikation besteht diese kantischen Testfragen nicht. Ebenso wenig besteht sie natürlich die oben zitierten kontraktualistischen Testfragen, die der liberalen Demokratie nicht selten die rechtfertigende Grundlage liefern: Instrumentalisierung durch strategischmanipulative Kommunikation ist nicht allseits zustimmungsfähig, was die Verwandtschaft kantischer mit kontraktualistischen Argumentationen illustriert. Diskursives Vertrauen bildet demnach die Grundlage für diskursive Kooperation, d.  h. für eine erfolgreiche öffentliche Kommunikation und Deliberation. Letztere wiederum steht im Zentrum der makrogesellschaftlichen Kooperationsformen, welche die liberale Demokratie selbst konstituieren (NidaRümelin 1999). Wenn wir nicht mehr darauf vertrauen können, dass politische AkteurInnen die Wahrheit grundsätzlich so darstellen, wie sie sie tatsächlich sehen, und wenn wir stattdessen permanent befürchten müssen, dass gefälscht und getäuscht wird, dann läuft eine Grundlage der liberalen Demokratie und

5VertreterInnen

der sogenannten Ordnungsethik würden den moralischen “Überschuss” monieren, der hier vorausgesetzt wird (vgl. Lütge 2015): Die deontologisch-altruistische Achtung anderer ist eine moralische Einstellung, die dem homo oeconomicus nicht allgemein zugeschrieben werden dürfe. Auch die Ordnungsethik befürwortet aber die Etablierung rechtlicher Normen zur wechselseitig vorteilhaften Auflösung von Gefangenendilemmata, etwa die Sanktionierung von TrittbrettfahrerInnen im Sinne eines negativen Anreizes, der die Lukrativität des Trittbrettfahrens reduziert. Das könnte – mit Blick auf Fake-News-Negativsummenspiele – auch für die VertreterInnen agonistischer Demokratietheorien zustimmungsfähig sein. Mehr als ihnen aufgrund ihrer Provenienz lieb ist begreifen sie politische AkteurInnen als homines oeconomici, die ihren politischen Eigennutzen maximieren.

Demokratie und digitale Kommunikationsökonomie …

249

ihrer kooperativen Institutionen – die Vertrauensallmende – Gefahr, zerstört zu werden. Angesichts der hohen politischen Stakes lohnt es sich, diese Gefahr auch dann ernst zu nehmen, wenn man ihren tatsächlichen Eintritt für höchst unwahrscheinlich hält. Es besteht demnach eine enge Verbindung zwischen der liberal-demokratischen Ordnung, der kommunikationsethischen Norm der Wahrhaftigkeit und der gesellschaftlichen Vertrauensallmende, die sich der Wahrhaftigkeitsnorm verdankt. In der digitalen Kommunikationsökonomie nun ist diese Allmende besonders gefährdet: Weil politisch lukrative Formen der Massenkommunikation zugänglicher geworden sind, sehen sich die AkteurInnen bedeutend stärkeren (gruppen)egoistischen Anreizen ausgesetzt, die Norm der aufrichtigen bzw. wahrhaftigen Kommunikation zu ihrem eigenen Vorteil zu verletzen. Wenn Massenkommunikation aufwendig, teuer und schwer aufzusetzen ist – wie dies in nicht-digitalen Kontexten regelmäßig der Fall ist –, können sich weniger AkteurInnen massenkommunikativ betätigen, was allein statistisch die Wahrscheinlichkeit reduziert, dass systematische Normbrüche erfolgen.6 Die geringere Anzahl massenkommunikativer AkteurInnen in nicht-digitalen Kontexten erleichtert außerdem ihre wechselseitige und öffentliche Kontrolle, wohingegen digitale Diskursräume oft von Anonymität geprägt sind. Dies erschwert die soziale Sanktionierung von Normbrüchen erheblich und verschiebt die kommunikationsökonomischen Anreizstrukturen ebenfalls so, dass strategischmanipulative Sprechakte für den individuellen Akteur netto lohnender werden und in der kollektiven Summe viel öfter vorkommen. Nicht zuletzt wird die Produktion von Fake News in der digitalen Kommunikationsökonomie auch deshalb immer lukrativer, weil die technischen Fälschungs- und Täuschungsmöglichkeiten immer raffinierter und breiter verfügbar werden. Besonders erwähnenswert sind in diesem Zusammenhang die sogenannten Deepfakes, d. h. hochgradig realistisch wirkende Medieninhalte (Video oder Audio), die durch KI-Verfahren verfälscht worden sind. Die technischen Möglichkeiten sind vielfältig und entwickeln sich rasant: Mittels

6Wie

erwähnt ist die digitale Transformation der Kommunikationsökonomie für die liberale Demokratie sowohl Chance als auch Risiko. Mit der Tatsache, dass im digitalen Raum mehr AkteurInnen ihr Recht auf freie Meinungsäußerung mit massenkommunikativer Wirkung wahrnehmen können, sind Vorteile und Nachteile verbunden. Was letztlich überwiegt, wird erst retrospektiv verlässlich zu bestimmen sein und ist für unser gegenwärtiges Handeln weniger relevant als die Frage, wie die nachteiligen Effekte eingedämmt und die Vorteile ausgeschöpft werden können.

250

A. Mannino

‚voice-swapping‘, ‚face-swapping‘ und ‚body-puppetry‘ lassen sich reale Personen bereits sehr lebensecht imitieren. Es ist eine Frage der – vermutlich kurzen – Zeit, bis Deepfakes perfekte audiovisuelle Imitationen liefern werden, die nur im Rahmen einer technischen Analyse als Fälschungen identifizierbar sind. Dass die audiovisuelle Imitation realer Personen im pornografischen Bereich ihr Unwesen treibt, erstaunt nicht. Auch politisch und rechtlich sind Deepfakes hochbrisant. Wenn PolitikerInnen beliebige Aussagen lebensecht in den Mund gelegt und wenn audiovisuelles Beweismaterial beliebig gefälscht werden kann, droht der Politik und der Gerichtspraxis ein Hochrisikoszenario. Dennoch bestehen auch hier nicht nur Risiken, sondern auch Chancen: Sollten Deepfakes zu grassieren beginnen, müssten die DiskursteilnehmerInnen audiovisuell unterstützten Newsmeldungen oft misstrauisch begegnen. Kommunikationsökonomisch hätte diese Verknappung verlässlicher Newsinformation eine Aufwertung derselben zur Folge. Der Wert vertrauenswürdiger Kommunikation träte deutlicher als zuvor zutage, die Nachfrage nach ihr stiege an.7

4 Ist ein Fake-News-Verbot liberal-demokratisch begründbar? Politisch relevant sind insbesondere die Produktion und die massenkommunikative Verbreitung von Fake News im Sinne bewusst gefälschter Informationen in Nachrichtenform. Aufgrund ihrer Zunahme in digitalen Diskursräumen liegt die Frage nahe, wie dem Phänomen legitim begegnet werden kann. Im Folgenden wird lediglich die Legitimität rechtlicher Verbote erörtert, zumal weichere und daher weniger problematische Maßnahmen – etwa die Setzung von Anreizen und Nudges – a fortiori legitim sind, falls sich Verbotsforderungen legitimieren lassen (vgl. Mukerji und Mannino 2020). Wie eingangs dargestellt sind unterschiedliche Definitionen von Fake News möglich und im Umlauf, sodass nicht von dem einen Fake-News-Verbot die Rede sein kann, sondern je nach Fake-News-Definition ein anderes Verbot zu erörtern ist. Bereits für aussichtslos erklärt wurde ein Verbot von Fake News im Sinne 7Ein

ähnlicher Effekt könnte von der gegenwärtigen Covid-19-Pandemie ausgehen. Die entsprechenden empirischen Daten sind noch nicht belastbar, doch es mehren sich die Anzeichen, dass die Nachfrage nach Fake-News-affinen Medien sinkt. In der Katastrophenlage tritt der Wert verlässlicher Information bzw. vertrauenswürdiger Kommunikation deutlicher zutage und steigt am Markt.

Demokratie und digitale Kommunikationsökonomie …

251

bloß falscher bzw. von anderen für falsch gehaltener Informationen. Im Lichte des oben Gesagten aussichtsreicher könnte eine Verbotsforderung für bewusst gefälschte Nachrichteninformationen sein, die massenkommunikativ verbreitet werden. Gerade in liberal-demokratischer Perspektive gilt jedoch auch für aussichtsreichere Verbotsforderungen, dass die Beweislast – es ist stets eine schwere – aufseiten der Verbotsforderung liegt. Jeder staatliche Eingriff in individuelle Freiheitsspielräume ist ein Pro-tanto-Übel und prima facie zu unterlassen. Es müssen gewichtige Gründe vorliegen müssen, den Eingriff als geringeres Übel zu rechtfertigen. Dass ein Verbot der Verbreitung bewusst gefälschter Nachrichteninformationen die Redefreiheit einschränken würde, ist offensichtlich. Fraglich ist jedoch, wie schwer dies wiegt, zumal das – grundlegendere – Recht auf freie Meinungsäußerung nicht eingeschränkt würde: Wer Informationen bewusst fälscht, glaubt per definitionem nicht an sie und äußert daher, indem er sie als wahr darstellt, keine Meinung, die er tatsächlich hat. Er verfolgt nicht die Absicht, eine eigene Meinung kundzutun und einen Beitrag zur demokratischen Deliberation zu leisten, sondern ist bestrebt, andere zu manipulieren und im Sinne der eigenen politischen Agenda zu instrumentalisieren. Die Redefreiheit unterliegt bereits diversen unstrittigen Einschränkungen. Beispielsweise existieren Verbote der üblen Nachrede und der Verleumdung – etwa nach §186 und §187 des deutschen Strafgesetzbuches –, die unter anderem auch auf den Sachverhalt bewusster Falschbehauptung rekurrieren. Das plausible, liberale Begründungsmotiv hinter derartigen Einschränkungen der Redefreiheit besteht darin, dass andere Individuen ohne zureichenden Grund geschädigt werden. Dasselbe Begründungsmotiv legt nun aber nahe, dass ein Verbot der Verbreitung bewusst gefälschter Nachrichteninformationen ebenfalls legitim sein kann. Sind die Informationen etwa politisch hochrelevant, haben die RezipientInnen ein großes Interesse daran, erstens die Wahrheit zu erfahren und zweitens politisch richtig zu handeln, was durch gefälschte Informationen sabotiert wird. Wer News-RezipientInnen bewusst täuscht, schädigt sie insofern sowohl epistemisch als auch praktisch. Die Erfindung von Nachrichteninformation über ‚Ausländerkriminalität’ beispielsweise kann die RezipientInnen veranlassen, Unwahres über Menschen mit Migrationshintergrund zu glauben und in Immigrationsfragen politisch anders zu handeln (etwa: anders zu wählen), als sie es eigentlich für richtig hielten; die Erfindung von Information über den Inhalt von Trump-Reden kann uns veranlassen, ein (noch) schlechteres Bild des U.S.-Präsidenten zu entwickeln, als die Realität es zuließe, und übermäßig alarmistisch zu handeln, was unsere Alarmbereitschaft im Falle eines politischen

252

A. Mannino

GAU-Szenarios reduziert; manipulierte Videos, die PolitikerInnen ‚betrunken‘ zeigen (via eine auf 75 % reduzierte Video- bzw. Redegeschwindigkeit, keineswegs als Deepfake), können unsere Meinungen über die entsprechenden Personen verfälschen; und auch virale Fotos, die von Klimademonstrationen hinterlassene Abfallberge zeigen, in Wahrheit aber von Rave-Partys stammen, beeinflussen die politischen Einstellungen der RezipientInnen. Im Gegensatz zur üblen Nachrede sind die RezipientInnen als Geschädigte zwar nicht zwingend Gegenstand der Informationen, doch geschädigt werden sie allemal. Ein zureichender Grund, diese Schädigung zu rechtfertigen, liegt nicht vor. Wer entsprechende Fake News produziert, nimmt für sich unilateral in Anspruch, auf dem Vertrauensvorschuss Trittbrett zu fahren, den ihm andere entgegenbringen, und diese für die eigenen politischen Zwecke zu instrumentalisieren. Derartige Handlungen sind sozialvertraglich nicht zustimmungsfähig und gefährden die Möglichkeit, demokratisch-kooperativ zu deliberieren und wohlinformierte Entscheidungen zu treffen. Die Verbotsforderung rekurriert hier nicht etwa auf die bloße Tatsache, dass die verbreiteten Informationen nicht gefallen oder für falsch gehalten werden. Denn wenn AkteurInnen die von ihnen verbreitete Information wirklich glauben, dann stellt ihr Sprechakt eine genuine Meinungsäußerung dar, ist insofern Ausdruck ihrer Autonomie und ein Beitrag zur kollektiven Deliberation. Solche Sprechakte lassen sich selbstredend nicht unter Einhaltung der fairen Kooperation verbieten, die liberal-demokratisch geboten ist: Niemand könnte rationaliter ein Verbot akzeptieren, genuine eigene Meinungen zu äußern. Im Gegensatz dazu ist es höchst vernünftig, auch für die eigene Person ein Verbot zu akzeptieren, andere Personen kommunikationsstrategisch zu manipulieren, und von ihnen zu erwarten, dass sie sich reziprok auch an das Verbot halten. Denn wer manipulativ in den politischen Diskurs eingreift, verursacht negative Externalitäten für all jene, die sich auf die Vertrauensallmende verlassen, um wahre Informationen auszutauschen; er profitiert von der Wahrhaftigkeit der anderen, ohne sie zu erwidern. Damit haben diese allen Grund, ihn bzw. seine manipulativen Sprechakte von der kooperativen, liberaldemokratischen Kommunikationsgemeinschaft auszuschließen. Ein Problem aber drängt sich auf: Ist es Fake-News-ManipulatorInnen nicht immer möglich, die Manipulation zu bestreiten und schlicht zu behaupten, sie glaubten wirklich an die Wahrheit der verbreiteten Information? Und müsste im liberal-demokratischen Rechtsstaat nicht gelten: in dubio pro reo und in dubio pro libertate, auch wenn damit viele Akte der strategischen Diskursmanipulation frei möglich und ungeahndet bleiben müssen? In der Tat ist eine ‚Unbestreitbarkeitsbedingung‘ erforderlich, damit die Argumentation für ein Fake-News-Verbot liberal-demokratisch durchgehalten

Demokratie und digitale Kommunikationsökonomie …

253

werden kann. Diese Bedingung ist dann erfüllt, wenn nicht vernünftig bestritten werden kann, dass Newsinformationen auf eine bewusste Fälschung zurückgehen. Analoge Bedingungen sind im Kontext der üblen Nachrede etabliert und scheinen auch angewandt auf Fake News nicht sonderlich problematisch (ob im digitalen Raum oder außerhalb): Wenn die Geschwindigkeit eines Videos manipuliert oder gar ein Deepfake erstellt wurde, um die gezeigten PolitikerInnen in schlechtem Licht erscheinen zu lassen, oder wenn DemonstrantInnen mit Rave-Party-Bildern unterstellt wird, sie hätten riesige Abfallberge hinterlassen, dann ist die bewusste Fälschung offensichtlich und unbestreitbar. Auch vor Gericht müsste zur legitimen Durchsetzung eines Verbots selbstredend gelten, dass die bewusste Fälschung bzw. Täuschung hinreichend unbestreitbar bzw. zweifelsfrei nachgewiesen werden kann – in dubio pro reo. Betreibt jemand beispielsweise eine Fake-News-Farm, die dingfest gemacht werden kann, wird an der manipulativen Absicht kein vernünftiger Zweifel bestehen. Es stellt sich freilich die gängige rechtsphilosophische Frage, wie viel Restzweifel bei Verurteilungen rechtsstaatlich akzeptabel ist. Diese Frage betrifft das vorgeschlagene Fake-News-Verbot aber nicht spezifisch, sondern rechtliche Verbote insgesamt, und mahnt insofern ‚lediglich‘ zur Vorsicht bei der Anwendung des In-dubioPrinzips. Ebenso wären bei der konkreten Ausarbeitung eines Fake-News-Gesetzes und vor Gericht die üblichen Proportionalitätsprinzipien zu wahren: Wenn bewusst gefälschte Informationen gesellschaftlich-politisch kaum relevant sind oder nur wenige Personen erreichen, können sie die liberal-demokratisch essentielle Vertrauensallmende nur unerheblich beschädigen; Sanktionen wären in diesem Fall unverhältnismäßig. Dasselbe gälte für die Sanktionierung von AkteurInnen, die Fake News in mehr oder weniger gutem Glauben weiterverbreiten, ohne selbst am Ursprung der Fälschung zu stehen. Auch das In-dubio-Prinzip ist für sie – hinsichtlich ihrer Täuschungsabsicht – besonders einschlägig. Ein außerordentlich hohes Schadenspotenzial birgt die Produktion der erwähnten Deepfakes. Vor diesem Hintergrund haben erste amerikanische Bundesstaaten Ende 2019 qualifizierte Deepfake-Verbote erlassen. In Kalifornien beispielsweise ist die Publikation politisch relevanter Deepfakes während 60 Tagen vor einer Wahl untersagt (California State Assembly Bill No. 730, 2019). Ausgenommen sind insbesondere satirische Beiträge und Sekundärberichterstattungen durch Medien. Wer Opfer einer Deepfake-Darstellung wird, kann Schadenersatzforderungen geltend machen. In Texas droht den Tätern sogar ein Jahr Gefängnis (Texas State Senate Bill No. 751, 2019). Zur 60-Tage-Regelung ist erstens kritisch zu fragen, warum am 61. Tag vor der Wahl ein Freiheitsrecht bestehen sollte, zahllose MitbürgerInnen über gesellschaftlich-politisch

254

A. Mannino

wichtige Sachverhalte zu täuschen. Ist die obige Argumentation stichhaltig, gibt es ein solches Freiheitsrecht nicht. Zur Beschränkung des Verbots auf Deepfakes ist zweitens zu fragen, warum die Täuschung per se legitim sein sollte, wenn sie sich keiner KI-Techniken bedient. Es ist durchaus möglich, dass nur leicht manipulierte oder zweckentfremdete Videos und Fotos – oder auch Texte – ebenso schädliche Auswirkungen haben wie Deepfakes. Dieser Schweregrad sollte ausschlaggebend sein, nicht die oberflächliche Frage, welches Medium und welche Techniken verwendet wurden. Schließlich ist drittens zu fragen, warum nur Schadenersatzforderungen stellen kann, wer direkt Opfer einer DeepfakeDarstellung wird. Wer getäuscht wird, trägt auch einen Schaden davon – einen epistemischen gewiss, und wenn er in der Folge etwa falsch wählt, auch einen praktischen.

5 Schluss Die massenmediale Kommunikation von Fake News tangiert einen Grundpfeiler der liberalen Demokratie, nämlich die kooperative Bewahrung der Vertrauensallmende. Die in der digitalen Kommunikationsökonomie vorherrschenden Anreizstrukturen könnten – wenn keine Gegenmaßnahmen ergriffen werden – der Vertrauensallmende stark zusetzen. Wir wissen dies zum gegenwärtigen Zeitpunkt nicht sicher, sollten gerade deshalb aber keine unnötigen Risiken eingehen. Insbesondere von Deepfakes geht ein erhebliches Schadenspotenzial aus. Die Urheber von Fake News mögen sich der Tragweite ihres Handelns nicht immer bewusst sein, was ihre Schuld im Einzelfall mindert, die politischen Stakes jedoch unberührt lässt. Um die BürgerInnen vor ungerechtfertigten epistemischen und praktischen Schädigungen zu schützen, sollten liberale Demokratien ihre Gerichte mit den Rechtsgrundlagen ausstatten, AkteurInnen zu sanktionieren, die unbestreitbar bewusst gefälschte Informationen massenkommunikativ verbreiten.

Literatur- und Quellenverzeichnis California State Assembly Bill No. 730. 2019. Elections: Deceptive Audio or Visual Media. California State Legislature. Cohen, J. 1989. Deliberation and democratic legitimacy. In Contemporary political philosophy: An anthology, Hrsg. Robert E. Goodin und Philip Pettit, 159–170. New York: Wiley-Blackwell (Erstveröffentlichung 1989).

Demokratie und digitale Kommunikationsökonomie …

255

Di Tella, R., und S. McAra. 2017. Populism in America: Fake News, Alternative Facts and Elite Betrayal in the Trump Era. Harvard Business School Case 718–005. Fishkin, J. 2009. When the people speak: Deliberative democracy and public consultation. New York: Oxford University Press. Frankfurt, H.G. 1986. On bullshit. Raritan Quarterly Review 6 (2): 81–100. Frankfurt, H.G. 2005. On bullshit. Princeton: Princeton University Press. Habermas, J. 1981. Theorie des kommunikativen Handelns (Bd. 1 und 2). Frankfurt a. M.: Suhrkamp. Habermas, J. 1983. Moralbewusstsein und kommunikatives Handeln. Frankfurt a. M.: Suhrkamp. Habermas, J. 1992. Faktizität und Geltung: Beiträge zur Diskurstheorie des Rechts und des demokratischen Rechtsstaats. Frankfurt a. M.: Suhrkamp. Hobbes, T. 1998. Leviathan (Hrsg. J. C. A. Gaskin). Oxford: Oxford University Press (Erstveröffentlichung 1651). Jaster, R., und D. Lanius. 2019a. What is fake news? Versus 2 (127): 207–227. Jaster, R., und D. Lanius. 2019b. Die Wahrheit schafft sich ab: Wie ,Fake News‘ Politikmachen. Ditzingen: Reclam. Kant, I. 1913. Über ein vermeintes Recht, aus Menschenliebe zu lügen. In Immanuel Kant – Kleinere Schriften zur Geschichtsphilosophie, Ethik und Politik, Hrsg. K. Vorländer. Felix Meiner: Hamburg (Erstveröffentlichung 1797). Laclau, E., und C. Mouffe. 2001. [1985]). Hegemony and socialist strategy: Towards a radical democratic politics, 2. Aufl. London: Verso. Lütge, C. 2015. Order ethics or moral surplus: what holds a society together? London: Rowman & Littlefield. Mouffe, C. 2013. Agonistics: Thinking the world politically. New York: Verso. Mukerji, N. 2018. What is fake news? Ergo: An Open Access Journal of Philosophy 5: 923–946. Mukerji, N., und A. Mannino. 2020. Nudge me if you can – why order ethics should incorporate nudging as a moral technology. Im Erscheinen (Springer). Nida-Rümelin, J. 1999. Demokratie als Kooperation. Frankfurt: Suhrkamp. Nida-Rümelin, J. 2006. Demokratie und Wahrheit. München: Beck. Nida-Rümelin, J. 2009. Philosophie und Lebensform. Frankfurt a. M.: Suhrkamp. Nida-Rümelin, Julian, Johann Schulenburg, und Benjamin Rath. 2012. Risikoethik. Berlin: De Gruyter. Olson, M. 1965. The logic of collective action: Public goods and the theory of groups. Cambridge: Harvard University Press. Ostrom, E. 1990. Governing the commons: The evolution of institutions for collectiv action. Cambridge: Cambridge University Press. Oswald, M., und M. Johann (Hrsg.). 2018. Strategische Politische Kommunikation im Wandel – Interdisziplinäre Perspektiven auf ein dynamisches Forschungsfeld. Wiesbaden: Springer VS. Oswald, M. 2019. Strategisches framing. Eine Einführung. Wiesbaden: Springer VS. Rawls, J. 1971. A theory of justice. Cambridge: Harvard University Press. Scanlon, T.M. 1998. What we owe to each other. Cambridge: Harvard University Press. Shirky, C. 2009. Here comes everybody: the power of organizing without organizations. London: Penguin Books.

256

A. Mannino

Stanoevska, K. (Hrsg.). 2012. The digital economy: Anspruch und Wirklichkeit. Berlin: Springer. Tandoc, E.C., L. Zheng Wei, und R. Ling. 2018. Defining ,fake news‘. Digital Journalism 6 (2): 137–153. Texas State Senate Bill No. 751. 2019. Relating to the creation of a criminal offense for fabricating a deceptive video with intent to influence the outcome of an election. Texas State Legislature.

Die Digitalisierung der Hassrede in den USA – Bedrohung oder Bestandteil der Demokratie? Sebastian Dregger 1 Einleitung Meinungsfreiheit gilt neben der Religionsfreiheit und dem Schutz vor willkürlicher Verhaftung als das klassische Grundrecht westlicher Demokratien. Die freie Meinungsbildung und Meinungsäußerung in Redeakten stellt einerseits eins subjektives Recht des Staatsbürgers gegenüber staatlichen Eingriffen dar (Kingreen und Poscher 2018, S. 179 f.). Andererseits bildet die Meinungsfreiheit die institutionelle Grundlage für die Organisation gesellschaftlicher Debatten zu politischen Streitfragen aller Art, an deren Ende schließlich Mehrheitsentscheidungen stehen, die gesetzlich niedergelegt werden und so alles staatliche Handeln berechtigen und verpflichten. Der Minderheit bleibt die Möglichkeit, in neuen Redebeiträgen weiter für ihre Position zu werben, um auf diese Weise in der Zukunft bei geänderter Mehrheitsmeinung eine Veränderung der Rechtslage herbeizuführen. Angesichts dieser fundamentalen Bedeutung der Meinungsfreiheit für politische Systeme westlicher Demokratien drängt sich die Frage nach der Reichweite des Schutzbereiches der Meinungsfreiheit auf (Kingreen und Poschner 2018, S. 180 f.). Dies gilt insbesondere für Erscheinungsformen der Hassrede, da Akte der Hassrede das Potenzial besitzen, großen Schaden, etwa durch Anstiftung zur Begehung von Straftaten für einzelne Personen und Gruppen, aber auch

S. Dregger (*)  Katholische Universität Eichstätt-Ingolstadt, Berlin, Deutschland © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_13

257

258

S. Dregger

für gesamtgesellschaftliche Debatten zu bewirken.1 Wenn im Folgenden eine Rekonstruktion des Diskurses in den USA erfolgt, so geschieht dies vor allem aus zwei Gründen: 1) Mit der Free-Speech-Klausel des 1. Verfassungszusatzes, die nach dem Wortlaut durch kein Kongressgesetz eingeschränkt werden darf, bildet die Verfassung der USA so etwas wie den Goldstandard des Schutzes der Meinungsfreiheit. Gleichzeitig wird die Reichweite dieser Klausel seit Jahrzehnten durch besonders krasse Beispiele der Hassrede herausgefordert, die aufzeigen, wie kontrovers politische Debatten in den USA nicht zuletzt als Ausdruck der großen Heterogenität der amerikanischen Gesellschaft geführt werden. 2) Die USA sind nichst nur ein Gemeinwesen mit einer besonders starken kulturellen und verfassungsrechtlichen Tradition der Meinungsfreiheit. Das Land ist auch der Erfindungsort und Sitz weltweit führender Onlinedienstleistungsunternehmen wie Google, Facebook und Twitter, die die Bedingungen politisch aufgeladener Kommunikation revolutioniert haben. Es drängt sich also ferner die Frage auf, wie sich die digitale Transformation der politischen Kommunikation durch die genannten Internetkonzerne auf die Reichweite der Meinungsfreiheit auswirkt, da der rechtliche Rahmen hierfür an Präzedenzfällen in der analogen Welt entwickelt wurde. Der folgende Beitrag möchte das wechselvolle Spannungsverhältnis zwischen Meinungsfreiheit, Hassrede und digitaler Transformation in vier Schritten analysieren. Im Zentrum der Untersuchung steht dabei folgende These: Die USA verfolgen eine Doppelstrategie im Umgang mit der digitalisierten Hassrede. Einerseits behalten sie weiterhin ein extrem weites verfassungsrechtliches Verständnis der Meinungsfreiheit bei. Andererseits etablieren sich verstärkt Regulierungsansätze nicht-staatlicher Art-und zwar über satzungsartige Nutzungsbedingungen und Richtlinien der Internetkonzerne – mit denen die Verbreitung der Hassrede im Internet und deren Auswirkungen auf das politische System als Ganzes begrenzt werden sollen. Im ersten Schritt wird aufgezeigt, ob und inwiefern Akte der Hassrede vom grundrechtlichen Schutzbereich der Meinungsfreiheit erfasst werden. Der zweite Schritt beschreibt, wie die digitale Transformation die Hassrede in den USA verändert hat, wobei unter digitaler Transformation die Möglichkeit zu verstehen

1Siehe hierzu die Abwägung zwischen dem sozialen Schaden, den die Hassrede bei innergesellschaftlichen Konflikten anrichtet, und zwischen einem robusten Verständnis der Meinungsfreiheit, das auch beleidigende Redeakte in Form der Hassrede schützt. Dieses Dilemma wurde in den USA bereits 1952 im Fall Beauharnais v. Illinois, 343 U.S. 250 (1952) diskutiert (Garcia et al. 2017, S. 1297–1298).

Die Digitalisierung der Hassrede in den USA – Bedrohung oder ...

259

ist, mittels Internetplattformen wie Facebook, Google oder Twitter mit Hassbotschaften in kürzester Zeit ein Millionenpublikum an Nutzern zu erreichen. Der dritte Schritt untersucht, welche aktuellen regulatorischen Maßnahmen, etwa in Form eigener Richtlinien und Nutzungsbedingungen, die genannten Internetgiganten ergriffen haben, um die digitalisierte Hassrede einzuschränken. Der letzte Schritt greift die Darlegungen aus den ersten drei Teilen auf und skizziert allgemein, wie sich die digital revolutionierte Hassrede als Phänomen vor dem normativen Hintergrund eines weiten amerikanischen Verständnisses von Meinungsfreiheit auf den Zustand der Demokratie in den USA auswirkt, wobei zwei grundlegend verschiedene Interpretationen hinsichtlich dieser Frage vorgestellt werden.

2 Die Reichweite der Meinungsfreiheit angesichts der Hassrede in den USA Wenn man sich mit dem Phänomen der Hassrede beschäftigt, so gibt es drei Betrachtungsweisen auf diesen Gegenstand. Die erste ist ziemlich weit gehalten und entstammt allgemeinen Nachschlagewerken. Demnach wird dann laut Duden eine Rede zur Hassrede, wenn sie ein „starkes Gefühl der Ablehnung, Feindschaft gegenüber einer Person, einer Gruppe oder Einrichtung“ (Duden 2019) ausdrückt. Die Bundeszentrale für politische Bildung identifiziert eine Reihe von Merkmalen der Hassrede, wie etwa das Schüren von Vorurteilen, Verallgemeinerungen und Gleichsetzungen, plakative Bildsprache, Beschimpfungen mit Aufruf zur Gewalt, die Die-Wir-Gegenüberstellung sowie Ironie als getarnte Hassrede (Bundeszentrale für politische Bildung 2017). Neben diesem eher allgemeinen Ansatz hat die amerikanische Rechtslehre eine Reihe von Kriterien der Hassrede entwickelt. So identifiziert Schauer vier Arten der Hassrede: 1) Schimpfwörter und Beleidigungen, 2) Lügen und das Verbreiten von demonstrativ falschen Informationen, 3) Aufruf zur rassistischen und religiösen Intoleranz in Form von Segregation oder Ausbürgerungen; 4) Die Erschaffung einer feindseligen Umgebung am Arbeitsplatz und an Bildungseinrichtungen (Schauer 2005, S. 5). Nach Rosenfeld ist es wichtig, dass neben dem eigentlichen Sprechakt auch dessen Kontext in Form bestimmter W-Fragen (Wer, Was, Wo, Welche Art) berücksichtigt wird, um eine rechtliche Einordnung zu ermöglichen (Rosenfeld 2001, S. 6). So ergibt sich ein Unterschied daraus, ob eine bestimmte Aussage von einem Regierungsvertreter oder von einer Person mit Macht oder von einer völlig unbedeutenden Person getätigt wird. Bei der Was-Dimension gibt es zwei Arten der Hassrede: zum einen die direkte

260

S. Dregger

Beleidigung und zum anderen codierte Botschaften, wo nur mittelbar eine Hassbotschaft kommuniziert wird, etwa in Form der Holocaustleugnung, wobei das Leugnen als Mittel den Zweck verfolgt, Verachtung gegenüber den Opfern und Nachfahren des Holocaust zum Ausdruck zu bringen. Auch der Ort der Äußerung ist bei der Bewertung als Hassrede von Bedeutung. So ist als Folge der Erfahrungen des Dritten Reiches die Zurschaustellung von Nazi-Symbolen ein Straftatbestand in der Bundesrepublik Deutschland und in einer Reihe weiterer europäischer Länder, wohingegen dies etwa in den USA nicht der Fall ist. Auch ist eine Aussage, die lediglich in einer geschlossenen Gruppe über eine andere Gruppe in extrem abwertender Weise erfolgt ist, anders zu bewerten, als wenn dies in unmittelbarer Anwesenheit der beleidigten Gruppe erfolgte. Daneben ist methodisch zu fragen, auf welche Weise eine Bewertung der Hassrede juristisch erfolgt: Dabei kann einerseits ein strikter Entweder-Oder-Ansatz im Rahmen der Meinungsfreiheit Verwendung finden, der danach fragt, ob eine Aussage vom Schutzbereich der Meinungsfreiheit geschützt wird oder nicht. Andererseits ist es auch möglich, eine Abwägung mit anderen Rechtsgütern, etwa mit der Menschenwürde oder mit dem allgemeinen Persönlichkeitsrecht, vorzunehmen, um festzustellen, ob die Hassrede von der Meinungsfreiheit in einem konkreten Fall geschützt wird. Möchte man den amerikanischen Ansatz im Umgang mit der Hassrede verstehen, so genügt es nicht, einige Überlegungen aus der Rechtslehre vorzustellen. Vielmehr bestimmt der US-Supreme Court in seiner Rechtsprechung verbindlich, was als Hassrede zu gelten hat und in welchem Zusammenhang diese zur Meinungsfreiheit steht. Ausgangspunkt für die Rechtsprechung in diesem Bereich ist der 1. Verfassungszusatz der USA, der unter anderem bestimmt, dass kein Kongressgesetz die Meinungsfreiheit einschränken darf. Diese Herangehensweise ist im Unterschied zu einer gesetzgeberischen Betrachtungsweise zu sehen, wie sie für Länder kennzeichnend ist, die nicht dem Common-Law-Rechtskreis angehören (Sedler 2006, S. 380 f.). Gesetzgeber können detailliertere Vorgaben festlegen als dies in allgemein gehaltenen Verfassungsklauseln der Fall ist. Darüber hinaus bedeutet Gesetzgebung immer das Eingehen von Kompromissen im Hinblick auf andere Interessen und Wertvorstellungen, um Mehrheiten zur Verabschiedung zu organisieren. Bei Rechtsstreitigkeiten dominieren in den USA als Folge eines bestimmten Rechtssystems, das als „Adversarial Legalism“2

2Hierunter

versteht Kagan ein Rechtssystem, das – im Unterschied zu administrativbürokratischen und richterdominierten Rechtssystemen – durch unternehmerische und erfinderische Anwälte dominiert wird, die politische Streitfragen aller Art durch konfrontative Rechtsfälle in eine bestimmte Richtung lenken möchten (Kagan 2001, S. 3).

Die Digitalisierung der Hassrede in den USA – Bedrohung oder ...

261

(Kagan 2001, S. 3 f.) beschrieben wird, Extremfälle, die, wenn sie gerichtlich bestätigt werden, die Reichweite der Meinungsfreiheit stark verändern. Betrachtet man die Rechtsprechung zur Meinungsfreiheit des höchsten amerikanischen Gerichts seit dem Ersten Weltkrieg, so lässt sich eine deutliche Veränderung feststellen, die dazu geführt hat, dass heute in den USA verschiedene Formen der Hassrede einen starken rechtlichen Schutz genießen, der weit über dasjenige hinausgeht, was in anderen westlichen Demokratien als von der Meinungsfreiheit geschützt angesehen wird. Um einen genauen Einblick in diese Entwicklung zu ermöglichen, sollen im Folgenden einige wichtige Präzedenzfälle vorgestellt werden, wenngleich sich die Auswahl nur auf einige wesentliche Punkte konzentrieren kann, da die Rechtsdogmatik zur Meinungsfreiheit zu den kompliziertesten Gebieten des US-Verfassungsrechts zählt (siehe für eine detaillierte Darstellung: Garcia et al. 2017, S. 1170, 1174, 1290 ff., 1311 f.). Im Fall Schenck v. United States3 legte der Supreme Court fest, dass die Meinungsfreiheit entgegen des reinen Wortlauts des 1. Verfassungszusatzes eingeschränkt werden kann, wenn eine „klare und präsente Gefahr“ vorliegt. Hintergrund waren 15.000 Flugblätter, die der US-Sozialist Charles Schenck 1917 verteilen ließ, um wehrfähige Männer dazu aufzufordern, die neu eingeführte Wehrpflicht zu verweigern. Der Supreme Court stufte auf der Grundlage des Espionage Act von 1917 die Flugblätter als klare und präsente Gefahr für die Verteidigungsfähigkeit der USA in Kriegszeiten ein und bestätigte die Verurteilung von Schenck. 1969 revidierte das Gericht die „Klare-und-Präsente-Gefahr“-Rechtsprechung im Fall Brandenburg v. Ohio4. Hintergrund des Falles war ein Funktionär des Ku Klux Klan, der ein Fernsehteam 1964 dazu einlud, einen Film über die Organisation zu drehen. In diesem Film wurde ein Umzug des Klans vor laufender Kamera inszeniert. Während des Umzugs werden Afro-Amerikaner und amerikanische Juden beschimpft. Dazu wird deren Umsiedlung nach Afrika und nach Israel gefordert. Hierzu sei auch der Einsatz von Gewalt gerechtfertigt. Das Gericht hielt die Aussagen von der Meinungsfreiheit gedeckt. Zudem beinhalte der Film kein unmittelbares Begehen von Straftaten, was nun als Rechtsdoktrin für die Einschränkung der Redefreiheit etabliert wird („imminent lawless action“).

3Schenck

v. United States, 249 U.S. 47 (1919). v. Ohio, 395 U.S. 444 (1969).

4Brandenburg

262

S. Dregger

Im Fall Chaplinsky v. New Hampshire5 bestätigte der Supreme Court die Verhaftung eines Zeugen Jehovas, der sich an eine Straßenkreuzung stellte, um dort andere Religionen als „Abzocke“ und deren Anhänger als „verfluchte Faschisten“ zu beschimpfen. Das Gericht hielt allgemein fest, dass Schimpfwörter und Redebeiträge von geringem Sozialwert nicht von der Meinungsfreiheit geschützt seien. Obwohl dieser Präzedenzfall bis heute nie offiziell aufgehoben wurde, hat das Gericht inzwischen de facto eine völlige Revidierung vorgenommen. Bedingt durch den Fall New York Times Co. v. Sullivan6, der Presseartikel mit verleumderischem Charakter über Regierungsmitarbeiter unter den Schutz der Pressefreiheit stellte, erweiterte in der Folgezeit das Gericht auch den Schutzbereich der allgemeinen Meinungsfreiheit. Im Fall Ward v. Rock Against Racism7 stellte das Gericht 1989 den Grundsatz der Inhaltsneutralität gesetzlicher Regulierung auf. Damit ist jede gesetzliche Bewertung von Redebeiträgen und Ideen gerichtlich untersagt. Ebenso im Jahr 1989 erlaubte das Gericht im Fall Texas v. Johnson8 einem US-Maoisten das öffentliche Verbrennen der US-Flagge unter wüsten Beschimpfungen. Im Urteil R.A.V. v. City of St. Paul9 wendete das Gericht den Grundsatz der Inhaltsneutralität sogar auf Beleidigungen an, obwohl diese im Grundsatz nicht vom Schutzbereich der Meinungsfreiheit erfasst sind. Im Urteil Brown v. Entertainment Merchants Association10 stellte das Gericht den Verkauf von Gewaltvideospielen selbst an Minderjährige unter den Schutz der Meinungsfreiheit. Ein Kulminationspunkt in der jüngsten Rechtsprechung in Bezug auf die Hassrede stellt ferner der Fall Snyder v. Phelps11 dar. In diesem Fall ging das Gericht sogar so weit und wehrte Schmerzensgeldforderungen unter Verweis auf die Meinungsfreiheit ab, die einer Streitpartei durch öffentliche Hassrede und der damit verbundenen seelischen Qualen entstanden sind. Hintergrund dieses Falles sind die Proteste der Mitglieder der Westborough Baptist Church in der Nähe von Beerdigungen toter US-Soldaten. Während dieser Proteste riefen die Mitglieder den Beerdigungsteilnehmern wüste

5Chaplinsky

v. New Hampshire, 315 U.S. 568 (1942). Times Co. v. Sullivan, 376 U.S. 254 (1964). 7Ward v. Rock Against Racism, 491 U.S. 781 (1989). 8Texas v. Johnson, 491 U.S. 397 (1989). 9R.A.V. v. City of St. Paul, 505 U.S. 377 (1992). 10Brown v. Entertainment Merchants Association, 564 U.S. 786 (2011). 11Snyder v. Phelps, 562 U.S. 443 (2011). 6New York

Die Digitalisierung der Hassrede in den USA – Bedrohung oder ...

263

Beschimpfungen entgegen, hielten Plakate mit ebensolchen Beschimpfungen in die Luft und sangen Hasslieder, in denen die USA und bestimmte amerikanische Bevölkerungsgruppen verdammt wurden. Dabei entstanden auch Videoaufnahmen und Bilder, die die Kirche auf ihre Homepage stellte und so einer breiten Öffentlichkeit zugänglich machte. Die Eltern der im Krieg gefallenen und am Tag der Proteste beerdigten Soldaten begaben sich nach den Protesten in eine Psychotherapie und verklagten die Westborough Baptist Church auf Schmerzensgeld. Entscheidend bei den obigen Fällen ist, dass sich das Gericht nie abstrakt mit dem Phänomen der Hassrede beschäftigt. Stattdessen lassen sich aus den Fällen die Versatzstücke der Meinungsfreiheit zusammenfügen, die auch die Hassrede umfassen, etwa in Form von Beleidigungen, Drohungen und des Einsatzes von Gewalt. Dabei schützt das Gericht nicht nur die Hassrede in Form direkter Sprechakte, sondern auch in Form der symbolischen Rede ohne eigentlichen Sprechakt im Sinne einer wörtlichen Äußerung. Beispiele für Symbolic Speech sind das Veranstalten von Rockkonzerten, das Abbrennen von Fahnen und Kreuzen oder das Tragen von Plakaten. Die einzige Grenze des Schutzbereiches der Meinungsfreiheit für die Hassrede besteht dort, wo Erscheinungen der Hassrede in einem direkten und unmittelbaren Zusammenhang zu Straftaten stehen. So kann etwa bei Hassverbrechen der Hass der Täter auf eine bestimmte Opfergruppe als strafverschärfender Faktor im Einzelfall berücksichtigt werden, wie im Fall Mitchell v. Wisconsin12 geschehen. Der Fall behandelte die Strafverschärfung für eine bestimmte Tätergruppe schwarzer Jugendlicher, die einen weißen Jungen schwer verprügelten, weil die Täter eine Szene aus dem Film „Mississippi Burning“ mit einem weißen Kind als Opfer realiter darstellen wollten.

3 Die digitale Transformation der Hassrede Wie im ersten Abschnitt dargelegt, verfügt die verfassungsrechtlich geschützte Meinungsfreiheit in den USA als Ergebnis zahlreicher Präzedenzfälle über einen Schutzbereich, der weit ausgelegt wird und der so auch verschiedene Elemente der Hassrede beinhaltet, wenngleich es keine abschließend feststehende juristische Definition für diesen Gegenstand gibt. Möchte man die Bedeutung der Hassrede für politische Prozesse in den USA nachvollziehen, so ist neben

12Wisconsin

v. Mitchell, 508 U.S. 476 (1993).

264

S. Dregger

dem Wissen um den weiten rechtlichen Schutzbereich auch ein Verständnis für die faktischen Anwendungsbereiche dieses Phänomens erforderlich. Hierbei spielen heute die digitalen Kommunikationsmöglichkeiten eine entscheidende Rolle. Im Folgenden sollen deshalb einige Aspekte herausgearbeitet werden, die Anwendungsbereiche der Hassrede im Internetzeitalter aufzeigen. Die weltweit führenden Internetplattformen wie Facebook, Google und Twitter haben nicht nur ihren Ursprung in den USA, sondern erfreuen sich bei den Bürgern der USA großer Beliebtheit im Alltag. Nach einer Umfrage des Pew Research Center (2019) nutzen 73 % den Google-Dienst Youtube und 69 % Facebook. Darüber hinaus besitzen 22 % aller US-Amerikaner ein Twitter-Profil (Siegel 2019, S. 16). Dabei ergibt sich nicht zwangsläufig eine Verbindung zwischen diesen Plattformen und der Hassrede, da das Internet die zwischenmenschliche Kommunikation auch auf vielfältige Weise bereichern kann. So begünstigt das Internet den schnellen Austausch von Informationen, was zumindest das Potenzial erhöht, dass der allgemeine Kenntnisstand der BürgerInnen, die Onlinedienstleistungen nutzen, zu verschiedenen Themen steigt. Auch können BürgerInnen über das Internet schnell mit Gleichgesinnten in Kontakt treten, Erfahrungen austauschen und Beschlüsse fassen, sei es innerhalb der eigenen Nachbarschaft oder der Arbeitsstätte oder im Rahmen von Vereinen, Organisationen und sonstigen Zusammenschlüssen. Auf diese Weise schafft das Internet Vertrauen und stärkt das bürgerschaftliche Engagement. Gerade für in der analogen Welt räumlich getrennte und sozial relativ isolierte Minderheiten kann somit das Internet zumindest in der Theorie zu einem Ort des Austausches und des Zusammenschlusses werden (Citron und Norton 2011, S. 1443 ff.). Allerdings zeigen neuere Untersuchungen, dass personalisierte Nutzereinstellungen bei großen Informationsdienstleistern, wie etwa Facebook, Twitter oder Google News, dazu führen, dass NutzerInnen die Tendenz entwickeln, sich nur online über diejenigen Themen aus denjenigen Quellen zu informieren, die die eigene, bereits vorhandene Sichtweise bestätigen, sodass eine Auseinandersetzung mit abweichenden Themen, Informationen und Meinungen häufig nicht erfolgt (Dylko et al. 2017, S. 181, 188, 190). Folglich sollten in der Praxis die theoretischen Möglichkeiten des Internets im Hinblick auf eine bessere Informiertheit breiter Schichten von Internetusern nicht überschätzt werden (Margetts 2019). Fördert das Internet also auf der einen Seite zumindest potenziell zivilgesellschaftliche Strukturen, gibt es auf der anderen Seite auch eine dunkle Seite des Internets, die Aspekte enthält, die die Hassrede begünstigen (Delgado und Stefancic 2014, S. 320). Entscheidend ist hier vor allem die große Anonymität, die das Internet den Nutzern gewährt und die extremes Verhalten, wozu auch das

Die Digitalisierung der Hassrede in den USA – Bedrohung oder ...

265

Äußern von Hassbotschaften gehört, begünstigt. So registriert eine Studie für das Jahr 2014 rund 11.000 Hasswebseiten in den USA (Delgado und Stefancic 2014, S. 329). Besonders relevant ist dabei deren Verlinkung zu entsprechenden Facebook-, Twitter- und Youtube-Seiten. Facebook dient dabei als Plattform zur Etablierung von Hassgruppen wie zum Beispiel „Kick a Ginger Day“ (Citron und Norton 2011, S. 1448), in denen sich Gleichgesinnte austauschen, gegenseitig bestärken und radikalisieren können. Über Twitter lassen sich, bedingt auch durch die dort geltende Zeichenhöchstzahl, zugespitzte Hassbotschaften aller Art versenden und weiterversenden. Youtube ermöglicht es radikalen Gruppen aller Couleur, selbst gedrehte Videos einer breiten Öffentlichkeit zugänglich zu machen, in denen eigene Botschaften ohne kritische Kommentierung vorgestellt werden (Delgado und Stefancic 2014, S. 329). Zwar gibt es seit Beginn des Internets Hasswebseiten, jedoch ermöglichen es erst die großen sozialen Netzwerke, dass diese eine ungeahnte Reichweite erlangen können, indem etwa viele Freunde und Freundesfreunde auf Facebook einen bestimmten Beitrag von einer Webseite teilen und liken oder Follower Beiträge auf Twitter retweeten oder indem Abonnenten eines YouTube-Kanals bestimmte Beiträge sehr oft anklicken, verlinken und liken. Im schlimmsten Falle gelingt es so, dass eine Hassbotschaft ‚viral‘ geht und eine sehr große Aufmerksamkeit erhält (Mounk 2018, S. 164). Zwar mögen Hassbotschaften nur ein Randphänomen des Internets sein – im Vergleich zu allen möglichen Inhalten, die man im Internet finden kann. Doch berichten 53 % der USAmerikaner im Alter von 15 bis 30 Jahren, dass sie online bereits mit Hassredebeiträgen konfrontiert wurden, im Unterschied zu 39 % der Briten und 31 % der Deutschen, die die gleiche Aussage bejahten, sodass dies ebenfalls dafür spricht, dass tendenziell dieses Phänomen in den USA weiter verbreitet ist als anderswo (Siegel 2019, S. 17). Zur Virulenz von Hassbotschaften im Internet gehört nicht nur die besondere Infrastruktur, die Facebook, Twitter und Youtube bereitstellen, um Redeakte zu verbreiten. Teil der Internetkommunikation ist es auch, dass ein geposteter Beitrag zeitlich unbegrenzt aufgerufen werden kann, wenn keine Löschung erfolgt. Suchmaschinen wie Google ermöglichen es ferner, dass ein veröffentlichter Beitrag immer wieder zielsicher aufgerufen und weiterverbreitet wird (Citron und Norton 2011, S. 1447). Weiterhin wird das Phänomen der Echokammern im Internet diskutiert, in denen Gleichgesinnte nur noch mit anderen Gleichgesinnten kommunizieren und so keine Auseinandersetzung mehr mit abweichenden Ansichten stattfindet. So zeigt eine Studie, dass Twitter-Nutzer mit politischen Inhalten tendenziell extremere politische Ansichten vertreten und teilen als der Durchschnitt der Bevölkerung, die kein Twitter nutzt (Müller und Schwarz 2018, S. 13 ff.).

266

S. Dregger

Allerdings weisen Artikel zum Stand der Forschung bezüglich Echokammern darauf hin, dass deren empirische Existenz mit den damit vermuteten Auswirkungen keineswegs eindeutig belegt sei, da es auch Studien gebe, die die Existenz und Relevanz von Echokammern im Internet relativierten (siehe im Detail: Nguyen und Vu 2019, „Echo chamber“ in Research Literature: A Mixed Bag of Evidence). Darüber hinaus ist zu bedenken, dass die digital transformierte Hassrede zu realen Konsequenzen in der analogen Welt führt. Wer zum Zielobjekt von Hassredebeiträgen geworden ist, leidet häufiger unter psychischen Problemen wie Angstzuständen und Depressionen. Viele aktive Internetnutzer ziehen sich in der Folgezeit zurück und stellen die Nutzung ihrer Accounts ein. Ein Beispiel hierfür ist die ehemalige Tech-Bloggerin Kathy Sierra, die einst zu den Tech-Top 100 Bloggern in den USA zählte. Nachdem sie zur Zielscheibe einer OnlineraidingKampagne wurde, bei der eine Gruppe von Internettrollen Hassbotschaften vermischt mit persönlichen Drohungen bis hin zu Mordaufrufen auf ihren Blog stellten, stellte sie ihren Blog ein (Citron und Norton 2011, S. 1449). Neben tragischen Einzelschicksalen gibt es eine Diskussion darüber, in welchem Zusammenhang Internethassbotschaften mit Hassverbrechen in der realen Welt stehen. Statistiken, die sich auf Zahlen des FBI stützen, gelangen dabei einerseits zum Ergebnis, dass es seit den 1990er Jahren eine konstant hohe Anzahl von Hassverbrechen in den USA gibt, wenngleich diese Zahl Schwankungen unterliegt (Müller und Schwarz 2018, S. 6). Andererseits berichten Attentäter immer wieder davon, dass Hassgruppen und Hassbotschaften aus dem Internet eine wichtige Motivationsquelle für ihr Handeln bildeten (Siegel 2019, S. 21). Eine genaue Bestimmung des Zusammenhangs zwischen Hassbotschaften im Internet und Hassverbrechen in der analogen Welt ist indes schwierig, da es dazu bisher kaum Studien gibt und diese mit Problemen der Messung und der Drittvariablenkontrolle behaftet sind. Hinsichtlich der aktuellen Diskussion, inwiefern US-Präsident Donald Trumps Art der Twitter-Kommunikation Hassverbrechen gegenüber bestimmten Gruppen in den USA begünstigt, liegen widersprüchliche Befunde vor. So gibt es eine Studie, die herausarbeitet, dass es einen Zusammenhang zwischen Trumps Twitter-Kommentaren bezüglich des Islams und Muslimen und dem Anstieg von Hassverbrechen auf Muslime in den USA gebe. Dies zeige sich zumindest in Landkreisen mit einer hohen Anzahl von Twitter-Nutzern, wo dann auch die Hassverbrechen stattfänden (Müller und Schwarz 2018, S. 14–16). Allerdings besteht dieser Zusammenhang nur gegenüber Muslimen, nicht gegenüber Hassverbrechen bezüglich anderer Gruppen in den USA, die von Präsident Trump über Twitter kritisch kommentiert werden (Müller und Schwarz 2018,

Die Digitalisierung der Hassrede in den USA – Bedrohung oder ...

267

Supplementary Materials: S. 8 f.). Eine andere Studie gelangt auf der Basis einer Auswertung von rund 750 Mio. Tweets, die sich auf die US-Präsidentschaftswahlen 2016 beziehen, zum Ergebnis, dass – anders als häufig in der journalistischen Berichterstattung vermutet – kein ‚Trump-Effekt‘ bezüglich eines dauerhaften Anstiegs der Hassrede auf Twitter existiert (Siegel et al. 2019, S. 1 f.), was auch eine vermutete Korrelation zu verstärkt auftreten Hassverbrechen unwahrscheinlich werden lässt. Als gesichert gilt hingegen, dass das Internet die politischen Botschaften verändert hat, mit denen kommuniziert wird. Zunächst ist festzuhalten, dass die klassische Gatekeeper-Funktion etablierter Medien stark abgenommen hat, da sich politische Kandidaten durch das Bespielen der eigenen Internetkanäle direkt und ohne journalistische Vermittlung an die Öffentlichkeit wenden können. Zur Gatekeeper-Funktion gehört zudem die Möglichkeit, politische Botschaften unabhängig zu prüfen und zwischen verschiedenen Ansichten zu vermitteln oder zumindest einen Dialog zu ermöglichen. Die Schwächung traditioneller Gatekeeper bewirkt hingegen, dass politische Internetkampagnen stark Eigenbotschaften transportieren und den Zusammenhalt mit den eigenen Anhängern betonen, wohingegen gegenteilige Ansichten entweder kaum oder stark abwertend dargestellt werden (Mounk 2018, S. 164 ff.).13

4 Regulierungsansätze für die digitalisierte Hassrede im Zusammenhang mit großen Internetdienstleistern Bisher wurde dargelegt, dass die Meinungsfreiheit einen umfassenden rechtlichen Schutz in den USA genießt, sodass grundsätzlich auch die Hassrede davon profitiert. Gleichzeitig ermöglicht das Internet durch das Bespielen der entsprechenden sozialen Medien, dass Hassbotschaften in kurzer Zeit eine sehr

13In

jüngster Zeit gibt es das Phänomen der vorgetäuschten realen Internetkommunikation durch Bots. Dabei handelt es sich um Computeralgorithmen, die wie realen Personen im Auftritt wirken, dabei Internetprofile unterhalten und Kommentare und Likes bei Facebook, Twitter und Youtube posten. Bots können dabei eine stark verzerrende Wirkung ausüben, wenn etwa Politiker mit einer großen Zahl an Followern werben oder auf die Unterstützung bestimmter Personen verweisen, bei denen es sich in beiden Fällen realiter um Bots handelt (Howard et al. 2018, S. 81). Allerdings ist zu berücksichtigen, dass Politiker selber unter Umständen gar nicht genau über die Bot-Aktivitäten auf ihren eignen Internetkanälen Bescheid wissen (können).

268

S. Dregger

große Breitenwirkung entfalten können. Vor diesem Hintergrund ergibt sich die Frage, wie ein rechtlicher Rahmen in den USA aussehen könnte, der einerseits der besonderen Bedeutung der Meinungsfreiheit gerecht wird, aber anderseits auch Grenzen für die Verbreitung der Hassrede in den sozialen Medien markiert. Beschäftigt man sich allgemein mit dem Verhältnis zwischen der Hassrede, den sozialen Medien, die von globalen Internetkonzernen betrieben werden, und der gesetzlichen Regulierung des Bereiches Hassrede im Internet, so lassen sich drei Perspektiven in dieser Frage konstatieren. Die erste Perspektive in dieser Frage kann als klassisch liberal bezeichnet werden. Hierbei besitzen die Internetdienstleister die größtmögliche Freiheit im Umgang mit Hassbotschaften auf ihren Plattformen. Das heißt, sie können völlig eigenständig und für Dritte nicht unbedingt nachvollziehbar festlegen, wie sie mit Hassredebeiträgen umgehen möchten. Als private Akteure handeln sie in dieser Frage eigenverantwortlich und berücksichtigen dabei vor allem die Ansichten ihrer Aktionäre, Werbekunden und NutzerInnen. Wer die angebotenen Dienstleistungen eines Internetunternehmens nutzt, stimmt implizit den jeweils geltenden vertragsrechtlichen Bestimmungen zu. Problematisch an dieser Herangehensweise ist für die Internetfirmen, den unterschiedlichen Erwartungshaltungen ihrer NutzerInnen gerecht zu werden. Je nach eigenem Standpunkt befürchten diese, dass die Internetunternehmen entweder zu wenig gegen Hasspostings unternehmen oder umgekehrt zu viele Beiträge wegen vermeintlicher Hassrede entfernen (Samples 2018). Die zweite Perspektive betrachtet Plattformen wie Facebook, Google und Twitter aufgrund deren Größe und Reichweite als öffentliche Foren, auf die die Öffentliche-Foren-Doktrin des 1. Verfassungszusatzes grundsätzlich anwendbar ist (Nunziato 2018, S. 74 f.). Als öffentliche Foren gelten in den USA traditionell Straßen, Parks und öffentliche Plätze, auf denen zu einer Vielzahl von Menschen gesprochen und auf diese Weise eine öffentliche Meinung gebildet werden kann (Nunziato 2018, S. 22). Für ein öffentliches Forum gilt der strenge richterliche Prüfungsmaßstab, wenn dem Gericht ein Rechtsakt zur Regulierung öffentlicher Foren vorgelegt wird (Nunziato 2018, S. 30). Wird der strenge Prüfungsmaßstab („strict scrutiny“) rechtstechnisch verwendet, so bedeutet dies de facto im Regelfalle, dass eine rechtliche Regulierung als verfassungswidrig eingestuft wird. Werden vor diesem Hintergrund Facebook, Twitter und Google als öffentliche Foren verfassungsrechtlich eingestuft, so müssten die Betreiber den vollen Schutz der Redefreiheit des 1. Verfassungszusatzes gegenüber allen NutzerInnen berücksichtigen. Da die Redefreiheit in den USA wie dargelegt die Hassrede beinhaltet, bedeutete dies, dass den Betreibern weitestgehend die Hände gebunden wären,

Die Digitalisierung der Hassrede in den USA – Bedrohung oder ...

269

wenn es darum geht, Hassredebeiträge auf ihren Plattformen zu entfernen. Dies wäre dann im Zweifelsfalle nur möglich, wenn sie einen sicheren Zusammenhang des Redebeitrages zu einer Straftat nachweisen könnten. Es ist aber höchst umstritten in der US-Rechtswissenschaft, ob und inwiefern die Public-ForumDoktrin auf Internetkonzerne angewendet werden kann, da es sich bei ihnen um private und nicht um staatliche Akteure handelt und die Drittwirkung der Grundrechte auf Private als Ausdruck einer weit verstandenen Privatautonomie und Vertragsfreiheit in den USA im Rahmen der State-Action-Doktrin eng ausgelegt wird. So gibt es Urteile, in denen Internetanbieter als öffentliches Forum eingestuft werden, (Nunziato 2018, S. 39 ff.).14 Andere Fälle hingegen verwerfen eine solche Einstufung von Internetfirmen als öffentliches Forum (Howe 2019).15 Eine dritte Perspektive verweist auf die Möglichkeit der Selbstregulierung der Internetdienstleiter, die sich eigene Regularien geben, nach denen sie auf möglichst transparente und berechenbare Weise versuchen, den Themenkomplex der Hassrede im Internet zu regeln. Vorbild für diese Herangehensweise sind die Standards zur freiwilligen Selbstkontrolle, denen sich fast alle Radio- und Fernsehstationen in den USA bezüglich ihrer Sendeinhalte unterwerfen (Jacobson und Schlink 2012, S. 217 ff.). Auf diese Weise soll einerseits verhindert werden, dass die Hassrede als solches und als Teil der Meinungsfreiheit verboten wird. Andererseits soll es möglich sein, dass die Hassrede in bestimmten Kontexten, in denen sie Schäden anrichten kann, wirksam sanktioniert wird. Während im Bereich der Radio- und Fernsehstationen in den USA eine bereits langjährige Erfahrung im Aufstellen, Vereinheitlichen und Handhaben von eigenen Regularien existiert (Jacobson und Schlink 2012, S. 227 ff.), stellt dieses Phänomen im Bereich des Internets noch ziemliches Neuland dar. Trotzdem schlagen in jüngster Zeit die Internetkonzerne vor allem diesen Weg ein und bemühen sich, eigene Regularien zu entwickeln und möglichst berechenbar anzuwenden. Wer sich bei den drei großen Internetplattformen anmelden möchte, ist deshalb inzwischen dazu verpflichtet, die Gültigkeit bestimmter seiteninterner Richtlinien und Nutzungsbedingungen anzuerkennen, wobei die allgemeine Stoßrichtung der Betreiber wie folgt lautet: Facebook, Google und Twitter bekennen sich zum Grundsatz und zur überragenden Bedeutung der Meinungsfreiheit, die auch durch die Nutzung der jeweiligen Plattform gestärkt werden

14Siehe 15Siehe

hierzu den Fall: Packingham v. North Carolina, 137 S. Ct. 1730 (2017). hierzu den Fall: Manhattan Community Access Corp. v. Halleck, 587 U.S. (2019).

270

S. Dregger

soll. Gleichzeitig soll die Hassrede auf den Plattformen bekämpft werden, da die Betreiber der Plattformen die Ansicht vertreten, dass Hassredebeiträge nicht von der Meinungsfreiheit geschützt sind (Google 2019; Facebook 2019; Twitter 2019). Als Hassrede gilt dabei eine „gewalttätige und entmenschlichte Sprache“, die bestimmte als geschützt definierte Eigenschaften einer Person, etwa deren Nationalität oder Religion, angreift und mit dem Ziel verächtlich macht, eine Person zu verängstigen, auszuschließen oder einer gewalttätigen Behandlung auszusetzen. Die inhaltlichen Definitionen der Hassrede ähneln sich dabei im Großen und Ganzen bei den jeweiligen Plattformen. Fraglich ist aber, wie diese Definitionen in der Praxis angewendet werden. So weist etwa Facebook darauf hin, dass kontroverse Aussagen im Kontext von Gesellschaftskritik oder humoristischer Aussagen nicht unbedingt als Hassrede eingestuft werden. Auch erfolge stets bei der Prüfung einer Aussage die Abwägung mit einem vermuteten öffentlichen Interesse an der Veröffentlichung einer Aussage (Facebook 2019, 11. Hassrede). In erläuternden Kommentaren zu den jeweils eigenen Richtlinien und Nutzungsbedingungen bieten die Internetkonzerne Handreichungen für die Praxis, die einem ständigen Revisionsprozess ausgesetzt sind. So gelten Vergleiche eines Menschen mit Tieren, Bakterien oder Krankheiten als Indikator für Hassrede. Daneben werden explizit bestimmte Wortverbindungen und Formulierungen als Ankerbeispiele für die Hassrede genannt (Facebook 2019, Tier 1). Allerdings können auch schon negative Beschreibungen einer Person, etwa in Bezug auf deren geistige, körperliche und charakterliche Defizite als Hassrede eingestuft werden (Facebook 2019, Tier 2), sodass allgemein das Problem einer sehr weit gefassten Definition dieses Themenkomplexes existiert. Facebook verspricht jeweils eine individuelle Prüfung im Bereich eines potenziellen Hassredebeitrages, bei der verschiedene Faktoren abgewogen werden. Letztlich vertrauen die Internetkonzerne darauf, dass sie anhand genügend praktischer Erfahrungen einen relativ einheitlichen und berechenbaren Umgang mit diesem Phänomen erlangen werden, wobei man auf eine eigene Kooperation mit individuellen NutzerInnen, aber auch NGOs oder staatliche Stellen verweist, die bestimmte Beiträge für eine Prüfung auf Hassrede vorlegen (Allan 2017). In der Vergangenheit haben Löschungen bestimmter Beiträge sowie Sperrungen und Löschungen bestimmter Profile immer wieder energischen Protest gegenüber den Internetplattformen hervorgerufen. Auch gibt es inzwischen eine Vielzahl von Medienrechtsanwälten, die die Internetkonzerne auf Freischaltung und Schadensersatzforderungen im Zusammenhang mit der Entfernung von Hassredebeiträgen verklagen.

Die Digitalisierung der Hassrede in den USA – Bedrohung oder ...

271

Die Literatur beschreibt eine Reihe von Problemen, mit denen sich die Plattformen auseinandersetzen, wenn es darum geht, bestimmte Redebeiträge als Akte der Hassrede einzustufen, für die es bisher keine allgemein akzeptierte Lösung gibt. Zunächst gibt es die Herausforderung aus der Masse an Posts und sonstigen Textmaterialien diejenigen herauszufiltern, die die Richtlinien der Anbieter verletzen. Hierbei werden gezielte Suchalgorithmen und Techniken des Text Mining verwendet, um auch die Kontexte zu erfassen, in denen bestimmte Wörter auftauchen. Dieses Verfahren ist aber nicht unbedingt zielführend, da es durch bewusste Falschschreibung von Textstellen und durch die Verwendung von Code-Wörtern unterlaufen werden kann (Siegel 2019, S. 4). Auch erschweren die Stilmittel der Ironie, des Sarkasmus sowie allgemeine Sprach- und Übersetzungsprobleme das sichere Identifizieren von Hassredebeiträgen (Keller 2018, S. 6). Wer gezielt durch Hassbotschaften gegen die Nutzungsbedingungen der Betreiber von Facebook, Google und Twitter verstößt, muss damit rechnen, dass der eigene Account gesperrt wird. In einem solchen Fall gehen die betroffenen Nutzer dazu über, neue Accounts anzulegen, auf denen über längere Zeit unverfänglichere Botschaften gepostet werden. In einer relativ kurzen Zeitspanne erfolgt dann eine Radikalisierung der Messages – bis zu einer erneuten Sperrung, in der Hoffnung, dass in der Zwischenzeit andere Nutzer die eigenen Beiträge genügend weiterverbreitet haben (Siegel 2019, S. 11–13). Darüber hinaus gestalten sich die Bemühungen hinsichtlich eines Content Managements durch spezialisierte MitarbeiterInnen als schwierig. Es kommt dabei immer wieder zu höchst angreifbaren Entscheidungen. So wurde etwa die amerikanische Unabhängigkeitserklärung, die eine Anklage der britischen Siedler in Amerika gegenüber König George III. enthält, als Hassrede auf Facebook eingestuft (Siegel 2019, S. 20). Trotz solcher Vorfälle bemühen sich die Internetkonzerne darum, mehr Mitarbeiter in diesem Bereich einzusetzen, auch um die stark gestiegene Anzahl an Meldungen gerecht werden zu können. Hatte Google 2006 pro Tag mit nur einigen Hundert Anfragen wegen vermuteter Rechtsverletzungen auf der Plattform zu rechnen, so betrug die Zahl der Anfragen 2016 2 Mio. pro Tag weltweit (Keller 2018, S. 5). Für das Jahr 2018 kündigte Facebook an, rund 7500 Mitarbeiter global für das Content Management einzusetzen. Bei Youtube kümmern sich sogar rund 10.000 MitarbeiterInnen um diesen Bereich (Keller 2018, S. 6). Trotz dieses Anwachsens an Personal wird der überwiegende Großteil der Entfernungen von Textbeiträgen von automatischen Computerprogrammen durchgeführt (Keller 2018, S. 6). Welche internen Prozesse im Einzelnen darüber bestimmen, ob ein gemeldeter Beitrag wegen Verstoßes gegen die Hassredebestimmung der Nutzerrichtlinien gelöscht wird oder ein Account deswegen gesperrt wird, lässt sich von außen nur schwer

272

S. Dregger

ergründen, sodass dieser Bereich mit erheblichen Verfahrensunsicherheiten behaftet ist.

5 Die digitalisierte Hassrede – Bestandteil oder Bedrohung der Demokratie? Bedenkt man die Besonderheiten der digital verbreiteten Hassrede sowie die Regulierungsversuche der Internetkonzerne in diesem Bereich, so erscheint es als fraglich, welche Auswirkungen dies auf die amerikanische Demokratie insgesamt hat. Gerade die schwierige Definierbarkeit von Hassrede und das weite US-Verständnis der Meinungsfreiheit führen zu einer besonderen Dringlichkeit, wenn man die Frage erörtert, inwiefern die digitalisierte Hassrede Teil der US-Demokratie sein kann. Im Folgenden sollen hierzu zwei konträre Positionen vorgestellt werden: Die eine vertritt dabei die Ansicht, dass die Hassrede ein unvermeidlicher Bestandteil der amerikanischen Demokratie ist, wohingegen die andere in der Hassrede eine Gefahr für das Funktionieren der Demokratie in Amerika sieht. Der Vertreter der ersten Ansicht ist der Rechtsphilosoph Ronald Dworkin, der allgemein als Anhänger einer so gut wie unbeschränkten Meinungsfreiheit gilt. Deshalb ist für ihn auch die Hassrede ein unumgänglicher Bestandteil der Meinungsfreiheit. Für diese Ansicht führt er zwei Argumente an, zum einen die Legitimität demokratischer Gesetzgebung und zum anderen die Menschenwürde als Leitgedanke der amerikanischen Verfassung. Legitim kann nach Dworkin eine demokratische Gesetzgebung nur dann sein, wenn wirklich jeder Bürger die Möglichkeit hat, seine Meinung im Prozess der Gesetzgebung kundzutun. Dies müsse auch dann so sein, wenn die Meinung des Bürgers extrem unbeliebt und allgemein als verwerflich angesehen werde (Dworkin 2000, S. 358 f.). Denn nur dann, wenn ein Bürger das Recht habe, seine Meinung immer zu äußern, könne von ihm verlangt werden, dass er sich an die Gesetze halte, die von der Mehrheit beschlossen wurden, auch wenn er selbst diese Gesetze für falsch hält und ablehnt (Dworkin 2006b). Zur Legitimität der demokratischen Gesetzgebung gehört auch deren Qualität, die sich am jeweils besten verfügbaren Erkenntnisstand orientieren sollte. Dieser könne nur erreicht werden, wenn ein möglichst robuster Wettkampf zwischen unterschiedlichen Ansichten stattfinde, was nur möglich sei, wenn von vornherein keine Meinung als Hassrede vom Diskurs ausgeschlossen werde (Dworkin 2006a, S. 130). Als zweites Hauptargument für ein weites Verständnis der Meinungsfreiheit führt Dworkin die Menschenwürde an, die sich für Dworkin darin manifestiere, eigene Gedanken zu entwickeln und nach diesen das eigene Leben auszu-

Die Digitalisierung der Hassrede in den USA – Bedrohung oder ...

273

richten, auch wenn diese Gedanken auf große Ablehnung anderer Menschen treffen oder wenn diese sich durch eine bestimmte Ansicht beleidigt und herabgesetzt fühlen (Dworkin 1996, S. 218 f., 237 f.). Mit diesen Prämissen gelangt Dworkin zur Auffassung, dass sowohl die Holocaust-Leugnung, das Erstellen und Abbilden von Mohammed-Karikaturen und pornografische Schriften von der Meinungsfreiheit geschützt sind, auch wenn diese Gegenstände von Kritikern als Hassrede eingestuft werden. Überträgt man Dworkins Ansicht auf die Regulierungsbemühungen bezüglich der Hassrede im Internet, so stützt Dworkins rechtsphilosophische Argumentation die Public-Forum-Doktrin, die besagt, dass eigentlich private Plattformen wie Facebook, Google und Twitter gegenüber ihren Nutzern den gleichen Standard an Meinungsfreiheit gewähren müssen, wie staatliche Organe der USA gegenüber den US-Bürgern als Folge der Free-SpeechKlausel des 1. Verfassungszusatzes. Der Politikwissenschaftler Yascha Mounk gelangt hingegen bezüglich der Hassrede zu einer anderen Einschätzung. Zwar mag diese formal juristisch von der Meinungsfreiheit in den USA geschützt sein. Jedoch trägt sie durch massenhafte Verbreitung im Internet dazu bei, die Demokratie in den USA dauerhaft zu schädigen. Dies geschieht laut Mounk auf zwei Arten. Zunächst führt der starke Anstieg von Hassbotschaften und Falschnachrichten in den sozialen Medien dazu, dass Rufe nach einer gesetzlichen Zensur lauter werden. Beginnen jedoch erst einmal Politiker und CEOs festzulegen, welche Aussagen noch und welche nicht mehr öffentlich geteilt werden können, dann bleibe auf längere Sicht nicht mehr viel von der Meinungsfreiheit übrig (Mounk 2018, S. 28). Für Mounk stellt die Meinungsfreiheit- und allgemein ein starker Grundrechtsschutz − als liberales Element einen unverzichtbaren Bestandteil jeder demokratischen Ordnung dar (Mounk 2018, S. 13, 22). Darüber hinaus ist die starke Verbreitung der Hassrede auch ein Merkmal dafür, dass der demokratische Prozess der Willens- und Entscheidungsbildung nur noch unzureichend funktioniert. Mounk konstatiert gerade für die USA ein verstärktes Auseinanderdriften von politisch-wirtschaftlich-medialen Eliten und der allgemeinen Wählerschaft, weshalb er das politische System als ‚kompetitive Oligarchie‘ beschreibt (Mounk 2018, S. 111). Zwar finden freie und faire Wahlen statt, doch scheinen Wahlentscheidungen einen nur noch begrenzten Einfluss auf die politische Agenda und die tatsächliche Entscheidungsfindung in politischen Streitfragen zu haben. Im Gegenzug „rächen“ sich die Wähler, indem sie sich populistischen Politikangeboten zuwenden, die andere Themen als die etablierte Politik besetzen und dabei auch bereit sind, ihren Zorn gegenüber etablierten Politikangeboten mit Elementen der Hassrede zum Ausdruck zu bringen (Mounk 2018, S. 51 ff.). Als Gegenmittel zu diesen Entwicklungen empfiehlt Mounk drei Maßnahmen, die für ihn einen geeigneten

274

S. Dregger

regulatorischen Rahmen darstellten: 1) Um staatliche Eingriffe in die Redefreiheit überflüssig zu machen, sollen die Internetkonzerne sich selbst regulieren im Hinblick auf den Umgang mit der Hassrede, so wie dies bereits die Radio- und Fernsehanstalten in der Vergangenheit taten. 2) Es sollte ein Verbot von Bots erfolgen, da die Meinungsfreiheit nur für Personen, nicht aber für Maschinen gilt. 3) Die Internetkonzerne sollten gezielt Algorithmen verwenden, die gepostete und geteilte Informationen priorisieren, und zwar danach, inwiefern diese respektvoll und verlässlich in der Aufmachung sind (Mounk 2018, S. 271 f.).

6 Fazit Die Ausführungen in diesem Beitrag untersuchten das Spannungsverhältnis zwischen Meinungsfreiheit, digitalisierter Hassrede und Demokratie in Amerika. Dazu wurden zunächst die zentralen Probleme hinsichtlich einer genauen Definition des Phänomens der Hassrede aufgezeigt. Das traditionell sehr weite Verständnis der Meinungsfreiheit in den USA führt dazu, dass auch die Hassrede von der Redefreiheit geschützt wird, solange sie nicht in einer unmittelbaren Verbindung zum Begehen von Straftaten steht. Die Internetkommunikation über Plattformen wie Facebook, Youtube und Twitter hat zu einem enormen Reichweitengewinn für Hassredebeiträge geführt, wenngleich umstritten ist, welche konkreten Auswirkungen eine vervielfältigte Hassrede auf das Begehen von Hassverbrechen besitzt. Um die schädlichen Auswirkungen der Hassrede im Internet einzudämmen, werden aktuell in den USA verschiedene Regulierungsansätze diskutiert. Diese reichen von klassisch liberalen Ansätzen, über die Anwendung der PublicForum-Doktrin auf private Internetkonzerne bis hin zu einer verstärkten selbstregulierenden Praxis der Betreiber in Analogie zu der bereits seit längerer Zeit etablierten freiwilligen Selbstkontrolle der Radio- und Fernsehbetreiber. Charakteristisch für den Ansatz der Regulierung in den USA ist, dass bisher nicht auf verstärkte gesetzliche Eingriffe gesetzt wird. Stattdessen dominieren Ansätze der freiwilligen Selbstkontrolle der Internetanbieter, wenngleich insbesondere deren praktische Handhabung mit einer Vielzahl von Problemen behaftet ist. Abschließend beleuchtete der Aufsatz die Auswirkungen der digitalisierten Hassrede auf den Zustand der Demokratie in den USA, wobei zwei konkurrierende Einschätzungen vorgestellt wurden. Angesichts des innovativen Charakters des Internets bleibt für die Zukunft abzuwarten, welche Entwicklung die Hassrede im Internet nehmen wird und welche regulatorischen und politischen Reaktionen in den USA darauf erfolgen werden.

Die Digitalisierung der Hassrede in den USA – Bedrohung oder ...

275

Literatur- und Quellenverzeichnis Allan, R. 2017. Hard questions: Who should decide what is hate speech in an online global community? Facebook Newsroom. June 27, 2017. https://newsroom.fb.com/ news/2017/06/hard-questions-hate-speech/. Zugegriffen: 30. Okt. 2019. Bundeszentrale für politische Bildung. 2017. Was ist hate speech? July 12, 2017. https:// www.bpb.de/252396/was-ist-hate-speech. Zugegriffen: 20. Nov. 2019. Citron, D.K., und H. Norton. 2011. Intermediaries and hate speech. Boston University Law Review 91:1435–1484. Delgado, R., und J. Stefancic. 2014. Hate speech in cyberspace. Wake Forest Law Review 49:319–343. Duden. 2019. Eintrag zu „Hass“. https://www.duden.de/rechtschreibung/Hass . Zugegriffen: 20. Nov. 2019. Dworkin, R. 1996. Freedom’s law – The moral reading of the American constitution. New York: Oxford University Press. Dworkin, R. 2000. Sovereign Virtue – The theory and practice of equality. Cambridge: Harvard University Press. Dworkin, R. 2006a. A new map of censorship. Index of Censorship, 35:130–133. https://journals.sagepub.com/doi/pdf/https://doi.org/10.1080/03064220500532412 . Zugegriffen: 30. Okt. 2019. Dworkin, R. 2006b. Even bigots and Holocaust deniers must have their say. The Guardian. 14.02.2006, https://www.theguardian.com/world/2006/feb/14/muhammadcartoons. comment . Zugegriffen: 30. Okt. 2019. Dylko, I., Dolgov, I., Hoffmann, W., Eckhart, N., Molina, M.D., und Aaziz, O. 2017. The dark side of technology: An experimental investigation of the selective exposure. Computers in Human Behavior, 73, 181–190. https://www.researchgate.net/ publication/318918485_Impact_of_Customizability_Technology_on_Political_ Polarization. Zugegriffen: 1. Jan. 2020. Facebook. 2019. Gemeinschaftsstands. https://de-de.facebook.com/communitystandards/ objectionable_content . Zugegriffen: 30. Okt. 2019. Garcia, M.L, Lewis, C.D., Nolan, A., Totten, M., & Tyson A. 2017. The constitution of the United States of America – Analysis and interpretation – Centennial edition. Washington, DC: U.S. Government Publishing Office. https://www.congress.gov/ constitution-annotated/. Zugegriffen: 4. Nov. 2019. Google. 2019. Nutzungsbedingungen und Richtlinien. https://www.google.com/intl/de_ ALL/+/policy/content.html . Zugegriffen: 30. Okt. 2019. Howe, A. 2019. Opinion analysis: Court holds that First Amendment does not apply to private operator of public-access channels. SCOTUSblog, June 17, 2019. https://www. scotusblog.com/2019/06/opinion-analysis-court-holds-that-first-amendment-does-notapply-to-private-operator-of-public-access-channels/. Zugegriffen: 30. Okt. 2019. Howard, P.N., S. Wooley, und C. Ryan. 2018. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration. Journal of Information Technology & Politics 18:81–93.

276

S. Dregger

Jacobson, J., und B. Schlink. 2012. Hate speech and self-restraint. In The content and context of hate speech – Rethinking regulation and responses, Hrsg. M. Herz und P. Molnar, 217–241. New York: Cambridge University Press. Kagan, R.A. 2001. Adversarial legalism – The American way of law. Cambridge: Harvard University Press. Keller, D. 2018. Internet platforms. Observations on speech, danger, and money. Hoover Institution, Aegis Series Paper Nr. 1807 (June 13, 2018). https://www.hoover.org/sites/ default/files/research/docs/keller_webreadypdf_final.pdf. Zugegriffen: 30. Okt. 2019. Kingreen, T., und R. Poscher. 2018. Grundrechte. Staatsrecht II, 36. Aufl. Heidelberg: C.F. Müller. Margetts, H. 2019. The five stages of democratic grief. The Political Quarterly Blog, June 6, 2019. https://politicalquarterly.blog/2019/06/06/the-five-stages-of-democratic-grief/. Zugegriffen: 01. Jan. 2020. Mounk, Y. 2018. Der Zerfall der Demokratie – Wie der Populismus den Rechtsstaat bedroht. München: Droemer Verlag. Müller, K., & Schwarz C. 2018. Making America hate again? Twitter and hate crime under trump. Working Paper. https://www.researchgate.net/publication/324459810_Making_ America_Hate_Again_Twitter_and_Hate_Crime_Under_Trump. Zugegriffen: 25. Okt. 2019. Nunziato, D. C. 2018. From Town-Square to Twittersphere: The Public Forum Doctrine Goes Digital. George Washington University Law School, GW Legal Studies Research Paper No. 2018-48. https://ssrn.abstract_id=3249489. Zugegriffen: 30. Okt. 2019. Pew Research Center. 2019. 10 facts about Americans and Facebook. https://www. pewresearch.org/fact-tank/2019/05/16/facts-about-americans-and-facebook/. Zugegriffen: 22. Okt. 2019. Rosenfeld, M. 2001. Hate speech in constitutional Jurisprudence: A comparative analysis. Cardozo Law School – Working Paper Series 41, S. 1–63, https://papers.ssrn.com/paper. taf?abstract_id=265939. Zugegriffen: 25. Mai 2019. Samples, J. 2018. Free speech in the age of digital platforms. Foundation for Economic Freedom. https://fee.org/articles/free-speech-in-the-age-of-digital-platforms/. Zugegriffen: 30. Okt. 2019. Schauer, F. 2005. The exceptional first amendment, John F. Kennedy School of Government, Research Paper, Harvard University, S. 1–37. https://ksgnotes1.harvard. edu/Research/wpaper.nsf/rwp/RWP05-021. Zugegriffen: 25. Aug. 2019. Sedler, R.A. 2006. An essay on freedom of speech: The United States versus the rest of the world. Law Review of Michigan State University 2006:377–384. Siegel, A. A. 2019. Online hate speech. August 2019, Working Paper. https://alexandrasiegel.com/wp-content/uploads/2019/08/Siegel_Online_Hate_Speech_v2.pdf. Zugegriffen: 25. Okt. 2019. Siegel, A. A., Nikitin, E., Sterling J., Pullen B., Bonneau R., Nagler J., und Tucker J. A. 2019. Trumping hate on twitter? Online Hate Speech in the 2016 US Election Campaign and its Aftermath. Working Paper, August 23, 2019. https://alexandra-siegel. com/wp-content/uploads/2019/08/qjps_election_hatespeech_RR.pdf. Zugegriffen: 25. Okt. 2019. Twitter. 2019. Twitter rules. https://help.twitter.com/en/rules-and-policies/twitter-rules. Zugegriffen: 30. Okt. 2019.

Political Implications of the Digital Transformation – The Role of the Democratic State in Multi-Stakeholder Internet Governance Carolin Stötzel 1 Introduction The Internet, by its very nature, is decentrally constructed as a form of meta-network without institutional supervision. Since the late 1990 s, the number of internet users increased rapidly, while simultaneously enhancing its commercial importance as well as political and social implications of new information and communications technologies (ICTs). Many research directions have since emerged: from a global perspective on governing the Internet, Internet Governance (i.e. Busch et al. 2019; Carr 2015; van Eeten et al. 2013; Hofmann 2005; Hofmann et al. 2017; Schneller 2018) to Digital Era Governance, focussing on implications of the digital transformation for public administration and public policy (Margetts and Dunleavy 2013; Dunleavy et al. 2006) or Digital Democracy (Hague and Loade 1999), just to name a few main research strands. In this paper, the author will analyse the digital transformation1 concerning democratic legitimacy in correspondence with Internet Governance2, which is the most intensively researched part of the mentioned three. The question of the legitimacy of the structures and processes related to the Internet becomes increasingly relevant, especially in democratic states. Legitimacy in this paper is understood in 1The

digital transformation is a challenge for society as a whole, while noting that ‘digitalization’ exceeds beyond (just) the Internet. 2For further insights into Internet Governance see, i.e. Hofmann (2005). C. Stötzel (*)  Universität Passau, Passau, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_14

277

278

C. Stötzel

the classical sense as trust in the legality of political rule (Weber 1980).3 It will be illustrated in the following that democratically legitimized regulation is reaching its limits on the Internet. These challenges for sovereign national states in Internet Governance can be analysed from an external perspective (independence of states vis-à-vis other states) and an internal perspective (self-determined governmental organization) (Pohle and Thiel 2019, p. 58). This paper will refer to Internet Governance from the latter internal perspective. With the increasing importance of the Internet for social and economic processes, the need for regulation of the Internet has likewise increased (Busch 2012, 2019). Therefore, one of the critical areas of debate revolves around the governance of the Internet: All computer networks require some level of administration but the distributed nature of the Internet and its deeply political, economic and cultural implications, mean that coordination and negotiation in this context is contentious and the site of considerable power struggles. (Carr 2015, p. 641).

Consequently, tensions between the decentralized and anti-authoritarian (nonhierarchical) structure of the Internet without a central coordination instance and the territorially organized structures of legal regulations increased (Busch 2017, p. 337). Arguably, the Internet and other digital technologies move between state authority and private coordination (Hofmann 2005; Hofmann et al. 2017). Thereby, digitalization is one factor contributing to the discussion for decades around the changing role of the state. A first argument will be introduced in this paper, namely that in the context of the digital transformation and democratic states, a combined perspective of democracy and governance is necessary (Chapter 2). On the one hand, it is argued that state activity has changed increasingly in recent decades from the profile of the ‘state of benefits’ to that of a ‘governing state’ (Zohlnhöfer 2008, p. 168 ff.; Busch 2013, p. 29 ff., 2017, p. 336). On the other hand, models of “Governance without Government” (Börzel and Risse 2010) were introduced. With the emergence of the Internet, an ‘avantgarde, libertarian culture’ had developed that was highly sceptical of all state regulation (Busch 2017). This culture has crucial implications for the role of the

3However,

it shall be asserted that “[t]here are few concepts in the political lexicon as important and ambiguous as legitimacy” (Brassett and Tsingou 2011, p. 1). Therefore, the definition of legitimacy can follow different dimensions, such as input-/throughput-/outputlegitimacy (Zürn 1998; Scharpf 1999).

Political Implications of the Digital Transformation – The Role of ...

279

state, while varying in democratic and authoritarian states: Whereas democratic states see interference by authoritarian states as a threat to civil rights, the latter prefer nationally controlled information channels, which can be regulated by the respective government (Breindl 2019, p. 92). The influence of governments both in the Internet itself, but also about dealing with its political implications, demonstrates not only a conflict between freedomloving and authoritarian states, but also between competing business models and interests of democratic states (Breindl 2019, p. 99). Similarly to the construction of the Internet as a space of distributed power (Sassen 2000), the current digital transformation is levelling the playing field between governments, major corporations and civil society regardless of the political system. Each position of the three mentioned stakeholders and their governance logic of hierarchy (government) vs. market (private sector) vs. networks (civil society) will be analysed in Chapter 2. Thereby, this paper contributes to the discussion around legitimacy and accountability in the digital transformation, especially in Internet Governance. In terms of sovereignty and democracy in the Internet sphere, it will be critically addressed “what actors are gaining influence under conditions of digitization and whose claims are gaining legitimacy” (Sassen 2000, p. 28). In a nation-state system, the decisive and only legitimate actor are governments. Although the Internet exceeds beyond national borders and is a global challenge, governments still need to deal with its political implications not only in their national state, but also in their global responsibility. The digital transformation, possibly stronger than previous disruptive megatrends, emphasizes an increasing multitude of interdependencies in a highly networked, globalized world. Sovereign national states are increasingly under pressure from inside and outside in governing the Internet (Ritzi and Zierold 2019, p. 41). Thus, the field of Internet Governance is rather complex due to highly fragmented responsibilities, regulatory deficits, and overlapping competencies (Betz and Kübler 2013, p. 70). Furthermore, tensions and power struggles across multiple levels, between all relevant actors of the digital transformation and the hierarchically structured state structure become obvious (Breindl 2019, p. 82). Hence, emerging technologies call for new forms of governance of the participating stakeholders and a more balanced approach to governing the digital revolution (and ensuring legitimacy) is needed (TWI2050 2018, p. 67). This paper suggests a multi-stakeholder approach to the digital transformation in general, and specifically in Internet Governance. The multi-stakeholder approach has been chosen since the Internet “involves the full involvement of all stakeholders, consensus-based decision-making and operating in an open, transparent and accountable manner” (Savage and McConnell 2015, p. 6). Research into Multi-Stakeholder Internet Governance has

280

C. Stötzel

been conducted amongst others by DeNardis and Raymond (2013), Savage and McConnell (2015) and Hofmann (2016). As a third argument, this paper states that the digital transformation enhances the ‘governor’s dilemma’, which “stems from the fact that no governor has the capabilities to govern single-handedly; all governors must rely on intermediaries.” (Abbott et al. 2019, p. 2). In the digital transformation, political decision-makers are more dependent than ever on competence and resources of intermediaries, simultaneously governance by hierarchy alone no longer works as levels increase and blur. In a novel approach, this paper will transfer the competence-control (CC) trade-off model (Abbott et al. 2019) to the digital transformation, especially to matters of Internet Governance (Chapter 3). Thereby, it will emphasize that a divergence of competence and control undermines the role of democratically legitimate governments in Internet Governance. Firstly, Chapter 2 will combine perspectives of democracy theory and governance, where each role of the three stakeholders in Internet Governance will be analysed. In Chapter 3, the competence-control (CC) trade-off model by Abbott et al. (2019) will be introduced and adjusted to Internet Governance in order to analyse how competence and control diverge between actors. Special emphasis will be put on goal divergence and power asymmetries between multistakeholders. The findings will be further discussed before coming to concluding remarks in Chapter 4.

2 Challenge: Democratic Governance of Multistakeholder in digital transformation Globalization and technological advances have brought significant transformations to the authority of national states: “Especially important here is the growth of non-state-centred-governance mechanisms which have transformed the meaning of national territorial sovereignty independently from whatever impact the Internet has so far had.” (Sassen 2000, p. 19 f.). The digital transformation has implications for the understanding of democracy as well as how it should be governed, and both concepts are closely linked together. Similarly, Pohle and Thiel (2019, p. 76) see “hope for democratization” in the consolidation of states’ sovereignty. Democracy is committed to a division of powers as a means of balancing interests of different stakeholders and recognizing the importance of collective intelligence (Helbing 2019, p. 127), which should likewise be pursued in the context of digitalization. While on the one hand democracy is shaped by the digital transformation itself, it also affects

Political Implications of the Digital Transformation – The Role of ...

281

its governance. For instance, calls for using digital technology in democratic processes grow louder: “[a] sophisticated model of Digital Democracy must be based on the concepts of co-creation, co-evolution and collective intelligence, enabled through the use of modern digital means” (Helbing and Klauser 2019, p. 162). Here, (digital) democracy and its correlation to governance logic of market become obvious, since co-creation and co-evolution likewise follow an economic logic. The correlation between democracy and governance in Internet Governance will be further discussed in the following.

2.1 Digital transformation calls for a combined perspective: Democracy and Governance As Bevir (2011, p. 2) emphasizes: “It [governance] replaces a focus on the formal institutions of states and governments with recognition of the diverse activities that often blur the boundary between state and society. Governance as theory and practice, and dilemma, highlights phenomena that are hybrid and multi-jurisdictional with plural stakeholders who come together in networks.“ Similarly, Mayntz concludes: “[…] ‘governance’ is now often used to indicate a new mode of governing that is distinct from the hierarchical control model, a more co-operative mode where state and nonstate actors participate in mixed public/private networks” (2003, p. 27). The prevailing governance modes therefore are hierarchy, market and networks. The interactions between these different actors in a variety of processes should be described with the term ‘governance’ instead of ‘regulation’ (Breindl 2019, p. 83), since “it denotes the coordination and regulation of interdependent actors in the absence of an overarching political authority” (Mueller 2010, p. 8). Governance hence aims at explaining the shifting role of states from merely hierarchical to network-like interactions with multi-stakeholders. Ultimately, it is crucial in understanding this shift in the context of the digital transformation: “The more we understand about the opportunities and weaknesses of governance models for the Internet (or anything else) the better equipped we are to effectively refine and amend those practices, functions and roles that comprise it.” (Carr 2015, p. 643) Not only the governance modes of hierarchy are shaped by the digital transformation (Government 4.0), but also the other two modes of market (Market 4.0) and networks (Network 4.0). All of them are closely linked, since markets likewise follow a network logic (as opposed to hierarchies) (Helbing 2019). Consequently, the state needs to establish its role in a new ecosystem and needs to choose which governance approach to use. In this digital eco-

282

C. Stötzel

system, new forms of competition between multi-stakeholders emerge while simultaneously calling for cooperation (so-called ‘co-opetition’). From the governance perspective of the market “this is reflected by the important roles that co-creation, co-evolution, and collective intelligence play in the now emerging digital economy.” (ibid., p. 128). Therefore, an inclusive approach is needed in order to actively shape the digital revolution. Not only inclusive in terms of including various disciplines (technical, political, cultural, etc.) but also within each discipline. From a political (science) perspective, the digital transformation emphasizes that both democracy and governance share normative components, which interrelations are important to note: The Internet prompts debate about the relative merit of standards versus rules, of pluralism versus solidarism, of security versus privacy. And perhaps most significantly, it prompts debate about the value of these (and other) binaries […] (Carr 2015, p. 640).

The Internet enhances the currently prevalent challenges of democracy, which aims at addressing these mentioned binaries. Additionally, terms like ‘democracy promotion’ and ‘Internet freedom’ are discussed similarly to multi-stakeholderism in Internet Governance (ibid., p. 641). Here, the links between (multi-stakeholder) governance and democracy become obvious. Hence, the question of how to govern this challenge arises. From a combined democracy and governance perspective, it is argued that taking a network approach to governing the Internet (rather than hierarchy and/or market) can strengthen democracy from the bottom up: The condition of the Internet as a decentralized network of networks has contributed to strong notions about its built-in autonomy from state power and its capacity to enhance democracy from the bottom up via a strengthening of both market dynamics and access by civil society. (Sassen 2000, p. 20).

Therefore, the digital transformation forces us to conceptualise democracy and governance in the context of one another: By promoting a certain governance model as most compatible with widely resonant norms like ‘freedom’, ‘privacy’, ‘democracy’, ‘equality’ and ‘political selfdetermination’, opposition to multi-stakeholderism becomes synonymous with opposition to those norms and leaves little room for alternative views. (Carr 2015, p. 642).

Political Implications of the Digital Transformation – The Role of ...

283

Helbing and Klauser share this perception: “So, instead of trying to revive governance principles of the past, which have failed to embrace the complexity and diversity of modern societies, we should engage in digitally upgrading democracy” (2019, p. 160). Carr adds “the necessity of thinking creatively about how to approach large technological shifts like the Information Age” (2015, p. 640). The challenge of shaping the digital transformation is the question of how to govern the Internet and respective actors while acting and respecting democratic norms. The various facets of the Internet require specific forms of cooperation between specific actors, each with its own specific competencies, resources and concerns, and thus specific forms of regulation (The Internet Society 2004, p. 266; Take 2013, p. 70). In Internet Governance, governmental and international actors compete with non-state actors, sometimes leaving power to private actors, sometimes seeking to regain control over the latter. In this respect, the Internet not only threatens to undermine established forms of governance (hierarchical decisions, majority decisions, intergovernmental negotiations), but at the same time to give greater prominence to new governance institutions and instruments (multi-stakeholder processes) (Haufler 2001, p. 82; Take 2013, p. 70). Therefore, Multi-stakeholder Governance in Internet Governance will be elaborated in the following chapter in order to understand each of the three multi-stakeholders’ roles (government, private sector and civil society) in the Information Age.

2.2 The Role of Multi-stakeholders in Internet Governance These processes, dealing with political implications of the digital transformation, such as Internet Governance, are shaped by multiple stakeholders (as already illustrated), with the state being one (arguably important) among many actors (see Fig. 1). The multitude of involved actors pursue different interests, norms and values, which has implications on democracy and governance in the digital age: “[N]o single set of actors actually seeks to control Governance as such, but each player pursues more focused goals in collaboration or competition with other actors” (Dutton and Peltu 2010, p. 395). Therefore, this is often described as a “multi-stakeholder-process” (Breindl 2019, p. 84). Additionally, Carr (2015, p. 648) contributes to the growing importance of multi-stakeholderism by emphasizing that “[t]he development of ideas about multi-stakeholderism as a progressive means of governance can be mapped onto a view of the world as interconnected and interdependent.” Therefore, “over the past decade, multi-

284

C. Stötzel

Fig. 1   Multi-Stakeholder Internet Governance (source: own illustration)

stakeholderism has become almost synonymous with global Internet governance.” (ibid., p. 641). Like the Internet itself, multi-stakeholderism follows a decentral and transnational logic. However, it is important to highlight that the multi-stakeholder approach as an Internet Governance format is not only directed at the global level above the states but also works within these states and allows there, too, the relationship of sovereign power and global networking (internal and external perspective) (Pohle and Thiel 2019, p. 73 f.). Here, also references to democracy become obvious. Multi-stakeholder initiatives potentially create new forms of transnational “stakeholder democracy” with a shift of policy authority to “public–private implementation networks” (Bäckstrand 2006a, p. 291; Hofmann 2016, p. 33). Stakeholder democracy, defined by Bäckstrand (2006b, p. 471) as “participatory, non-electoral and nonterritorial forms of democracy at the global level” addresses “the long-standing criticism of multilateral regulation, including its long chain of delegation, its

Political Implications of the Digital Transformation – The Role of ...

285

inherent problems of transparency and those of accountability […] with the expectation of a higher quality of policy outcomes.” (Hofmann 2016, p. 33). This follows a similar logic of democratic processes and decisions with pluralism at its core. Despite aiming at a decentral distribution of power in multi-stakeholder partnerships (MSP), power dynamics in such constellations in Internet Governance continue to revolve around ‘rule-makers’ and ‘rule-takers’ with government, private sector and civil society at the centre (Hoffmann et al. 2017, p. 1410; Carr 2015, p. 643). Following this criticism towards multistakerholderism is often used “to fix the shortcomings of multilateral regulation, and for democratising the transnational sphere“ (Hofmann 2016, p. 33). Carr (2015, p. 650) further asserts “[…], multi-stakeholder Internet governance serves largely to reinforce existing power relations rather than disrupt them.” Based on the debate around multi-stakeholderism in Internet Governance, the role of each of the three named actors in the digital world will hence be analysed in the following (see Fig. 1). Asserting the controversially debated role of the state in the digital transformation, as well as questionable roles of the private sector and civil organizations with regard to legitimacy and representation, the question of coordination between and governance of these three stakeholders arises. All of them need each other, but how can they use each other while ensuring democratic values? This paper argues that in order to actively shape the digital transformation, a democracy perspective needs to be enhanced by a governance perspective, especially a multi-stakeholder network perspective. From a multistakeholder perspective in Internet Governance, the decisive governance mode would be attributed to networks as a means to achieve coordination in case of agreement between the actors on respective issues. The interdependence of the three stakeholder’s forms networks (like the Internet itself), where centrally directed action or market governance alone cannot explain policymaking and other governance functions (Börzel 1998). On the contrary, network governance occurs, in which many separate, but interdependent, organisations interact and self-govern their actions through collective resources and interests (Rhodes 1997). On the one hand, less or no hierarchical control could enhance intermediary expertise and innovativeness: “To achieve the desired results, experts must be free to employ their knowledge, skills, and creativity, even if these lead in unanticipated directions” (Abbott et al. 2019, p. 7). With reference to the digital transformation, Helbing argues that digitalization “will be characterized by principles such as co-creation, co-evolution, collective intelligence, self-organization, and self-regulation. Coordination will be more important than control, and empowerment more important than power” (2019,

286

C. Stötzel

p. 220). Ultimately, beyond merely technical coordination, political implications arise, resulting in the importance of political coordination (Carr 2015).

2.2.1 The role of the governments When dealing with the regulation of the digital transformations, the role of the nation-state in comparison with further actors such as the private sector or civil society organizations is controversially debated. More precisely, since the World Summit on the Information Society (WSIS), the limited role of governments in coordinating the Internet and its technical infrastructure has evolved into one of the largest areas of conflict in Internet Governance (Pohle and Thiel 2019, p. 64). Furthermore, lines of debate revolving around “those who believe that the Internet undermines, or at least weakens, state authority and those who believe that it strengthens liberal democracy and thereby the liberal state” (Sassen 2000, p. 19). Hence, for some authors, the nation-state is the only legitimate actor capable of directly or indirectly regulating social behaviour in the digital space (i.e. Goldsmith and Wu 2006). For others, the state is only one in a multitude of competing actors in a new transnational system of order, i.e. Mueller 2010 (Breindl 2019, p. 91). The opposing positions of the national state in the digital era will be analysed according to perspectives in the reviewed literature4. PRO role of the state in the digital era Breindl (2019, p. 93) and Sassen (2000) assert that states alone cannot govern the Internet (as the here chosen technology) without the support of private actors (governance mode: market). However, this development has direct implications not only for governance, but also for democracy: […] simply leaving the Internet to its own evolution is not necessarily going to strengthen the forces of democracy […] it is misguided to think that leaving this evolution to the market is somehow going to ensure freedom and democracy” (Sassen 2000, p. 21).

Therefore, Sassen (2000) attributes an important role to the state in dealing with the regulation of the Internet. This is particularly because in a democratic system, the state is the only legitimate source of representation. In this model of governance, “states represent these varied norms and interests of their populations and work to promote and protect them from external influences.”

4No

claim of completeness.

Political Implications of the Digital Transformation – The Role of ...

287

(Carr 2015, p. 654). Hence, governments benefit from legitimacy generated by the representation of their citizens so that they exercise power as a result of this. None of the other actors (private sector and civil society) has this legitimation as their basis: Especially the private sector increasingly faces the challenge of legitimacy in the digital revolution and therefore exercises power regardless of their absence of legitimacy (ibid., p. 650). Knowledge and legitimate power of governments are important factors, since interdependencies between governments, the private sector and civil society exist in both directions: Not only do governments have to confront the expertise of the private sector from which he [de la Chapelle 2007] sees a sense of legitimacy emerge, but the private sector and civil society have to acknowledge the complex policy issues that arise from the expansion of Internet technology. (Carr 2015, p. 649).

This is one argument against claims that “the Internet made governments obsolete and that Internet-related issues should be the sole province of the private sector (via self-regulation) or the technical community” (de la Chapelle 2007, p. 260). De la Chapelle (2007) herby strengthens the role of governments in this constellation of forced collaboration, as opposed to critics who claim that the Internet made governments obsolete (Carr 2015). Additionally, Breindl (2019, p. 91) asserts that the prevailing view nowadays is that the state is only one actor, albeit an important one, among a variety of stakeholders interested in shaping the future of the Internet. Another argument in favour of the governments’ role in Internet Governance is the fact that national law and regulation are not only effective, and in particular legitimate means of order formation in the digital sphere, but also that they always were (Pohle and Thiel 2019, p. 67). Moreover, the authors (ibid., p. 68) see a return to norm-setting employing institutions legitimated by popular sovereignty as a result of the criticism towards the lack of democratic values in the rulemaking and enforcement in digital networking. CONTRA role of the state in the digital era On the contrary, however, perspectives concerning the diminishing role of governments in the Information Age is also attested in the reviewed literature. One argument is closely linked to the fact that many issues of the Internet extend beyond national borders and require concerted actions (Breindl 2019, p. 93). For Mueller (2010, p. 4), the Internet challenges the nation-state, because communication is at an unprecedented scale at a global level, while control is decentralized: “[d]ecision-making units over network operations are no longer closely aligned with political units”. In terms of technical capacity, governments

288

C. Stötzel

are dependent on non-state actors such as the private sector. Conclusively, this is one reason why there are positions against a central role of the state since “there is a persistent concern that involving states in Internet governance practices and processes will see the Internet mired in politics which would potentially undermine progress and innovation.” (Carr 2015, p. 652). Additionally, Bramann (2009) asserts profound changes in the functioning of the state and the government are pointed and triggered through digitalization (Breindl 2019, p. 93). The state’s capacity in dealing with “the rapid proliferation of digital networks and the growing digitalization of a broad array of economic activities” therefore still serves as a central question, especially about states’ sovereignty (Sassen 2000, p. 19). Here, Carr (2015, p. 642) adds that “governments show no significant signs of relinquishing their conventional hold on sovereign power” while “recognising that governments will continue to expect to promote their national interest in this context” (Carr 2015, p. 642). The state's role is not only perceived as its lack of capacity, but also as too much power for the state. Mueller and Wagner (2014) emphasize that many of the states that promote a sovereign view of the Internet in which governments should take the lead are newly independent, and nationalism is regarded as an important element of building social and political cohesion. Significantly, states that find it difficult to promote their national interest or sense of sovereignty in competition with the interests of other stakeholders bear the risk of “Internet sovereignty” (in which the Internet is regarded as an extension of sovereign space rather than a global sphere) as demonstrated to some extent already by autocratic states such as China and Iran (Carr 2015, p. 653; Breindl 2019, p. 92). An overarching dominant role of the state bares risks for democracy with the distribution of power as its core value. Considering both arguments, pro and contra, the role of the national state in governing the digital transformation, what is agreed upon in the reviewed literature is that the role of the state in the digital world is changing, both internally (processes, political system etc.) as well as externally (global level). Moreover, these processes become even more complex with the (inter-) dependence of states on the private sector. Therefore, existing concepts and theories must be reassessed and considered from a global perspective, while taking into account new forms of decision-making and the role of private actors (Breindl 2019; DeNardis 2013). From a practical institutional perspective, and in response to handling these challenges, new supranational institutions of Internet Governance have already emerged in addition to the established system of national states (ICANN, IGF) (Breindl 2019; Hofmann 2016). Their legitimacy, however, is questionable (i.e. Betz and Kübler 2013).

Political Implications of the Digital Transformation – The Role of ...

289

2.2.2 The role of the private sector As elaborated in the previous chapter, the role of the private sector in the digital revolution is different from the role of governments (Governance mode hierarchy vs. market). Economic actors are becoming increasingly important in the digital sphere, also in terms of regulating the Internet. However, concerning democracy, “the private sector faces real challenges to its legitimacy due to a lack of transparency and accountability in terms of representation.” (Carr 2015, p. 654). Here, the challenging role of the private sector as opposed to the role of governments becomes evident: “Unlike governments, neither the business community nor civil society has the ‘well-designed institutions or procedures’ (Mueller and Wagner 2008) necessary for appointing representatives that would be regarded globally as legitimate.” (ibid.) This applies to both national levels of governance, but also international levels of governance. Now, their execution of power can pose threats to democracy on various levels. Another factor worth considering when assessing the role of the private sector in digital transformation is the fact that the private sector in this context is dominated by US companies (Google, Amazon, Facebook, Microsoft etc.). Especially concerning developing new technologies, the United States and its Silicon Valley multinationals have a dominant position, creating dependencies of other countries: […] much of the work of developing the instruments through which the state can exercise this authority is dominated by a limited number of countries, and, in some respects, largely by the US, certainly until recently. This leaves most states in the world in the position of having to implement and enforce standards and property rights developed elsewhere if various digital networks in their countries are going to be connected to the Internet, which they mostly are already today (Sassen 2000, p. 29).

Additionally, (Carr 2015, p. 654) therefore argues that the private sector “can serve to aggregate rather than balance US government power”, which conclusively has influence on the other engaging governments as well (both democratic and autocratic). Therefore, the private sector in the digital world can have crucial impacts on global governments. Sassen (2000, p. 19) argues that “[…] it is the enormous growth of private digital networks – especially the case of the global financial markets – rather than the Internet, which is having the greater impact on national sovereignty and indeed transforming particular features of it.”

290

C. Stötzel

Opposed to governments, the private sector (by its very nature) is not aiming at incorporating democratic potentials, since they are “unelected, lacking in transparency and accountability (except to their shareholders)” (Carr 2015, p. 655). According to Padovani and Pavan (2007, p. 109), the private sector in the digital world prefers “non-publicly accessible ways to conduct their business in the Internet governance context” (governance logic: market). This needs to be carefully taken into consideration when analysing the digital transformation from a democratic and governance perspective, since thereby, the private sector can pose a threat to democracy: The greatest challenge comes from the lack of accountability built into many of the capabilities that can be deployed by powerful actors, be they private or governmental, in the pursuit of their interests. This gives such unaccountable actors the power to shape potentially key features of Internet use and access. (Sassen 2000, p. 29).

Similarly, Betz and Kübler (2013, p. 252) assert that Internet Governance is increasingly less in the responsibility of the elected and legitimate agencies within a state, but is often uncontrolled by the markets and the relevant economic forces. However, Carr (2015, p. 655) states that instead, the private sector can derive its somewhat lacking legitimacy in the context of Internet Governance from two alternative sources: expertise and alignment with civil society interests. Conclusively, the role of the private sector in Internet Governance is highly debated, and the legitimacy of actions remains questionable. The already mentioned role of civil society (organizations) will be further elaborated in the next section.

2.2.3 The role of the civil society Civil society5 Poses an interesting, yet challenging position in this multistakeholderism in the Information Age. The literature on the goals, structure and influence of these organizations in Internet Governance, for instance, is rather poor. Moreover, the role played by civil society organizations in discussing and reforming Internet Governance itself remains less understood (Betz and Kübler 2013, p. 92). Civil society can either be organized individually or corporative,

5The

role of national civil society organizations in Internet matters may vary between national states and also with regard to international action and respective international Internet organizations.

Political Implications of the Digital Transformation – The Role of ...

291

national or inter-/transnationally (Ritzi and Zierold 2019, p. 46). Although the World Summit on the Information Society (WSIS) defines civil society as equally important to the other stakeholders, civil society appears to be the least influential stakeholder in Internet Governance in comparison to the other two (Carr 2015, p. 650). The balance between governmental institutions, business associations and civil society organizations in the development of the Internet has shifted, with the result that the autonomous scope of civil society organizations began to shrink significantly (Betz and Kübler 2013, p. 91 f.): In the early years of developing the Internet, civil society was dominant, and the influence of governments was rather marginal. Technical experts defined the procedural standards, the private sector and scientific institutions applied them, and civil society organizations defended the interests of users (ibid.). However, with further development, nation-states and the established international organizations came forward with clear re-regulation intentions. Nonetheless, NGOs in Internet Governance are regaining influence since their amount and their networking has increased (ibid.). In some international organizations, non-state actors have been even granted institutionalized participation rights (i.e. in the Internet Governance Forum or ICANN). These were not only granted to them voluntarily, but to make decisions and make them more legitimate and to use the expertise of this civil society (ibid., p. 91 f.; Rittberger et al. 2010). It seems as if they have an important role in ensuring legitimacy, but their influence and power is controversial. Pohle and Thiel (2019, p. 75) emphasize that civil society institutions, for instance net political civil institutions and movements, are important to be included in order to understand the political, legal and technical networks as pluralistic counterinstitutions (not as complete counter-models) to democracy. This chapter has analysed the specific role of the multi-stakeholders in Internet Governance with relation to legitimacy. It has been shown that the role of each of the actors is highly debated, leading to the conclusion that their roles have been shifting with further development of the Internet. The private sector has a crucial role regarding Internet competencies (know-how and resources) with less to no legitimacy, while governments as (here democratically) elected leaders are rather in the position of controlling and ensuring the legitimacy of the action. Civil society organizations are important actors in terms of legitimacy, their influence in Internet Governance; however, seems to be the weaker force in comparison to the other two. Competence and control in Internet Governance, therefore seem to diverge, which will be analysed in more depth in the next chapter.

292

C. Stötzel

3 Governances dilemma: Competence-control trade-off in Multi-Stakeholder Governance After discussing the specific roles of each of the three stakeholder groups (governments, private sector and civil society), a deeper analysis of their competence and control needs to be elaborated in order to assess democratic legitimacy in Internet Governance. The challenge of governance and regulation in the digital world includes the question concerning a distribution of power between state, private and civil society actors and power asymmetries. Who has the competence of governing the Internet, who executes control, and who is the legitimate actor? It is to be discussed whether new (informal) forms of governance offer ‘weak actors’ new possibilities of influence or whether they continue to reflect prevailing power relations (Breindl 2019, p. 83). In a novel framework, it will be demonstrated that the dangers of state loss in favour of the private sector as the leading role in governing the digital world is at the risk of democratic legitimacy. For this purpose, the CC trade-off model (Abbott et al. 2019) will be adjusted to Internet Governance.

3.1 Competence-Control trade-off in Internet Governance and (democratic) legitimacy Under these conditions of increased complexity and plurality in the digital transformation, the diffusion of governing capacity from hierarchy to networks of public and private actors becomes increasingly important. According to Sørensen and Torfing (2005), this shift is necessary in order to improve the governability of ‘wicked problems’ that now characterise a postmodern society. These ‘wicked problems’ are also described as ‘governor’s dilemma’. This can be defined as “[…] a general consequence of the need for indirect governance. When governors use competent intermediaries, as they must, they give up some control – and the dilemma begins.” (Abbott et al. 2019, p. 13). Therefore, Abbott et al. (2019) have proposed a Competence-Control (CC) trade-off. It analyses this dilemma concerning four governance competencies (expertise, credibility, legitimacy, and operational capacity) in order to explain the control problems created by intermediary competence and the competence problems implied by governor control (ibid.). These competencies of expertise, credibility, legitimacy, and operational capacity are not only theoretical governance competencies, but also crucial competencies for successfully managing and governing the digital trans-

Political Implications of the Digital Transformation – The Role of ...

293

Fig. 2   Competence-Control-Trade-Off in Multi-Stakeholder Internet Governance (source: own illustration). Arrows indicate that a stakeholder provides competence to, executes control over, or gives legitimacy to another stakeholder. In the case of governments and the private sector, the extent of the latter relationship is debatable, as emphasized by the corresponding question mark

formation. In a novel approach, this paper adopts the CC to Internet Governance (see Fig. 2) and argues that there are discrepancies in these competencies in Internet Governance, especially between governments and the private sector. Legitimacy between these actors will also be discussed. Legitimacy between the private (tech) sector and governments is (the most) debatable. In the CC trade-off, the governor is illustrated by the state or rather governments. Intermediaries are here chosen to be private sector companies, especially tech companies, and civil society organizations (NGOs) because they possess “needed expertise, credibility, legitimacy, and/or operational capacity" (ibid., p. 8). However, it is questionable in what way ‘legitimacy’ is fitting

294

C. Stötzel

in this context. Often these intermediaries are external; governments rely on professional associations, engage private contractors and conduct policies through international organizations or NGOs to implement or monitor projects (ibid.). Here, the interwoven relationships between a multitude of stakeholders become obvious. If intermediaries such as the private sector incorporate competence in the digital transformation and therefore gain control, the question at hand is the role of governments. Competence deficits in the Information Age here can refer to information as well as financial and human resources. Therefore, there is an information and power asymmetry between a principal (here governmental institutions) and an agent6 (here tech companies) for the benefit of the latter: Highly competent intermediaries, in contrast, have greater leverage because they can create greater policy benefits – and cause greater harm – for the governor.[…] This problem stems not primarily from information asymmetry, but more fundamentally from the asymmetric dependence created by intermediary competence (Abbott et al. 2019, p. 9).

This puts governing institutions in a dilemma since they are dependent on the agent's capability, but they are not in a full set of information. Governors often assign technical policy decisions to expert bodies, such as independent regulatory agencies, to improve decision quality (Tallberg 2002; Pollack 2003; Hawkins et al. 2006; Abbott et al. 2019). Here, it is important to highlight that these competent intermediaries such as the private sector pose challenges, especially for. Governors, as competence undoubtedly is power. Conclusively, there is often a trade-off between intermediary competence and governor control: “Competent intermediaries are difficult to control because the competency-based policy benefits they provide (or withhold) give them leverage over the governor” (Abbott et al. 2019, p. 2). It is argued that “ […] governors that rely on intermediaries with extensive operational capacities (people, money, equipment, or organization) are forced to accept reduced control.” (ibid., p. 7) Private sector companies, especially tech companies, amount for these intermediaries with extensive operational capacities (see also Section 2). Therefore, “the key obstacle to control is imperfect information about agents’ intentions and actions, which the principal

6Similar to the Principal-Agent-Theory (see also Pratt and Zeckhauser 1985; Bendor et al. 2001).

Political Implications of the Digital Transformation – The Role of ...

295

cannot observe.” (ibid., p. 2). This puts the governor at a disadvantage, which inhibits him from executing control. If the governor limits its ability to remove or overrule expert intermediaries, he reduces its ability to control political drift and becomes an amateur trying to control an expert (ibid., p. 7). From a democratic perspective, this is likewise challenging since the governor is elected to execute in the will of its citizens with sanctions being one of his key instruments (see Chapter 2). Arguably, definitions of theses competencies and control differ. From a technical perspective, in terms of IT-knowhow with special reference to the Internet, the private sector assumingly possesses potencies in expertise and operational capacity. Varying across national systems, in more market-liberal economies such as the US, the private sector might possess a different form of credibility. Nevertheless, from a political governance perspective on competencies in Internet Governance, the competencies credibility and legitimacy would be attributed to governments, since they are the only democratically elected and legitimate actor (see also Section 2.2.1). Expertise and operational capability are complex, since both the private sector and government lack in these respective competencies when it comes to regulating the Internet (see also Section 2.2.2). For instance, Facebook seems (or pretends) to be overstrained in dealing with hate speech in political ads with Mark Zuckerberg stating: “Congressman, I think that depends on a bunch of specifics that I'm not familiar with this case and can't answer to.” (BBC 2019) Civil society organizations such as Amnesty International even assert that Google and Facebook are violating human rights with their business models (Deutsche Welle 21.11.2019). At this moment, NGOs demonstrate their role in executing control for ensuring the legitimacy of action (see Section 2.2.3). Protecting and ensuring human rights, however, is one of the core responsibilities of democratic states. At the same time, it becomes increasingly obvious that governments face challenges in controlling the protection of such rights in the digital sphere and against violations by private sector companies. Although the private sector exercises power, they face considerable legitimacy challenges (Carr 2015, p. 650). They, however, should be held accountable and show responsibility themselves as currently debated. Again, the power of tech companies becomes obvious (see also Section 2.2.2). However, governments likewise give the impression that they are reaching their limits. It seems to be almost impossible to control such violations of tech companies, and this poses a crucial challenge for Internet Governance: Restrictions by governments on the Internet is seen as a limitation of rights and freedom from a democratic perspective as opposed to autocratic states (Carr 2015, p. 653; Breindl 2019, p. 92). Not restricting the Internet and some of its

296

C. Stötzel

content (provided via tech companies) however can likewise be harmful. As can be explained with the CC trade-off model (Fig. 2) and Chapter 2, this creates a vicious circle in dealing with Internet Governance and its multi-stakeholders: Tech companies possess and execute technical knowledge and financial resources, while lacking regulative competence and control. Governments aim at ensuring control over Internet content in order to protect citizens from violations, but they likewise lack competencies. Competencies and control in this context likewise are sources of power and demonstrate goal divergence between the mentioned multistakeholders. However, goal divergence and power asymmetries are two factors fostering the CC trade-off.

3.2 Goal divergence of multi-stakeholders The risk of losing control for the governor increases with goal divergence between the governor and its intermediaries; thus, it implies possible conflict and control failure. Similar to the governor, intermediaries are actors with agency that pursue their own policy and institutional goals, including survival and independence (Miller 2005, p. 205): “If their goals diverge, however, there is potential for control loss. This is a particular problem where intermediaries possess operational power […].” (Abbott et al. 2019, p. 9). It is suggested in the literature, that “where a governor places a high priority on control, it may select less competent intermediaries or strengthen its hierarchical controls – even at the sacrifice of some policy benefits offered by orchestration, co-optation, and trusteeship” (ibid: 10). Assuming the digital transformation is such a field where the governor seeks high priority on control, this is challenging since both control options can be equally harmful for democracy. With increasing violations of privacy and unclear jurisdiction, the state is in a position of uncertainty in the digital transformation. Here the goals of the private sector (i.e. maximizing profit) strongly contradict data protection rights, privacy rights (and respective governments’ goals of ensuring them). With protecting and ensuring the wellbeing of its citizens, the democratic state therefore might seek the desire for strong control. Choosing less competent intermediaries in the Information Age would ensure its power, but at the same time might lead to less favourable decisions. For instance, if he chooses the second-best website designer, the state’s E-Government services might not work and be used properly, which would hinder citizen’s participation. As a second option “a governor can manage intermediaries' behaviour overtime in two general ways, with and without hierarchical controls” (ibid., p. 4).

Political Implications of the Digital Transformation – The Role of ...

297

The option of strengthening its hierarchical control bares even greater risks to democracy as elaborated in Chapter 2, since this could lead to rather autocratic decisions and processes and foster nationalism. The discussion about “with or without hierarchical controls” reminds of the Börzel and Risse (2010) model of governance with or without governance. Nevertheless, power and information asymmetries between stakeholders may still prevail and foster a competencecontrol trade-off.

3.3 Power and information asymmetries of multistakeholders In order to organize and enforce decision processes, the political system uses power (Luhmann 2000, p. 38–51). Closely connected to goal divergence, as a challenge for governors in dealing with the digital transformation, are asymmetries in power and information of the involved multi-stakeholders. In the digital transformation, governors are dependent on knowledge about digital technology from the private sector and tech companies. Given the assumption that any agent a principal selects will be (and remain) competent (Bendor et al. 2001), competence in the digital world is crucial for its development and implementation. Since the Internet (and other digital technologies) are power (Carr 2015), whoever has the competence, knowledge and information has power. Furthermore, these tensions between actors with less digital knowledge, and intermediaries with fuller knowledge, are also growing beyond the borders of a national state, as both the Internet and transnational tech companies work on a global level: “However, tensions over the global governance of the Internet are intensifying as actors have come to recognise the power associated with it […]” (ibid., p. 643 f.). Thus, the governor faces a dilemma: his emphasizing control limits intermediary competence and risks policy failure since it erodes intermediaries’ competencies or constrains their development; his emphasizing intermediary competence risks control failure (Abbott et al. 2019). This trade-off demonstrates that indirect governance is not purely informational: Even with perfect information, indirect governance remains challenging for the governor, since better information does not eliminate the dilemma (ibid., p. 14). Moreover, a scenario of perfect information is far from realistic, especially with regard to the ever-changing digital technologies. This poses a great challenge for the governor, who aims at control following a hierarchical logic.

298

C. Stötzel

4 Discussion and conclusion Digital technologies like the Internet emphasise increasing interdependencies between stakeholders on various levels and decision-making processes. In the current Information Age, the world gets increasingly interwoven and changes constantly. This poses challenges for political actors since uncertainty increases. It has been illustrated that the three stakeholders (governments, private sector and civil society) involved in shaping the digital transformation pursue different interests in complex power dynamics and therefore face the challenge of goal divergence. For instance, while private companies pursue the goal of profit maximization, governments are keen on ensuring democratic principles. In shaping the digital transformation, arguments for a dominant role of the private sector can be found, threatening governmental decision-making (see Chapter 2). The necessity to rethink governance in the Information Age becomes obvious. It has been shown that governments alone cannot govern the Internet (i.e. Breindl 2019; Sassen 2000). Therefore, the digital transformation forces states to shift their action from merely hierarchical governance to a rather network governance with regard to collaboration with other stakeholders. Therefore, cooperation is difficult to achieve since agreement and consensus between the actors is his hindered by goal divergence, (information) asymmetries and power relations. Arguments pro and contra the role of governments in the digital transformation have been shown (Section 2.2.1). Some argue that the state is and will be the decisive force. Others have illustrated that the state increasingly loses its capacity since its hierarchical operation encounters its limits. Governments face the challenge of the competence-control trade-off proposed by Abbot et al. (2019): If they give up control, intermediaries like the private sector will execute the action (Chapter 3). This is problematic for democratic states, where governments are the only legitimate and accountable instance (i.e. Breindl 2019; Pohle and Thiel 2019). It should be noted that governments need to carefully consider their relationship with the private sector in the digital world (see Section 2.2.2). The dominance of US multinationals not only affects the governance mode of the market, but also of hierarchy since states are equally dependent on US knowhow, resources and therefore power (Carr 2015; Sassen 2000). If other democratic states aim at shaping the digital transformation according to their interests and citizen’s needs, they need to find and secure their role in order to ensure democracy. However, too much power of governments can be equally dangerous for democratic principles, such as in terms of misuse of power in controlling

Political Implications of the Digital Transformation – The Role of ...

299

the Internet (see Section 2.2.1). Moreover, it has been shown when applying the CC trade-off model to Internet Governance, factors such as goal divergence and power asymmetries of involved governmental and non-governmental actors can deliver insights into the struggling role of governments in dealing with governing the Internet (see Chapter 3). This is especially relevant for democratic states aiming at ensuring legitimacy. If governments need to accept reduced control in the digital transformation, this endangers democratic legitimation. Consequently, some form of coordination of actors could be an instrument for balancing competence, control and legitimacy. Arguably, such issues requiring cooperation and collaboration of actors like the digital transformation are more likely to be pursued by states in networked, non-hierarchical governance arrangements. Nevertheless, where interests diverge too significantly, either supranational or hierarchical arrangements are more likely to be used (Kahler and Lake 2009; Carr 2015, p. 644). In that sense, actors would prefer a multi-stakeholder model of Internet Governance because they regard that model as most likely to promote their own interests (Carr 2015, p. 644 f.). This paper emphasizes that a multi-stakeholdergovernance in Internet Governance could be discussed more intensely. Multistakeholder-governance can recognize and accommodate the multitude of the various actors in Internet Governance more effectively since it includes a diverse range of actors in the decision-making process, allowing the optimum utilisation of expertise (Carr 2015). Moreover, in multi-stakeholder settings “[T]here is no clear centre of power; rather, power is located in multiple stakeholders” (Calton and Kurland 1996, p. 170). Multi-stakeholder partnerships are one form, often used synonymously, of multi-stakeholder governance. Beisheim and Simon (2016) distinguish between three forms of MSPs for implementing the Agenda 2030: MSPs for sharing knowledge, MSPs for providing services, MSPs for setting standards. These forms could likewise be transferred to the digital technology sphere, where the three actors could pool their technical, political and social know-how; collaborate for providing services (such as E-Government services) or MSPs for setting standards (binding or non-binding rules in the Internet). Primarily, the legitimacy of democratic states needs to be ensured. One proposed solution for the competence-control trade-off and information/power asymmetries is to focus on indirect governance. Multi-stakeholderism in Internet Governance can be one approach (Chapter 2). The advantage of multi-stakeholder governance in the digital transformation is that it provides the opportunity of collaboration between all actors involved and effectively using each other's competencies and capacities: The government ensuring citizen's rights and law enforcement, the private sector with technical knowhow and resources, and

300

C. Stötzel

civil society as an advocate of citizens and counterbalance (see Section 2.2.3). Since multi-stakeholderism in Internet Governance is often used with similar importance to democracy (Carr 2015; Sassen 2000) this paper underlines their relation and important interdependencies. The digital transformation with its complexity and interdependencies creates a dilemma, especially from a democratic perspective. It has contributed to the discussion concerning existing approaches, specifically that neither democracy theory nor governance alone deliver solutions for shaping the governance of the Internet. New approaches are needed in order to overcome the discussed CC trade-off and governance dilemma (Chapter 3). Moreover, it has been emphasized that Internet Governance is an international challenge that exceeds beyond national boundaries. Therefore, multiple levels have to be addressed, and further emergence and a possible importance of supra-national institutions need further analysis. In this paper, the national level of Internet Governance has been addressed in particular. This article noted governments' role will still be decisive for governing the Internet and its externalities, both within the limits and responsibility of the nation-state as well as on global levels. As shown, information asymmetries, power struggles and goal divergence of involved actors are difficult to solve. Nonetheless, in order to ensure democratic principles when dealing with Internet Governance, we need legitimate (legitimately elected) governments to act on it. Further research needs to be conducted into how to overcome this governor’s dilemma in Internet Governance with regard to competence and control. Moreover, the role of legitimacy in actor multi-stakeholder constellations of Internet Governance needs to be discussed further. Goal divergence and power asymmetries between governmental and nongovernmental actors have always been a critical issue, but it seems these tensions are intensifying in the digital transformation and need to be addressed. Modes of cooperation between the multi-stakeholders in Internet Governance need to be further elaborated – ideally including governmental, private (tech) sector and civil society perspectives.

Literatur- und Quellenverzeichnis Abbott, Kenneth W., Philipp Genschel, Duncan Snidal, and Bernhard Zangl. 2019. Competence versus control: The Governor’s Dilemma. Regulation and Governance, 1–18. https://doi.org/10.1111/rego.12234.

Political Implications of the Digital Transformation – The Role of ...

301

Bäckstrand, Karin. 2006a. Multi-stakeholder partnerships for sustainable development: Rethinking legitimacy Accountability and Effectiveness. European Environment 16 (5): 290–306. https://doi.org/10.1002/eet.425. Bäckstrand, Karin. 2006b. “Democratizing global environmental governance? Stakeholder democracy after the world summit on sustainable development. European Journal of International Relations 12 (4): 467–498. https://doi.org/10.1177/1354066106069321. BBC. 24.10.2019. https://www.bbc.com/news/technology-50152062. Accessed: 22. Nov. 2019. Beisheim, Marianne and Nils Simon. 2016. Multi-Stakeholder Partnerships for Implementing the 2030 Agenda: Improving Accountability and Transparency. SWP Stiftung Wissenschaft und Politik German Institute for International and Security Affairs.", 1–33. https://millionvoices-data.worldwewant2015.org/. Bendor, Jonathan, Amihai Glazer, und Thomas H. Hammond. 2001. Theories of delegation. American Review of Political Science 4: 235–269. Betz, Joachim, und Hans-Dieter. Kübler. 2013. Internet Governance. Wer regiert wie das Internet? Wiesbaden: Springer VS. Börzel, Tanja. 1998. Organising Babylon: On the different conceptions of policy networks. Public Administration 76 (2): 253–273. Börzel, Tanja, und Thomas Risse. 2010. Governance without a state: Can it work? Regulation & Governance 4: 113–134. Bevir, Mark, Hrsg. 2011. The SAGE handbook of Governance. Berkeley: University of California. Braman, Sandra. 2009. Change of state: Information, policy, and power. Cambridge: MIT Press. Brassett, James, und Eleni Tsingou. 2011. The politics of legitimate global governance. Review of International Political Economy 18 (1): 1–16. Breindl, Yana. 2019. Internet Governance: Von der Selbstregulierung zu hybriden Regulierungsmodellen. In Netzpolitik: ein einführender Überblick, Hrsg. Andreas Busch, Yana Breindl, und Tobias Jakobi. Wiesbaden: Springer VS. Busch, Andreas. 2017. Netzzensur in Liberalen Demokratien. In Demokratie, Diktatur, Gerechtigkeit, 331–352. Wiesbaden: Springer VS. Busch, Andreas, Yana Breindl, und Tobias Jakobi. 2019. Netzpolitik: Ein Einführender Überblick. Wiesbaden: Springer VS. Calton, Jerry M., und Nancy B. Kurland. 1996. A theory of stakeholder enabling: Giving voice to an emerging postmodern praxis of organizational discourse. In Postmodern management and organization theory, Hrsg. David Boje, Robert Gephart, und Tojo Thatchenkery, 154–177. Thousand Oaks: SAGE. Carr, Madeline. 2015. Power plays in global internet Governance. Millennium: Journal of International Studies 43 (2): 640–659. Deutsche Welle. 21.11.2019. Amnesty: Google und Facebook verletzen Menschenrechte“. https://www.dw.com/de/amnesty-google-und-facebook-verletzen-menschenrechte/a-51342447. Accessed: 22. Nov. 2019. DeNardis, Laura. 2013. The Emerging field of Internet Governance. In The Oxford Handbook of Internet Studies, Hrsg. William H. Dutton, 555–575. Oxford: Oxford University Press.

302

C. Stötzel

DeNardis, Laura and Raymond, Mark. 2013. Thinking clearly about multistakeholder internet Governance. GigaNet: Global Internet Governance Academic Network, Annual Symposium 2013. Available at SSRN: https://ssrn.com/abstract=2354377 or https://doi. org/10.2139/ssrn.2354377. Dunleavy, Patrick, Helen Margetts, Jane Tinkler, und Simon Bastow. 2006. Digital Era Governance: IT corporations, the state, and E-Government. Oxford: Oxford University Press. Dutton, William H., und Malcolm Peltu. 2010. The new politics of the internet. Multistakeholder policy-making and the internet technocracy. In Routledge Handbook of internet politics, Hrsg. Andrew Chadwick und Philip N. Howard, 384–400. NewYork: Routledge. van Eeten, Michel J.G., und Milton Mueller. 2013. Where is the Governance in internet Governance? New Media and Society 15 (5): 720–736. Goldsmith, Jack, und Tim Wu. 2006. Who controls the internet? Illusions of a Borderless World. Oxford: Oxford University Press. Hague, Barry N., und Brian Loade. 1999. Digital democracy: Discourse and decision making in the information age. London and New York: Routledge. Haufler, Virginia. 2001. A public role for the private sector. Industry self-regulation in a global economy. Washington, D.C.: Carnegie Endowment for International Peace. Hawkins, Darren, David Lake, Daniel Nielson, und Michael Tierney (Hrsg.). 2006. Delegation and agency in international organizations. Cambridge: Cambridge University Press. Helbing, Dirk. 2019. Why we need democracy 2.0 and capitalism 2.0 to Survive. In Towards digital enlightenment: Essays on the dark and light sides of the digital revolution, Hrsg. D. Helbing, 121–156. Cham: Springer International Publishing AG. Helbing, Dirk, und Stefan Klauser. 2019. How to make democracy work in the digital age. In Towards digital enlightenment, Hrsg. Dirk Helbing. Cham: Springer International Publishing AG. Hofmann, Jeanette. 2016. Multi-Stakeholderism in Internet Governance: Putting a fiction into practice. Journal of Cyber Policy 1(1):29–49. http://www.tandfonline.com/doi/ full/https://doi.org/10.1080/23738871.2016.1158303. Hofmann, Jeanette. 2005. Internet Governance: Zwischen Staatlicher Autorität. Internationale Politik und Gesellschaft 3: 10–29. Hofmann, Jeanette, Christian Katzenbach, und Kirsten Gollatz. 2017. Between coordination and regulation: Finding the Governance in internet Governance. New Media and Society 19 (9): 1406–1423. Margetts, Helen, und Patrick Dunleavy. 2013. The second wave of digital-era Governance : A Quasi-Paradigm for Government on the web subject areas . Philosophical transactions of the Royal Society 371: 1–17. Mayntz, Renate. 2003. New challenges to Governance theory. In Governance as social and political communication, Hrsg. H. Band, 27–40. Manchester: Manchester University Press. Luhmann, Niklas. 2000. Die Politik der Gesellschaft. Frankfurt a. M.: Suhrkamp. Miller, Gary J. 2005. The political evolution of principal-agent models. Annual Review of Political Science 8: 203–225.

Political Implications of the Digital Transformation – The Role of ...

303

Mueller, Milton and Ben Wagner. 2014. ‘Finding a Formula for Brazil: Representation and Legitimacy in Internet Governance’, Center for Global Communication Studies, Annenberg School for Communication. https://www.global.asc.upenn.edu/fileLibrary/PDFs/ MiltonBenWPdraft_Final.pdf. Mueller, Milton. 2010. Networks and states: The global politics of internet Governance, Information Revolution and Global Politics Series. Cambridge: The MIT Press. Kahler, Miles, und David Lake. 2009. Economic integration and global Governance: Why so little supranationalism? In The Politics of Global Regulation, Hrsg. Walter Mattli und Ngaire Woods. Princeton: Princeton University Press. Padovani, Claudia, und Elena Pavan. 2007. Diversity reconsidered in a global multi-stakeholder environment: Insights from the online world’. In The power of ideas: Internet Governance in a global multi-stakeholder environment, Hrsg. Wolfgang Kleinwachter. Berlin: Marketing for Deutschland GmbH. Pohle, Julia, und Thorsten Thiel. 2019. Digitale Vernetzung und Souveränität: Genealogie eines Spannungsverhältnisses. In Internet und Staat. Perspektiven auf eine komplizierte Beziehung, Hrsg. Isabelle Borucki und Wolf J. Schünemann, 57–80. Nomos: BadenBaden. Pollack, Mark A. 2003. The engines of European integration: Delegation, agency and agenda setting in the EU. New York: OUP. Pratt, John W., und Richard Zeckhauser (Hrsg.). 1985. Principals and agents: The structure of business. Boston: Harvard Business School Press. Rhodes, Rod A.W. 1997. Understanding governance: Policy networks, governance, reflexivity and accountability. Buckingham: Open University Press. Rittberger, Volker, Andreas Kruck, und Anne Romund. 2010. Grundzüge der Weltpolitik. Theorie und Empirie des Weltregierens. Wiesbaden: VS Verlag. Ritzi, Claudia, und Alexandra Zierold. 2019. Souveränität unter den Bedingungen der Digitalisierung. In Internet und Staat. Perspektiven auf eine komplizierte Beziehung, Hrsg. Isabelle Borucki und Wolf J. Schünemann, 35–56. Nomos: Baden-Baden. Sassen, Saskia. 2000. Digital networks and the state. Theory, Culture & Society 17 (4): 19–33. Savage, John E., and Bruce W. McConnell. 2015. Exploring Multi-Stakeholder Internet Governance. https://www.files.ethz.ch/isn/188305/governance.pdf. Scharpf, Fritz W. 1999. Regieren in Europa. Effektiv und demokratisch? Frankfurt a. M.: Campus. Schneller, Robin. 2018. Internet Governance: Zur Regierbarkeit Des Internets. In Recht & Netz, Hamburger Schriften zum Medien-, Urheber- und Telekommunikationsrecht Hrsg., Marion Albers und Ioannis Katsivelas, Bd. 12, 343–74. Baden-Baden: Nomos. https:// doi.org/https://doi.org/10.5771/9783845293288-1. Sørensen, Eva, und Jacob Torfing. 2005. The democratic anchorage of governance networks. Scandinavian Political Studies 28 (3): 195–218. Take, Ingo. 2013. Globales Regieren auf dem Prüfstand. Nicht demokratisch aber legitim? Baden-Baden: Nomos. Jonas, Tallberg. 2002. Delegation to supranational institutions: Why, how, and with what consequences? West European Politics 25: 23–46. The Internet Society. 2004. News from the internet society: Developing the potential of the internet through coordination, not Governance. EPIC, 266.

304

C. Stötzel

TWI2050. 2018. Transformations to achieve the sustainable development goals. Laxenburg: International Institute for Applied Systems Analysis (IIASA). https://pure. iiasa.ac.at/15347. Weber, Max. 1980. Wirtschaft und Gesellschaft. Grundriß der verstehenden Soziologie, (5.ed..) Tübingen. [Original: Tübingen: Mohr 1922]. Zohlnhöfer, Reimut. 2008. Stand und Perspektiven der vergleichenden Staatstätigkeitsforschung. In Die Zukunft der Policy-Forschung, Hrsg. Frank Janning und Katrin Toens, 157–174. Wiesbaden: VS Verlag. Zürn, Michael. 1998. Regieren jenseits des Nationalstaates Globalisierung und Denationalisierung als Chance, 177–200. Frankfurt a. M.: Suhrkamp.

Digitale Profile, Reputation Scoring und Social Credits am Beispiel von Chinas National Credit Management System Paul F. Langer 1 Einleitung Es gibt viele Gründe warum sich Individuen pro-sozial, also der Gesellschaft förderlich verhalten. Neben individuell-moralischen Abwägungen und bewusstem oder unbewusstem Befolgen bestehender Konventionen, wird pro-soziales Verhalten insbesondere durch ein komplexes gesellschaftliches Anreizsystem erklärt: Meist ist es die positive Resonanz aus der Erfüllung von Erwartungen und dem entsprechenden Respektieren von Werten, kulturellen Institutionen, religiösen Pflichten, usw.. Oder es ist die Furcht vor individueller oder gesellschaftlicher Abwertung, die eine Person erfährt, wenn sie in Konfrontation mit ihrer sozialen Umgebung geht. Sicherlich ist auch der gegebene Rechtsrahmen ein weiterer wichtiger Faktor zum gesellschaftskonformen Handeln, der schließlich dazu aufgebaut wurde, um Menschen anzuleiten, sich im Interesse der Gemeinschaft zu verhalten. Mit der Digitalisierung verändert sich dieses komplexe, oft historisch gewachsene Anreizsystem nachhaltig. Formelle und informelle Einflüsse, welche heute zum großen Teil auf individueller Reflexion und moralischer Abwägung basieren, werden durch Belohnungssysteme ergänzt, beeinflusst oder ersetzt, die auf digitalen Technologien basieren oder zumindest über das Internet kommuniziert werden. Im Kontext des Internets lässt sich erkennen, dass insbesondere der Einfluss auf öffentliche Anerkennung, bzw. die Bewertung der eigenen Person, immer wichtiger für das eigene Handeln wird. Reputation, als eine abstrakte von der sozialen Umwelt zugeschriebene Anerkennungsbewertung, war schon immer einer der stärksten Anreize für P. F. Langer (*)  Universität Speyer, Mannheim, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_15

305

306

P. F. Langer

entsprechendes Verhalten. Im Kontext der Digitalisierung wird diese Bewertung zunehmend im Internet ersichtlich: Die Zahl der Follower, die Veröffentlichungen, der berufliche Werdegang, die aktuelle Position, die Benennung oder Verlinkung auf wichtige Seiten, etc.. Dabei wird die Reputation eines Menschen weitgehend über ein Bündel von Faktoren individuell bestimmt. Faktoren wie Freundlichkeit, Fleiß, Hilfsbereitschaft, Bedeutung, Autorität etc. werden meist aus verschiedenen Eindrücken bestimmt und aus diesen vielfältigen Faktoren wird eine Art generelle Anerkennung für eine Person abgeleitet. Weder ist diese Art von Reputation allgemeingültig, nachhaltig noch eindeutig. Darüber hinaus ist kaum einer dieser Faktoren – noch die Reputation selbst – ohne weiteres quantifizierbar. Im Kontext der Digitalisierung gibt es jedoch Anzeichen dafür, dass die abstrakte Größe von zugeschriebener Reputation gemessen werden kann. Daten aus sozialen Medien lassen es zu, ausführliche Personenprofile abzuleiten. In China wird zudem ein staatliches digitales Register eingeführt, das die Reputation von Menschen anhand ihres Verhaltens quantifiziert und damit aus Sicht des chinesischen Staates eine allgemeingültige und öffentlich einsehbare Kennzahl für die soziale Qualität eines jeden/r Bürgers/in darstellt. Vor diesem Hintergrund werden in den folgenden Abschnitten verschiedene Perspektiven auf das Konzept der Reputation und seiner Bedeutung für prosoziales Verhalten im Kontext der Digitalisierung betrachtet. Dazu werden zunächst relevante Teilkonzepte vorgestellt und die Mechanismen eines staatlichen Social Credit Systems diskutiert. Zunächst wird in Abschn. 1 darauf eingegangen, wie mit der Digitalisierung ein Prozess des Vermessens der Realität einhergeht und damit auch die Möglichkeit besteht, detaillierte Charakterbeschreibungen abzuleiten. Anschließend wird in Abschn. 2 die Reputation an sich und ihr inhärenter Wert näher betrachtet und das Konzept des ReputationScorings vorgestellt. Um die Grundgedanken der chinesischen Politik verstehen zu können, werden in Abschn. 3 die Idee des Social Engineerings kurz dargestellt und schließlich in Abschn. 4 die Pläne des chinesischen Ansatzes eines Social Credit Systems vorgestellt und diskutiert. Zum Abschluss wird in Abschn. 5 das Konzept der Social Credit Systeme im Allgemeinen diskutiert und erwartbare Auswirkungen auf das gesellschaftliche Anreizsystem abgeleitet.

2 Digitale Profile Die digitale Transformation, die heute auf nahezu alle Bereiche des täglichen Lebens Einfluss nimmt, ist zu einem großen Teil darauf ausgelegt, dass möglichst alle Elemente der Umgebung gemessen werden. Mit dem Konzept des

Digitale Profile, Reputation Scoring und Social Credits …

307

Internets-der-Dinge (Internet of Things/IoT), also der Etablierung und Vernetzung von Sensoren, die in einer Vielzahl von Gegenständen eingebettet sind, wird die physische Umgebungsrealität immer direkter mit der digitalen Welt verbunden. Darüber hinaus ist der Mensch als zentraler Akteur dieser Welt ein entscheidender Faktor, der immer stärker in den Fokus gerückt wird. Die Digitalisierung basiert damit zum großen Teil auf dem Quantifizieren unserer Umwelt und sozialen Realität. Es geht nicht zuletzt auch um eine Vermessung von Empfindungen, Gedanken und Tätigkeiten der Menschen (Hofstetter 2018, S. 139 f.). Diese Art Messungen sind sich mithilfe von Sensoren möglich. Allerdings ist es meist erst ein Kombinieren von Daten, das ein Gesamtbild einer Tätigkeit erschaffen kann. Beispielsweise lässt sich aus einzelnen GPS-Daten eines Smartphones noch nicht schließen, dass diese den Wohnort des SmartphoneBesitzers angeben. Wird jedoch aufgezeichnet, dass sich die Person von abends bis morgens über viele Tage hinweg dort aufhält, so liegt die Vermutung nahe, dass dort ein Wohnort jener Person liegt. Somit ist es die Verknüpfung des Zeitpunkts mit dem Ort, der Aufschluss zu einer Person ermöglicht. Neben Zeit und Ortsdaten von Mobiltelefonen hinterlassen viele Menschen seit Jahrzehnten Spuren im Internet, welche viel über Gedanken, Meinungen und Gefühle aussagen können, wenn man sie mit einzelnen Personen verknüpfen kann. Selbst die schlichte Bereitstellung von Informationen von Textinhalten, wie es im Internet der 1990er Jahre Standard war, ist eine maschinell auswertbare Information. Auch sie kann vermessen werden – in Form von Metadaten (Zeit und Ort bzw. IP-Adresse der Erstellung, die Sprache, der Urheber) oder auch inhaltlich (welche Worte wurden verwendet, welche Sinne lassen sich von Algorithmen erkennen, etc.). Ob die Bewertung freiwillig und bewusst oder unfreiwillig und unbewusst stattfindet verändert nicht die Tatsache, dass am Ende eine Vermessung stattfinden kann, wenn die Daten im Internet bereitgestellt werden (Mau 2017, S. 40 ff.). Selbst kleinere Drehtüren, Fahrkartenautomaten, offenes WLAN etc. zeichnen heute Daten zur Nutzung und zu NutzerInnen auf, die den Anbietern allein oder in aggregierter Form auf kurze oder lange Sicht Muster offenlegen. Durch die Verwendung statistischer Methoden, meist automatisiert durch entsprechende Algorithmen, können Muster oder Korrelationen in großen Datenmengen erkannt werden. Wenn diese Muster oder Korrelationen zur Identifizierung oder Darstellung von Personen verwendet werden, geht dies mit einer Erstellung eines Steckbriefes zu betroffenen Personen einher. Die Erstellung einer Datensammlung zu einer Person, mit dem Ziel Charaktereigenschaften zu verstehen und potenziell auch Denk- und Entscheidungsmuster abzuleiten, wird Profiling genannt. Anders als bei der Erörterung von Profilierungstechnologien oder der Erstellung von Bevölkerungsprofilen geht es beim Profiling in diesem

308

P. F. Langer

Sinne nicht nur um die Erstellung von Steckbriefen für eine spezifische Person, sondern auch um die Auslesung von Mustern, welche Aktivitäten wie zu deuten sind. Somit kommt es auch zur Ableitung von Eigenschaften identifizierter Gruppen auf Einzelpersonen, wie z. B. bei Kreditwürdigkeitsprüfungen, Preisdiskriminierungen oder der Ermittlung von Sicherheitsrisiken (Hildebrandt und Gutwirth 2008). Mit Social-Media Accounts und anderen Online-Benutzerkonten wird ein digitales Profil durch die Nutzer meist gezielt aufgesetzt, um durch entsprechende nutzerorientierte Dienste (personenangepasste News-Inhalte, interessensangepasste Werbung, etc.) einen Vorteil zu generieren. Die in den NutzerAccounts angelegten Daten sind allerdings meist nur ein kleiner Teil dessen, was viele internetbasierte Profile ausmachen. Daten zur Nutzung also beispielsweise mit wem man befreundet ist, welche Likes man setzt, was man postet, was man anklickt, wo und wann man online ist etc. erlauben es, ein wesentlich genaueres Bild über Personen zu zeichnen als es mit den vergleichsweise einfachen Daten möglich wäre, die durch Anmeldungsformulare gesammelt werden können. Dabei sind auch Personen einbezogen, die selbst gar nicht auf den jeweiligen Plattformen aktiv sind: Über sie wird geschrieben, sie werden fotografiert oder es ist durch die Aktivität klar, dass es weitere Personen geben muss. Anhand der digitalen Profile, die aus den verschiedenen Daten gezeichnet werden können, lassen sich schon heute mit hoher Wahrscheinlichkeit auch Aspekte des Charakters darstellen, die nicht Teil des Datensatzes sind. So kann beispielsweise aus dem Freundeskreis, dem Wohnort und der Qualität der geposteten Smartphone-Bilder relativ präzise das Einkommen von Personen geschätzt werden. Dies trifft auch auf die politische Einstellung, sexuelle Orientierung, Essgewohnheiten, etc. zu. Wichtiger Bestandteil des Profilings ist somit die Extrapolation von Informationen über etwas oder jemanden, basierend auf bekannten Eigenschaften. Schließlich sind entsprechende Systeme, wenn eine Bündelung von Daten ermöglicht wird, auch in der Lage, pro-soziale oder auch weniger soziale Verhaltensweisen zu vermuten. Allein das Bewusstsein zur Existenz dieses Profilings kann bereits heute zu einer Anpassung der Wirklichkeit an die entsprechenden Zahlen und Fakten führen. Aus dem faktischen Abbild der Realität kann schnell eine Re-Kreation der Realität werden. „Assessment measures permit the easy conflation of what is with what ought to be, of what normal is in the statistical and moral sense.“ (Espeland und Sauder 2007, S. 36). Die Messung und die daraus abgeleitete Bewertung von Personen kann schnell zum Standard werden, an den sich Andere anpassen: Ein System der offengelegten Abweichung von gemessener Normalität eines digitalen Profiles kann Druck auf jene Personen ausüben, deren Werte von dem

Digitale Profile, Reputation Scoring und Social Credits …

309

vermeintlichen Standard abweichen. Im Kontext einer liberalen demokratisch geprägten Gesellschaft, deren politische Entscheidungsprozesse von Pluralität und Diskurs profitieren, ist eine potenzielle Konvergenz heikel. Darüber hinaus richtet ein solches Profiling den Fokus der Menschen auf das Messbare aus. Dies kann teilweise auch im Bildungskontext erkannt werden, in dem Performance-Bewertungen Teil des Anreizsystems sind, Personen zu besseren Leistungen zu bewegen. Latente Konstrukte wie Allgemeinwissen, Sprachvermögen, etc. werden in der Schule anhand von Klausurfragen operationalisiert und entsprechend gemessen. Da nicht nur Schüler, sondern oft auch Lehrer am Erfolg der Klausuren gemessen werden, ist der Trend des „teaching to the test“ zu beobachten, der beschreibt, dass vonseiten der Lehrer oder der Schule oft nicht mehr grundsätzliches Wissen und allgemeine Kompetenzen aufgebaut werden, sondern vielmehr der Schwerpunkt der Arbeit das gute Abschneiden bei der Leistungsbewertung ist (McNeil und Valenzuela 2001, S. 16). Betrachtet man die Tatsache, dass digitale Profile sich ausschließlich auf messbare Faktoren beziehen, die als Indikator für die Ausprägung von Charaktereigenschaften dienen, so lässt sich analog zum Schulkontext vermuten, dass diese messbaren Indikatoren stärker in den Fokus rücken und die tatsächlichen Charakterzüge, die durch die Indikatoren gemessen werden sollen, gleichzeitig weniger relevant werden. Geht es beispielsweise um allgemeine Werte wie Freundlichkeit, Moral oder Wissen als wünschenswerte Eigenschaften, so gibt es heute schon messbare Indikatoren im Internet, wie die Anzahl der FacebookFreunde (Freundlichkeit), die NGO-bezogenen Aktivitäten im Internet, das Unterstützen entsprechender Petitionen (Moral) oder das Anklicken wissenschaftlicher Publikationen (Wissen). Diese Indikatoren können und werden schon heute durch entsprechende Aktivitäten beeinflusst, um erstrebte Wahrnehmung von anderen zu generieren. Der Versuch, sich in der Öffentlichkeit durch manipulierte Indikatoren ein nützliches Bild seiner Selbst zu generieren, hat zunächst nichts mit Digitalisierung zu tun. Ein solches Verhalten war immer Teil menschlichen Handelns und ist selbst im Tierreich eine gängige Strategie, um Eigenschaften darzustellen, die tatsächlich nicht oder vergleichsweise schwach gegeben sind. Im digitalen Kontext, sind die Versuche etwas zu sein, was man nicht ist, deshalb problematisch, da es das ‚echte Sein‘ in der digitalen Welt nicht gibt. Daraus ergibt sich nicht zuletzt die Herausforderung, dass digitale Profile teilweise determinieren, wie Menschen in der nicht-digitalen Welt leben. Das digitale Abbild ist die digitale Realität und bestimmt damit vielfach auch die analoge Welt. Im Kontext der rapiden technologischen Entwicklung kann davon ausgegangen werden, dass sich die Messungen von Personeneigenschaften immer

310

P. F. Langer

weiter verbessern und eine zunehmende Zahl von Indikatoren die latenten Konstrukte bestimmen werden. Zum jetzigen Stand, in dem die Determinierung des digitalen Profils hauptsächlich indirekt durch Indikatorvariablen wie Social Media Profil, Infrastruktur-Daten, Zeit- und Standortdaten, etc. stattfindet und nicht die nach wie vor schwer zu lesenden Gedanken der Menschen zur Grundlage des digitalen Profils gemacht werden, kann davon ausgegangen werden, dass digitale Profile auf absehbare Zeit manipulierbar bleiben. Abschließend lassen sich bzgl. der Entwicklung zum digitalen Profiling insbesondere drei Aspekte hervorheben: 1. Das Recht auf informationelle Selbstbestimmung wird zunehmend schwer zu realisieren: Die Auswertung weitgehend anonymisierter Daten lässt bei ausreichender Datengröße und -vielfalt oft eine Personenerkennung zu oder macht die Identität teilweise unvermeidlich. So ist das Zusammenlegen von Datensätzen und Informationsquellen selbst dann eine Datenschutzherausforderung, wenn primäre Personendaten wie Namen, Geburtsdaten, etc. nicht erfasst werden. 2. Das allgegenwärtige und kontinuierliche digitale Erfassen aller sozialen Interaktionen beeinflusst die soziale Wirklichkeit selbst und realisiert damit gerade nicht ein bloßes Abbilden, sondern verändert Mensch und Umwelt durch den Messprozess. 3. Schließlich leitet sich das digitale Profil aus messbaren Indikatoren ab, welche nie die vollständige Realität erfassen können, da sich die soziale Wirklichkeit durch latente Faktoren definiert. Die Tatsache, dass im digitalen Kontext allerdings nur messbare Faktoren ein Bild definieren und diese oft beinflussbaren Abbildungen der Wirklichkeit damit das digitale Profil determinieren, kann dazu führen, dass es im Netz eine zunehmende Fokussierung auf mess- und berechenbare Aspekte der sozialen Wirklichkeit gibt.

3 Reputation Scoring Reputation ist ein Begriff, der die Bewertung oder Anerkennung von Personen, Personengruppen, Unternehmen oder abstrakten Marken beschreibt. Im Sprachgebrauch ist mit Reputation nicht die eigene Einschätzung oder Bewertung einer Person, Gruppe, eines Symbols oder einer Institution gemeint, sondern die angenommene Bewertung von anderen: Also der erwartete Konsens über den Stand der öffentlichen Anerkennung. Reputation kann damit als ein sozial übertragener Metaglaube (d. h. Glaube an den Glauben) angesehen werden (Pinyol et al. 2007, S. 91). Dabei stellt Reputation die Höhe der gesellschaftlichen

Digitale Profile, Reputation Scoring und Social Credits …

311

Wertschätzung für ein sozial wünschenswertes Verhalten oder eine entsprechende Einstellung dar, sei es Kooperation, Reziprozität oder Normkonformität. Im Geschäftskontext wird der Reputation eines Unternehmens bereits seit langem ein eigener Wert zugeschrieben und als Reputation Capital bezeichnet (Barnett et al. 2006, S. 27). Die Erfüllung der funktionalen und sozialen Erwartungen der Öffentlichkeit einerseits und die Schaffung einer Identität andererseits schaffen Vertrauen, das den informellen Rahmen eines Unternehmens bildet. Ein positiver Ruf sichert einem Unternehmen oder einer Organisation langfristig Wettbewerbsvorteile, da weniger in die Gewinnung und Überzeugung von Kunden investiert werden muss. Darüber hinaus hat die Reputation auch intern eine Bedeutung und determiniert die Kosten zur Kontrolle der operationellen Ebene (Klewes und Wreschniok 2009, S. 4). Im digitalen Kontext sind Reputationssysteme heute insbesondere durch Bewertungsfunktionen von Google, Amazon und Facebook bekannt. Diese Funktionen geben Nutzern die Möglichkeit, mit anderen Nutzern ihre Einschätzungen oder Erfahrungen mit etwas oder jemandem in einer standardisierten Form, beispielsweise durch die Verteilung von Sternen oder Likes, zu teilen. Verbraucher, die selbst ein Produkt oder eine Dienstleistung nicht physisch ausprobieren oder eine Person nicht kennengelernt haben, können mit der Bewertung anderer eine entsprechende eigene Erwartung ableiten. Dabei kann eine Gruppe von NutzerInnen Vertrauen oder auch Misstrauen zu einer Person, einem Unternehmen, einer Marke oder einer Personengruppe erschaffen, ohne dass die Person selbst entsprechende Erfahrungen gewonnen hat. „Trust and reputation systems are aimed at […] enabling service consumers to reliably assess the quality of services and the reliability of entities before they decide to use a particular service or to interact with or depend on a given entity“ (Jøsang 2007, S. 209). Obwohl im Kontext von Online-Reviews meist nicht ausgeschlossen werden kann, dass Interessenkonflikte die Bewertungen beeinflussen (die Bewertungen sind oft durch Firmen leicht zu beeinflussen), schafft häufig die schiere Anzahl an verschiedenen Nutzerbewertungen eine glaubhafte Wertung. Unabhängig vom Inhalt der Bewertungen, reicht zudem oft die Tatsache aus, dass überhaupt Bewertungen existieren, um den Eindruck zu vermitteln, dass Firmen oder Personen bereits etabliert oder bekannt sind. In einem weitgehend automatisierten und anonymisierten e-Commerce-Markt sind solche Bewertungssysteme ein bedeutender Faktor für die Entscheidungsfindung. Im Online-Handel ist eine positive Reputation im großen Wettbewerb oft von existenzieller Bedeutung und wird so zur „Social Licence to Operate“ (Gaultier-Gaillard et al. 2009, S. 115). Bewertungen sind damit ein Wert, der aufgebaut und durch kontinuierliche Zufriedenstellung der Kunden oder andere Mittel gepflegt wird.

312

P. F. Langer

Eine Parallele zu personenbezogenem Reputationskapital kann im digitalen Kontext insbesondere im Social Media Bereich gefunden werden, in dem Likes, Friends und Followers das zentrale Medium von Reputationszuschreibungen sind. Darüber hinaus gibt es auch spezifischere weniger standardisierte Plattformen, welche die Reputation von Menschen darstellen, wie eigene Websites, personenbezogene Wikipedia-Seiten, Personenbeschreibungen auf Institutionenwebsites (Firma, Behörde, Schule), Publikationslisten und Zitationen, etc. Oftmals werden diese Plattformen in erheblichem Maße selbst gesteuert und damit auch Wahrnehmungen entsprechend gelenkt: Eigene Profile können beispielsweise mit Beiträgen zu Erfolgen und eigennützlicher Information gepflegt werden. Somit sind viele der dargestellten Profile auch eine Art von Imagepflege, welche sicherlich die Reputation beeinflusst, aber keine Messung von Reputation als Wert sein kann, die wie oben beschrieben nicht von sich selbst, sondern von anderen zugeschrieben wird. Diese, von außen beigemessene, Reputation ist im Kontext des konventionellen Internets oft nur in den sozialen Medien oder journalistisch bei Personen des öffentlichen Lebens gegeben. Der Begriff des Reputation Scoring beschreibt diese Messung von Reputation von außen. Die Tatsache, dass die Reputation gemessen wird, kann unter der Annahme, dass Menschen eine hohe Reputation anstreben, den Anreiz setzen, Regeln zu folgen, die eine hohe Bemessung bewirken. Der Gewinn von positiver Reputation hängt stark von der Umgebung ab. Beispielsweise gelten im Kontext eines Sportvereins andere messbare Kompetenzen als anerkennungswürdig als an einer wissenschaftlichen Institution. Schließlich schafft die Tatsache, dass die Menschen nach einer entsprechenden Reputation streben, auch Anreize, die im gegebenen Kontext das Verhalten der Gemeinschaft antreibt. Reputation Scoring kann auch Grundlage verhaltensdatenbasierter Anreizprogramme sein. Dabei wird die Reputation aus Sicht des Anreizgebers definiert. Kriterien für eine hohe Reputation sind dementsprechend durch den Anreizgeber definiert. In Deutschland ist eine Anwendung von Reputation Scoring in der Privatwirtschaft mit PAYBACK oder Miles&More gängige Praxis (Hauschild et al. 2010; Schirrmacher 2010). Menschen werden beispielsweise für einen Kauf, oder auch nur für den bloßen Besuch eines Geschäfts (Location Based Advertising), mit entsprechenden geldwerten Punkten belohnt (Heinemann 2018), da sie sich aus Sicht der Verkäufer mit einer hohen Reputation als guter Konsument verdient gemacht haben. Umgekehrt können unliebsame Kunden durch entsprechende Kundenregister von der Weiternutzung von Dienstleistungen oder dem erneuten Kauf eines Produktes ausgeschlossen werden (Mai et al. 2014). Menschen mit

Digitale Profile, Reputation Scoring und Social Credits …

313

schlechter Bonitätsbewertung in Wirtschaftsauskunfteien wie der SCHUFA werden beispielsweise Finanzierungsleistungen verweigert (Weitz 2002). Auch Staaten halten entsprechende Anreizprogramme bereit. Klassischerweise werden Strafen und Ordnungsgelder verhängt, wobei bzgl. der Höhe der Strafe auch Rechtsvergehen aus der Vergangenheit eine Rolle spielen. Das staatliche Fahreignungsregister des Kraftfahrtbundesamt in Flensburg folgt ebenfalls einem Reputation Scoring Ansatz, in dem es punktebasierte Sanktionsmechanismen darstellt (Kalus 2016). Positive staatliche Anreizprogramme für pro-soziales Verhalten gibt es in Form von Stipendien und Orden. Außerhalb des Rechtsystems basieren die meisten oft privatwirtschaftlich organisierten Anreizsysteme für Personen in Deutschland auf freiwilligen Programmen, wie beispielsweise die Vergabe von Stipendien und die Vergabe von Auszeichnungen (Weiying 2002). Anders ist es mit Unternehmen, die immer wieder durch externe Ratings bewertet werden. Beispiele für Reputation Scoring im Unternehmenskontext sind Siegelvergaben (Lebensmittelampeln, Bio-Siegel, Blauer Engel, etc.) oder auch Rating-Agenturen, welche die Kredit-Ausfallrisiken von Unternehmen, Institutionen und Staaten bemessen. Die Scores der RatingAgenturen wurden beispielsweise für die großen Fehlentwicklungen im Kontext der Finanzkrise verantwortlich gemacht, da sie mutmaßlich unabhängig von tatsächlichen Ausfallrisiken im Sinne der zahlenden Kunden Wunschratings abgegeben haben (Crotty 2009, S. 566). Vor diesem Hintergrund sind bei der Analyse von Reputation Scoring Systemen insbesondere drei Fragen zu beachten: 1. Wer bemisst die Reputation und aus welchen Gründen? Die Anreizstruktur hinter der Bemessung von Reputation ist ein entscheidender Faktor für die Glaubwürdigkeit eines zugewiesenen Reputation-Scores. Viele Scoring Ansätze erlauben Selbsteinschätzungen oder zeichnen sich in der eigenen Anreizstruktur bzgl. der Messung von Reputation durch Interessenkonflikte aus. 2. Was wird bemessen und welche Intention verbirgt sich hinter dem Scoring? Reputationssysteme sind auch in ihrem Kontext hinsichtlich ihres Zwecks zu betrachten. Die Perspektive der Messenden kann dabei großen Einfluss auf das Messergebnis haben. Daraus kann auch abgeleitet werden, welche Kriterien zur Vergabe der Reputation-Scores herangezogen werden. Im Kontext des KreditRatings sind es Informationen zur Bonität und entsprechende Schätzungen zu einem potenziellen Zahlungsausfall. Das Fahreignungsregister des Kraftfahrtbundesamt in Flensburg soll die Fahrtauglichkeit auf Grundlage der historischen Daten zur (Nicht-)Einhaltung der Straßenverkehrsordnung einordnen.

314

P. F. Langer

3. Was bedeuten die Scores und welche Anreize setzen sie? Reputation Scorings setzen, wenn sie offengelegt und von den Bemessenen als relevant eingeschätzt werden, Anreize, sich entsprechend der Punktegewinnung zu verhalten. „The more any quantitative social indicator is used for social decision-making, […] the more apt it will be to distort and corrupt the social processes it is intended to monitor“ (Campbell 1979).

4 Social Engineering und bestehende Anreizsysteme Vor dem Hintergrund der zuvor dargelegten Fragen wird in diesem Abschnitt erörtert, wie Anreize gesetzt werden, um das gesellschaftliche Gefüge entsprechend eines gesetzten Ziels auszurichten. Das Konzept des Social Engineerings beschreibt eine solche absichtliche Beeinflussung von Einstellungen und sozialen Verhaltensweisen durch Regierungen, Medien, Individuen oder Personengruppen, um gewünschte Merkmale in einer Zielpopulation zu erzeugen. Dabei kann der Begriff im philosophischen/soziologischen Sinne als ein deterministischer Ansatz verstanden werden, bei dem die Absichten und Ziele eines Architekten einer sozialen Vorstellung realisiert werden. Der Ansatz basiert auf einem normativen Ideal, welches das Konzept des Social Engineerings vor dem Hintergrund liberaler Grundsätze umstritten macht. Die Idee, dass der Wille der Gesellschaft das Ziel individuellen Handelns definieren solle, ist zumindest mit liberalen Konzeptionen demokratischer Legitimierung nur schwer zu vereinbaren. Im Kontext des Social Engineerings werden oftmals nicht nur die Eingrenzung oder Beeinflussung der persönlichen Freiheiten kritisch betrachtet, sondern insbesondere die unbewusste Anreizsetzung, da hier die demokratische Legitimierung besonders schwer ist: Wenn die Gesellschaft nicht bewusst Anreizsysteme erkennt, so kann sie darauf auch nicht durch politische Initiativen reagieren. Der Einsatz von Methoden zur unbewussten Manipulation der Menschen zu ihrem eigenen oder gesellschaftlichen Nutzen kann somit als Paternalismus gedeutet werden, der eine vermeintliche Freiheit vortäuscht, jedoch Menschen in eine Richtung steuert, die zwar freiwillig eingeschlagen wird, aber nicht auf bewussten ‚mündigen‘ Entscheidungen basiert (Bruttel et al. 2014, S. 767). Vor diesem Hintergrund ist auch ein relativ neuer Ansatz zur pro-sozialen Beeinflussung von BürgerInnen im staatlichen Kontext erwähnenswert: Das Nudging setzt auf positive Verstärkung und indirekte Anreize, um das Verhalten und die Entscheidungsfindung von Gruppen oder Einzelpersonen unbewusst zu

Digitale Profile, Reputation Scoring und Social Credits …

315

beeinflussen. Es geht dabei also um Wege, wie der Staat im Sinne gesetzter Ziele die BürgerInnen entsprechend manipulieren kann, damit diese unbewusst entsprechend handeln. Beispiele für Nudging im öffentlichen Sektor sind Lotterien zur Wählerregistrierung und belehrende Ansprachen zur Verbesserung der Steuermoral (Hallsworth et al. 2014, S. 9 ff.). Im Kontext des Social Engineerings kann das Nudging als ein besonders wertvolles Werkzeug verstanden werden, da es eine Methode darstellt, wie Gesellschaften unbewusst in Richtung des gegebenen Ziels gestupst (nudge = stupsen) werden können. Nudging-Ansätze bauen dabei nicht auf die Rationalitätsannahme zur Beschreibung menschlichen Verhaltens, sondern stattdessen auf datenbasierte verhaltenswissenschaftliche Erklärungsmodelle, die dem Bewusstsein und der Vernunft des Menschen eine wesentlich geringere Bedeutung zumessen (Thaler und Sunstein 2009, S. 209). Im Kontext der Vielzahl von Anreizen kann unterschieden werden, ob sie gesetzt wurden, um Menschen bewusst zu beeinflussen oder ob sie auf eine unbewusste Lenkung ausgerichtet sind. Im Marketing werden viele Methoden angewandt, um unbewusste Aspekte der Wahrnehmung so zu beeinflussen, dass potenzielle Kunden im Sinne des Unternehmens handeln. Unbewusst werden beispielsweise visuelle, akustische oder olfaktorische Anstöße wahrgenommen, die direkt oder längerfristig das Kaufverhalten beeinflussen. Im Staatskontext ist eine Vielzahl von Anreizsystemen aufzulisten, die ebenfalls meist unbewusst die Entscheidungen der BürgerInnen beeinflussen. Beispiele hierfür sind Lenkungssteuern, wie die Ökosteuern auf Benzin, die Tabaksteuer, die Alkoholsteuer, etc. oder Warnhinweise im Straßenverkehr oder auf Verbrauchsgütern. Grundsätzlich gibt es verschiedene Ansätze, die das Entscheiden und Handeln des Menschen im Kontext seiner gesellschaftlichen Umwelt betrachten und entsprechende Handlungsanreize setzen. Ein klassischer anthropologischer Ansatz stellt den Menschen als ein biologisches Wesen dar, welches erst ab Geburt durch soziale Einflüsse (Erziehung/Sozialisation) allmählich zu einem mündigen Entscheider geformt wird. In diesem Sinne ist der Mensch ein soziales Konstrukt, das als ein Produkt der Gesellschaft gesehen wird und Werte, Konventionen und soziale Ideale verinnerlicht. Verhält sich der Mensch seinen eigenen Idealen zuwider, liegt die unmittelbarste Reaktion kognitiv oder emotional bei ihm selbst. Ein wichtiger Anreiz zum prosozialen Verhalten ist somit im individuellen Selbstwertgefühl, Stolz oder in der verinnerlichten moralischen Vorstellung zu finden. Weitere informelle Anreize zum prosozialen Handeln können im gesellschaftlichen Umfeld von Personen gefunden werden. Verhält man sich im Widerspruch zu sozialen Konventionen, reagiert die Gesellschaft meist mit Distanzierung, Abkehr oder gar der offenen Ablehnung.

316

P. F. Langer

Neben den informellen gibt es auch formelle Anreize, welche in öffentliche und private Bereiche zu teilen sind. Staatliche Anreize werden durch das abschreckend wirkende Strafrecht bereitgestellt sowie durch die vielen staatlichen Ämter und Auszeichnungen, die vornehmlich positive Anreize setzen. Im privaten Kontext setzten Unternehmen und Organisationen Anreize, um Menschen und insbesondere ihr Handeln in ihrem Interesse zu beeinflussen. Oftmals geschieht dies durch konventionelle Werbung, aber auch durch die bereits angesprochenen Anreizprogramme. Darüber hinaus setzten aber auch Karrieremöglichkeiten und Löhne entsprechende Anreize. Um den Missbrauch durch substanzielle unternehmerische Einflüsse auf KundInnen oder Angestellte zu begrenzen, werden allzu starke Anreize oft durch Verbraucherschutz- und Arbeitnehmerschutzgesetze verhindert. Die vier beschriebenen Bereiche stellen Anreiz-Dimensionen dar, die jeweils eigene Druck- und Belohnungsinstrumente enthalten, die darauf abzielen, den Menschen zu gesellschaftskonformem Handeln zu bewegen. Sicherlich beeinflussen sich die verschiedenen Dimensionen aus privaten und kollektiven, formellen und informellen Anreizen gegenseitig. So wirkt sich beispielsweise eine Veränderung des gesellschaftlichen Umweltbewusstseins auf Gesetzgebung, Wirtschaft und schließlich auch auf das individuelle Wertesystem aus. Das Konzept des Social Engineerings kann als eine beabsichtigte Veränderung des bestehenden komplexen, dezentralen und fragmentierten Anreizsystems von sozialem Verhalten beschrieben werden. Dabei sind insbesondere folgende Fragen beachtenswert: 1. Gibt es eine demokratische Legitimierung der vorgenommenen Anpassungen der bestehenden Anreizsysteme? Das Definieren sozialer Ideale ist Teil politischer Praxis. Politische EntscheidungsträgerInnen formulieren gesellschaftliche Zielvorstellungen und setzen durch Gesetze Anreize, um diesen Zielvorstellungen näher zu kommen. In Demokratien ist es wichtig, dass die EntscheidungsträgerInnen als Repräsentanten der Gesellschaft demokratisch legitimiert sind. 2. Sind die Anreize so gesetzt, dass es eine bewusste und kritische Auseinandersetzung der Menschen geben kann? Angesichts der Tatsache, dass Anreize teils unbewusst wirken, ist eine offene Auseinandersetzung mit den Wirkmechanismen wichtig. 3. Welche Dimensionen des bestehenden gesellschaftlichen Anreizsystems (formell/ informell und privat/öffentlich) werden durch die Social Engineering-Ansätze tangiert?

Digitale Profile, Reputation Scoring und Social Credits …

317

5 Chinas Social Credit System Das derzeit bekannteste Projekt zur offenen Anwendung von staatlichem Reputation Scoring mit dem Ziel, die Gesellschaft entsprechend des Staatsideals zu verändern, ist das geplante landesweite Social Credit System der Volksrepublik China. Die Regierung strebt durch ein nationales Pilotprojekt entsprechend der Idee des Social Engineerings an, mit einem punktbasierten Reputationssystem, welches das wirtschaftliche und soziale Verhalten aller BürgerInnen und Unternehmen bewertet, die Gesellschaft entsprechend ihres Idealbildes zu formen und zu lenken (Meissner 2017). Das System soll Grundlage der Bewertung jeglicher sozialer Interaktion werden (Creemers 2018). Bisher hat sich die chinesische Regierung auf Blacklistings von einzelnen, der Regierung unliebsamen, Personen beschränkt, was sich bereits in großem Stile in Verweigerungen von Reiseleistungen zeigt: So wurden bereits im Jahr 2017 etwa einer Millionen Personen Transportdienstleistungen aufgrund Ihrer Nennung auf einer staatlichen Blacklist verwehrt (Chan 2018). Die wachsenden Möglichkeiten der Datensammlung und entsprechender automatisierter Datenauswertung (Big Data und Artificial Intelligence) lässt China entsprechend des Plans bis dieses Jahr einen Großteil der Interaktionen zwischen BürgerInnen und Unternehmen auffangen, analysieren und bewerten (Creemers 2018). Die Tatsache, dass schon heute jede Smartphone- und Computeraktivität aufgezeichnet werden kann, dass ein weitverbreitetes Netz an Überwachungskameras existiert und dass schließlich auch Daten von Krankenakten, Versicherungen, Finanzlagen, Spieldauern, Smart Home Statistiken und DatingVerhalten eingesehen und kombiniert werden können, lässt es zu, ein fast vollständiges soziales Profil jeder BürgersIn abzuleiten (Strittmatter 2018). Ziel des Social Credit Systems ist die „Aufrichtigkeit in Regierungsangelegenheiten“ (政务诚信), die „kommerzielle Integrität“, die „soziale Integrität“ (社 会诚信), die „gerichtliche Glaubwürdigkeit“ (司法公信) (18. Parteitag) und die Anerkennung der Aufrichtigkeit und die Bestrafung der Unehrlichkeit (3. Plenum des 18. Parteitags und Stellungnahmen des KPCh-Zentralausschusses und des Staatsrates zur Stärkung und Innovation des Sozialmanagements) zu fördern (State Council of the People's Republic of China 2018). Aktuell ist das nationale und staatliche Social Credit System nur ein Plan und wird lediglich in einzelnen Städten mit Pilotprojekten getestet. Es gibt allerdings bereits landesweite private und unternehmerische Reputation Scoring Systeme, die im Vergleich zu europäischen und amerikanischen Geschäftsmodellen, wie beispielsweise denjenigen der Wirtschaftsauskunfteien, weit fortgeschritten sind.

318

P. F. Langer

Das am weitesten verbreitete Social Credit System-ähnliche Model ist Sesame Credit/Zhima Credit (Zhīma Xìnyòng/芝麻信用). Dieses Angebot ist ein von der Ant Financial Services Group (AFSG – eine Tochtergesellschaft der chinesischen Alibaba-Gruppe) entwickeltes System zur Bewertung und Bindung von KundInnen, welches anfänglich zur Bonitätsprüfung bei der Vergabe von Privatkrediten entwickelt wurde. Wie in Abschn. 1 dargestellt, setzt das System darauf, ein möglichst umfangreiches digitales Profil der NutzerInnen zu erstellen. Diesen NutzerInnen wird zudem ein Reputation Score zugeordnet, der darstellen soll, wie vertrauenswürdig die NutzerInnen sind. Dieser Score wird von einem Algorithmus errechnet, der Daten von Alibaba's Diensten zur Verfügung hat. Dabei werden Social Media-Interaktionen, Einkäufe, die auf den Websites der Alibaba-Gruppe getätigt werden, die Nutzung der Alipay Mobile Wallet etc. verwendet. Zu den Belohnungen für eine hohe Punktzahl gehören ein einfacherer Zugang zu Krediten von Ant Financial und ein vertrauenswürdigeres Profil auf E-Commerce-Websites innerhalb der Alibaba-Gruppe. Ein ähnliches System gibt es auch beim Wettbewerber Tencent, der das Tencent Credit-Programm entwickelt hat. Da die Reputation Scores immer wichtiger für den Geschäftsverkehr werden und somit auch die beiden Firmen eine immer größere gesellschaftliche Verantwortung tragen und damit auch entsprechend Einfluss haben, hat die chinesische Regierung eine zunehmend kritische Haltung gegenüber diesen privaten Systemen eingenommen (Hornby et al. 2018). Eine landesweite Umfrage unter mit dem Internet verbundenen Menschen zeigt, dass schon heute Social Credit Systeme in China weit verbreitet sind: Mehr als 80 % der Befragten verwenden ein kommerzielles Social Credit System und sieben Prozent nehmen bereits an einem lokalen behördlichen Social Credit System teil. Dabei zeigen die Ergebnisse der Studie, dass es grundsätzlich eine sehr hohe Akzeptanz in allen Befragtengruppen gibt. Die höchste Zustimmung geben ältere, einkommensstärkere, männliche, gebildete in städtischen Gebieten lebende Menschen (Kostka 2019, S. 1588).

6 Diskussion und Ausblick Nachdem die Konzepte der Digital Profiles, des Reputation Scorings, des Social Engineerings und schließlich die Ansätze eines Social Credit Systems in China vorgestellt wurden, soll im kommenden Abschnitt eine Verknüpfung und Diskussion darüber stattfinden, welche Auswirkungen die Ansätze und die bereits gegebenen Entwicklungen auf unsere Gesellschaft haben.

Digitale Profile, Reputation Scoring und Social Credits …

319

Digitale Profile sind Grundlage von Reputationszuordnungen. Ohne entsprechende digitale Accounts, in denen Daten über das Handeln und die Einschätzungen anderer zentral gesammelt werden, können weder digitale Reputation Scoring- noch Social Credit Systeme aufgebaut werden. In Europa und den USA sind diese digitalen Profile insbesondere durch Social Media Plattformen gegeben und teils von NutzerInnen intendiert mit personalisierten Daten bestückt. Zudem gibt es normierte Bewertungs- und Reputationssymbole, wie likes, followers und friends. Damit ist eine externe Anerkennungszuschreibung möglich, weshalb auch Social Media Plattformen teilweise dem Konzept Reputation Scoring zugeordnet werden können. Tatsächlich werden Social Media Profile bereits als Grundlage für Visa-Vergaben der Vereinigten Staaten von Amerika verwendet (Garcia 2019). Reputation Scoring Ansätze im Sinne der Wirtschaftsauskunfteien werden allerdings anders als bei Social Media nicht durch offene, eindimensionale und standardisierte Anerkennungssymbol-Ansammlungen (Likes und Followers), sondern aus vielfältigen Datensätzen errechnet. Gegebene Daten zu Transaktionen einer Person werden durch Algorithmen ausgewertet und eine individuelle Reputationsscore errechnet – oft ohne offenzulegen, welche Algorithmen die entsprechenden Ergebnisse produzieren (Mohabbat Kar und Parycek 2018, S. 8). Beide Konzepte Digital Profiling und Reputation Scoring sind schon heute in Deutschland gängige Praxis. Sie setzen Anreize und bestimmen zunehmend die Entscheidungsfindung. In China gibt es nun einen weiteren Schritt, in dem nicht nur private Akteure wie Alibaba und Tencent Datensätze zusammenlegen, sondern auch der chinesische Staat an der Etablierung eines staatlichen Monopols zur Messung von Reputation arbeitet. Um aus Reputation Scoring ein entsprechendes Social Credit System zu entwickeln, muss zunächst eine sozial-gesellschaftliche Zielvorstellung hinzukommen (Social Engineering). Dies ist bei den heute gegebenen privatwirtschaftlichen Anbietern meist nicht erkennbar. Weder die SCHUFA noch Sesame Credit hat das System entwickelt, um damit ein gesellschaftliches Idealbild zu verwirklichen. Zudem muss definiert werden, was als positives und negatives Verhalten betrachtet wird. Bei privatwirtschaftlichen Reputation Scoring Systemen, wie der relativ spezifischen SCHUFA und dem umfassenderen Sesame Credit Service, wird das Verhalten der Personen hinsichtlich ihrer Aussagekraft zu Bonität und Zahlungssicherheit analysiert. Staatliche und gesellschaftliche Social Credit Systeme müssen auf einer allgemeingültigen moralischen Bewertung von Verhalten aufbauen.

320

P. F. Langer

Schließlich muss auch festgelegt werden, was die Belohnungs- bzw. Sanktionierungsmechanismen sein werden. Die SCHUFA als auch Sesame Credit bieten ihre Bewertungen Dritten an, damit diese auf deren Grundlage wirtschaftliche Entscheidungen treffen, wie die Vergabe von Krediten und das Festsetzten einer Ausfallprämie. Im Falle Chinas kann davon ausgegangen werden, dass die moralische Bewertung des Verhaltens der BürgerInnen mit der politischen Agenda des Staates verknüpft sein könnte. Zudem ist angesichts der aktuell bestehenden Sanktionspolitik schon zu erkennen, welche Belohnungs- und Sanktionsmechanismen eingesetzt werden können: Zugänge zu Transportmitteln und Passagierklassen, Bildungseinrichtungen etc. Betrachtet man die bestehenden gesellschaftlichen Anreizsysteme, so kann davon ausgegangen werden, dass ein solches Reputationssystem die in Abschn. 3 dargestellten Anreiz-Dimensionen stark beeinflusst und teilweise ersetzt. Die Tatsache, dass der Reputationsscore offen einsichtig sein soll, um BürgerInnen, Unternehmen, und staatliche Stellen über Ihre Mitmenschen zu informieren, macht das System zu einem zentralen Instrument, um die gesamte Gesellschaft entsprechend der Vorstellungen der Regierung zu steuern. Es ist davon auszugehen, dass sich im informellen Bereich anhand der Social Credit Scores ein allgemeingültiges Reputationsmaß ableitet und gleichzeitig die BürgerInnen entsprechend der Vergabe der Punkte mittelfristig unbewusst konditioniert werden. Im formellen Bereich wird der Social Credit Score zum zentralen Bewertungskriterium für MitarbeiterInnen, BewerberInnen, KundInnen, BürgerInnen, etc. Das aktuell in der Volksrepublik China entstehende Social Credit Programm hat das Potential, alle Dimensionen der chinesischen Gesellschaft nachhaltig zu verändern und auch in anderen Ländern Anklang zu finden. Eine abschließende Bewertung eines solchen Systems ist angesichts fehlender Erfahrung allerdings heute noch nicht möglich.

Literatur- und Quellenverzeichnis Barnett, M.L., J.M. Jermier, und B.A. Lafferty. 2006. Corporate reputation: The definitional landscape. Corporate reputation review 9 (1): 26–38. Bruttel, L.V., F. Stolley, W. Güth, H. Kliemt, S. Bosworth, S. Bartke, J. Schnellenbach, J. Weimann, M. Haupt, und L. Funk. 2014. Nudging als politisches Instrument – gute Absicht oder staatlicher Übergriff? Wirtschaftsdienst 94 (11): 767–791. Campbell, D.T. 1979. Assessing the impact of planned social change. Evaluation and Program Planning 2 (1): 67–90. https://doi.org/10.1016/0149-7189(79)90048-X.

Digitale Profile, Reputation Scoring und Social Credits …

321

Chan, T.F. 2018. China’s social credit system has blocked people from taking 11 million flights and 4 million train trips. Business Insider 22. https://www.businessinsider. com/china-social-credit-system-blocked-people-taking-flights-train-trips-20185?r=DE&IR=T. Zugegriffen: 05. Okt. 2020. Chorzempa, M., P. Triolo, und S. Sacks. June 2018. China’s social credit system: A mark of progress or a threat to privacy? POLICY BRIEF (18–14) (PIIE, Hrsg.). 1750 Massachusetts Avenue, NW: Peterson Institute for International Economic. https:// www.piie.com/system/files/documents/pb18-14.pdf. Zugegriffen: 29. Juli. 2019. Creemers, R. 2018. China’s social credit system: An evolving practice of control. SSRN: https://ssrn.com/abstract=3175792, https://doi.org/10.2139/ssrn.3175792. Crotty, J. 2009. Structural causes of the global financial crisis: A critical assessment of the „new financial architecture“. Cambridge Journal of Economics 33 (4): 563–580. https:// doi.org/10.1093/cje/bep023. Espeland, W.N., und M. Sauder. 2007. Rankings and Reactivity: How public measures recreate social worlds. American journal of sociology 113 (1): 1–40. Garcia, S. E. 2019. U.S. Requiring Social Media Information From Visa Applicants. The New York Times, 2. Juni. https://www.nytimes.com/2019/06/02/us/us-visa-applicationsocial-media.html. Zugegriffen: 30. Juli 2019. Gaultier-Gaillard, S., J.-P. Louisot, und J. Rayner. 2009. Managing reputational risk – A cindynic approach. In Reputation Capital, Hrsg. J. Klewes und R. Wreschniok 115– 141. Berlin, Heidelberg: Springer. https://doi.org/10.1007/978-3-642-01630-1_9. Hallsworth, M., D. Halpern, F. Algate, R. Gallagher, S. Nguyen, S. Ruda, M. Sanders, M. Pelenur, A. Gyani, und H. Harper. 2014. EAST Four simple ways to apply behavioural insights. The Behavioural Insights Team Publications, Cabinet Office. https://www. behaviouralinsights.co.uk/wp-content/uploads/2015/07/BIT-Publication-EAST_FA_ WEB.pdf. Zugegriffen: 2. Aug. 2019. Hauschild, U., S. Hilverkus, und A. Koch. 2010. Fallstudie Miles & More: Profitable Kundenbindung in der Airline Industrie. Handbuch Kundenbindungsmanagement 7: 765–780. Heinemann, G. 2018. Location-based App und Smartphone Commerce. In Die Neuausrichtung des App-und Smartphone-Shopping, Hrsg. G. Heinemann, 85–141. Wiesbaden: Springer. Hildebrandt, M., und S. Gutwirth. 2008. General Introduction and Overview. In Profiling the European Citizen, Hrsg. M. Hildebrandt und S. Gutwirth, Dordrecht: Springer. https://doi.org/10.1007/978-1-4020-6914-7_1. Hofstetter, Y. 2018. Neue Welt. Macht. Neue Menschen. Wie die Digitalisierung das Menschenbild verändert. In Der Neue Mensch, Hrsg. G. Küenzlen, S. HaringMosbacher und P. Diehl, (Schriftenreihe/Bundeszentrale für Politische Bildung, Bd. 10247, 135–150). Bonn: bpb Bundeszentrale für Politische Bildung. Hornby, L., S.F. Ju, und L. Lucas. 2018. China cracks down on tech credit scoring. Tencent and Alibaba pilot schemes curbed by central bank amid privacy fears. Financial Times, 4. Februar. https://www.ft.com/content/f23e0cb2-07ec-11e8-9650-9c0ad2d7c5b5. Zugegriffen: 18. Juli 2019. Jøsang, A. 2007. Trust and Reputation Systems. In Foundations of Security Analysis and Design IV, Hrsg. A. Aldini und R. Gorrieri, (Lecture Notes in Computer Science, Bd. 4677, 209–245). Berlin: Springer.

322

P. F. Langer

Kalus, V. 2016. Das neue Fahreignungs-Bewertungssystem. Deutsches Autorecht 86(1). Klewes, J., und R. Wreschniok. 2009. Reputation capital Building and maintaining trust in the 21st century. In Reputation Capital, Hrsg. J. Klewes und R. Wreschniok, 1–8. Berlin: Springer. Kostka, G. 2019. China’s social credit systems and public opinion: Explaining high levels of approval. New Media & Society 21 (7): 1565–1593. Mai, R., S. Hoffmann, und D. Schmidt. 2014. Selektives Demarketing: Wie werden Unternehmen unerwünschte Kunden wieder los?/Selective Demarketing: How companies get rid of unprofitable customers. Die Betriebswirtschaft 74 (5): 305. Mau, S. 2017. Das metrische Wir. Über die Quantifizierung des Sozialen. Berlin: Suhrkamp. McNeil, L., und A. Valenzuela. 2001. The harmful impact of the TAAS system of testing in Texas: Beneath the accountability rhetoric. In Raising standards or raising barriers? Inequality and high-stakes testing in public education (Civil rights in a new era ), Hrsg. G. Orfield und M.L. Kornhaber. New York: Century Foundation Press. Meissner, M. 2017. China’s social credit system: A big-data enabled approach to market regulation with broad implications for doing business in China. Merics China Monitor 39: 1–13. https://merics.org/sites/default/files/2020-05/Chinas%20gesellschaftliches%20 Bonit%C3%A4tssystem.pdf. Zugegriffen: 05. Okt. 2020. Mohabbat Kar, R., und P. Parycek. 2018. Berechnen, ermöglichen, verhindern: Algorithmen als Ordnungs-und Steuerungsinstrumente in der digitalen Gesellschaft. In (Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, Hrsg. R. Mohabbat Kar, B.E.P. Thapa, und P. Parycek, 7–39. Berlin: DEU. https://www. ssoar.info/ssoar/bitstream/handle/document/57562/ssoar-2018-mohabbat_kar_et_alBerechnen_ermoglichen_verhindern_Algorithmen_als.pdf?sequence=1. Zugegriffen: 29. Juli 2019. Pinyol, I., J. Sabater-Mir, und G. Cuní. 2007. How to talk about reputation using a common ontology: From definition to implementation. In Proceedings of the Ninth Workshop on Trust in Agent Societies (S. 90–101). Hawaii, USA. Schirrmacher, F. 2010. Payback: Warum wir im Informationszeitalter gezwungen sind zu tun, was wir nicht tun wollen, und wie wir die Kontrolle über unser Denken zurückgewinnen. München: Blessing. State Council of the People's Republic of China. 2018. State council notice concerning issuance of the planning outline for the construction of a social credit system (2014– 2020). GF No. (2014) 21. Beijing (Übersetzung by Rogier Creemers). Strittmatter, K. 2018. Die Neuerfindung der Diktatur. Wie China den digitalen Überwachungsstaat aufbaut und uns damit herausfordert. München: Piper. Thaler, R.H., und C.R. Sunstein. 2009. Nudge. Improving decisions about health, wealth, and happiness (Rev. and expanded ed., with a new afterword and a new chapter). New York: Penguin. Weitz, B.O. 2002. Die Schutzgemeinschaft für allgemeine Kreditsicherung (SCHUFA): eine Fallstudie für den Wirtschaftsunterricht. Halle (Saale): Martin-Luther-Universität HalleWittenberg Wirtschaftswissenschaftliche Fakultät (Hochschuldidaktische Schriften des Instituts für Betriebswirtschaftslehre, Beitr. Nr. 9). Weiying, Z. 2002. Reputational foundation of the legal system [J]. Economic Research Journal 1: 3–13.

Fazit und Ausblick

Digitale Disruption: Demokratietheorie im Paradigma der entgrenzten Individualkommunikation Michael Oswald 1 Die Frühphase der Digitalisierung Als Marshall McLuhan im Jahre 1962 das – damals noch hypothetische – Internet als elektronische Vernetzung der Welt beschrieb, mit der sie zu einem ‚globalen Dorf‘ würde, gab er uns auch subtil eine Warnung mit auf den Weg: McLuhan war der Überzeugung, dass die ‚elektronische Revolution‘ ‚nur weniger verwirrend‘ für die Menschen der offenen Gesellschaften sein würde, als es jene Veränderungen waren, die durch das Gutenbergzeitalter evoziert wurden – Umbrüche, welche die alten, geschlossenen (Stammes)Gesellschaften deisolierten und rationalisierten (McLuhan 1962, S. 17). In der Tat, das gedruckte Buch brachte derart tief greifende Umschwünge in der Gesellschaft mit sich, wie sie nur wenige Medien als „Sphären der Vermittlung“ (Winkler 2008, S. 39) davor herbeiführten. Die Schifffahrt als eine McLuhansche Extension of Man1 und die dadurch folgende Vereinnahmung ganzer Kulturen mag für einige Gesellschaften ein solcher Einfluss gewesen sein. Bei Ereignissen ohne äußere Einflüsse bleiben viele Vergleiche jedoch in ihren Folgen hinter den politisch-gesellschaftlichen Implikationen zurück, welche der Buchdruck mit sich brachte; dies gilt Herzlichen Dank an Isabelle Borucki und Adriano Mannino für die wertvollen Beiträge und Kritiken an diesem Aufsatz. 1Nach

McLuhan sind Medien eine Erweiterung der menschlichen Sinne: „Just as a wheel extends your foot, the ‚wired planet‘ now extends our nerves.“ (McLuhan 1989, S. 12)

M. Oswald (*)  Universität Passau, Passau, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8_16

325

326

M. Oswald

insbesondere, wenn die gesamte Breite der Wirkung – von seiner Entwicklung bis hin zur Literalität – dazu gezählt werden. Durch die Kontextsetzung McLuhans bekommt man einen ersten Eindruck davon, welche Disruptivität der Wandel vom analogen ins digitale Zeitalter tatsächlich mit sich bringen wird. Insbesondere eine Abschätzung seines Einflusses auf die Gesellschaftsstrukturen macht dabei klar, dass das Medium tatsächlich die Botschaft ist, wie es McLuhan mit einer seiner Hauptthesen so treffend beobachtet hat.2 Die Parallele zum Buchdruck zeigt uns aber insbesondere auch, dass wir uns in einer frühen Phase dieses Umbruchs befinden und die Konsequenzen des Digitalen Wandels können heute noch kaum vollständig abgeschätzt werden. Unsere Beobachtungs- und Urteilsfähigkeit in Bezug auf die Digitale Transformation ist nicht nur dadurch eingeschränkt, dass wir uns erst in ihrer Frühphase befinden – wir nehmen auch aktiv an diesem Prozess teil. Als das Zeitalter der ‚Gutenberg-Galaxis‘ anbrach, mag bei BeobachterInnen auch ein Gefühl – oder auch eine Hoffnung – dafür da gewesen sein, dass sich Einiges verändern wird. In welchem Maße der Wandel jedoch tatsächlich eintreten würde, war aber wohl selbst den Avantgardistischen unter ihnen nicht klar. Auch im Zeitalter der Digitalisierung verändert(e) sich bereits vieles – dies geschieht aber meist nur graduell und daher nicht grundlegend. Derlei fließende Übergänge sind für Beobachter bisweilen schwer zu erfassen, insbesondere wenn deren theoretische Perspektiven auf einen Gegenstand neu gedacht werden müssten, sie jedoch noch aus einem anderen Paradigma stammen. Beobachtungen einer neuen Struktur aus einer Perspektive des alten Paradigmas Die Versuche, die Effekte der Digitalisierung zu erfassen, geschehen aus dem Paradigma jener Demokratietheorien heraus, die auf Basis von Gesellschaftsund Systemstrukturen aus der analogen Welt verfasst wurden. Die Nutzung jener Denkmuster beginnt bereits bei der idealistischen Sichtweise, dass die Agora in

2Nach

McLuhan ist der Inhalt von Medien zweitrangig. Die wirkliche ‚Botschaft‘ ist das, was das Medium selbst an gesellschaftlichen Veränderungen mit sich bringt. Der Inhalt sei wie ein Stück Fleisch, mit dem Einbrecher einen Wachhund ablenken, während sie das Haus ausrauben: „For the ‘content’ of a medium is like the juicy piece of meat carried by the burglar to distract the watchdog of the mind. The effect of the medium is made strong and intense just because it is given another medium as ‘content.’ The content of a movie is a novel or a play or an opera. The effect of the movie form is not related to its program content. The ‘content’ of writing or print is speech, but the reader is almost entirely unaware either of print or of speech.” (McLuhan 1995 [1964], S. 18).

Digitale Disruption: Demokratietheorie im Paradigma …

327

Form einer ‚E-Gora‘ wiederbelebt werden würde. Ein solch weiter Rückgriff schafft Probleme – sowohl historisch als auch demokratietheoretisch. Allein schon die Analogie ist schief: Nicht nur scheint eine Übertragung des antiken Diskussionsforums auf moderne und digitalisierte Gesellschaften schwierig, der schier grenzenlose Raum des Digitalen kann kaum einem Vergleich mit dem eng begrenzten Raum der Agora standhalten. Aus ähnlichen Gründen wurde bislang die Möglichkeit der Übertragung einer räteförmigen und direkten PolisOrganisation auf eine Regierung eines Großflächenstaates weitläufig negiert. Und nur ein Blick in die Digitale Realität zeigt uns, dass Soziale Medien nicht jene öffentlichen Räume sind, die im Erbe der Agora stehen. Zumindest ist von der klassischen Agora wenig überliefert, was ideologischen Grabenkämpfen, einer Kakophonie von ‚Caps-Lock-Lautstärke-Wettbewerben‘, künstlichen Meinungsverstärkern oder extremistischen Diskursen gleicht, obwohl gewiss auch die Überlieferung der Agora idealisiert ist – nicht umsonst war die Agora von der Persiflage des griechischen Dramas nicht gefeit. Fraglich ist, ob die aufgeworfenen Probleme dem Medium geschuldet sind. Freilich werden im Netz relevante und komplexe Themen oft verkürzt abgehandelt und kommentiert, allerdings käme ein klassischer Agora-Diskurs wohl auch mit 280 Zeichen pro These oder Antwort aus. Trotzdem bleiben organische Twitter-Threads inhaltlich meist jedoch weit entfernt vom Zusammenspiel aus Einsicht und Weisheit eines sokratischen Diskurses. Ein Fischen für virtuellen Applaus auf Basis der allgemeinen Empörungsmentalität ist dagegen eher der Standard im digitalen These-Antwort-Verfahren.3 Gellner beschrieb die ‚Öffentlichkeit‘ im Internet daher bereits früh als ein „Forum für schwadronierende Selbstdarsteller“ (Gellner 2001, S. 1).4 20 Jahre später zeigt sich, dass diese Aussage in Bezug auf einige Plattformen nicht treffender hätte sein können. Im Vergleich ist daher Folgendes zu bedenken: Da die Athener Sokrates schließlich zum Tode verurteilt haben, ist davon auszugehen, dass die sokratische Vernunft auf der Agora auch nicht ‚mainstreamfähig‘ war. Davon zeugen nicht zuletzt die Klagen antiker Philosophen und Dichter über die Unvernunft und das Chaos, das im politischen Diskurs vorherrsche – besonders im demokratischen. Vielleicht war die Agora das eine Forum des vernünftigen Politischen Diskurses; vielleicht muss man jedoch sogar einsehen, dass sie als

3Falls Antworten

überhaupt beachtet werden. warnte gar davor, das Internet als einen öffentlichen Raum zu verstehen, da dies Transparenz und Überschaubarkeit unterstelle, die weder vorhanden noch realisierbar ist (Gellner 2001, S. 13).

4Er

328

M. Oswald

Ausdruck der öffentlichen Meinung auch ein Forum der Geschwätzigkeit und Gerüchte war, dem Rumor und Fama genauso anhafteten wie Weisheit und Eloquenz (Gellner 2001, S. 12 f.). In jedem Fall scheint der noch heute als Vorbild geltende Agora-Diskurs für Athen und geschweige denn Griechenland im Ganzen jedenfalls nicht gegolten zu haben. Daher ist es im Lichte der Diskursführung in sozialen Medien auch nicht verwunderlich, dass vermehrt politischkulturrelevante Inhalte der Unterhaltung oder rational-konsensorientierte Diskurse und Problemlösungsstrategien schlichten oder reißerischen Aussagen weichen. In jedem Fall übertönt der lärmende Empörungs-Diskurs bei weitem die Klänge der Vernunft. Derlei Erfahrungen zeigen, dass viele der Annahmen aus der analogen Zeit – oder eben auch hier eher Hoffnungen – einem Abgleich mit der Digitalen Realität nicht standhalten. Die ‚E-Gora’ zumindest war eher ein Wunschdenken. Sie war die Projektion eines wohl einzigartigen, gleichwohl singulären und idealisierten Raumes auf eine anarchisch-individualistische Arena. Dieser wurde zudem durch Interessengruppen, Parteien, Public-RelationsManager, ‚alternativen‘ Medien, Teilöffentlichkeiten und anderen AkteurInnen in Beschlag genommen. Die sich selbst schaffende bürgerliche Öffentlichkeit wurde dabei zu einer hergestellten Öffentlichkeit – „ein Marktplatz der gemachten Wahrheiten, der Eitelkeiten“ (Gellner 2001, S. 15). Ähnlich wie die Vision der ‚E-Gora‘ wurden auch andere optimistische Vorstellungen von der Digitalen Realität widerlegt, beispielsweise jener Gedanke, dass sich im Informationszeitalter (Castells 2004) alle Menschen mit frei verfügbarer Information versorgen würden. Diese Annahme steht im Lichte von basisdemokratischen Idealen, wie Benjamin Barbers ‚Starker Demokratie‘ (Barber 2004). Sobald das Internet als eine für dessen Umsetzung prädestinierte technische Infrastruktur ‚entdeckt‘ wurde, schien eine Lösung für die Unzufriedenheiten mit der repräsentativen Demokratie gefunden worden zu sein: Mit der Möglichkeit der Kommunikation und Partizipation sollten BürgerInnen mehr Mitbestimmungsmacht bekommen oder deren Vorstellungen und Beobachtungen in einer Form von BürgerInnenjournalismus an die Öffentlichkeit weitergegeben werden. Der Aufbau einer digitalen Basisdemokratie mit einer umfassend informierten BürgerInnenschaft gleicht dabei der Vorstellung von Menschen in einer Bibliothek des analogen Zeitalters, die sich über frei verfügbare Materialen informieren. Fakt ist jedoch, dass auch damals viele eine andere Freizeitbeschäftigung der Bibliothek vorzogen. Auch trägt schließlich nicht jeder entliehene Titel gleichermaßen zum Informationsgewinn bei. Die Menschen in der analogen Bibliothek mögen heute diejenigen sein, die das Netz als Informationsquelle nutzen; all jene, die damals lieber ins Kino gingen, dürften heut wohl eher dazu neigen, ihre Bandbreite auch dem Entertainment zu widmen.

Digitale Disruption: Demokratietheorie im Paradigma …

329

Nun besteht guter Grund zur Annahme, dass das Wissen der Menschen heute größer ist, als dies auch nur noch vor Jahrzehnten der Fall war. Der Konsum von Information ist zweifellos gestiegen, schließlich vermehrt sich auch die Menge an zur Verfügung stehenden Information exponentiell. Allerdings ist ein großer Teil des angesammelten Wissens dispers, also weit gefächert, zusammenhangslos und oft auch oberflächlich. Schließlich musste auch die Common-Sense-Vermutung, dass sich frei verfügbare Information positiv auf Wissensstände auswirkt, der ernüchternden Realität weichen. Ein intensiver Online-Nachrichten-Konsum kann gar politische Horizonte eher verengen als erweitern (vgl. hierzu Yeo et al. 2015; Skovsgaard et al. 2016; Iyengar und Hahn 2009). Mit derlei Anomalien brachte die Frühdigitalisierung neue Fragestellungen mit sich, auf die noch keine befriedigenden Antworten gefunden wurden. Ein weitreichender Umbruch Die Problematik bei der Betrachtung grundlegend neuer Strukturen mit den Denkweisen eines alten Paradigmas ist nicht unbedingt darin verhaftet, dass wir versuchen, diese mit alten Begriffen und Kategorien zu beschreiben; Fehlleitungen durch Bedeutungen und Vorhersagen der theoretischen Ansätze aus der analogen Zeit sind das größere Problem. Sie hindern die Wahrnehmung der Beschaffenheit neuer Strukturen. Begriffe – und auch Theorien – sind zwar bis zu einem gewissen Punkt transitionsfähig; wird die Belastbarkeit von Theorien jedoch dünner, und müssen sie stetig erweitert werden, damit sie einem Test noch standhalten, (ver) schwindet ihre Fähigkeit, „die Welt einzufangen“ (Popper 1973, S. 31). Zudem schaffen Denkweisen des analogen Zeitalters, wie die Versuche, Regulationsansätze im Internet in einem nationalstaatlichen Rechtsrahmen verorten zu wollen, während das Netz entgrenzt ist oder die Trennung von Privatheit und Öffentlichkeit im neuen Paradigma wohl eher blockieren als dass sie zum Verstehen beitragen – sie müssten zumindest in Teilen neu gedacht werden (vgl. Seubert und Helm 2019). Thomas S. Kuhn hat in seiner Abhandlung ‚Die Struktur wissenschaftlicher Revolutionen‘ (1979) die Problematik des Paradigmenwechsel in der Wissenschaft thematisiert. Theorien werden hierbei als Strukturen verstanden, deren Denkmuster und -hülsen, Begriffe sowie theoretische Annahmen so lange gültig sind, wie sie sich durch eine gewisse empirische Belastbarkeit und Aussagekraft auszeichnen. Unser Wissensschatz basiert auf jenen Strukturen – und damit auch unsere Denkweise. Von diesem Vorwissen kann man sich nicht einfach lösen, vor allem nicht ohne einen Ersatz. Die Loslösung vom alten Paradigma ist zudem mit der Auflösung des eigenen wissenschaftlichen Erbes verbunden, was den Schritt erschwert. Mit der Wahrnehmung durch diese theoretische Brille kann die Suche nach wissenschaftlichem Fortschritt eine Fahrt mit angezogener Handbremse sein.

330

M. Oswald

Die Krise und die neue normale Wissenschaft In Bezug auf die Digitale Transformation befinden sich einige Demokratietheorien bereits in einer Krise. Dies gilt nicht nur für normative Ansätze, die aufgrund der Professionalisierung der Politikwissenschaft und ihrer zunehmend positivistischen Ausrichtung ohnehin unter Druck geraten waren. Auch Teile der empirischen Schule sind davon betroffen, dass mit der fortschreitenden Digitalisierung zunehmend unerklärbare und mit dem Paradigma unvereinbare Anomalien und Disruptionen auftreten. Spätestens zeigt sich schließlich in einer Krise, dass Axiome, Annahmen und Hypothesen deduktiven Tests nicht standhalten. Um weiter Gültigkeit zu behalten, werden jene Theorien verändert oder erweitert, um die auftretenden Anomalien – die Diskrepanzen zwischen der Realität und dem, was man auf Basis der Theorie erwarten würde – zu beseitigen. Mit jeder solchen lebenserhaltenden Maßnahme und konsequenten Erweiterung wird ein Theoriegebäude jedoch instabiler. Daher läuft eine solche Entwicklung schließlich auf die Ablösung des alten Paradigmas hin (Kuhn 1979). Die Ablösung des alten Paradigmas ist wohl die Konsequenz des digitalen Zeitalters in Bezug auf Demokratie(theorie)n: Es ist derart disruptiv, dass viele althergebrachte Ansätze auf die neuen Fragen keine befriedigenden Antworten mehr geben können. Und wenn bereits die Frühdigitalisierung eine derartige Friktion zwischen dem Erfahrungsraum und dem Erwartungshorizont, der in Demokratietheorien aufgebaut wurden, hinterlässt, kann das Ausmaß der Diskrepanz, die uns in Zukunft erwarten wird, als sehr groß eingeschätzt werden. Allein die Diskontinuität Politischer Kommunikation, wie sie in den sozialen Medien stattfindet, beginnt das Paradigma einzureißen. Das Rollenhandeln der ProsumerInnen bestimmt sich im Web 2.0 über die Interaktivität und Kollaborativität, welche eine zunehmende mediale Individualisierung sowie die Verstärkung von Randstimmen und unreflektierten Aussagen möglich macht. Die digitalen Medien, verstanden als eine McLuhansche ‚Extension of Man‘ – also eine Erweiterung der menschlichen Sinne – verstärken, was Einzelne sagen und je nach Strategie finden diese Stimmen Gehör. Schließlich wurde somit auch das Wahrnehmungsvermögen jeder einzelnen Person erweitert. Aus dieser entgrenzten Individualkommunikation, in der jeder in nahezu allen Räumen und weitläufig ohne Beschränkung agieren kann, entstanden breite, heterogene und fragmentierte Öffentlichkeiten. Daher ist es wenig verwunderlich, dass sich die Politische Kommunikation im digitalen Raum zunehmend verschärft und von einem Mindestmaß an Konsens verabschiedet. Der Umbruch jedenfalls, scheint kein geringerer zu werden als jener, der die Relativitätstheorie für die Physik

Digitale Disruption: Demokratietheorie im Paradigma …

331

bedeutete; schließlich ließ5 die elektrische Vernetzung frei nach McLuhan den Raum und die Zeit geringer werden – und in gewisser Weise auch relativ. Gegenüber der Physik, die von der Relativitätstheorie in großen Teilen über den Haufen geworfen wurde, ist in Bezug auf die Demokratietheorie eine größere Konstante zu erkennen: Die Grundannahmen über die Digitale Revolution und die Demokratien verhießen bereits, dass sich Demokratie verändern würde; nur trat bislang wenig davon ein, was in ihrer optimistischen Ausrichtung unter diese Hauptthese fiel. Diese Schlussfolgerung ist in der Frühdigitalisierung jedoch noch gar nicht zu ziehen, wie ein Vergleich des Medienwandels noch zeigen wird. Für die ‚Entdeckung‘ der Grundlagen des neuen Paradigmas sind nun Suchstrategien notwendig. Doch zur Problematik, dass ein altes Paradigma nur schwer ohne ein neues hinter sich gelassen werden kann, kommt nun erschwerend hinzu, dass wir in Bezug auf das neue gerade erst in den Bereich der Vorwissenschaft eindringen. Beobachtungen werden hierbei unsystematisch theoretisiert, was zur Folge hat, dass die Ansätze neu entstehender Systeme zunächst fragil sind – schließlich bestehen bislang weder weitläufig gesicherte noch weit akzeptierte wissenschaftlich begründete Annahmen. Die Aussagekraft der Beobachtungen ist deshalb oftmals noch gering und die Revolution im paradigmatischen Sinne in Konsequenz noch gar nicht möglich. Mit dem Rückgriff auf die Methoden und Begriffe eines Paradigmas in der Krise und ohne eine etablierte Alternative ist es schließlich schwer möglich, aus einem bestehenden Denkhorizont auszubrechen. Der Mangel an paradigmatisch losgelösten Denkansätzen birgt ein weiteres Problem bei der Betrachtung der Implikationen der Digitalen Transformation für die Demokratie: Wenn Theorien die Realität nicht greifbar machen können, verlieren sie nicht nur an Aussagekraft, sie können unser Denken auch verführen, indem Annahmen in der Realität nicht nur erwartet oder gar erhofft werden, sondern diese Perspektive zu einem Dogma verkommt. Dabei kann das aufklärerisch-idealistische Potenzial normativer Ansätze bestenfalls in ein utopisches Ansinnen münden; im schlechtesten Fall pervertiert es jedoch in ein Elitenprojekt mit immunisierten Argumentationsketten oder den immer selben Rufen nach gewissen Prozessen, die in der Realität nicht festzustellen sind. 5Ein

wesentlicher Unterschied ist hier freilich, dass sich die soziale Realität stets ändert, während die physikalische Realität immer dieselbe blieb. Die Relativitätstheorie war auch schon zu Zeiten Newtons eine korrektere Beschreibung/Erklärung der physikalischen Realität als die Newton'sche Physik – sie war allerdings noch nicht entwickelt. Die soziopolitische Realität verändert sich hingegen (a) eigendynamisch und wird (b) auch von der sozial- und politikwissenschaftliche Theoriebildung bzw. der politischen Philosophie/ Ideologie beeinflusst. Die Selbstbezüglichkeit sozialer Systeme erschwert daher ihre Theoretisierung gegenüber der fundamentalen physikalischen Realität, die stets gleichbleibt.

332

M. Oswald

Das Denken in Dogmen bildet sich häufig, da missachtet wird, dass hinter vielen normativ geprägten theoretischen Annahmen eine bewusst kontrafaktische Argumentation steht, die ‚entgegenkommende Realitäten‘ und Möglichkeiten aufzeigt. Damit wird jedoch nicht zwangsläufig ein Anspruch auf Deckungsgleichheit – in einigen Fällen gar auf praktische Umsetzbarkeit – erhoben. Gerade auf der diskursiven Ebene wird dies jedoch allzu oft verkannt und Postulate zu Wahrheiten erhoben. Ein in der normativen Tradition (selbst)definierter Idealzustand bietet zwar einen Vorschlag einer guten Ordnung – dies ist faktisch jedoch nur eine Orientierungsstrategie. In diesem Sinne ist an der Diskussion um die Demokratie(theorie) in der Frühdigitalisierung zunächst zu bemängeln, dass in der gesamten Debatte meist nicht stringent zwischen normativer und empirischer Tradition unterschieden wird. Die Frustration über den geringen Entsprechungsgrad einiger normativer Ansätze mit der Digitalen Realität ist verständlich; läge jedoch die Last der gesamten Argumentation auf der Empirie, gäbe man großflächig die Suche nach Möglichkeiten auf, die Demokratie zu verbessern. Würde diese wichtige Funktion der Orientierungsstrategie auf den Schultern der empirischen Theorietradition lasten, läge ihr Scheitern an der Aussage- und Prognosebelastbarkeit nahe. Gleichzeitig reduziert sich die Aussagekraft empirischer Studien, wenn stets Ansätze in dogmatischer Manier auf Gegenstände angewandt werden, die sich den Annahmen gegenüber als illusorisch – im Sinne von ‚der Wirklichkeit widersprechende Aussagen‘ – erweisen. Schließlich prallen in dieser Entwicklung oft Denkwelten aufeinander. Kann beispielsweise die Deliberation eine Antwort sein, wenn schon der Raum dafür sich als kontrafaktisch erweist? Daher sind es die grundlegenden Fragen, die beantwortet und paradigmatisch neu ausgerichtet werden müssen, bevor die Feinheiten einer Theorie relevant für eine Debatte werden können. Dies gilt strenggenommen selbst für die normative Schule, da mit utopischen Sätzen Erkenntnisse nur ernüchternd ausfallen können. Theoriebildung aus der pessimistischen Perspektive Nun ist es keine neue Erkenntnis, dass die oftmals monierte Lücke in der Deckungsgleichheit zwischen Demokratietheorien und real existierenden Demokratieformen besonders stark in Bezug auf die digitale Realität klafft. Hier sind schließlich nicht nur demokratische Prinzipien wie Zugänglichkeit, Responsivität, Repräsentation und Transparenz unzureichend gegeben; auch fundamentale Elemente der freiheitlich demokratischen Grundordnung werden zuhauf durchkreuzt. Es ist daher verständlich, dass der derzeitige Trend der Digitalisierung des Politischen einigen BeobachterInnen Sorgen bereitet, schließlich wirkt er bisweilen antidemokratisch und gesellschaftszersetzend. Die auftretenden Dissonanzen, der umfassende Betroffenheits- und Empörungsdis-

Digitale Disruption: Demokratietheorie im Paradigma …

333

kurs, die Manipulationsstrategien, die häufig als gering bewertete Integrationskraft und Medialisierungsphänomene wie der drohende Zerfall der Gesellschaft in divergierende (Teil-)Öffentlichkeiten und seine Rückwirkung auf die soziopolitische Realität sind nur ein Teil jener Entwicklungen, die in der Tat besorgniserregend sind. Schließlich dürfte ein demokratischer Grundkonsens eine Conditio sine qua non für die Funktionsfähigkeit jedweder Demokratieform sein, selbst wenn dieser lediglich als prozedural-minimalistischer Konsens verstanden wird. Karl Poppers Idee der ‚offenen Gesellschaft‘ beruht unter anderem auf der Idee der Toleranz, die nicht lediglich als ein moralisches Gebot, sondern als ein falsifizierbarer Modus des Zusammenlebens zu verstehen ist. Dazu gehört ein Konsens darüber, dass uneingeschränkte Toleranz zum Verschwinden der Toleranz führt (Popper 2003). Das Paradoxon, dass Intoleranz mit Intoleranz begegnet werden muss, da sonst die Toleranz nicht bestehen kann, ist nach Popper Teil dieses Prinzip des Zusammenlebens, das er sicherlich auch in der digitalen Öffentlichkeit verorten würde. Bei aller Sorge um die digitale Öffentlichkeit gerät zuweilen außer Acht, dass es nicht gerechtfertigt ist, die Ausdünnung des gesellschaftlichen Konsenses völlig an der Digitalen Transformation festzumachen: Aufgrund der multiethnischen, -kulturellen, -konfessionellen und -ideologischen Beschaffenheit von Gesellschaften in modernen Demokratien wird nicht nur die Öffentlichkeit fragmentierter – die freilich mehr eine relativ plastische Konzeption, denn ein messbarer Zustand ist –, auch ein hypothetischer Gemeinwille dünnt schneller aus, da die Schnittmengen geringer sind. Dazu kommt, dass in kaum einer Phase der liberalen Demokratien so viele bestehende Gedankengebäude angegriffen oder gar eingerissen und mit neuen Denkparadigmen besetzt wurden.6 Kollidierende Sichtweisen und die Beständigkeit von alten Denkmustern erhöhen hierbei die Konflikthaftigkeit neu aufkommender Strukturen. Die digitalen Infrastrukturen sind dabei als ein Teil dieses gesamtgesellschaftlichen Wandels zu verstehen. Daher ist die Diskussion der Diskrepanz zwischen den normativen Vorstellungen und ihrer Konstituierungsweisen alles andere als müßig. Deren Neuausrichtung und der Digitale Wandel treten jedoch nahezu gleichzeitig auf. Die beschleunigende und verstärkende Wirkung von Medien im McLuhanschen Sinne, also von Elektrizität über Autos hin zum Internet, ist eklatant, dennoch

6Dies

bezieht sich nicht auf die ‚großen‘ Ideologien, die in verschiedenen Phasen des 20. Jahrhunderts viele Elemente der liberalen Demokratie extrem unter Druck gesetzt haben, wie der Faschismus oder der Kommunismus. Hiermit ist ein kleinteiligerer Diskurs beschrieben, in dem lediglich einzelne Teile des Umgangs miteinander, schließlich aber vermehrt der demokratische Konsens aufgeweicht werden.

334

M. Oswald

kann die Ursache gesellschaftlicher Spaltungen nicht allein an der Digitalen Transformation festgemacht werden. Die Ernüchterung über die negativen Effekte der Digitalisierung – und auch über Demokratietheorien – spiegelt sich zunehmend in der Empirie wider, in der gerade jene Neuschöpfungen wie jene der ‚dissonanten Öffentlichkeit‘ (Knüpfer et al. in diesem Band) oder Hassrede (Dregger in diesem Band) sich sodann in theoretischen Überlegungen niederschlagen. Der aktuell stark im empirischen Diskurs zwischen Netzoptimismus, -pessimismus und -realismus überwiegende Pessimismus (Ceccarini 2019; Tucker et al. 2018; Prior 2013; Dahlgren 2019) bringt weitreichende Konsequenzen für die gesamte Demokratietheorie mit sich: Wenn Prozesse der Digitalisierung dissonante, fragmentierte oder gar polarisierte Öffentlichkeiten fördern, rückt dies die Aussichten auf digitale politische Prozesse wie die demokratische Willensbildung oder gar die Ideen einer basisdemokratischen Online-Teilhabe in ein schlechtes Licht. Da sich der empirische Diskurs in jene Richtung verlagert und dies auch die Theoriebildung bisweilen entsprechend pessimistischer ausfallen lässt, ist es wenig verwunderlich, wenn nunmehr auf bisweilen liberale Standpunkte regulatorische Plädoyers folgen. (Teil-)Öffentlichkeiten agieren im Netz schließlich nach wie vor in einem nahezu anarchischen Raum und de facto vor allem immer noch relativ weitläufig frei von institutionalisierter Kontrolle. Dies lädt mitunter gerade dazu ein, auch jedwede Form von Selbstkontrolle aufzugeben. Aufgrund einer nahezu unsanktionierten Freiheit entfesselt der digitale Raum nicht nur die Öffentlichkeit (Zierold & Ritzi in diesem Band), sondern auch die Art der Kommunikation, in der sich individuell-unabhängige Stimmen zu öffentlichen Kommunikatoren wandelten. Obwohl normativ betrachtet sich die Regeln für einen Diskurs im digitalen Raum nicht grundlegend von jenen der realen Welt unterscheiden würden, ist das Internet durch seine quasi-anarchische Struktur de facto nahezu regelfrei, zumindest ist es ein Feld geringer Regulation. Allein in relativ gut regulierten sozialen Medien sind Beiträge schließlich zunächst schneller publik, als sie überhaupt kontrolliert werden können. Wenn dies nach 24 oder gar erst 48 h geschieht, sind sie ohnehin schon weit verbreitet (und auch kopiert) oder bereits wieder aus der aktuellen Timeline verschwunden. Gerichtliche Entscheidungen kommen hierbei erst recht zu spät, von einer lediglich erneuten Publikation der Inhalte ganz zu schweigen. Der Modus von Regulation ist entsprechend dem Medium nicht angemessen und wir sehen einen weiteren Fall, in dem eine analoge Logik auf ein digitales Feld übertragen wurde und relativ wirkungslos ist. Generell ist es schwierig, auf einen aus derlei anarchisch-dynamischen Strukturen bestehenden Kessel wie dem Internet einen Deckel mit tief greifenden

Digitale Disruption: Demokratietheorie im Paradigma …

335

Regulationsmechanismen zu setzen. Zum einen ist dies nur schwer möglich, da diese alle Bereiche jenes Kessels durchdringen müssten; zum anderen setzte dies eine Kaskade in Gang, welche nur darauf ausgerichtet ist, die Regulation zu untergraben. Diese Deckelung ließe den Druck im Kessel nicht unerheblich ansteigen, vor allem aber käme es auch zu praktischen Problemen. Theoretisch kann beispielsweise die Frage nach der Regulierung von Fake-News als intentionale Fehlinformation zwar eindeutig beantwortet werden, da sie eine relevante und knappe Ressource der Demokratie verbraucht: das Vertrauen (Mannino in diesem Band). In Bezug zur offenen Gesellschaft Poppers ist neben der Toleranz auch das kommunikativ-diskursive Vertrauen ein wichtiges Element der liberalen Demokratie, das man – notfalls auch gegen Widerstreben – verteidigen muss. Was hier für eine der basalsten Ebenen des Internets theoretisch beantwortet werden kann, sorgt jedoch auf der praktischen Ebene für eine schier kaum zu bewältigende Problematik, schließlich würden die Sanktionen nur wenige Menschen – meist im nationalstaatlichen Raum – treffen, wie die Debatten um Uploadfilter und dem Netzwerkdurchsetzungsgesetz gezeigt haben. Der wichtige Faktor für BeobachterInnen demokratischer Prinzipien ist, dass vor dem Hintergrund der entfesselten Gesellschaft und ihrer sämtlichen Randbereiche Normen zunehmend geringer geschätzt werden; dies mag zu Teilen auch einer fehlenden Verantwortlichkeit geschuldet sein. Die Struktur im digitalen Raum eröffnet ein neues Paradigma der Verantwortlichkeit und führt dabei zu einem neuartigen Paradoxon der Freiheit. Wir haben durch die Digitalisierung viele Freiheiten gewonnen, insbesondere ist jedem sein Verhalten im Netz relativ freigestellt – nicht zuletzt aufgrund der möglichen Verschleierung von Identitäten. Für gewöhnlich bringt es die Möglichkeit, sich für Dinge zu entscheiden jedoch mit sich, dass Individuen für ihre Entscheidungen Verantwortung tragen. Reduktionistisch gesehen und auch im ethischen Individualismus ist Verantwortung also auf Individuen zurückzuführen. Zwar können allzu grobe Verstöße durch den Vollzug nationaler Gesetze geahndet werden, doch allgemein sinkt die Hemmschwelle für ein normenwidriges Verhalten durch Anonymität,7 falsche Identität oder sogar mit Klarnamen, wenn kaum Sanktionen befürchtet werden müssen. Ohne Rechenschaft bewegen wir

7Anonymität

ist hier nicht lediglich auf das Darknet o.ä. nahezu rechtsfreien Räumen bezogen. Diese ist de facto breit gefächert und beginnt von dezentralisierten Kollektiven bis hin zu einem Forumsverhalten, indem mit einem Vornamen (oder einer Abwandlung) ein Austausch mit anderen Personen stattfindet, ohne die eigene Identität preiszugeben zu müssen, welche gleichwohl nicht falsch sein muss.

336

M. Oswald

uns in einer Form von Freiheit, die losgelöst von der Verantwortung steht. Die Sanktionslosigkeit vieler Sphären des Internets kann somit auch bewirken, dass die Kontrolle ein dominierender Mechanismus im digitalen Raum wird. Dies wirkt auf ‚alte‘ Freiheiten zurück, da auf diesem Wege Information einfacher, schneller und vor allem in größeren Mengen an staatliche Institutionen oder private Unternehmen übergehen. So kann die digitale Freiheit auf ‚alte‘ Freiheiten zurückwirken und diese einschränken. Die Verantwortlichkeit bildet eine tragende Norm im politischen Handeln und entwickelte sich mit der Demokratie bis hin zu seiner heutigen Funktion mit – vom klassischen Impeachment hin zur Verantwortlichkeit der MinisterInnen und MinisterpräsidentInnen/KanzlerInnen etc. Mit einer weiteren Dispersion politischer Macht durch Partizipationsmöglichkeiten fächert sich auch die Verantwortlichkeit aus. Und mit mehr politischen Einflussmöglichkeiten für Einzelne wird sich auch in Zukunft die Verantwortlichkeit wandeln und nicht mehr lediglich im Paradigma politischer AmtsträgerInnen stehen. Gerade wenn sich das Internet vermehrt zu einem staatstragenden Raum entwickeln sollte, in welchem zukünftig gegebenenfalls auch Funktionen der politischen Partizipation erfüllt werden könnten, wird auch die klassische Verantwortungskonzeption weiter gedacht werden müssen, in der sie als Handeln im Rahmen von Normen wie auch einer Rechenschaftspflicht gesetzt wird. Auch hier wird zumindest über einen neuen demokratietheoretischen Aspekt nachgedacht werden müssen, in dem diese neue Form von politischer Verantwortlichkeit normativ konzipiert wird. Alte Öffentlichkeitskonzeptionen greifen im Paradigma der entgrenzten Individualkommunikation nicht mehr ohne Probleme. Dies liegt nicht nur an Einzelheiten wie der Verantwortungskonzeption: Zuweilen sind Öffentlichkeitskonzeptionen normativ so eng geschnitten, dass der digitale Kommunikationswandel mit ihnen nicht grundlegend gefasst werden kann (vgl. hierzu Kaya sowie Zierold & Ritzi als auch Wiesenthal in diesem Band). Begriffe und ihre Bedeutungen sind allerdings transformations- und erweiterungsfähig, schließlich steht der Begriff der Öffentlichkeit noch immer für jenen Bereich des gesellschaftlichen Lebens, in dem Diskussionen über jene Probleme stattfinden sollten, die politischer Lösungen bedürfen. Auch im Zeitalter der Frühdigitalisierung ist der Öffentlichkeitsbegriff als Analyse- und Verständniskriterium für jenen Raum nutzbar. Es ist schließlich nach wie vor dieselbe Öffentlichkeit, die geformt, herausgefordert oder gar als bedroht gesehen wird. Somit ist es möglich – und wohl gar notwendig – etablierte Ideen, wie eben jene des Öffentlichen Raumes weiterhin für die Beschreibung von Herausforderungen und Chancen durch die digitale Transformation zu nutzen. Problematisch wird

Digitale Disruption: Demokratietheorie im Paradigma …

337

die Verwendung von paradigmatisch determinierten Begriffen, wenn das Wissen darüber vernachlässigt wird, dass wir uns in einem neuen Paradigma bewegen. Allein das neue Kommunikationsmuster im Digitalen Raum und die Entfesselung der politischen Öffentlichkeit eröffneten bereits Diskursräume in einem Maße, welches das alte Paradigma der Öffentlichkeit kaum fassen kann. Der entfesselte digitale Pluralismus bietet gewiss eine neue Stärke, die individuell genutzt werden kann und eröffnet mannigfaltige Chancen – je nach angelegtem normativem Maßstab birgt diese neue Struktur aber auch Gefahren. Die in diesem Band diskutierten Herausforderungen wie Hate Speech, Social Scoring, Fake News oder Künstliche Intelligenz sind nur ein Teil dieser Effekte auf die Demokratien, in denen die Umverlagerung von institutioneller Gestaltungsmacht auf ein breites disperses Feld von BürgerInnen, AktivistInnen, ökonomischen AkteurInnen etc. einen neuen Demokratiebegriff mit sich ziehen kann. Schließlich wird in diesem Paradigma bereits Kommunikation ermöglicht, die früher unterdrückt oder nicht hör- und sichtbar genug war. Problematisch wird die Machtdispersion, wenn die Umsetzung der für eine Demokratie normativ wichtigen Maßstäbe nicht mehr gewährleistet ist. Alte Ansätze im neuen Paradigma und normative Maßstäbe Normative Demokratietheorien erfüllen eine wichtige Orientierungsfunktion, selbst in einer Zeit, in der die Lücke zwischen dem Erfahrungsraum und dem Erwartungshorizont zunehmend größer wird. Die Fraenkelsche Position des Neopluralismus (1979) ist ein grundlegendes demokratisches Ordnungsprinzip, das für alle Sphären der Öffentlichkeit gelten soll. In diesem Prinzip ist der öffentliche Diskurs in einen unstreitigen normativen Sektor und einen pluralistisch geprägten streitbaren Sektor geteilt. Der non-kontroverse Sektor begründet dabei eine Art gesellschaftlichen Grundkonsens, der stets aufrechtzuerhalten ist. In dieser Perspektive ist die Grundlage der Demokratie als wertgebundene Struktur zu sehen, in der ein Konsens grundlegender Werte zu gelten hat. Selbst eine liberale Gesellschaftsform bedarf wohl eines Basiskonsenses, nicht nur aufgrund einer Gemeinwillen konstituierenden Kohärenz, sondern um ihr Bestehen gewährleisten zu können. Diese Grundlage formiert damit einen hypothetischen, aber dennoch unstreitbaren Volkswillen (Fraenkel 1979). Die Einhaltung jener Spielregeln ist dabei nicht nur ein freiwilliges Unterfangen; dies muss auch gegen Widerstreben durchgesetzt werden. Der Rest des öffentlichen Diskurses ist und soll hingegen sogar streitbar sein. In jener Sphäre kann, darf und soll der Pluralismus als ein Wettbewerb der Ideen stattfinden (Fraenkel 1979). All jene, die außerhalb dieses Wertekanons stehen, dis-

338

M. Oswald

kreditieren sich selbst und verwirken ihr Recht auf Beteiligung am Politischen Diskurs. Theoretisch ist es einfach, das Fraenkelsche Prinzip auf den digitalen Raum zu übertragen; die entfesselte Öffentlichkeit setzte jedoch auch unkontrollierbare Kräfte frei. Die Wahrung der zentralen Werte oblag in der Vergangenheit zumeist politischen Eliten und etablierten Kommunikatoren, wie traditionellen Massenmedien. Da sie ihre Macht als Gatekeeper der Öffentlichkeit nunmehr weitläufig mit alternativen Quellen teilen müssen, obliegt es diesen vermehrt – zusammen mit sozialen Medien – Normen sozialer Relevanz zu setzen, zu verstärken oder zu unterdrücken. Mit der hierbei weit in ideologisch rechte, linke und fundamentalistische Diskurse vordringenden Öffentlichkeit und der fehlenden Kanalisierung in Richtung einer hypothetischen politischen Mitte kommt es dabei auch vermehrt zur Verletzung nicht-kontroverser Werte. Der heute offene Diskurs jener Nischenkommunikatoren, die im alten Kommunikationsparadigma höchstens eine Randerscheinung waren, wird in der empirischen Schule mittlerweile als bestenfalls ambivalent betrachtet. Dabei war es selbst von der theoretischen Sichtweise her klar, dass mit einer breiteren Spanne von Kommunikatoren auch die Meinungsreichweite erheblich ausgedehnt wird – genau dies war sogar einer der erwünschten Effekte der möglichen digitalen Partizipation, mit der jeder seine Meinung einbringen sollte. Eine Diversifizierung und Verbreiterung der Angebotspalette bringt jedoch auch zwangsläufig radikale und dogmatische Stimmen in ein neues Öffentlichkeitsparadigma. Nun werden in diesem vermehrt Regeln der Demokratie gebrochen und grundsätzliche normative politische Axiome missachtet, wie dass Freiheit zuvörderst die Freiheit der Andersdenkenden sein sollte. Im Paradigma der entgrenzten Individualkommunikation wird Objektivität jedoch oft geringgeschätzt. Es scheint, als ob der individuelle Standpunkt eine Perspektive schafft, in der jeder mit einer anderen Meinung zunächst weit entfernt von einem selbst steht. Dies kollidiert mit Regeln wie jene der Oppositions- und Meinungsfreiheit, insofern die monierten Inhalte vom nicht-kontroversen Sektor gedeckt sind. Diese Distanzierung und Missachtung der Anderen (und anderer Meinungen) wächst in jenem neuen Paradigma auch zu einer Bedrohung der liberalen Demokratie heran. Die laut und offen ausgetragenen Meinungsverschiedenheiten, die radikalen und manipulativen Diskurse im Paradigma der Individualkommunikation verhüllen im theoretischen Blick oft die positiven Effekte der Digitalen Transformation. Der gegenwärtige Fokus auf derlei negative Entwicklungen und auf die Lücke in der Deckungsgleichheit zwischen Demokratietheorien und Realität schafft jedoch ein noch größeres Problem: Es vernachlässigt die Würdigung der Errungenschaften und beraubt sie insbesondere ihrer Orientierungsfunktion

Digitale Disruption: Demokratietheorie im Paradigma …

339

Chancen. Es ist schließlich nicht die Struktur, die problematisiert wird; es sind die Inhalte, die – wie uns McLuhan lehrt – auch gerne von der Wahrnehmung der großen Veränderungen ablenken, obwohl der Effekt des Mediums die wirkliche Botschaft ist: Many people would be disposed to say that it was not the machine, but what one did with the machine, that meaning or message. In terms of the ways in which the machine altered our relations to one another and to ourselves, it mattered not in the least whether it turned out cornflakes or Cadillacs. The restructuring of human work and association was shaped by the technique of fragmentation that is the essence of machine technology. (McLuhan 1964, S. 6 f.)

Interessanterweise setzt sich die Individualisierung und Entgrenzung, die das neue Medium brachte, in Inhalten fort. Somit wäre das Medium in einem noch anderen Sinne die Botschaft, da seine Eigenschaften mit in den Inhalten übertragen werden. Diese können jedoch zunächst nicht per se als negativ oder positiv bewertet werden, denn sie sind eben so wenig in seiner Wirkung prädeterminiert, wie es die Technologie selbst ist. Dies hat Robert A. Dahl bereits früh thematisiert: The evolving technology is bound to be used somehow, for good or ill. It can be used to damage democratic values and the democratic process, or it can be used to promote them. Without a conscious and deliberate effort to use the new technology of telecommunications in behalf of democracy, it may well be used in ways harmful to democracy (Dahl 1989, S. 339).

Adolf Hitler nutzte das Radio zur Stabilisierung einer Diktatur; Franklin Delano Roosevelt für die Stabilisierung einer Demokratie. Die Botschaft des Mediums war der Einfluss auf die Massen, so groß wie nie zuvor; damit ist es in dieser Perspektive aber lediglich ein Verstärker der jeweils dahinterstehenden Strukturen. Und das ist es auch, was das Paradigma der entgrenzten Individualkommunikation ausmacht: Die individuellen Vorstellungen von Werten und Demokratie treten nun zunehmend in den Vordergrund und die Struktur setzt sich vermehrt nicht mehr aus repräsentativen Kanalisationsmechanismen zusammen, sondern wird durch unzählige Positionen gebündelt, die in Abhängigkeit zum gesellschaftlichen Wandel stehen. Dieser ist wiederum von der Selbstbezüglichkeit sozialer Systeme und somit auch von der Digitalen Transformation beeinflusst. Die Entfesselung der Gesellschaft kehrt dabei nach außen, was vormals kanalisiert werden konnte und ändert dabei auch die Demokratie, da das repräsentative, analoge Modell mit der digitalen Pluralität kollidiert.

340

M. Oswald

Effekte der Verstärkung treten dort auf, wo ‚alte‘ Gatekeeper und repräsentative Kanalisationsmechanismen davon beeinflusst werden. Ob es ein Zufall ist, dass Politik und Medien in westlichen Demokratien ideologischer werden, ist mehr als fragwürdig. Jene Änderungen in den Strukturen werden dabei mit dem Blick auf die Ausdehnungen der Meinungsstrukturen zu den Rändern und manipulativen Energien theoretisiert. Diese Perzeption lenkt von Errungenschaften der Digitalen Transformation ab und vereitelt bisweilen die Ausarbeitung normativer Ansätze. Dabei durchkreuzen selbst die negativen Effekte nicht einmal grundlegend die demokratietheoretischen Aspekte der Digitalisierung. Nun ist es gewiss besorgniserregend, dass Gegenöffentlichkeiten (Rosanvallon 2017) ein größeres Kommunikationspotenzial zur Verfügung steht, nicht zuletzt aufgrund des Risikos gesellschaftlicher Polarisierungstendenzen. Allerdings sind nicht nur jene Gegenöffentlichkeiten Teile einer Gesellschaft, die sich eben in sämtliche politische Richtungen entfesselt. Und mit ebenjener Entfesselung können heute beispielsweise auch Missstände zum Vorschein gebracht werden, die früher unterdrückt werden konnten. #MeToo ist ein Paradebeispiel, bei dem digitale Infrastrukturen dafür gesorgt haben, dass vormals durch Machtposition geschützter Missbrauch zumindest zu Teilen bestraft werden konnte – und sei es nur durch soziale Ächtung. Dabei wurden nicht nur Missstände aufgedeckt, sondern Gesellschaftsstrukturen zumindest ein kleines Stück gleichwertiger gemacht. Die digitale Kommunikation ist damit eine Form von möglicher Nivellierung von Dysbalancen in Machtverhältnissen und sie schafft Teilhabemöglichkeiten. Damit ist sie auch ein Stück näher an jener Form von Demokratie, die einst als normatives Ideal galt. Dies eröffnet Teil- und Gegenöffentlichkeiten jedoch denselben kommunikativen Freiraum, was allerdings nicht nur ein negativer Nebeneffekt ist, es repräsentiert vielmehr die Offenheit der neuen Struktur – ein einseitiges partizipatives Konstrukt wäre schließlich demokratietheoretisch auch nicht tragbar. Ein weiterer negativer Effekt des Fokus‘ auf Phänomene wie auf die laute Kommunikation der Ränder ist, dass es den Blick auf den digitalen politischen Raum verzerrt. Dieser lässt ihn wie einen Spiegel der Gesellschaft wirken; es ist jedoch mehr als fraglich, ob er das ist. Eine im Netz weniger aktive Mitte hinterlässt eine Lücke, die aufgrund der lauten und von den jeweiligen Flanken tönenden Kommunikatoren noch extremer erscheint als sie tatsächlich ist. In der analogen Repräsentativ-Demokratie waren in der zweiten Hälfte des 20. Jahrhunderts derlei Vorstöße in die breite Öffentlichkeit kaum möglich und radikale Diskurse verblieben entweder relativ ungehört oder sie wurden eben in eine hypothetische Mitte kanalisiert, welche den Grundkonsens der Gesellschaft wahrte. Diese Filter- und Dämpfungsfunktion, die früher Politische Eliten, ver-

Digitale Disruption: Demokratietheorie im Paradigma …

341

antwortungsvolle Medien oder institutionalisierte Kommunikatoren wahrnahmen, schwindet im Paradigma der entgrenzten Individualkommunikation. Auch diese Lücken müssen von Theorien abgedeckt werden, die erklären, wie diese Effekte zustande kommen, ohne dass der Eindruck erweckt wird, die Gesellschaft sei komplett zerrüttet – ebenso die Skizzierung von Auswegen, die jene Probleme mildern könnten. Unter diese Erklärungsleistung fällt auch die Beantwortung der Frage, warum sokratische Diskurse in einer entlegenen Ecke des digitalen Raums stattfinden und andere konstruktive Stimmen im lauten Wirrwarr untergehen – selbst wenn diese Frage nicht beantwortbar sein sollte, dürfte sich der Diskurs hierum lohnen. Alte Leitbilder in neuen Paradigmen? Alte Paradigmen haben sicherlich einen Anteil daran, dass die digitale Transformation bis heute nicht ausreichend im theoretischen Diskurs dargestellt ist. Der strotzende Optimismus gegenüber der Digitalisierung in der zweiten Hälfte des letzten Jahrhunderts hatte sich zu einer dogmatischen Erwartungshaltung gewandelt, die nur enttäuscht werden konnte. Wohin auch immer uns der Eintritt in das Digitale Zeitalter gebracht hat, er öffnete jedenfalls nicht das Tor zur Agora des globalen Dorfes. Diese Analogien, so passend und glänzend sie in der Theorie auch erscheinen mögen, kreieren ein Trugbild. Die Realität lehrte uns, dass das globale Dorf laut und voller Gegensätze ist. Das Leben auf seinen Marktplätzen wird täglich von Wortgefechten überschattet. Auch die polisorientierte Basisdemokratie ist weit entfernt von der Realität des Netzes, die bisweilen eher an ein Babylon als an die Blütezeit Athens erinnert. Und eine Agora, die nur durch Zensur, Security-Personal oder Türsteher eine Fläche öffentlichen Austauschs werden kann, ist kein Raum des gesellschaftlichen Diskurses und seiner Fortentwicklung – von Manipulation und Betrug ganz zu schweigen. Ein Dorf, das die Aggression verschiedener Fronten nur durch Gesetze in den Griff bekommt und in dem sich die Menschen bedrohen, beschimpfen und ein zuträglicher Diskurs sich oft als unmöglich erweist, ist der Bezeichnung im gesellschaftlichen Sinne nicht würdig. Problematisch ist dies erst recht, wenn dieses Verhalten gegenüber SchlichterInnen und den politischen VertreterInnen an den Tag gelegt wird. Politik ist per se Konflikt, dieser sollte jedoch auf Basis von konstruktivem Austausch ausgestaltet werden. Mit dem Übergang vom Eliten- zum Allgemeindiskurs weichen jedoch auch informelle Regeln der Politik auf. Allein die Entfesselung der Teilöffentlichkeiten ist so immens, dass alte Betrachtungsweisen wie jene der Agora das Denken in Utopien heraufbeschwört. Selbst wenn es die Agora im Sinne eines auch nur halbwegs idealen politischen Diskurszustandes irgendwann gegeben haben sollte, haben wir in unserem Über-

342

M. Oswald

schwang vielleicht auch nur verkannt, dass selbst jene politischen Denker, die die Attische Polis erlebt haben, der Demokratie im Sinne einer direkten Volksherrschaft kritisch gegenüberstanden – sogar jene, die in der Natur des Menschen das Positive sahen. Real betrachtet wurde der bis heute überlieferte Diskurs auf der Agora ohnehin von wenigen Vollbürgern Athens gestaltet (Gellner 2001, S. 13 f.). In jedem Fall ist er weit entfernt von jedwedem Ideal heutiger Demokratietheorie. Nichtsdestoweniger ist die ‚E-Gora‘ ein normatives Leitbild, das uns als Orientierungsmaßstab dienen kann. Auf die Realität angewandt, ist sie zwar ein zerklüfteter Raum, in dem unüberlegte Gedanken herausposaunt werden und Diskurse, die Selbstreflexion und Orientierungshilfen bieten würden, in der Lautstärke untergehen. Professionelle Akteure, die mit hohen finanziellen Ressourcen eine gewisse Denkweise propagieren, mögen in der Agora noch vorstellbar sein. Spätestens Roboter (Bots) jedoch, die nur darauf programmiert sind, Unruhe zu stiften und die gleichzeitig kaum mehr von Menschen zu unterscheiden sind, verweisen die Literatur um die ‚E-Gora‘ in die Science-Fiction-Abteilung. Dennoch, ihre Idee sollte als normenstiftendes Sinnbild genauso wenig aufgeben werden, wie normative Sätze, die unter einer mangelnden Deckungsgleichheit leiden. Im Gegenteil, Demokratietheorien müssen vermehrt normative Ansprüche setzen, die jedoch auf Basis der Veränderungen der Digitalisierung und damit in Hinsicht auf ein neues Paradigma formuliert sind. Von dort aus gilt es, neue Orientierungsmaßstäbe zu setzen. Dazu gehört auch der Umgang mit einer breiteren Spanne an Meinungen – auch jene, die in prä-digitalen Tagen unterdrückt werden konnten und die heute Gehör finden. Die Möglichkeit, dass durch ein Engineering Demokratien systematisch verbessert werden können, würde sonst zunehmend außer Acht gelassen und die Suche nach Verbesserungsmöglichkeiten der Demokratie endete im Status Quo. Die Agora kann nach wie vor das Ideal sein, wie es für viele auch die Polis war bzw. ist. Gerade bei diesem Sinnbild idealtypischer Demokratie ist jedoch allen BetrachterInnen klar, dass es mit heutigen Maßstäben unerreichbar ist – und vermutlich nicht einmal erstrebenswert, geschweige denn praktikabel wäre. Gerade deshalb kann die Polis auch weitläufig als normativer Maßstab angesetzt werden, ohne Schaden anzurichten. Eine allgemein weniger negative oder pessimistische Perspektive auf die Digitale Transformation soll nicht bedeuten, dass warnende Stimmen leiser werden sollen. Ein solches Experiment eines derart tief greifenden Medienumbruchs kann natürlich eine Gefahr bedeuten, wie sie jedes einflussreiche Medium mit sich bringen kann – hier sei nur noch einmal auf die regimestabilisierende Wirkung des ‚Volksempfängers‘ verwiesen. Gerade in Zeiten von Unordnung, Zerrüttungen und Dissonanzen ist es einfach, anarchische Entwicklungen von ‚oben‘ mittels eines autoritären Impulses zu deckeln –

Digitale Disruption: Demokratietheorie im Paradigma …

343

schließlich soll hier hinein wieder Ordnung gebracht werden. Nicht zuletzt wurde auch das Radio in Demokratien relativ schnell und durchgreifend über Lizenzen, Sprachregelungen etc. reguliert. Hierin bestand das Ziel, die Funktionsfähigkeit des Radios zu erhalten und einen gesellschaftsverträglichen Duktus zu garantieren; in autoritären oder gar totalitären Regimen hingegen wurde mit dem neuen Medium ein Monopol gesichert. In beiden Fällen wurden damit also lediglich bestehende Strukturen verstärkt: demokratische, autoritäre oder gar totalitäre. Damit zeigt uns die Geschichte auch, dass nach wie vor das ‚Medium die Nachricht‘ ist und nach McLuhan die Veränderungen durch die Digitale Transformation in der Gesellschaft ohnehin mit großer Wirkung auftreten werden, nicht nur aufgrund der entfesselten individuellen Kräfte. Die digitalen Infrastrukturen sind dabei in einem solchen Maße ko-produktiv für die Gesellschaften, dass der Wandel viel mehr durch das Medium, als durch eine staatliche Steuerung geprägt sein wird. Dies kann eine Gefahr oder auch eine Chance für die Demokratie bedeuten; fest steht jedoch, dass ohnehin nur die Reaktion bleibt. Die großen Medienwandel und ihre Effekte In Bezug auf die Frage des gesamtgesellschaftlichen Umbruchs hilft es, den Blick noch einmal auf die Empirie des früheren medialen Wandels zu richten. Auch die Technik des Buchdrucks wurde mitunter als etwas Gefährliches interpretiert und ähnlich der Digitalen Transformation waren zunächst schnell die ‚negativen Effekte‘ des neuen Mediums erkennbar. Neben Raubdrucken zeigte sich jedoch, dass hiermit auch eine Möglichkeit geschaffen wurde, Werke zu verbreiten, in denen die traditionellen Strukturen kritisch betrachtet wurden. Sowohl geistliche als auch weltliche MachthaberInnen versuchten daher, derlei Drucke oder gar die Etablierung von gewissen Druckereien zu verhindern. Auch wurden Konzessionspflichten eingeführt und Schriften auf den Index gesetzt. Mitunter traf dies selbst Werke, die vor der Technologie des Buchdrucks frei verfügbar waren. Sie wurden nun erst durch den Medienwandel zum Problem. Damit war es auch damals die neue Reichweite der kritischen Stimmen, die den alten Mächten Sorgen bereitete. Davor waren diese Schriften schließlich nur wenigen zugänglich, und sie fristeten somit gezwungenermaßen ein Nischendasein. Die Angst vor Machtund Steuerungsverlusten mittels Hilfe der neuen Technologie war also beim Umbruch in das Gutenberg-Zeitalter genauso da, wie in der Frühdigitalisierung. Sie ist auch nach wie vor die treibende Kraft in der Diskussion um die Digitale Transformation. Der historische Vergleich währt sogar bis in die Zeit der Agora: Sokrates wurde schließlich zum Tode verurteilt, weil seine Ansichten abseits von den Vorstellungen der Politik standen. Auch hier sollte geschützt werden, was schützenswert erschien.

344

M. Oswald

Auch nach der Einführung der Druckerpresse waren die Reaktionen, Regulationen zu umgehen, keine Ausnahme und häufig von Erfolg gekrönt. Dafür dienten Kunstgriffe wie fingierte Verlagsnamen, falsche Druckorte oder anonyme Auflagen. Auch die Anonymität des Netzes oder falsche Identitäten stehen diesen in nichts nach. Weiterhin fungierten Druckereien ‚im Untergrund‘ und auch die institutionalisierte Kontrolle konnte die Verbreitung von missliebigen Schriften nicht vollständig verhindern. Zwar war die Zensur ein wirksames Mittel, um dies einzudämmen; komplett unterbinden konnten dies jene Drucke jedoch genau so wenig, wie das Netzwerkdurchsetzungsgesetz in Hinsicht auf Hate Speech oder Beleidigungen bislang eine durchschlagende Wirkung erzielt. Die Liste der Parallelen und der Bedenken ist lang, das Problem der Raubrucke zwängt sich als direkter Vergleich zur heutigen Copyright-Frage nahezu auf. Demokratietheoretisch ist die Erörterung dieser Parallelen jedoch müßig. In dieser vergleichenden Perspektive ist hingegen eine Tatsache besonders relevant: Heute werden die Errungenschaften des Gutenberg-Zeitalters im Großen und Ganzen als durchweg positiv gesehen. Freilich zeigte sich, dass die Ängste vor Umstürzen auch begründet waren – was allein Luthers Möglichkeiten mit der neuen Technologie für die Kirche bedeuteten, ist hinlänglich bekannt. Zudem wirkte Luthers Befreiungsschlag auch auf die Politik und die Idee der liberalen Demokratie stark zurück. Nicht nur wurde hierbei ein neues Verständnis von politisch-religiöser Freiheit gesetzt, die Reformation befreite Menschen schließlich auch praktisch aus vielen Abhängigkeiten. Luther kann sogar als Vordenker des modernen Freiheitsbegriffes gelten, da ohne dessen Vorprägung beispielsweise auch Rousseaus Definition in seiner Form wohl nicht gedacht hätte werden können – und dieser prägt die Politische Theorie bis heute. Entwicklungen wie eine grundlegend neue Bedeutung des Freiheitsbegriffs oder überhaupt ein Verständnis dafür, konnten in einer Frühphase des Buchdrucks nicht vorhergesehen werden, ebenso wenig wie man dies zum heutigen Zeitpunkt in Bezug auf die Implikation der Digitalisierung vermag.8

8Auch

wenn es scheint, dass der Kern des Freiheits-Begriffes in der Transformation zum digitalen Zeitalter zwar jener bleibt, der er aus dem Wandel des Gutenberg-Zeitalter heraus wurde, kann eine Betrachtung aus einem neuen Paradigma heraus dem Verständnis für etwaige Bedeutungswandel jedoch nur zuträglich sein, wie neue Perspektivensetzungen bei Abgrenzungen zwischen positiver und negativer Freiheit o.ä. Insbesondere die neue Verortung der Freiheit in Abhängigkeit eines Mangels von Verantwortung ist untertheoretisiert.

Digitale Disruption: Demokratietheorie im Paradigma …

345

In der systemischen Frage mag der Vergleich hinken, da damals Freiheit in autoritär geprägten Systemen erstrebt wurde und heute ein Teil der in die Öffentlichkeit eingespeisten Kommunikation als demokratieschädigend gewertet wird. Somit stehen in diesem Vergleich der Schutz freiheitlicher Errungenschaften freiheitlichen Bestrebungen in autoritären Strukturen gegenüber. Und wo die zentralen Elemente der Demokratie gefährdet sind, muss eingegriffen werden. Daher ist der Versuch von staatlichen Korrekturen und Kanalisierungen in einem anarchischen Raum auch mehr als ein natürlicher Reflex. Dennoch stehen wir an einem ganz ähnlichen Punkt, an dem die analoge Form von Staat und Gesellschaft sich mehr der digitalen Entwicklung wird anpassen müssen, als anders herum. Schließlich werden – ähnlich wie dies vor 500 Jahren der Fall war – die entfesselten Kräfte mehr Einfluss auf Staat und Gesellschaft haben als umgekehrt. Und auch wie im großen Umbruch des 16. Jahrhunderts befinden wir uns in einer Frühphase und können dessen Folgen immer noch nicht vollständig abschätzen. Es gibt gute Gründe, warum die Warnungen überwiegen, allerdings sollten dabei die pessimistischen Stimmen den Ausblick auf Freiheiten sowie Nivellierungs- und Partizipationsmöglichkeiten nicht vollständig übertönen, weil damit normatives Potenzial verloren geht. Mit Blick auf die Grundfesten der liberalen Demokratien bedeutet die Digitalisierung zwar ein hohes Maß an Disruption für die Demokratietheorie, allerdings steht dahinter auch die Tatsache, dass einige grundlegende Fragen, wie jene nach fundamentalen Normen, für das Zeitalter der Digitalisierung nicht vollkommen neu beantwortet werden müssen. Wenn auch die Bedeutung gewisser Werte in den Dissonanzen des Netzes allzu häufig verloren zu gehen scheint, ist durch das Dickicht von pessimistischen Haltungen in Empirie und bisweilen auch in Theorie durch die Digitalisierung ein weit höherer Demokratiegrad erreicht, als er jemals zuvor da war. Die Demokratie wurde selten als perfekt bezeichnet und es ist auch klar, dass Menschen nicht durchweg sozial-altruistisch geprägt sind. Diese Eigenschaften kehren als Erweiterung der Sinne nun verstärkt nach außen, in dem die einzelnen Haltungen teilweise gebündelt in die Öffentlichkeit brechen und nicht die Strukturen, die sie entfesselten. Daher gilt es mit den Suchstrategien eine neue Form von Kanalisierung und eine Grundlage dafür zu finden, die den wichtigsten Bereich der Öffentlichkeit im Sinne eines non-kontroversen Sektors schützt. Und das ist der Wille zum Zusammenleben. Ist dieser Konsens gewährleistet, können die Neuerungen der Digitalisierung ein Gewinn für den Pluralismus in gefestigten Demokratien sein.

346

M. Oswald

Literatur- und Quellenverzeichnis Barber, Benjamin. 2004. Strong Democracy. Which technology and which democracy? In Democracy and the New Media, Hrsg. Henry Jenkins, und David Thorburn. London: MIT Press. (Erstveröffentlichung 1984). Castells, Manuel. 2004. The power of identity: The information age: Economy, society and culture, Bd. II. Oxford: Blackwell. Ceccarini, Luigi. 2019. Could the internet be a safety-net for democracy in crisis? Italian Political Science Review/Rivista Italiana di Scienza Politica:1–17. https://doi. org/10.1017/ipo.2019.24. Dahlgren, P. M. (2019). Selective Exposure to Public Service News over Thirty Years: The Role of Ideological Leaning, Party Support, and Political Interest. The International Journal of Press/Politics 24 (3): 293–314. https://doi.org/10.1177/1940161219836223. Dahl, Robert A. (1989). Democracy and its critics. New Haven: Yale University Press. Fraenkel, Ernst. 1979. Deutschland und die westlichen Demokratien (7. Aufl.). Stuttgart: UTB. (Erstveröffentlichung 1964). Gellner, Winand. 2001. Das Internet: Digitale agora oder Marktplatz der Eitelkeiten?', forum medienethik, 1: e-Demokratie=Ende der Demokratie? S. 12–19. Iyengar, Shanto, und Kyu S. Hahn. 2009. Red media, blue media: Evidence of ideological selectivity in media use. Journal of Communication 59: 19–39. https://doi.org/10.1111/ j.1460-2466.2008.01402.x. Kuhn, Thomas S. 1979. Die Struktur wissenschaftlicher Revolutionen. Frankfurt a. M.: Suhrkamp. (Erstveröffentlichung 1962). McLuhan. 1962. The Gutenberg Galaxy: The Making of Typographic Man. University of Toronto Press. McLuhan, Marshall. 1964. Understanding media. The extensions of man. London: Routledge & Kegan Paul Ltd. McLuhan, Marshall, und Louis Forsdale. 1989. Technology and the human dimension. In Marshall McLuhan: The man and his message, Hrsg. George Sanderson und G. Sanderson, 10–24. Golden, Colo.: Fulcrum. McLuhan. 1995 [1964]. Understanding Media: The Extensions of Man. London: Routledge & Kegan Paul. Popper, Karl Raimund. 1973. Logik der Forschung. Tübingen: Mohr (Paul Siebeck). Popper, Karl Raimund. 2003. Gesammelte Werke in deutscher Sprache. Bd. 5 und 6. Die Offene Gesellschaft und Ihre Feinde. Bd. 1: Der Zauber Platons. Bd. 2: Falsche Propheten: Hegel, Marx und die Folgen. Tübingen: Verlag Mohr Siebeck. Prior, M. (2013). Media and political polarization. Annual Review of Political Science 16:101–127. Rosanvallon, Pierre. 2017. Die Gegen-Demokratie. Politik im Zeitalter des Misstrauens. Hamburg: Hamburger Edition. Seubert, Sandra, und Paula Helm. 2019. Normative Paradoxien der Privatheit in datenökonomischen Zeiten. Eine sozialkritische Perspektive auf eine digitale „Krise“ der Privatheit. In Internet und Staat. Zur Komplexität eines Beziehungsgeflechts, Hrsg. Isabelle Borucki und Wolf Schünemann, 81–104. Baden-Baden: Nomos Verlag.

Digitale Disruption: Demokratietheorie im Paradigma …

347

Skovsgaard, Morten, Adam Shehata, und Jesper Strömbäck. 2016. Opportunity structures for selective exposure: Investigating selective exposure and learning in swedish election campaigns using panel survey data. International Journal of Press/Politics. https://doi. org/10.1177/1940161216658157. Tucker, Joshua, Andrew Guess, Pablo Barbera, Cristian Vaccari, et al. 2018. Social media, political polarization, and political disinformation: A review of the scientific literature. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3144139. Yeo, Sara K., Michael A. Xenos, Dominique Brossard, und Dietram A. Scheufele. 2015. Selecting our own science: How communication contexts and individual traits shape information seeking. Annals of the American Academy of Political and Social Science. https://doi.org/10.1177/0002716214557782. Winkler, Hartmut. 2008. Basiswissen Medien. Frankfurt a. M.: Fischer.

AutorInnenverzeichnis

Annegret Bendiek  ist Mitarbeiterin bei der Stiftung Wissenschaft und Politik. Sebastian Berg  ist Wissenschaftlicher Mitarbeiter und Doktorand am ­Weizenbaum-Institut für die Vernetzte Gesellschaft, Forschungsgruppe „Demokratie und Digitalisierung“ Isabelle Borucki  ist Akademische Rätin an der  NRW School of Governance, Institut für Politikwissenschaft, Universität Duisburg-Essen. Dort leitet sie die Forschungsgruppe ‚DIPART. Digitale Parteienforschung – Parteien im digitalen Wandel‘. Isabelle Borucki forscht zu politischen Organisationen, insbesondere Parteien, vergleichend zu Regierungen sowie zu Informationstechnologie und der Digitalisierung von Politik. Methodisch arbeitet sie mit Sozialer Netzwerkanalyse, Mixed-Methods sowie integrierten Forschungsdesigns. Sebastian Dregger legte das Magisterexamen in den Fächern Politikwissenschaften, Neuere und Neueste Geschichte und Geschichte Lateinamerikas an der KU Eichstätt-Ingolstadt ab. Danach promovierte er im Teilbereich „Vergleichende Regierungslehre“ mit einer Arbeit über den US-Supreme Court. Die Arbeit erschien 2019 unter dem Titel „Die Verfassungsinterpretation am US-Supreme Court – Begründungen und politische Ausrichtung zwischen „Originalism“ und „Living Constitution“ in der Reihe „Politik und Recht“ im Nomos-Verlag. Jasmin Fitzpatrick ist akademische Rätin am Institut für Politikwissenschaft der Johannes Gutenberg-Universität Mainz. Ihre Forschungsinteressen liegen im Bereich der Erforschung Politischer Organisationen mit Schwerpunkt Parteien, der Politischen Kommunikation sowie der Politischen Soziologie. Dabei bevorzugt sie

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Oswald und I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung, https://doi.org/10.1007/978-3-658-30997-8

349

350

AutorInnenverzeichnis

einen vergleichenden Zugang unter Berücksichtigung westlicher Demokratien und den Einsatz von Mixed-Methods. Annett Heft leitet die Forschungsgruppe Digitalisierung und transnationale Öffentlichkeit am Weizenbaum-Institut für die vernetzte Gesellschaft, Berlin, und ist wissenschaftliche Mitarbeiterin am Institut für Publizistik- und Kommunikationswissenschaft der Freien Universität Berlin. Ihre Forschungsschwerpunkte sind die vergleichende Analyse politischer Kommunikation und Mobilisierung in Europa mit einem besonderen Fokus auf digitalen Öffentlichkeiten, rechte Kommunikationsinfrastrukturen, transnationale Kommunikation und grenzüberschreitendem Journalismus sowie quantitative Forschungsmethoden und Computational Social Science. Gizem Kaya  studierte Philosophie an der Universität Potsdam, Liberal Arts & Sciences am University College Maastricht und war am Lehrstuhl für Politische Philosophie und Philosophische Anthropologie, am Lehrstuhl für Ethik und Ästhetik der Universität Potsdam und am Lehrstuhl für Praktische Philosophie der Freien Universität Berlin beschäftigt. Curd Knüpfer  ist Juniorprofessor für Politikwissenschaft mit dem Schwerpunkt politische Kommunikation und Medien in Nordamerika am John F. Kennedy Institut der Freien Universität Berlin. Zudem ist er assoziierter Forscher am Weizenbaum-Institut für die vernetzte Gesellschaft in Berlin. Seine Forschungsschwerpunkte sind der digitale Wandel von Öffentlichkeit, rechte Medien und Gegenöffentlichkeiten, sowie Framing-Konflikte und eine vergleichende Perspektive auf die Politik der USA. Paul F. Langer ist Wissenschaftlicher Mitarbeiter am Lehrstuhl für Informationsund Kommunikationsmanagement an der Universität Speyer. Adriano Mannino  ist Philosoph und Sozialunternehmer. Er forscht im Schnittbereich von Entscheidungstheorie, Ethik und Politik und ist am Lehrstuhl für Philosophie und politische Theorie der Ludwig-Maximilians-Universität München tätig. Zudem leitet er das Solon Center for Policy Innovation der Parmenides Stiftung in München-Pullach. Jürgen Neyer ist Professor für Europäische und Internationale Politik an der Europa-Universität Viadrina und Direktor der European New School of Digital

AutorInnenverzeichnis

351

Studies in Slubice, Polen. Er arbeitet aktuell zu Fragen der europäischen digitalen Souveränität und der Regulierung künstlicher Intelligenz. Michael Oswald ist Akademischer Rat am Lehrstuhl für Politikwissenschaft der Universität Passau, sowie Associate Research Fellow und Lehrbeauftragter am John F. Kennedy Institut und Faculty-Member bei CIFE (Int. Zentrum für europäische Bildung). Er hielt Visiting Scholar Appointments an den Universitäten Texas A&M und Harvard. Barbara Pfetsch  ist Professorin für Kommunikationswissenschaft und Leiterin der Arbeitsstelle Kommunikationstheorie und Medienwirkungsforschung an der Freien Universität Berlin sowie Principal Investigator und Pojektleiterin am Weizenbaum-Institut für die Vernetzte Gesellschaft. Ihre Forschungsschwerpunkte sind international vergleichende Untersuchungen von Öffentlichkeit und politischer Kommunikation sowie Themennetzwerken und Debatten in digitalen Medien. Claudia Ritzi ist Professorin für Politische Theorie und Ideengeschichte an der Universität Trier. Ihre Forschungsschwerpunkte liegen im Bereich der demokratischen Öffentlichkeitsforschung, deliberativen Demokratietheorie, Digitalisierung und Partizipation. Daniel Staemmler ist Sozialwissenschaftler und als wissenschaftlicher Mitarbeiter im ERC-Projekt ‚Protest and order. Democractic theory, contentious politics, and the changing shape of western democracies (POWDER)‘ am Lehbereich ‚Theorie der Politik‘ (Prof. Dr. Christian Volk) des Instituts für Sozialwissenschaften der Humboldt-Universität zu Berlin beschäftigt. Carolin Stötzel ist wissenschaftliche Mitarbeiterin am Lehrstuhl für Politikwissenschaft der Universität Passau. Ihre Forschungsschwerpunkte liegen in den Bereichen Digitalisierung und Entwicklungszusammenarbeit. Hierbei beschäftigt sie sich insbesondere mit Governance der digitalen Transformation. Dr. Ben Wagner  ist Assistenzprofessor und Direktor des ‚Privacy & Sustainable Computing Lab‘ an der Wirtschaftsuniversität Wien (WU Wien). Seine Forschungsschwerpunkte sind Technologiepolitik, Menschenrechte und rechenschaftspflichtige Informationssysteme.

352

AutorInnenverzeichnis

Jan Weyerer ist Wissenschaftlicher Mitarbeiter am Lehrstuhl für Informationsund Kommunikationsmanagement an der Universität Speyer. Moritz Wiesenthal  (geb. Fessler) arbeitet und promoviert am Lehrstuhl für Internationale und Europäische Politik der Europa Universität Viadrina in Frankfurt (Oder). Seine Forschungsschwerpunkte umfassen digitale Öffentlichkeit, europäische Integration und Parlamentarismus, insbesondere das Europäische Parlament. Zuvor war er unter anderem im Deutschen Bundestag tätig. Alexandra Zierold ist Wissenschaftliche Mitarbeiterin und Doktorandin an der Professur für „Politische Theorie und Ideengeschichte“ der Universität Trier. Vor der Promotion war sie als Research Assistant am Centre for Applied Linguistics (CAL), University of Warwick, U.K., an zwei ERC-geförderten Projekten (DISCONEX und INTAC) beteiligt. In ihrer Dissertation beschäftigt sie sich mit den Möglichkeiten politischen Handelns unter den Bedingungen der Digitalisierung.