216 45 3MB
German Pages 233 [234] Year 2020
Virtuelle Lebenswelten
Virtuelle Lebenswelten Körper – Räume – Affekte Herausgegeben von Stefan Rieger, Armin Schäfer und Anna Tuschling
Gedruckt mit freundlicher Unterstützung der Ruhr-Universität Bochum und der Fakultät für Philologie der Ruhr-Universität Bochum
ISBN 978-3-11-063486-0 e-ISBN (PDF) 978-3-11-063812-7 e-ISBN (EPUB) 978-3-11-063513-3 DOI https://doi.org/10.1515/9783110638127
Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell Keine Bearbeitung 4.0 International Lizenz. Weitere Informationen finden Sie unter http://creativecommons.org/licenses/by-nc-nd/4.0/. Library of Congress Control Number: 2020943901 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2021 Stefan Rieger, Armin Schäfer und Anna Tuschling, publiziert von Walter de Gruyter GmbH, Berlin/Boston. Dieses Buch ist als Open-Access-Publikation verfügbar über www.degruyter.com. Coverabbildung: Grafik von Niklas Münchbach Satz: Integra Software Services Pvt. Ltd. Druck und Bindung: CPI books GmbH, Leck www.degruyter.com
Inhaltsverzeichnis Stefan Rieger, Armin Schäfer und Anna Tuschling Virtuelle Lebenswelten: Zur Einführung 1
Körper Dirk Baecker Virtuelle Intelligenz: Eine begriffliche Übung
13
Dawid Kasprowicz Die Entgrenzung des Banalen: Zur virtuellen Beobachtung des Embodiment in der Robotik 29 Kathrin Friedrich Adaptive Bildgebung: Situative Kopplungen von Bild, Körper und Handlung 49 Christina Lechtermann und Markus Stock Virtuelle Textkonstitutionen: Die Philologie und ihre mittelalterlichen Objekte 63 Natalie Binczek und Armin Schäfer Virtualität der Literatur: Eine Sondierung
87
Affekte Felix Raczkowski Vom epistemischen Überschuss virtueller Welten: Online-Spiele zwischen Ritual, Labor und Sozialexperiment 105 Anna Tuschling Faltungen von Analog und Digital: Affektivität und das Social-Media-Dilemma 125
VI
Inhaltsverzeichnis
Räume Jens Kersten Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen von Augmented und Virtual Reality 141 Jens Schröter Virtualisierungen der Umwelt: Augmented Reality
165
Inge Hinterwaldner Irritierende Artefakte: Wie sich die handlungsbezogene Virtualität in Modellen zeigt 181 Stefan Rieger Virtual Humanities
207
Autorinnen und Autoren
227
Stefan Rieger, Armin Schäfer und Anna Tuschling
Virtuelle Lebenswelten: Zur Einführung 1 Virtuelle Lebenswelten sind nicht zu den Gegenwelten geworden, die man in den achtziger und neunziger Jahren des zwanzigsten Jahrhunderts glaubte entstehen zu sehen. Wie aus einer fernen Epoche lesen sich die Beschreibungen jener virtuellen Realität, die auf der technologischen Basis namens Internet praktisch-kommunikativ errichtet werden sollte: Users of IRC [Internet Relay Chat] treat the medium as a frontier world, a virtual reality of virtual freedom, in which participants feel free to act out their fantasies, to challenge social norms, and exercise aspects of their personality that would under normal interactive circumstances be inhibited. (Reid 1991)
Solche Beschreibungen der Virtualität drückten den Wunsch aus, dass nationale Grenzen, Geschlechterdifferenzen und Klassenunterschiede verschwinden sollten, aber trugen wenig zu einer Klärung der elektronischen Realität bei.1 Ende der neunziger Jahre dominierten noch die Semantiken der befreienden Entgrenzung und Enthemmung in der virtuellen Realität digitaler „frontier worlds“ (Reid 1991) oder auch der elektronischen Landnahme (Barlow 1996). Seither haben sich die User*innen im angebrochenen Zeitalter der Sensing Media (Gabrys 2019), Smart Homes, digitalen Diener (Krajewski 2010) und intelligenten Assistenzen jedoch in ihren virtuellen Lebenswelten buchstäblich häuslich eingerichtet.2 An die Stelle virtueller Weiten sind nun scheinbar übersichtliche, aber hochvernetzte virtuelle Szenarien und vermeintliche Kleinstwelten getreten. Allerdings griffe es zu kurz, nach dem Ausbleiben einer freien Electropolis eine Entzauberung im ‚digitalen Biedermeier‘ zu diagnostizieren. Auch wenn die virtuelle Realität keine gänzlich neuen Lebens- oder Zufluchtsräume eröffnet (Maset 1995), ist sie aufgrund ihrer Funktionalität und Wandelbarkeit trotzdem nicht weniger spektakulär. Das Virtuelle hat sich in Form multipler virtueller Lebenswelten vielmehr auf das Smarteste an das Alltägliche angeschmiegt. Die wenig plausiblen Figuren einer Verdopplung der Welt (Münkler 1997) sind komplexen Arrangements der Koexistenz, der Aushandlung und
1 Vgl. hierzu die Reaktion von Kittler 1998. 2 Zu einer Historiographie, in der die Technikgeschichte mit den kollektiven Phantasmen verschränkt ist, vgl. Sprenger 2020 und Kanderske und Thielmann 2020. Open Access. © 2021 Stefan Rieger et al., publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz. https://doi.org/10.1515/9783110638127-001
2
Stefan Rieger, Armin Schäfer und Anna Tuschling
des Nebeneinanders gewichen. So spricht Karen Barad davon, dass die Lebenswelt keine „arbiträre Konstruktion unserer Wahl“ sei, sondern „aus spezifischen Praktiken heraus sedimentiert“ (1998, 102).3 Die Beiträge des Bandes versammeln exemplarische Szenarien virtueller Lebenswelten. Diese haben vor allem eines gemeinsam. Sie teilen auf je ihre Weise den Befund, dass Virtualität in die unterschiedlichen Bereiche des Alltags vorgedrungen und legitimer Teil einer Lebenswelt geworden ist, zu der man sich verhalten muss. Der Einsatz und die Formen der Virtualität sind heutzutage von größter Vielfalt: Man kann in der virtual library ein E-Book ausleihen, im virtuellen Klassenzimmer lehren, virtuelle Museen besuchen und mit virtueller Kunst interagieren, man kann als Egoshooter in einer virtuellen Welt spielen und im E-Government mitwirken. Die Verbreitung virtueller Instrumente in der Forschung ist mit ihren Einsatzmöglichkeiten stetig gewachsen. So erblicken in den Ingenieurswissenschaften immer mehr neue Dinge zunächst einmal im umweltverträglichen Modus der Virtualität, der Ressourcen schont, das Licht der Welt. In der medizinischen Therapie werden virtuelle Welten zur Behandlung von Ängsten und Phobien eingesetzt. Der universitären Lehre steht mit virtuellen Instrumenten ein Ensemble von didaktischen und pädagogischen Mitteln zur Verfügung, das den Lehrinhalten keineswegs äußerlich ist: Virtuelle Hörsäle, social reading, blended learning sind nicht allein nützliche Mittel, um eine effektive Fernlehre zu organisieren, sondern gestalten auch die Lehre unter Anwesenden maßgeblich um. Die Fragen, die sich aus dieser Lage ableiten, lauten daher schon seit einiger Zeit nicht mehr, ob Virtualität sinnvoll und nützlich sei, sondern wie sie gestaltet werden soll. Es kann nicht mehr wie noch am Ende des zwanzigsten Jahrhunderts darum gehen, die Menschen von virtuellen Welten fernzuhalten, sondern darum, vernünftige und nützliche Umgangsweisen mit der Virtualität zu finden und zu erfinden. Virtualität eröffnet einen eigenen Raum für Handlungen, für Erfindungen, für Handhabungen von Gegenständen, für Fingerfertigkeiten, für Interaktionen, für sozialen Austausch sowie eine Konzeptualisierung von Handlungsträgerschaft, die auch den Bereich nicht-menschlicher Agenten umfasst. Diese Ausgestaltung virtueller Lebenswelten ist mit einer trennscharfen Unterscheidung von Realität und Virtualität nicht zureichend zu beschreiben. Virtualität erzeugt für Menschen neue Umwelten und Lebensräume, die aus welchen Gründen und in welchen Verschränkungen von realer, virtueller oder augmentierter Realität auch immer den Menschen – selbst oder in Formen der Stellvertretung – in Handlungsszenarien verstricken. Das gilt nicht zuletzt
3 Zum Konzept der Lebenswelt siehe Husserl 2008. Vgl. ferner Adam et al. 2016.
Virtuelle Lebenswelten: Zur Einführung
3
auch für eine Veränderung in den Sozialbeziehungen.4 Konkret heißt das: Die technischen Hilfsmittel zur Produktion und zum Einsatz virtueller Phänomene und Anwendungen sind allgegenwärtig, werden immer kleiner und Bestandteil alltäglicher Routinen. Oder anders, weil mit Blick auf die Lebenswelt gesagt: Virtualität ist als legitimer Teil der Lebenswelt nicht mehr zu marginalisieren. Sie, die in ihrer zum einen sehr kurzen Technikgeschichte und zum anderen in ihrer langen Konzeptgeschichte in Philosophie, Literatur und bildender Kunst als phantasmatischer Fluchtpunkt alteritärer Erfahrungen und spektakulär gefasster Gegenwelten diente, ist im Alltag angekommen. Sie ist Teil der Normalität. Und als solche gilt es ihr zu begegnen.
2 Die meisten Definitionen des Begriffs Virtualität versuchen ihn durch Gegenbegriffe wie Realität, Wirklichkeit, Tatsächlichkeit oder Aktualität zu erhellen. Virtualität soll Eigenschaften eines Phänomens, Objekts oder Sachverhalts bezeichnen, die nicht so sind, wie sie scheinen. Sie sind möglich oder fiktiv oder rufen eine Illusion hervor. Insofern stellt der Begriff immer auch auf ein Subjekt des Wahrnehmens und Erlebens ab, das zwischen virtuellen Eigenschaften und denjenigen, die durch die Gegenbegriffe bezeichnet werden sollen, unterscheidet. Die heterogenen Anwendungsfelder des Begriffs in Philosophie und Physik, Psychologie und Informatik, Medien- und Kulturwissenschaften, Pädagogik und Medizin, in Technik, Verwaltung und Alltag scheinen hingegen eine dichotomische Aufteilung von einerseits Schein, Fiktion, Illusion und andererseits von Realität zu unterlaufen. Definitionen von Virtualität, die sie durch ihren niedrigeren Seinsrang von der Realität absetzen, greifen zu kurz. Und keineswegs ist der Begriff auf das Phänomen der virtual reality einzugrenzen, in dem die kritische Evaluation einer durch digitale Technologien veränderten Lebenswelt ihre Zuspitzung fand. Virtualität bezeichnet mehr und anderes als die Errichtung von artifiziellen Umwelten, in die Benutzer*innen mit Hilfe von technischen Interfaces eintreten. Und ebenso wenig geht sie in ihrer medientechnologischen Implementierung auf.5
4 Zu einer frühen Reaktion der Soziologie vgl. Braun-Thürmann 2004. 5 Zu Varianten einer vordigitalen Virtualität vgl. Rieger 2003.
4
Stefan Rieger, Armin Schäfer und Anna Tuschling
Eröffnet ist mit der Virtualität zugleich ein Ringen um den Begriff des Realen. Dieses Ringen schlägt sich in einem regelrechten Wettbewerb nieder, die beiden scheinbar dichotomisch gehegten Bereiche zueinander zu positionieren und gegeneinander in Stellung zu bringen. Die Realität gerät unter Druck – operativ, konzeptuell und nicht zuletzt pragmatisch. Die Differenzierungsbemühungen um das eben nur scheinbar dichotomische Verhältnis zwischen dem Realen und dem Virtuellen haben Anteil an einer autologischen Wende in den Beobachtungsverhältnissen, der zufolge die eindeutige Unterscheidung zwischen real und virtuell, von wirklich und möglich einer Pluralisierung möglicher Unterscheidungen vor dem Hintergrund einer wechselseitigen Beobachtbarkeit und bezogen auf die historische Variabilität von medientechnischen Umgebungen zu weichen hat. Die philosophische Frage nach dem Realitätsgehalt der Realität spielt für die lebensweltliche Praxis keine besondere oder eben nur eine untergeordnete Rolle. Im Virtuellen gibt es, wie Elena Esposito mit Blick auf Niklas Luhmanns Sicht auf den Beitrag des Lesens für die Verwirbelungen möglicher Seinsverhältnisse schreibt, „keine falschen realen Objekte, sondern wahre virtuelle Objekte, für welche die Frage der realen Realität ganz und gar gleichgültig ist“ (1998, 270). Klassische Unterscheidungen treten im Zuge dessen hinter veränderte Funktionalitäten zurück (Esposito 2019).6 Dieser Befund, der anlässlich der Positionierungsbemühungen um das Fiktionale und das Virtuelle erhoben wird, ist umso auffallender, weil er quer steht zum praktischen Geschäft der Technikentwicklung virtueller Realitäten.7 Zumeist herrschen Semantiken vor, die sich in den Dienst eines die Kluft überwindenden Brückenschlags stellen oder deren Anliegen in der Verschmelzung der getrennten Bereiche liegt. Bridging und Merging werden zu Standortformulierungen, die das überbordende Publikationsfeld bestimmen und auf ihre Weise auch Wege der Forschungslandschaft kartieren.8 Der technische Diskurs scheint auf der operativen und heuristischen Stabilität der Unterscheidung zu beharren und veranlagt die Approximation an eine vermeintlich stabile Referenz des Realen als sein maßgebliches Ziel. Diese Ausrichtung treibt in seiner rein technischen Verhandlung, die auf die stetige Steigerung seiner Möglichkeiten angelegt ist, wundersame Blüten. Eine davon ist der Versuch, die Realität mit Eigenschaftswörtern und uneigentlichen Distanzierungsgesten wie
6 Eine besondere Aufmerksamkeit kommt dabei dem Spiel zu. Siehe Dongus 2017. 7 Zu dieser Genealogie und ihrer historischen Taktung siehe Sprenger 2020 und Kanderske und Thielmann 2020. 8 Zur Bandbreite dieser ausdifferenzierten Semantik der Brücke und des Verschmelzens vgl. Saracco 2019 sowie Coppens 2017.
Virtuelle Lebenswelten: Zur Einführung
5
der in Anführungszeichen gesetzten ‚real‘ presence oder dem Konzept einer real reality qualifizieren zu wollen (Mantovani und Riva 1999; Bruns 2005, 117–123).9 Ein weiteres Indiz für die Verwirbelungen ist die Einführung von Ordinalzahlen wie im Fall der Unterscheidung zwischen ersten und zweiten Naturen, die in der Nähe von Medien auch schon zu anderen Zeiten gerne erhoben wurde und damit die modernistische Fixierung auf einen bestimmten (und oftmals mit der Digitaltechnik gleichgesetzten) Stand der Medienevolution relativiert.10 Und so wie es zweite Naturen gibt (und auch in vordigitalen Zeiten immer schon gab), die das Optisch-Unbewusste, wie es Walter Benjamin mit Blick auf die epistemologische Leistung der Foto- und Kinematografie einmal genannt hat, erst durch technische Intervention wie die Dehnung oder Raffung der Zeit manifest werden lassen, so gibt es auch Zählspiele im Bereich der Realitätsbezüge (Lifton und Paradiso 2009). Neben zweite treten auch dritte Realitäten – wie es in einem Text heißt, der das berühmt gewordene Kontinuum zwischen dem Realen und dem Virtuellen aufgreift und um die Instanz der Imagination erweitert (Milgram und Kushino 1994; Stapleton und Davies 2011). Auch die Frage nach der ultimativen Virtuellen Realität fügt sich in diese Logik. Dabei fallen mit der Rede von der ultimativen Virtuellen Realität zwei Aspekte ins Gewicht: Das ist zum einen die ausgewiesene Nähe zu programmatischen Entwürfen, wie sie 1965 vom amerikanischen Computergraphikpionier Ivan E. Sutherland medienhistorisch folgenreich als Ultimate Display verhandelt wurde und damit einen Standard für die Technophantasien des zwanzigsten Jahrhunderts setzte (Sutherland 1965). Auch für die VR wird ein solcher Zustand des Letztendlichen, des nicht mehr Überbietbaren, kurzum: des Ultimativen, beschworen und diese Rede vom Ultimativen (The ultimate VR) mit einem zunächst wenig Technischen ins Verhältnis gesetzt. Ausgerechnet ein anthropologischer Tatbestand, das Träumen, genauer noch das unter dem Begriff des Klarträumens gefasste Spezialphänomen menschlicher Imaginations- und Vorstellungsleistung dient der Technik als Zielvorgabe und dem Ultimativen als ultima ratio. The ultimate VR might look like lucid dreaming, the phenomenon of knowing one is dreaming while in the dream. Lucid dreaming can be used as an introspective tool and, ultimately, increase mental well-being. What these introspective experiences are like
9 Zu anderen nicht technisch hergestellten Präsenzerfahrungen vgl. Roballo und Delgado 2019. 10 Mit Bezug auf optische Medien trifft kein Geringerer als Walter Benjamin diese Unterscheidung. Siehe Benjamin 1980.
6
Stefan Rieger, Armin Schäfer und Anna Tuschling
for lucid dreamers might be key in determining specific design guidelines for future creation of a technological tool used for helping people examine their own thoughts and emotions. (Kitson et al. 2018)
Die Messbarkeit des Realitätsgehalts der technisch vermittelten (und virtuellen) Realität hält eine Forschungsbewegung in Gang, in deren Zentrum Operationalisierungen und Qualifizierungen des präsentischen Eindrucks stehen. Sie wird vielfach mit der Frage nach einem Bewusstsein solcher Zustände verknüpft (Nilsson et al. 2016). Weil für die Beschreibung von Eigenschaften entsprechender Eindrücke Eigenschaftswörter zuständig sind, vollziehen sich solche Erhebungen oftmals mittels der Skalierung von Adjektiven.11 Die virtuelle Realität ist keine Welt ohne Eigenschaften. Neben Fragen der Umsetzung wird das Verhältnis von Immersion zu unterschiedlichen Konzeptualisierungen von Präsenz selbst Gegenstand konzeptueller Überlegungen. Diese haben ihren Fluchtpunkt in der Frage, ob die Approximation so weit gediehen ist, dass es zu Vertauschungen kommen kann. Sowohl die Qualifizierung des Eindrucks als auch die Frage nach dem Wissen um den jeweiligen Zustand weisen dabei Ähnlichkeiten mit dem Phänomen des lucid dreaming auf. Dieser Eintrag des Wissens in die Register des Unbewussten beschert dem Phänomen des Klarträumens, das doch sonst eher als ein beliebiges (und von einem gelegentlichen Interesse seitens der Esoterik begleiteten) Phänomen aufgefasst wurde, einen doch sehr grundsätzlichen Status bei der Bestimmung möglicher Welten. Es stellt sich die Frage, ob und wenn ja an wie vielen Welten man wissentlich gleichzeitig teilhaben kann. Diese Frage verschiebt den Fokus von einer anthropologischen Kasuistik mit einem doch sehr eingeschränkten Geltungsbereich zu einer Systematik von Existenzweisen in unterschiedlichen Weltentwürfen. Kurz gesagt: Was weiß man von seiner Existenzweise und was kann man von ihr wissen? Welche Ausprägungen haben Weltentwürfe und was kann man mit ihnen anstellen? In welchem Verhältnis stehen virtuelle Entwürfe zu den realen Vorgaben? Begründen sie ein Verhältnis der bedrohlichen Abschaffung oder zeichnen sich Formen der Supplementierung und Ergänzung ab (Woolgar 2002)? Welche Möglichkeiten gehen mit dem Kontrafaktischen und Konsequenzreduzierten einher, die immer wieder als Besonderheiten des Virtuellen beschrieben werden? Und was passiert mit alten Einschätzungen, mit dem kulturkritischen Verweis auf Lebensferne, auf die Entfremdung von Natur und Körper? Was geschieht mit etablierten Kulturtechniken wie dem Lesen von Büchern oder der Rezeption von Kunst? Und was geschieht mit den dafür zuständigen Einrichtungen wie zum Beispiel dem Museum (Niewerth 2018)? 11 Zu den entsprechenden Werkzeugen vgl. Witmer und Singer 1999; Slater 1999.
Virtuelle Lebenswelten: Zur Einführung
7
3 Die Thematisierung der Virtualität ist nicht mehr auf die Frage, was sie ist, einzugrenzen, sondern vielmehr ist zu fragen: Wann und wo tritt Virtualität auf? Wozu dient Virtualität? Wer setzt sie zu welchem Zweck und unter welchen Umständen ein? Diese Fragen nach der Virtualität sind wiederum nicht von einem Fach oder einer Disziplin zu beantworten: Wer nach dem Seinsstatus virtueller Objekte fragt, gerät an die Ontologie, wer nach den Handlungs- und Verantwortungsmodellen im Umgang mit virtuellen Objekten fragt, gerät in juristische und ethische Grenzbereiche, wer nach der Gestaltung virtueller Objekte fragt, gerät auf das Feld der Ästhetik – und mit Aspekten wie Design und emotionaler Aufladung zur Frage nach der allgemeinen Akzeptanz virtueller Phänomene. Ohne Konzepte wie Fiktion, Illusion, (ästhetischer) Schein, Phantom, aber auch des Gespenstischen und des Unheimlichen ist nicht einmal in Ansätzen zu begreifen, was mit der Virtualität auf dem Spiel steht. Die Frage nach der Virtualität erfordert ferner eine Klärung von Begriffen wie Handlung, Interaktion, sozialer Austausch sowie die Konzeptualisierung von Handlungsträgerschaft, die auch den Bereich nicht-menschlicher Agenten umfasst. Wer nach der Virtualität fragt, wird diese Frage ohne literatur- und medienwissenschaftlichen, philosophischen, soziologischen, psychologischen und informationswissenschaftlichen Sachverstand also gar nicht stellen können. Zweifellos besitzt Virtualität, wie sie mittlerweile allgegenwärtig ist, in den Medientechnologien ihre konkreten Voraussetzungen und Bedingungen, die als ein technologisches Apriori bestimmt werden können: Es ist nicht zu begreifen, was Virtualität heutzutage ist, wie sie funktioniert und welche Effekte sie nach sich zieht, ohne ihre medientechnologischen Voraussetzungen zu analysieren. So wenig das medientechnologische Apriori hinreicht, um Virtualität als Schlüsselphänomen der digitalen Moderne zu begreifen, so wenig besitzt sie eine homogene Vorgeschichte. Die Herkunft der Virtualität ist in eine Vielzahl von Problemstellungen verstreut. Die kulturwissenschaftliche Diskussion über Virtualität war lange Zeit von einem Verständnis dominiert, das sie als eine immaterielle und körperlose Variante lebensweltlicher Situationen auffasste. An solch ein Verständnis von virtual reality als einer Welt, in die Zuschauer*innen und Nutzer*innen eintreten, aber selbst nicht körperlich anwesend sind, knüpften Hoffnungen, Phantasien und Utopien, aber auch Ängste, Bedrohungsszenarien und Dystopien an, die als „posthuman“ gekennzeichnet waren (Hayles 1990). Mittlerweile ist die Debatte, die ihren hauptsächlichen Schauplatz im Feuilleton hatte, deutlich abgeklungen. Philosophie, Literatur-, Medien- und Filmwissenschaft können zum einem zeigen, dass die Einführung neuer medialer Formen des Darstellens und Erzählens,
8
Stefan Rieger, Armin Schäfer und Anna Tuschling
wie sie z. B. Roman, Comic, Film, Rundfunk, Fernsehen etabliert haben, regelmäßig zu gegensätzlichen Bewertungen provoziert. Zum anderen wird deutlich, dass zwischen dem neuen Konzept der Virtualität und traditionellen Konzepten wie Fiktion, Illusion, Schein oder Trugbild zahlreiche Gemeinsamkeiten und Übergänge bestehen. Insbesondere tritt hervor, dass mit virtuellen Phänomenen eine Vielzahl psychischer Prozesse und Effekte einhergehen, die in Philosophie, Psychologie, Pädagogik und Soziologie diskutiert werden: So hat die Phänomenologie die Rollen und Funktionen des Körpers für das In-der-Welt-Sein erhellt, so hat die Psychologie erforscht, welche Aufgaben die Wahrnehmung und das Erleben virtueller Phänomene und Sachverhalte stellen, und welche emotionalen und kognitive Prozesse sie begleiten, oder so haben Pädagogik und Soziologie Effekte der Virtualität beschrieben. Und all diese Disziplinen haben mit ihren Forschungen ihrerseits auf die Entwicklung und Anwendung virtueller Phänomene und Sachverhalte zurückgewirkt. Die Geschichte der Virtualität geht nicht in einer Geschichte technologischer Optimierung und Implementierung auf. Der medientechnologische Stand heutiger Virtualität erzeugt ein rückwirkendes Bild auf die Geschichte, das den Blick auf den Computer und das Internet verengt (Grau 2003).
4 Vor dem hier skizzierten Hintergrund unternahm die Tagung „Virtuelle Lebenswelten“ eine Exploration aktueller Phänomene und Problemstellungen. Sie fand vom 21.–23. Juni 2018 in Bochum in den Räumen des Blue Square statt. Wir möchten uns für die Teilnahme, die Beiträge und die Diskussionen bedanken. Unser besonderer Dank gilt der Fakultät für Philologie der Ruhr-Universität Bochum, die die Veranstaltung finanziell ermöglichte. Bedanken möchten wir uns auch für die Geduld, die allen Beteiligten im Laufe der Publikation abverlangt wurde. Ferner gilt unser herzlicher Dank dem Verlag sowie Ann-Kristin Reymann für die Redaktion.
Literatur Adam, Marie-Helene, Szilvia Gellar und Julia Knifka (Hg.). Technisierte Lebenswelt. Über den Prozess der Figuration von Mensch und Technik. Bielefeld: transcript, 2016. Barad, Karen. „Getting Real: Technoscientific Practices and the Materialization of Reality“. differences: A journal of Feminist Cultural Studies (1998): 87–128.
Virtuelle Lebenswelten: Zur Einführung
9
Barlow, John Perry. „A Declaration of the Independence of Cyberspace“. 8. Februar 1996. https://www.eff.org/cyberspace-independence (30. März 2020). Benjamin, Walter. „Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit“ . Gesammelte Schriften. I.2. Hg. Rolf Tiedemann und Hermann Schweppenhäuser. Frankfurt a.M.: Suhrkamp, 1980. 471–508. Braun-Thürmann, Holger. „Agenten im Cyberspace: Soziologische Theorieperspektiven auf die Interaktionen virtueller Kreaturen“. Soziologie des Cyberspace. Medien, Strukturen und Semantiken. Hg. Udo Thiedecke. Wiesbaden: Springer VS, 2004. 70–96. Bruns, F. Wilhelm. „Hyper-bonds – distributed collaboration in mixed reality“. Annual Reviews in Control 29.1 (2005): 117–123. Coppens, Adrien. Merging real and virtual worlds: An analysis of the state of the art and practical evaluation of Microsoft Hololensx. Master Thesis. University of Mons, 2017. Dongus, Ariana. „Life is real = Reality is a Platform. Creating Engineered Experiences where fiction and reality merg“. Body Images in the Post-Cinematic Scenario. The Digitization of Bodies. Hg. Alberto Brodesco und Federico Giordano. Milano-Udine: Mimesis International, 2017. 151–162. Esposito, Elena, „Fiktion und Virtualität“. Medien, Computer, Realität. Wirklichkeitsvorstellungen und neue Medien. Hg. Sybille Krämer. Frankfurt a.M.: Suhrkamp, 1998. 269–296. Esposito, Elena. Die Fiktion der wahrscheinlichen Realität. 4. Aufl. Berlin: Suhrkamp, 2019. Gabrys, Jennifer. How to do things with sensors. Minneapolis: University of Minnesota Press, 2019. Grau, Oliver. Virtual Art. From Illusion to Immersion. Cambridge, MA: MIT Press, 2003. Hayles, Katherine. How We Became Posthuman. Virtual Bodies in Cybernetics, Literature, and Informatics. Chicago, IL: University of Chicago Press, 1990. Husserl, Edmund. Die Lebenswelt. Auslegungen der vorgegebenen Welt und ihrer Konstitution. Texte aus dem Nachlass (1916–1937). Husserliana. Gesammelte Werke aufgrund des Nachlasses. Bd. 39. Hg. Rochus Sowa. Dordrecht: Springer, 2008. Kanderske, Max und Tristan Thielmann. „Virtuelle Geografien“. Handbuch Virtualität. Hg. Dawid Kasprowicz und Stefan Rieger. Heidelberg, Berlin: Springer VS, 2020. 279–301. Kasprowicz, Dawid und Stefan Rieger (Hg.). Handbuch Virtualität. Heidelberg, Berlin: Springer VS, 2020. Kitson, Alexandra, Thecla Schiphorst und Bernhard E. Riecke. „Are You Dreaming? A Phenomenological Study on Understanding Lucid Dreams as a Tool for Introspection in Virtual Reality“. CHI. 2018: Paper 343. Kittler, Friedrich. „Hardware, das unbekannte Wesen“. Medien, Computer, Realität. Wirklichkeitsvorstellungen und Neue Medien. Hg. Sybille Krämer. Frankfurt a.M.: Suhrkamp, 1998. 119–132. Krajewski, Markus. Der Diener – Mediengeschichte einer Figur zwischen König und Klient. Frankfurt a.M.: S. Fischer, 2010. Lifton, Joshua und Joseph A. Paradiso. „Dual Reality: Merging the Real and Virtual“. Facets of Virtual Environments. First International Conference, FaVE 2009, Berlin, Germany, July 27–29, 2009, Revised Selected Papers. Hg. Fritz Lehmann-Grube und Jan Sablatnig. Berlin, Heidelberg: Springer, 2009. 12–28. Mantovani, Giuseppe und Guiseppe Riva. „,Real‘ Presence: How Different Ontologies Generate Different Criteria for Presence, Telepresence, and Virtual Presence“. Presence: Teleoperators & Virtual Environments 8.5 (1999): 540–550.
10
Stefan Rieger, Armin Schäfer und Anna Tuschling
Maset, Pierangelo. „Bodengewinne im Imaginären“. Gefühle als Erkenntnisquelle. Hg. Jürgen Hasse. Frankfurt a.M.: Institut für die Didaktik der Geographie 1995. 181–189. Milgram, Paul und Fumio Kushino. „Taxonomy of Mixed Reality Visual Displays“. IEICE. Transactions on Information and Systems E77-D / No. 12 (1994). 1321–1329. Münker, Stefan. „Was heißt eigentlich ‚virtuelle Realität‘? Ein philosophischer Kommentar zum neuesten Versuch der Verdopplung der Welt“. Mythos Internet. Hg. Stefan Münker und Alexander Roesler. Frankfurt a.M.: Suhrkamp 1997. 108–127. Niewerth, Dennis. Dinge – Nutzer – Netze. Von der Virtualisierung des Museums zur Musealisierung des Virtuellen. Bielefeld: transcript, 2018. Nilsson, Niels, Rolf Nordahl und Stefania Serafin. „Immersion revisited: a review of existing definitions of immersion and their relation to different theories of presence“. Human Technology 12.2 (2016): 108–134. Reid, Elizabeth M. Electropolis: Communication and Community On Internet Relay Chat. Melbourne 1991. https://www.mediensprache.net/archiv/pubs/2742.html (30. März 2020). Rieger, Stefan. Kybernetische Anthropologie. Eine Geschichte der Virtualität. Frankfurt a.M.: Suhrkamp, 2003. Roballo, Francisco und Ana R. Delgado. „Analysis of the Empirical Research on the Feeling of Presence“. Dreaming 29.4 (2019): 358–369. Saracco, Roberto. „Digital Twins: Bridging Physical Space and Cyberspace“. IEEE Computer 52.12 (2019): 58–64. Slater, Mel. „Measuring Presence: A Response to the Witmer and Singer Questionnaire“. Presence. Teleoperators and Virtual Environments 8.5 (1999). 560–566. Sprenger, Florian. „Ubiquitous Computing vs. Virtual Reality“. Handbuch Virtualität. Hg. Dawid Kasprowicz und Stefan Rieger. Heidelberg, Berlin: Springer VS, 2020. 97–109. Stapleton, Christopher B. und Jim Davies. „Imagination: The Third Reality of the Virtuality Continuum“. Proceedings of ISMAR 2011. Basel, October 25–29, 2011. Sutherland, Ivan E. „The Ultimate Display“ [Vortrag]. Proceedings of IFIP (International Federation for Information Processing) Congress. New York, 1965. Witmer, Bob G. und Michael J. Singer. „Measuring Presence in Virtual Environments: A Presence Questionnaire”. Presence. Teleoperators & Virtual Environments 7.3 (1999): 225–240. Woolgar, Steve. „Five Rules of Virtuality“. Virtual Society? Technology, Cyberbole, Reality. Hg. Steve Woolgar. Oxford, New York: Oxford University Press, 2002. 1–22.
Körper
Dirk Baecker
Virtuelle Intelligenz: Eine begriffliche Übung 1 In den Sozial-, Kultur- und Medienwissenschaften gibt es, wenn ich mich nicht täusche, vier Möglichkeiten, sich einem Gegenstand zu nähern. Man kann statistisch auszählen, wie oft er, möglicherweise abhängig von weiteren Gegenständen und Ereignissen, vorkommt. Man kann historisch beschreiben, in welchen Gestalten, möglicherweise abhängig von Erwartungen und deren Enttäuschung, er aufgetreten ist und sich entwickelt hat. Man kann phänomenologisch einen Standpunkt suchen, traditionell das menschliche Bewusstsein, aber warum nicht auch andere wahrnehmungsfähige Einheiten, denen er als etwas erscheint, was dementsprechend mehr, aber wer wollte das entscheiden, über die Wahrnehmung als den Gegenstand aussagt. Und man kann sich ihm theoretisch nähern, üblicherweise in der Form von begrifflichen Klärungen, ersten Hypothesen und empirischen Tests. Ich wähle im Folgenden den vierten Ansatz, doch sind wir mit dieser Vorüberlegung schon mitten im Thema. Von „Intelligenz“ kann nur dort die Rede sein, wo Perspektiven auf einen Gegenstand als ebenso kontingent wie optional gelten und jeder Umgang mit einem Gegenstand eine Fähigkeit zur Variation dieses Umgangs nicht nur voraussetzt, sondern ausbaut und stärkt. Deswegen laufen in einem theoretischen Ansatz statistische, historische und phänomenologische Referenzen grundsätzlich mit und werden nach Bedarf ausgebaut oder abgekürzt. Und von einer „virtuellen“ Intelligenz kann nur dort die Rede sein, wo jede „eigene“ Intelligenz eines Beobachters von der „fremden“ Intelligenz des Gegenstands zumindest profitiert, wenn sie sie nicht sogar voraussetzt. Eben darauf zielt die Rede von einer Intelligenz, die sich im Umgang mit einem Gegenstand erweist, also von diesem Gegenstand ebenso motiviert wird wie vom Beobachter. Der Beobachter, auch das liegt mit diesem Ausgangspunkt bereits auf der Hand, ist immer auch ein Gestalter: ein Gestalter dieses Umgangs, ein Gestalter seiner selbst, vielleicht sogar ein Gestalter des Gegenstands. Solange er registriert und verarbeitet, was er tut, bleibt er jedoch immer auch Beobachter. Andernfalls wäre er in der Variation seines Umgangs nicht frei.
Open Access. © 2021 Dirk Baecker, publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz. https://doi.org/10.1515/9783110638127-002
14
Dirk Baecker
2 Gut möglich also, dass sich die Rede von einer „virtuellen Intelligenz“ als Pleonasmus erweist. Das gilt zumindest dann, wenn unter „Virtualität“ im Sinne der Computerwissenschaft der Zugriff auf Speicher, Adressen, Laufwerke, Netzwerke oder Programme verstanden wird, in die Operationen ausgelagert werden können, die anschließend wieder aufgegriffen oder deren im fremden Medium erarbeiteten Rechenresultate weiterverwendet werden (Denning 1970, 1996; vgl. Rieger 2003; Rieger und Kasprowicz 2020). Wenn „Intelligenz“ diese Fähigkeit zum Aus- und Wiedereinlagern, zum Zugriff auf Kognition außerhalb des eigenen kognitiven Apparats meint, dann ist jede Intelligenz virtuell und hat jede Virtualität etwas mit Intelligenz zu tun. Man kann diesen Pleonasmus dementsprechend auch als eine Tautologie verstehen und somit hätten wir einen robusten Ausgangspunkt gewonnen (Bateson 1982, 105–107). Intelligenz ist die Fähigkeit zur Inanspruchnahme fremder Leistungen. Die Tautologie der virtuellen Intelligenz enthält jedoch einen Bruch. Sie unterscheidet eigene von fremden Leistungen, bezogen jeweils auf kognitionsfähige Einheiten, von denen wir noch nicht recht wissen, was wir unter ihnen verstehen sollen. Mit der Unterscheidung von Eigen versus Fremd befinden wir uns zwar in guter Gesellschaft, insofern bereits Kant zumindest dann, wenn es um Erkenntnisleistungen mit Objektivitätsansprüchen ging, die dafür erforderliche Vernunft als eine „fremde“ Vernunft verstanden hat (Simon 2003, 534–535). Erst die Reflexion auf den Unterschied zwischen eigener und fremder Vernunft verdiene den Namen der Reflexion des eigenen Standpunkts und sei daher der erste Schritt auf dem Weg zu einer Objektivität, die zwar nicht dem Ding an sich, aber doch dem Standpunkt nicht nur eines, sondern mehrerer Subjekte zugerechnet werden kann.1 Doch das bedeutet nicht, dass wir die Unterscheidung Eigen/ Fremd in ihrer Leistung für Operationen der Intelligenz bereits verstanden hätten. Es kann auch nicht darum gehen, Intelligenz mit subjektiven Fähigkeiten zur Objektivität gleichzusetzen. Damit würde ich mich auf allzu ausgetretene Pfade der Erkenntnis- und Wissenschaftstheorie begeben. Die Unterscheidung eigener von fremden Leistungen adressiert weder Subjektivität noch Objektivität, sondern Komplexität als Problemstellung, die von einer virtuellen Intelligenz sowohl ausgenutzt als auch bearbeitet wird. Der Tautologie einer virtuellen Intelligenz liegt die Differenz zweier Einheiten zugrunde, die aufeinander nicht reduziert werden können und ohne einander zumindest das nicht leisten können, worauf es hier ankommt, nämlich intelligente Kogni-
1 „[O]bjektiv ist das subjektiv Unverfügbare“, heißt es bei Blumenberg (2002, 144).
Virtuelle Intelligenz: Eine begriffliche Übung
15
tion. Wir haben es mit der Einheit einer Vielfalt und zugleich mit der Vielfalt einer Einheit zu tun und nennen genau das „Komplexität“ (Luhmann 1990). Die Tautologie verbirgt eine Paradoxie und alles Weitere hängt davon ab, ob die Unterscheidung, die beidem zugrunde liegt, die Unterscheidung von Eigen versus Fremd beziehungsweise die Unterscheidung kognitiver Einheiten, die aufeinander bezogen sind, aber aufeinander nicht reduziert werden können, zu einem Untersuchungsprogramm entfaltet werden kann oder nicht.
3 Der Publikationszusammenhang, in dem dieser Beitrag erscheint, gibt uns neben der Intelligenz, der Virtualität und der Komplexität noch ein weiteres Stichwort mit auf den Weg, nämlich das Stichwort der Lebenswelt. Tatsächlich können wir uns auf dieses Stichwort gut einlassen, denn unter einer „Lebenswelt“ kann in aller Unbestimmtheit jenes Terrain oder Milieu verstanden werden, in dem die Differenz kognitiver Einheiten ausgetragen werden kann. Die Lebenswelt, sagt Hans Blumenberg (1981, 166–167), ist „womöglich nichts von dem, was der Fall ist“, denn das, was der Fall ist, wäre dies ja bereits für mindestens eine der beteiligten kognitiven Einheiten. Die Lebenswelt, da aus jeder denkbaren Perspektive prinzipiell allenfalls partiell thematisiert, ist das, was der Fall ist im Kontext dessen, was zumindest für einen an seine Unterscheidungen gebundenen Beobachter jeweils nicht der Fall ist.2 Diese Unbestimmtheit mit ihren fallweisen Bestimmbarkeiten ist das Medium, in dem sich intelligente Operationen vollziehen, die die Differenz kognitiver Einheiten ebenso voraussetzt wie die Differenz jeder einzelnen kognitiven Einheit zu ihrer je spezifischen Umwelt. Wir haben es mit einer doppelten Komplexität zu tun, der Einheit einer Vielfalt (und Vielfalt einer Einheit) und der Differenz von Einheit und Umwelt, so unabdingbar und unreduzierbar wie die erste. Damit haben wir allerdings ein Verständnis unserer Problemstellung erreicht, das sich mit dem Virtualitätsbegriff der Computerwissenschaft nicht mehr deckt. Unsere kognitiven Einheiten sind keine Rechner im technischen Sinne des Wortes, sondern Organismen, Gehirne, psychische Systeme, vielleicht soziale Systeme, möglicherweise auch künstliche, dann aber nicht-triviale Systeme, die ihre Operationen zwar ebenfalls strukturdeterminiert, aber zugleich selbstreferentiell errechnen. Sie können nicht als einfache oder komplizierte Input/Output-Maschinen verstanden werden, sondern sind ihrerseits 2 Das ist eine der Problemstellungen, um die Wittgensteins (1963 [1921]) Tractatus kreist.
16
Dirk Baecker
komplex in dem Sinne, dass sie neben den Transformationsfunktionen trivialer Maschinen zusätzlich über die Zustandsfunktionen nicht-trivialer Maschinen verfügen und somit, wie Heinz von Foerster (1993, 245–252) gezeigt hat, als synthetisch determiniert, aber analytisch undeterminierbar, historisch von ihrer eigenen Geschichte abhängig und unvorhersehbar gelten müssen. Virtuelle Intelligenz hat es mit Berechnungen im Medium der Unberechenbarkeit zu tun. Die Komplexität, mit der zu rechnen ist, ist nicht nur eine doppelte, sondern eine dreifache, denn neben der Differenz der kognitiven Einheiten und der Differenz von Einheit und Umwelt haben wir es nun auch mit der Komplexität jeder betroffenen Einheit selbst zu tun. Das scheint unsere Fragestellung ins Unlösbare zu steigern, vereinfacht sie jedoch in Wirklichkeit. Denn wir können die Lösung des Problems nun den beteiligten kognitiven Einheiten auftragen. Wir können sogar sagen, dass wir es mit einer weiteren Tautologie und damit einem weiteren robusten Ausgangspunkt zu tun bekommen: Die Komplexität einer kognitiven Einheit könnte sich als Befähigung zu einer virtuellen Intelligenz herausstellen. Wir drehen uns im Kreise und gewinnen an Fahrt. Drei Definitionen bestimmen unseren Ausgangspunkt: – Virtuelle Intelligenz wird bestimmt als die Fähigkeit zur Inanspruchnahme fremder Komplexität. – Komplexität wird in allen drei Fällen (Einheit einer Vielfalt; Differenz kognitiver Einheiten; Differenz von kognitiver Einheit und ihrer Umwelt) als Einheit einer irreduziblen Differenz bestimmt. – Unter einer Lebenswelt wird das Miteinander inkommensurabel selbstreferentieller Systeme wie Organismen, Gehirne, psychische, soziale und künstliche Systeme im Kontext natürlicher Umwelten und diverser Technologien verstanden. Die wichtigste Aufgabe einer begrifflichen Übung zum Thema virtuelle Intelligenz besteht demnach darin, das „Miteinander“ kognitiver Einheiten in einer Lebenswelt näher zu bestimmen. Im Umkreis der Kybernetik zweiter Ordnung, an der ich mich hier orientiere, gibt es dafür eine umfangreiche Begrifflichkeit, die um die Begriffe „Kommunikation“, „Kontrolle“ und „Ökologie“ kreist (Wiener 1961; Bateson 2000 [1972]; von Foerster 2003). „Kommunikation“ beschreibt Abhängigkeitsbeziehungen zwischen unabhängigen Einheiten (Luhmann 1984), „Kontrolle“ den Aufbau eines eigenen Gedächtnisses im Umgang mit einem fremden komplexen System (Ashby 1958) und „Ökologie“ die durch kein Supersystem geregelten, nachbarschaftlich konfliktreichen Beziehungen von Systemen in der Umwelt weiterer Systeme (z. B. Park et al. 1967 [1925]). Jeder dieser Begriffe kann als eine Lesart des Problems der virtuellen Intelligenz gelesen werden.
Virtuelle Intelligenz: Eine begriffliche Übung
17
4 Ein mögliches Verständnis virtueller Intelligenz steht und fällt mit Begriffen, die geeignet sind, die Struktur der beteiligten kognitiven Einheiten in Abhängigkeit von ihren ökologischen Beziehungen der Kommunikation und (Selbst-) Kontrolle zu beschreiben. Diese Begriffe müssen auf der einen Seite, will man an einem einheitlichen Begriff der virtuellen Intelligenz festhalten, für kognitive Einheiten jeden Typs gelten und auf der anderen Seite in der Lage sein, jeden dieser Typen in seinem Unterschied zu erfassen. Generalisierung und Spezifizierung müssen hier Hand in Hand arbeiten. Gegenwärtig scheinen vor allem drei Begriffe geeignet zu sein, diese Anforderung zu erfüllen, nämlich die Begriffe der medialen Form, des heterogenen Netzwerks und des temporalen Systems. Ich beginne auf der generellen Ebene. Der Begriff der medialen Form stammt von Jacques Derrida (2004 [1968], 119) und umschreibt Operationen, die keine sind. Gemeint ist damit das Spiel einer différance, einer Bewegung und eines Aufschubs, deren Bedingungen ihrer Möglichkeit („Transzendenz“) so wenig gesichert sind wie eine unabhängig von allem anderen gegebene Substanz („Telos und Motiv“) (Derrida 2004 [1968], 115–116). Eine Operation, die keine ist, verknüpft unzuverlässig, ergänzungsbedürftig, beiläufig, unscheinbar und dennoch maßgebend. In der Kybernetik würde man sagen, sie verknüpft kommunikativ und nicht kausal – oder auch: nicht-linear und nicht linear. Diese Operation generiert eine Form, die nichts anderes ist als das Medium ihrer Möglichkeit. Sie bleibt virtuell, bedarf jedoch ihrer Anhaltspunkte sowohl in einer als kognitionsfähig beschriebenen Einheit, und sei diese ein Text, als auch in einer Umgebung oder auch in einer anderen Einheit, und sei dieser ein anderer Text, auf die sie sich bezieht. Um das genauer zu verstehen, hilft ein Bezug auf die Begrifflichkeit von Fritz Heider (2005 [1926]), der Medien als lose gekoppelte Mengen von Elementen konzipiert, in die Dinge oder auch, mit einem an George Spencer-Brown (2008 [1969]) orientierten Schritt der Verallgemeinerung, Formen als fest gekoppelte Mengen von Elementen eingeprägt werden können. Eine mediale Form ist dann eine Form, die jederzeit auf das Medium, in dem sie zustande kommt, nicht nur zurückgerechnet werden kann, sondern in dieses Medium auch wieder zerfällt, je nach Blick des Beobachters und Anschlussoperationen, die dieser Blick generiert. Macht man den Schritt der Verallgemeinerung vom Ding zur Form, so gewinnt man überdies ein genaueres Verständnis einer Operation, die keine ist. Denn die Form im Sinne des Spencer-Brown’schen Indikationenkalküls ist die Zwei-Seiten-Form einer Unterscheidung, die dort eine Trennung vollzieht, wo zugleich ein Zusammenhang existiert. Diese Operation ist die eines Beobachters, der „etwas zwischen etwas legt“ (lat. intellegere), was einen Bruch herstellt (lat.
18
Dirk Baecker
ratio), der zum einen zwar etwas erkennbar macht, zum anderen jedoch diese Erkenntnis nicht nur von der eigenen Operation, sondern auch vom Nichtmitlaufen der Beobachtung dieser Operation abhängig macht. Zieht man die Beobachtung von etwas und die Beobachtung der Beobachtung selbst zusammen, so wird ununterscheidbar, was unterschieden werden sollte. Die Operation negiert sich selbst; und sie kann und muss dies negieren, um die Unterscheidung treffen zu können, die sie trifft. Logisch gesprochen, ist die Operation, verstanden als mediale Form, damit in ihrer eigenen Negation verankert. Virtuelle Intelligenz ist Intelligenz, die sowohl ihre Virtualität als auch ihren Intellekt zum Ausgangspunkt ihres Zweifels an sich selbst, ihres Spiels und damit ihrer Bereitschaft zum Wechsel, zum Sprung, zur Wendung nimmt. Der Begriff des heterogenen Netzwerks stammt von Harrison C. White (1992, 2008). Heterogen sind in diesem Netzwerk die Elemente, aus denen es besteht. Ein Netzwerk ist eine offene, jederzeit ergänzbare, aber auch reduzierbare Menge von Beziehungen („Kanten“) zwischen Elementen („Knoten“), die allesamt ein Identitätsproblem haben, das nur durch Kontrollversuche der eigenen Beiträge zu diesem Netzwerk gelöst werden kann. Es ergibt sich eine relationale Struktur, die in jedem ihrer Elemente wie auch in der Struktur selbst dynamisch ist. Die Heterogenität dieser Elemente – im Fall eines sozialen Netzwerks etwa Orte, Geschichten, Personen, Institutionen, Praxen, Normen, Techniken – garantiert die Unabhängigkeit, weil Inkommensurabilität der im Rahmen von Identitätsbeziehungen voneinander abhängigen Elemente. Die aus ihrem Netzwerk gewonnene Identität beruht auf einer Nicht-Identität, die jederzeit für neue und andere Netzwerkbeziehungen aktiviert werden kann. Virtuelle Intelligenz ist in diesem Kontext eine Intelligenz, die mit jederzeit austauschbaren Referenzen arbeitet und aus der Austauschbarkeit der Referenzen mindestens so viel Erkenntnis bezieht wie aus den Referenzen selbst. White beschreibt Netzwerke dieser Art deswegen auch als einen „calculus of tradeoffs in uncertainty“ (White 1992, 19). Kontrollversuche im Rahmen von Identitätsleistungen müssen Gewinne gegen Verluste inklusive Opportunitätskosten abwägen und können sich nie sicher sein, wie verlässlich die Gewinne und wie reell die Verluste sind. Wieder ist die Botschaft dieselbe. Virtuelle Intelligenz ist Intelligenz aus Operationen im Horizont ihrer Alternativen. Der Begriff des temporalen Systems bestätigt diesen Eindruck. Er stammt von Niklas Luhmann und kombiniert einen spezifischen Element- mit einem dazu passenden Strukturbegriff (Luhmann 1984, Kap. 8). Elemente werden zu Ereignissen verzeitlicht, die auftauchen und wieder verschwinden, und Strukturen werden als Gewinn von Zerfallsbereitschaft verstanden (Luhmann 1984, 394). Paradoxerweise können nur so zeitliche Differenzen zwischen den Operationen des Systems sowohl überbrückt als auch für die Auflösung und den
Virtuelle Intelligenz: Eine begriffliche Übung
19
Neugewinn von Strukturen genutzt werden. Die selbst erzeugte Unruhe zwingt das System zu einer laufenden Neuadjustierung seiner Orientierung an sich und seiner Umwelt. Es gibt nur Ereignisse, an denen sich das System orientieren kann und aus denen es besteht, und diese Ereignisse sind schon wieder Vergangenheit, sobald sie zur Gegenwart geworden sind, können aber in genau diesem Modus miteinander verknüpft werden und ein Bild der Lage erzeugen. In diesem Modus befähigt sich das System zur „vorübergehenden Anpassung an vorübergehende Lagen“, wie Luhmann gerne formuliert (z. B. Luhmann 1995, 15). Auch hier ist es nicht die Anpassung, die intelligent ist, sondern ihre Wiederauflösbarkeit. Und wiederauflösbar ist die Anpassung nur, wenn ihre Anhaltspunkte virtuell, das heißt als Inanspruchnahme „fremder“ Leistungen gelten können, mit denen man sich allenfalls vorübergehend identifiziert. Diese drei Begriffe der medialen Form, des heterogenen Netzwerks und des temporalen Systems sind allgemein in jenem Sinne, dass ihnen reichhaltige Erfahrungen mit empirischen Gegenständen zugrunde liegen. Sie entstammen Text-, Wahrnehmungs-, Handlungs-, Kommunikations- und Gesellschaftstheorien, die ihre jeweiligen Gegenstände nicht nur spezifisch beschreiben und erklären, sondern die gewonnenen Einsichten in Operationen, Elemente und Strukturen transdisziplinär für die Ausarbeitung von Medien-, Netzwerk- und Systemtheorien sowie deren philosophische Reflexion und mathematische Unterfütterung fruchtbar machen. In dem Maße, in dem diese Theorien auf unterschiedlichen Feldern der Empirie fruchtbar gemacht werden können, verfügen wir über einen allgemeinen Begriff der virtuellen Intelligenz.
5 Alle drei Begriffe der medialen Form, des heterogenen Netzwerks und des temporalen Systems halten sich an unsere drei Definitionsmerkmale einer virtuellen Intelligenz als Inanspruchnahme fremder Komplexität, Einheit einer irreduziblen Differenz und Lebenswelt des Miteinanders inkommensurabel selbstreferentieller Systeme. Ich will damit nicht behaupten, dass die verschiedenen Theoriehintergründe der hier entfalteten Begrifflichkeit letztlich alle auf Dasselbe hinauslaufen. Ich will nicht behaupten, dass die Medien-, Netzwerk- und Systemtheorie inklusive ihrer philosophischen und mathematischen Begleitmusik zu einer einheitlichen Theorie integriert werden können. Vermutlich macht es sowohl für ihre theoretische Weiterentwicklung als auch für ihre empirische Anwendung mehr Sinn, ihre Differenz zu betonen und sie unverbunden nebeneinander stehen zu lassen. Aber ich habe den Eindruck, dass diese Theorien bestimmte
20
Dirk Baecker
Impulse aus ihren Gegenstandsbereichen miteinander teilen und dass sie daher in einer zukünftigen kognitionswissenschaftlichen Theorie der Form auch integriert werden können. Ob die Suche nach einem Verständnis und Begriff einer virtuellen Intelligenz dabei hilft, wird man sehen. Ohne die Möglichkeit einer integralen Theorie behaupten oder ihr vorgreifen zu wollen, sollen hier in einem anschließenden Schritt einige Hinweise zusammengestellt werden, die es erlauben, eine sich andeutende Theorie der virtuellen Intelligenz nicht nur zu generalisieren, sondern auch zu spezifizieren. Da es hier jedoch nicht darum gehen kann, den aktuellen Forschungsstand zu lebenden, psychischen, sozialen und künstlichen Systemen zu rekapitulieren – das wäre ein umfangreiches interdisziplinäres Unterfangen – beschränke ich mich auf einige wenige Hinweise auf die Differenz und damit Inkommensurabilität dieser Systeme, deren Miteinander in der aktuellen Lebenswelt auf der Erde außer Frage steht, ohne dass dieses Miteinander gegenwärtig trotz allen Interesses an ökologischen Fragestellungen ein eigenes Forschungsthema wäre. Ich präsentiere also meine eigene, idiosynkratische Auswahl aus einem umfangreichen Forschungsstand und konzentriere mich auf die Suche nach einer Form der virtuellen Intelligenz, in der diese Systeme ihren je eigenen Platz haben. Die Ausgangsthese ist, dass die Elemente und Strukturen dieser Systeme im Medium ihrer Vernetzung zur Form einer virtuellen Intelligenz führen, die jede eigene Systemleistung zugleich als eine Vernetzungsleistung zu verstehen erlaubt. Hierin liegt die Pointe des Virtualitätsbegriffs. Die Vernetzungsleistung ist im Vergleich mit der Systemleistung jederzeit wiederauflösbar, doch um dies sicherzustellen, ist auch die Systemleistung zerfallsbereit. Nur deswegen muss man System und Netzwerk unterscheiden. Sie setzen sich gegenseitig unter Zugzwang. Die Identitätsleistung, die beide zusammen erbringen, hat zwei nicht-identische Komponenten, deren Differenz von dem ausgebeutet wird, was wir dann „Intelligenz“ nennen können. Welche Systemleistungen der beteiligten Systeme sind zugleich Vernetzungsleistungen, ohne auf diese reduziert werden zu können? Für die Neurowissenschaften vom Gehirn ist dies das „predictive coding“ (Frith 2007; Northoff 2013, 2014; vgl. Baecker 2014). Mit Anklängen spätestens bei Hermann von Helmholtz’ Theorie der induktiven Schlüsse (von Helmholtz 1896, 579–580; vgl. Hagner 2008) wird das Gehirn als ein Organ verstanden, das laufend Vorhersagen zu Ereignissen in seiner sinnlichen Umwelt trifft und dafür laufend auf eine Art und Weise mit sich selbst beschäftigt ist, die es ihm erlaubt, jede neue Irritation seiner Sinneswahrnehmung nach eigenen Erfahrungen und Mustern zu verarbeiten und jede Enttäuschung seiner Vorhersagen in eine Umorientierung der Gewichtung seiner Erwartungen und eine Verände-
Virtuelle Intelligenz: Eine begriffliche Übung
21
rung seiner Muster umzusetzen. Prädiktion ist Systemleistung als Vernetzungsleistung, und die eine Leistung kann auf die andere nicht reduziert werden. Für die Biologie sind lebende Systeme, Zellen ebenso wie Organismen, irritable Systeme (Boschung 2005). Lebende Systeme bestehen aus Erregbarkeiten, die laufend damit beschäftigt sind, eine innere Umwelt, eine „fluide Matrix“ (Cannon 1963; vgl. Goldstein 2014 [1934]), so aufrechtzuerhalten, dass Störungen aus der äußeren Umwelt aufgefangen und verarbeitet werden können. Sigmund Freud (1999 [1895], 389) sprach von Reizabfuhr und, wo das nicht hilft, Reizflucht, doch beides setzt Erregbarkeit wiederum in der Dopplung von System- und Vernetzungsleistung voraus. Inwiefern das Bewusstsein, verstanden als psychisches System, vom Gehirn unterschieden werden kann, ist eine phänomenologisch eindeutig, kognitionswissenschaftlich jedoch nur schwer zu beantwortende Frage. Die intentionale Struktur des Bewusstseins, bestehend aus Vorstellungen und Wahrnehmungen, die retentional und protentional aufeinander Bezug nehmen, ist von der neuronalen Struktur so sehr unterschieden, dass für das Bewusstsein sein eigenes Gehirn unerreichbar ist („autoepistemische Limitation“; Northoff und Musholt 2006), doch liegt auf der anderen Seite auf der Hand, dass Bewusstseinsleistungen ohne das Substrat des Gehirns, von dem sie getragen werden, kaum vorstellbar sind. Aus phänomenologischer und soziologischer Sicht ist es zwar denkbar, dass das materielle Substrat des Bewusstseins die Sprache und deren soziale Konditionierung ist,3 doch wird dieser Gedanke in den Kognitionswissenschaften gegenwärtig meines Wissens nicht verfolgt. In unserem Zusammenhang ist einstweilen nur wichtig, dass psychische Systeme aus Vorstellungen bestehen, die immer Vorstellungen von etwas sein müssen, zugleich jedoch Vorstellungen des Bewusstseins und nicht etwa der vorgestellten Gegenstände sind (Luhmann 1985). Die Identität der Differenz von System- und Vernetzungsleistung liegt auf der Hand. Soziale Systeme sind Systeme, die das Problem der doppelten Kontingenz ihrer Handlung und Kommunikation laufend lösen und neu stellen (Parsons et al. 1951, 15–16; Luhmann 1984, Kap. 3). Welches Verhalten, welche Persönlichkeitsstrukturen, welches Handeln und Erleben auch immer durch soziale Systeme integriert und differenziert werden, verändert nicht, sondern bestätigt nur deren Fähigkeit, Kontingenz zu bearbeiten und zu produzieren. Dazu ist nichts anderes erforderlich als die Verdopplung der Kontingenz derart, dass jedes Verhalten, Handeln und Erleben einer Person, die sich auf bestimmte
3 Deswegen war es Husserl (2009 [1900/01], 41–43) mit seiner Formulierung vom „einsamen Seelenleben“ so wichtig, zwischen (kundgebendem) Ausdruck und Bedeutung (ohne Kundgabe) zu unterscheiden.
22
Dirk Baecker
Möglichkeiten festlegt oder festgelegt sieht, die Kontingenz möglicher Anschlüsse nicht aus der Welt schafft, sondern auf den Plan ruft. Soziale Systeme schaffen Abhängigkeitsbeziehungen unter unabhängigen Einheiten. Doppelte Kontingenz ist der Modus, in dem Abhängigkeit und Unabhängigkeit zugleich produziert werden können. Auch hier ist die Systemleistung von der Vernetzungsleistung nur insofern zu trennen, als beide kaum auseinandergehalten werden können. Die soziale Kompetenz der Produktion von Ambivalenz in Tateinheit mit Ambiguitätstoleranz kann Akteuren nur deswegen unterstellt werden, weil sie ihnen zugleich aufgezwungen wird, wenn und solange sie sich auf ein soziales System einlassen (Leifer 1991). Schließlich künstliche Systeme. Da im Wechsel von symbolischen Systemen zu statistischen Verfahren des Maschinenlernens der Begriff der Künstlichen Intelligenz an Schärfe eher verloren als gewonnen hat, beschränke ich mich auf den Verweis auf statistische Verfahren der Auswertung großer Datenmengen (Domingos 2015; und vgl. Newell und Simon 1976). Künstliche Systeme sind im Moment Systeme, denen virtuelle Intelligenz insofern zugesprochen werden kann, als sie ohne den Zugriff auf große Datenmengen, in denen ihre Fähigkeit zur Mustererkennung und Schlussfolgerung trainiert und getestet werden kann, nicht vorstellbar sind. Maschinenlernen heißt in diesem Zusammenhang, Hypothesen zur Wahrscheinlichkeit des Auftretens von Ereignissen und Zusammenhängen zu entwickeln, die mit jedem neuen Fall und jedem neuen Datenset überprüft und korrigiert werden können. Abgesehen von den Korrelationen, die die künstlichen Systeme zwischen ihren Daten herstellen, werden auch Korrelationen zwischen Hypothesen und Ereignissen in der Wirklichkeit hergestellt und in ihrem Gewicht laufend neu bewertet. Auch hier ist die Systemleistung eine Vernetzungsleistung, ohne dass die eine auf die andere reduziert werden könnte. Virtuelle Intelligenz ist in allen diesen Systemen identisch mit der Bearbeitung der Differenz von System und Umwelt. Selbstreferentielle und daher auch selbstorganisierende Systeme sind in allen diesen Fällen identisch mit dem Unterschied, den sie gegenüber ihrer Umwelt machen. Das ist die Paradoxie, die ihnen allen zugrunde liegt und die sie in ihren Operationen zeitlich, sachlich und nicht zuletzt sozial, das heißt im Hinblick auf die Kontakte, auf die sie sich einlassen, entfalten.
6 Ich überlasse die Frage, wie jedes einzelne dieser Systeme seine Form einer virtuellen Intelligenz realisiert, der fachwissenschaftlichen Forschung. Wichtiger
Virtuelle Intelligenz: Eine begriffliche Übung
23
ist mir in unserem Zusammenhang, dass das Miteinander inkommensurabel selbstreferentieller Systeme in der Lebenswelt, die wir betrachten, eine virtuelle Intelligenz bereitstellt, die auf jedes der beteiligten Systeme zugerechnet werden kann und doch in keiner von ihr restlos aufgeht. Ganz abgesehen davon, dass eine Lebenswelt in keiner Operation eines Systems aufgeht, sondern grundsätzlich durch einen Überschusssinn gekennzeichnet ist, der so und anders reduziert werden kann (Lévi-Strauss 1978 [1950], 39–40; Luhmann 1984, 93–94), ist die Intelligenz jeder einzelnen beteiligten kognitiven Einheit auf die Intelligenz aller Einheiten angewiesen. Eben das definiert ihre Virtualität. Eine Lebenswelt kann als die rekursive Form aufeinander bezogener Intelligenzen verstanden werden, deren Struktur, Form und Netzwerk ebenso sehr als System- wie als Vernetzungsleistung zu verstehen ist. Diese rekursive Form der Lebenswelt, komponiert aus den rekursiven Formen der beteiligten Systeme in ihren Kommunikations- und Kontrollbeziehungen zum einen und dem Überschusssinn aus der Erfahrung bisheriger und Erwartung weiterer Rekursionen, kann man anschreiben. Ich nutze dazu die Notation des Indikationenkalküls Spencer-Browns, die es ermöglicht, ineinander verschachtelte Unterscheidungen anzuschreiben, die jeweils als Unterscheidungen eines Beobachters zu verstehen sind.4 Eine soziologische (so) Beobachtung einer Lebenswelt virtueller Intelligenzen (VI) hat somit die folgende Form (LebensweltVIso) aufeinander bezogener sozialer, lebender, neuronaler, psychischer und künstlicher Systeme:
Diese Konzeption einer Lebenswelt virtueller Intelligenzen schließt an Husserls (1982 [1935], 54) Begriff der Lebenswelt im Sinne einer „vorgegebenen Welt als Horizont aller sinnvollen Induktionen“, als „Welt aller bekannten und unbekannten Realitäten“, als „Welt der erfahrenden Anschauung“ an, behauptet jedoch nicht deren natürliche Evidenz, sondern nimmt Motive ihrer sozialen und darunter wissenschaftlichen Gestaltung, die Husserl ausschließen wollte, mit in den Begriff auf. Wie bei Husserl kommt es auch in diesem erweiterten Begriff der Lebenswelt darauf an, die „Idealisierungen“ einer abstrahierenden Wissenschaft nicht einfach hinzunehmen, sondern in ein Verhältnis zur Wirklichkeit
4 Siehe zu einer Lektüre des Spencer-Brown’schen Indikationenkalküls im Kontext philosophischer und soziologischer Überlegungen Baecker (2013).
24
Dirk Baecker
zu setzen, von der abstrahiert wird.5 Doch der Gedanke, dass „was immer wir kunstlos oder als Kunst tun“ (Husserl 1982 [1935], 54) das Wesen der anschaulich erfahrbaren Welt nicht verändert, wird aufgegeben. Uns interessiert eine Lebenswelt, die sozial, kulturell und technisch variiert werden kann, weil alles dafür spricht, dass der Mensch ebenso wie seine Lebenswelt in genau diesem Sinne „plastisch“ sind (Gehlen 1986 [1956], 73). Im tiefsten Raum (s5) der Gleichung steht die doppelte Kontingenz. Die Begegnung mit anderen macht die Lebenswelt zur Lebenswelt. Die anderen handeln anders und sie erleben anders (Luhmann 1981). Beides ist Teil der doppelten Kontingenz. Weder Handeln noch Erleben lässt sich vorhersagen. Das Handeln und Erleben jedes einzelnen Individuums wird von beidem bestimmt, vom eigenen Handeln und Erleben und vom Erleben und Handeln der anderen. Eben deswegen ist „Kommunikation“ der Grundbegriff der Beschreibung doppelt-kontingenter sozialer Systeme und eben deswegen ist „Kontrolle“ eine Form der Beschreibung und Formatierung der eigenen riskanten Einsätze im Spiel der Reduktion und Steigerung doppelter Kontingenz.6 Die virtuelle Intelligenz einer Lebenswelt sozialer Systeme liegt darin, dass die prinzipielle Freiheit der beteiligten Individuen nicht nur zur Kenntnis genommen, sondern als Modus der Bearbeitung der sozial generierten Komplexität auch gefordert wird. Die Virtualität der Intelligenz bezieht sich in diesem Zusammenhang auf die Möglichkeit der Wahl von Zuschreibungsadressen. Man kann nicht nur verschiedenen Individuen, sondern auch je nach Bedarf und Anhaltspunkten ihrem Handeln oder ihrem Erleben zurechnen, was man in der Situation für typisch, für bewältigbar oder auch für thematisierbar hält. Doch bereits im nächsten Raum, s4, steht die Erregbarkeit lebender Systeme, ohne die Handeln und Erleben keine physischen Anhaltspunkte hätten, wie frei interpretiert, unterschiedlich imaginiert und symbolisiert auch immer diese Anhaltspunkte in Verhalten, Sprache, Normen und Institutionen aufgegriffen werden. Die gängige wissenschaftliche Praxis, alle Phänomene aus einer Beschreibung zu streichen, die ubiquitär sind und sich von selbst verstehen, würde hier in die Irre führen. Lebende Systeme sind nicht als Konstanten, sondern in ihrer Variabilität und Plastizität an der wechselseitigen Konditionierung aller genannten Systeme beteiligt. Körperlichkeit ist in jeder denkbaren Lebenswelt nicht nur ein wahrnehmbarer Anhaltspunkt für die Anwesenheit oder Abwesenheit von Adressaten der Kommunikation und Trägern von Erleb-
5 Siehe mit einem ähnlich gelagerten Versuch der lebensweltlichen Rekonstruktion von Mathematik Lakoff und Nuñez (2000). 6 Davon handelt gute Soziologie seit Goffman (1959).
Virtuelle Intelligenz: Eine begriffliche Übung
25
nisfähigkeit, sondern über Eigenschaften wie Ruhe oder Nervosität, Konzentration oder Zerstreutheit, Annäherung oder Entfernung ein unverzichtbarer Stimulus für die sich selbst erforschende Intelligenz einer Situation. Die Erregbarkeit lebender Systeme ist von den Antizipationen, Erwartungen und Mustern zu unterscheiden, die das Gehirn im Kontext seiner organischen Irritation produziert, um den Körper im Verhältnis zur Welt und umgekehrt zu positionieren. Die Lebenswelt der virtuellen Intelligenz ist eine Lebenswelt, die auf der Ebene neuronaler Systeme daran interessiert ist, das Vertraute vom Unvertrauten zu unterscheiden und Letzteres entweder zu fliehen oder so lange zu betrachten, bis Vertrautes an ihm sichtbar wird. Die Prädiktion steht im Raum s3 unserer Formgleichung. Sie wird von den Differenzen sozialer Systeme ebenso versorgt wie von den Differenzen lebender Systeme und ist mit nichts anderem beschäftigt, als diese in eigene Differenzen zu übersetzen. Erst dann, wenn die Irritation ihren Dienst getan und die Prädiktion sich orientiert hat, kommen Intentionen zum Zuge, die im Raum s2 einem Bewusstsein zugeschrieben werden können. Diese Intentionen ergeben sich ebenso wenig kausal aus Irritation und Prädiktion, wie die Prädiktion aus dem Typ der Irritation einfach abgeleitet werden könnte. Wir haben es mit inkommensurablen Systemen zu tun, die einander ihre Komplexität zur Verfügung stellen, ohne sich wechselseitig determinieren zu können. Die Intentionen des Bewusstseins ergeben sich aus diesem selbst und sind auf dieser Ebene durch Irritation und Prädiktion, aber ebenso durch die doppelte Kontingenz der sozialen Umwelt und durch die Korrelationen, mit denen die Technik konfrontiert, vielfach, aber eben nicht eindeutig beeinflusst. Künstliche Systeme im Raum s1 unterfüttern dieses Stelldichein selbstreferentiell operierender Systeme mit mehr oder minder überraschenden Korrelationen, die aus statistischen Bestandsaufnahmen ausgewählter, aber massenhafter Ereignisse gewonnen werden. Die Digitalisierung treibt diese Möglichkeit in ungeahnte Höhen (Kurz und Rieger 2011; Kucklick 2014), aber unsere Lebenswelt ist schon immer mit Techniken durchsetzt, die sich zwar nicht als System formiert haben, aber dennoch jede Art von Räumlichkeit und Zeitlichkeit mit Bezugspunkten angereichert haben, die für lebende, neuronale, psychische und soziale Systeme zu neuen Orientierungen geführt haben. Man denke nur an Architektur, Energie, Nahrung und Maschinen aller Art. Die virtuelle Intelligenz dieser Räume, Apparate und Versorgungsmittel steckt nicht in ihrer Materialität, sondern in ihrem Design und muss insofern als ausgelagertes Ergebnis der Erfindung von Architekten, Logistikern, Händlern und Gestaltern gelten, aber das ändert nichts daran, dass sie die der Lebenswelt verfügbare Intelligenz tiefgreifend verändert haben. Insofern ist das aus der Statistik bekannte und vom Maschinenlernen neu aufgegriffene Prinzip der Analyse möglicher Korrelationen
26
Dirk Baecker
von Gegenständen, Ereignissen und Situationen verallgemeinerbar, um jegliche Technisierung der Lebenswelt zu erfassen. Die Außenseite der Form, s0, bleibt unmarkiert. Aus der Sicht einer soziologischen Theorie der Lebenswelt virtueller Intelligenzen werden hier nicht mehr die Schöpfung, die Natur oder eine Philosophie der Geschichte, sondern die Evolution eingesetzt. Sie steht im unwritten cross dieser Gleichung, weil sie ihrerseits keine Regeln, keine Richtung und keinen Sinn vorgibt, sondern als unbestimmtes und nichtsdestoweniger empirisch höchst prägnantes Ergebnis des bis dato erfolgreichen Spiels der wechselseitigen Anregung selbstreferentieller Systeme zu verstehen ist.
7 Die These lautet, dass wir es in der Lebenswelt virtueller Intelligenz mit sich wechselseitig konditionierenden Systemen in deren Umwelten zu tun haben, deren Operationen zwischen der Markierung ihrer selbst (Selbstreferenz) und der Wahrnehmung ihrer Umwelt (Fremdreferenz) oszillieren. Mit Luhmann (2017 [1998]) können wir von einer Form sprechen, die ihre eigene Intransparenz kontrolliert. Virtuelle Intelligenz ist Rekursivität höherer Ordnung. Intelligent ist an ihr eine Verknüpfung, die immer auch eine Problemlösung enthält. Als „power of appropriate selection“ hat W. Ross Ashby (1981 [1961], 295) Intelligenz definiert. Und virtuell ist der Zugriff auf fremde Instanzen und fremde Komplexität, die für den Moment genutzt und wieder losgelassen werden. Wir haben es mit einer Konditionierung von Konditionierungen zu tun, die eine Lebenswelt hervorbringt, die weder als natürlich noch als künstlich zu verstehen ist. Sie ist beides, aber vor allem funktioniert sie. Sie ist das Ergebnis einer organischen, neuronalen, psychischen, sozialen und maschinellen Evolution, deren Variations-, Retentions- und Selektionsmechanismen über das Netzwerk aller Systeme greifen und die Form ihrer Ausgestaltung definieren.
Literatur Ashby, W. Ross. „Requisite Variety and Its Implications for the Control of Complex Systems”. Cybernetica 1.2 (1958): 83–99. Ashby, W. Ross. „What Is An Intelligent Machine?”. Ders., Mechanisms of Intelligence: Ross Ashby’s Writings on Cybernetics. Hg. Roger Conant. Seaside, CA: Intersystems, 1981. 295–306.
Virtuelle Intelligenz: Eine begriffliche Übung
27
Baecker, Dirk. Beobachter unter sich: Eine Kulturtheorie. Berlin: Suhrkamp, 2013. Baecker, Dirk. Neurosoziologie: Ein Versuch. Berlin: Suhrkamp, 2014. Bateson, Gregory. Geist und Natur: Eine notwendige Einheit. Frankfurt a.M.: Suhrkamp, 1982. Bateson, Gregory. Steps to an Ecology of Mind. Reprint Chicago: Chicago University Press, 2000 [1972]. Blumenberg, Hans. „Ernst Cassirers gedenkend“. Ders., Wirklichkeiten in denen wir leben: Aufsätze und eine Rede. Stuttgart: Reclam, 1981. 163–172. Blumenberg, Hans. Zu den Sachen und zurück. Frankfurt a.M.: Suhrkamp, 2002. Boschung, Urs. „Irritabilität, Reizbarkeit“. Enzyklopädie Medizingeschichte. Hg. Werner E. Gerabek, Bernhard D. Haage, Gundolf Keil und Wolfgang Wegner. Berlin: De Gruyter, 2005. 681–682. Cannon, Walter B. The Wisdom of the Body. rev. und erw. Aufl. New York: Norton, 1963. Denning, Peter J. „Virtual Memory“. ACM Computing Surveys 2.3 (1970): 153–189. Denning, Peter J. „Before Memory Was Virtual“. In the Beginning: Recollections of Software Pioneers, Hg. Robert Glass. Los Alamitos, CA: IEEE Computer Society Press, 1997 (zit. online http://denninginstitute.com/pjd/PUBS/bvm.pdf; 17. April 2020) Derrida, Jacques. „Die différance“. Ders., Die différance: Ausgewählte Texte. Hg. Peter Engelmann. Stuttgart: Reclam, 2004 [1968]. 110–149. Domingos, Pedro. The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. New York: Basic Books, 2015. Freud, Sigmund. Entwurf einer Psychologie. Gesammelte Werke, Nachtragsband: Texte aus den Jahren 1885 bis 1938. Hg. Angela Richards. Frankfurt a.M.: Fischer Tb., 1999 [1895]. 387–477. Frith, Chris. Making Up the Mind: How the Brain Creates Our Mental Worlds. London: Blackwell, 2007. Gehlen, Arnold. Urmensch und Spätkultur: Philosophische Ergebnisse und Aussagen. 5. Aufl. Wiesbaden: Aula, 1986 [1956]. Goffman, Erving. The Presentation of Self in Everyday Life. New York: Anchor Books, 1959. Goldstein, Kurt. Der Aufbau des Organismus: Einführung in die Biologie unter besonderer Berücksichtigung der Erfahrungen am kranken Menschen. Hg. Thomas Hoffmann und Frank W. Stahnisch. Paderborn: Wilhelm Fink, 2014 [1934]. Hagner, Michael. Homo cerebralis: Der Wandel vom Seelenorgan zum Gehirn. Frankfurt a.M.: Suhrkamp, 2008. Heider, Fritz. Ding und Medium. Nachdruck Berlin: Kulturverlag Kadmos, 2005 [1926]. Husserl, Edmund. Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie: Eine Einleitung in die phänomenologische Philosophie. 2. verb. Aufl. Hamburg: Meiner, 1982 [1935]. Husserl, Edmund. Logische Untersuchungen. Hamburg: Meiner, 2009 [1900/01]. Kucklick, Christoph. Die granulare Gesellschaft: Wie das Digitale unsere Wirklichkeit auflöst. Berlin: Ullstein, 2014. Kurz, Constanze, und Frank Rieger. Die Datenfresser: Wie Internetfirmen und Staat sich unsere persönlichen Daten einverleiben und wie wir die Kontrolle darüber zurückerlangen. Frankfurt a.M.: S. Fischer, 2011. Lakoff, George, und Rafael E. Nuñez. Where Mathematics Comes From: How the Embodied Mind Brings Mathematics into Being. New York: Perseus Books, 2000. Leifer, Eric A. Actors as Observers: A Theory of Skill in Social Relationships. New York: Garland, 1991. Lévi-Strauss, Claude. „Einleitung in das Werk von Marcel Mauss“. Marcel Mauss, Soziologie und Anthropologie. Bd 1. Frankfurt a.M.: Ullstein, 1978 [1950]. 7–41.
28
Dirk Baecker
Luhmann, Niklas. „Handeln und Erleben“. Ders., Soziologische Aufklärung 3: Soziales System, Gesellschaft, Organisation. Opladen: Westdeutscher Verlag, 1981. 67–80. Luhmann, Niklas. Soziale Systeme: Grundriß einer allgemeinen Theorie. Frankfurt a.M.: Suhrkamp, 1984. Luhmann, Niklas. „Die Autopoiesis des Bewußtseins“. Soziale Welt 36.4 (1985): 402–446 (erweiterte Fassung in: Selbstthematisierung und Selbstzeugnis: Bekenntnis und Geständnis. Hg. Alois Hahn und Volker Kapp. Frankfurt a.M.: Suhrkamp, 1987. 25–94). Luhmann, Niklas. „Haltlose Komplexität“. Ders., Soziologische Aufklärung 5: Konstruktivistische Perspektiven. Opladen: Westdeutscher Verlag, 1990. 59–76. Luhmann, Niklas. „Probleme mit operativer Schließung“. Ders., Soziologische Aufklärung 6: Die Soziologie und der Mensch. Opladen: Westdeutscher Verlag, 1995. 12–24. Luhmann, Niklas. „Die Kontrolle von Intransparenz“ [1998]. Ders., Die Kontrolle von Intransparenz. Hg. Dirk Baecker. Berlin: Suhrkamp, 2017. 96–120. Newell, Allen, und Herbert A. Simon. „Computer Science as Empirical Inquiry: Symbols and Search”. Communications of the ACM 19 (1976): 113–126. Northoff, Georg, und Kristina Musholt. „Können wir unser eigenes Gehirn als Gehirn erkennen?“ Akteur Gehirn – oder das vermeintliche Ende des handelnden Subjekts: Eine Kontroverse. Hg. Jo Reichertz und Nadia Zaboura. Wiesbaden: VS Verlag Sozialwissenschaften, 2006. 19–30. Northoff, Georg. Unlocking the Brain, Bd 1: Coding. Oxford: Oxford University Press, 2013. Northoff, Georg. Unlocking the Brain, Bd 2: Consciousness. Oxford: Oxford University Press, 2014. Park, Robert E., Ernest W. Burgess und Roderick D. McKenzie. The City. Chicago: Chicago University Press, 1967 [1925]. Parsons, Talcott et al. „Some Fundamental Categories of the Theory of Action: A General Statement”. Toward a General Theory of Action. Hg. ders. und Edward A. Shils. Cambridge, MA: Harvard University Press, 1951. 3–29. Rieger, Stefan, und Dawid Kasprowicz (Hg). Handbuch Virtualität. Berlin: Springer, 2020. Rieger, Stefan. Kybernetische Anthropologie: Eine Geschichte der Virtualität. Frankfurt a.M.: Suhrkamp, 2003. Simon, Josef. Kant: Die fremde Vernunft und die Sprache der Philosophen. Berlin: De Gruyter, 2003. Spencer-Brown, George. Laws of Form. 5. intern. Ausgabe. Leipzig: Bohmeier, 2008 [1969]. von Foerster, Heinz. „Prinzipien der Selbstorganisation im sozialen und betriebswirtschaftlichen Bereich“. Ders., Wissen und Gewissen: Versuch einer Brücke. Hg. Siegfried J. Schmidt. Frankfurt a.M.: Suhrkamp, 1993. 233–268. von Foerster, Heinz. Understanding Understanding: Essays on Cybernetics and Cognition. New York: Springer, 2003. von Helmholtz, Hermann. Handbuch der physiologischen Optik. 2., umgearb. Aufl. Hamburg: L. Voss, 1896. White, Harrison C. Identity and Control: A Structural Theory of Action. Princeton, NJ: Princeton University Press, 1992. White, Harrison C. Identity and Control: How Social Formations Emerge. 2. Aufl. Princeton, NJ: Princeton University Press, 2008. Wiener, Norbert. Cybernetics, or Control and Communication in the Animal and the Machine. 2. Aufl. Cambridge, MA: MIT Press, 1961. Wittgenstein, Ludwig. Tractatus logico-philosophicus. Frankfurt a.M.: Suhrkamp, 1963 [1921].
Dawid Kasprowicz
Die Entgrenzung des Banalen: Zur virtuellen Beobachtung des Embodiment in der Robotik Just to be simple again . . .1
1 Die Entgrenzung der Robotik Wie nur wenige andere Themen war die Robotik in den letzten zehn Jahren sowohl in den massenmedialen Berichterstattungen als auch im wissenschaftlichen Diskurs über mehrere Fachgrenzen hinweg präsent. Die real existierende oder mögliche Ankunft von robotischen Systemen in diversen gesellschaftlichen Bereichen führt zu einer parallel verlaufenden Akkumulation von Fachwissen über die Konstruktion solcher Systeme, aber vor allem über ihre Integration in die jeweiligen Organisationen. Unter dem Label einer neuen „Künstlichen Intelligenz“ (KI)2 haben sich neue Disziplinen wie Machine Learning oder Data Science versammelt, in denen KI-Systeme auf Grundlage großer Datenbestände (Big Data) für potentielle gesellschaftliche Anwendungen entwickelt werden. Dabei dienen diese Datenbestände (im Fachterminus training data genannt) der Optimierung eines algorithmisch gesteuerten Verfahrens, indem sie auf eine Zielfunktion (target function) hin abgesucht, klassifiziert und für die jeweilige Situation abrufbar gemacht werden.3 In der industriellen Robo-
1 Aus dem Lied von Songs: Ohia „Just Be Simple“, 2003, Secretly Canadian Records. 2 Repräsentativ hierfür das Themenheft der Zeitschrift für Medienwissenschaft „Künstliche Intelligenzen“, besonders die Einleitung, die für eine Verbindung der gesellschaftlichen Relevanz einer neuen KI und der medialen Prägung Letzterer argumentiert (Ernst et al. 2019). Eine weitere Reaktion auf diese neue Relevanz der KI ist die Diskussion um Transparenz algorithmischer Verfahren und ein damit einhergehender, wissenschaftstheoretischer und wissenssoziologischer Diskurs um erklärbare KI („explainable AI“, sh. dazu Miller 2019; Zerilli 2019). 3 Solche Machine Learning-Verfahren können sich von alltäglichen Anwendungen wie dem Spam-Mail-Filter bis hin zu sensorbasierten Systemen erstrecken, wie es besonders für autonome Autos der Fall ist (für den speziellen Fall der autonom fahrenden Autos sh. Weber und Kröger 2014; Stilgoe 2018; Sprenger 2019, Kap. 7.1.). Zur Anwendung des NAND-Algorithmus (Not-And) bei Spam-Mail-Filtern (sh. Mackenzie 2017, 24–25 und 113–114.). Zum sogenannten „mapping“ der Umgebung bei simultaner Lokalisierbarkeit im Raum siehe besonders die Funktionsweise so genannter SLAM-Algorithmen (Simultaneous Localization and Mapping Open Access. © 2021 Dawid Kasprowicz, publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz. https://doi.org/10.1515/9783110638127-003
30
Dawid Kasprowicz
tik haben verbesserte Sensortechniken dazu geführt, Roboter nicht mehr durch einen Sicherheitszaun samt Laserschranke abzugrenzen. Für physische Interaktionen mit dem Menschen erfordert dies neue Sicherheitsstandards, deren Richtwerte zunächst in Computer- und Materialsimulationen zu ermitteln sind (Haddadin et al. 2013; Kasprowicz 2018). Zugleich ermöglichten die verbesserte Sensortechnologie und die Machine Learning-Verfahren, Roboter in komplexe soziale Situationen, wie z. B. in eine Kindergartengruppe, als sozialen „Partner“ zu integrieren (vgl. dazu Cañameo und Lewis 2016).4 Ethische Fragen, ob es sich bei Robotern auch um eine Persönlichkeit handelt, der physisch oder psychisch Leid zugefügt werden darf, gehören seitdem zum populärwissenschaftlichen wie akademischen Diskurs dazu. Es soll aber im Folgenden nicht um eine Ankunft des sozialen Roboters gehen, auch nicht, unter welchen Aspekten dies verifiziert werden könnte. Stattdessen wird die Mensch-Roboter-Interaktion mit Hilfe zweier Begriffe erörtert, die beide kontraintuitiv, wenn nicht gar anachronistisch auf die heutige, vom KI-Diskurs geprägte Robotik wirken: die „Banalität“ und die „Virtualität“. Was durch den Einzug von Robotern in die besagten gesellschaftlichen Bereiche notwendig wird, ist eine Banalisierung der eigenen sozialen – und das heißt vor allem – körperlichen Interaktionen und deren Erwartungen. Es wird argumentiert, dass mit dieser Banalisierung mehr als ein Reduktionismus von Bewegungen auf Kräfte und Sensoren einhergeht, sondern die Einführung einer Beobachtungsebene, einer virtuellen Beobachtung, die durch Medien der Virtualität (wie der Virtual Reality, aber auch Computersimulationen oder materielle Testreihen) gekennzeichnet ist. Sicherlich sind virtuelle Beobachtungen häufig Testpraktiken im Konstruktionsentwurf (Thiele et al. 2020; Schirra 2009), aber sie sind mit Blick auf die Mensch-Roboter-Interaktion auch der Ort, an dem die Unwahrscheinlichkeit einer Kommunikation kognitiver und nicht-kognitiver Agenten wahrscheinlich gehalten werden soll – oder, um es mit Elena Esposito zu sagen, die es allgemein für algorithmisch gesteuerte Maschinen so formulierte: „The paradoxical purpose of programming intelligent algorithms is to build unpredictable machines in a controlled way. The goal is to control the lack of control“ (Esposito 2017, 257). Banalität konzentriert damit eine Reduktion von Komplexitäten interagierender Systeme, die für die Wahrscheinlichkeit der Interaktion notwendig ist und die erst im Medium der Virtualität beobachtbar wird.
Technology), die sowohl für Fahrzeuge als auch für mobile Roboter zunehmend Verwendung finden (Kanderske und Thielmann 2019). 4 Dies geht oft mit einer multidisziplinären Ausrichtung im Roboter-Design einher, die neben Ingenieur*innen auch Psycholog*innen und Expertisen aus neuen Feldern wie den developmental robotics einbeziehen.
Die Entgrenzung des Banalen
31
Es geht folglich nicht darum, die Mensch-Roboter-Interaktion auf einfachen, alltäglichen Bewegungen zu begründen, sondern um die Einführung der Banalität als einer Alternative zur dominierenden Kategorie der Intelligenz.5 Im Gegensatz zur Intelligenz, die sich primär auf kognitive Akte richtet und häufig anthropozentrisch verbleibt, reklamiert das Banale eine Aushandlungszone körperlicher Praktiken, die nur entstehen kann, wenn beide interagierenden Systeme den Anderen für ihre Operationen einbeziehen. Damit gewinnen – im Anschluss an Niklas Luhmanns Begriff der Interpenetration – technische wie psychische Systeme als Interagierende sukzessiv an Komplexität (Luhmann 1987, 299). Aber wie lässt sich Banalität an solche technischen Begegnungen von Mensch und Roboter rückbinden? Das Banale ist zunächst eng verbunden mit den jeweiligen Vorstellungen und Erwartungen darüber, was bekannt, einfach, vertraut und alltäglich ist. Besonders technik- und medienspezifische Erwartungen sind in jeder Nutzerkonstellation gegeben, die zugleich die Gestaltung der jeweiligen Objekte und ihre Bedienbarkeit prägen (Oudshoorn und Pinch 2005). Für den Fall von Mensch-Roboter-Interaktionen zeichnet sich aber eine zweiseitige Konstruktionslogik heraus: Denn auf der einen Seite gilt es, körperliche Interaktionen mit Robotern auf einfache, diskretisierbare Bewegungen und minimale, sozial kodierte Gesten zu reduzieren, damit sie modelliert und später im Computer simuliert werden können. Wie in allen Bewegungsstudien repräsentiert dies den Analyseteil, der notwendig für die folgende, synthetische Konstruktion jeder möglichen Bewegung ist (Kasprowicz 2019a, Kap. 4.4.1.). Auf der anderen Seite zieht gerade die Inklusion komplexer Technologien in alltägliche Situationen eine Kontingenzsteuerung nach sich (oder, Esposito paraphrasierend, einen kontrollierbaren Kontrollmangel). Damit führen neue Handlungsoptionen (und Bewegungen) mit Robotern zu neuen Wissenskategorien der körperlichen Begegnung, damit Interaktionen von Menschen und Robotern für Konstrukteur*in und Nutzer*innen wahrscheinlich – oder weniger abstrakt formuliert – tolerierbar bleiben. Solche Kategorien umfassen Skalierungsbegriffe wie die Unaufdringlichkeit (Kasprowicz, in Vorb.). Sie äußern
5 Auch hierin folge ich Elena Esposito insofern, als dass sie in ihrem Modell die Kommunikation an die Stelle der Intelligenz zur entscheidenden Kategorie erhebt. Ob Maschinen mit uns kommunizieren oder ob – wie oft gefragt wird – sie uns verstehen, unterliegt somit dem Kommunikationsmodell nach Luhmann, das von der doppelten Kontingenz zweier Systeme abhängt, die den Anderen als Fremdreferenz in ihre operative Schließung inkludieren. Dies setzt bei Luhmann so genannte autologische Systeme voraus, also solche, die an ihre Unterscheidungen anschließen können und somit den Anderen als abwesenden Anwesenden in den eigenen Operationen mitführen (sh. dazu hier Punkt 5 sowie Esposito 2017, 255–257; Luhmann 1987, 367–371 und 1997a, 124–127).
32
Dawid Kasprowicz
sich in einer Episteme der Technikakzeptanz, die mit den neuen Handlungsoptionen (samt deren Kontingenzen) geschaffen wird, bevor Technikakzeptanz ein quantitativ bestimmbares Phänomen werden kann.6 Unaufdringlichkeit setzt ein Wissen um die Banalität sozial kodierter Gesten und Bewegungen voraus, das sich zugleich im Spannungsfeld sozialer Erwartungen bewegt – und zwar in dem des interagierenden Menschen und jenem einer die Interaktion rahmenden Organisation wie z. B. der Fabrik, der Pflegeanstalt oder dem vom Straßenamt beaufsichtigten Verkehrswesen (zur spezifischen Rahmung der Interaktionsmöglichkeiten durch die Organisation sh. Baecker 2005, 114–117). Damit einher geht eben keine Ausblendung des Mediums. Vielmehr drängt die Unaufdringlichkeit – als Diskretionserwartung bestehender sozialer Interaktionen – das Paradoxon einer neuen Banalität auf, dass sowohl den ingenieurwissenschaftlichen Modellen als auch den Bewegungen der menschlichen Interaktionspartner zugrunde liegt. Beides setzt allerdings Medien der Virtualität voraus, in denen aus dem alltäglichen Bewegungsablauf das Banale erst beobachtbar wird. Da gerade die Frage der Banalität eine eigene Vorgeschichte hat, die sich nicht zuletzt auch in häufig synonym verwandten Begriffen wie der Trivialität äußert, soll zunächst kurz eine begriffshistorische Herleitung des Banalen für das zwanzigste Jahrhundert erbracht werden. Anschließend werden die Phänomenologie und der von Edmund Husserls geäußerte Leitspruch „Wir wollen auf die ‚Sachen selbst‘ zurückgehen“ (2009 [1901], 10) als ein ideenhistorischer Zugriff auf das Einfache als Grundlage des Erkenntnisprozesses betrachtet. Von dieser kurzen Ideengeschichte des Banalen geht es zur Systemtheorie, in der Banalität nur unter Bedingungen der doppelten Kontingenz erscheint. Damit wird eine theoretische Alternative auf die bewusstseinszentrierte Analyse des Banalen in der Phänomenologie geboten. Im letzten Teil dient eine kurze Analyse dazu, die Konstruktionslogik des Banalen in der Robotik und seine Rückbindung an eine daraus entstehende Episteme des Embodiment zu verdeutlichen. Es wird zu zeigen sein, wie die Virtualität hier zum Medium einer paradoxen Figur der komplexen Banalisierung wird, um Kommunikation zwischen kognitiven und nicht-kognitiven Agenten probabel zu gestalten.
6 Siehe zur Methodik einer Technikfolgeabschätzung für die Mensch-Roboter-Interaktion Meister 2011; Decker 2011 und ausführlich zu technischen und rechtlichen Aspekten Christaller et al. 2001.
Die Entgrenzung des Banalen
33
2 Der Begriff des Banalen Auf den ersten Blick scheint das Konzept des Banalen vertraut und nicht erläuterungsbedürftig: Es manifestiert sich im Alltagsgebrauch, sei es als materielles Objekt oder als voraussetzbares Knowhow. In dieser Bedeutung folgt es seiner etymologischen Herkunft aus dem Altfranzösischen, dem „ban“, dem Gemeinwesen sowie -wissen zugehörig. Damit wurden Dienste oder Gegenstände bezeichnet, die der Lehnsherr seinem Vasallen für eine Gegenleistung überließ. Sie waren so gesehen für alle erwerblich, allerdings nur bei dem einen Lehnsherren oder Gewerbetreibenden (daher auch die Verbindung mit dem Bannrecht, also die Verbannung aus dem Gemeinwesen bei etwaiger Verletzung des Lehnsherrenrechts) (o. A. 1857, 264). Begriffe wie das „banlieu“ bezeichnen noch eine geographische Markierung, bis wohin das Bannrecht sich für das Gemeinwesen erstreckt – bis wohin also das gewöhnliche Recht des Fürsten oder Lehnsherren herrscht. Erst im neunzehnten Jahrhundert werden die Bannrechte durch die Industrialisierung und Urbanisierung aufgehoben. Aber bereits im achtzehnten Jahrhundert löst sich die Bedeutung vom „Bann“ hin zu etwas, das richtig oder geltend ist, aber so selbstverständlich, dass es nicht explizit gemacht werden muss (Genz 2011, 12). Erst im späten neunzehnten und frühen zwanzigsten Jahrhundert erhält das Banale seine negative Konnotation, die eng mit dem Aufkommen der Tagespresse und dem zusammenhängt, was heute unter Nomina wie Massenmedien und Populärkultur firmiert. So koppelt Julia Genz in ihrer Studie zu Banalität, Trivialität und Kitsch in der Literatur die Banalität nicht an die Qualität des Inhaltes, sondern an den Exklusivitätswert des literarischen Produktes und seiner soziokulturellen Zugänglichkeit. Das Banale unterliege dabei einer massenmedialen Verbreitung, während die kognitive Ebene durch den Begriff der Trivialität und die emotionale mit dem Kitsch belegt wären (Genz 2011, 16). Das pejorative Element des Gewöhnlichen und für alle Bekannten verbleibt aber nicht allein im Distinktionshabitus von elaborierten und popkulturellen Werken und ihren Produzenten (Autor*innen, Komponist*innen, Filmen und ihren Regisseur*innen etc.). Es taucht auch in der Unterscheidung einer Wissensproduktion und -verarbeitung auf, die zum trennenden Merkmal zwischen einer wissenschaftlichen und einer phänomenologischen, literarisch-essayistischen Sicht auf die Welt wird. So unterscheidet Hans Blumenberg 1974 in seinen „Vorbemerkungen zum Wirklichkeitsbegriff“ den Alltag als die „Konsistenz des Gewöhnlichen“, der dem Theoretiker als das „Ungeheuere erscheinen“ muss, da er gerade nichts Neues biete (Blumenberg 1974, 10), das ein Explanandum wert wäre. Vor diesem Hintergrund sind die Helden literarisierter Banalität Autoren wie Franz Kafka, die das gesamte eruptive Potential der Moderne in einer Absur-
34
Dawid Kasprowicz
dität verpacken, die immer wieder im grauen Alltag auflauert. Bis in die aktuellen Ausläufer solcher Einschätzungen hält sich diese Bedeutung des Banalen, wenn sie nicht pejorativ, sondern als Abgrenzung zu einem progressiv gewandten Wissensbegriff genutzt wird. Dem Banalen kann man sich daher nicht ohne Vorbehalt mit dem Werkzeug von Theorien und Methoden nähern. Vertreter der Neuen Phänomenologie wie Jürgen Hasse gehen gar soweit, von einem Vakuum zu sprechen, in das alle Theorien über banale Alltagserlebnisse fallen, „[. . .] denn sie werden, indem ihnen jeder apriorische Dignitätsanspruch genommen wird, selbst zu etwas Banalem“ (Hasse 2017, 49). Das Abrutschen so hoher geistiger Leistungen wie der Theorie hin zu Phänomenen, hinter denen sich schlicht und einfach nichts verberge, verlangt nach anderen Zugängen. Für die folgende Fragestellung nach der Banalität, die im Modus der Virtualität in die Robotik eingeführt wird, ist diese Sachlage von Relevanz: Man kann sich, wie die Neue Phänomenologie, in quasi-literarische, künstlerisch-explorative Welten einer Innenschau begeben. Dieses erzählt allerdings eher von der Begegnung mit dem Banalen als von der Banalität im operativen Modus des Virtuellen.7 Will man dies vermeiden, so muss die Frage gestellt werden, was es voraussetzt, Banalität als das Einfache, als das Zugrundliegende zu beschreiben, ohne in die Untiefen einer subjektiven Empfindungswelt (oder ihrer Beobachtung erster Ordnung) zu rutschen. Erst vor diesem Hintergrund können Medien ins Verhältnis mit der Banalität gesetzt werden. Daher gilt es nun, zunächst von der anderen Seite zu starten. Dazu wird mit der Phänomenologie ein theoretischer Zugang präsentiert, der das Gegebene des Bewusstseins selbst zum Ausgang allen möglichen Wissens befragt. Erst im Anschluss kann die Systemtheorie Luhmanns plausibel als Entkopplung des Banalen von seiner subjektiven Fundierung begründet werden.
3 Die Entgrenzung des Banalen Es wäre falsch, Husserls Anspruch, zu den Sachen selbst zurückzukehren, als Aufruf zu einer philosophischen Auseinandersetzung mit der Banalität zu interpretieren. Nichts liegt Husserl ferner als eine Banalisierung der philosophischen Praxis. Es ist eher ein langausholendes Suchen nach den Grundlagen der Erkenntnis, die noch vor jeder wissenschaftlichen Untersuchung einer „Wesensanalyse“ bedarf (Husserl 1973 [1907], 38). Da nun wissenschaftliches 7 So sind es bei Hasse vor allem Warteräume oder Lounges, die Orte eines banalen Zeiterlebens sind.
Die Entgrenzung des Banalen
35
Wissen sich bereits aus einer vorgestellten Position zu seinen Objekten und einer symbolischen Ordnung konstituiert und damit „transzendentes“ Wissen ist (Husserl 1973 [1907], 5), erfordere dies eine Reduktion, eine Freilegung auf die allgemeine Bezugnahme des Bewusstseins zu seinen Phänomenen (Intentionalität). Nur von dort aus kann der Akt der Erkenntnis erst seinen Ausgang nehmen. Die von Husserl eingeführte phänomenologische Reduktion führt dabei die Suche nach dem einfachen Ausgang aller Erkenntnis ein – dem Sein setzenden Bewusstsein. Aber auch hier ist der skeptische Phänomenologe nicht über alle Zweifel erhaben, denn: „Der Anfang war die Evidenz der cogitatio. Da schien es zunächst, als hätten wir einen festen Boden, lauter pures Sein. Man hätte einfach nur zuzugreifen und zu schauen.“ (Husserl 1973 [1907], 70–71). Was jedoch hinter diesem vermeintlichen Schleier einer Gegebenheit für das Bewusstsein liegt, wird zum eigentlichen Problem und Kern der Husserlschen Phänomenologie nach 1907 – und zwar die zeitliche Verfassung des Bewusstseins selbst. Wahrnehmung und Phantasie als Bewusstseinsakte stehen selbst nicht isoliert da, sie sind eingewoben in die Erinnerungen (Retentionen) und Assoziationen der operierenden cogitatio, die zugleich auch Erwartungen für die kommenden Wahrnehmungen stiftet (Protention). Der intentionale Akt hat stets einen Gegenstand, auf den er gerichtet ist, und dieser Gegenstand ist allein unserem Bewusstsein zugänglich. Der von Husserl als Noema bezeichnete Gegenstand, oder genauer der Anhaltspunkt des Denkens, muss kein real existierendes Objekt sein (Føllesdal 1969, 681). Es ist eine Art temporale Datei, auf die neue Informationen sowie wiederkehrende Bewusstseinsakte (Wahrnehmen, Erinnern, Phantasieren) zugreifen.8 Die phänomenologische Reduktion führt auf eine einfache, allen Bewusstseinsoperationen zugrundeliegende Temporalität, die sich in unterschiedlichen Bewusstseinsakten (Wahrnehmen, Erinnern etc.) unterschiedlichen oder gleichen Gegenständen – also Noema – widmen können. Sie offenbart einen Exzess an Komplexität im Bewusstsein selbst und damit zugleich in den vermeintlich banalsten, alltäglichen Vorgängen.
8 Das Noema ist dem Bewusstsein, aber nicht durch die Sinne gegeben. Folglich kann das Noema auf real existierende Objekte verweisen, aber es ändert sich als Baum je nach dem, ob es erinnert, durch Phantasie manipuliert oder schlicht mit anderen Bäumen verglichen wurde. Auf der anderen Seite kann sich das real existierende Objekt (das Auto meines Freundes) verändern, ja verschwinden, während ich eine konsistente Vorstellung von dem einen speziellen Moment seiner Wahrnehmung habe, die ich mir immer wieder vergegenwärtige, weil ich ihr eine Bedeutung attestiere (vgl. Føllesdal 1969, 684; zum Noema als Verhältnis von Bild und Imagination sh. Sartre 1971 [1940]).
36
Dawid Kasprowicz
Gerade auf solchen sich anbahnenden, von Selbst- und Fremdbezügen im Denken, von den Akten (Noesis) und ihren sinnhaften Inhalten (Noema) versehenen Vorgängen untersucht Niklas Luhmann in seinen späten Jahren Husserls Programm. Die Systemtheorie, die bei ihrer Distanz zum Subjektbegriff und zu den Untiefen des Bewusstseins nicht viel mit der Phänomenologie zu teilen vermag, setzt beim Problem Husserls an, gerade an jener Banalität des Bewusstseins von sich, diesem „pure[n] Sein“ (Husserl 1973 [1907], 70), das sich nun selbst der Kontingenz kognitiver Operationen ausgesetzt sieht (Luhmann 1997b, 34). Mehr noch – der Systemtheorie nach ist es gerade das Inkludieren einer nicht eigen-kognitiven Zeit in die Bewusstseinszeit, ebenso der Wahrnehmungen in den Bewusstseinsstrom, das eine Fremdreferenz ausmacht – damit also die zentrale Unterscheidung zwischen Selbst und Umwelt, Ich und nicht-Ich als Form der Differenz zur Erhaltung von Identität ausführt. Diese Identität (die das nicht-Identische als ihre Negation mitführt) ist daher nicht als Subjektivität, sondern als Leistung eines psychischen, sozialen oder technischen Systems zu verstehen, das Unterscheidungen trifft, in dem es selektiv beobachtet, weil nicht alles gleichzeitig beobachtet werden kann (Luhmann 2002, 227). Die Form als Einheit einer Differenz (Ich/nicht-Ich) referiert nicht mehr auf ein metaphysisches Substrat oder eine biologische Entität, sondern allein auf einen anschlussfähigen „Einschluss des Ausgeschlossenen als Modus des Prozessierens von Sinn“ (Luhmann 1997b, 56). Kontingenz ist in der Systemtheorie allerdings nicht nur in der Reproduktion solcher Identitäten grundlegend, sondern auch im Kommunizieren von Systemen untereinander. Denn es gibt keine Einsicht in die Bewusstseinsakte des Anderen und man weiß nie, was als nächstes kommt – folglich wird Kommunikation selbst zu einem unwahrscheinlichen Akt. Genau diesen Umstand bezeichnet Luhmann als „doppelte Kontingenz“ (Luhmann 1987, 153–154). Um diese Kontingenz zu reduzieren, treten Medien auf den Plan, besonders „symbolisch generalisierte Kommunikationsmedien“ wie Buchstaben, die in Form von Begriffen und Sätzen zusätzliche Unterscheidungen bei gleichzeitiger Kontingenzreduktion ermöglichen, da das vergangene Wort nun schriftlich fixiert und distribuiert werden kann (Luhmann 1997a, 204). Es wäre aber ein Kurzschluss, den Medienbegriff hier allein auf Symbole zu beschränken, denn gerade in sozialen Institutionen sind Körperhaltungen und Gesten ebenso Formen einer Kommunikation.9 Mehr noch, sie sichern durch Handlungsroutinen 9 Dabei sind die Haltungen, Redetakte und Gebote des Kommens und Gehens selbst Formen der Kontingenzreduktion psychischer Systeme, die alle auf einen sozialen Code referieren, in dem die Anwesenheit und Abwesenheit in der Kommunikation (bei physischer Präsenz im selben Raum) reguliert ist (Baecker 2005, 110–111).
Die Entgrenzung des Banalen
37
die Reproduzierbarkeit von Organisationen. Damit werden aber soziale Systeme selbst zu dem, was der Kybernetiker Heinz von Foerster mit Blick auf die Schule etwas verächtlich als „Trivialisierungsmaschine“ bezeichnete (von Foerster 1997, 41), als den Ort einer systematischen Reduktion von Komplexität.10 Das Triviale, dieses getreue Synonym des Banalen, hat bei von Foerster die Grundeigenschaft des analytisch Bestimm- und damit Voraussagbaren. Analog dazu verwendet von Foerster die Unterscheidung triviale und nichttriviale Maschine (von Foerster 1984). Die triviale Maschine vollzieht eine simple Input-Output-Logik, wie es auch noch jede*r PC- oder Smartphone-Nutzer*in heute erwartet, vorausgesetzt, die Maschine ändert in dieser Zeit nicht ihren Zustand. Nicht-Triviale Maschinen schließen in ihren Handlungen an gemachte Unterscheidungen an, sie entwickeln daraufhin einen „Eigenwert“ des Wirklichen, der mit dem Ausgangswert (dem Input) nicht mehr identisch ist (von Foerster 1984, 154). Dieser Faktor des kontingenten Zustandes eines Agenten hat aber ontologische Konsequenzen mit Blick auf die Robotik – denn nicht nur eine überraschende Bewegung des Roboters lässt ihn uns als nicht-triviale Maschine beobachten. Auch eine Dys- und Fehlfunktion überrascht uns und führt die grundlegende Unwahrscheinlichkeit von Kommunikation vor Augen. Aber im Falle der Robotik hat ein solches Scheitern der Trivialisierung bzw. Banalisierung den Effekt, den Roboter zu negieren und ihn nicht mehr als Kommunikationspartner, sondern als technisches Objekt zu händeln. Aus ethnographischer Sicht formuliert es die STS-Forscherin Morana Alač wie folgt: I turn to robots as physical things in their own rights and suggest that for a robot to be dealt with in social situations its being perceived as not only alive but also as a material, object-like piece of the world matters. This, in turn, means that the agency of the robot is entangled with its thing-like materiality [. . .] One advantage that this approach provides is the possibility of accounting for the robot’s character as multifaceted. As we move away from the idea that the robot’s sociality has to be understood as an intrinsic and categorical property of the robot’s inside [. . .], the robot is a technology that can be enacted, in one breath, as an agent and a thing. Each of the facets that hand-in-hand maintain each other can become the „theme“ [. . .] at specific moments in interaction while its other profile coexists concurrently or as a possibility that can itself take center stage as the encounter develops. (Alač 2016, 520)
Solche Ansätze wie jener von Alač nehmen einfache Interaktionen mit Robotern als Ausgang für die Analyse einer multiplen Ontologie, einer Koexistenz von technischem Ding und sozialem Partner, deren Zuschreibungen selbst fragil sind (sowohl von den Interagierenden mit dem Roboter als auch von Alač selbst als
10 Für diesen Hinweis zum Begriff der Trivialisierung bei Heinz von Foerster danke ich Dirk Baecker.
38
Dawid Kasprowicz
Beobachterin erster Ordnung). Empirische Studien dagegen suchen nach Parametern, anhand derer sich das Engagement für eine kollaborative Arbeit erfassen lässt, obwohl oder gerade weil es sich vor dem Versuch weiterhin um eine Maschine handelt (hier besonders für die soziale Robotik Paauwe et al. 2015). Geht man aber nicht von solchen Beobachtungen erster Ordnung aus und versucht, die Modi einer Unterscheidung Objekt/Partner selbst in den Beobachtungen der Ingenieur*innen zu greifen, stellt sich zwangsläufig die Frage, wie der Mensch selbst als potentieller Partner in den Roboter kommt? Gerade um eine Antwort auf solche Fragen zu finden, gilt es, Medien für eine virtuelle Beobachtung zur Verfügung zu stellen. Wie der Mensch vom Roboter „gesehen“ werden soll, wird damit eine Frage der Operationalisierung von Banalität in Medien der Virtualität.11 Anstelle der Frage, unter welchen Bedingungen Menschen die Interaktion mit Robotern aufrechterhalten oder sich darin engagiert fühlen, werden Ingenieur*innen als Beobachter von Maschinen beobachtet, die den Menschen als Fremdreferenz ihres Systems inkludieren müssen.12
4 Die virtuelle Beobachtung der Banalität „Mensch“ Husserls Noema wurde als zeitlicher Gegenstand des Bewusstseins benannt. Die Noema kann Referenzen zu einer Außenwelt haben, aber sie ist ein immanenter Bezugspunkt des Bewusstseins selbst. Mit der Reduktion auf die Sachen
11 Medien der Virtualität umfassen hier auch Modelle in Flow-Charts, Computersimulationen von möglichen Bewegungsabläufen sowie die besagten VR-Simulationen zur Ermittlung einer Interaktionswahrscheinlichkeit. Auf die jeweiligen Verfahren der Robotik wird jeweils konkret verwiesen, während der Modus der Virtualität zur allgemeinen Verfahrenstechnik für das Embodiment in der Robotik gehört. 12 Diese Situation ist aus epistemologischer Sicht nicht neu. Der entscheidende Aspekt ist aber das Embodiment als Konstrukt des Anderen für ein psychisches oder technisches System. Gerade die Human-Computer-Interaction (HCI) hat seit ihrer Gründung, und auch in ihrer allmählichen Abwendung von einer kognitionswissenschaftlichen Zentrierung, immer den Modus eines virtuellen Anderen als Fremdreferenz für das technische System beobachtet. Das Interface-Design ist damit auch ein Artefakt der Grundunterscheidung User/Nicht-User, aus dem die HCI ihr Wissen generiert, um die Kommunikation mit technischen Systemen wahrscheinlicher zu gestalten (sh. zu einer Diskussion zwischen Computeravataren für die HCI und Avataren für die Mensch-Roboter-Interaktion Gratch et al. 2015; zum Verständnis der HCI Bannon 2011).
Die Entgrenzung des Banalen
39
selbst drängte sich aber die Komplexität der diversen, stets temporalen und die Tempi setzenden Bewusstseinsoperationen erst auf (Bergmann und Hoffmann 1989, 156). Die Systemtheorie lieferte dabei eine Perspektive, in der nicht mehr vom Sein setzenden Bewusstsein ausgegangen wird, sondern von der Einheit der Differenz, die Form genannt wird, und deren Priorität es ist, die Stabilität des (psychischen) Systems durch Reproduktionen vertrauter und Integration neuer Differenzen zu gewährleisten. Banalisierung – oder mit Heinz von Foerster gesprochen, Trivialisierung – erwies sich hierin als ein Verfahren zur Reduktion von Komplexität. Solche Trivialisierungen, die sowohl zwischen technischen und psychischen als auch zwischen psychischen und sozialen Systemen geschehen können, setzen Beobachtungen voraus, d. h. Unterscheidungen, die auf Medien basieren. Es wurde bereits betont, dass der Medienbegriff der Systemtheorie hier nicht allein auf klassische Kommunikationsmedien, sondern auch auf Bild- und Simulationsmedien ausgeweitet wird. Vor diesem Hintergrund wäre zu fragen, wie in der Robotik eine Bezugsgröße „Mensch“ durch virtuelle Medien konstituiert wird? Und welche Rückwirkung haben diese virtuellen Medien auf das Embodiment (materialisierter) Roboter, die mit ihren menschlichen Kollaborateur*innen kommunizieren und damit ihre Sozietät beobachtbar machen sollen? Ein Blick in die fachwissenschaftlichen Diskussionen und Methoden, aber auch in die Praktiken zur Modellierung von Menschen zeigt, dass es hier weder eine Priorität in den Verfahrenstechniken noch in den disziplinären Wissensbezügen gibt. So stehen Motion-Capture-Techniken neben 3D Bodyscans, Digitale Menschmodelle neben Machine-Learning-Verfahren und den diversen Computersimulationen von Körperbewegungen (Bortot et al. 2010; Chaumette und Hutchinson 2009; Bubb und Fritzsche 2009). Besonders VR-Simulationen für kollaborative Praktiken werden in der industriellen Robotik angewandt, wenn es um die Einschätzung adäquater Abstände und das Einüben routinierter Bewegungen geht. Diese Verfahren halten ebenso Einzug in die Sicherheitsrichtlinien der International Organization for Standardization (ISO), in denen die Kriterien für eine Unterscheidung von Service- und Industrieroboter sowie deren Leistungsbereiche vereinheitlicht werden (Onnasch et al. 2016; Gammieri et al. 2017).13
13 So ist die physische Interaktion zwischen Roboter und Mensch seit 2006 in der ISO 10218 vorgeschrieben. Sowohl für industrielle Anwendungen als auch im Dienstleistungssektor müssen dabei Leistungsgrenzen des Roboters quantitativ ermittelt werden, um jederzeit das Gefährdungspotential in einer Interaktion bestimmen zu können. Dies führt zum Teil auch dazu, dass Ingenieur*innen in den Normen Einschränkungen für die Leistungsfähigkeit und Entwicklung der Roboter durch zu restriktive Sicherheitsvorgaben sehen. Zur Diskussion um Sicherheitsnormen als Bewegungsrestriktionen für Roboter vgl. Haddadin et al. 2009.
40
Dawid Kasprowicz
Aber es sind nicht nur Sicherheits- und Funktionsfragen, die in den Medien der Virtualität ihren Einzug finden. Gerade das Design einer Kontaktstelle von menschlicher und maschineller Hand sowie die dazugehörige Körperbalance sind dabei von besonderer Relevanz. Da mit dem Aufzeichnen von Gehbewegungen in der VR oft keine adäquaten Daten einhergehen, weil das Durchschreiten virtueller Welten ungewöhnlich für Probanden ist und den Gang ins Stocken bringt, wird nur die obere Körperpartie in Interaktion mit einem Greifarmroboter getrackt (Thomasset et al. 2019). Dabei dienen die haptischen Kontakte und Bewegungen des Menschen als Datenmaterial für die Bestimmung eines kinästhetischen Verlaufs. Solche Verfahren einer kinästhetischen Simulation einfacher Übergabebewegungen oder der kooperativen Arbeit mehrerer Hände an einem Tisch finden auch in sogenannten „virtual tool dynamics“ Anwendung (Tykal et al. 2018). Sie sollen die Banalität quasi auf Demonstrationsebene bringen, in dem der Bewegungsverlauf nicht in die Maschine per Programmcode einschrieben, sondern allein aus der Führung durch den User, der das „kinaesthetic teaching“ anleitet, generiert wird (Tykal et al. 2016, 205). Neben solchen VR-Testumgebungen gibt es zunehmend Machine LearningVerfahren, die auf den gesamten Körper ausgerichtet sind (vgl. Tekin et al. 2016). Dabei sammeln die Ingenieur*innen Trainingsdaten von menschlichen Körperposen aus verschiedenen Perspektiven, zum Teil mit wechselnden Lichtverhältnissen. Solche training data können sowohl per Bodyscanner entstehen oder per Motion-Capture-Verfahren, aber es ist genauso möglich, einen großen Bestand an digitalisierten Photographien hierfür zu verwenden. Mittels solcher Datenbänke lassen sich neuronale Netzwerke trainieren, anhand derer auch schnell ausgeführte Wechsel von Körperposen oder Überlagerungen von Körperteilen – so genannte Occlusions (Sárándi et al. 2018) – rechtzeitig erkannt werden sollen. Noch bevor das „Training“ mit den Datenbeständen geschieht, müssen beim Programmieren die Parameter für die Körperposen festgelegt werden, d. h. Grenzen, bis wohin es sich um ein Knie oder einen Kopf halten würde, und welche Pose es wäre, wenn ein Kopf z. B. auf einer anderen Höhe auftaucht (Ionescu et al. 2014, 1326). Für die Optimierung neuronaler Netzwerke bedeutet das, aus 3D-Posen 2D-Werte zu extrahieren und zu abstrahieren, um ein prädiktives Modell menschlicher Körperposen herleiten zu können, dass auch in der offenen Umwelt (also in the wild) antizipationsfähig bleibt.14
14 Dies impliziert häufig das Auflegen einer „bounding box“ über mehrere Bilder sukzessiver Körperposen hinweg, die den Körper zentriert. Die sukzessiven Bilder werden durch künstliche neuronale Netzwerke verkettet, so dass ein statistischer Volumenwert für die diversen Posen entsteht. Dieser Wert wird durch Regressionsanalysen wieder als 2D-Grafik visualisierbar (Tekin et al. 2016; zur „bounding box“ sh. auch Engemann 2019).
Die Entgrenzung des Banalen
41
Die beiden Beispiele einer virtuellen Beobachtung zeigen, dass eine banale Grundunterscheidung wie Mensch/nicht-Mensch oder allgemeiner vertraut/unvertraut hier auf eine Komplexität von Bewegungsdaten und -auswertungen trifft, die allerdings selbst als Fremdreferenz in ihre Operation integrierbar sein müssen. Dies erstreckt sich nicht allein in der Komplexität eines hochtechnisierten Verfahrens. Denn die Banalität muss immer rückgebunden werden an eine Erwartungshaltung, ja an eine Integrationserwartung darüber, wie der Mensch selbst als Anderer in der Interaktion erkannt werden möchte. Gerade weil auch diese Form der Interaktion sich nicht der doppelten Kontingenz entledigen kann, stellen Medien der Virtualität das Paradoxon einer Komplexität des Banalen aus. Sie sind Medien für die werdende Fremdreferenz „Mensch“ in den Rekursionen des robotischen Systems. Diese Form des anwesenden NichtIch im Ich lässt sich mit Niklas Luhmann als „Interpenetration“ (1987, 290) bezeichnen. Anhand dieses Begriffes soll abschließend der Schritt von der Simulation banaler Bewegungen hin zum Embodiment in der Robotik gemacht werden.
5 Banalität und Embodiment in der Robotik – ein Ausblick auf die Geste Die Interaktion menschlicher und maschineller Agenten hat zwar nicht dasselbe Kontingenzpotential wie die Interaktion zweier Menschen. Allerdings gilt es hier nicht, soziale Interaktionen unter Menschen als Maßstab für Mensch-Roboter-Interaktionen zu betrachten. Stattdessen wurde angenommen, dass Banalität zu einem entscheidenden Operationsmodus für die Ingenieur*innen der Robotik wurde, ja, dass die Ingenieur*innen selbst einen Blick auf das Banale richten müssen, um zu wissen, wie der Mensch als Umwelt des Roboters modelliert werden soll. Genau darin ist Banalität der Modus für eine Kontrolle des dauerhaften „lack of control“. Die Beispiele der virtuellen Beobachtung machten dabei deutlich, dass das, was unter Individuen als Projektion oder Intersubjektivität benannt wird, hier vom systematischen Analysieren und Synthetisieren von Bewegungen ausgeht, aus denen die Unterscheidungen vertraut/unvertraut oder bekannt/unbekannt hervorgehen. Die Fremdreferenz „Mensch“ basiert dabei gänzlich auf (Sensor-)Daten, die nicht nur ein Konzentrat gespeicherter, digitalisierter Bewegungen darstellen. Sie hätten als Exempel des „technologisch Unbewussten“ auch nie Gegenstand des Bewusstseins werden können (Frizot 2003, 467), dienen aber nun dazu, ge-
42
Dawid Kasprowicz
rade die Komplexität des Anderen (des Menschen als Umwelt) zu reduzieren (vgl. Kasprowicz 2019b). Wenngleich wir so etwas für psychische Systeme nicht annehmen können, weil diese in der Bewusstseinszeit operieren und nicht in der Simulationszeit des technischen Systems, so ist auch für sie eine Reduktion der Eigenkomplexität in der Interaktion notwendig. Erst unter diesen Bedingungen trete eine neue „Spezifikation der Körperbewegung“ ein, die eine „Interpenetration“, eine Anwesenheit im anderen System als Abwesendes ermöglicht (Luhmann 1987, 333). Dreh- und Angelpunkt dieser Grundlage von Interaktion ist nach Luhmann nicht die Intelligenz, auch nicht die Sprache, sondern der Körper: Körper fordern wechselseitig ihre Reduktionsmöglichkeiten heraus. Sie können dies, wenn sie je eigene Komplexität präsentieren, vor allem im Sinne räumlicher Bewegungsmöglichkeiten, und damit Konditionierbarkeit ihrer selbstgeleisteten Reduktion in Aussicht stellen. (Luhmann 1987, 333)
Mit anderen Worten: Die omnipräsente doppelte Kontingenz funktioniert nur durch das Anbieten von vereinfachten Bewegungsabläufen, von Banalitäten, deren kommunikative Notwendigkeit in der Inklusion des jeweils Anderen als anwesendem Abwesenden, als Differenz von Fremd- und Selbstreferenz liegt, die eine Adressierung des handelnden Körpers erst ermöglicht. Luhmann benennt für diesen körperlichen Vorgang selbst ein Medium, die Geste. Die Geste repräsentiere ein Medium, weil durch sie die innere moralische und emotionale Verfassung noch nah am körperlichen Ausdruck hänge und damit beobachtbar bleibe (Luhmann 1987, 334).15 Diese Kopplung von Geste und Ausdruck ist mit Blick auf die Robotik allerdings mehr als eine historische Analogie. Wie gezeigt wurde, erstreckt sich die Banalität nicht als Gemeinplatz weltlicher Erfahrungen. Stattdessen offenbart die Banalität die Komplexität der Kommunikation selbst, in dem sie eine körperliche Selbstreduktion zum Einspielen von Erwartungshaltungen voraussetzt, auf denen wieder neue Komplexitäten entstehen können – und damit auch eine neue Banalität (zu einer Gegenkonzeption, die das Missverhalten als notwendige Kategorie der proaktiven Technik fasst, vgl. Samuel 2014 et al.). Die
15 Bei Luhmann nimmt die Geste einen besonderen Raum ein, indem sie sich in Formen wie moralisch/unmoralisch, beherrscht/unbeherrscht codieren lässt. Interessanterweise änderte sich dies ab dem achtzehnten Jahrhundert, also jenem Jahrhundert der Massenalphabetisierung und der Psychologisierung des Romans. Es wäre nun die Differenz bewusst/unbewusst, die im Zuge der Introspektion und im Medium des Wortes dominiere und der die „Körpersprache“ kein „leistungsfähiges Äquivalent“ mehr bieten könne (Luhmann 1987, 335).
Die Entgrenzung des Banalen
43
Orte solcher gestenbasierten Banalitätsproduktionen kursieren durch Firmenpläne und Forschungszentren – sie stehen allerdings noch allzu oft in einer Forschungspolitik, die primär der Codierung innovativ/nicht-innovativ folgt. Was übergreifend von industriellen bis zu sozialen Robotern zu beobachten ist, was sowohl die Handreichung bei Greifarmrobotern wie das Anfahren bei Kinderrobotern umtreibt, ist das Erarbeiten von Kommunikation im Modus des Banalen. An die Stelle eines progressiven und allzu anthropozentrischen Intelligenzbegriffes setzt die Banalität ein integratives Konstruktionsprinzip. Sicherlich sind Roboter nicht in dem Sinne selbstreferentiell wie es psychische Systeme sind, aber im Medium der Geste setzt sich immer die Welt des Handelnden in jene des Beobachtenden – oder anders: es wird eigenreduzierte Komplexität zugunsten einer Sinnvermittlung aufgedrängt.16 Das dies stets – gerade in der Multiplikation von Systemen – zu Problemen führen kann, ist sowohl von technischer wie von sozio-kultureller Seite unbestritten. Aber die zu Beginn besagte Funktion von Organisationen, solche Räume zu gewähren und gleichzeitig zu beschränken, kann ebenso als neuer Spielraum des Gestischen verstanden werden.17 Damit wäre dem Medium der Geste, ebenso wie der Körperpose oder der Bewegung, eine Bedeutung zugeordnet, die über ihre Kommunikationsfunktion hinausginge. Sie wäre ein Medium, an dem sich die Dualität von maschinellen und menschlichen Agenten zugunsten eines neuen Embodiment-Begriffes destabilisiert. Die Bewegungsmodi und Gesten als Präsentationsmöglichkeiten des Körpers finden in der virtuellen Beobachtung einen Ort, an dem Kommunikation als Kondensat einer neuen Banalität entsteht. An der Stelle einer posthumanistischen Überhöhung erfolgt das Einspielen von Banalitäten, die eine Mittel-Zweck oder Master-Slave-Beziehung in der Robotik nicht ganz hinter sich lassen, aber doch zeitweise suspendieren. Oder anders: Um Banalitäten zu operationalisieren, müssen Robotik-Ingenieur*innen lernen, auf die Sachen selbst zurückzugehen.
16 Die Mitteilungen zur Aktualisierung der Sicherheitsmaßnahmen in der industriellen Robotik sind hierzu ein eindrückliches Beispiel, sh. dazu DGUV 2017. 17 Dies lässt sich an Beispielen wie dem Tragen einer Tischplatte mit semiautonomen, bipedalen Robotern und menschlichen Kollaborateuren aufweisen, wenn während der Bewegung die Zuweisungen des Führenden und des Geführten wechseln, sh. dazu mit einem Schwerpunkt auf dem Modellierungsaspekt sowie auf eine Episteme der Intuition (Kasprowicz 2018 und 2020).
44
Dawid Kasprowicz
Literatur Alač, Morana. „Social robots: Things or agents?”. AI & Society 31.4 (2016): 519–535. Baecker, Dirk. Form und Formen der Kommunikation. Frankfurt a.M.: Suhrkamp, 2005. Bannon, Liam. „Reimagining HCI: Toward a More Human-Centered Perspective”. Interactions 7.8. (2011): 5–57. Bergmann, Werner, und Gisbert Hoffmann. „Selbstreferenz und Zeit: Die dynamische Stabilität des Bewusstseins“. Husserl Studies 6 (1989): 155–175. Blumenberg, Hans. „Vorbemerkungen zum Wirklichkeitsbegriff“. Akademie der Wissenschaften und der Literatur. Abhandlungen in der Geistes- und Sozialwissenschaftlichen Klassen 4 (1974): 3–10. Bortot, Dino et al. „Effizienzsteigerung durch Bewegungsanalyse und -modellierung der Mensch-Roboter-Kooperation“. Zeitschrift für Arbeitswissenschaft 60.2 (2010): 65–75. Bubb, Heiner, und Florian Fritzsche. „A Scienfitic Perspective of Digital Human Models: Past, Present, and Future“. Handbook of Digital Human Modelling. Hg. Vincent Duffy. Boca Raton; FL: CRC Press, 2009. Kap. 3-1: 3–29. Cañameo, Lola, und Matthew Lewis. „Making New ‚New AI‘ Friends: Designing a Social Robot for Diabetic Children from an Embodied AI Perspective“. International Journal for Social Robotics 8 (2016): 523–537. Chaumette, François, Seth Hutchinson und Peter Corke. „Visual Servoing“. Springer Handbook of Robotics. 2. Aufl. Hg. Bruno Siciliano und Oussama Khatib. Heidelberg: Springer, 2016. 841–866. Christaller, Thomas et al. (Hg.). Robotik. Perspektiven für menschliches Handeln in der zukünftigen Gesellschaft. Wiesbaden: Springer, 2001. Decker, Michael. „Service-Roboter im Blick der Technikfolgeabschätzung“. Technikfolgeabschätzung – Theorie und Praxis 20.2 (2011): 76–79. DGUV (Deutsche Gesellschaft für Unfallversicherung). „Kollaborierende Roboter. Planung von Anlagen mit der Funktion ‚Leistungs- und Kraftbegrenzung‘“, 2017 https://www.dguv.de/ medien/fb-holzundmetall/publikationen-dokumente/infoblaetter/infobl_deutsch/080_ roboter.pdf (4. November 2018). Engemann, Christoph. „Rekursionen über Körper. Machine-Learning Trainingsdatensätze als Arbeit am Index“. Machine Learning. Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz. Hg. Christoph Engemann und Andreas Sudmann. Bielefeld: transcript, 2019. 247–268. Ernst, Christoph et al. „Künstliche Intelligenzen. Einleitung in den Schwerpunkt“. Zeitschrift für Medienwissenschaften 21.2 (2019): 10–19. Esposito, Elena. „Artificial Communication? The Production of Contingency by Algorithms“. Zeitschrift für Soziologie 46.4 (2017): 249–265. Føllesdal, Dagfinn. „Husserl’s Notion of Noema“. Journal of Philosophy 66.20 (1969): 680–687. Frizot, Michel. „Der menschliche Gang und der kinematographische Algorithmus“. Diskurse der Fotografie. Fotokritik am Ende des fotografischen Zeitalters. Hg. Herta Wolf. Frankfurt a.M.: Suhrkamp, 2003. 456–478. Gammieri, Luigiet al. „Coupling of a Redundant Manipulator with a Virtual Reality Environment to Enhance Human-robot Cooperation“. Procedia CIRP 62 (2017): 618–623. Genz, Julia. Diskurse der Wertung. Banalität, Trivialität und Kitsch. München: Wilhelm Fink, 2011.
Die Entgrenzung des Banalen
45
Gratch, Jonathan et al. „Exploring the Implications of Virtual Humans Research for HumanRobot Teams“. Virtual, Augmented and Mixed Reality. 7th International Conference, VAMR. Los Angeles 2.–7.8.2015. Hg. Randall Shumaker und Stephanie Lackey. New York u. a.: Springer, 2015. 186–196. Haddadin, Samin, Alin Albu-Schäffer und Gerd Hirzinger. „Requirements for Safe Robots: Measurements, Analysis and New Insights“. The International Journal of Robotics Research 28.11–12 (2009): 1507–1527. Haddadin, Sami et al. „It Is (Almost) All about Human Safety: A Novel Paradigm for Robot Design, Control and Planning“. Computer safety, reliability and security: 32nd International Conference. Hg. Friedemann Bitsch, Jérémie Guiochet und Mohamed Kaâniche. Berlin, Heidelberg: Springer, 2013. 202–215. Hasse, Jürgen. Die Aura des Einfachen. Mikrologien räumlichen Erlebens. Freiburg: Verlag Karl Alber, 2017. Husserl, Edmund. Die Idee der reinen Phänomenologie. Fünf Vorlesungen. Husserliana Bd. II. Hamburg: Meiner, 1973 [1907]. Husserl, Edmund. Logische Untersuchungen. 2. Band. 1. Teil. Hg. Ursula Panzer nach der Ausgabe Husserliana Bd. XIX 1. Hamburg: Meiner, 2009 [1901]. Ionescu, Catalin et al.: „Human 3.6M: Large Scale Datasets and Predictive Methods for 3D Human Sensing in Natural Environments“. IEEE Transactions on Pattern Analysis and Machine Intelligence 36.7 (2014): 1325–1339. Kanderske, Max, und Tristan Thielmann. „Simultaneous localization and mapping and the situativeness of a new generation of geomedia technologies“. Communication and the Public 4.2 (2019): 118–132. Kasprowicz, Dawid. „Das Interface der Selbstverborgenheit. Szenarien des Intuitiven in Mensch-Roboter-Kollaborationen“. Unterwachen und Schlafen. Anthropophile Medien nach dem Interface. Hg. Michael Andreas, Dawid Kasprowicz und Stefan Rieger. Lüneburg: Meson, 2018. 159–188. Kasprowicz, Dawid. Der Körper auf Tauchstation. Zu einer Wissensgeschichte der Immersion. Baden-Baden: Nomos, 2019a. Kasprowicz, Dawid. „Von alten Besen im System und neuen Körpern im Loop. Bildgebungsverfahren in der Mensch-Roboter-Kollaboration“. Augenblick. Konstanzer Hefte zur Medienwissenschaft 73 (2019b): 43–58. Kasprowicz, Dawid. „Encoding Proximity ‒ Intuition in Human-Robot-Collaborations“. Affective Media and Policy. Hg. Bernd Bösel und Serjoscha Wiemer. Lüneburg: Meson Press, 2020, im Print. Kasprowicz, Dawid. „Soma in Space. Leibkonstruktionen in ‚Abwesenheit‘ der Technik“. Aller guten Dinge sind frei? Unbehagen und Utopie in der technisierten Welt. Hg. Dennis Niewerth und Stefan Rieger. Münster: Lit Verlag, in Vorb. Luhmann, Niklas. Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt a.M.: Suhrkamp, 1987. Luhmann, Niklas. Die Gesellschaft der Gesellschaft I. Frankfurt a.M.: Suhrkamp, 1997a. Luhmann, Niklas. Die neuzeitliche Wissenschaft und die Phänomenologie. Wien: Picus, 1997b. Luhmann, Niklas. Einführung in die Systemtheorie. Heidelberg: Carl Auer Verlag, 2002. Mackenzie, Adrian. Machine Learners. Archaeology of Data Practice. Cambridge, MA: MIT Press, 2017.
46
Dawid Kasprowicz
Meister, Martin. „Mensch-Technik-Interaktivität mit Servicerobotern. Ansatzpunkte für eine techniksoziologisch informierte TA der Robotik“. Technikfolgeabschätzung – Theorie und Praxis 20.1 (2011): 46–52. Miller, Tim. „Explanation in Artificial Intelligence: Insights from the Social Sciences“. Artificial Intelligence 267.2 (2019): 1–38. o. A. „Banal“. Pierer’s Universal-Lexikon, Band 2. Altenburg, 1857. 264. http://www.zeno.org/ nid/20009463895 (23. Januar 2020). Onnasch, Linda, Xenia Maier und Thomas Jürgensohn: „Mensch-Roboter-Interaktion: Eine Taxonomie für alle Anwendungsfälle“. Hg. Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAUA). Dortmund, 2016. https://www.baua.de/DE/Angebote/Publikatio nen/Fokus/Mensch-Roboter-Interaktion.pdf?__blob=publicationFile&v=6 (6. November 2018). Oudshoorn, Nelly, und Trevor Pinch. „Introduction: How Users and Non-Users Matter“. How Users Matter. The Co-Construction of Users and Technology. Hg. Nelly Oudshoorn und Trevor Pinch. Cambridge, MA: MIT Press, 2005. 1–28. Paauwe, Robert et al. „Designing Robot Embodiment for Social Interaction: Affordances Topple Realism and Aesthetics“. Internation Journal of Social Robotics 7 (2015): 697–708. Samuel, Bianchini et al. „The Misbehavior of Animated Object“. 8th International Conference on Tangible, Embedded and Embodied Interaction (TEI’14), 16-19.02.2014, Munich. Hg. ACM. New York: ACM Press, 2014. 381–384. Sárándi, Istvan et al. „How Robust Is 3D Human Pose Estimation to Occlusion?“. International Conference on Intelligent Robots and Systems (IROS’18.) Hg. IEEE. New York, 2018. https://arxiv.org/abs/1808.09316 (17. Dezember 2019). Sartre, Jean-Paul. Das Imaginäre. Phänomenologische Psychologie der Einbildungskraft. Hamburg: Rowohlt, 1971 [1940]. Schirra, Frank. Entwicklung eines Systems zur immersiven Arbeitssystemgestaltung mit CAD-Schnittstellen. Dissertation Universität Stuttgart, 2009. Sprenger, Florian. Epistemologien des Umgebens. Zur Geschichte, Ökologie und Biopolitik künstlicher Environments. Bielefeld: transcript, 2019. Stilgoe, Jack. „Machine learning, social learning and the governance of self-driving cars“. Social Studies of Science 48.1 (2018): 25–56. Tekin, Bugra et al. „Direct Prediction of 3D Poses from Motion Compensated Sequences“. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 27.-30.06. 2016, Las Vegas Hg. IEEE. New York, 2016. 991–1000. Thiele, Thomas, Tobias Meisen und Sabina Jeschke. „Smart Factory“. Handbuch Virtualität. Hg. Dawid Kasprowicz und Stefan Rieger. Wiesbaden: Springer, 2020. 79–96. Thomasset, Vincent, Stéphane Caron und Vincent Weistroffer. „Lower body control of a semiautonomous avatar in Virtual Reality: Balance and Locomotion of a 3D Bipedal Model“. Proceedings of the 25th ACM Symposium on Virtual Reality Software and Technology, VRST, 12.-15.11., Parramatta, NSW, Australia. Hg. ACM. New York: ACM Press, 2019. 1–11. doi: 10.1145/3359996.3364240. Tykal, Martin, Alberto Montebelli und Ville Kyrki. „Incrementally Assisted Kinaesthetic Teaching for Programming“. 11th ACM/IEEE International Conference on Human-RobotInteraction, 07.-10.03.2016, Christchurch, New Zealand. Hg. ACM/IEEE. doi: 10.1109/ HRI.2016.7451753. von Foerster, Heinz. „Erkenntnistheorien und Selbstorganisation“. Der Diskurs des radikalen Konstruktivismus. Hg. Siegfried J. Schmidt. Frankfurt a.M.: Suhrkamp, 1987. 133–158.
Die Entgrenzung des Banalen
47
von Foerster, Heinz. „Abbau und Aufbau“. Lebende Systeme. Wirklichkeitskonstruktionen in der systemischen Therapie. Hg. Fritz B. Simon. Frankfurt a.M.: Suhrkamp, 1997. 33–51. Weber, Jutta, und Fabian Kröger. „Autonomous Driving and the Transformation of Car Cultures“. Transfers 8.1. (2014): 1–23. Zerilli, Tom et al. „Transparency in Algorithmic and Human Decision-Making: Is There a Double Standard?“. Philosophy & Technology 32 (2019): 661–683.
Kathrin Friedrich
Adaptive Bildgebung: Situative Kopplungen von Bild, Körper und Handlung 1 ‚Physical and virtual realms merge‘: Virtualität in der klinisch-chirurgischen Praxis Die Behauptung einer ununterscheidbaren Überlagerung virtueller und physischer Prozesse steht gegenwärtig im Zentrum einiger medienwissenschaftlicher und wissenschaftsforschender Analysen aktueller technologischer Bedingungen. So hält etwa die Medientheoretikerin N. Katherine Hayles fest: Instead of constructing virtual reality as a sphere separate from the real world, today’s media have tended to move out of the box and overlay virtual information and functionalities onto physical locations and actual objects. Mobile phones, GPS technology, and RFID (radio frequency identification) tags, along with embedded sensors and actuators, have created environments in which physical and virtual realms merge in fluid and seamless ways. (Hayles 2010, 148)
Aktuelle Medientechnologien verkoppeln zunehmend virtuelle Informationen und Funktionen mit physischen Orten und Objekten. Im Folgenden soll diese symptomatische Behauptung am Beispiel chirurgischer Anwendungskontexte eingehender geprüft werden. Es soll sowohl nachvollzogen werden, auf welche Weise und unter welchen Bedingungen Medientechnologien physische und virtuelle ‚Sphären‘ miteinander ‚verschmelzen‘, als auch, wie dieses Zusammenwirken auf den Zweck der physischen Intervention ausgerichtet wird. In der klinisch-chirurgischen Praxis und den dortigen bildgeführten Interventionen zeigt der Einsatz digitaler Medientechnologien und insbesondere Visualisierungen buchstäblich nachhaltige Folgen. Eine Fachveröffentlichung fasst dies folgendermaßen zusammen: „Image-guided interventions are medical procedures that use computer-based systems to provide virtual image overlays to help the physician precisely visualize and target the surgical site.“ (Clearly und Peters 2010, 119). Auch der Wissenschaftshistoriker Timothy Lenoir macht in seinem Text The Virtual Surgeon auf die operative und nicht mehr nur repräsentative Rolle von Medientechnologien im medizinischen Kontext aufmerksam: In numerous areas of our daily activities, we are witnessing a drive toward the fusion of digital and physical reality; not the replacement of the real by a hyperreal, the obliteration of a referent and its replacement by a model without origin or reality as Baudrillard predicted,
Open Access. © 2021 Kathrin Friedrich, publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz. https://doi.org/10.1515/9783110638127-004
50
Kathrin Friedrich
but a new playing field of ubiquitous computing [. . .] Surgery provides a dramatic example of a field newly saturated with information technologies. (Lenoir 2002, 28)
Virtuelle und physische Instanzen des Patientenkörpers und Operationsprozesses sind nicht nur verzahnt, sondern so wechselseitig verkoppelt, dass die Handlungen von Operateur*innen in und mittels Medientechnologien physisch wirksam werden. In diesem Anwendungskontext wird buchstäblich greifbar, was William J. T. Mitchell und Mark Hansen zeitdiagnostisch in Umwendung eines populären Bonmots Friedrich Kittlers ansprechen: „Rather than determining our situation, we might better say that media are our situation.“ (Mitchell und Hansen 2012, xxiv, Hervorh. im Orig.). Drei klinisch-medizinische Szenen dienen nachfolgend zur Analyse von medialen und situativen Kopplungen physischer und virtueller Instanzen des Patientenkörpers in Diagnostik, präoperativer Planung und intraoperativer Kontrolle. Zunächst werden Maßnahmen zur Positionierung von Patient*innen innerhalb eines Computertomographen beleuchtet. Hier wird eindrücklich, dass die digitale Transformation des Patientenkörpers in eine graustufige Visualisierung zwar verspricht, die Grundlage einer virtuellen Diagnostik zu konstituieren, dabei jedoch bereits in der Phase der Datengenerierung in unterschiedlicher Weise auf die Anpassung des physischen Körpers angewiesen ist, um eine valide Referenz im Digitalen zu konstituieren. Eine zweite Szene, in der visualisierter Körper und chirurgische Fertigkeit in einer softwarebasierten Umgebung verzahnt werden, ist die radiochirurgische Planungsphase. Wo Software die Planung chirurgischer Maßnahmen erfordert, kommt der prospektiven Anpassung von Körper und Intervention qua Bild- und Medientechnologien eine entscheidende, da operationale Rolle zu. Die Überlegungen werden abschließend an einem dritten Beispiel, der intraoperativen Nutzung von Mixed-Reality-Anwendungen, zusammengeführt, welche die adaptive Überlagerung des Patientenkörpers mit Bildinformationen im Verlauf einer Operation erlauben. Medientheoretisch fokussieren die Beispiele je verschiedenartige Modi der wechselseitigen Kopplung oder Adaption von Bild, Körper und Handlung, die durch unterschiedliche Medientechnologien ermöglicht werden. Dabei treten grundlegendere Fragen auf: Wie wird in digitalen Bildgebungsverfahren apparativ eine grundlegende indexikalische Beziehung zwischen visualisiertem Objekt und Visualisierungsform hergestellt? Wie kann innerhalb von Softwareanwendungen die materielle Auswirkung einer virtuellen Planung abgeschätzt und operationalisiert werden? Und letztlich: Wie erlauben neuartige Modellierungs- und Displaytechnologien die situative Anpassung von Bild, Körper und Handlung?
Adaptive Bildgebung: Situative Kopplungen von Bild, Körper und Handlung
51
2 Positionieren – Visualisieren: Einstelltechniken digitaler Bildgebung Digitale Visualisierungen sind Erkenntnis- und Entscheidungsgrundlage radiologischer Diagnostik. Auch in anderen klinischen Bereichen wie der Chirurgie bieten Bilddaten aus Computertomographie (CT) oder Magnetresonanztomographie (MRT) eine oft unumgängliche Grundlage, um weitere therapeutische Schritte zu planen und visuelle Modellierungen zu erstellen, die intraoperatives Handeln anleiten sollen. Wie aber wird der Patientenkörper mittels Bildgebungsverfahren in einen digitalen Datensatz transformiert, an dem medial erkannt und gehandelt werden kann? Und wie gestaltet sich bereits in dieser Phase die Verkopplung von physischen und virtuellen Instanzen des Körpers? Diese Fragen sollen am Beispiel situativer Vorbereitungen geklärt werden, die getroffen werden müssen, um einen computertomographischen Scan anzufertigen. In der Vorbereitung einer Computertomographie geben sogenannte Einstelltechniken und Scanprotokolle Aufschluss darüber, wie Patient*in und Apparat aneinander angepasst werden müssen, um diagnostisch signifikante Bilddaten zu erzeugen, welche einen validen und prospektiv therapeutischen Rückschluss auf den physischen Körper zulassen. Bevor computertomographisch jedoch bildgegeben werden kann, müssen Messwerte erhoben werden, die im Prozess digitaler Datenverarbeitung verschiedenartig visualisiert werden können.1 Bereits 1973 benennt der Neuroradiologe James Ambrose in einer frühen Fachveröffentlichung zur Computertomographie notwendige prozessuale und epistemische Vorkehrungen digitaler Bildgebung. Radiologisches Personal müsse sich für den Umgang mit dem neuartigen Verfahren der CT folgende Fertigkeiten aneignen: Radiographers must become versed in the operation of an apparatus which is simple to use and which requires the carrying out of the following main procedures: (1) positioning the patient [. . .]; (2) using a measuring system to locate the plane of section; (3) operating a control console [. . .]; (4) operating a viewer console after the picture has been processed [. . .]. (Ambrose 1973, 1024)
1 Das grundlegende physikalisch-mathematische Verfahren der CT beruht darauf, in einer Rotationsbewegung um einen Körper Röntgenstrahlung auszusenden und deren Abschwächung durch diesen zu messen. Die Messwerte werden mit bestimmten Gewebedichten und räumlichen Koordinaten korreliert und konventionell als graustufige Schnittbilder visualisiert (Kalender 2006, 3; Ziegler 2005, 163). Stark verkürzt dargestellt bedeutet dies, dass die Dichte eines Gewebes mit einem ästhetischen Merkmal, nämlich einer bestimmten Graustufe, aufgrund von medientechnischen Operationen verbunden wird.
52
Kathrin Friedrich
Ambrose nennt die Positionierung des Patienten*der Patientin und die Lokalisierung der Scanebene (‚locate plane of section‘) als maßgebliche Erfordernisse, um Maschine und Körper zum Zweck der Bildgebung zusammenzuführen. Wichtig erscheint, dass den Messungen, die verborgen im Inneren des CT-Scanners ablaufen, äußere Anpassungen des Patientenkörpers vorausgehen. Positionierung und Lokalisierung sind aktuell weiterhin pragmatisch, epistemisch und ästhetisch maßgebliche Vorkehrungen für einen CT-Scan. Die Herstellung eines tomographischen Datensatzes geht mit der Einbindung von Patient*innen in das apparative Dispositiv der CT einher, die insbesondere durch medizinisch-radiologische Assistent*innen (MTRA) mittels sogenannter Einstelltechniken durchgeführt wird.2 Ein Lehrbuch zur röntgendiagnostischen Einstelltechnik formuliert etwa folgendermaßen: „MTRA haben eine Brückenfunktion zwischen Mensch und Technik, denn die Tätigkeit in der Radiologie bringt es mit sich, auf der einen Seite hochkomplexe Technik zu bedienen und auf der anderen Seite den Patienten durch die Untersuchung zu führen.“ (Zimmer-Brossy et al. 2008, 3). Eine solche dichotome Trennung zwischen ‚Mensch und Technik‘ kann bei genauerer Betrachtung des apparativen Dispositivs nicht angenommen werden (Friedrich 2018, 21–48). Vielmehr zeigen sich verschiedene Maßgaben, die MTRA einhalten bzw. vornehmen müssen, um die Virtualisierung und Visualisierung des Patientenkörpers in Gang zu setzen. So strukturieren etwa Scanprotokolle als technische Leitfäden die Routinen zur Positionierung und Lokalisierung vor und in der Aufnahmesituation aber auch überinstitutionell.3 Von medizinischen Fachverbänden veröffentlicht und von Geräteherstellern in Software eingeschrieben, etablieren Scanprotokolle Handlungsabläufe für MTRA, die Menschen und Scanner miteinander räumlich und zeitlich verkoppeln sollen. Maßgebliche Punkte in Scanprotokollen als Teil der Einstelltechniken betreffen die Lagerung im Scanner (Saunders 2008, 111–113). In automatisierter Form sind Scanprotokolle in der Kontrollsoftware für CT-Geräte integriert. Für eine bestimmte diagnostische Anfrage, etwa Kontrolle der Ausbreitung von Tumoren im Oberkörper, müssen MTRA aus unterschiedlichen 2 Ausführlich zu Raumordnungen, Arbeitsabläufen und apparativen Anforderungen der MRT vgl. Burri 2003; 2008, 89–159. 3 Um einer zu großen Diversifizierung von Scanprotokollen entgegenzuwirken, hat beispielsweise die AG Thorax der Deutschen Röntgengesellschaft einen Konsensus zu Protokollempfehlungen für die Computertomographie der Lunge (Biederer et al. 2008) erarbeitet. Die Notwendigkeit hierfür wird folgendermaßen begründet: „Die zunehmende Vielfalt der verfügbaren CT Scanner und empfohlenen Protokolle für die CT des Thorax und der Lunge macht es erforderlich, die Diagnostik wieder mehr zu vereinheitlichen, um eine Vergleichbarkeit von Voruntersuchungen auch bei Verwendung unterschiedlicher Gerätegenerationen zu gewährleisten.“ (Biederer et al. 2008, 471).
Adaptive Bildgebung: Situative Kopplungen von Bild, Körper und Handlung
53
Scanprotokollen wählen und nach deren Vorgaben Patient*innen in den Scanner einbringen (Abb. 1).
Abb. 1: Beispielhaftes Scanprotokoll von Siemens Healthcare, in dessen visueller Schnittstelle u. a. zu scannende Körperregion, Rekonstruktionsalgorithmus und Patientenposition im Scanner instruktiv korreliert werden. (Quelle: https://www.siemens-healthineers.com/de-ch/computed-to mography/technologies-innovations/care-right/right-dose-levels; 31. März 2019).
Wie der Screenshot zeigt, erhalten MTRA über Softwareassistenten Hinweise auf die notwendige Positionierung auf der Liege (Bildsymbole links), um einen bestimmten Körperbereich zu scannen (Modellkörper Bildmitte). Was die Software skizziert, soll daraufhin vom technischen Personal umgesetzt werden – ergänzt um soziale Kompetenz und Ansprache (Burri 2003).4 Um Personen auf der Liege des CT-Scanners adäquat auszurichten, werden mittels eines Lasersystems Linien auf den Körper projiziert. „[I]t is very important for image quality to position the patient in the center of the scan field. Use the lateral laser beam to make sure that the patient is positioned in the center.“ (Siemens Medical 2004, 98). Der ‚lateral laser beam‘ dient als Orientierungslinie zur Lagerung des Patienten*der Patientin und deutet gleichsam das System zur Geometrisierung und Normalisierung des Körpers an, welches pro-
4 In Vorschlägen für standardisierte, überinstitutionell anwendbare Scanprotokolle wird etwa auf die jeweiligen, unmittelbar lokal anzupassenden Besonderheiten der Technik und des*der Patient*in hingewiesen: „Unter Einhaltung dieser Protokolle sollte eine umfassende und gleichzeitig ökonomische und strahlenhygienisch vertretbare Thoraxdiagnostik mit der CT möglich sein. [. . .] Selbstverständlich sind einzelne Parameter im Detail an die jeweils verwendeten Geräte anzupassen und können daher von den Werten in der Tabelle abweichen. Ebenso sind individuelle Anpassungen für den einzelnen Patienten notwendig.“ (Biederer et al. 2008, 472).
54
Kathrin Friedrich
grammatisch im Inneren des Scanners wirkt. Im Abgleich zwischen Fixpunkten am Körper und den Laserorientierungslinien spannt sich virtuell ein kartesianisches Koordinatensystem auf, das im Verlauf des Bildgebungsprozesses und in den Visualisierungen selbst immer wieder als grundlegende geometrische Referenz herangezogen wird.5 Der menschliche Körper wird im Bildgebungsverfahren Teil der kartesianischen Geometrie, an der sich alle Körper in der CT messen lassen müssen. An den Maßgaben, die Einstelltechniken und Scanprotokolle an Patient*innen und radiologisches Personal stellen, wird deutlich, dass Visualisierungsprozesse zunächst voraussetzen, dass Körper gleichsam physisch wie virtuell in ein medientechnologisches Raster bzw. Koordinatensystem gefügt werden. Dieses leitet bereits vor Beginn eines Bildgebungsprozesses an, auf welchen Ebenen individuelle Patientenkörper und virtuelle Körpermodelle in einem apparativen Dispositiv adaptiert werden müssen. Auf einer pragmatischen Ebene in Form der einzunehmenden Position auf der Scanner-Liege, in epistemischer Hinsicht als Körper im dreidimensionalen Raum und ästhetisch betrachtet als graustufiges Schnittbild, das diagnostische Rückschlüsse erlaubt. So etabliert die Adaption von Körper und Bildgebungsverfahren eine basale und wechselseitige Zuordnungsrelation, welche für die Weiterverarbeitung der Bilddaten in Softwaresystemen ein komplexes Verweissystem schafft, das es ermöglicht, die*den physisch abwesende*n Patient*in und ihre*seine Visualisierung immer wieder aufeinander zu beziehen.6
3 Visualisieren – Modellieren: Strahlenchirurgische Planung Das Zusammenwirken von virtuellen und physischen Instanzen vor und während der Datengenerierung weist auf weitere Formen operationaler und adaptiver Bildgebung voraus. So geschieht etwa die Planung strahlenchirurgischer Eingriffe u. a. auf Grundlage von CT-Visualisierungen. Bildgestützte Planungen
5 Vgl. zur kartesianischen Koordinierung und Topographisierung des Gehirns auch Beaulieu (2001, 16–18). 6 Mit zunehmender Zahl von Einzelstudien zu den Bedingungen und Funktionen digitaler Bildgebung in spezifischen Anwendungskontexten sind folglich bild- und medientheoretische Diskurse um digitale Sichtbarmachungen verstummt, die vor allem den Verlust einer indexikalischen Relation zwischen einem physischen Objekt und dessen Bild beklagt haben (zusammenfassend Heßler 2006, Abs. 12–16; Schneider 2009).
Adaptive Bildgebung: Situative Kopplungen von Bild, Körper und Handlung
55
werden hier in hochdosierte Strahlungsintensitäten transformiert, um Pathologien im Inneren des Körpers in wenigen Sitzungen robotergestützt zu bestrahlen. Im Gegensatz zu einer offenen Operation wird die betreffende Körperregion nicht mehr durch physische Schnitte freigelegt, sondern erschließt sich in Planung und Intervention nur mehr über Bilddaten, Softwareanwendungen und visuelle Modellierungen. Bereits in der Entstehungsphase der Radiochirurgie hatte einer ihrer Entwickler, der schwedische Neurochirurg Lars Leksell, die zunehmende Distanz der strahlenbasierten Chirurgie zum Körper der Patient*innen angemerkt. Da kein direkter visueller Zugriff des Chirurgen*der Chirurgin auf das Operationsgebiet mehr möglich ist, sei eine sorgfältige präoperative Planung auf Grundlage von radiologischen Bilddaten notwendig: „Surgery of this kind is a radical departure from the classical tradition in which operations are performed under direct visual control. The surgeon is not governed by the circumstances in the wound, and in place of skilful improvisation he has a procedure which is the consequence of careful preoperative planning.“ (Leksell 1971, 55). Radiochirurgische Interventionen werden am physischen Körper durchgeführt, planbar sind sie jedoch fast ausschließlich in medialen Handlungsräumen. Das ‚therapeutische Potenzial‘ von CT-Visualisierungen und dazugehöriger Software für die Planung und automatisierte Durchführung von Bestrahlungen hat auch Godfrey Hounsfield, maßgeblicher Entwickler der CT, bereits in deren Frühphase herausgestellt: In the past, radiation treatment planning was a very lengthy procedure. Now, with the aid of CT therapy planning computer programs, we can position the therapy beam automatically with precision in a few minutes. The system is linked to a CT diagnostic display console and a color display monitor, which shows the radiation isodose distributions overlaid on the basic CT scan itself [. . .]. The scan is used as the ‚patient input‘ to the system, and areas of interest such as tumor, bone, lung, or sensitive organs are outlines by an interactive light pen. (Hounsfield 1980, 25–26)
Hounsfield beschreibt das grundlegende Prinzip der Bestrahlungsplanung, das in aktuellen Softwareanwendungen und Bestrahlungssystemen weiterentwickelt wurde. Patientenspezifische Schnittbilder aus Bildgebungsverfahren wie MRT und CT liefern eine gleichsam berechenbare wie sichtbare Grundlage zur Markierung von Bestrahlungsvolumina und von Risikostrukturen (Giller et al. 2009, 5–6). Dafür konturieren Ärzt*innen im Durchgang durch die jeweiligen Schnittebenen des patientenspezifischen Datensatzes die Grenzen des Zielvolumens und legen durch unterschiedliche Farbkodierungen fest, welches anatomische Areal nicht oder nur mit einer geringen Dosis von Strahlung getroffen werden darf (Abb. 2).
56
Kathrin Friedrich
Abb. 2: Graphische Schnittstelle der strahlenchirurgischen Planungssoftware Accuray Precision Treatment Planning System (Image courtesy of Accuray Incorporated - ©2020 Accuray Incorporated. All Rights Reserved).
Während Ärzt*innen die sichtbare Oberfläche und die in Softwareanwendungen bereitgestellten Instrumente nutzen, sind die datenseitig codierten Messwerte und Rauminformationen u. a. zur technologischen Berechnung der späteren Strahlenintensitäten und Strahlenverläufe notwendig. Der Planungsdatensatz ist als ‚patient input‘, so schon Hounsfield, die zentrale Referenz für zunehmend robotergestützte Bestrahlungssysteme. Diese richten intraoperativ Körper und Bestrahlungseinheit in einem gemeinsamen Koordinatensystem aneinander aus und überprüfen automatisiert die Einhaltung der Bestrahlungsplanung (Haidegger et al. 2009). Medizinisches und technisches Personal kontrolliert diese Passung über intraoperative Durchleuchtungs- und Trackingverfahren und in enger Kooperation mit dem robotischen System (Hoc 2000). Denn treffen zu viele hochdosierte Ionenstrahlen in gesundes Gewebe oder gar Risikostrukturen wie die Augen oder das Rückenmark, hat dies ggf. irreparable Schädigungen zur Folge. So müssen sowohl in der Planung als auch in der Durchführung patientenspezifische Visualisierungen und prospektive Strahlengänge bzw. Patientenkörper und robotisches System möglichst passgenau aneinander ausgerichtet werden. Im oben gezeigten Screenshot der Planungssoftware für das Bestrahlungssystem
Adaptive Bildgebung: Situative Kopplungen von Bild, Körper und Handlung
57
CyberKnife der US-amerikanischen Firma Accuray sind verschiedene Ansichten desselben Ausgangsdatensatzes visualisiert. Während in der Kachel oben links der Bauchraum in einer Körperachse visualisiert ist, sind in der Kachel unten links die späteren Strahlengänge durch ebendiesen Oberkörper dreidimensional modelliert. Errechnet wurden diese auf Grundlage der farbigen Markierungen, die in den Schnittbildansichten durch Mediziner*innen vorgenommen wurden. Diese legen fest, welche Strukturen in welcher Intensität bestrahlt werden sollen. Auf dieser Grundlage fertigt die Software automatisiert die 3D-Modellierung an und liefert so erste Anhaltspunkte zur augenscheinlichen Überprüfung der Planung. Bilderkennen und bildgestütztes Planen, das eine automatisierte und weitestgehend nicht-sichtbare Operation vorwegdenken muss, verlaufen hier in einem gleichzeitig medientechnischen und medizinischen Handlungsraum. Softwareprogramme und deren graphische Schnittstellen stellen die Instrumente zur Verfügung, mit denen sich der Körper zwar nicht materiell, aber dennoch ästhetisch und epistemisch ‚öffnen‘ lässt. So wird möglich, was das radiochirurgische System qua seiner technischen Bedingung nicht mehr zulässt – einen Körper chirurgisch zu behandeln, ohne einen direkten visuellen und haptischen Zugang zu seinem Inneren zu haben. Medientechnologien kommt hier eine buchstäblich operative Bedeutung zu.7 In ihnen und durch sie wird eine wechselseitige sowie raumkonsistente Verschaltung von lebendigen und robotischen Akteuren zu interventionellen Zwecken ermöglicht.
4 Modellieren – Intervenieren: Kontexte adaptiver Bildgebung Die raumkonsistente Kopplung von Körpern und Interventionsmöglichkeiten wie am Beispiel der Strahlenchirurgie ausgeführt, gewinnt mit adaptiven Bildtechnologien auf Grundlage mobiler Displays und Sensortechnologien einen weiteren Adaptionsgrad, nämlich den der Zeit. Die eingangs erwähnte Beobachtung von N. Katherine Hayles, es seien mediale Umwelten entstanden, in denen physische und virtuelle Sphären dynamisch und nahtlos (‚merge in fluid and seamless ways‘) verbunden seien, verkompliziert sich durch die zunehmende situative, d. h. raum- und zeitkonsistente Dynamisierung von Visualisierungen.
7 Zum bild- und medientheoretischen Diskurs um operative Bilder und Medien vgl. Hinterwaldner 2013; Hoel und Lindseth 2014; Hoel 2018 sowie Pantenburg 2016.
58
Kathrin Friedrich
Aktuelle Technologieentwicklungen im Bereich der klinischen Chirurgie versuchen etwa, intraoperativ und in situ visuelle Modellierungen und Patientenkörper raum- und zeitkonsistent zu verkoppeln, um Operateur*innen Handlungsanleitungen zu geben. Dafür werden etwa verschiedene Mixed-RealityAnwendungen gestaltet, die versprechen, den Patientenkörper mit vorher aufbereiteten Bildinformationen zu überlagern (Hu et al. 2019). Visuelle Modellierungen sollen auf diese Weise intraoperativ gezielt in Relation zu körperlichen Strukturen positioniert werden können und folglich die Wahrnehmung und Handlung von Chirurg*innen erweitern. So präsentiert die französische Forschungsgruppe Team Mimesis, die am Institut für Chirurgie der Universität Strasbourg angesiedelt ist, das Projekt Augmented Reality for Liver Surgery. In einem Video stellen sie ihre Idee vor, die Leber und eine aufbereitete Simulation dieser intraoperativ so im endoskopischen Blick zu überlagern, dass sich die Struktur und Ästhetik der Visualisierung dem OP-Fortschritt anpassen. Dabei stellt die zunehmende Deformation des Weichgewebes eine besondere Herausforderung der dynamischen Modellierung im endoskopischen Video dar. Das Video, von dem das Standbild angefertigt wurde, stellt ein Konzept der Augmented-Reality-bezogenen Forschungs- und Entwicklungsarbeit der französischen Gruppe von 2015 vor (Abb. 3). Eine klinische Studie wurde noch nicht präsentiert.
Abb. 3: Standbild aus einem Konzeptvideo der Forschungsgruppe Team Mimesis, das die intraoperativ-dynamische Überlagerung der Leber mit einer präoperativ angefertigten visuellen Modellierung aus Bilddaten desselben Patienten zeigt. (Quelle: https://www. youtube.com/watch?v=fH_RD3p4vMM; 30. April 2019).
Adaptive Bildgebung: Situative Kopplungen von Bild, Körper und Handlung
59
In einer Arbeitsgruppe des Experimental Surgery Lab der Charité wird die Nutzung von halbtransparenten Head-Mounted-Displays bei offenen Operationen getestet (Sauer et al. 2017). Patientenspezifische Modellierungen sollen im Blickfeld des Operateurs adaptiv visualisiert werden, um präoperativ aufbereitete Datensätze mit dem Operationssitus zu synchronisieren. Chirurg*innen sollen dabei (zusätzliche) Informationen zum vorab geplanten Vorgehen und zur Morphologie des zu öffnenden Körperbereichs erhalten. In beiden genannten Beispielen zur intraoperativen Nutzung von MixedReality-Anwendungen verspricht die auf unterschiedliche Weise hergestellte räumliche Nähe der Visualisierung zum Körper sowie die dynamische Anpassung der Darstellung nicht allein ‚mehr Sichtbarkeit‘, sondern das Aufzeigen von Handlungsoptionen am offenen Situs. Während die raumkonsistente Anpassung der Visualisierungen an den Patientenkörper über verschiedenartige Trackingverfahren erfolgsversprechend ist, stellt eine ‚fluide‘ adaptive Bildgebung im und mit dem Verlauf einer Operation weiterhin eine Herausforderung dar. Die Idee der dynamischen Anpassung bezieht sich sodann nicht allein auf ein Bildproblem – die Position der visuellen Darstellung in Abhängigkeit vom Körper und Display. Sie bezieht sich zudem auf die adäquate Übersetzung bildbasierter Wahrnehmung in Handlungen an einem konkreten Körper, die wiederum durch die Visualisierung adaptiert werden müssen, damit diese im Verlauf der OP weiter unterstützend wirken kann. Eine grundlegende Frage ist sodann, ob solche Formen adaptiver Bildgebung operativ überhaupt sinnvoll sind. Dies schließt sehr grundsätzliche medientheoretische Fragen ein, welche sich auf den Einsatz von Mixed-Reality-Anwendungen in einer Arbeitsumgebung beziehen. Wenn physische Strukturen mit Bildinformationen überlagert werden, müssen diese von Benutzer*innen gleichzeitig kognitiv sowie operativ aufeinander bezogen und unterschieden werden. Chirurg*innen müssen also immer wissen, dass es sich bei den in Abb. 3 beispielhaft gezeigten farbigen Darstellungen um Modellierungen handelt, die auf tieferliegende Gefäßstrukturen verweisen, welche sie gleichzeitig verdecken. Damit fordert die Anwendung von Mixed Reality im Operationsaal fundamental die Sehgewohnheiten und das Bildverständnis der Anwender*innen heraus (Queisner 2016). Diese und Entwickler*innen müssten demnach sowohl auf technologischer wie auch epistemisch-operativer Ebene eine ‚nahtlose‘ Feedbackschleife entwickeln, die beständig und verlässlich Bild, Körper und Handlung raum- und zeitkonsistent adaptiert. Dabei wird deutlich, dass Virtualisierungsprozesse und virtuelle Umgebungen im klinisch-medizinischen Anwendungskontext nicht allein aus Körperdaten entstehen, sondern darauf ausgerichtet sind, auf Körper rückzuwirken und virtuelle Handlungen zu ‚resomatisieren‘.
60
Kathrin Friedrich
Eine solch ‚kurzgeschlossene‘ somatische Wirksamkeit digitaler Medientechnologien sowie die Beispiele der beiden anderen Anwendungskontexte stellen Bild- und Medienkritik vor neue analytisch-methodische Herausforderungen. Während digitale Bildgebung, wie im Fall der Computertomographie, insbesondere Sichtbarmachung und Wahrnehmung des Körperinneren ermöglicht, sind operationale Bilder zur OP-Planung per se darauf angelegt auch Handlungen anzuleiten. Der medientechnologische und situative ‚Kurzschluss‘ physischer und virtueller Ebenen durch adaptive Bildgebung in Form von Mixed Reality verschärft nicht allein epistemische, gestalterische und operationale Fragen, sondern erfordert die Entwicklung begrifflicher und methodischer Instrumentarien, die geeignet sind, die Bedingungen und Effekte der dynamischen Relationen zwischen Medientechnologie, Bildästhetik und Handlungskontext zu erfassen. Der neue Bildtyp des adaptiven Bildes fordert insbesondere die systematische Untersuchung der situativen und synchronen Kopplungen von Medientechnik, -ästhetik und -pragmatik heraus. Die Kontextabhängigkeit und physische Wirksamkeit adaptiver Bildgebung bedarf einer kritischen Analyse, welche die Konvergenzen von Virtualität und Physikalität auf unterschiedlichen Ebenen und Zeitregimen differenziert, um eine vermeintliche ‚Nahtlosigkeit‘ innerhalb von Medientechnologien sowie zwischen diesen und ihren Umwelten zu hinterfragen.
Literatur Ambrose, James. „Computerized Transverse Axial Scanning (Tomography): Part 2. Clinical Application“. British Journal of Radiology 46.552 (1973): 1023–1047. Beaulieu, Anne. „Voxels in the Brain. Neuroscience, Informatics and Changing Notions of Objectivity“. Social Studies of Science 31.5 (2001): 635–680. Biederer, Jürgen et al. „Protokollempfehlungen für die Computertomographie der Lunge. Konsensus der Arbeitsgemeinschaft Thoraxdiagnostik der DRG“. RöFo 180.5 (2008): 471– 479. Burri, Regula Valérie. „Digitalisieren, disziplinieren. Soziotechnische Anatomie und die Konstitution des Körpers in medizinischen Bildgebungsverfahren“. Technical University Berlin: Technology Studies, 2003. TUTS-WP-3-2003, https://www.ts.tu-berlin.de/filead min/fg226/TUTS/TUTS_WP_3_2003.pdf, 2003 (15. Juli 2018). Burri, Regula Valérie. Doing Images. Zur Praxis medizinischer Bilder. Bielefeld: transcript, 2008. Clearly, Kevin, und Terry M. Peters. „Image-Guided Interventions. Technology Review and Clinical Applications“. Annual Review of Biomedical Engineering 12.1 (2010): 119–142. Friedrich, Kathrin. Medienbefunde. Digitale Bildgebung und radiologische Diagnostik. Berlin, Boston: De Gruyter, 2018. Giller, Cole A., Jeffrey A. Fiedler, Gregory J. Gagnon und Ian Paddick. Radiosurgical Planning. Gamma Tricks and Cyber Picks. Hoboken, NJ: Wiley-Blackwell, 2009.
Adaptive Bildgebung: Situative Kopplungen von Bild, Körper und Handlung
61
Haidegger, Tamás, Benyo Zoltán und Peter Kazanzides. „ Manufacturing the Human Body: the Era of Surgical Robots”. Journal of Machine Manufacturing XLIX.E2 (2009): 24–32. Hayles, N. Katherine. „Cybernetics“. Critical Terms for Media Studies. Hg. William J.T. Mitchell und Mark B.N. Hansen. Chicago, IL: University of Chicago Press, 2010. 145–156. Heßler, Martina. „Von der doppelten Unsichtbarkeit digitaler Bilder“. Zeitenblicke 5.3 (2006), http://www.zeitenblicke.de/2006/3/Hessler (24 Juni2018). Hinterwaldner, Inge. „Programmierte Operativität und operative Bildlichkeit“. Die Kunst der Systemik. Hg. Roman Mikuláš, Sybille Moser und Karin S. Wozonig. Münster: Lit Verlag, 2013. 77–108. Hoc, Jean-Michel. „From Human-machine Interaction to Human-machine Cooperation”. Ergonomics 43.7 (2000): 833–843. Hoel, Aud Sissel und Frank Lindseth. „Differential Interventions: Images as Operative Tools“. The New Everyday, Cluster „Operative Images“. Hg. Ingrid Hoelzl.http://mediacommons. futureofthebook.org/tne/, Februar/März 2014 (27. August 2017). Hoel, Aud Sissel. „Operative Images. Inroads to a New Paradigm of Media Theory“. Image Action Space. Situating the Screen in Visual Practice. Hg. Luisa Feiersinger, Kathrin Friedrich und Moritz Queisner. Berlin, Boston: De Gruyter, 2018. 11–27. Hounsfield, Godfrey N. „Computed Medical Imaging“. Science 210.3 (1980): 22–28. Hu, Hong-zhi, Xiao-bo Feng, Zeng-wu Shao, Mao Xie, Song Xu, Xing-huo Wu und Zhe-wei Ye. „Application and Prospect of Mixed Reality Technology in Medical Field“. Current Medical Science 39.1 (2019): 1–6. Kalender, Willi A. Computertomographie. Grundlagen, Gerätetechnologie, Bildqualität, Anwendungen. 2. Aufl. Erlangen: Publicis, 2006. Lee, C.L. „Treatment Planning of Abdominal Lesions“. Treating Tumors that Move with Respiration. Hg. Harold C. et al. Berlin, Heidelberg: Springer, 2007. 63–74. Leksell, Lars. Stereotaxis and Radiosurgery. An Operative System. Springfield, IL: Charles C. Thomas, 1971. Lenoir, Timothy. „The Virtual Surgeon. Operating on Data in an Age of Medialization“. Semiotic Flesh. Information and the Human Body. Hg. Phillip Turtle und Robert E. Mitchell. Seattle, WA: University of Washington Press, 2002. 28–47. Mitchell, William J.T., und Mark B.N. Hansen (Hg.). Critical Terms for Media Studies. Chicago, IL: University of Chicago Press, 2010. Pantenburg, Volker. „Working Images: Harun Farocki and the Operational Image“. Image Operations. Visual Media and Political conflict. Hg. Jens Eder und Charlotte Klonk. Manchester: Manchester University Press, 2016. 49–62. Queisner, Moritz. „Medical Screen Operations. How Head-mounted Displays Transform Action and Perception in Medical Practice“. MediaTropes 6.1 (2016): 30–51. Sauer, Igor M. et al. „Mixed Reality in Visceral Surgery: Development of a Suitable Workflow and Evaluation of Intraoperative Use-cases“. Annals of Surgery 266.5 (2017): 706–712. Saunders, Berry F. CT Suite. The Work of Diagnosis in the Age of Non-invasive Cutting. Durham, NC: Duke University Press, 2008. Schneider, Birgit. „Wissenschaftsbilder zwischen digitaler Transformation und Manipulation. Einige Anmerkungen zur Diskussion des ‚digitalen Bildes‘“. Logik des Bildlichen. Zur Kritik der ikonischen Vernunft. Hg. Martina Heßler und Dieter Mersch. Bielefeld: transcript, 2009. 188–200.
62
Kathrin Friedrich
Siemens Medical. Somatom Sensation 64. Application Guide, Protocols, Principles, Helpful Hints. http://www.healthcare.siemens.com/siemens_hwem-hwem_ssxa_websites-con text-root/wcm/idc/siemens_hwem-hwem_ssxa_websites-context-root/wcm/idc/groups/ public/@global/@imaging/@ct/documents/download/mdaw/mje1/~edisp/application guide_sensation64_01-00209647.pdf, 2004 (12. Oktober 2013). Ziegler, Günter M. „Neue Bilder für die Medizin? Notizen aus der Matheon-Lounge“. DMVMitteilungen 13.3. (2005): 163–167. Zimmer-Brossy, Marianne et al. Lehrbuch der röntgendiagnostischen Einstelltechnik. Heidelberg: Springer, 2008. 6., neubearbeitete Aufl.
Abbildungen Abb. 1 ߓBeispielhaftes Scanprotokoll von Siemens Healthcare, in dessen visueller Schnittstelle u.a. zu scannende Körperregion, Rekonstruktionsalgorithmus und Patientenposition im Scanner instruktiv korreliert werden. (Quelle: https://www.siemens-healthineers.com/ de-ch/computed-tomography/technologies-innovations/care-right/right-dose-levels; 31. März 2019). Abb. 2 ߓGraphische Schnittstelle der strahlenchirurgischen Planungssoftware Accuray Precision Treatment Planning System (Image courtesy of Accuray Incorporated - ©2020 Accuray Incorporated. All Rights Reserved). Abb. 3 ߓStandbild aus einem Konzeptvideo der Forschungsgruppe Team Mimesis, das die intraoperativ-dynamische Überlagerung der Leber mit einer präoperativ angefertigten visuellen Modellierung aus Bilddaten desselben Patienten zeigt. (Quelle: https:// www.youtube.com/watch?v=fH_RD3p4vMM; 30. April 2019).
Christina Lechtermann und Markus Stock
Virtuelle Textkonstitutionen: Die Philologie und ihre mittelalterlichen Objekte In den letzten rund vierzig Jahren lässt sich hinsichtlich ihrer medialen und materiellen Grundlagen für die mediävistischen Literaturwissenschaften eine zwiefältige fachgeschichtliche Bewegung beschreiben: Einerseits gibt es eine deutliche Tendenz dazu, Texte vor dem Hintergrund mittelalterlicher Schriftkulturen und in den jeweiligen Handschriften zu erforschen, also die Gestalt der je konkreten Überlieferung stärker einzubeziehen. Man hat dementsprechend begonnen, die Validität besonders derjenigen Texteditionen zu hinterfragen, die auf Originalitäts- und Ursprungsvorstellungen basierten, welche an den Gegebenheiten mittelalterlicher Textualität vorbeigingen. Andererseits erfolgt philologische Forschung an mittelalterlichen Handschriften aus Gründen der Praktikabilität sowie aus konservatorischen Erwägungen seit etwa zwanzig Jahren zunehmend und soweit möglich zunächst an Handschriftendigitalisaten; oft erst danach (wenn überhaupt) werden spezifischere Fragen am mittelalterlichen Codex selbst geklärt. Die Wendung auf die Materialität literarischer Kommunikation wird so zunächst und in dominanter und paradoxer Weise als Wendung auf andere, technisch unterstützte Formen der Re-Repräsentation realisiert. Philologie findet damit mehr und mehr im Virtuellen statt. Vor diesem Hintergrund stellt sich die Frage nach dem Status der digitalisierten Texte und Handschriften und nach dem im Virtuellen konstituierten Gegenstand der Philologie. Ihr wird unser Beitrag nachgehen.
1 Originalkopien – Transkriptive Prozesse und philologische Praktiken des Sekundären In einer ihrer grundlegendsten Definitionen ist Philologie die „Wissenschaft, die Texte der Vergangenheit verfügbar macht und ihr Verständnis erschließt“ (Stackmann 2003, 74). Die damit verbundenen Erschließungsprozesse beziehen die medialen Bedingungen mit ein, die der spezifischen Textualität des historischen Text-Objektes auch in semantischer Hinsicht Gestalt geben: Jede einzelne Handschrift (und zu einem bestimmten Teil gilt das auch noch für Auflagen und Exemplare früher Drucke) realisiert Text nicht nur in einer eigenen sprachlichen Open Access. © 2021 Christina Lechtermann et al., publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz. https://doi.org/10.1515/9783110638127-005
64
Christina Lechtermann und Markus Stock
Fügung, sondern zudem in einer eigenen materialen Gestalt. Diese Materialität des Textes – seine Schriftbildlichkeit, Farbigkeit, die Form seiner Auszeichnung und Illumination, die Qualität von Tinte und Beschreibstoffen etc. – wird etwa seit den 1980er Jahren mehr und mehr als konstitutives Element des Sinnangebots aufgefasst (z. B. Nichols 1997). Damit verbunden ist eine „texttheoretische[] Wendung“ (Peters 2007, 87), die auf die konkrete Überlieferung, also auf Differenzen und Eigentümlichkeiten, zielt. Die Editions-Philologie arbeitet daher mit unterschiedlichen Textkonzepten, die sich überlagern. In historischen und gegenwärtigen Praktiken wird der vormoderne (volkssprachliche) Text aus verschiedenen Perspektiven beobachtet.1 Wir stellen hier skizzenartig zwei dieser Perspektiven einander gegenüber. Zum einen wird der Text als komplexes Zeichensystem veranschlagt, das in gewissem Maße von seiner konkreten handschriftenlichen Gestalt abstrahiert und übertragen werden kann. Dieses Konzept setzt auf Ähnlichkeiten und Äquivalenzen in der sprachlichen Gestalt, um mehrere Handschriften als Realisationen/Retextualisierungen eines Textes auffassen zu können. Es erträgt und verwaltet die Lizenzen, die mit der Varianz und Unfestigkeit handschriftlicher Überlieferung einhergehen und setzt dabei implizit auf einen ‚virtuellen‘ Text. In der Philologie des neunzehnten und größeren Teils auch noch des zwanzigsten Jahrhunderts stand dabei ein ‚hergestellter‘ Text für ein – zumeist erschlossenes – autornahes Exemplar ein. Heute dagegen wird ein ‚virtueller‘, situationsabstrahierbarer Text in der Regel zwar im Sinne einer grundsätzlichen Übertrag- und Wiederholbarkeit von sprachlichen Handlungen gedacht (Ehlich 1983; Strohschneider 1999; vgl. Baisch 2013), dabei jedoch viel stärker in seinen überlieferungsgeschichtlichen Versionen, Redaktionen und Fassungen wahrgenommen, die als Aktualisierungsformen dieses einen Textes aufgefasst werden. Zum anderen wird Text als unikales, materiales Text-Objekt untersucht, für das die jeweilige konkrete Text-Gestalt einer Handschrift (und ggf. auch des bearbeiteten Druck-Exemplars) und der Textträger selbst ebenso mitreflektiert werden, wie die damit verbundenen Affordanzen, ihre Dreidimensionalität, die Situationen ihres Gebrauchs und deren kontextuelle Bedingungen.2
1 Sehr ausführlich und im Blick auf digitale Editionsformen setzt sich die Arbeit von Patrick Sahle (2013) mit dieser Frage auseinander. Sie rekonstruiert nicht nur historische Editionspraktiken (ebd., Bd. 1) und fragt nach dem ‚Gegenstand‘ digitaler Editionen (ebd., Bd. 2), sondern setzt sich mit historischen und gegenwärtigen Textmodellen auseinander (bes. Sahle 2013, Bd. 3, 1–98 und 251–339). 2 Es ließen sich anschließend noch weitere Formen von Textualität vorstellen, etwa eine, die von philologischen Zugriffen kaum mehr erreicht wird. Der Text erscheint hier lediglich als Attribut eines Gegenstands – etwa, wenn Bücher v. a. als Objekte verwendet werden, deren
Virtuelle Textkonstitutionen
65
Historische Texte stehen, wenn sie wieder verfügbar gemacht werden, in einem komplexen Verhältnis zu ihren neu geschaffenen analogen und virtuellen Präsentationen: Verfolgt man lediglich die beiden hier genannten Perspektiven auf vormoderne Texte, so lässt sich beobachten, inwiefern historische Texte im Rahmen von Editionen hinsichtlich ihrer Offenheit und Geschlossenheit, ihrer Kohärenz, ihrer Urheberschaft, ihrer Unterscheidung von Text und Paratext sehr unterschiedlich behandelt werden. Paradigmatisch lassen sich dabei die Prämissen einer Philologie des neunzehnten und der ersten Hälfte des zwanzigsten Jahrhunderts denen der jüngeren material philology gegenüberstellen. Die fachgeschichtliche Realität war und ist jedoch, wie umfangreiche Diskussionen um alte und neue Philologien gezeigt haben, meistens deutlich komplexer (vgl. etwa Wolf 2002; Stock 2015). Bevor wir zum virtuellen Text und seinen spezifischen Editions- und Transkriptionsverfahren kommen, wollen wir zunächst ein solches editionsgeschichtliches Tableau öffnen, indem wir die Überlieferungs- und Editionslage eines bislang kaum beachteten Textes des vierzehnten Jahrhunderts skizzieren, der sich im Epilog selbst als Sunte Marien wortegarde bezeichnet. Dieser Wurzgarten Mariens wurde – so behauptet es seine Selbstbeschreibung im Epilog – im Jahr 1304 „[a]n ſünte mathias nacht“ (fol. 210va), also wohl am 24. Februar, in Goslar abgeschlossen. Den Verfasser bezeichnet der Epilog als „arm[en] papen konem[an]“ (fol. 210ra). Dieser wurde als der in Goslar und Umgebung nachgewiesene Pfarrer, Dekan, Domherr und scholasticus Könemann von Jerxheim identifiziert, von dem auch der Kaland, eine Dichtung über den Ursprung und die Geschichte einer religiösen Bruderschaft, sowie Fragmente einer Reimbibel überliefert sind (Becker 1985, 66). Der verspaarige und durch Dreireime in kürzere Abschnitte aufgeteilte Wurzgarten verbindet eine Erzählung vom sog. ‚Streit der Töchter Gottes‘, in dem die Erlösbarkeit des postlapsarischen Menschen verhandelt wird, mit einem (reihenden) Marienlob sowie einem zügig erzählten Leben Jesu/Marienleben mit relativ knapper Passion und einer Marienklage. Die einzige Handschrift, eine Papierhandschrift im Quartformat, die heute in der Göttinger Staats- und Universitätsbibliothek aufbewahrt wird (4° Cod. Ms. theol. 153) wurde im fünfzehnten Jahrhundert und damit sicherlich nicht vom Autor selbst geschrieben. Sie besteht aus zwei Teilen, die vielleicht ursprünglich selbstständig waren, aber wohl aus derselben Schreibstube stammen, was man aufgrund der verwendeten Papiersorten vermuten kann (Wolff 1953, 15–16). Der
Bedeutung zwar durch den Text mitbestimmt ist, jedoch nicht zugleich seine Erfassung voraussetzt, wie es z. B. für bestimmte Gebrauchsformen des Evangeliars in der Liturgie beschrieben worden ist (Lentes 2005). Diesen Formen wollen wir hier nicht nachgehen.
66
Christina Lechtermann und Markus Stock
erste, lateinische, wie auch der zweite, deutsche Teil der Handschrift versammeln v. a. „geistliche Lehrdichtung“ (Beckers 1985, 65; Meyer 1893, 383–385; Borchling 1897, 114–119). Ludwig Wolffs Ausgabe aller drei Dichtungen Könemanns (Wolff 1953) bietet eine Edition des Textes, die zwar eine gewisse Nähe zur Überlieferung inszeniert (etwa durch Angabe der Blattwechsel in der Handschrift und der Markierung von realisierten oder geplanten Initialen), die aber gleichzeitig weitreichende Entscheidungen darüber trifft, was zum eigentlichen Text des Wurzgartens gehört und was nicht. Während die Handschriftenseite (Abb. 1) ein signifikantes Zusammenspiel zwischen lateinischen Textelementen in roter und deutschen Versen in schwarzer Tinte zeigt, priorisiert die Edition den deutschen Text und bannt die lateinischen Elemente in den Fußnotenapparat. Dort werden sie zudem nicht in direkter Transkription präsentiert, sondern die Zitate sind, entsprechend ihren Quellen, v. a. der Bibel, korrigiert. Die Entscheidung, die lateinischen Elemente nicht dem edierten Fließtext, sondern dem Apparat zuzuordnen, stellt den Interpretationsprozess also nicht nur auf ein bestimmtes Ergebnis, sondern vielmehr bereits auf ein bestimmtes Ausgangsprodukt ein. Sie stellt sich zudem legitimierend in die Tradition der bereits vorliegenden Ausgabe von Könemanns Kaland, die Georg Sello 1890 veröffentlicht und die die lateinischen Partien des Kaland als ‚Belegstellen‘ zum deutschen Text ebenfalls aus dem Fließtext ausgeschieden hatte (ebd., 105 und Anm. 1; Wolff 1953, 66). Das zweisprachige Miteinander, das die Handschrift kennzeichnet und diesen Wurzgarten mit einer spezifischen Textualität versieht, ist damit preisgegeben. Mit einiger rekonstruktiver Imaginationskraft könnte man die Verschränkung der verschiedensprachlichen Elemente zumindest teilweise aus dem Apparat wieder zusammenfügen. Dies wäre jedoch nur für den ungefähren Textbestand, kaum aber für das Seitenlayout, die Farbgebung oder andere (para-)textuelle Markierungen möglich, die sich an der Handschrift als tatsächlich ausgeführte oder nur vorbereitete Elemente beobachten lassen. Indem auf diese Weise wichtige Interpretations- und Assoziationsangebote in den Apparat verbannt sind, fixiert die Edition von Wolff einen deutschen ‚Haupttext‘, dessen Präsentation auf ein bestimmtes Interpretations- und Analyseinteresse zielt.3 Dies entspricht Wolffs explizitem Interesse: Wie aus dem Vorwort ersichtlich, geht es ihm um die Präsentation des Wurzgartens sowie der anderen Werke Könemanns als Zeugnisse einer bereits von Roethe skizzierten Literaturgeschichte des Niederdeutschen, die eine Entwicklung von einer Vorrangstellung einer hochdeutschen Literatursprache im dreizehnten Jahrhundert zu einer größeren Selbständigkeit und Prominenz der ‚Volkssprache‘
3 Siehe zum breiteren historischen Kontext solcher Editionsansätze den Überblick bei Sahle 2013, Teil 1: Das typographische Erbe.
Virtuelle Textkonstitutionen
Abb. 1: Göttingen, Staats- und Universitätsbibliothek, 4° Cod. Ms. theol. 153, fol. 164v. Lateinisch/deutsche Sammelhandschrift, 2. Drittel fünfzehntes Jahrhundert. Auszug aus Könemanns von Jerxheim Sunte Marien wortegarde (1304).
67
68
Christina Lechtermann und Markus Stock
Niederdeutsch im fünfzehnten Jahrhundert entwerfen sollte (Roethe 1899, bes. 29–67, zum Wurzgarten 35–36, 52–59; Wolff 1953, 28–51). Für eine solche, dem Editionsvorhaben unterlegte Hypothese konnte der niederdeutsche Text der Göttinger Handschrift (wenngleich mit nicht unerheblichen Eingriffen) leitend bleiben, weil die späte Handschrift die These von einer sukzessiven Verniederdeutschung ausgesprochen günstig unterstützt (Wolff 1953, 66–68). Wolff konnte so einerseits von der Rekonstruktion einer hochdeutsch-niederdeutschen Mischform, wie er sie für das Original um 1304 vermuten musste (und in entsprechenden älteren Handschriften des Kaland belegt sah), absehen, andererseits die lateinischen Textelemente der Handschrift als nebensächlich beiseite lassen. Dieses editorische Verfahren, das die lateinischen Textelemente als Paratexte einer Handschrift und damit als Sekundäres begreift und dementsprechend nicht dem Autor-Text zuschlägt, erzeugt somit zugleich eine disziplinäre Verengung auf deutsche bzw. deutschsprachige Literatur. Die Edition bietet also einen Text, der einem spezifischen nationalphilologischen Interesse entgegenkommt (vgl. Wagemann 2005, 239–248), sich anderen Fragestellungen gegenüber aber verschließt. Besonders in Bezug auf die historische Hierarchisierung des zweisprachigen Textensembles erweist sich Wolffs Ausgabe damit als voreingenommen, denn es wäre durchaus auch eine andere Relationierung denkbar: Auf der Handschriftenseite ist der lateinische Text farblich deutlich hervorgehoben und hat damit vielleicht gerade im emphatischen Sinn als zentral, als textus zu gelten, zu dem sich der deutsche Text sekundär (als Glosse, Kommentar oder ausführender Tropus) in Beziehung setzt – wenngleich zweifelsohne als sehr kreative Glosse, als glose créatrice im Sinne Zumthors (1990), die übliche Kontinuitätsverhältnisse invertiert und sich als forterzählender Kommentar zu lateinischen Zitaten, Antiphonen und Sentenzen stellt. Doch sind diese Überlegungen zum jetzigen Zeitpunkt lediglich vorläufige Hypothese, und dem genauen Verhältnis der Textelemente wird erst noch nachzugehen sein.4 Dieses skizzenartige Tableau zum Verhältnis von Handschrift und Edition, so reduziert es hier sein muss, zeigt, inwiefern editorische Entscheidungen die Gegenstände erzeugen, die sie bearbeiten. Die Edition als sekundäre Praxis generiert durch ihren objektivierenden Gestus, der den transkripierten, normalisierten, korrigierten, gekürzten und ergänzten Text über entsprechende Hinweise
4 Fragen wie diese verbinden derzeit unser Editionsvorhaben zur volkssprachlichen Textgruppe um den sog. ‚Streit der Töchter Gottes‘ mit einer transdisziplinären Kooperation zum Bereich kommentarischer Formen in der Literatur, die durch den Deutschen Akademischen Austauschdienst (DAAD) und den kanadischen Social Sciences and Humanities Research Council (SSHRC) gefördert wird.
Virtuelle Textkonstitutionen
69
und Beschreibungen mit der Handschrift vermittelt, dabei mehr als nur eine weitere Retextualisierung, wie sie diejenigen historischen Abschreibeprozesse produziert haben, die einer Manuskriptkultur zugrunde liegen.5 Vielmehr behauptet sie, insofern sie geltenden Verfahrensschritten folgt bzw. zu folgen angibt, eine zutreffende Retextualisierung – sie postuliert wissenschaftliche ‚gesicherte‘ Authentizität.6 Fasst man den Prozess der Edition als transkriptiven, so lässt sich der Effekt, der daraus resultiert, als Herstellung einer Differenz beschreiben: Die Edition prozessiert eine Grenzziehung zwischen Original und Kopie, die sich auf diese Weise wechselseitig konstituieren. Folgt man einer solchen Beschreibung, lässt sich die „Unterscheidung von Original und Kopie als Produkt transkriptiver Prozesse“ betrachten und „aus ihrer zeitlichen Definitionslogik von Ursprünglichem und Nachfolgendem lösen. Originale begründen nicht nur eine Vielzahl von kulturellen Diskursen, sondern werden über diese allererst als Originale konstituiert“ (Fehrmann et al. 2004, 9). Im inzwischen abgeschlossenen Kölner SFB ‚Medien und kulturelle Kommunikation‘ hat man entsprechende Prozesse als „Umkehrung der Ursache-Wirkung-Relation“ beschrieben, „bei der das vermeintlich primäre Original über Praktiken der Wiederholung und der Wiederaufnahme erst nachträglich als originär ausgewiesen wird – und zwar dadurch, dass diese Praktiken sich selbst als sekundäre Verfahren zu erkennen geben“ (Fehrmann et al. 2004, 9–10).7 Gerade im Rahmen editorischer Praktiken ist transkriptiven Prozessen dabei der Anspruch wissenschaftlicher Objektivität inhärent, aus dem sie Authentizität ableiten. Wenngleich dieser letztlich nicht eingelöst werden kann,8 kann er dennoch im Sinne einer autoritativen, institutionell gesicherten Geste behauptet und durch die Applikation der entsprechenden Verfahren 5 Die Rolle der philologisch-historischen Handschriftlichkeit des achtzehnten Jahrhunderts wäre eigens zu beleuchten. Vgl. dazu und mit Blick auf den Wurzgarten Borchling 1897, 115. 6 Wolff 1953, 67: „So soll der Wurzgarten hier die überlieferte Erscheinungsform behalten (sie wird auch manchen von den Lesern angenehmer sein als die echte Mischform).“ 7 Vgl. ebd.: „In den unterschiedlichen Praktiken des Kopierens, Imitierens, Simulierens oder Reproduzierens und den daran anschließenden Diskursen ästhetischer, juristischer und ökonomischer Ausrichtung werden erst jene Transkriptionsleistungen vollbracht, die etwas in den Status eines Originals überführen und es als Original ausweisen.“ S. auch Jäger 2002 und 2004. 8 Vgl. Sahle 2013, Bd. 3, 251–269, bes. 261. Sahle kann zeigen, inwiefern jede Transkription auch als Digitalisierung anschreibbar ist (Sahle 2013, Bd. 3, 260): „Im Grunde war Transkription immer schon Digitalisierung im Sinne der Abbildung kontinuierlicher Objekte durch distinkte Kategorien. Auch die Transkription einer Handschrift und ihre Edition in gedruckter Form ist eine Übesetzung möglicherweise stufenloser Zeichenformen, möglicherweise stufenloser Großschreibungen und möglicherweise stufenloser Interpunktiosnsysteme in den klar festgelegten limitierten Coderaum der typografischen Schriftsprache. Nur trat uns dieser Code immer schon re-analogisiert und materialisiert entgegen.“
70
Christina Lechtermann und Markus Stock
plausibilisiert werden. Die Offenlegung der editorischen Prinzipien wirkt dabei zugleich, so redlich und genau sie auch immer ist, notwendig als Dissimulation dieses Effekts. Der Begriff der ‚Transkriptivität‘ erscheint uns für die Beschreibung der medialen Praxis vergangener Editionspraktiken ebenso produktiv wie für die aktuelle. Er erlaubt es, eine Kontinuität zwischen transkriptiven Prozessen zu denken, die über bestimmte, regelgeleitete Kulturtechniken operieren, und solchen, die über bestimmte, ggf. programmierbare technische Systeme operieren.9 Prämisse dieser Annahme ist, dass das Entstehen einer analogen Edition – ebenso wie das eines Digitalisats oder eines digitalen Datensatzes als Repräsentation eines Handschriftentextes – gleichermaßen durch historische Medien wie durch beschreibbare Kulturtechniken bestimmt sind, die ihrerseits materiale, operationale wie diskursive Elemente enthalten. Die Konstitution philologischer Gegenstände – wie diejenigen von Gegenständen des Wissens überhaupt – ist damit wesentlich mitbestimmt durch die transkriptiven Prozesse, die ihre Dokumente hervorbringen. Wir wollen im Folgenden einige Überlegungen dazu anstellen, wie die doppelte Transkription eines Handschriften-Texts in digitalisiertes Bild und digitalen Text die Konstitution des philologischen Gegenstands im virtuellen Raum prägt. Wir wollen damit der Frage nach möglichen Veränderungen nachgehen, die mit der Virtualität in den Geistes- und Kulturwissenschaften einhergehen. Es geht uns darum, zu zeigen, welche spezifischen Merkmale unsere neuen Originale als Digitalisate, Daten und Dateien tragen könnten und wie neue Beobachtungsformen der Philologie diese Merkmale verwalten.
2 Digitalisate Als technischer Möglichkeitsraum, der durch eigene Materialitäten bestimmt ist (vgl. etwa Shep 2016), bietet Virtualität auf der Basis eines wirksamen, der menschlichen Wahrnehmung jedoch nur mittelbar zugänglichen digitalen Codes einen Ort für die Interaktion mit virtuellen Objekten.10 Insofern diese auch textuell verfasst 9 Die Überlegungen Sahles (2013, Bd. 3, 251–339) und die medien- und kulturtheoretischen Arbeiten zur Transkriptivität ergänzen sich dabei insofern, als einerseits die historische und gegenwärtige editorische Praxis genau untersucht wird, andererseits ein umfassenderes Modell für kulturelle Semiose aus dem Moment transkriptiver Bezugnahme abgeleitet wird (vgl. Jäger 2010, 2012). 10 Die folgenden Absätze greifen z. T. auf den Handbuchartikel Lechtermann/Stock 2020 zurück.
Virtuelle Textkonstitutionen
71
sind, können sie zu Gegenständen philologischer Beobachtung werden. In der unterschiedlichen Konzeptualisierbarkeit des historischen Textes als sprachliche Handlung und Zeichensystem, als geordnete Struktur, als Schriftbild und dreidimensionales Text-Objekt liegt eine der besonderen Herausforderungen und zugleich auch eine der Möglichkeiten einer virtuellen Philologie mit ihr eigenen Transkriptionsverfahren. Je nachdem, welche historische und systematische Vorstellung von ‚Text‘ besonders akzentuiert werden soll, kann die digitale Verfügbarmachung von Texten der (ältesten oder jüngsten) Vergangenheit unterschiedlich ausfallen. Arbeitet man mit ‚Text‘ als einem von seiner jeweiligen materialen Konkretion abstrahierbaren Zeichensystem, so können Wort, Phrase, Satz und der einzelne Buchstabe bzw. das einzelne Auszeichnungssymbol oder Spatium als ansprechbare Einheit verstanden und je einzeln erfasst werden. Ein solches Transkriptionsverfahren konstituiert dann den ‚semiotic text‘ als dasjenige ‚Original‘, von dem es auszugehen gilt. Behandelt man Text als eine unikale schriftbildliche Struktur, so kann eine bestimmte Seite als Bild codiert und also in Teilquadrate und farbige Pixel zerlegt werden, die ihrerseits einzeln ansprechbar sind (dazu sehr grundsätzlich Prätor 2010). Ein solches Transkriptionsverfahren, das hier nicht nur im Sinne einer philologischen Praxis, sondern auch als mediales Verfahren verstanden wird, konstituiert dann den ‚material text‘ als ‚Original‘, repräsentiert dabei aber notwendigerweise nur seine visuellen Aspekte. Die digitale Reproduktion einer Handschriftenseite, gespeichert als BLOB (Binary Large Object), konzeptualisiert als gepixeltes Raster und modelliert als elektronisches Bild mit ggf. markierbaren und bestimmbaren Bildbereichen kann als Ergebnis eines transkriptiven Prozesses veranschlagt werden, in dem technische Armaturen und beschreibbare Kulturtechniken zusammenwirken. Sie konstituiert einen Text, der wesentlich durch seine Schriftbildlichkeit und mise-en-page bestimmt ist, doch ist mit Malte Rehbein festzuhalten, dass auch „jede Digitalisierung ein zweckgebundener, reduzierender und subjektiver Vorgang“ ist und dass die Aussagekraft und Verwendbarkeit des Digitalisats „im wissenschaftlichen Kontext an die Parameter seiner Entstehung gebunden“ sind (Rehbein 2017, 190; vgl. Sahle 2013, Bd. 3, 92–98). Die abfotografierte Handschriftenseite erscheint als skalierbares virtuelles Objekt, dessen Helligkeits- oder Farbwerte verändert und veränderlich sind, das als zweidimensionale Flachware keine strukturelle Differenz von recto oder verso kennt, sondern beide Seiten neben- oder untereinander betrachtbar werden lässt, das einen vergleichenden Zugriff nicht nur auf direkt nebeneinanderliegende Blätter erlaubt (ohne eine Bindung dafür zerstören zu müssen), das Rauheit und Glattheit von Pergament und Papier nur vage anzeigen und keine erhabenen Farb- oder Metallaufträge reproduzieren kann. In diesen (und weiteren) Hinsichten ließe sich eine Text- und Bildtheorie der
72
Christina Lechtermann und Markus Stock
virtuellen Handschriftenseite in die üblichen Diskurse über die Verlust- und Gewinngeschäfte medialer Verschiebungen eintragen. Solche virtuellen Objekte entfalten, wenn sie in Vorlesungen und Vorträgen als Power-Point-Folien von vielleicht sogar mehreren Metern Kantenlänge an die Wände projiziert werden, das, was Nichols als „uncanny power of non-natural replication“ (Nichols 2015, 32) beschrieben hat. Diese großen oder vergrößerbaren Bilder bilden eigene Faszinationsmomente aus, obschon sie auf die Aura der Handschrift nur verweisen.11 Damit erscheinen ausgerechnet diejenigen Differenzen nivelliert, welche die material philology auch mit Hilfe digitaler Manuskriptanalyse eigentlich konturieren wollte, wie etwa Größe, Farb- und Pergamentqualität, Effekte der Hervorhebung oder kaum mehr les- und wahrnehmbare Feinheit von Schrift und Bild. Dass mit der einfachen Präsentation digitalisierter Handschriftenseiten das Gebrauchsangebot von Digitalisaten keineswegs ausgeschöpft ist, zeigen etwa Projekte, die Handschriftlichkeit, Schriftbildlichkeit oder die Diagrammatik der beschriebenen Seite zum Analysegegenstand machen und die Variance und Stabilität in Bildprogrammen untersuchen oder Schreiberhände abgleichen (z. B. das Projekt eCodicology). Doch hat bereits die sehr alltägliche Zugriffsform einer Philologie, die mit dem digitalen Objekt ‚Handschrift‘ noch ungefähr so umzugehen versucht, wie sie es mit dem analogen tun würde, durch die bessere Zugänglichkeit des Materials dazu beigetragen, dass sich Methodik und Fragestellung in unserem Fach seit den 1980er Jahren in beschriebener Weise verschoben haben. Die Integration der Handschriftenbilder in die neu entstehenden Editionen erlaubt die Spezifika des Bildprogramms als Subtext zur Lektüre hinzuzuziehen, die den Versen in vielfacher Hinsicht eine andere Perspektive geben. Dies lässt sich etwa an einem Beispiel skizzieren, das ebenfalls auf das Motiv vom ‚Streit der Töchter Gottes‘ zurückgreift, mit dem Könemanns Wurzgarten beginnt: Die gleichfalls zu Beginn des vierzehnten Jahrhunderts wohl im rheinfränkischen Raum entstandene und anonym überlieferte Erlösung, die ähnlich dem Wurzgarten dem Töchterstreit die Geschichte der Erlösung bis zur Passion und einen Ausblick aufs Jüngste Gericht folgen lässt. Die beiden bebilderten Handschriften des Textes, die im fünfzehnten Jahrhundert entstandene Handschrift N (Nürnberg, Stadtbibl., Solg. Ms. 15.2°) sowie das noch aus der Mitte des vierzehnten Jahrhun-
11 Ryan Szpiech (2014, 78) beschreibt eine nichtsdestoweniger gerade durch das Digitalisat ausgelöste ‚Fetischisierung‘ der Handschrift: „Certainly, digitization and searchability have had an effect similar to that produced by earlier reproductions of the image, that of encouraging the fetishization of the original, and I confess now that my feelings toward manuscripts are beginning to approach something like fetishism, at least in the sense that one adores a human-made artifact – a factitious object – as somehow seeming to transcend, in its presence, its own immediate use.“
Virtuelle Textkonstitutionen
73
derts stammende Fragment B (Krakau, Bibl. Jagiellońska, Berol. mgq 1412, und Laubach, Graf zu Solms-Laubach’sche Bibl., Fragm. T) setzen den mit dem ‚Streit der Töchter Gottes‘ implementierten nahen ‚dramatischen‘ Erzählmodus auf doppelte Weise fort: Erzählt dieser zunächst eine fast ausschließlich in wörtlicher Rede, also in nahem und dramatischem Modus inszenierte Gerichtsszene zwischen den Personifikationen Wahrheit und Recht, Friede und Barmherzigkeit, die die Möglichkeitsbedingungen der Erlösung des Menschen nach dem Sündenfall verhandeln, so erscheint der Text, der darauffolgt, als demgegenüber distanzierte und für moderne Ohren ein wenig ermüdende Auflistung von Propheten-Reden über das zu erwartende Heil. Der Bild-Text der Handschriften aber inszeniert eine Prozession oder einen Reigen von Propheten (Abb. 2), der mit seinen z. T. nachgerade tänzerisch wirkenden Darstellungen zurückverweist auf die theatralen Auftritte entsprechender Figuren im ‚ordo prophetarum‘ des liturgischen Dramas, dem sie textgenerisch womöglich tatsächlich entstammen (vgl. Strohmann 1930, bes. 32–69). In den bebilderten Handschriften erscheint dieser Textabschnitt damit wie ein Zwischenspiel, das den erzählerischen und konkreten skriptographischen ZeitRaum und codikologischen Text-Raum zwischen dem im Töchterstreit gefassten Beschluss und dem tatsächlichem Sich-Ereignen von Inkarnation und Passion überspannt (Lechtermann 2020). Was die Verfügbarmachung des Handschriftentextes im Digitalisat damit als Original konstituiert und was die alte Edition von Bartsch (1858) nicht hervortreten ließ, ist ein doppelter Text – der nicht nur hinsichtlich sprachlicher Varianten neu und anders erscheint, sondern der auch die Regeln (und Möglichkeitsgrenzen) etwa einer historischen Narratologie herausfordert, indem er die Option auf den Plan ruft, dass ein bestimmter erzählerischer Modus – wie etwa dramatische Nähe oder narrative Distanz – unter den Bedingungen einer Manuskriptkultur nicht allein über Vertextungsmuster, sondern auch durch ein bestimmtes TextBild-Verhältnis implementiert worden sein könnte. Kurz: Das Digitalisat als sekundäre Praxis konstituiert einen Gegenstand, der nicht nur eine Text-, sondern eine Text-Bild- und Text-Objekt-Wissenschaft fordert, die dann methodologisch zurückwirkt auf Konzepte einer historischen Narratologie. Präsentierte man die Digitalisate beider Handschriften vergleichend, könnte dabei verdeutlicht werden, inwiefern der Bild-Text der Handschriften N und B je eigenen ikonographischen Traditionen und Konventionen folgt und etwa die Sprech-Bänder und Inschriften anders gestaltet.12 Wie für die Handschrift 12 Mit der Frage, ob dies für B programmatisch ist, sind zugleich die Grenzen der virtuellen Philologie erreicht, denn ob das in den wenigen anderen überlieferten Bandinschriften ebenfalls so ist, lässt sich an den anderen Handschriften vorerst nur vor Ort klären. Zu den Bildern: Hier wird im Gegensatz zu N auf die Bezeichnung der Figur im Band verzichtet; diese ist an
74
Christina Lechtermann und Markus Stock
Abb. 2: Nürnberg, Stadtbibliothek, Solg. Ms. 15.2°, fol. 107r. Deutsch/lateinische Sammelhandschrift um 1465. Hier: Die Erlösung (Prophezeiungen zur Erlösung, links: Moses, rechts: Balaam).
Virtuelle Textkonstitutionen
75
des Wurzgarten wäre dabei auch nach dem Verhältnis der lateinischen Textelemente, die hier in die Bildprogramme inseriert sind, und des deutschen Textes zu fragen – nach den Geltungsansprüchen, die sich in dieser Faktur artikulieren, nach den Textstatus, die so etabliert werden.13 Textgeschichten im Sinne von selbst- und metareflexiven Geltungsverhandlungen volkssprachiger Schriftlichkeit, wie sie etwa Peter Strohschneider (2014) für etliche Beispiele analysiert hat, lassen sich, wie diese Beispiele deutlich machen, nicht allein auf der Basis konventioneller Texteditionen diskutieren. Beschrieb Eisenstein (1979) für den Buchdruck eine neue kritische Episteme, die aus der Möglichkeit des Vergleichens tradierter Wissensbestände emergierte, so lässt sich mit der Wendung auf die virtualisierte Handschrift Ähnliches beschreiben. Wir können heute davon ausgehen, dass sich unser Verständnis für Text-Geschichten, für die Verhandlung von Textualität, für den Text als Prozess seiner historischen Rezeption, zu einem umfassenderen Verstehen von Text-Objekt-Geschichten ausweiten wird. Zu diesen könnten physikalische und biochemische Analysen hinzutreten, deren Ergebnisse mit dem Digitalisat verknüpft werden können und die es uns ermöglichen könnten, Textgeltung und paratextuelle Ausstattung und historischen Materialwert zusammen zu sehen. In die Metadaten eines Handschriftendigitalisats könnten dann Faktoren eintreten wie die Distribution von Papierqualitäten, die Unterscheidung von Pergamentsorten, die durch Druckverfahren oder Blindlinien erzeugten Unebenheiten, der Verschmutzungsgrad bestimmter Seiten oder Befunde zur Unterscheidbarkeit von Handschriftenbenutzern und -beschmutzern (vgl. etwa Werner 2012; Fiddyment et. al. 2015). Das Text-Objekt hat jedenfalls in Gestalt seiner digitalen Re-Repräsentation seine Existenz als ursprünglich lokomobiler, später im Archiv arretierter, lokostatischer Textträger um eine dritte Stelle erweitert (vgl. Lieb und Ott 2014). Im Virtuellen steht es zum Vergleich und zur Vergleichsdiskussion zur Verfügung. Das historisch ursprünglich transportable, manchmal gerade zur Weitergabe disponierte Objekt, das in den neuzeitlichen Archiven festgesetzt wurde, wird an verschiedenen Orten gleichzeitig verfügbar und mit anderen Objekten in
den Rand gerückt, so dass die Inschrift nur eine wörtliche Rede präsentiert (auch das ‚inquit‘ des ursprünglichen Genesis-Zitats ist fortgelassen). Zugleich jedoch erscheint die zweite Funktion der Bilder und Inschriften ostensiert: Mit ‚vide apud‘ (i. S. von ‚siehe bei‘/‚dort‘) wird in B der lateinische Text explizit als Zitat aus den Büchern Moses ausgewiesen, wenngleich er nicht auch durch eine Stellenangabe präzisiert wird. 13 Dass diese Textelemente auch in der Überlieferung der Erlösung unabhängig von einem Bildprogramm realisiert werden können, zeigt die Trierer Papierhandschrift (Stadtbibl., Hs. 1935/1432 4°) vom Ende des fünfzehnten Jahrhunderts, die einige lateinische Inserate aufweist, während sie auf der Ebene des volkssprachigen Textes eine Kurzfassung bietet.
76
Christina Lechtermann und Markus Stock
Autopsie oder in elektronischer Analyse vergleichbar – eine Operation, die zumindest mit einem Mikrofilm-Lesegerät alleine nicht durchzuführen war. Das Digitalisat entwirft dabei ein Text-Objekt, das auf Sichtbarkeit angelegt ist, foto(un)genau präsentiert es Merkmale der visuellen Performanz von Text, doch ebenso, wie es taktile und olfaktorische (und ggf. auch gustatorische) Dimensionen ausblendet, lässt es den Klang des Textes zurücktreten. Wie die Handschriftenseite selbst mit ihren oft unabgesetzten Versen, Irritationen und unaufgelösten Abkürzungen nur mit einer gewissen Mühe vorlesbar ist, so konstitutiert gerade das Digitalisat, vielleicht mehr sogar noch als eine normalisierende Edition, die zumindest Versgrenzen präsentiert, zunächst ein stummes Schriftbild als Original.
3 Dateien Philologie bezieht sich jedoch nicht nur auf die Handschriftenseite, sondern auch und gerade auf ein von seiner jeweiligen materialen Konkretion grundsätzlich abstrahierbares Zeichensystem – einen semiotic text. Während Digitalisierung in beschriebener Weise einer Philologie als Text-Objekt-Wissenschaft zuarbeitet, stellt gerade die Handschrift die Verfahren technischer Weiterbearbeitung – und das heißt v. a. einer elektronischen Transkription mittels Optical Character Recognition – vor Schwierigkeiten. Man hat diese besondere Konstellation als genuine Unzugänglichkeit des vormodernen semiotic text für digitale Verfahren beschrieben und als Widerständigkeit der Handschrift gegen algorithmische Aneignung gesehen: This new significance [i. e. der Handschrift] consists of the fact that it embodies a kind of irreducible idiosyncrasy that is virtually impenetrable with the tools of targeted reading. The manuscript is to me no longer simply a pre-book or a hand-written book – it is an anti-book, a document whose nature is fundamentally at odds with the book as it now exists under the bright lamps of Google’s thousand-page-an-hour text scanners. (Szpiech 2014, 87)
Vermutlich dürfte eine Erkennungsgenauigkeit von 99,95%, die die DFG als hinreichend zuverlässig veranschlagt, für Handschriftendigitalisate schwer zu erreichen sein (Rehbein 2017, 195), doch tragen derzeit Projekte, die sich mit der Texterkennung von Handschriften befassen, dazu bei, dieses Problem in absehbarere Zeit zu lösen (etwa das Tool Transkribus). Daneben und für kleinere Unternehmungen scheint die manuelle Transkription noch Mittel der Wahl. Sie erzeugt die sprachlichen Elemente einer Handschrift als genuin digitale Daten neu und schafft einen ‚born digital‘ Text, der hinsichtlich seiner linguistischen,
Virtuelle Textkonstitutionen
77
narratologischen oder graphemischen Aspekte in TEI/XML annotiert und mit anderen digitalen Archiven oder Datenbanken vernetzt werden kann.14 Was in früheren Editionen an begleitende Paratexte (Apparate, Kommentare, Einleitungen) delegiert wurde, um den einen Text zu bieten, kann dabei nun in eine Textdatei hineinannotiert werden. So entstehen Datensätze, die nachvollziehbar machen, wie und auf Basis welcher Entscheidungen Texte präsentiert und Daten modelliert wurden und wie sie ermöglichen können, verschiedene Perspektiven auf den Text auch an der Benutzerschnittstelle zu präsentieren. Anne Baillot und Markus Schnöpf etwa sprechen in diesem Zusammenhang von einer „neuen Sichtbarkeit der Erschließungsprozesse“ eines edierten Textes (Baillot und Schnöpf 2015, 142–148) und verstehen das damit verbundene Datenmodell als „Schnittstelle zwischen dem, was der Editor in der ihm vorliegenden Handschrift sieht und dem, was er seinem Leser/Nutzer an Informationen vermitteln möchte“ und damit auch als „Schnittstelle zwischen zwei Momenten der Interpretation“ (ebd., 145; vgl. Sahle 2013, Bd. 3, 341–390). Was damit gemeint ist, wird im Blick auf unser Eingangsbeispiel, die Edition des Wurzgarten, deutlich (Abb. 3). Die typographische Gestalt der Edition suggeriert Handschriftennähe. So verwendet sie etwa Schaft-S und markiert die O-Initiale, die den Text eröffnet, und die in der Edition über vier Zeilen geht. Der Apparat bemerkt dazu: „Für das Eingangszitat war eine 8zeilige, für den Dichtungsanfang eine 4zeilige Initiale vorgesehen“ (Wolff 1953, 126). Er vermerkt damit zwar ihr Fehlen in der Handschrift, simuliert aber die Initiale, die eigentlich gar nicht in der Handschrift vorhanden ist, im Druckbild der Edition. Auch die zahlreichen Kürzungszeichen, die in der Präsentation des lateinischen Zitats verwendet werden, bleiben ausgeblendet, wenn darauf verwiesen wird, dass es sich bei dem Zitat um die Antiphon zum Magnificat für den 17. Dezember handelt, also um einen Auszug aus einem liturgischen Gesang. Wir sehen hier eine eigentümliche, aber nicht untypische Spannung zwischen suggerierter Überlieferungsnähe und unzugänglich gewordenen editorischen Entscheidungen. Es geht uns bei diesem Vergleich keineswegs darum, die verdienstvolle Arbeit Wolffs zu schmälern. Doch bleibt festzuhalten, dass die Edition das Fehlen der Initiale ebenso in den Hintergrund rückt, wie sie das spezifische Seitenbild überblendet. Eine digitale Edition, die codierten und annotierten Text und Handschriftenbild miteinander vermittelt, könnte dagegen einerseits Lücke und geplante Füllung als Wahlmöglichkeit unterschiedlicher Präsentationsweisen notieren und andererseits einen schnellen Blick auf
14 Vgl. für die Debatte um digitale Editionen die Beiträge im Band von Driscoll und Pierazzo 2016.
78
Christina Lechtermann und Markus Stock
Abb. 3: Wolff 1953, 126. Textanfang in der Ausgabe von Könemanns von Jerxheim Sunte Marien wortegarde.
Virtuelle Textkonstitutionen
79
das Digitalisat erlauben, um das bilinguale Spiel zwischen Deutsch und Latein zu präsentieren und neben einem Lesetext auch das eigentümliche Schwanken der Handschrift zwischen perfektionierenden Korrekturen einer zweiten, späteren Hand und Unvollendetheit der mise-en-page zu dokumentieren. Auch ließen sich entsprechende Interpretationskontexte, so würde man hoffen, erkenntnisfördernd einbringen. Z.B. könnte man die Antiphon identifizieren und somit reflektieren, welchen Text-, Melodie-, Liturgie- und Jahreszeitenstand mittelalterliche Leser u. U. assoziiert haben könnten, wenn sie das lateinische Inserat lesen.15 Für einzelne Passagen des ‚Töchterstreits‘ könnte man weiterhin Parallelen etwa zu den Predigttexten Bernhards von Clairvaux oder zu anderen Adaptationen des Motivs eintragen und so sichtbar machen, ob und ggf. welchen Realisationen der Wurzgarten dabei besonders nahe steht. Solche Formen der Vernetzung und Annotation bieten damit Möglichkeiten, wiederum eigene Wurzgarten-‚Versionen‘ zu konstituieren – als Adaptation eines im latein-europäischen Mittelalter verbreiteten Motivs, als höfisierende Erzählung, als Kollektion und erzählende Ausdeutung lateinischer Zitate. Die digitale Edition ist im Rahmen dieser Möglichkeit sukzessiver Anreicherung „durch eine grundsätzliche Offenheit gekennzeichnet“, die es erlaubt, immer weitere Informationen und Informationsbestände wie etwa Wörterbücher mit dem Text zu verknüpfen sowie weitere Annotations-Schichten für bestimmte Tools einzuführen. Text/Edition verwandelt sich dadurch vom „Produkt zum Prozess“ (Sahle 2017, beide Zitate 240; ders. 2013, Bd. 3, 346–348) und der kodierte, annotierte Text existiert im digitalen Medium doppelt: als angereichertes Data Model (source) auf der einen und als Präsentationstext (output) auf der anderen Seite. Text encoding is thus simultaneously a different working method, which requires editors to add tags to the text while transcribing it, and a different framework‐infrastructure, which requires the use of computer programs able to handle such tags according to some user‐defined principles and therefore able to index, search, and display the final product. This fact then implies that we need to distinguish the data model, where the information is added (the source), from its publication, where the information is displayed (the output). (Pierazzo 2016, 312)
15 Vgl. http://gregorianik.uni-regensburg.de/cdb/004081 und http://cantus.uwaterloo.ca/ chant/154744 zur Verbreitung und der Musiknotation. Im Übrigen wird sich die digitale Präsentation – irgendwann einmal – mit vollständig digitalen Wörterbüchern des Mittelhochdeutschen und Mittelniederdeutschen zusammenschließen lassen, so dass der Sprachstand der Handschrift genauer zu bestimmen sein wird, als es Wolff möglich gewesen ist.
80
Christina Lechtermann und Markus Stock
Was die ‚born digital‘-Dokumente dabei bestimmt, ist eine eigentümliche Form der Textkonstitution, die nur scheinbar an ältere Traditionen anschließt, wie sie in den Begriffspaaren Textus und Glossa, Text und Anmerkung/kritischer Apparat emblematisch verdichtet sind: Im Text im editorischen Sinne bleiben Transkript und Annotation differenzierbar über die entsprechenden Marker, hier die spitzen Klammern, die jeden tag kennzeichnen. Doch ist der annotierte Text trotz der ‚sprechenden‘ Elemente von TEI/XML kaum mehr einfach lesbar und ohne die entsprechenden Hilfsprogramme, die die Formiertheit und Validiertheit der Codierung und Annotierung prüfen, auch im Schreibprozess fehleranfällig. Der eigentliche Editionstext erscheint fragmentiert und in Textbruchstücke, Wortbruchstücke und sogar einzelne Buchstaben zerlegt, deren linearer Zusammenhang für das menschliche Auge nur mühsam herzustellen ist. Doch gerade dadurch kann der strukturierte, codierte und annotierte Text nicht nur als ein Text erscheinen, sondern bietet sich in verschiedenen Perspektiven an. An der Schnittstelle, die dem*der Benutzer*in Zugriff auf die gespeicherten und strukturierten Daten ermöglicht, können dank der Doppelexistenz von source und output unterschiedliche Textgestalten erscheinen: Diplomatischer Abdruck und stärker normalisierter Lesetext lassen sich so auf Basis desselben codierten und annotierten Transkripts erstellen und mit den Bilddateien einer digitalisierten Handschrift verbinden (vgl. etwa Casties und Wintergrün 2015). Es ist nicht zuletzt dieses Vorhandensein verschiedener Editionsoptionen im XML/TEI-Text, für die der Begriff ‚virtuelle Philologie‘ geeignet scheint: Bei einem hinreichend dicht annotierten TEI-Text sind die Optionen in gewissen editorisch vordefinierten Grenzen den Nutzern anheimgestellt und die mit diesen Optionen verbundenen Möglichkeiten werden dokumentarisch bewahrt und können offengelegt werden. Ein solchermaßen codierter Text erlaubt detaillierte Einblicke in die editorische Arbeit und bietet gleichzeitig Möglichkeiten, Informationsdichte, Grad der ‚Normalisierung‘ oder Ausgabeformen zu wählen. Er vereinigt Forschungsmaterialien, historische Kontextinformationen, eine potentielle Menge möglicher Ausgabeprodukte (‚Editionen‘), dokumentiert die Wege, die zu solchen Produkten führen können, und hält das Material für zukünftige analoge oder digitale Weiterbearbeitung offen. Er muss nicht aufgrund seiner eigenen Medialität zwischen einem lediglich möglichen sprachlichen Paradigma (bzw. den zwischen den einzelnen Handschriften realisierten paradigmatischen Möglichkeiten) und einem tatsächlich realisierten Syntagma differenzieren, sondern er schreibt beide Dimensionen an: ODD – one document does it all.16 Virtuelle Textkonstitution erscheint als Möglichkeit, be-
16 Vgl. https://wiki.tei-c.org/index.php/ODD.
Virtuelle Textkonstitutionen
81
stimmte Aspekte vergangener Texte in beschriebener Potentialität verfügbar zu machen und für weitere Verfügungen offen zu halten. Gerade in der idiosynkratischen und anekdotischen Struktur handschriftlicher Überlieferung, die derzeit die elektronische Weiterverarbeitung von Digitalisaten zu Transkripten erschwert, scheint dabei die Möglichkeit für einen neuen Umgang mit dem vormodernen Text zu liegen. Diese Möglichkeit könnte sich gerade dort entfalten, wo codierter Text und digitales Textbild zunehmend miteinander in Bezug gesetzt werden, semiotic und material text aufeinander bezogen werden können und es zu einer fast paradoxen Verschränkung von Text-Einheit und Textobjekt-Vielfalt in digitalen Editionen kommen kann. Diese Verschränkung verhindert sowohl das Zur-RuheKommen der Textkonstitution (im Rahmen einer digital-prozessualen im Vergleich zur buchgebundenen fixierten Edition) als auch das Abschließen kontextueller Vernetzbarkeit. Auf diese Weise schreibt die Datei als virtuelles philologisches Objekt die ‚Existenzweise‘ philologischer Gegenstände nicht nur um (insofern deren ‚Existenzweise‘ nicht als ‚gegeben‘, sondern als diskursiv begründet verstanden werden kann), sondern die Virtualität der Gegenstände belehnt deren Editionen auch mit einer neuen Prozessualität und Beweglichkeit (vgl. Limpinsel 2016, o. Pag.). Vielleicht ist es daher keine „Cyberbole“17, keine hyperbolische Überschätzung der Möglichkeiten des Virtuellen, wenn man in diesen neuen Entfaltungsmöglichkeiten die Leistungsfähigkeit erkennt, die virtuelle Re-Repräsentation für das Idiosynkratische von Texten vor dem Zeitalter ihrer technischen Reproduzierbarkeit hat. Dass auch diese Form der editorischen Inszenierung oder ‚Aufführung‘18 eines historischen Textes und Text-Objekts Objektivitäts- und Authentizitäts-Effekte provoziert und dass gerade ihre Technizität dabei ein starkes suggestives Potential besitzt, verdankt sich dem konstitutiven Moment transkriptiver Praktiken, das die jeweiligen Originale allererst herstellt – doch, mit Szpiechs (2014, 93) kritischer Stimme, [s]uch editions operate under the same illusion as all critical editions – that of being able to approach medieval presence more directly through more information and more analysis. A digital edition pursues these illusions with more urgency than does a print edition, and obscures its intentions with even more efficiency.
Virtuelle Philologie wird daher vielleicht noch genauer Rechenschaft über die Konstitution ihrer Objekte ablegen müssen als die auf Printmedien basierende
17 Woolgar 2002, 9 und 22, in Abwandlung der Prägung „cyperbole“ von Imken 1999, 102. 18 Vgl. Sahle 2013, Bd. 3, 275: „Jeder (medialisierte elektronische) Text ist eine Aufführung dieses Textes in dem Sinne, dass er versucht die wahrgenommenen (oder vermuteten) Aussagen und Funktionen des Textes auf den Ebenen des Inhaltes, der Sprache oder der medialen und visuellen Form erneut zu medialisieren und damit zu realisieren.“
82
Christina Lechtermann und Markus Stock
Editionsphilologie. Allerdings wären digitale Editionen stark unterschätzt, wenn sie auf Stiftungen einer „illusion [. . .] of being able to approach medieval presence“ (Szpiech, ebd.) reduziert würden. Denn in dem Maße, in dem es den digitalen Editionen nicht um die Illusion einer Präsenz des Vergangenen, sondern um Reflexion auf die Möglichkeiten von (Re-)Repräsentation geht, regen sie neue methodologische Fragen nach dem Status der historischen Text-Objekte an und stellen das Potenzial für eine neue Transparenz der Textherstellungsprozesse bereit, so trügerisch diese Transparenz auch sein mag.
Literatur Baillot, Anne, und Markus Schnöpf. „Von wissenschaftlichen Editionen als interoperable Projekte, oder: Was können eigentlich digitale Editionen?“. Digital Humanities. Praktiken der Digitalisierung, der Dissemination und der Selbstreflexivität. Hg. Wolfgang Schmale. Stuttgart: Franz Steiner, 2015. 139–156. Baisch, Martin. „Textualität – Materialität – Materialität – Textualität. Zugänge zum mittelalterlichen Text“. Literaturwissenschaftliches Jahrbuch 54 (2013): 9–30. Bartsch, Karl (Hg.). Die Erlösung. Mit einer Auswahl geistlicher Dichtungen (Bibliothek der gesammten deutschen National-Literatur 37). Quedlinburg, Leipzig: Basse, 1858 (Nachdruck Amsterdam 1966). Beckers, Hartmut. „Könemann von Jerxheim: ‚Der Wurzgarten Mariens‘“. 2VL 5 (1985). Sp. 64–68. Borchling, Conrad. „Über mittelniederdeutsche Handschriften des nordwestlichen Deutschlands“. Jahrbuch des Vereins für niederdeutsche Sprachforschung / Niederdeutsches Jahrbuch 23 (1897): 103–124. Casties, Robert, und Dirk Wintergrün. „Bilder als Quelle in TextGrid“. TextGrid. Von der Community – für die Community. Eine virtuelle Forschungsumgebung für die Geisteswissenschaften. Hg. Heike Neuroth, Andrea Rapp und Sibylle Söring. Glückstadt: Hülsbusch, 2015. 153–163. Driscoll, Matthew Richard, und Elena Pierazzo (Hg.). Digital Scholarly Editing. Theories and Practices. Cambridge: Open Books Publishers, 2016. eCodicology (Technische Universität Darmstadt, Karlsruher Institut für Technologie, Universität Trier). http://www.ecodicology.org (17. Oktober 2019). Ehlich, Konrad. „Text und sprachliches Handeln. Die Entstehung von Texten aus dem Bedürfnis nach Überlieferung“. Schrift und Gedächtnis. Archäologie der literarischen Kommunikation. Hg. Aleida Assmann, Jan Assmann und Christoph Hardmeier. München: Fink, 1983. 24–43. Eisenstein, Elizabeth L. The Printing Press as an Agent of Change. Communications and Cultural Transformations in Early Modern Europe. 11. Aufl. Cambridge: Cambridge University Press, 2005 (1. Aufl. 1979). Fehrmann, Gisela, Erika Linz, Eckhard Schumacher und Brigitte Weingart. „Originalkopie. Praktiken des Sekundären – Eine Einleitung“. Originalkopie. Praktiken des Sekundären. Hg. Gisela Fehrmann, Erika Linz, Eckhard Schumacher und Brigitte Weingart. Köln: DuMont, 2004. 7–17.
Virtuelle Textkonstitutionen
83
Fiddyment, Sarah, et al. „Animal Origin of 13th-century Uterine Vellum Revealed Using Noninvasive Peptide Fingerprinting“. Proceedings of the National Academy of Sciences of the United States of America. PNAS December 8, 2015. 112.49: 15066–15071; first published November 23, 2015. https://doi.org/10.1073/pnas.1512264112. Hassner, Tal, Malte Rehbein, Peter A. Stokes und Lior Wolf. „Computation and Paleography: Potentials and Limits“. Dagstuhl Manifesto 2.1 (2014): 14–35. Imken, Otto. „The Convergence of Virtual and Actual in the Global Matrix: Artificial Life, GeoEconomics and Psychogeography“. Virtual Geographies: Bodies, Space and Relations. Hg. Mike Crang, Phil Crang, and Jon May. London: Routledge, 1999. 92–106. Jäger, Ludwig, Gisela Fehrmann und Meike Adam (Hg.). Medienbewegungen. Praktiken der Bezugnahme. München: Fink, 2012. Jäger, Ludwig. „Intermedialität − Intramedialität − Transkriptivität. Überlegungen zu einigen Prinzipien der kulturellen Semiosis“. Sprache intermedial: Stimme und Schrift, Bild und Ton (Jahrbuch des Instituts für Deutsche Sprache 2009). Hg. Arnulf Deppermann und Angelika Linke. Berlin, New York: De Gruyter, 2010. 301–321. Jäger, Ludwig. „Störung und Transparenz – Skizze zur performativen Logik des Medialen“. Performativität und Medialität. Hg. Sybille Krämer. München: Fink, 2004. 35–74. Jäger, Ludwig. „Transkriptivität. Zur medialen Logik der kulturellen Semantik“. Transkribieren. Medien/Lektüre. Hg. Ludwig Jäger und Georg Stanitzek. München: Fink, 2002. 19–41. Lechtermann, Christina, und Markus Stock. „Virtual Philology“. Handbuch Virtualität. Hg. Dawid Kasprowicz und Stefan Rieger. Berlin: Springer, 2020. doi:10.1007/978-3-65816358-7_25-1. Lechtermann, Christina. „Am Anfang – der Kuss. Erzählen vom Ereignishaften in der Erlösung“, Geschichte erzählen: Strategien der Narrativierung von Vergangenheit in der deutschen Literatur des Mittelalters. XXV. Anglo-German-Colloquium 2017 (Manchester). Hg. Sarah Bowden, Manfred Eikelmann, Stephen Mossman und Michael Stolz (im Druck). Lechtermann, Christina. „Das erste Gericht. Die Erzählung vom Streit der Töchter Gottes in Könemanns ‚Sunte Marien wortegarde‘“. Dante-Jahrbuch 2017/18 (2017): 104–120. Lentes, Thomas. „Textus Evangelii. Materialität und Inszenierung des textus in der Liturgie“. ‚Textus‘ im Mittelalter. Komponenten und Situationen des Wortgebrauchs im schriftsemantischen Feld (Veröffentlichungen des Max-Planck-Instituts für Geschichte 216). Hg. Ludolf Kuchenbuch und Uta Kleine. Göttingen: Vandenhoeck & Ruprecht, 2005. 135–150. Lieb, Ludger, und Michael R. Ott. „Schrift-Träger. Mobile Inschriften in der deutschsprachigen Literatur des Mittelalters“. Schriftträger – Textträger. Zur materialen Präsenz des Geschriebenen in frühen Gesellschaften (Materiale Textkulturen 6). Hg. Annette Kehnel und Diamantis Panagiotopoulos. Berlin, Boston: De Gruyter, 2014. 15–36. Limpinsel, Mirco. „Was bedeutet die Digitalisierung für den Gegenstand der Literaturwissenschaft?“ Zeitschrift für Digitale Geisteswissenschaften, 2016. doi: 10.17175/2016_009. Meyer, Wilhelm. Die Handschriften in Göttingen. Bd. 2. Universitäts-Bibliothek. Geschichte – Karten – Naturwissenschaften – Theologie – Handschriften aus Lüneburg (Verzeichnis der Handschriften im Preußischen Staate I,2). Berlin: Bath, 1893. 383–385. Nichols, Stephen G. „Materialities of the Manuscript. Codex and Court Culture in FourteenthCentury Paris“. Digital Philology. A Journal of Medieval Cultures 4.1 (2015): 26–58. Nichols, Stephen G. „Why Material Philology? Some Thoughts“. Zeitschrift für deutsche Philologie 116, Sonderheft: Philologie als Textwissenschaft. Alte und Neue Horizonte (1997): 10–30.
84
Christina Lechtermann und Markus Stock
Peters, Ursula. „‚Texte vor der Literatur‘? Zur Problematik neuerer Alteritätsparadigmen der Mittelalter-Philologie“. Poetica 39 (2007): 59–88. Pierazzo, Elena. „Textual Scholarship and Text Encoding“. A New Companion to Digital Humanities. Hg. Susan Schreibman, Ray Siemens und John Unsworth. Chichester: Wiley Blackwell, 2016. 307–321. Prätor, Klaus. „Ceci n’est pas un texte? Zur Rede über die Materialität von Texten – insbesondere in den Zeiten ihrer Digitalisierung“. Materialität in der Editionswissenschaft. Editio/Beiheft 32 (2010): 421–428. Rehbein, Malte. „Digitalisierung“. Digital Humanities. Eine Einführung. Hg. Fotis Jannidis, Hubertus Kohle und Malte Rehbein. Stuttgart: Metzler, 2017. 179–198. Roethe, Gustav. Reimvorreden des Sachsenspiegels. Abhandlungen der königlichen Gesellschaft der Wissenschaften zu Göttingen. Philologisch-Historische Klasse. N.F. II. Nr. 8, 1899. Sahle, Patrick. „Digitales Archiv – Digitale Edition. Anmerkung zur Begriffserklärung“. Literatur und Literaturwissenschaft auf dem Weg zu den neuen Medien. Hg. Michael Stolz. Zürich: germanistik.ch, 2007. 64–84. (online unter: http://www.germanistik.ch/ publikation.php?id=Digitales_Archiv_und_digitale_Edition; 1. April 2019). Sahle, Patrick. Digitale Editionsformen. Zum Umgang mit der Überlieferung unter den Bedingungen des Medienwandels. 3 Bde. Norderstedt: BoD, 2013 (Band 7–9). Sahle, Patrick. „Digitale Editionen“. Digital Humanities. Hg. Fotis Jannidis, Hubertus Kohle und Malte Rehbein. Stuttgart: Metzler, 2017a. 234–249. Sahle, Patrick. „XML“. Digital Humanities. Hg. Fotis Jannidis, Hubertus Kohle und Malte Rehbein. Stuttgart: Metzler, 2017b. 128–146. Sello, Georg. „Des Pfaffen Konemann Gedicht vom Kaland zu Eilenstedt am Huy“. Zeitschrift des Harz-Vereins für Geschichte und Altertumskunde 23 (1890): 99–170. Shep, S.J. „Digital Materiality“. A New Companion to Digital Humanities. Hg. Susan Schreibman, Ray Siemens und John Unsworth. Chichester: Wiley Blackwell, 2016. 322–330. Stackmann, Karl. Art. „Philologie“. Reallexikon der deutschen Literaturwissenschaft. Hg. Harald Fricke, Klaus Grubmüller, Jan-Dirk Müller und Klaus Weimar. Berlin, New York: De Gruyter, 2003. Bd. III: 74–79. Stock, Markus: „Philological Moves“. Rethinking Philology: Twenty-Five Years after the New Philology. Hg. Markus Stock und A. E. Christa Canitz. Florilegium 32 (2015): 1–17. Strohschneider, Peter. „Textualität der mittelalterlichen Literatur. Eine Problemskizze am Beispiel des Wartburgkrieges“. Mittelalter. Neue Wege durch einen alten Kontinent. Hg. Jan-Dirk Müller und Horst Wenzel. Stuttgart et al.: Hirzel, 1999. 19–41. Strohschneider, Peter. Höfische Textgeschichten. Über Selbstentwürfe vormoderner Literatur. Heidelberg: Winter, 2014. Strothmann, Friedrich Wilhelm. Die Gerichtsverhandlung als literarisches Motiv in der deutschen Literatur des ausgehenden Mittelalters. Jena: 1930 (repr. Darmstadt 1969). Szpiech, Ryan. „Cracking the Code. Reflections on Manuscripts in the Age of Digital Books“. Digital Philology. A Journal of Medieval Cultures 3.1 (2014): 75–100. TEI-Wiki: https://wiki.tei-c.org/index.php?title=Main_Page (17. Oktober 2019). Transcribus – Transcribe. Collaborate. Share . . . and benefit from cutting edge research in Handwritten Text Recognition! https://transkribus.eu/Transkribus/ (7. Januar 2020). Wachinger, Burghart. Art. „Salve regina“. 2VL 8 (1992), Sp. 552–559 und 2VL 11 (2004), Sp. 1368.
Virtuelle Textkonstitutionen
85
Wagemann, Holger. „Die Marburger Deutsche Philologie des Mittelalters“. Germanistik und Kunstwissenschaften im „Dritten Reich“. Marburger Entwicklungen. 1920–1950 (Academia Marburgensis 10). Hg. Kai Köhler et al. München: Saur, 2005. 233–250. Werner, Sarah. „Where material book culture meets digital humanities”. Journal of Digital Humanities 1.3. (2012). http://journalofdigitalhumanities.org/1-3/where-material-bookculture-meetsdigital-humanities-by-sarah-werner/ (17. September 2019). Wolf, Jürgen. „New Philology“. Germanistik als Kulturwissenschaft. Eine Einführung in neue Theoriekonzepte. Hg. Claudia Benthien und Hans Rudolf Velten. Reinbek b. Hamburg: Rowohlt, 2002. 175–195. Wolff, Ludwig. Die Dichtungen Könemanns. Kaland, Wurzgarten, Reimbibel (Niederdeutsche Denkmäler 8). Neumünster, 1953. Woolgar, Steve. „Five Rules of Virtuality“. Virtual Society? Technology, Cyberbole, Reality. Hg. Steve Woolgar. Oxford: Oxford University Press, 2002. 1–22. Zumthor, Paul. „La glose créatrice“. Les commentaires et la naissance de la critique littéraire. France / Italie (XIVe-XVIe siècles). Hg. Gisèle Mathieu-Castellani und Michel Plaisance. Actes du Colloque international sur le Commentaire, Paris, Mai 1988. Paris: Aux Amateurs de Livres, 1990. 11–18.
Abbildungen Abb. 1 ߓGöttingen, Staats- und Universitätsbibliothek, 4° Cod. Ms. theol. 153, fol. fol. 164v. Lateinisch/deutsche Sammelhandschrift, 2. Drittel fünfzehntes Jahrhundert. Auszug aus Könemanns von Jerxheim Sunte Marien wortegarde (1304). Abb. 2 ߓNürnberg, Stadtbibliothek, Solg. Ms. 15.2°, fol. 107r. Deutsch/lateinische Sammelhandschrift um 1465. Hier: Die Erlösung (Prophezeiungen zur Erlösung, links: Moses, rechts: Balaam). Abb. 3 ߓDie Dichtungen Könemanns. Kaland. Wurzgarten, Reimbibel, hg. von Ludwig Wolff, Neumünster: Karl Wachholtz Verlag, 1953, 126: Textanfang in der Ausgabe von Könemanns von Jerxheim Sunte Marien wortegarde.
Natalie Binczek und Armin Schäfer
Virtualität der Literatur: Eine Sondierung 1 „a giant computer“ Die „Vielfalt oder gar Beliebigkeit möglicher Verwendungsweisen“ des „Begriffs“ (Rieger 2014, 20) Virtualität ist auch das Kennzeichen seines Gebrauchs in der Literaturwissenschaft. Der Begriff wird, soweit wir sehen, hauptsächlich in zwei Zusammenhängen verwendet: Erstens wird in der Literaturtheorie unter Virtualität eine technisch bedingte Kategorie verstanden, die in die Trias von Realem, Fiktivem und Imaginärem hineinspielt. Wenn das Fiktive seinen Grund im Imaginären hat, hat Virtualität, wie Karlheinz Stierle ausführt, ihren Grund im Realen, und zwar im Technischen (Stierle 2002). Stierle begreift Virtualität als eine technische, computergestützte Figuration des Imaginären. Die literaturwissenschaftlichen Forschungen, die an der Fiktionstheorie ansetzen, um den Unterschied zwischen einer Diegese, die eine Fiktion ausbildet, und einer mit Hilfe von computergestützter Technologie erzeugten Virtual Reality zu fassen (Ryan 2001), stoßen alsbald auf die Schwierigkeit, dass Fiktion und Virtualität zwar derselben Modalität angehören, die zumeist als ein kontingent Mögliches gefasst wird, aber diese Modalität in Fiktion und Virtualität auf verschiedene Weisen ausgeprägt wird (Esposito 1998, 269–270). Auch wenn Virtualität ein Mögliches ist, erfasst der Fiktionsbegriff nicht ihre wesentlichen Kennzeichen und Merkmale. Die Unterscheidungen zwischen Fiktion und Realität oder zwischen Zeichen und Referent erklären zu wenig, um das Phänomen der Virtualität zu erschließen. Einer Bestimmung des ontologischen Status virtueller Phänomene entgeht, wie sie beschaffen sind und hergestellt werden. Ebenso wenig reicht die Unterscheidung zwischen Fiktivität und Fiktionalität, der Fiktion als einer Eigenschaft des Dargestellten und der Fiktion als einer Eigenschaft der Darstellung, für eine Bestimmung virtueller Phänomene hin. Deshalb sollte der Begriff Virtualität nicht nur auf die Unterscheidung zwischen Realität und Fiktion, sondern auch auf die Beobachtungsbedingungen selbst bezogen werden. Jedenfalls ist das virtuelle Bild im Spiegel ohne die materielle Anordnung, die es hervorbringt, und die aktive Rolle des Betrachters, der es sieht, nicht zu begreifen. Zweitens hat die Literaturwissenschaft in dem „neue[n] technologische[n] Komplex“ der „Digitalisierung“ (Reckwitz 2018, 225 und 230), der aus den Verfahren des „Computing“, der „Digitalisierung medialer Formate“ und der „Ausbildung eines globalen kommunikativen Netzes, des Internets“ (Reckwitz
Open Access. © 2021 Natalie Binczek und Armin Schäfer, publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz. https://doi.org/10.1515/9783110638127-006
88
Natalie Binczek und Armin Schäfer
2018, 230)1, zusammengesetzt ist, sowohl ein neues Instrument der Forschung als auch einen neuen Gegenstandsbereich gefunden. Allerdings steht in der neuen Disziplin der digital humanities der Begriff Virtualität, obwohl er im Alltag vielfach mit dem „neue[n] technologische[n] Komplex“ gleichgesetzt wird, nicht im Zentrum des Interesses. Es ist bemerkenswert, dass er in Texten, welche die Literaturwissenschaft unter der Prämisse des Computing neu ausrichten, fehlt. So kommt zum Beispiel in dem von Fotis Jannidis, Hubertus Kohle und Malte Rehbein herausgegebenen Einführungsband Digital Humanities (2017) das Wort kein einziges Mal vor. In Andrew Pipers Enumerations. Data and Literary Study (2018) wird es einmal, allerdings in einem bedeutsamen Zusammenhang verwendet. Piper ordnet das Virtuelle dem operativen Paradigma der Schrift zu: „The dot, the line, the curve [. . .] divide, but also mark time. Punctuation makes us feel writing. It makes the virtual real.“ (2018, 22). Unabhängig von der Differenzierung der Schrift in unterschiedliche mediale Aggregatzustände – als steinerne Inschrift oder digitales Bildschirmzeichen – unterhalte die Schrift eine besondere Beziehung zum Virtuellen. Anhand ihrer kleinsten Elemente, der Interpunktionszeichen, lasse sie sichtbar werden, wie in ihr und mit ihrer Hilfe das Virtuelle ‚real‘ wird. Die Virtualität bilde, so Piper, eine notwendige Voraussetzung des Schreibens und ist ihm stets inhärent. Dennoch ist Virtualität, so ein erster Befund, weder in den an der Computerisierung der Literatur und Literaturwissenschaft orientierten Forschungen noch in der Literaturtheorie ein etablierter Begriff. Vielmehr wirft Virtualität ein an die Literaturwissenschaft herangetragenes Spezialproblem auf, das insbesondere für die Fiktionstheorie von Interesse ist und zu einer neuen Modellierung des Fiktiven herausfordert. Die notwendige Arbeit, die das Verhältnis von Begriffen wie Fiktion, Fiktivität, Fiktionalität, Schein, Illusion, Simulation, Möglichkeit, Wahrscheinlichkeit und Virtualität zu klären sucht, kann im Folgenden nicht geleistet werden. Stattdessen möchten wir sondieren, wie der Begriff Virtualität für die Literatur und Literaturwissenschaft nutzbar gemacht werden und welche Bedeutung er für eine Erörterung von literaturwissenschaftlichen Analyseverfahren haben kann. Vor dem Hintergrund der eingangs skizzierten Begriffsverwendung möchten wir einen Umweg einschlagen, der über einen Vortrag von Jacques Derrida führt. Am 12. Juni 1984 hielt Derrida zur Eröffnung des James Joyce International Symposium in Frankfurt am Main den Vortrag „Ulysses Grammphone“. Dieser erschien 1985 erstmals auf Französisch und wurde im Folgenden auch ins Deutsche und ins Amerika-
1 Der „neue technologische Komplex“ (230), der einen „Strukturbruch“ (229) ausgelöst habe, sei, so Reckwitz, aus diesen „drei zentralen Verfahren zusammen[ge]setzt“ (230).
Virtualität der Literatur: Eine Sondierung
89
nische übersetzt. Derrida schlägt folgendes Gedankenspiel vor, das wir nach der amerikanischen Übersetzung zitieren: One can imagine the existence soon of a giant computer of Joycean studies [. . .]. It would capitalize all the publications, would coordinate and teleprogram the lectures, conferences, theses, the papers, would construct indexes in all languages. One could consult it at any moment via satellite or heliophone (‚Sunphone‘), day and night, relying on the ‚reliabilty‘ of an answering machine: hello, yes, yes, what are you asking for? Oh! For all the occurrences of the word ‚yes‘ in Ulysses? Yes. It would remain to be seen whether the basic language of such a computer would be English and whether its certificate (its ‚patent‘) would be American, due to the overwhelming and significant majority of Americans in the trust of the Joyce foundation. It would also remain to be seen whether one can consult this computer with respect to the yes in all languages, if one can be content with the word yes and whether the yes, in particular the one involved in the operations of consultation, can be counted, calculated, numbered. (2013, 63–64)
Derrida kann zeigen, dass die Romane Ulysses und Finnegans Wake unzählige interne Verknüpfungen haben und sie darüber hinaus Verknüpfungen mit einem bis in die Antike zurückreichenden kulturellen Archiv des europäischen Sprachraums unterhalten. Die Romane speichern Daten, stellen Verbindungen zwischen ihnen und mit den Archivalien her und operieren insgesamt auf eine Weise, die Derrida an anderer Stelle seines Vortrags mit dem Terminus des Computers belegt (2013, passim; 1988b, 15–16; 1988a, 77, 84 und öfter). Weder fragt Derrida nach dem ontologischen Unterschied zwischen Realität und Virtualität, noch versucht er den spezifischen Modus der Fiktion gegenüber der Virtualität abzugrenzen und mit dem Konzept der Simulation zu verknüpfen. Man könnte einwenden, dass Derrida noch nicht über einen Begriff der Virtualität bzw. Virtual Reality verfügt. Jedoch skizziert er in seinem Szenario, das er selbst als enzyklopädisches Phantasma beschreibt und einer wissenschaftlichen Arbeitsform zurechnet, die sein eigener Vortrag fortwährend konterkariert, die Grundzüge dessen, was mittlerweile als digital humanities praktiziert wird. Derridas Beispiel ist bemerkenswert. Als Referent seiner „imagination“ gilt nämlich „a giant computer of Joycean studies“, der ein neuartiges Verhältnis zwischen Literatur und Literaturwissenschaft zu versprechen scheint. Dieser „giant computer“ sei ein Arbeitswerkzeug, dessen Kompetenz darin bestehe, jederzeit – „One could consult it at any moment [. . .] day and night“ – zuverlässige Auskünfte zum Ulysses zu erstellen. Wenn Derrida die Zuverlässigkeit des Computers mit derjenigen einer „answering machine“ vergleicht, dann weist er bereits auf die Probleme hin, die in dem Szenario stecken. Zwar kommuniziert der Computer mit dem Nutzer – „hello, yes, yes, what are you asking for?“ – und führt dessen Aufträge durch. Die Anfragen müssen allerdings unmissverständlich formuliert und mit einem Erkenntnisinteresse verbunden sein, das
90
Natalie Binczek und Armin Schäfer
sein Fundament in quantifizierbaren Größen hat. Studium heißt hier Quantifizierung: „the occurrences of the word ‚yes‘ in Ulysses“. Auch wenn der Computer die „Joycean Studies“ in ihrer bisherigen Gestalt reformiert, so erfolgen seine Operationen auf der Grundlage von Entscheidungen, die ihrerseits hermeneutisch verankert und keineswegs eindeutig oder unwiderruflich sind. Derrida selbst lotet die Grenzen solch einer quantifizierenden Textanalyse aus. Der zunächst eindeutig formulierte Auftrag, die Häufigkeit des Wortes „yes“ in Ulysses zu ermitteln, erweist sich bei näherer Betrachtung als überaus komplex. Es fängt bereits damit an, dass festgestellt werden muss, was der Ulysses überhaupt ist, d. h., ob nur der intradiegetische Text dazuzählt – aber wo beginnt er? – oder ob auch der paratextuelle Rahmen hinzuzuziehen ist. Ferner setzt die Zählung eine eindeutige Definition dessen voraus, was ein Wort ist. Das „yes“, das im „Ulysses“ selbst steckt, wenn das mittige Doppel-S übersprungen wird, gehört jedenfalls nicht dazu und gehört als Titel des Romans ohnehin nicht zur Diegese. Oder etwa doch? Damit der Computer das Wort „yes“ in einem Text erkennen kann, muss es einer bestimmen Schreibweise, mithin einem bestimmten orthographischen Standard entsprechen. Diese Voraussetzungen in Rechnung gestellt, wären die vom „giant computer“ praktizierten „Joycean Studies“ auf Finnegans Wake jedoch kaum anwendbar. Ferner sollte das Wort „yes“ in den unterschiedlichen im Text verwendeten Sprachen erfasst werden: als „oui“, „ja“, „si“ usw. Mehr noch: Was ist mit dem „telefonischen Hallo“ (Derrida 1988a, 99)? „Hallo“ ist ein Wort, in dem, wie Derrida bemerkt, das „ja“ semantisch, als eine phatische Zustimmung, enthalten sein kann. Ist also, so muss gefragt werden, ein Computer überhaupt dazu in der Lage, alle Wörter der Zustimmung zu erfassen? Wie aber ist es mit Ausdrücken an der Grenze zwischen phonetischer und orthographischer Schreibweise, wie z. B. einem „yeah“ oder „yep“? Angesichts dieser Überlegungen scheint einerseits eine Komplexität der Fragestellung auf, durch welche die computergenerierten Suchmuster vor beträchtliche Entscheidungsprobleme gestellt werden. Andererseits demonstrieren diese Fälle eine dem Wort „yes“ innewohnende Virtualität. Die Virtualität des Wortes „yes“ tritt nämlich in seinen fehlerhaften Schreibweisen ebenso zutage wie im „Hallo“ als Ausdruck der Zustimmung, vielleicht sogar im „no“, insofern es ironisch verwendet wird und daher ein „yes“ meint. Wo die Eindeutigkeit des Wortes nicht gegeben ist, dort verweist es auf die ihm inhärente und es bedingende Virtualität. Während die digitale Erfassung seines Vorkommens eindeutige Grenzen in der Bestimmung des textuellen Datensatzes und der zu suchenden Elemente voraussetzt, ist das Virtuelle hingegen unberechenbar. Das virtuelle „yes“ taucht in einem Netz veränderlicher Beziehungen auf, die es in unterschiedlichen orthographischen sowie semanti-
Virtualität der Literatur: Eine Sondierung
91
schen Formen und Konstellationen aufscheinen lassen und einer vollständigen algorithmischen Berechenbarkeit entziehen. Wer das virtuelle „yes“ liest, muss das übliche Schema, in dem von vornherein festgelegt wird, dass einzig das Wort „yes“ als Zustimmung gewertet wird, verlassen. Der Begriff der Virtualität bezeichnet, so möchten wir festhalten, erstens ein Mögliches, das nicht mit dem Fiktiven gleichzusetzen ist. Zweitens erfordert eine Beobachtung virtueller Phänomene, Objekte und Eigenschaften, dass die Beobachtungsbedingungen selbst mit in den Blick genommen werden. Und drittens bedarf es eines aktiven Beobachters, der das Schema seiner Beobachtungen mitbeobachtet, um die Virtualität der Phänomene, Objekte und Eigenschaften überhaupt zu erkennen. Man muss bemerken, dass man in einen Spiegel blickt, um die Virtualität eines Spiegelbilds zu begreifen.
2 distant readings Die digital humanities können ihre literaturwissenschaftlichen Fragen nur stellen, weil sie auf den Erträgen des Fachs Literaturwissenschaft aufsatteln. Erst wenn grundlegende philologische und literaturwissenschaftliche Entscheidungen – nach dem Wort, Werk, Korpus, Kontexten und Umgebungen – getroffen sind, kann das Instrumentarium zum Einsatz kommen. Die algorithmische Texterfassung setzt nämlich voraus, dass sich das auszuwertende Textkorpus als eine spezifische Datenmenge behandeln, identifizieren und von anderen Korpora abgrenzen lässt. Zunächst ist zum Beispiel eine definitorische Festlegung erforderlich, was eine ‚Dorfgeschichte‘ ist: „Dorfgeschichten waren im ersten Viertel des 19. Jahrhunderts in Großbritannien überaus populär. Den Höhepunkt des Genres stellt Mary Mitfords Erzählungssammlung Our Village dar“ (Moretti 2009b, 66). Auf dieser Grundlage kann dann folgendes Ergebnis formuliert werden: „Ihre Widerspenstigkeit gegen alle Tendenzen der nationalen Zentralisierung unterscheidet das Genre der Dorfgeschichten von Provinzromanen, mit denen sie häufig verwechselt werden.“ (ebd.) Geleitet von literaturhistorisch etablierten Beobachtungen, wonach die Literatur des frühen neunzehnten Jahrhunderts als Reflex auf die Verstädterung der Gesellschaft, gleichsam antizyklisch, gerade die Peripherie der Provinz und des Dorfes fokussierende Genres entwickelt, baut Franco Moretti Suchanordnungen auf, die ihm quantitative Werte bereitstellen, um diese beispielsweise in Bezug auf die Topographien oder Figuren kartographisch darzustellen. Die Definition der ‚Dorfgeschichte‘ in Abgrenzung zum ‚Provinzroman‘ wird als selbstverständlich vorausgesetzt
92
Natalie Binczek und Armin Schäfer
(und mit einem – einzigen – bibliographischen Verweis2 gestützt). Die Zuständigkeit für Genredefinitionen fällt weiterhin in die traditionelle Literaturwissenschaft, auf deren Konzepten die digitalen Analysen aufbauen. Während die digital humanities das eigene Tun einerseits „als radikalen Bruch mit der Vergangenheit“ (Moretti 2017, 12) inszenieren,3 sind sie andererseits, wie an dem Festhalten am Genrebegriff erkennbar, in hohem Maße von Konzepten und Methoden der „Vergangenheit“ geprägt. Die Quantifizierung ist das Herzstück der digital humanities. Die Frage nach der Häufung des Vorkommens eines Wortes innerhalb einer bestimmten Textgruppe impliziert jedoch Eindeutigkeit in der Festlegung des gesuchten Elements. Das von Derrida vorgeschlagene Beispiel demonstriert, dass ein besonderer Erkenntnisgewinn aus einer Fokussierung auf Uneindeutigkeiten, Entgrenzungen und Verschiebungen der ‚Daten‘ zu ziehen sei. Für die digitalen Erfassungen aber gilt, dass sie von Differenzen abstrahieren müssen, die solche Uneindeutigkeiten hervorrufen. Zwischen einem ironischen und einem nicht-ironischen Sprechakt, der die vermeintlich scharfe Grenze zwischen ‚ja‘ und ‚nein‘ verwischt, kann die digitale Worterfassung nicht unterscheiden. Ob es sich um eine Dorfgeschichte, einen Provinz- oder Großstadtroman handelt, muss vorab entschieden worden sein, um die Datenerfassung für einen dieser Datensätze zu bestimmen. Für die Quantifizierung des Wortes ist diese, nach der Bedeutung der Wörter fragende, mithin hermeneutische Perspektive zwar irrelevant. Allerdings muss zum einen erörtert werden, ob und in welchem Maße die Verfahren der digital humanities selbst von hermeneutischen Vorentscheidungen abhängig sind,4 und zum anderen, ob und inwiefern sie Lösungen für Problemlagen zu formulieren versuchen, die sich ihrerseits literarhistorisch bzw. historisch zurückverfolgen lassen.5 Sowohl Derridas Szenario eines „giant computers“, der eine Antwort auf die Anforderungen des Umgangs mit den big data entwirft, mit denen die „Joycean Studies“ konfrontiert sind, als auch Franco Morettis Kurven, Karten und Stammbäume, die das „great unread“ (Cohen 1999, 23) insbesondere des neunzehnten Jahrhunderts lesbar zu machen versprechen,6 stellen unterschiedliche Varianten des distant reading dar. In beiden Fällen richtet
2 Duncan 2002. 3 Unter der Leitung von Franco Moretti (2017, 12). 4 Für Franco Moretti ist die quantitative Methode nicht per se unabhängig von hermeneutischen Ansätzen, sondern lediglich im „Idealfall“, heißt es doch: „daß die quantitative Forschung Datensätze hervorbringen kann, die im Idealfall unabhängig von Interpretationsansätzen sind.“ (Moretti 2009a, 16). 5 Siehe zu diesem Ansatz Nassehi 2019. 6 Vgl. dazu auch Reid 2019.
Virtualität der Literatur: Eine Sondierung
93
sich das Interesse auf quantifizierbare Elemente. Sie sollen sowohl im Werk von James Joyce, also eines einzigen Autors, als auch innerhalb eines größeren Korpus wie z. B. der Dorfgeschichte gezählt und in einem weiteren Schritt in Form von „Kurven, Karten und Stammbäume[n]“ visualisiert werden. Während ein Text nach Maßgabe hermeneutischer Verfahren jedoch wiederholt und stets auch anders lesbar sein sollte (Thomé 2007, 832),7 arbeiten die digital humanities in einem Zwischenraum, in dem erste hermeneutische Entscheidungen bereits getroffen sind, aber deren Fortsetzung, Korrektur und Revision, die den Prozess des Lesens wesentlich kennzeichnen, ausgesetzt sind. Der zeitweilige Stillstand dieses elementaren hermeneutischen Prozesses ist eine wesentliche Voraussetzung für die Erzeugung quantifizierbarer Datenmengen. Distant reading meint im Unterschied zu den Wiederholungslektüren der stets gleichen Texte und Textstellen hermeneutischer close readings eine Operation, die nur einmal zu erfolgen hat, weil sie stets dasselbe Ergebnis hervorbringt. Die Häufigkeit des Vorkommens des Wortes „yes“ in einem Text – wird einmal festgelegt, was alles dazugehört und was nicht – ändert sich nicht durch die Repetition derselben Suchanfrage. Die Modi der Veranschaulichung können freilich variieren. Moretti sieht in solchen Veranschaulichungen seinen eigentlichen Gegenstand: Er erklärt, dass die „Zeitdiagramme, Histogramme, Baumkarten, Netzwerkdiagramme, Streudiagramme [. . .] – als grafische Darstellung der empirischen Erkenntnisse – den besonderen Forschungsgegenstand der Computerphilologie dar[stellen]; sie sind unser ‚Text‘“. (Moretti 2017, 9) Auch der vordigitalen Zeit ist das Problem der big data bekannt. Obgleich der Computer neue und nur ihm eigene algorithmische Lösungen für den Umgang mit großen Datenmengen bietet, lohnt es dennoch, die analogen Vor-Geschichten der distant reading-Strategien in den Blick zu nehmen, nicht zuletzt, um die spezifische Leistung der digitalen Medien gegenüber etwa dem Blättern, Überfliegen (Maye 2015, 135–148) oder anderen Modi zerstreuter Lektüre abzugrenzen. Wie also lässt sich der Unterschied beschreiben? Welche Kontinuitäten können beobachtet werden? Spätestens in der zweiten Hälfte des neunzehnten Jahrhunderts tritt durch die enorme Produktion von Texten insbesondere aufgrund der starken Publikationstätigkeit der Zeitschriften und Zeitungen – letztere mit einer Erscheinungsfrequenz von bis zu drei Ausgaben eines bestimmten Blattes pro Tag – „der Status der Literatur als Massenmedium“ (Pethes 2017, 200) zutage. Die in diesem
7 Ein solches Textverständnis kulminiert im Werkbegriff. Das „Werk“ aber liegt „in fixierter, die Zeit überdauernder Form vor[], so daß es dem Zugriff des Produzenten ebenso enthoben ist wie dem Verbrauch durch den Rezipienten.“ (Thomé 2007, 832).
94
Natalie Binczek und Armin Schäfer
Zusammenhang entstehenden zeitgenössischen Reflexionen über das Lesen entwerfen ihre eigenen Konzepte des distant reading. Die folgende, exemplarische Aussage Edmund Wengrafs, die 1891 in der Wiener Literatur-Zeitung veröffentlicht wurde, beschreibt ein distant reading unter spezifischen historischen Bedingungen, zu denen besondere Leselokalitäten – hier: das Café – ebenso gehörten wie ein sozialer Lesertyp: Der Kaffeehausleser [. . .] hört überhaupt auf zu lesen, er blättert nur mehr. Zerstreuten Blickes durchfliegt er die Zeitungen – ein Dutzend in einer Viertelstunde – und nur das Unterstrichene, das Großgedruckte, nur gesperrte Lettern vermögen sein Auge noch ein Weilchen zu fesseln. (Wengraf 1891, 1)
Der historische Zeitungsleser las selektiv und extensiv. Er musste sich innerhalb eines bestimmten, der Publikationstaktung des Periodikums entsprechenden Zeitfensters, d. h. vor dem Erscheinen der nächsten Ausgabe, durch eine Fülle von unterschiedlichen Zeitungen und Zeitschriften durcharbeiten. Die Verknüpfung dieses Lesertyps mit dem Kaffeehaus gründet in dessen breitem Zeitungsangebot, dem eben nur mit Hilfe von distant readingVerfahren begegnet werden konnte. Mit dem, was ein Leser jeweils gelesen hat, stieg zugleich auch die Textmenge dessen an, was er nicht lesen konnte. So vermehrte dieses Lesen auch das Ungelesene. Die Lektüre habe sich, so Wengraf, auf „Unterstrichenes, Großgedrucktes oder gesperrte Lettern“ beschränkt. Mit dieser Reihe typographischer Hervorhebungen sind Elemente bezeichnet, mit denen die Presse die Lesetätigkeit des überfliegenden Lesers stimuliert und gelenkt hat. Ihre Auszählung könnte z. B. Auskunft darüber erteilen, wie viele Zeichen einer Ausgabe der historische Zeitungsleser durchschnittlich gelesen hat, die ins Verhältnis zu der Zeichenmenge gesetzt werden könnten, die er nicht gelesen hat. Allerdings würden damit keine empirischen Daten erhoben, sondern nur „artifizielle Objekte“ hervorgebracht, mithin etwas, das der von Wengraf konstruierte Zeitungstyp auch ist. Denn die digitale Auswertung bildet die zugrundeliegenden Datensätze hinsichtlich eines bestimmten Aspektes nicht einfach ab. „Man wählt eine Einheit – Spaziergänge, Gerichtsverfahren [. . .]. Man reduziert den Text auf einige wenige Elemente, isoliert diese aus dem Fluß der Narration und konstruiert so neue, artifizielle Objekte, wie die Karten, die ich vorgestellt habe“ (2009b, 67), schreibt Moretti. Und er fährt fort, indem er den Emergenzeffekt der Methode hervorhebt: „Mit ein wenig Glück können diese Karten mehr als die Summe ihrer einzelnen Teile sein“ (ebd.). Mit Hilfe dieser „artifizielle[n] Objekte“ (Moretti 2017, 12–13) können die literarischen Referenztexte in neuer Weise zugänglich gemacht werden: „Sie bringen völlig neue Eigenschaften des Textes ans Licht, die zuvor nicht sichtbar waren.“ (2009b, 67)
Virtualität der Literatur: Eine Sondierung
95
Auch wenn Morettis artifizielle Objekte ihre Konstruktivität hervorheben, weisen sie als Wiedergabe einer statistischen Erhebung dennoch eine referenzielle Beziehung zu dem Referenzkorpus, dem jeweiligen Datensatz, auf. In gewisser Weise suggerieren sie sogar eine doppelte Referenz auf die Textkorpora. Denn zum einen spricht Moretti von „ans Licht“ gebrachten, „neuen Eigenschaften des Textes“. In seinen weiteren Ausführungen verankert er die ausgewerteten Datensätze sozialhistorisch über die Topoi ‚Landflucht‘ und ‚Industrialisierung‘, womit die Karte sogar in eine Repräsentationsbeziehung zur außertextuellen historischen Wirklichkeit gesetzt wird. Zum anderen aber verweist die Darstellung als Karte, Kurve oder Diagramm – als ‚neues artifizielles Objekt‘ – auf die digitale Technologie ihrer Herstellung und Programmierung. Sie ist folglich in dem Sinn virtuell, dass sie eine Konnektivität zwischen der algorithmischen Auswertung der Textdaten und der semantischen Bedeutung der Erzählung, aber auch der sozialhistorischen Dimension seines Entstehungskontextes herstellt. Die Kurve existiert nur, weil sie mittels des Computers produziert wurde. Sie verweist auf eine Vielzahl von Texten, die ihr als Datenmaterial zugrunde liegen, und etabliert eine Perspektive, die an dem hinsichtlich bestimmter Elemente ausgewerteten Korpus etwas Neues zu sehen in Aussicht stellt. Die Benennung der für die algorithmische Erfassung der Textkorpora konstitutiven Einheit ist nicht allzu genau. Es ist nicht klar, wie ein Element wie der „Spaziergang“ aus dem Textganzen isoliert werden kann. Was ist mit der Einheit „Spaziergang“ überhaupt gemeint? Mit Blick auf den Ulysses lässt sich diese Frage keineswegs einfach beantworten, gerade weil der Spaziergang für den Text konstitutiv ist. Man kann den Spaziergang als Element, das der Erfassung seiner Häufigkeit im Roman unterzogen wird, kaum isolieren. Es wäre jedoch möglich, die Häufigkeit der Verwendung des Wortes „Spaziergang“ zu erfassen. Jedoch sind die Häufigkeit des Wortes „Spaziergang“, der Spaziergang in der diegetischen Welt und eine Poetik des Spaziergangs ganz unterschiedliche Gegenstände.
3 Virtuelle Literatur Derrida unterscheidet an und mit Joyce zwischen Studien, die ihre Gegenstände mit Hilfe des Computers erforschen, und Studien, deren Gegenstände zwar auch mit Hilfe des Computers erforscht werden können, aber die in sich selbst bereits einen Bezug zum Computer unterhalten. Und dieser Bezug liegt keineswegs nur darin, dass solche Texte den Computer thematisieren oder mit dem Computer oder im Internet entstanden sind. Vielmehr wäre der Bezug auf den Computer in den zu untersuchenden Texten zuallererst zu entziffern, zu lesen
96
Natalie Binczek und Armin Schäfer
und begrifflich zu fassen. Offensichtlich hat Joyce nicht mit dem Computer gearbeitet oder ihn in seinen Romanen als ein Thema behandelt. Derrida deutet an, dass dieser Bezug von Joyce auf den Computer auf doppelte Weise gefasst werden kann. Einerseits sind die Romane in eine spezifische medienhistorische Situation gestellt, in deren Horizont bereits der Computer aufscheint: Sowohl Ulysses als auch Finnegans Wake überschreiten das Konzept des Werks auf dasjenige eines komplexen, über die Einzeltexte hinausweisenden Datensatzes. Andererseits bilden die Romane einen Bezug auf den Computer aus, insofern sie etwas leisten, das der Computer eben nicht oder nicht so gut leisten kann, zum Beispiel, wie in Finnegans Wake, semantische Verknüpfungen über die Grenzen der einzelnen Sprachen hinweg herzustellen. Es sei dahingestellt, ob Derridas Argument triftig war oder immer noch ist. In einem zweiten Schritt deutet Derrida an, dass der Einsatz des Computers in der Forschung auf seinen Gegenstandsbereich zurückwirkt. Der Computer, der in den von Derrida imaginierten ‚Joycean Studies‘ eingesetzt wird, ist anderes und mehr als ein bloßes Hilfsmittel der Forschung. Vielmehr trifft der Computer in diesen Forschungen auf sich selbst als etwas, das bereits in und mit dem Gegenstand irgendwie anwesend ist. Virtualität ist eine Eigenschaft von Texten, die unter spezifischen medienhistorischen Bedingungen besonders prägnant hervortritt. Im besten Fall unterhalten die literarischen Texte bereits eine reflexive Beziehung zu ihrer virtuellen Dimension. In ihrer Gemachtheit – ihrer Poetik – weisen sie bereits eine reflexive Beziehung auf ihre (künftige) Digitalisierung und ihre universale Konnektivität auf. Sie sind bereits mit dem Computer verknüpft, obwohl es ihn zum Zeitpunkt ihrer Entstehung noch nicht gab. Sie nehmen ihn jedoch nicht nur vorweg, sondern weisen auch seine Grenzen, seine Setzungen und Vorentscheidungen als anders mögliche auf. Die Verfahren der digital humanities sind prinzipiell auf alle Texte anwendbar. Weder machen sie einen Unterschied zwischen Texten mit selbstreferenziellen Strukturen und populärer Literatur, noch verfügen sie über Werkzeuge, um ästhetische Distinktionen zu beschreiben. Wenn jede literarische Publikation – in Absehung ihrer jeweiligen ästhetischen Qualität – der quantitativen Erfassung und Übersetzung in Karten, Kurven und Stammbäume zugänglich ist, kann die Literaturgeschichte neu vermessen werden. Unser Interesse ist jedoch auf Texte gerichtet, die selbst ein reflexives Verhältnis zur Digitalität gewinnen und eine Unterscheidung zwischen Digitalität
Virtualität der Literatur: Eine Sondierung
97
und Virtualität einfordern. Das folgende Beispiel stammt aus dem Erzählband Feldforschung von Thomas Meinecke, der 2006 erschienen ist: ODYSSEY Cruising with John Rechy, 1973 Friday 11:07 A.M. 01:04 P.M. 02:25 P.M. 03:48 P.M. 05:12 P.M.
The Apartment. The Gym. Santa Monica. The Beach. The Pier. The Restroom by the Pier. Hollywood Boulevard.
(Meinecke 2006, 98)
Auf knapp vier Seiten ordnet die Erzählung in dieser Form unterschiedlichen Wochentagen und Tageszeiten bestimmte, den literarischen Werken wie der Autobiographie John Rechys entnommene Orte zu. Die Aufzeichnung endet mit dem Eintrag Sunday [. . .] 04:15 A.M. The Garage on Oak Street. The Tunnels. The Garage. Greenstone Park. Montana Street. Hanson Avenue. The Garage.
(Meinecke 2006, 101)
Auf der Grundlage einer selektiven Auswertung der Texte eines bestimmten literarischen Autors – es geht um den schwulen Autor John Rechy, der durch Los Angeles streift – erstellt Meinecke einen neuen literarischen Text, der seinerseits als Ergebnis eines distant reading lesbar ist. Die Erzählung selbst bezeichnet das Verfahren in mehrdeutiger Weise als „Cruising“, das auch eine Variante des Spaziergangs darstellen kann. Die angewandten Suchkriterien werden nicht offengelegt. Ein Anspruch auf Vollständigkeit wird auch nicht erhoben. Der Eindruck der Kontingenz stellt sich ein. Die Erzählung reflektiert die Verfahrensweise des distant reading, indem sie sie als ein virtuelles Objekt vorführt, das im Text aktualisiert ist und ohne diagrammatische Veranschaulichung auskommt. Zwar sehen die Kurven, Netze und Stammbäume, die im Rahmen des digitalen distant reading entstehen, wesentlich dichter, komplexer und vernetzter aus als die einfachere Auflistung der Zeit- und Ortsangaben in Meineckes Erzählung „Odyssey“. Jedoch drängt sich gerade durch diesen Vergleich die keineswegs leicht zu entscheidende Frage auf, wo denn eigentlich die Grenze zwischen big und small data verläuft.8
8 Der in Andrew Pipers Enumerations ausgewertete Datensatz ist nicht nur vergleichsweise überschaubar, sondern gehört zudem auch zum Höhenkamm. In dieser Hinsicht widerspricht sein Ansatz der Engführung von distant reading und digital humanities.
98
Natalie Binczek und Armin Schäfer
„Neue artifizielle Objekte“ bringen sowohl Moretti als auch Meinecke hervor. Sie verbinden mit ihnen jedoch unterschiedliche Bedeutungen und Funktionen. Meineckes Lesart des Werks von John Rechy demonstriert, dass ein selektives Lesen artifizielle Objekte eigener Art – einen literarischen Text – generiert. Der John-Rechy-Bezug wird nur innerhalb dieses ‚artifiziellen Objekts‘ markiert, nämlich als Paratext im Untertitel, weshalb er zum unmittelbaren Umfeld des Textes gehört und von ihm nicht abzulösen ist. Meineckes Liste erstellt auf der Grundlage eines unbestimmten Korpus von Texten die Koordinaten einer Fahrt von John Rechy durch Los Angeles.9 Meineckes literarisches Verfahren lässt offen, ob die Liste als eine Analogie zur polizeilichen Überwachung und Bespitzelung des schwulen Autors oder als eine Analogie zum ‚Cruising‘, also zum Bummeln und Herumschweifen, aber auch zum Getrieben-Sein zu verstehen ist. Nicht zuletzt ist die Frage aufgeworfen, inwiefern der Vorgang des ‚Cruising‘ in das Feld des Spaziergangs fällt. Man kann in Meineckes Liste eine digressive Bewegung entziffern, die ihrerseits auf eine Literaturgeschichte des Spaziergangs verweist. In der Liste fehlt offensichtlich, was in den Texten einer Literaturgeschichte des Spaziergangs hervortritt: Die digressive Bewegung, die der Text sowohl in Gang setzt als auch dokumentiert, besitzt kein explizites Objekt. Vielmehr wird die Bewegung auf einige räumliche und zeitliche Koordinaten, mithin auf Daten reduziert. Die Erzählung führt komplexe narrative Zusammenhänge auf einige wenige raum-zeitliche Bestimmungen zurück: Sie ‚extrahiert‘ aus einem Korpus einen Datensatz, der seinerseits ein virtuelles Objekt formt. Die Literaturwissenschaft kann mit Hilfe der neuen computergestützten Beobachtungsbedingungen sowohl die Verknüpfungen in und zwischen literarischen Texten erforschen als auch mittels computergenerierter Verknüpfungen in und zwischen Texten neuartige virtuelle Objekte hervorbringen. Derrida behauptet in seiner Lektüre der Romane von James Joyce, dass sie einer „Datenverarbeitungsmaschine der 1000sten Generation“ (Derrida 1988c, 16) vergleichbar seien: Insbesondere Finnegans Wake ist ein Text, der unzählige innere Verknüpfungen besitzt und unzählige Verknüpfungen mit anderen Texten eingehen kann. Der Roman impliziert virtuelle Verknüpfungen, die eine „praktische Herausforderung“ des Computers sind: „Die Anschlüsse zu zählen, die Geschwindigkeit der Verbindungen oder die Länge der Strecken zu berechnen, wäre tatsächlich zumindest so lange unmöglich, wie wir die Maschine nicht gebaut hätten, die alle
9 Die Listen als literarisches Erzählmittel sind für die Popliteratur gut aufgearbeitet (siehe zuletzt: Schaffrick 2016). Entscheidend ist dabei, dass die Liste als Auflistung und damit als Aufzählung fungiert (Mainberger 2003). Die Liste rückt insofern in die Nähe des Zählens.
Virtualität der Literatur: Eine Sondierung
99
Variablen, alle quantitativen und qualitativen Faktoren integrieren könnte. Da können wir noch lange warten.“ (Derrida 1988b, 16–17). Das Warten, so scheint es, hat sich gelohnt: Die Erschließung und Darstellung der virtuellen Verbindungen, die innerhalb einzelner literarischer Texte und zwischen literarischen Texten bestehen, ist mittlerweile ein genuines Arbeitsfeld der digital humanities geworden. Der Unterschied zwischen dem literarischen Text und den computergestützten Beobachtungsbedingungen liegt für Derrida in der Nachträglichkeit, die den Einsatz des Computers kennzeichnet: „Die Maschine wäre jedenfalls nur das schwerfällige Double des Ereignisses ‚Joyce‘, die Simulierung dessen, was dieser Namen zeichnet oder bezeichnet, das unterzeichnete Werk, die Software Joyce heute, die Joyceware. Zweifellos ist sie im Herstellungsprozeß; die Weltinstitution der Joyce-Studien, die James Joyce Inc. arbeitet an ihr, wenn sie es nicht schon selbst ist.“ (Derrida 1988b, 17). Die Konnektivität, die der Computer nachträglich an den Texten aktualisiert, ist von anderer Art als die virtuellen Verknüpfungen im Text. Es gibt ein Ensemble medientechnischer und medienhistorischer Bedingungen, die wir summarisch als Digitalisierung fassen. Unter deren Prämisse liegen Texte und ihre Umgebungen als neuartige, eben als digitale Objekte vor, die einer Bearbeitung durch den Computer zugänglich sind. Die Rückwirkung des Computers auf die Aktualisierungen einer Virtualität, die in der Literatur steckt, ist jedoch etwas anderes als die Digitalisierung der Literatur. Zwar ist offensichtlich, dass ein Text wie Abfall für alle von Rainald Goetz eine affirmative Beziehung zum Computer und zur Digitalität besitzt, insofern er auf einen Internetblog zurückgeht und die Digitalisierung in ihren verschiedenen Erscheinungsformen verhandelt. Abfall für alle erscheint dem Beobachter als ein virtuelles Objekt, insofern der Text die Digitalisierung auf eine neue Dimension hin öffnet und beispielsweise in der Übertragung von einer Internetplattform in das Medium Buch spezifische virtuelle Konstellationen zur Erscheinung bringt. Selbstverständlich weisen Thomas Meineckes Erzählungen aus dem Erzählband Feldforschung einen Bezug zur digitalen Kultur auf. So wird zum Beispiel in der Erzählung „Kings & Queens“ eine Chat-Konversation zitiert, oder die Erzählung „Odyssey“ setzt Verfahren des distant reading ein. Jedoch definieren die Thematisierung der Digitalisierung oder das Schreiben mit dem Computer und im Netz nicht schon die Virtualität der Literatur. Die Bezeichnung Virtualität der Literatur lässt offen, wie der Genitiv zu verstehen ist. Man kann ohne den Zusammenhang, in dem er gebraucht wird, nicht entscheiden, ob ein Genitivus subiectivus oder ein Genitivus obiectivus vorliegt. Auch wenn der Genitiv der Kasus ist, der ein Abstammungsverhältnis oder eine Abhängigkeit bezeichnet, bleibt das Abhängigkeitsverhältnis selbst unklar. Ist der Titel als ein Genitivus subiectivus zu lesen, in dem das Genitiv-Attribut, also
100
Natalie Binczek und Armin Schäfer
die „Literatur“, als die Quelle oder die Ursache der Virtualität zu begreifen ist? Oder ist der Titel als ein Genitivus obiectivus zu lesen, in dem das Genitiv-Attribut, also die „Literatur“, das Ziel einer auf sie ausgeübten Handlung, also ihrer Analyse mittels des Computers ist? Ist die im Genitiv stehende Literatur das Subjekt, das auf die Virtualität regiert? Oder ist die im Genitiv stehende Literatur das Objekt, das von der Virtualität regiert wird? Man könnte zugespitzt vielleicht behaupten, dass Moretti der Virtualität der Literatur dadurch Rechnung zu tragen sucht, dass er sein Augenmerk auf den Gentivus obiectivus in der Formulierung legt: Die Literatur ist das Objekt, auf das er die neuen computergestützten Beobachtungsbedingungen anwendet. Er fragt, wie die computergestützten Beobachtungsbedingungen die Literatur in ein neuartiges, virtuelles Objekt verwandeln. Die Perspektive der klassischen Literaturwissenschaft hingegen fokussiert auf den Genitivus subiectivus. Sie begreift die Literatur als die Quelle oder den Urheber einer Virtualität, die aber – wie wir unterstreichen möchten – im Prinzip, wie in den Beispielen des virtuellen „yes“, auch ohne den Computer zu entdecken ist. Vor diesem Hintergrund wird unseres Erachtens deutlich, dass die Bezeichnung Virtualität der Literatur ihre Rechtfertigung nicht schon dadurch gewinnt, dass literarische Texte einen Bezug zu den Verfahren des Computing, der „Digitalisierung medialer Formate“ und der „Ausbildung eines globalen kommunikativen Netzes, des Internets“ (Reckwitz 2018, 225 und 230) unterhalten. Vielmehr setzt die Virtualität der Literatur – Genitivus subiectivus – voraus, dass die Texte die Beobachtungsbedingungen der Digitalisierung auf das kontingent Mögliche der Literatur beziehen.
Literatur Cohen, Margaret. The Sentimental Education of the Novel. Princeton, NJ: Princeton University Press, 1999. Derrida, Jacques. „UM-STÄNDE“. Ulysses Grammophon. Berlin: Brinkmanns & Bose, 1988. 5–7. Derrida, Jacques. „Ulysses Grammophon“. Ulysses Grammophon. Berlin: Brinkmann & Bose, 1988a. 44–116. Derrida, Jacques. „Zwei Deut für Joyce“. Ulysses Grammophon. Berlin: Brinkmann & Bose, 1988b. 11–39. Derrida, Jacques. „Ulysses Grammophone: Hear Say Yes in Joyce“. Derrida and Joyce. Texts and Contexts. Hg. Andrew J. Mitchell und Sam Slote. Albany, NY: State University of New York Press, 2013. 41–86. Duncan, Ian. „The Provincial and Regional Novel“. A Companion to the Victorian Novel. Hg. Patrick Brantlinger und William Thesing. Oxford: Blackwell, 2002.
Virtualität der Literatur: Eine Sondierung
101
Esposito, Elena. „Fiktion und Virtualität“. Medien, Computer, Realität. Wirklichkeitsvorstellungen und Neue Medien. Hg. Sybille Krämer. Frankfurt a.M.: Suhrkamp, 1998. 269–296. Jannidis, Fotis, Hubertus Kohle und Malte Rehbein. Digital Humanities. Eine Einführung. Stuttgart: Metzler, 2017. Mainberger, Sabine. Die Kunst des Aufzählens. Elemente zu einer Poetik des Enumerativen. Berlin, New York: De Gruyter, 2003. Maye, Harun. „Blättern“. Historisches Wörterbuch des Mediengebrauchs. Hg. Heiko Christians, Matthias Bickenbach und Nikolaus Wegmann. Köln, Weimar, Wien: Böhlau, 2015. 135–148. Meinecke, Thomas. „Odyssey“. Feldforschung. Erzählungen. Frankfurt a.M.: Suhrkamp, 2006. 98–101. Moretti, Franco. „Einleitung“. Kurven, Karten und Stammbäume. Abstrakte Modelle für die Literaturgeschichte. Frankfurt a.M.: Suhrkamp, 2009a. 7–9. Moretti, Franco. „Karten“. Kurven, Karten und Stammbäume. Abstrakte Modelle für die Literaturgeschichte. Mit einem Nachwort von Alberto Piazza. Frankfurt a.M.: Suhrkamp 2009b. 47–81. Moretti, Franco. Literatur im Labor. Paderborn: Konstanz University Press, 2017. Nassehi, Armin. Muster. Theorie der digitalen Gesellschaft. München: Beck, 2019. Pethes, Nicolas. „Actor-Network-Philology? Papierarbeit als Schreibszene und Vorwegnahme quantitativer Methoden bei Jean Paul“. Medienphilologie. Konturen eines Paradigmas. Hg. Friedrich Balke und Rupert Gaderer. Göttingen: Wallstein, 2017. 199–214. Piper, Andrew. Enumerations. Data and Literary Study. Chicago, London: The University of Chicago Press, 2018. Reckwitz, Andreas. Die Gesellschaft der Singularitäten. Zum Strukturwandel der Moderne. Berlin: Suhrkamp, 2018. Reid, Darren. „Distant Reading, ‚The Great Unread’, and the 19th-Century British Conceptualizations of the Civilizing Mission. A Case Study“. Journal of Interdisciplinary History of Ideas 8.15 (2019): 1–20. Rieger, Stefan. „Menschensteuerung. Zu einer Wissensgeschichte der Virtualität“. Exploring Virtuality. Virtualität im interdisziplinären Diskurs. Hg. Sabine Jeschke, Leif Kobbelt und Alicia Dröge. Wiesbaden: Springer, 2014. 19–43. Ryan, Marie-Laure. Narrative as Virtual Reality. Immersion and Interactivity in Literature and Electronic Media. Baltimore, London: Johns Hopkins University Press, 2001. Schaffrick, Matthias. „Listen als populäre Paradigmen: Zur Unterscheidung von Pop und Populärkultur“. KulturPoetik 16.1 (2016): 109–125. Stierle, Karlheinz. „Fiktion“. Ästhetische Grundbegriffe. Historisches Wörterbuch in sieben Bänden. Hg. Karlheinz Barck, Martin Fontius, Friedrich Wolfzettel und Burkhart Steinwachs. Bd. 2. Stuttgart, Weimar: Metzler, 2002. 380–428. Thomé, Horst. „Werk“. Reallexikon der deutschen Literaturwissenschaft. Hg. Jan-Dirk Müller. Bd. III, P-Z. Berlin, New York: De Gruyter, 2007. 832–834. Wengraf, Edmund. „Kaffeehaus und Literatur“. Wiener Literatur-Zeitung (15. Mai 1891).
Affekte
Felix Raczkowski
Vom epistemischen Überschuss virtueller Welten: Online-Spiele zwischen Ritual, Labor und Sozialexperiment 1 Einleitung und Königsmord Der Königsmord stellt das größtmögliche Verbrechen in Souveränitätsgesellschaften dar, wie Foucault im ersten Teil seines Buchs „Überwachen und Strafen“ dargelegt hat (Foucault 1991[1977], 71). Seit 1997 wissen wir, dass diese Feststellung nicht nur für realweltliche Monarchien, sondern auch für ihre fiktionalen, virtuellen Entsprechungen in digitalen Spielen zutrifft. Der berühmteste Königsmord der Spielgeschichte trug sich am 9. August 1997 im fiktiven Königreich Britannia zu, das seit 1981 Schauplatz der Ultima-Rollenspielreihe ist (Origin Systems/Electronic Arts 1981/1999), die von Richard Garriott entwickelt und lange Jahre als Chefdesigner geprägt wurde. Garriott hat sich in seinen Ultima-Spielen dabei immer selbst in Form seines Alter Ego, Lord British, verewigt, der als freundlicher Herrscher Britannia regiert und in den Spielen als wichtiger non-player-character (NPC) fungiert, mit dem die Spieler*innen interagieren können. Da die Ultima-Spiele ebenfalls bereits relativ früh in der Spielgeschichte eine Reputation dafür hatten, ihren Spieler*innen relativ große Freiheiten zu lassen,1 haben diese das zum Anlass genommen, Lord British regelmäßig zu töten. Der Spaß an der Sache besteht hier einerseits darin, den symbolischen Stellvertreter des Spieldesigners im Spiel umzubringen, andererseits waren die Königsmorde auch immer eine spielerische Herausforderung, da sie im Spielablauf eigentlich nicht vorgesehen waren und die Spieler*innen Wege finden mussten, um mit der hohen Zahl von Lebenspunkten des Lord British oder seinen verschiedenen magischen Schutzzaubern umzugehen.2
1 Ein Design-Paradigma, das heute unter den Begriffen Open World- und Sandbox-Games firmiert. 2 Heute finden sich im Internet Anleitungen, wie Lord British in jedem Spiel der klassischen Ultima-Reihe getötet werden kann (vgl. http://ultima.wikia.com/wiki/Killing_Lord_British). Anmerkung: Teile des hier vorliegenden Textes und der hier veröffentlichten Forschungsergebnisse sind in englischer Übersetzung in einen Beitrag namens „The Rule of Productivity and the Fear of Transgression. Speculative Uncertainty in Digital Games“ eingeflossen, der 2021 im von Jeanne Cortiel, Christine Hanke, Jan Simon Hutta und Colin Milburn herausgegebenen Band „Practices of Speculation: Modeling, Embodiment, Figuration“ im transcript Verlag erscheint. Open Access. © 2021 Felix Raczkowski, publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz. https://doi.org/10.1515/9783110638127-007
106
Felix Raczkowski
Im besagten August stand die Veröffentlichung des bis heute bekanntesten Ultima-Spiels kurz bevor: Mit Ultima Online (Origin Systems/Electronic Arts/Mythic Entertainment/Broadsword 1997–) hatte Garriots Firma eines der ersten MMORPGs, also der Massively Multiplayer Online Role Playing Games entwickelt. Hier spielt also die*der Spieler*in nicht alleine mit oder gegen den Computer, sondern hunderte Spieler*innen bewegen sich zusammen in derselben, persistenten Welt. In Ultima Online konnte Richard Garriott also nicht nur sein Alter Ego wie gewohnt platzieren, sondern die Figur bei Bedarf auch selbst steuern – eine ungewöhnliche Konstellation und besondere Attraktion für die Spieler*innen, versprach doch eine Begegnung mit Lord British im Spiel unter diesen Umständen die Chance, mit Richard Garriott selbst in Kontakt zu treten. In Ultima Online allerdings war Lord British durch einen administrativen Befehl der Entwickler3 unverwundbar, da die sehr offene Regelstruktur des Spiels es den Spieler*innen erlaubte, sich jederzeit gegenseitig anzugreifen und zu berauben. Als Ultima Online kurz vor der Veröffentlichung stand, wollten die Entwickler einen Stress-Test durchführen, also die Server des Spiels auf ihre Belastbarkeit prüfen, indem sie in der laufenden Testphase des Spiels möglichst viele Spieler*innen dazu brachten, sich gleichzeitig mit ihren Charakteren einzuloggen. Um die Beteiligung am Test zu steigern, kündigte Garriott an, als Lord British persönlich vor Ort zu sein und einige Worte an seine Untertanen zu richten. In den Wochen vor dem Test Anfang August hatte ein von den Entwicklern unbemerkter Neustart der Spielserver den Unverwundbarkeits-Befehl der Entwicklercharaktere gelöscht und Garriott vergaß, den Befehl am Tag seiner Ansprache neu einzugeben. So kam es, dass inmitten einer großen Ansammlung an Spielercharakteren, die gekommen waren, um Lord British sprechen zu hören, ein Spieler, der bis heute nur unter dem Namen seines Charakters „Rainz“ bekannt ist,4 eine gestohlene Fire Field Scroll, also einen Flächen-Feuerzauber, benutzte, um Lord British in einem flammenden Inferno zu töten. In unmittelbarer Folge des Attentats töteten die Entwickler, ohne zu differenzieren, alle anwesenden Spielercharaktere, wobei Rainz den Ort des Geschehens fluchtartig verlassen hatte. In Bezug auf Königsmorde gelten nun in digitalen Spielen zwei Regeln, die Foucault nicht berücksichtigen konnte. Erstens ist durch digitale Medien gewährleistet, dass der Mord zweifelsfrei aufgeklärt werden kann – ein Blick in die Logs des Spiel-Servers reichte, um zu ermitteln, dass Rainz verantwortlich war. Zweitens ist der
3 Es sind keine Entwicklerinnen bekannt. 4 Es existiert ein Interview des Magazins Online Gaming Review mit Rainz, in dem er als 23-jähriger, männlicher Software-Entwickler aus Indianapolis identifiziert wird (vgl. http://noc talis.com/dis/uo/blast02a.shtml).
Vom epistemischen Überschuss virtueller Welten
107
Tod in digitalen Spielen nicht von Dauer – ebenso wenig also, wie Lord British unwiederbringlich verloren war, wäre der Tod von Rainz eine angemessene Strafe für das größtmögliche Vergehen. Diese Strafe besteht in Onlinespielen üblicherweise in der Verbannung des Spielers*der Spielerin (also der Sanktion, die nach Foucault in der Souveränitätsgesellschaft die Familie des Königsmörders erwartete). Die*der Spieler*in wird dauerhaft vom Spiel ausgeschlossen, Rainz wurde in der Folge des Mordes an Lord British also aus Britannia verbannt.
Abb. 1: Lord British lebendig vor seinen Untertanen . . .
Es wäre nun möglich, die Parallelen zwischen Souveränitätsgesellschaften und Entwickler-Monarchien mit Foucault weiter zu untersuchen, aber dieser Beitrag verfolgt ein anderes Ziel, obwohl wir noch auf Foucault zurückkommen werden. Zunächst ist es bemerkenswert, dass die Anekdote um die Ermordung von Lord British als ein zentrales Ereignis in der Geschichte von Online-Spielen gilt, das trotz der 1997 noch begrenzten Möglichkeiten zur Aufzeichnung des Spielablaufs gut dokumentiert ist (Ramsay 2015, 128–130; Olivetti 2015). Aus der Perspektive einer*s Designer*in ist der Vorfall nichts Besonderes, sondern
108
Felix Raczkowski
Abb. 2: . . . und tot nahe der Flammenwand.
er kann auf unterschiedliche Systeme des Spiels zurückgeführt werden, die in einer Weise zusammenwirken, die unvorhergesehene, emergente Ergebnisse hervorbringen. Richard Garriott ist nach dieser Lesart selbst für das Ableben seines Alter Ego verantwortlich, weil er die Eingabe des Admin-Befehls für Unverwundbarkeit vergessen hat. Damit wäre die Ermordung von Lord British höchstens ein Beispiel für die systemische Flexibilität von Utima Online und für die Kreativität seiner Spieler*innen und damit nicht strafbar. Aber dennoch wird Rainz mit der Höchststrafe belegt. Dieser Einzelfall soll in diesem Text als Ausgangspunkt für eine Diskussion der grundlegenden Herausforderungen (digitaler) Spiele dienen, die zunächst im Rückgriff auf Spiel- und Ritualtheorien der Anthropologie und Kulturgeschichte diskutiert werden. In einem zweiten Schritt geht es dann anhand eines konkreten Beispiels darum, darzulegen, auf welche Weise digitale Spiele als epistemische Umgebungen in Erscheinung treten, in denen Verfahren erforscht und erprobt werden, mit denen negative Begleiterscheinungen des Spielens begrenzt werden sollen. Zuletzt wird die Frage nach der Übertragbarkeit des in Spielen gewonnenen Wissens gestellt.
Vom epistemischen Überschuss virtueller Welten
109
2 Die Gefahren des Spiels Die Verbannung von Rainz nach dem Mord an Lord British ist zu erklären, wenn man berücksichtigt, dass die Tat das Spiel in seinem Kern betrifft, womit hier nicht allein digitale Spiele gemeint sind. Spiele sind immer potentiell gefährlich; sie bergen das Risiko, transgressive Akte zu ermöglichen oder sogar herauszufordern. Spiele sind gefährlich und transgressiv im Sinne ihrer Wurzeln im Ritual, in dem, wie in der Ethnologie und der Anthropologie ausführlich dokumentiert ist, ebenfalls die Regeln des Alltags zeitweise suspendiert werden (van Gennep 2004 [1909]; Bataille 2014 [1951], Turner 1974). Während dieses temporäre Ersetzen alltäglicher Konventionen durch Spielregeln in der kulturhistorischen (Huizinga 2006 [1938]) und soziologischen (Caillois 1982 [1958]) Spielforschung als Wesensmerkmal des Spiels gesetzt wird und über den von Huizinga verwendeten Begriff des Zauberkreises in seiner Rezeption als Magic Circle durch die Game Designer Katie Salen und Eric Zimmerman (2003, 96) auch seinen Eingang in die Computerspielforschung findet, bleibt dabei meist unberücksichtigt, dass der Zauberkreis zunächst die Situation des Rituals beschreibt. In seiner Studie zu Übergangsriten nutzt der Anthropologe Arnold van Gennep den Begriff des Zauberzirkels, um auf die expliziten und impliziten Regeln der Riten hinzuweisen, die in den von ihm untersuchten Gesellschaften den Übergang von einem sozialen Status in einen anderen markieren, also etwa minder- zu volljährig oder unverheiratet zu verheiratet.5 Relevanter als die begriffsgeschichtliche Kontinuität ist allerdings van Genneps Feststellung, dass es sich bei Übergangsriten um soziale Situationen handelt, in denen Regelübertretungen und Transgressionen an der Tagesordnung sind. Im Hinblick auf die Initiationsriten von Liberia und Papua-Neuguinea führt van Gennep diese Regelbrüche aus: During the entire novitiate, the usual economic and legal ties are modified, sometimes broken altogether. The novices are outside society, and society has no power over them, especially since they are actually sacred and holy, and therefore untouchable and dangerous, just as gods would be. Thus, although taboos, as negative rites, erect a barrier between the novices and society, the society is defenseless against the novices’ undertakings. That is the explanation – the simplest in the world – for a fact that has been noted among a great many peoples and that has remained incomprehensible to observers. During the novitiate, the young people can steal and pillage at will or feed and adorn themselves at the expense of the community. (van Gennep 2004 [1909], 114)
5 Hier muss darauf hingewiesen werden, dass der Zauberkreis weder für van Gennep noch für Huizinga ein zentraler Begriff ist; beide verwenden ihn in ihren jeweiligen Arbeiten nur je ein einziges Mal. Erst in seiner Rezeption in der Computerspielforschung ist er als Magic Circle zu seiner heutigen Prominenz gelangt.
110
Felix Raczkowski
Wenn im Rahmen spezifischer Riten diejenigen Regeln gebrochen werden dürfen, die ansonsten das gesellschaftliche Zusammenleben erst ermöglichen, ist es konstitutiv für die Stabilität der Gesellschaft, dass die Regelübertretung ihrerseits streng geregelt und zeitlich begrenzt wird. Diese Begrenzung wird in den Spieltheorien Huizingas und Caillois zum Rahmen der weitgehend konsequenzverminderten Spielsituation, deren Verhältnis zur außerspielerischen Realität wiederum in der Computerspielforschung zur umfassend diskutierten Frage wird (vgl. Consalvo 2009; Stenros 2012). Um die Frage zu klären, unter welchen Bedingungen die erlaubte Regelübertretung im Ritual oder Spiel den Rahmen der Situation verlassen kann, die sie ermöglicht, ist es notwendig, eine weitere Spieltheorie zu berücksichtigen. Der Anthropologe, Psychotherapeut und Kybernetiker Gregory Bateson fasst das Spiel als eine Frage der (Meta-)Kommunikation auf. Nach Bateson eröffnet die Mitteilung „Das ist Spiel“ einen paradoxen kommunikativen Rahmen, innerhalb dessen Handlungen auf die Bedeutung verweisen, die sie außerhalb des Rahmens hätten, mit diesen aber nicht identisch sind: „Nicht nur bezeichnet das spielerische Zwicken nicht das, was durch den Biß bezeichnet würde, für den es steht, sondern darüber hinaus ist auch der Biß selbst fiktiv“ (Bateson 2007 [1955], 197), wie Bateson es selbst am Beispiel des Bisses im Spiel von Tieren ausdrückt. Wenn nun die Rahmung des Spiels immer von Kommunikation abhängt, bedeutet das, dass es zu Missverständnissen kommen kann. Diese Möglichkeit streift Bateson in seinem Aufsatz lediglich, führt sie aber anhand eines Beispiels ebenfalls auf die Verwandtschaft zwischen Spiel und Ritual zurück: Auf den Andamanen wird Friede geschlossen, nachdem jeder Seite die zeremonielle Freiheit gegeben wurde, die andere zu schlagen. Dieses Beispiel zeigt jedoch auch die Labilität des Rahmens ‚Dies ist ein Spiel‘ oder ‚Dies ist ein Ritual‘. Die Unterscheidung zwischen Karte und Territorium kann stets zusammenbrechen und die rituellen Streiche des Friedensschlusses tendieren immer dazu, als ‚reale‘ Kampfhiebe missverstanden zu werden. In diesem Fall wird die Friedenszeremonie zu einer Schlacht. (Bateson 2007 [1955], 197)
Rituelles oder spielerisches Kämpfen können also jederzeit in tatsächlichen Kampf übergehen, entweder, weil die Meta-Aussage „Das ist Spiel“ nicht bei allen Beteiligten angekommen ist oder weil einzelne Teilnehmer*innen den bestehenden Rahmen des Spiels unzulässig ausdehnen und erweitern. Ein Beispiel für den ersten Fall wären die tragischen Fälle von verletzten und getöteten Kindern in den USA, die von Polizist*innen angeschossen bzw. erschossen werden, da diese die Spielzeugpistolen der Kinder mit echten Waffen verwechselt haben (Sullivan et al. 2016). Ein Beispiel für den zweiten Fall
Vom epistemischen Überschuss virtueller Welten
111
wären Provokationen in verschiedenen Sportarten, wie Fußball oder Boxen. Im ersten Fall erreicht die Mitteilung „Das ist Spiel“ die Polizist*innen nicht, im zweiten Fall, der sich für dieses Vorhaben als interessanter erweisen wird, ist zwar allen Beteiligten klar, dass gespielt wird, aber eine Partei schließt persönliche Angriffe in das Spiel mit ein, die von den Mitspieler*innen nicht als fiktiv in Batesons Sinne aufgefasst werden. Kommen wir zur Ermordung von Lord British durch Rainz zurück. Im Sinne der bisher diskutierten Spiel- und Ritualtheorien lässt sich der Vorfall wie folgt beschreiben: Der den Regeln des Spiels Ultima Online entsprechende oder von ihnen gestattete Angriff auf Lord British wird seitens der Entwickler als Angriff auf Richard Garriott und seine Souveränität als Chefentwickler aufgefasst. Der Zauberkreis des Spiels kollabiert kurzzeitig und die fiktive, regelgemäße Handlung (die Tötung von Lord British) wird ununterscheidbar von der Handlung, auf die sie verweist, ohne mit ihr identisch zu sein (ein Angriff auf Richard Garriott). Im Falle von Ultima Online ergibt sich hier aus der Geschichte der Spielereihe, der Funktionen von Garriott und British und den kreativen Praktiken der Spieler*innen eine unterhaltsame Anekdote, auch deshalb, weil kein Zweifel daran besteht, dass Garriott den Vorfall unbeschadet überstanden hat. Dennoch zeigt sich hier im Kleinen eine, wie es die Medienphilosophin Astrid Deuber-Mankowsky formuliert, „Tücke[]“ (Deuber-Mankowsky 2001, 46) virtueller Welten in digitalen Spielen. Diese sind ebenso wenig frei von Folgen für ihre Nutzer*innen wie die Rituale, in deren kulturhistorischer Tradition sie theoretisiert werden: In dem Moment, in dem Datenstrukturen sinnlich exploriert werden, sind sie auch erfahrbar. Sie können gesehen, gehört und mit dem entsprechenden technischen Zubehör auch angefaßt werden. [. . .] Was aber in dieser Weise erfahrbar ist, wurde zumindest bis dahin auch als real bzw. als wirklich wahrgenommen. Mit der Möglichkeit einer wirklichen Interaktion mit virtuellen Welten wird somit nicht nur der Status der Virtualität, sondern auch jener der Realität fragwürdig. (Deuber-Mankowsky 2001, 47 [Hervorh. i.O.])
Das Verhältnis von Virtualität und Realität, das Deuber-Mankowsky darlegt, entspricht dabei der hier diskutierten Beziehung des digitalen Spiels zur außerspielerischen Realität. Dieses Verhältnis zeigt sich nun dort als besonders problematisch, wo verletzende Gesten und Sprache im Rahmen des Spiels als real wahrgenommen werden und sich dies nicht auf Einzelfälle beschränkt, sondern zum kennzeichnenden Massenphänomen für ganze Gaming-Communities wird.
112
Felix Raczkowski
3 Epistemologie und Verhaltensreform In dem Maße, in dem Transformationen in den vergangenen Jahren die Computerspielindustrie dahingehend verändert haben, dass kostenlose (free to play6) Multiplayer-Spiele, die teils über Jahre hinaus von ihren Entwickler*innen betrieben und mit Erweiterungen versehen werden, das dominante Paradigma der Industrie darstellen (Cai et al. 2014), verstärkt sich das eingangs geschilderte Problem erheblich. Es geht nun zumeist nicht mehr um einzelne Spielhandlungen, die als Affront aufgefasst und bestraft werden können, sondern um das kontinuierliche Verhalten von Spieler*innen, die Beleidigungen und persönliche Angriffe zum alltäglichen Bestandteil des Onlinespiel-Diskurses machen. Dieses Verhalten, das in der Industrie als toxisch (Castello 2018) bezeichnet wird, wird zwar bisweilen auch mit dem Verweis auf die Konsequenzlosigkeit von Spiel-Handlungen entschuldigt, die (nach Bateson) nicht bezeichnen, was jenseits des Spiels mit ihnen bezeichnet würde, aber es hat ähnliche Folgen wie der rituelle Schlag, der als tatsächlicher Angriff aufgefasst wird. Auch verletzende Sprache in digitalen Spielen bleibt nicht immer folgenlos für ihre Adressat*innen.7 Toxisches Verhalten wird für die Publisher*innen und Entwickler*innen von Spielen zum Imageproblem und zum ökonomischen Risikofaktor, da Online-Spiele des free to play-Modells auf eine möglichst große Zahl von Nutzer*innen und damit auf einen regelmäßigen Zulauf neuer Spieler*innen angewiesen sind. Zugleich ist es, anders als noch bei Ultima Online, nicht möglich, alle schwerwiegenden Transgressionen mit der Verbannung zu bestrafen, weil der Verlust des Zugangs zum Spiel erstens unter den Bedingungen kostenloser Spiele seinen Schrecken verliert und zweitens den Geschäftsinteressen der Publisher zuwiderläuft.8
6 Als ‚free to play‘ wird in der Spiele-industrie ein Verwertungsmodell bezeichnet, bei dem das eigentliche Spiel kostenlos zur Verfügung gestellt wird und der Hersteller am Verkauf optionaler Zusatzinhalte (sogenannter micro transactions) wie etwa grafischer Modifikationen der Spielfiguren und Avatare verdient. 7 An dieser Stelle muss darauf hingewiesen werden, dass es verschiedene Untersuchungen zu hate speech nicht nur, aber insbesondere im Bereich digitaler (Online-)Spiele gibt, die dieses Phänomen z. B. auf problematische Geschlechterbilder in Gaming Communities zurückführen (Mortensen 2018). In diesem Text geht es aber dezidiert nicht um eine solche Kontextualisierung des Problems, sondern um die Strategien, mit denen Publisher*innen und Entwickler*innen das Problem zu adressieren versuchen. 8 Es wäre den bestraften Spieler*innen ohne weiteres möglich, einen neuen Zugangsaccount für das Spiel anzulegen und erneut teilzunehmen. Zugleich bestünde mit jedem Bann die Gefahr, eine Kund*in für zukünftige micro transactions dauerhaft zu verlieren.
Vom epistemischen Überschuss virtueller Welten
113
Für das Problem der Toxicity müssen also andere Lösungen gefunden werden, die sich abermals mit Foucault als die Versuche von Entwicklerstudios beschreiben lassen, die Spieler*innen ihrer Produkte und Dienste als reformbedürftige Individuen zu fassen (Focuault 1991[1977]). Anstatt Strafen zu verhängen, die verhindern, dass sich transgressives Verhalten wiederholt, sollen nun Maßnahmen ergriffen werden, um ganze Communities (man könnte angesichts von Onlinespielen mit 100 Millionen monatlichen Spieler*innen auch von Populationen sprechen) in einer Weise zu reformieren, die dafür sorgt, dass problematisches Verhalten nicht auftritt. Dafür werden teilweise Methoden in Anschlag gebracht, mit denen wissenschaftliches Wissen über die Spieler*innen-Populationen erzeugt und erhoben werden soll. Besonders das US-amerikanische Entwicklerstudio Riot Games ist seit 2012 mit dem Versuch hervorgetreten, das Problem des toxischen Verhaltens in Onlinespielen wissenschaftlich zu fassen und zu lösen. Riot Games ist seit seiner Gründung im Jahr 2006 besonders mit einem Spiel verbunden, das zugleich zu den weltweit erfolgreichsten free-to-play-Spielen zählt: League of Legends (Riot Games 2009). League of Legends (von hier an als LoL abgekürzt) wiederum galt in den frühen 2010er Jahren als Spiel mit einer sehr problematischen, von toxischen Verhaltensweisen geprägten Community (LeJacq 2015). LoL zu spielen, bedeutete, regelmäßig über die Chatfunktion des Spiels verbal angegriffen und beleidigt zu werden, was die Wahrnehmung des Spiels auch nach Außen prägte. Riot Games gründete daraufhin das interne Player Behavior Team, das mit Jeffrey Lin von einem promovierten Neuropsychologen und Game Designer geleitet wird (Hudson 2014). In seiner Zeit bei Riot Games (2012–2016) wurde das Player Behavior Team weiter ausgebaut und es werden weitere Psycholog*innen als Game Designer*innen angestellt. Lin, aus dessen Doktorarbeit Patente für ein System hervorgegangen sind, das effiziente Werbung in vorgespulten Medieninhalten möglich machen soll (Lin et al. 2012), geht das Problem der Toxizität als verhaltenspsychologische Herausforderung an und sammelt mit dem Player Behavior Team zunächst Daten darüber, in welchen Zusammenhängen es zu toxischem Verhalten kommt und welche Spieler*innen besonders häufig beteiligt sind. Mit anderen Worten: Die Anomalität der Spieler*innenschaft und ihre Transgressionen müssen formalisiert werden (Foucault 2007[1999]). Für die Datenbasis dieser Formalisierung ist entscheidend, dass moderne, digitale Online-Spiele eine Vielzahl von Daten über ihre Spieler*innen automatisch erheben, die Lins Team dann verhaltenspsychologisch auswertet. Das Spiel wird, wie es ein Artikel im Magazin Wired treffend ausdrückt, der über die Bemühungen von Riot Games berichtet, zum „largest virtual psychology lab in the world“ (Hsu 2015). Anders als etwa bei Social-Media-Plattformen wie Facebook ist die Datenerhebung in Online-Spielen wie LoL allerdings nicht zuvorderst kommerziell
114
Felix Raczkowski
Abb. 3: League of Legends.
motiviert9, sondern in den meisten Fällen schlicht technisch notwendig, um das Spiel und seine begleitenden Services zu gewährleisten. So werden Chatverläufe automatisch gespeichert und es besteht in vielen Online-Spielen für Beschwerden ein Reporting-System, das es Spieler*innen ermöglicht, den Entwickler*innen problematisches Verhalten oder Regelübertretungen (Cheating) zu melden. Diese Meldungen ziehen dann eine Einzelfallprüfung durch Beschäftigte des Entwicklerstudios nach sich, nach der der*die jeweilige Spieler*in entweder bestraft oder begnadigt wird. Auch LoL verfügt über solche Funktionen, die nach ersten Auswertungen zu der Erkenntnis führen, dass sich Grenzüberschreitungen während des Spiels nicht hauptsächlich wenigen Intensivtäter*innen zuschreiben lassen, sondern als grundsätzliches Problem der Community des Spiels aufgefasst werden müssen, da die überwiegende Mehrheit der gemeldeten Verstöße im Bereich toxischen Verhaltens sich breit auf die Spieler*innenschaft verteilt. In den Worten Jeffrey Lins kann jede*r Spieler*in zur Täter*in werden, ein schlechter Tag reiche aus, um die eigene Laune im Spiel an den Mitspieler*innen auszulassen (Lin 2013). Um weitere Daten über das Verhalten der Spieler*innen zu
9 Zwar ist davon auszugehen, dass auch Spiel-Publisher*innen die durch die Nutzung ihrer Spiele generierten Daten auswerten, um etwa künftige Spielinhalte zielgruppenorientierter zu entwickeln. Für das unmittelbare Geschäftsmodell sind diese Datenauswertungen aber nachrangig, wohingegen sie für Dienste wie Facebook zentrale Bedeutung haben.
Vom epistemischen Überschuss virtueller Welten
115
gewinnen, implementiert das Player Behavior Team zwei verschiedene Systeme in LoL, wobei das erste auf das oben geschilderte Verfahren zur Meldung von Verstößen zielt. Aus der Perspektive von Game-Designer*innen und Verhaltenspsycholog*innen gibt es zwei Probleme mit solchen Meldeverfahren. Erstens ist es kostenund arbeitsintensiv, ein Team für die Beratung über die entsprechenden Fälle zu beschäftigen. Je mehr Spieler*innen ein Online-Spiel hat, desto mehr Meldungen und Beschwerden werden über die entsprechenden Dienste eingehen, was wiederum steigende Kosten für die Sichtung und Beurteilung dieser Meldungen nach sich zieht. LoL ist seit Jahren eines der weltweit größten Online-Spiele. Zweitens ist nach gängiger psychologischer Lehrmeinung nicht mit einer Veränderung des Verhaltens der Bestraften zu rechnen, wenn ihnen der Prozess der Beurteilung ihrer Transgression nicht transparent gemacht und die eventuelle Strafe begründet wird. Das Player Behavior Team von Riot Games löst beide Probleme, indem es der Community, also den Spieler*innen selbst das Urteil über die transgressiven Spieler*innen überlässt. Ein Report zieht nun also ein Tribunal nach sich, bei dem eine Gruppe von (am Vorfall unbeteiligten) Spieler*innen über die Beschuldigten urteilt und eine Strafe verhängt. Das geschieht anhand von Beweisen, die das Spiel immer schon mitliefert und erhebt, wie z. B. gespeicherten Chat-Logs, die die Richter*innen des Verfahrens einsehen können. Die Spieler*innen sind also in der Situation, gewissermaßen als Beobachter*innen auf eine Bateson’sche missverständliche Spielsituation zu schauen und zu urteilen, ob es sich um ein Spiel handelt oder um problematisches Verhalten. Diese Problematik wird besonders anhand der Hinweise deutlich, die den Richter*innen bei der Entscheidungsfindung helfen sollen. Hier heißt es: „The Chat Log may contain some colorful language. Try to distinguish between offensive speech and playful ribbing when reaching a verdict“ (Riot Games Tribunal, 2011). Laut Riot Games arbeitet das Tribunal zuverlässig und die Entscheidungen der Spielercommunity decken sich zu 80% mit denen, die das Team der Entwickler gefällt hätte (Lin 2013). Die Spieler*innen erweisen sich also, mit Bateson gesprochen, als erwartbar talentiert darin, die Paradoxa zu navigieren, die von dem ihnen vertrauten Spiel hervorgebracht werden. Das Ergebnis des jeweiligen Tribunal-Urteils wird den Betroffenen schließlich als sogenannte Reform Card mitgeteilt, eine Art virtueller Klassenbucheintrag, der neben Belegen des Vergehens und der Strafe auch den Prozess der Urteilsfindung bzw. Begründung mit dokumentiert. Die zweite systemische Intervention des Player Behavior Teams betrifft die ebenfalls psychologische, in diesem Falle neobehavioristische Erkenntnis, dass allein negative Verstärkung (also Bestrafungen) weniger effizient in der Verhaltensmodifikation sind, als gezielte Belohnungen. Riot Games implementiert
116
Felix Raczkowski
also als Gegenstück der Strafen des Tribunals ein System der positiven Verstärkung, das – passend zum phantastischen Sujet des Spiels – als Honor System bezeichnet wird. Anders als in behavioristischen Experimentalanordnungen, aber passend zur Funktionsweise der Tribunale, werden die zu verstärkenden Parameter nicht von den Experimentator*innen des Player Behavior Teams gesetzt, sondern von den Spieler*innen selbst gewählt: Nach jeder Partie LoL sind die teilnehmenden Spieler*innen aufgerufen, diejenigen unter ihnen auszuzeichnen, die sich besonders sportlich oder freundlich verhalten haben (es ist nicht möglich, für sich selbst zu stimmen). Diejenigen der zehn Spieler*innen,10 auf die die meisten Stimmen entfallen, erhalten dann die sogenannten Honor Points, die sich im Spiel für Belohnungen eintauschen lassen. Im Gegenzug verlieren Spieler*innen Honor Points und entsprechende Ränge, wenn sie aufgrund ihres Verhaltens oder Regelverstöße gemeldet werden und eine Prüfung die Beschwerde bestätigt. Beide Verfahren, die von der Community ausgeübte Disziplinierung in Form von Bestrafung (durch das Tribunal) und Belohnung (durch das HonorSystem) führen zu enormen Datenmengen. Sowohl die Fälle des Tribunals als auch Honor-Transaktionen sind für Riot Games einsehbar und bilden eine Art Soziogramm der Onlinespielcommunity mit breiter Datenbasis ab. Bei der Analyse dieser Daten bedient sich das Player Behavior Team von Riot nun eines Vorgehens, das wir wahlweise als avancierte Methode der Digital Humanities oder als eine Form der computergestützten Diskursanalyse bezeichnen könnten (sofern zwischen beidem ein Unterschied besteht). Durch Korrelation der erhobenen Daten zu von der Community bestraften und belohnten Spieler*innen mit den vom Spiel gespeicherten Chat-Logs ermitteln Lin und sein Team zwei Gruppen: die reformbedürftigen und die vorbildlichen Spieler*innen (Lin 2014). Die aufgezeichneten Chats dieser Gruppen von Spieler*innen werden zur Grundlage einer Analyse des Sagbaren und des Ungesagten der Online-SpielKommunikation. Lin und sein Team entfernen sämtliche Begriffe aus dem Datensatz, die von beiden Typen von Spieler*innen genutzt werden. Übrig bleibt das, was nur von problematischen Spieler*innen geäußert wird, sowie das, was nur von ausgezeichneten Spieler*innen gesagt wird. Mithilfe dieser Äußerungsmengen ist es möglich, aus dem Chatverhalten von Spieler*innen auf die Wahrscheinlichkeit künftiger Verstöße oder transgressiver Akte zu schließen.11 Es wird außerdem möglich, ein weiteres Defizit in Riot Games’ Disziplinarmodell
10 LoL wird in Teams von je fünf Spieler*innen gegeneinander gespielt. 11 Laut Riot Games gibt es allerdings keine Bestrebungen, tatsächlich präventiv gegen die entsprechenden Spieler*innen vorzugehen.
Vom epistemischen Überschuss virtueller Welten
117
zu adressieren. Das Problem des Tribunals, das oben diskutiert wurde, besteht darin, dass das System relativ langsam ist. Der Verstoß wird gemeldet, Spieler*innen urteilen darüber, ein Bericht wird vom System zusammengestellt und den Verurteilten zugemailt. Laut Lin kann der Prozess bis zu zwei Wochen dauern (Lin 2015). Für Psycholog*innen ist das frustrierend, da diese davon ausgehen, dass die Dauer, bis nach einer Handlung Feedback zu dieser Handlung kommuniziert wird, für Lerneffekte und Verhaltensmodifikation ausschlaggebend ist. Je höher die Latenz, desto geringer der Effekt. Das Disziplinarsystem muss also effizienter und damit schneller gemacht werden. Riot Games löst das Problem über maschinelles Lernen – eine Künstliche Intelligenz bekommt Zugriff auf die Daten und lernt, für welche Äußerungen Spieler*innen bestraft werden sollten. Der Lernprozess schließt dabei kulturelle Eigenheiten von Regionen und Ländern ein, in denen LoL veröffentlicht ist – die Maschine lernt also, welche Äußerung z. B. im kulturellen Kontext Südkoreas problematisch ist (Lin 2015). Laut Lin funktioniert das automatisierte System inzwischen sehr effektiv und hat das Tribunal ersetzt – Spieler*innen urteilen also nicht mehr übereinander, sondern eine künstliche Intelligenz urteilt instantan auf der Datenbasis, die die Spieler*innen hervorgebracht haben (Lin 2015). Auch das Honor-System ist momentan in LoL nicht aktiv, Riot Games hat allerdings eine überarbeitete Fassung angekündigt.12 Diese Erörterung von Experimentalanordnungen zur Erziehung oder Reform ganzer Gaming Communities ließe sich fortsetzen, da Riot Games eine Reihe weiterer Versuche durchgeführt hat (vgl. Hsu 2015; Maher 2016). Für diese Argumentation genügt es, zusammenfassend auf einige Folgen der Experimente hinzuweisen: Lin erklärt, dass die Maßnahmen seines Teams das Verhalten der Spieler*innen in der gesamten Community von LoL verbessert haben (Lin 2015). Riot Games kooperiert außerdem regelmäßig mit externen Wissenschaftler*innen, denen sie nicht nur ihre Datensätze, sondern auch die Spieler*innen selbst für Versuche zur Verfügung stellen. Speziell im Bereich der Psychologie wie auch der Linguistik finden sich Publikationen, die auf die Analyse von in LoL gewonnenen Daten zurückgehen (vgl. Kwak, Blackburn 2015; Maher 2016). Zuletzt ist das Studio federführend dabei, innerhalb der
12 Hier zeigt sich eine zentrale Herausforderung für medienwissenschaftliches Arbeiten in Bezug auf Onlinespiele oder Social Media: Der Forschungsgegenstand ist derart schnellen Veränderungen und Transformationen unterworfen, dass es nur aufgrund von (teils lückenhaften) Dokumentationen möglich ist, ihn überhaupt zu untersuchen. Im Falle von LoL ist es nicht möglich, die hier beschriebenen Systeme und Versuchsanordnungen selbst zu erfahren, da das Spiel längst von den Entwickler*innen in einer Weise aktualisiert wurde, die diese früheren Features unzugänglich macht bzw. abschaltet.
118
Felix Raczkowski
Abb. 4: Die Chat-Analyse des Player Behavior Teams. Wörter wie „on“ und „is“ sind durchgestrichen und aus dem Datensatz entfernt, da sie von allen Spieler*innen gleichermaßen verwendet werden und damit nicht aussagekräftig sind. Bei den verbliebenen Begriffen handelt es sich größtenteils um spielspezifische Abkürzungen oder Online-Spiel-Slang (z. B. „noob“ für Anfänger oder „gj“ für good job).
Computerspielindustrie eine Kooperation zwischen Unternehmen aufzubauen, die mit ihren Multiplayerspielen vor ähnlichen Problemen stehen wie Riot Games. Diese sogenannte Fair Play Alliance hat inzwischen viele einflussreiche Mitglieder, deren Spiele teils ähnlich hohe Nutzer*innenzahlen haben wie LoL (Fair Play Alliance; O.J.). Das Ziel der Fair Play Alliance ist, gemeinsam Lösungen für das Problem toxischen Verhaltens zu finden und in diesem Zuge Daten und Forschungsergebnisse auszutauschen. Es ist also davon auszugehen, dass der empirisch-wissenschaftliche Zugang von Riot Games sich in der Industrie weiter verbreiten wird. Riot Games arbeitet außerdem bereits an der sekundären Auswertung der gewonnenen Daten, so werden die Persönlichkeitsprofile, die sich in LoL von jedem*r Spieler*in erstellen lassen, mit dem Verhalten der Angestellten von Riot Games (die alle auch LoL spielen) korreliert, um auf problematisches Verhalten am Arbeitsplatz schließen zu können. Die zugrundeliegende Annahme ist hier, dass Personen, die sich im Spiel kontinuierlich aggressiv verhalten und Regeln des Zusammenspiels überschreiten, auch jenseits des Spiels, etwa im beruflichen Umfeld, zu toxischem Verhalten neigen. In einer ersten Untersuchung bestätigt sich die Korrelation, da 25% der im Verlauf eines Jahres von Riot Games entlassenen Mitarbeiter*innen in LoL problematisches Verhalten gezeigt haben. Riot Games ermittelt also diejenigen unter den eigenen Mitarbeiter*innen, die in
Vom epistemischen Überschuss virtueller Welten
119
LoL besonders häufig als toxisch aufgefallen sind und bittet zu reformorientierten Gesprächen (re:Work, o.J.).13 Da sich die Computerspielindustrie in den vergangenen Jahren als Folge technischer und ökonomischer Transformationen vermehrt darauf zu konzentrieren begonnen hat, Spiele als kontinuierliche Dienste anstatt als singuläre Produkte zu vermarkten (Cai et al. 2014), wird es erforderlich, auch die von diesen Spielen ermöglichten (Online)Interaktionen zwischen Spieler*innen zumindest dahingehend zu kontrollieren, dass bestimmte Verhaltensnormen eingehalten werden und spielerische von nichtspielerischer Aggression unterschieden werden kann. Dafür sind die Eigenschaften (digitaler) Spiele von entscheidender Bedeutung. Erstens bringen Spiele durch ihren rituellen Charakter und die von Bateson untersuchten kommunikativen Bedingungen bestimmte Probleme mit sich, die insbesondere die Differenzierung zwischen Spielhandlungen und außerspielerischen Handlungen betreffen, was hier als verbreiteter Sonderfall des allgemeinen Problems der Virtualität bewertet werden kann. Dieses Problem wird durch die Digitalisierung der Spiele nicht behoben, sondern allenfalls über die (vorgebliche) Anonymität der OnlineKommunikation noch verstärkt. Zweitens werden digitale Spiele dann zugleich als Instrumente der Datenerhebung genutzt, mit der das Problem erforscht werden soll. Die Datensammlung findet nicht spielextern, unter Laborbedingungen, über Fragebögen oder Ähnliches statt, sondern sie ist Teil des Spiels selbst. Im konkreten Beispiel LoL zu spielen, bedeutet, zum Datenbestand beizutragen. Das eine ist nicht vom anderen zu trennen, der ohnehin problematische Hinweis in Caillois’ Spieldefinition, Spiele seien Instanzen reiner Vergeudung (also unproduktiv) kann nun spätestens hier als entkräftet gelten (Caillois 1982[1958], 12). Drittens fallen Spiel und Labor zusammen, LoL ist also der Ort, an dem Hypothesen zu den gewonnenen Daten durch Experimente verifiziert oder falsifiziert werden. Es ist für Riot Games unproblematisch und kostengünstig möglich, einzelne Parameter des Spiels zu verändern, um die Auswirkungen auf das Verhalten der Spieler*innen zu prüfen. Die große Community des Spiels sorgt zudem für statistisch aussagekräftige Ergebnisse im Sinne psychologisch-empirischer Forschungen. Viertens ist das Spiel somit auch im positiven Sinne die Lösung der Probleme, die es verursacht, zumindest aus Sicht seiner Designer*innen. Das Verhalten der Spieler*innen soll durch das Design des Spiels modifiziert werden, die durch das Spiel hervorgerufenen Probleme und Herausforderungen müssen systemisch gelöst und diese
13 Diese Maßnahmen ändern nichts daran, dass im August 2018 eine Recherche des OnlineMagazins Kotaku strukturellen Sexismus innerhalb des Studios enthüllt (D’Anastasio 2018).
120
Felix Raczkowski
Lösungen im Idealfall automatisiert werden. In den Worten Katherine Los, einer Doktorandin der Informatik der Universität von Kalifornien: „Community Design is Video Game Design“ (Lo 2018). Die Community eines Spiels wird, ebenso wie das Verhalten jedes*r einzelnen Spieler*in, zu einem Anwendungsfeld von Game Design. Zusammenfassend lässt sich feststellen: Digitale Onlinespiele zeitigen spezifische Probleme, fungieren aber gleichzeitig als Datenerhebungsverfahren und Experimentalumgebungen, um Wissen über diese Probleme hervorzubringen und sie bieten die Werkzeuge, mit denen die Probleme letztlich ausgeräumt werden sollen.14
4 Schluss Die Ziele von Riot Games und anderer Mitglieder der Fair Play Alliance lassen sich als der Versuch beschreiben, das Verhalten von Menschen unter den Bedingungen digitaler Medien zu beeinflussen, oder, behavioristisch gesprochen, zu modifizieren. Innerhalb der Spiele werden wissenschaftliche Methoden der Verhaltenspsychologie zur Anwendung und wissenschaftliches Wissen hervorgebracht. Die Forschungen finden dabei in einem Maßstab statt, der unter Laborbedingungen mit Versuchspersonen nicht zu erreichen ist, münden aber umgekehrt, wie nicht zuletzt das Quellenverzeichnis dieses Textes dokumentiert, nicht in klassische wissenschaftliche Veröffentlichungen, da auch die für Riot Games tätigen Psycholog*innen sich in erster Linie als Game Designer*innen verstehen und ihr Wissen praxisorientiert aufbereitet zur Verfügung stellen.15 Die im und vom Spiel erhobenen Daten bringen, so wäre mit Foucault zu argumentieren (Foucault 2007 [1999]), ein Wissen von der anormalen, devianten Spieler*in hervor und sie legen Strategien zu deren Reform nahe. Gleichzeitig stehen Spiele wie LoL damit im Zentrum der Frage des Virtuellen, da sie nicht nur im Sinne der modallogischen Definition des Begriffs die Chance zur Exploration nichtaktualisierter Möglichkeiten bieten (vgl. Esposito 1998), sondern zugleich auch die Herausforderung augenfäl-
14 Während einige dieser Eigenschaften (Datenerhebung, Experimente, Verhaltensmodifikation) auch auf soziale Netzwerke zutreffen, sind diese nicht von der grundsätzlichen Herausforderung paradoxer Interaktion und Kommunikation betroffen, da die Dienste nicht als Spiele, sondern bewusst als Teile des alltäglichen Lebens ihrer Nutzer*innen gerahmt werden. Darüber hinaus sind Soziale Netzwerke nicht direkt auf positive Nutzungserfahrung angewiesen, da auch aggressives oder toxisches Verhalten letztlich eine ökonomisch verwertbare Interaktion darstellt. 15 Beispielsweise in Vorträgen auf der jährlichen Game Developers Conference (GDC) in San Francisco.
Vom epistemischen Überschuss virtueller Welten
121
lig machen, die damit für die Realität einhergeht. Das Virtuelle (und Spiele sind hier wohl besonders hervorzuheben) problematisiert die Unterscheidung zwischen Realität und Fiktion oder auch zwischen dem tatsächlichen und dem fiktiven Angriff (vgl. Eickelmann 2017, 61–69). Die hier diskutierten Initiativen zielen damit letztlich auch darauf, das Virtuelle produktiv zu machen um seine eigenen negativen Folgen einzuschränken. Die letzte Frage, die die an dieser Stelle in spekulativer – oder virtueller – Form im Hinblick auf eine noch ungewisse Zukunft aufgeworfen werden soll, betrifft die Übertragbarkeit des in diesem Zuge in Online-Spielen gewonnenen Wissens. Während sich die Fair Play Alliance ihrem Namen entsprechend darauf konzentriert, das Verhalten der Spieler*innen großer Online-Spiele im Hinblick auf freundlichere, weniger transgressive Umgangsformen zu modifizieren, sind auch spielferne Anwendungsgebiete eines Wissens von der Verhaltensmodifikation unter den Bedingungen digitaler Medien vorstellbar. Die Pläne der chinesischen Regierung zur Einführung eines Social Credit Systems sind eine Entwicklung, anhand derer sich ein Horizont solcher Transfers erschließt. In China sollen die Daten, die auf zahllosen verschiedenen Onlineplattformen ohnehin über die Nutzer*innen erhoben werden, zentral korreliert und in einer Reihe von Scores für jede Bürger*in aggregiert werden.16 Mithilfe dieser Scores bietet sich dann für Behörden und Institutionen ein Mechanismus, um das Verhalten der Bürger*innen im Detail zu belohnen oder zu bestrafen bzw. positiv oder negativ zu verstärken (Mistreanu 2018). In der Kritik dieses Vorhabens ist dabei vereinzelt darauf hingewiesen worden (Kühnreich 2017), dass das geplante System einem Spiel ähnele. Das ruft den Vergleich zum Marketing-Buzzword der Gamification auf den Plan, also die Übertragung von Elementen digitaler Spiele in außerspielerische Kontexte, um etwa langweilige Arbeit motivierender zu gestalten (Deterding et al. 2011; Raczkowski 2019). Doch was bisher vom Social Credit System in China bekannt ist, macht genau nicht den Eindruck, als würden digitale Spiele vom System gezielt als bunte Oberflächen, sozusagen als das falsche Bewusstsein referenziert, hinter dem sich dann die ‚Wahrheit‘ des Regimes versteckt. Es geht im Gegenteil schlicht um eine Form von Herrschaft und Kontrolle, die wir mit Alexander Galloway als protokologisch bezeichnen könnten – eine Herrschaft also, die sich auf Basis digitaler Medien das Verhalten und das Verhältnis von Menschen zueinander unterwirft (Galloway 2004). Wenn das Social Credit System dann trotzdem noch an digitale Spiele erinnert, so vielleicht nicht deshalb, weil das
16 Es sei an dieser Stelle darauf hingewiesen, dass Riot Games seit 2015 vollständig zum chinesischen Internetkonzern Tencent gehört (Frank 2015).
122
Felix Raczkowski
System Spaß machen, Aufmerksamkeit fesseln, zum Spielen anhalten, seine Nutzer*innen begeistern oder auch nur ablenken soll, sondern deshalb, weil Systeme, in denen Wissen zur Anwendung kommt, das in digitalen Onlinespielen gewonnen und erprobt wurde, automatisch Spielen zu ähneln beginnen. Community Design ist vielleicht auch auf staatlicher Ebene Game Design. Der Endpunkt dieser Entwicklung wird frühestens 2022 zu beurteilen sein, wenn das Social Credit System vollständig implementiert sein soll. Dann werden wir vielleicht die immer wieder gestellte Frage nach dem Potential digitaler Spiele, nach dem Mehrwert des Mediums, anders zu beantworten haben als bisher.
Literatur Bataille, Georges. „Spiel und Ernst“. Johan Huizinga. Das Spielelement der Kultur. Spieltheorien nach Johan Huizinga von Georges Bataille, Roger Caillois und Eric Voegelin. Hg. Knut Ebeling. Berlin: Matthes & Seitz, 2014 [1951]. 75–111. Bateson, Gregory. „Eine Theorie des Spiels und der Phantasie“. Escape! Computerspiele als Kulturtechnik. Hg. Christian Holtorf und Claus Pias. Köln: Böhlau Verlag, 2007 [1955]. 193−207. Cai, Wei, Min Chen, und Victor C. M. Leung. „Toward Gaming as a Service“. IEEE Internet Computing 18.3 (2014): 12–18. Caillois, Roger. Die Spiele und die Menschen. Maske und Rausch. Frankfurt a.M.: Ullstein, 1982 [1958]. Castello, Frank. Foul play: tackling toxicity and abuse in online video games. The Guardian, 17. August 2018. https://www.theguardian.com/games/2018/aug/17/tackling-toxicityabuse-in-online-video-games-overwatch-rainbow-seige (27. März 2019). Consalvo, Mia. „There is no Magic Circle“. Games & Culture 4.4 (2009): 408−417. D’Anastasio, Cecilia. Inside the Culture of Sexism at Riot Games. Kotaku. 7. August 2018. https://kotaku.com/inside-the-culture-of-sexism-at-riot-games-1828165483 (27. März 2019). Deterding, Sebastian, Miguel Sicart, Lennart Nacke, Kenton O’Hara und Dan Dixon. Gamification: Using Game Design Elements in Non-Gaming Contexts. CHI 2011 Workshop Gamification: Using Game Design Elements in Non-Game Contexts, 2011. Deuber-Mankowsky, Astrid. Lara Croft. Modell, Medium, Cyberheldin. Frankfurt a.M.: Suhrkamp, 2001. Eickelmann, Jennifer. „Hate Speech“ und Verletzbarkeit im Digitalen Zeitalter. Phänomene mediatisierter Missachtung aus Perspektive der Gender Media Studies. Bielefeld: transcript, 2017. Esposito, Elena. „Fiktion und Virtualität”. Medien – Computer – Realität. Hg. Sybille Krämer. Frankfurt a.M.: Suhrkamp, 1998. 269−296. Fair Play Alliance. http://fairplayalliance.org (27. März 2019). Foucault, Michel. Die Anormalen – Vorlesungen am Collège de France 1974/1975. Frankfurt a, M.: Suhrkamp, 2007 [1999].
Vom epistemischen Überschuss virtueller Welten
123
Foucault, Michel. Überwachen und Strafen. Die Geburt des Gefängnisses. Frankfurt a.M.: Suhrkamp, 1991 [1977]. Frank, Allegra. Riot Games now owned entirely by Tencent. Polygon, 16. Dezember 2015. https://www.polygon.com/2015/12/16/10326320/riot-games-now-owned-entirely-by-ten cent (27. März 2019). Galloway, Alexander. Protocol. How Control Exists After Decentralization. Cambridge, Mass.: MIT Press, 2004. Hsu, Jeremy. Inside the Largest Virtual Psychology Lab in the World. Wired, 27. Januar 2015. https://www.wired.com/2015/01/inside-the-largest-virtual-psychology-lab-in-the-world/ (27. März 2019). Hudson, Laura. Curbing Online Abuse Isn’t Impossible. Here’s Where We Start. Wired, 15. Mai 2014. https://www.wired.com/2014/05/fighting-online-harassment/ (27. März 2019). Huizinga, Johan. Homo Ludens. Vom Ursprung der Kultur im Spiel. Hamburg: Rowohlt 2006 [1938]. Kühnreich, Katika. Gamified Control? China’s Social Credit Systems. Vortrag auf dem CCC (Chaos Computer Club) Kongress. Leipzig, 27. Dezember 2017. https://media.ccc.de/v/ 34c3-8874-gamified_control#t=1 (27. März 2019). Kwak, Haewoon, und Jeremy Blackburn. „Linguistic Analysis of Toxic Behavior in an Online Video Game“. Social Informatics. SocInfo 2014. Lecture Notes in Computer Science. Hg. Lucia Maria Aiello und Daniel McFarland. Cham: Springer, 2014. 209–217. League of Legends. Riot Games 2009. LeJacq, Yannick. How League Of Legends Enables Toxicity. Kotaku, 25. März 2015. https:// kotaku.com/how-league-of-legends-enables-toxicity-1693572469 (27. März 2019). Lin, Jeffrey Y., Ione Fine, Geoffrey M. Boynton and Scott O. Murray. Advertising During Accelerated Media Playback. https://app.dimensions.ai/details/patent/US20120059697-A1 (27. März 2019). Lin, Jeffrey. Enhancing Sportsmanship in Online Games. GDC Presentation, 2014. https:// archive.org/details/GDC2014Lin (27. März 2019). Lin, Jeffrey. More Science Behind Shaping Player Behavior in Online Games. GDC Presentation, 2015. https://www.youtube.com/watch?v=isZSf6acFQ4 (27. März 2019). Lo, Katherine. Mitigating Abuse Before it Happens. GDC Panel, 2018. https://twvideo01.ubmus.net/o1/vault/gdc2018/presentations/Barlow_Nova_Mitigating_Abuse_Before_GDC18. pdf (27. März 2019). Maher, Brendan. „Can a video game company tame toxic behaviour?“. Nature 531 (2016): 568–571. Mistreanu, Simina. Life Inside China’s Social Credit Laboratory. Foreign Policy, 3. April 2018. http://foreignpolicy.com/2018/04/03/life-inside-chinas-social-credit-laboratory/ (27. März 2019). Mortensen, Torill Elvira. „Anger, Fear, and Games: The Long Event of #GamerGate“. Games & Culture 18.8 (2018): 787–806. Olivetti, Justin. The Game Archaeologist: The assassination of Lord British. Massively Overpowered, 2015. http://massivelyop.com/2015/10/03/the-game-archaeologist-theassassination-of-lord-british/ (27. März 2019). Online Gaming Review: Ultima Online: Interview with Rainz, the Man Who Killed Lord British. http://noctalis.com/dis/uo/blast02a.shtml (27. März 2019). Raczkowski, Felix. Digitalisierung des Spiels. Games, Gamification und Serious Games. Berlin: Kadmos, 2019.
124
Felix Raczkowski
Ramsay, Morgan. Online Game Pioneers at Work. New York: Springer Science & Business, 2015. re:Work. Riot Games: Assessing toxicity in the workplace. https://rework.withgoogle.com/ case-studies/riot-games-assessing-toxicity/ (27. März 2019). Riot Games. The Tribunal. https://www.youtube.com/watch?v=PnkalhOdOs8 (27. März 2019). Salen, Katie, und Eric Zimmerman. Rules of Play. Game Design Fundamentals. Cambridge, MA: MIT Press, 2003. Stenros, Jaakko. „In Defence of a Magic Circle. The Social and Mental Boundaries of Play“. Proceedings of DiGRA Nordic 2012 Conference: Local and Global – Games in Culture and Society, 2012. Sullivan, John, Jennifer Jenkins, Julie Tate, Shaun Courtney and Jordan Houston. In two years, police killed 86 people brandishing guns that look real – but aren’t. The Washington Post, 18. Dezember 2016. https://www.washingtonpost.com/investigations/in-twoyears-police-killed-86-people-brandishing-guns-that-look-real–but-arent/2016/12/18/ ec005c3a-b025-11e6-be1c-8cec35b1ad25_story.html?utm_term=.8c362fd8ae51 (27. März 2019). Turner, Victor W. „Liminal to Liminoid, In Play, Flow, And Ritual: An Essay in Comparative Symbology“. The Rice University Studies 60.3 (1974): 53 − 92. Ultima Online. Origin Systems/Electronic Arts/Mythic Entertainment/Broadsword 1997–. Ultima Wiki: Killing Lord British. http://ultima.wikia.com/wiki/Killing_Lord_British (27. März 2019). Ultima. Origin Systems/Electronic Arts 1981–1999. Van Gennep, Arnold. Übergangsriten. Frankfurt a.M., New York: Campus Verlag, 2005 [1909].
Abbildungen Abb. 1 ߓLord British spricht kurz vor dem Attentat zu seinen Untertanen. Quelle: https://mmo.it/ wp-content/uploads/2017/09/Lord-British-assassination-gallery-1.jpg (27. März 2019). Abb. 2 ߓDer Tod von Lord British. Quelle: Wikipedia. https://en.wikipedia.org/wiki/Lord_ British (27. März 2019). Abb. 3 ߓLeague of Legends. Quelle: https://gpugames.com/league-legends-wont-open-soluti ons-fixes/ (27. März 2019). Abb. 4 ߓChat-Analyse des Player Behavior Teams. Quelle: Vortrag von Jeffrey Lin auf der Game Developer’s Conference (GDC) 2015. https://www.youtube.com/watch?v=isZSf6acFQ4 (27. März 2019).
Die Screenshots von Ultima Online, die den Abbildungen 1 und 2 zugrunde liegen, wurden für diese Veröffentlichung durch KI-basiertes Image-Upscaling hochgerechnet, um in ausreichender Qualität vorzuliegen.
Anna Tuschling
Faltungen von Analog und Digital: Affektivität und das Social-Media-Dilemma Affekte und Emotionen spielen bei der Ausgestaltung virtueller Lebenswelten eine Schlüsselrolle, die überraschenderweise kaum etwas mit ihrer althergebrachten Bedeutung als Gemütserregungen zu tun hat. Technisch reformuliert dienen Affekte dazu, um die User*innen in computerisierten Umgebungen zu vergleichen, zu identifizieren und emotional zu engagieren. Der Beitrag behandelt diese Reformulierung der Affekte in verschiedenen Schritten: Erstens am Beispiel der Affekttechnologien, die mithilfe der psychologischen Klassifikation menschlicher Expressionen User*innenzustände immer besser „auslesen“ können und die darum Affektivität in virtuellen Lebenswelten auf besondere Weise verkörpern. Zweitens am problematischen Beispiel der ubiquitären Gesichtserkennung, wie sie seit Januar 2020 in Form des Start-Ups Clearview AI offenbar wird. Abschließend werden zum besseren Verständnis dieser technikbasierten „Affective Arrangements“ (Slaby et al. 2019, 3–12) die beiden Konzepte der Faltung1 von Analog und Digital und des Social-Media-Dilemmas vorgeschlagen.
1 Affekttechnologien Im Unterschied zur Biometrie (vgl. Wichum 2017), die als Wissenschaft der Messung und Analyse biologischer Merkmale anerkannt ist, sind Affekttechnologien (noch) kein genau definiertes Feld. Im Folgenden werden als Affekttechnologien all jene digitalen Anwendungen und Umgebungen bezeichnet, die Gesichtsausdruck, Gestik und andere physiologische Merkmale wie die Körpertemperatur, die Herzrate und in einigen Fällen bereits den Geruch erfassen und auf dieser Grundlage den Vergleich, die Identifikation und die Einbindung der Nutzer*innen in virtuelle Lebenswelten leisten. In vielen der affekttechnologischen Systeme stehen immer noch die Erfassung des Gesichtsausdrucks und eine meist datenbankgestützte Zuordnung zu einem bestimmten Affektzustand wie Freude, Scham, Ekel, Mitleid etc. im Mittelpunkt. Affekttechnologien sind also weder in einem umfassenderen Sinne sinnliche oder gar empathische Maschinen, noch
1 In einem folgenden Artikel, der in Vorbereitung ist, wird der Bezug auf Deleuze und seinen Begriff der Virtualität dargelegt (Deleuze 2000). Open Access. © 2021 Anna Tuschling, publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz. https://doi.org/10.1515/9783110638127-008
126
Anna Tuschling
primär gefühlsauslösende Objekte oder affektgenerierende Apparate, wie sie die Emotionswende in der Kulturtheorie thematisiert (vgl. Shaviro 2010; Sedgwick 2003; Hardt 2007; Angerer 2007). Sie sind vielmehr in einem sehr technischen Sinne mit der Erhebung und Verwertung von Daten zur – noch meist menschlichen – Expressivität und körperlichen Situation befasst.2 Zu angewandten Affekttechnologien können die niedrigschwellige Selbstbeobachtung mittels Applikationen für die Registrierung der eigenen Stimmungskurven ebenso gezählt werden wie Gesichtserkennungssysteme oder die sensorbestückten Umgebungen des Affective Computing (Tuschling 2014, 179–190). Jede*r Smartphone-Nutzer*in verfügt über den Zugang zu Affekttechnologien, integrieren viele Anbieter doch kleine Anwendungen zur Selbstdokumentation des eigenen Schlafverhaltens u. a. in die Grundausstattung ihrer Geräte. In der wachsenden Welt der Applikationen und Tracker gibt es ein spezielles Segment für die Registrierung, Überwachung und ggf. Regulierung der eigenen Gefühlslagen. Applikationen für das Mood-Tracking oder auch „Mood-Management“ erlauben die selbstgesteuerte Protokollierung der Stimmung über einen bestimmten Zeitraum hinweg. Solange diese Selbstaufzeichnungen über Schlaf, Gefühlshöhen und -tiefen, Gewohnheiten etc. nicht standardisiert erfolgen und/oder medizinisch ausgewertet bzw. umfassend verglichen werden, dienen sie eher der Selbstreflektion als einer biopolitischen Regulierung oder gar Gesundheitsüberwachung. In der gegenwärtigen Affektgesellschaft (Slaby und Von Scheve 2019) greifen die Souveillance (Andreas et al. 2018), das großflächige Capturing (Heilmann 2015, 35–48), das Disziplinieren, Überwachen, aber auch Stimulieren der Affektlagen ineinander. Hierfür nutzen Affekttechnologien die bis auf Charles Darwin und das Ekman-Tomkins-Paradigma zurückgehenden Klassifikationen der Emotionen und Affekte,3 die die Zuordnung der erhobenen Messwerte zu definierten Emotionszuständen erlauben sollen. Affekttechnologien bauen die von ihnen genutzten Bild- und Messdatenbanken jedoch auch kontinuierlich zu einem weltweiten Fundus der Affektbildforschung aus (vgl. für eine frühe, noch nicht vernetzte Datenbank das International Affective Picture System IAPS). So führt das Unternehmen Affectiva auf seiner Website (affectiva.com) laufend Buch, wie viele Gesichter die angebotene Technik Affdex vermessen und in der firmeneigenen Datenbank gespeichert hat. Affektive Information und das Gesicht geben nicht nur etwas über das Innere der Nutzer*innen preis, sondern sie binden diese identifizierend in
2 Vgl. die erste Mediengeschichte der menschlichen Expression: Löffler 2004. Vgl. zur Geschichte der Humanwissenschaften als Technikgeschichte: Kittler 2003, 29–43. 3 Vgl. für die Wissenschaftsgeschichte der Emotionspsychologie: Leys 2017.
Faltungen von Analog und Digital: Affektivität und das Social-Media-Dilemma
127
digitale Umgebungen ein. Aus dem Spektrum an Affekttechnologien stoßen Gesichtserkennungssysteme vor allem außerhalb Asiens deshalb auf die größte Skepsis, signalisieren sie doch einen klaren Auftrag zur Identifikation und Überwachung. Deutlicher noch als die überwachende Gesichtserkennung und die „unterwachende“ Selbstdokumentation per App und Tracker wecken, erkennen und beeinflussen jedoch das Affective Computing und emotionale KI (Tuschling 2020, 373–384) die Affektivität in virtuellen Lebenswelten. Affekte sind dabei immer verkörpert zu denken. Allerdings scheinen sie die ihnen häufig nachgesagten Qualitäten als unvorhersehbar und unkontrollierbar so gut wie verloren zu haben und dienen vielmehr als wichtige Verbindungselemente zwischen Maschinen, User*innen, digitalen Umgebungen und analogen Räumen. Im juristischen Kontext stehen Affekthandlungen noch immer für ein unkontrolliertes Geschehen, das durch einen intensiven Gefühlszustand und ungeplanten Ablauf gekennzeichnet ist. Aus der Gefühlspalette stehen vor allem die negativen Gefühle wie Zorn, Wut und Angst für solche Taten im Affekt Pate, für die man anders zur Verantwortung gezogen wird als für geplante Handlungen. Lange Zeit traten Affekte und Emotionen deshalb etwa bei Immanuel Kant tendenziell, wenn auch nie absolut als Gegenspieler der Vernunft auf. Bei Sigmund Freud besteht das sprichwörtliche Unbehagen in der Kultur insbesondere darin, dass kultureller Fortschritt auf Triebverzicht basiert (Freud 1999a, 419– 506). Kultur setzt zum Verdruss des Einzelnen eine gewisse Gefühlskontrolle oder wenigstens Umlenkung (Sublimierung) als Bedingung ihrer selbst voraus. Gleichwohl stand nie in Frage, dass Affekte und Emotionen keine reinen Störfaktoren, sondern signifikant für das individuelle Erinnern und Erleben sind. Wenig erstaunlich zählen sie neben Witz und Intelligenz deshalb zu den wiederkehrenden Argumenten, mit denen Mensch und Maschine unterschieden werden sollen (Turing 1950, 433–460; Davidson 2004, 77–86). Affekte verbinden in virtuellen Lebenswelten Nutzer*innen und Rechner auf technische, soziale und erlebensbezogene Weise jedoch eher, als dass sie für eine Aufrechterhaltung der anthropologischen Differenz stünden. Es ist den Affekttechnologien vor allem gelungen, das Computerwesen und die Humanwissenschaften neu zu verbinden. Lange vor dem computerbasierten Capturing haben die Lebens- und Verhaltenswissenschaften des ausgehenden neunzehnten und zwanzigsten Jahrhunderts bereits Modelle vorgelegt, die menschliche Eigenschaften so formulieren, dass sie – gleichsam analog zur Technik – u. a. sequenzier- und quantifizierbar und prinzipiell digitalisierbar vorliegen. Solche Ansätze sind bestens geeignet, um einen neuen Übergang zu den Ingenieurswissenschaften und der Elektrotechnik zu schaffen, wie ihn die Affekttechnologien darstellen. Allerdings traten Affekt und Emotion in der Psychologie des zwanzigsten Jahrhunderts aus verschiedenen Gründen zu-
128
Anna Tuschling
nächst in den Hintergrund. Seit dem neunzehnten Jahrhundert definiert sich die Psychologie nach ihrer Begründung durch Wilhelm Wundt und William James als Wissenschaft des menschlichen Erlebens und Verhaltens auf naturwissenschaftlicher und d. h. experimenteller Basis. In der Einleitung zur ersten großen Geschichte der Psychologie erinnert Edward G. Boring (1929) deshalb an das berühmte Fazit von Hermann Ebbinghaus, dass die Psychologie zwar eine lange Vergangenheit, doch nur eine kurze Geschichte habe (Ebbinghaus 1908, 1). Affekte und Emotionen sowohl positiver als auch negativer Art waren für die experimentelle Psychologie wie die des Behaviorismus schwer in ihre laborbasierte Forschung zu integrieren (Boring 1929, 584). Auch aus diesem Grund legten viele Ansätze der Psychologie im zwanzigsten Jahrhundert ihren Schwerpunkt für lange Zeit auf das besser beobachtbare Verhalten und die Kognition. Der französische Wissenschaftshistoriker Georges Canguilhem ist jedoch der Ansicht, dass das Studium des Verhaltens, wie es der Behaviorismus ausformulierte, weiter zurückreicht und zumindest bis auf die utilitaristische Perspektive zurückzuführen ist. Die historischen Wurzeln des Behaviorismus müssten insbesondere in jenen Arbeiten gesucht werden, die „durch die Entdeckung der persönlichen Gleichung bei den Astronomen beim Gebrauch des Teleskops ausgelöst wurde (Maskelyne 1796)“ (Canguilhelm 2012, 231). Die Entdeckung des „menschlichen Faktors“ in der Handhabung wissenschaftlicher Instrumente lenkte laut Canguilhem die wissenschaftliche Aufmerksamkeit überhaupt erst auf die menschlichen Reaktionen und das Verhalten: „Der Mensch wurde zuerst als Werkzeug des wissenschaftlichen Instruments studiert, bevor er zum Werkzeug aller Instrumente wurde.“ (Canguilhelm 2012, 231) Nehmen wir Canguilhem an dieser Stelle ernst, formuliert er hier lange vor jeder Medienanthropologie, dass der Erkenntnisgewinn in den Humanwissenschaften nicht oder wenigstens nicht allein ein Wissensgewinn über den Menschen ist, sondern nur eine Art Hilfswissenschaft zur Verbesserung der Technik. Hinzufügen ließe sich, dass dies Ansätzen wie dem so genannten Behaviorismus besonders gut gelingen muss, da sie Lebewesen und ihr Verhalten aus methodischen Erwägungen heraus konsequent als quasi-technische Abläufe reformulieren. Im Bereich der Affekttechnologien finden diese Konzeptionen und Klassifikationen eine neue Grundlage, wie im öffentlichen Diskurs an den Erfolgen der Gamification oder aber eben am Aufstieg der Emotion AI und des Affective Computing ablesbar wird. Mitnichten soll dem Programm des Behaviorismus hier ein weiteres Mal schlicht Reduktionismus vorgeworfen werden. Auch reicht es aus Perspektive der Wissensgeschichte und Medienarchäologie nicht aus, Affective Computing und Affekttechnologien vorzuwerfen, dass sie Mensch und Maschine „psycho-kybernetisch“ zu verbinden trachten (Angerer 2018, 44), da Technikentwicklung, Humanwissen-
Faltungen von Analog und Digital: Affektivität und das Social-Media-Dilemma
129
schaft und Gesellschaft bereits lange vor der Kybernetik und Computerisierung aufs Intimste miteinander verbunden waren, wie gerade etwas vermeintlich Subjektives wie die Affektivität dokumentiert. Da es bei Affekt und Emotion der Affekttechnologien eher um feststellbares Verhalten als um affektives Erleben geht, ist die große Bedeutung des äußerlich erfassbaren Gesichtsausdrucks in seiner doppelten Funktion als identifizierendes Ensemble und Indikator innerer Zustände für das Feld evident. Affekttechnologien verbinden sich derzeit gerne und verstärkt mit traditionellen Verfahren der Gesichtserkennung. Bevor Deep Learning und AI (Sudmann 2019) in das Feld der Gesichtserkennung einzogen, wurde dort ein simpler, sehr effizienter Algorithmus genutzt. Dieser nach ihren Programmierern benannte Viola-Jones-Algorithmus bildet noch immer die Vorlage, wenn nicht die Grundlage für viele Gesichtsund Bilderkennungssysteme.4 Anfang der 2000er stellten Paul Viola und Michael Jones ihn unter dem Titel „Rapid Object Detection using a Boosted Cascade of Simple Features“ (Viola und Jones 2001a, 2001b) erstmals als integralen Teil eines Modells zur schnellen Objekterkennung vor. Im Kern nutzt das von Viola und Jones vorgeschlagene Modell binäre Unterscheidungen über die Anordnung von Bildflächen, von denen einige für Gesichter besonders typisch sind. Hierbei handelt es sich um so genannte kantige Erscheinungen (rectangular features), die für Ja/Nein-Entscheidungen zur Klassifikation der Bildelemente eingesetzt werden (Abb. 1).
Abb. 1: Viola Jones feature types.
Um die Eigenschaften menschlicher Gesichter in der Bilderkennung herauszufiltern, sind für den Viola-Jones-Algorithmus einige wenige Merkmale ausreichend. Gesichter haben laut Viola und Jones in der Regel gemeinsam, dass die Augenregion dunkler erscheint als die obere Backenpartie. Diesen Kontrast repräsentiert die erste Flächenanordnung ganz links in Abb. 1. Ebenso stellt sich die Nase anders dar als die Augenregion, wie es in der dritten Flächenanordnung
4 Vgl. für eine gute Zusammenfassung des Viola-Jones-Modelles Miyazaki 2019, 275–276.
130
Anna Tuschling
von links symbolisiert wird. Neuere Lesarten des Algorithmus arbeiten an den genutzten Dunkel-Hell-Diskriminationen heraus, dass es sich beim ViolaJones-Entscheidungsrahmen alles andere als um ein neutrales Instrument handelt. Für die weitreichendsten Entgegnungen ist der Algorithmus vielmehr ein Fall von „programmed racism“ (Miyazaki 2019, S. 276). Mithilfe dieser basalen Entscheidungen über die kantigen Erscheinungen mit Dunkel-HellKontrast filtert das Viola-Jones-Modell in einer Entscheidungskaskade, die den Bilderkennungsprozess ausmacht, rasch sehr viele Bildelemente heraus, die jeweils Gesichter enthalten könnten oder eben nicht. Es schafft auf dieser Grundlage ein so genanntes integrales Bild, das die erkannten Eigenschaften repräsentiert (die vier Stufen des Algorithmus sind die beschriebenen 1. Haar Features,5 2. Creating an integral Image und weiterhin 3. Adaboost Training, 4. Cascading Classifiers) (vgl. Viola und Jones 2001a). Die beiden hervorgehobenen Kontraste Augen/Backen einerseits und Augen/Nasenrücken/Augen andererseits erinnern nicht zufällig an kulturhistorische und philosophische Betrachtungen des menschlichen Gesichts. In Tausend Plateaus stellen Gilles Deleuze und Felix Guattari in unheimlicher Ähnlichkeit zu Paul Viola und Michael Jones die „Erschaffung des Gesichts“ dar: Wie auch immer, ein Gesicht ist seltsam, es ist ein System Weiße Wand-Schwarzes Loch. Ein großflächiges Gesicht mit weißen Wangen, ein kreideweißes Gesicht, in das die Augen wie schwarze Löcher hineingeschnitten sind. (Deleuze und Guattari 1980, 230)
Was im technischen Algorithmus in seiner Schlichtheit zum Schlüssel der Gesichtserkennung werden wird, spurt die französische Philosophie mit den Gegensätzen aus Wange/Fläche/weiß und Augen/Loch/schwarz kulturhistorisch und -theoretisch bereits vor und geht dies am Beispiel der Pierrotgesichter, aber auch des Schweißtuches der Veronika durch.6 Das Gesicht tritt hier schon als Schema im Unterschied zur Vorstellung auf, „dass es bei der ‚Vergesichtlichung‘ unterschiedlichster Phänomene der natürlichen und technischen Umwelt um ein Projekt der Ähnlichkeitsmachung und der Anthropomorphisierung geht“ (Scholz 2004, 12). Deleuze und Guattari adressieren in kritischer Absicht die Möglichkeiten einer diskreten Behandlung und technischen Neuformulierung des Gesichts (wie es parallel im Graffiti und Emoticon geschah), die in anderer und doch ähnlicher Weise den Affekttechnologien und gerade auch der Gesichtserkennung etwa im Viola-Jones-Algorithmus als technische Grundlage
5 Benannt nach dem Mathematiker Alfréd Haar. 6 Vgl. den filmwissenschaftlichen Einsatz des Algorithmus’, der allerdings nicht kulturtheoretisch reflektiert wird: Ewert und Freisleben 2001, 60.
Faltungen von Analog und Digital: Affektivität und das Social-Media-Dilemma
131
dienen. Lassen sich die Affektbegriffe in Gilles Deleuzes Kinotheorie (Deleuze 1989) und Brian Massumis Theorie der Virtualität (Massumi 2002) eher mit Unterbrechungen und Diskontinuitäten in Verbindung bringen, so sorgen die technisch reformulierten Emotionen der Affekttechnologien, wie sie in Tausend Plateaus angesprochen werden, für eine neue Nähe zwischen Nutzer*in und Rechner. Dies soll nun anhand der identifizierenden, ubiquitären Gesichtserkennung weiter konkretisiert werden.
2 Ubiquitäre Gesichtserkennung Kurz vor der Corona-Pandemie machte die New York Times Ende Januar 2020 einen regelrechten Tabubruch öffentlich, den ein kleines Internet Start-Up begangen hat (Hill 2020). Seit spätestens 2019 bot das US-basierte Unternehmen Clearview AI klandestin in ausgewählten Kreisen eine Gesichterkennungs-Applikation für private, wirtschaftliche und staatliche Zwecke an, die sich eine eklatante Schwachstelle der gegenwärtigen Kultur und ihrer digitalen Infrastruktur zunutze macht. Clearview AI ermöglicht die Identifizierung einer anonymen Person an Ort und Stelle, indem ad hoc erstellte Bilder dieser Person mit ihren öffentlichen Online-Bildern und Profilen abgeglichen werden können: Until now, technology that readily identifies everyone based on his or her face has been taboo because of its radical erosion of privacy. (Hill 2020)
Bemerkenswert ist allein der Tatbestand des Tabubruchs in der digitalen Kultur, die von faktischen wie übertragenen Grenzüberschreitungen lebt. Dass es sich im Falle von Clearview AI nicht nur um ein weiteres Beispiel für den inflationären Gebrauch des Wortes Tabu handelt, soll hier deshalb kurz rekonstruiert werden. Sigmund Freud hat das Wort Tabu dem Vokabular moderner Kulturen wieder hinzugefügt, nachdem es schon einmal verloren gegangen war: „Tabu ist ein polynesisches Wort, dessen Übersetzung uns Schwierigkeiten bereitet, weil wir den damit bezeichneten Begriff nicht mehr besitzen“, schreibt er in seiner berühmten Studie Totem und Tabu (Freud 1999b, 26). In der Bedeutung des Tabus verschmelzen verschiedene Gegensätze, denn es bezieht sich einerseits auf etwas Heiliges, Geweihtes, andererseits auf etwas Unheimliches, Gefährliches oder auch Unreines (vgl. Freud 1999b, 26). Anders als Gebote und religiöse Vorschriften lassen sich Tabus auf keinen Gott zurückführen, sondern sind unbekannter Herkunft (vgl. Freud 1999b, 26–27).
132
Anna Tuschling
Kleine Unternehmen wie Clearview AI sind nicht die wahrscheinlichsten Akteure, um das Tabu der allgegenwärtigen Gesichtserkennung zu brechen. So hat der wesentlich näherliegende Akteur Facebook Mutmaßungen zufolge auch tatsächlich in den Jahren 2015 und 2016 eine Gesichtserkennungs-App für seine Angestellten entwickelt, die jedoch aufgrund der Privacy-Bedenken wiedereingestellt wurde. Um 2010 hat sich Google gegen die Veröffentlichung von Gesichtserkennungsanwendungen entschieden (Wong 2019). Das Tabu bezeichnet deshalb sehr gut eine gewisse Zurückhaltung der Internetgiganten, Gesichtserkennungsdienste anzubieten, müssen der große Markt und die unzähligen Anwendungs- und Weiterentwicklungsmöglichkeiten doch für Akteure wie Facebook äußerst anziehend sein. Dabei ist es genauso falsch wie richtig, die ubiquitäre Gesichtserkennung als eines der wenigen Tabus der digitalen Kultur zu bezeichnen. Es ist richtig, hier von einem Tabu zu sprechen, weil die Vorsicht großer Firmen durchaus als eine minimale kollektive Anerkennung gewisser Grenzen verstanden werden kann, über die der Geltungs- und Wirkungsbereich des digitalisierten Staatswesens, aber insbesondere auch sozialer Medien nicht hinausreichen sollte. Aus wenigstens zwei Gründen ist das Wort Tabu in diesem Kontext jedoch genauso falsch wie richtig gewählt: Erstens gehören Grenzüberschreitungen zur Internetökonomie, wie die transformative und durchaus invasive Kraft digitaler Anwendungen und Apparate zeigt, und zweitens unterhöhlt ein etwaiger Reputationsverlust den vermeintlichen wirtschaftlichen Gewinn durch ubiquitäre Gesichtserkennung. Clearview AI identifiziert nicht nur anonyme Schnappschüsse aus der Lebenswelt, sondern reicht darüber hinaus vorhandene Online-Informationen über die aufgenommenen Personen an den Suchenden weiter (Hill 2020). Nicht von ungefähr sieht sich Clearview deshalb gerne in der Rolle eines Google der Gesichtsrecherche. Die Grundlage des Unternehmens stellt eine gigantische Datenbank mit derzeit über drei Milliarden Fotos dar, die durch Screen Scraping im Internet und insbesondere auf sozialen Netzwerken wie Facebook, YouTube, Venmo u. a. gesammelt wurden. Ihre Größe und Spannweite übertreffen alle Vorstöße, die von staatlichen Einrichtungen oder den Internetgrößen bisher unternommen wurden (Hill 2020). Traditionell haben staatliche Behörden zum Zwecke der Gesichtserkennung und bildbasierten Identifizierungen allein ihre eigenen Daten und Unterlagen (Passphotographien, „Mug-Shots“ und staatlich erstellte Datenbanken) benutzen können. Clearview verschafft nicht bloß einen Überblick, wie sein Name spielerisch verkündet. Es arbeitet vielmehr mit jener Schwachstelle der digitalen Kultur, die auszunutzen bislang gewissermaßen Tabu war. Neben den offensichtlichen Fragen nach Privatheit, der Überwachung und den Grenzen des Datenhandels macht Clearviews Idee auf einen wichtigen Punkt aufmerksam, der weit über
Faltungen von Analog und Digital: Affektivität und das Social-Media-Dilemma
133
die Diskussion dieses einen Start-Ups hinausgeht: die zunehmende Verbindung verstreuter, aber öffentlicher Spuren mit dem erblickten Hier und Jetzt. Sieht man jemanden an irgendeinem Ort der Welt über die Straße laufen, so können auf Basis eines per App hochgeladenen Fotos von dieser Person durch ein Matching mit Bildern der Clearview-Datenbank unter Umständen Hier und Jetzt, an Ort und Stelle neben dem Namen das Alter, der Beruf, Vorlieben etc. ermittelt werden. Ein noch brisanteres Beispiel wäre die polizeiliche Deanonymisierung einer Demonstration, an der die Personen ihrem Grundrecht auf Versammlungsfreiheit nach anonym teilnehmen (Beuth 2020c). Die Code-Analyse durch das Team um Kashmir Hill hat ergeben, dass die Paarung der ClearviewApp mit Augmented-Reality-Brillen wie Google Glasses möglich ist, die den Einsatz im Feld noch einfacher macht (Hill 2020). Auf Kritik stößt sowohl das Angebot des Unternehmens als auch sein intransparentes Vorgehen. Es wurde 2017 gegründet und hatte seine App und Datenbanknutzung bisher diskret vor allem staatlichen Behörden wie der Polizei in Florida, dem F.B.I. sowie dem Department for Homeland Security erfolgreich angeboten. Da Clearview AI in den Augen der Internetöffentlichkeit über den Kreis seiner Kund*innen nicht genügend Auskunft gab, wurde die Kundenliste des Unternehmens per Hack entwendet (Beuth 2020a, 2020b). Aufgrund des entstandenen Drucks nimmt Clearview inzwischen Bitten um Löschung aus seiner Datenbank entgegen. Die Konditionen für eine „Deindex Request“ sind auf der Website des Unternehmens www.clearview.ai erfahrbar. Ein Werkzeug werde angeboten, inaktive und das heißt nichtöffentliche URLs aus der Datenbank zu entfernen, heißt es dort (vgl. https://clearview.ai/pri vacy/deindex). Weiterhin schreibt Clearview, dass hingegen aktive und damit öffentliche URLs nicht aus der Datenbank genommen werden. Will man Links deaktivieren und später beim Unternehmen löschen lassen, so hat man das Bild selbst offline zu nehmen oder nehmen zu lassen. Abschließend weist Clearview darauf hin, dass eine Wiederveröffentlichung desselben Bildmaterials zu einer zukünftigen Sammlung in ihrer Datenbank führen kann bzw. wird. Mit dieser offensiven Art macht das kleine Unternehmen auf eine neue Phase der Verschmelzung von Internet und Gesellschaft aufmerksam, die durch technische Fortschritte der Bilderkennung und der KI gekennzeichnet ist. Was an Bild- und Textinhalten im öffentlichen Netz zu finden ist, das soll öffentlich verwendbar sein. Im Gegensatz zur Wahrnehmung vieler Nutzer*innen, die ihre Posts immer noch für privat oder semi-privat halten, betrifft das gerade auch die Inhalte in sozialen Medien. Durch Suche und Verknüpfung dieser Inhalte sowie ihrer Kombination mit dem Hier und Jetzt ergeben sich ungeahnte Möglichkeiten der Informationsbeschaffung und Identifizierung.
134
Anna Tuschling
Digitale, KI-gestützte Bildverarbeitung wie diejenige von Clearview stellt bei Weitem nicht das erste und auch nicht das einzige Verfahren zur bildbasierten Identifizierung dar. Ubiquitäre Gesichtserkennung und Affekttechnologien knüpfen an die lange Tradition der bildlichen Identifikation und Klassifikation von Cesare Lambroso bis hin zu Paul Ekman an, scheinen jedoch auf den ersten Blick als Überbietung von Portraitmalerei und Photographie.7 Mit den gegenwärtigen Mitteln, das Gesicht in kurzer Zeit mehrfach bildlich zu erfassen und abzutasten, scheinen die technischen Anstrengungen der Portraitmalerei und bestimmter Formen der frühen Photographie, das Antlitz einer bestimmten Person möglichst genau wiederzugeben, nun auf gewisse Weise zugleich über- und unterboten (weil die Bildqualität an sich nicht unbedingt besser sein muss).8
3 Virtuelle Lebenswelten als Faltungen Clearview hebt die Möglichkeiten des spielerischen Tracking, des virtuellen Stalking, der wirtschaftlichen Kontrolle und nicht zuletzt der staatlichen Überwachung auf eine neue Ebene. Muss diesen Möglichkeiten zum Machtmissbrauch (oder je nach Perspektive Gebrauch) auch konzentriert und kollektiv begegnet werden, so sollten sie die allgemeinen Verschiebungen nicht übersehen lassen, für die Clearview in der digitalen Kultur steht. Kann es auch nicht darum gehen, die intransparenten und fragwürdigen Strategien des Unternehmens u. a. im Hinblick auf die neuen Rechte in Schutz zu nehmen, so sollte der Diskurs doch nicht allein bei Clearview, seinem Agieren und den Möglichkeiten der Erkennungstechnologien verbleiben. Vielmehr rückt die Affäre Clearview eine Transformation der gegenwärtigen digitalen Kultur in den Vordergrund, die sich besonders gut an Affekten ablesen lässt: Die Faltung analoger und digitaler Umgebungen zu virtuellen Lebenswelten, wie sie sich in den Projekten der Augmented-Reality parallel zur Entwicklung der Affekttechnologien abzeichnet.9
7 Vgl. für das verschobene und komplexe Verhältnis von Photographie und Malerei: Sontag 1997. 8 Vgl. eine melancholische Photographiegeschichte: Silverman 2015. 9 Philip Agres’ Modell des Capture und Mark Weisers Vision von ubicomp gehen seit Langem nicht mehr davon aus, dass digitale Umgebungen der Lebenswelt entgegenstehen. Was sich jedoch erst jetzt abzuzeichnen beginnt, sind die vielfältigen Kombinationen und Rekombinationen von Analog und Digital, die hier unter dem Konzept der Faltung fokussiert betrachtet werden.
Faltungen von Analog und Digital: Affektivität und das Social-Media-Dilemma
135
Augmented-Reality steht für eine Verbindung aus analogen und digitalen Elementen, während virtuelle Welten für lange Zeit als reine Gegenwelten entworfen worden waren. Sogar Lev Manovich dokumentiert noch die virtuellen Welten als das große Andere, wenn er in der Einleitung zu Language of New Media einen Wissenschaftler aus Sonys The Virtual Society Projekt zu Wort kommen lässt: In our vision users will not simply access textual based chat forums, but will enter into 3D-worlds where they will be able to interact with the world and other users in that world. (Manovich 2001, 8–9,2 Fn 4)
Virtuelle Welten galten bis in das frühe Millenial hinein als die visuell überwältigenden oder wenigstens überzeugenden Alternativwelten der Zukunft (die sich im Online-Gaming auch realisiert haben). Im selben Maße, in dem sie nicht mehr diesen oppositionellen Status hatten, sondern Teil des Alltags wurden, nahmen auch die Raummetaphern ab. Implizit hat der Beitrag die These verfolgt, dass die Semantiken des Affektiven und Emotionalen eine Schlüsselrolle spielen, um die Hegemonie der Raummetaphern zu beenden, mit denen digitale Medien und das Internet lange Zeit belegt wurden. Affekttechnologien haben bei der sich vollziehenden Faltung von so genannt realer und digitaler Umgebung zu einer virtuellen Lebenswelt eine zentrale, wenn auch nicht unproblematische Funktion, die sich besonders an der Gesichtserkennung zeigt. Methoden der ubiquitären Gesichtserkennung, wie sie Clearview AI nutzt und anbietet, machen auf eine Achillesferse der digitalen Kultur aufmerksam. In der Geschichte des Internets wurde Verwundbarkeit, immer verstanden als Verwundbarkeit der technischen Infrastruktur an sich, seit Paul Barans Memorandum über verteilte Kommunikation ausschließlich als Problem der Zentralisierung angesehen (Galloway 2004). Barans noch nicht technisch realisiertes Kommunikationsnetz versuchte einen möglichen Angriff durch feindliche Mächte dadurch zu erschweren, dass alle Kommunikationspartner verteilt und gleichberechtigt in das Netzwerk eingebunden sind. Im Falle der Zerstörung von Teilen des Netzes sollten alle verbleibenden Knoten noch miteinander verbunden sein bzw. kommunizieren können. Ergo bedeutet jede Konzentration oder eben Zentralisierung von Kommunikation und Wissen eine Schwäche für ein solch verteiltes Kommunikationswesen, weil sich durch Angriff auf die zentralen Stellen mehr Verwüstung anrichten lässt, die tendenziell das Ganze trifft und betrifft. Nichtsdestrotrotz muss es etwas geben, das die verteilten Stellen des Baran’schen Netzes, das sich als Internet technisch entfalten sollte, zusammenhält. In der Mediengeschichte und dann vor allem der Medienkulturtheorie der 2000er Jahre sind insbesondere die gemeinsamen Vorschriften, die Layer, technischen Protokolle und vor allem die Protokollfamilie als dieses verbindende Element – damit aber auch als die Schwachstelle des Internets – untersucht
136
Anna Tuschling
worden. Alexander Galloway gehörte zu den ersten, die die Internetgemeinschaft zu entzaubern versuchten, indem er Gilles Deleuzes Begriff der Kontrolle auf die Protokollbasiertheit des Netzes bezog (Galloway 2004). Schon Tim Berners-Lee, so Galloway, habe etwa das Domain-Name System (DNS) als die eine Schwachstelle erkannt: als „the one centralized Achilles’ heel by which [the Web] can be all brought down or controlled“ (Berners-Lee 1999, zit. nach Galloway 2004, 10). Mittlerweile entscheidet nicht mehr nur die Zentralität oder Dezentralität der digitalen Infrastruktur über Kontrolle oder freien Austausch, sondern die Faltung digitaler Elemente in das Hier und Jetzt. Spätestens mit dem Aufstieg sozialer Netzwerke ab 2004 ist eine grundsätzliche Veränderung der digitalen Kultur eingetreten, die nun begann, bürgerliche Identitäten auf selbstverständliche Weise mit Online-Inhalten zu verbinden. Teilhabe in bestimmten Formen ist jetzt und heute an digitale Teilhabe gebunden. Wer auf diese Weise teilhaben will oder z. T. beruflich sogar muss, sieht sich inzwischen mit dem konfrontiert, was das Social-Media-Dilemma genannt werden soll. Einerseits organisieren sich kulturelle, berufliche und gesellschaftliche Zusammenhänge verstärkt oder gar nur noch über bestimmte Plattformen oder Dienste wie vor allem Facebook, Youtube, Instagram, Venmo, TikTok oder Whatsapp. Andererseits muss einer Zweitverwertung der Daten per Vertrag zugestimmt werden. Fast jeder kommerzielle Dienst sammelt, verwertet und teilt verschiedene Datenarten und gewaltige Datenmengen. Dieses Social-Media-Dilemma in Zeiten der Plattformökonomie beschleunigt und problematisiert die sich vollziehende Faltung analoger und digitaler Umgebungen zu virtuellen Lebenswelten. Will man diese Faltung vollumfänglich begrüßen können, dann hat man das Social-Media-Dilemma zu adressieren.
Literatur Andreas, Michael, Dawid Kasprowicz und Stefan Rieger (Hg.). Unterwachen und Schlafen: Anthropophile Medien nach dem Interface. Lüneburg: meson press, 2018. Angerer, Marie-Luise. Affektökologie: Intensive Milieus und zufällige Begegnungen. Lüneburg: meson press. 2018. Angerer, Marie-Luise. Vom Begehren nach dem Affekt. Zürich: Diaphanes, 2007. Beuth, Patrick: „Clearview räumt Diebstahl seiner Kundenliste ein“. Der Spiegel (27. Februar 020). https://www.spiegel.de/netzwelt/web/clearview-raeumt-diebstahl-seiner-kunden liste-ein-a-43a00962-33a0-404e-9571-ae97c0505a5e, 2020b (15. April 2020). Beuth, Patrick. „Clearview: Auf Kundenliste stehen Banken, Schulen und europäische Behörden“. Der Spiegel (28.02.2020). https://www.spiegel.de/netzwelt/web/clearviewauf-kundenliste-stehen-banken-schulen-und-europaeische-behoerden-a-1649eaca-6bf249e0-a423-ff60ddcb62ca, 2020a (15. April 2020).
Faltungen von Analog und Digital: Affektivität und das Social-Media-Dilemma
137
Beuth, Patrick. „Hamburgs Datenschützer leitet Prüfverfahren gegen Clearview“. Der Spiegel (25.03.2020). https://www.spiegel.de/netzwelt/web/clearview-hamburgs-datenschuetzer-lei tet-pruefverfahren-ein-a-0ec1870d-c2a5-4ea1-807b-ac5c385ae165, 2020c (15. April 2020). Boring, Edwin G. A History Of Experimental Psychology. New York, London: The Century Co., 1929. Canguilhelm, Georges. „Was ist Psychologie? (1958)“. Norm, Normalität, Gesetz. Hg. André Michels, Susanne Gottlob und Bernhard Schwaiger. Wien: Turia + Kant, 2012. 219–235. Davidson, Donald. „Turing’s Test“. Problems of Rationality. Oxford, New York: Oxford University Press, 2004. 77–86. Deleuze, Gilles und Félix Guattari. Tausend Plateaus. Kapitalismus und Schizophrenie. Berlin: Merve, 1980. Deleuze, Gilles. Das Bewegungs-Bild, Kino 1. Frankfurt a.M.: Suhrkamp, 1989. Deleuze, Gilles. Die Falte. Leibniz und der Barock. Frankfurt a.M.: Suhrkamp, 2000. Ebbinghaus, Hermann. Abriss der Psychologie. Leipzig: Veit & Comp, 1908. Ewerth, Ralph und Bernd Freisleben. „Computerunterstützte Filmanalyse mit Videana“. AugenBlick. Marburger Hefte zur Medienwissenschaft. Bd. 39: Technisierung des Blicks. Hg. Angela Krewani. Marburg: Schüren, 2001. 44–66. Freud, Sigmund. „Das Unbehagen in der Kultur“. Gesammelte Werke XIV. Frankfurt a.M.: Fischer, 1999a. 419–506. Freud, Sigmund. „Totem und Tabu“. Gesammelte Werke IX. Frankfurt a.M.: Fischer, 1999b. Galloway, Alexander R. Protocol: How Control Exists After Decentralization. Cambridge, MA: MIT Press, 2004. Hardt, Michael. The Affective Turn: Theorizing the Social. Hg. Patricia Ticineto Clough und Jean Halley. Durham: Duke University Press, 2007. Heilmann, Till A. „Datenarbeit im ‚Capture‘-Kapitalismus. Zur Ausweitung der Verwertungszone im Zeitalter informatischer Überwachung“. Zeitschrift für Medienwissenschaft 13 (2015): 35–48. Hill, Kashmir. „The Secretive Company That Might End Privacy as We Know It“. The New York Times (18. Januar 2020). https://www.nytimes.com/2020/01/18/technology/clearviewprivacy-facial-recognition.html, 2020 (15. April 2020). Kittler, Friedrich. „Der Mensch, ein betrunkener Dorfmusikant“. Text und Wissen. Technologische und anthropologische Aspekte. Hg. Renate Lachmann und Stefan Rieger. Tübingen: Gunter Narr, 2003. 29–43. Leys, Ruth. The Ascent of Affect: Genealogy and Critique. Chicago, London: The University of Chicago Press, 2017. Löffler, Petra. Affektbilder: Eine Mediengeschichte der Mimik. Bielefeld: transcript, 2004. Manovich, Lev. The Language of New Media. Cambridge, Mass.: MIT Press, 2001. 8–9 Fn 4. Massumi, Brian. Parables for the Virtual. Movement, Affect, Sensation, Post-contemporary interventions. Durham, NC: Duke University Press, 2002. Miyazaki, Shintaro. „Take Back the Algorithms. A Media Theory of Commonistic Affordance.“ Media Theory 3 (2019): 269–286. Sedgwick, Eve Kosofsky. Touching Feeling: Affect, Pedagogy, Performativity. Durham, NC: Duke University Press, 2003. Shaviro, Steven. Post Cinematic Affect. Winchester: John Hunt Publishing, 2010. Silverman, Kaja. The Miracle of Analogy. Stanford, CA: Stanford University Press, 2015. Slaby, Jan und Christian Von Scheve (Hg.). Affective Societies: Key Concepts. London, New York: Taylor & Francis Ltd, 2019.
138
Anna Tuschling
Slaby, Jan, Rainer Mühlhoff und Philipp Wüschner. „Affective Arrangements“. Emotion Review 11:1 (2019): S. 3–12. Sontag, Susan. On Photography. New York: Farrar, Straus and Giroux, 1977. Sudmann, Andreas (Hg.). The Democratization of Artificial Intelligence: Net Politics in the Era of Learning Algorithms. Bielefeld: transcript Verlag, 2019. Turing, Alan Mathison. „Computing Machinery and Intelligence“. Mind. A Quarterly Review of Psychology and Philosophy 236: Vol.LIX. (10.1950): 433–460. Tuschling, Anna. „Affective/Emotional Computing“. Handbuch Virtualität. Hg. Dawid Kasprowicz und Stefan Rieger. Stuttgart: Springer, 2020. 373–384. Tuschling, Anna. „The Age of Affective Computing“. Timing of Affect. Epistemologies, Aesthetics, Politics. Hg. Marie-Luise Angerer, Bernd Bösel und Michaela Ott. Zürich, Berlin: Diaphanes, 2014. 179–190. Viola, Paul und Michael Jones. „Rapid object detection using a boosted cascade of simple features“. Proceedings IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE. 511–518, 2001a, Viola, Paul und Michael Jones. „Robust Real-time Object Detection“. International Journal of Computer Vision, 2001b. Wichum, Ricky. Biometrie: Zur Soziologie der Identifikation. Paderborn: Wilhelm Fink, 2017.
Abbildung Abb. 1 ߓViola Jones feature types https://commons.wikimedia.org/wiki/File:VJ_featureTypes. svg. Indif / CC BY-SA (https://creativecommons.org/licenses/by-sa/3.0).
Räume
Jens Kersten
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen von Augmented und Virtual Reality 1 Juristische als virtuelle Lebenswelt Was ist gemeint, wenn von virtuellen Lebenswelten die Rede ist? Aus juristischer Perspektive steht bei der Beantwortung dieser Frage einiges auf dem Spiel. Denn selbst wenn man nicht gleich die gesamte Rechtsordnung als eine virtuelle Lebenswelt begreifen will, haben doch zentrale Rechtsfiguren und Rechtsinstitute einen virtuellen Charakter: die natürliche Person zum Beispiel – also das normative Verständnis von uns selbst; und erst recht die juristische Person – also die normative Verselbständigung von Personenmehrheiten oder Vermögensmassen zu einem juristisch handlungsfähigen Subjekt. Mit dem Begriff der „Virtualität“ wird aber auch die demokratische Repräsentation des Volkes im Deutschen Bundestag beschrieben oder die Rechtstatsache, dass Gerichtsurteile im Namen des Volkes ergehen. Juristinnen und Juristen können mit dieser virtuellen Form grundlegender Rechtskategorien wie ‚Person‘, ‚Demokratie‘ und ‚Repräsentation‘ sehr flexibel und phantasievoll umgehen, weil die Rechtswissenschaft und die Rechtspraxis normativ und damit konstruktiv sind. „Im Bereich des Rechts“ – so Bruno Latour (2010, 339) – „besaß man immer die Höflichkeit, den eigenen Relativismus und Konstruktivismus anzuerkennen, ohne eine Staatsaffäre daraus zu machen.“ In gewisser Weise stimmt also durchaus, was viele schon immer vermutet haben: Juristinnen und Juristen reisen wissenschaftlich und praktisch mit sehr leichtem – fast könnte man sagen – virtuellem Gepäck. Sie verfügen über kein real-substanzielles, sondern ein konstruktiv-normatives Verständnis von rechtlicher Realität – also der virtuellen Sphäre, in der sich empirische und normative Welt begegnen. Deshalb können sie Fiktionen, Metaphern und Symbole – wie beispielsweise die natürliche bzw. juristische Person oder demokratische Repräsentation – verwenden, um soziale und politische, ökonomische und ökologische Fragen zu beantworten (Münkler 2016). Allerdings entfaltet sich dieser normative Konstruktivismus keineswegs willkürlich: Zwar kann er sich nicht auf reale Substrate berufen, um juristische Rechtsfiguren und Rechtsinstitute zu begründen: Es darf nicht unmittelbar von einem Sein auf ein Sollen geschlossen werden. Dies wäre ein naturalistischer Fehlschluss, selbst wenn – wie wir sogleich sehen Open Access. © 2021 Jens Kersten, publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz. https://doi.org/10.1515/9783110638127-009
142
Jens Kersten
werden – die „normative Kraft des Faktischen“ (Jellinek 1914, 338) gerade in der rechtlichen Reflexion der Kommunikationstechnik- und Medienentwicklung eine ganz zentrale Rolle spielt. Doch ungeachtet dessen folgt der rechtliche Konstruktivismus normativen Regeln, die sich insbesondere in der Verfassung, also im Grundgesetz finden. So folgt – wiederum beispielhaft – die normative Konstruktion und rechtliche Ausgestaltung der natürlichen Person – also unseres rechtlichen Status als Menschen – dem Prinzip der Menschenwürde (Artikel 1 Absatz 1 Grundgesetz) und dem Persönlichkeitsrecht (Artikel 2 Absatz 1 in Verbindung mit Artikel 1 Absatz 1 Grundgesetz); sehr verkürzt: Wir müssen als Menschen das Recht haben, uns selbst zu bestimmen und unsere Persönlichkeit zu entwickeln. Ebenso folgt die normative Entfaltung des Volkes als demokratisches Subjekt (Artikel 20 Absatz 2 Satz 1 Grundgesetz) den verfassungsrechtlichen Verfahrensregelungen der demokratischen Wahl der Abgeordneten des Bundestags. Diese repräsentieren aufgrund ihres freien Mandats das ganze Volk (Artikel 38 Grundgesetz) – wiederum sehr verkürzt: Aufgrund ihrer Menschenwürde und ihres Persönlichkeitsrechts können die Bürger*innen sich individuell selbst bestimmen und verfügen deshalb auch über das Recht, sich kollektiv demokratisch selbst zu bestimmen. Doch mit dieser Offenlegung des konstruktivistischen Verständnisses des Rechts sind die Möglichkeiten, aus juristischer Perspektive die virtuelle Lebenswelt der Rechtsordnung zu beschreiben und zu verstehen, noch keineswegs ausgeschöpft. Denn die virtuelle Realität praktisch aller soeben genannten juristischen Konzepte – also der natürlichen und juristischen Person oder der demokratischen Repräsentation des Volkes im Parlament – wird durch Medien konstituiert oder hängt jedenfalls von Medien ab (Benjamin 2017 [1936], 44 Fußnote 20). Ihre konkrete rechtliche Form und Gestalt beruht auf einem ganz konkreten Medieneinsatz, einer bestimmten Medienverfassung (Vismann 2011, 2012). Aus diesem Grund lässt sich in einer kulturtechnisch informierten juristischen Perspektive das Verhältnis von Recht und Medien noch näher bestimmen: Die virtuelle Realität von Rechtsfiguren und Rechtsinstituten verschiebt sich mit der Medienentwicklung. So verändert sich auch das, was individuell Persönlichkeit und kollektiv Demokratie ist, sein kann oder sein soll, mit den Medien, die einer Gesellschaft und damit deren Rechtsordnung zur Verfügung stehen: Vom Gesprochenen, Gemeißelten und Geschriebenen über das Gedruckte und Gesendete zum Gemailten, Gestreamten und Getwitterten. Diese Feststellung ist an sich banal, doch nicht das, was juristisch aus ihr folgt: Die Rechtsordnung muss sich bei jeder neuen Medienentwicklung entscheiden, ob sie – ganz im Sinn des funktionalen Rechtsverständnisses Niklas Luhmanns (1987, 31–80) – an der überkommenen Medienverfassung ihrer Rechtsfiguren und Rechtsinstitute festhält und diese folglich entgegen einer neuen Medien-
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen
143
entwicklung kontrafaktisch stabilisiert. Alternativ kann die Rechtsordnung aber auch medial lernen, also neue Medien in ihr konstruktivistisches Verständnis von Rechtsfiguren und Rechtsinstituten einbeziehen und damit deren normative Form und rechtliche Gestalt verändern. Auf diese Weise führen mediale Entwicklungen über die normativen Konstruktionen zu rechtlichen Realitätsverschiebungen – oder eben nicht. Das wohl bekannteste Beispiel hierfür bildet § 169 Gerichtsverfassungsgesetz: Die gerichtliche Verhandlung und die Verkündung der Urteile und Beschlüsse sind öffentlich. Ton- und Fernsehaufnahmen sind aber grundsätzlich unzulässig, wobei allerdings inzwischen Ausnahmen vorgesehen sind – etwa für die Entscheidungsverkündung oberster Gerichtshöfe oder zu wissenschaftlichen und historischen Zwecken (vgl. auch § 17a Bundesverfassungsgerichtsgesetz). Das heißt: Die Rechtsordnung hält nach wie vor für die Gerichtsverhandlung und das Urteil im Namen des Volkes medial am Gesprochenem und Geschriebenen fest. Rundfunk- und Fernsehaufnahmen werden grundsätzlich rechtlich ausgeschlossen bzw. nur unter engen Voraussetzungen ausnahmsweise zugelassen. Wie folgenreich diese Entscheidung über die mediale Verfassung von Rechtsinstituten für die Realität des Gerichtsprozesses ist, kann man sich unmittelbar selbst verdeutlichen, indem man sich den ersten Prozess von O. J. Simpson einmal mit und einmal ohne Fernsehübertragungen der Gerichtsverhandlungen vorstellt. Im Folgenden soll es um die normativen Realitätsverschiebungen gehen, die Augmented und Virtual Reality verursachen (können). Wie kann und soll unsere Rechtsordnung auf Augmented und Virtual Reality reagieren: kontrafaktisch ablehnend oder positiv lernend? Wie verändern sich Rechtsfiguren und Rechtsinstitute, wenn wir diese medialen Realitätsverschiebungen rechtlich zulassen? Und wie sollen und können wir diese virtuellen Realitätsverschiebungen rechtlich gestalten? Bei der Beantwortung dieser Fragen stehen wir vor dem Problem, dass sowohl Augmented als auch Virtual Reality Kommunikationstechniken sind, die sich gegenwärtig noch auf der Suche nach ihren Anwendungsfeldern befinden (Lanier 2018, 286). Aktuell sind sie noch Teil des medialen Kommunikationsüberschusses, den die digitale Revolution erzeugt hat und mit dem die „nächste Gesellschaft“ erst noch umgehen lernen muss (Baecker 2007, 8–9; 2018, 10–11). Im Hinblick auf Augmented Reality ist Google Glass dafür ein gutes Beispiel: Brillen soll(t)en mittels eines integrierten Minicomputers Personen die Möglichkeit eröffnen, soziale Interaktion mit Daten und Informationen zu unterlegen und verdeckt Bild- und Wortaufnahmen zu machen, die wiederum von dem Brillenhersteller gespeichert werden. Doch Google Glass hat sich nicht durchgesetzt, weil es nicht als eine soziale Technik wahrgenommen wurde (Lanier 2018, 262–263; Bailenson 2018, 10; Volland 2018, 159; Metz und Seeßlen 2018, 110–112). In gewisser Weise spiegelt sich dies
144
Jens Kersten
auch in der juristischen Diskussion, in der die Möglichkeit einer brillengestützten Surveillance als Verstoß gegen das Persönlichkeitsrecht der betroffenen Personen eingeordnet wird – konkreter: als Verstoß gegen das Recht am eigenen Bild und am eigenen Wort, gegen das Recht auf informationelle Selbstbestimmung sowie den Datenschutz (Solmecke und Kocatepe 2014). Doch zugleich ist auch klar, dass sich ganz parallele rechtliche Einwände bei der Einführung von Mobiltelefonen mit Kamera- und Sprachaufzeichnungsfunktion gestellt haben. Allerdings sind die Medienentwicklung und Mediennutzung in diesem Fall aber schlicht faktisch über die genannten rechtlichen Einwände hinweggegangen (Solmecke und Kocatepe 2014, 26–27). Dies hat zu einem medialen Strukturwandel der Öffentlichkeit geführt, der die rechtliche Realität für die Gewährleistung unseres Persönlichkeitsrechts verschoben hat. Die normative Kraft des Faktischen – im konkreten Fall der Kommunikationstechnik- und Medienentwicklung – darf also keineswegs unterschätzt werden, wenn rechtliche Realitätsverschiebungen juristisch zu reflektieren sind. Der mediale Übergang von „Überwachen und Strafen“ (Foucault 1976) zu „Unterwachen und Schlafen“ (Andreas et al. 2018; Rieger 2019, 99–119) vollzieht sich hier nicht durch eine explizite und punktuelle Entscheidung der Rechtsordnung, sondern subkutan und fließend. Wenn aber Augmented und Virtual Reality erst noch ihre Anwendungsfelder suchen, können diese auch politisch sein. Welche Realitätsverschiebungen in der Rechtsordnung sind hier zu erwarten? Wo wird vor allem das Verfassungsrecht lernen und sich Augmented und Virtual Reality gestaltend annehmen? Und wo wird das Grundgesetz – wahrscheinlich – kontrafaktisch an der überkommenen Medienordnung und damit auch an tradierten rechtlichen Konstruktionen festhalten? Es versteht sich von selbst, dass die Beantwortung dieser Fragen etwas Spekulatives hat: Wer weiß schon wirklich, in welche Richtung sich Augmented und Virtual Reality im Spannungsfeld zwischen virtuellem Realismus und virtuellem Idealismus in unserer disruptiven Medienwelt entwickeln (Lanier 2018, 238)? Doch es gibt immerhin Anhaltspunkte, um erste Überlegungen hinsichtlich der politischen und dementsprechend auch verfassungsrechtlichen Verwendung von Augmented und Virtual Reality anzustellen. So bildet die naheliegende Frage nach den verfassungsrechtlichen Folgen einer Politisierung von Augmented Reality am Beispiel von Pokémon Go den argumentativen Ausgangspunkt (2.). Sodann sollen die verfassungsrechtlichen Dimensionen von Virtual Reality diskutiert werden: Wo ließe sich Virtual Reality im verfassungspolitischen Prozess und Staatsorganisationsrecht einsetzen? Und wie könnte, würde oder sollte die Verfassungsrechtsordnung darauf reagieren (3.)?
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen
145
2 Augmented Reality: Virtuelle Transformationen des Politischen Auf den ersten Blick scheint die Rechts- und Verfassungsordnung auf die Herausforderung, die durch die Augmented Reality von Pokémon Go erzeugt wird, angemessen reagieren zu können (Jacobs et al. 2016; Hilgert und Sümmermann 2016; Prütting und Wilke 2016; Söbbing 2016; Tinnefeld 2016): Soweit Pokémons bzw. Pokéstops so platziert werden, dass Spieler*innen entweder privates Eigentum beeinträchtigen oder die Funktion öffentlicher Einrichtungen – einschließlich Straßen – stören, greifen zivil- und öffentlich-rechtliche Hausrechte und Unterlassungsansprüche, die sowohl gegenüber den einzelnen Spielerinnen und Spielern als auch gegenüber Spielebetreibern rechtlich geltend gemacht werden können. Daneben treten das Polizei- und Sicherheitsrecht: Es dürfen Betretungsverbote und Platzverweisungen ausgesprochen und Ansammlungen aufgelöst werden, wenn sie eine Gefahr für die öffentliche Sicherheit und Ordnung begründen. Darüber hinaus steht die Strafbarkeit des Hausfriedenbruchs im Raum. Schließlich kommen auch Schadensersatzansprüche in Betracht. Kurz: Privatpersonen müssen nicht dulden, dass ihr Eigentum und Besitz aufgrund eines privaten und kommerziellen Spiels analog oder virtuell beeinträchtigt werden; und keine Verwaltung darf es erlauben, dass ihre Funktionen, die dem Gemeinwohl dienen, durch Pokémon Go gestört werden. Damit wird deutlich, dass im Fall von Pokémon Go zunächst keine oder jedenfalls keine wesentlichen Realitätsverschiebungen in der Rechtsordnung stattfinden. Das Verständnis des Hausrechts entwickelt sich als Ausprägung des privaten Eigentums- und öffentlichen Sachenrechts weiter, indem es eine virtuelle Dimension entfaltet: Privatpersonen und Verwaltungen müssen auch keine virtuellen Beeinträchtigungen ihrer Grundstücke bzw. in ihren Gebäuden dulden. So weit, so gut! Doch was würde sich verändern, wenn Pokémon Go nicht eine Mischung aus Spiel und Kommerz bliebe, sondern politisch würde? Wenn also aus „Pocket Monster“, für das ja „Pokémon“ steht, „Pocket Politics“ würde und die Bürger*innen also anfingen, „Pocket Politics Go“ – „Poképol Go“ – zu „spielen“? Mit dieser Politisierung von Augmented Reality würden sehr viel größere Realitätsverschiebungen in der Rechts- und Verfassungsordnung eintreten. Der öffentliche Raum würde durch politische Augmented Reality transformiert, virtuell vervielfacht und erweitert. Auf der verfassungsrechtlichen Grundlage der Meinungsfreiheit (Artikel 5 Absatz 1 Satz 1 Grundgesetz) könnte sich eine ganz neue, virtuelle Stadtbeschilderung entwickeln. So entstünden neue Formen des Kommentierens und Bebilderns des öffentlichen Raums. Beispielsweise könnten vor Geschäften,
146
Jens Kersten
Unternehmen und Behörden politische Pokémons gesetzt werden, die über Unternehmens- und Behördenpolitiken informieren – bei Unternehmen beispielsweise über Arbeitsbedingungen, bei Behörden über Verwaltungspolitiken. Auch das Versammlungsrecht (Artikel 8 Absatz 1 Grundgesetz) ließe sich mit Hilfe politischer Pokémons sehr viel spontaner und situativer gestalten und wahrnehmen. Allerdings ist eine solche Politisierung von Pokémon Go durchaus ambivalent: Die politischen Pokémons müssen nicht notwendigerweise zu aufgeklärten Zwecken eingesetzt werden. Sie könnten auch beispielsweise dazu dienen, die Wohnungen politischer Gegner zu kennzeichnen, um diese zu terrorisieren. Auch lassen sich mit dieser Technik im Kontext gewalttätiger Demonstrationen beispielweise offene Fluchtwege und neue Sammelplätze in einer Stadt spontan markieren, um Polizeieinsätze strategisch zu umgehen. In rechtlicher Perspektive ist es immer wichtig, auch die pathologischen Anwendungen neuer Kommunikationstechniken im Auge zu behalten. Doch diese Ambivalenz der Medienentwicklung spricht nicht gegen neue Kommunikationstechniken und -formen an sich. Die legale Entfaltung von Augmented Reality kann dabei den öffentlichen Raum nicht nur um eine neue bildhaft-virtuelle Kommunikationsform bereichern. Vielmehr würde die politische Anwendung von Augmented Reality mit ihrer bildhaft-virtuellen Kommunikation auch zu einer rechtlichen Realitätsverschiebung des öffentlichen Raums beitragen, die sich seit einigen Jahren mit der zunehmenden Kommunikationspflichtigkeit des Privateigentums (Artikel 14 Absatz 1 Grundgesetz) abzeichnet (Siehr 2016): Wenn private Eigentümer einen öffentlichen Raum – ein public forum – eröffnen, müssen sie auch prinzipiell dulden, dass die Bürger*innen in diesem öffentlichen Raum ihre Kommunikationsgrundrechte, also die Meinungs- und Versammlungsfreiheit, wahrnehmen. Diesen Grundsatz hat das Bundesverfassungsgericht vor dem Hintergrund einer zunehmenden Privatisierung des öffentlichen Raums entwickelt. So sind nicht nur die Deutsche Bahn AG als 100%ige Bundestochter im Hinblick auf Bahnhöfe an die Meinungsund Versammlungsfreiheit gebunden, sondern auch Aktiengesellschaften, die im Mehrheitsbesitz der öffentlichen Hand stehen und zum Beispiel Flughäfen betreiben (BVerfG 2011). Zuletzt hat das Bundesverfassungsgericht auch die Pflicht des privaten Eigentümers eines öffentlichen Platzes bejaht, einen Flashmob zu dulden, der sich gegen die Privatisierung des öffentlichen Raums wendet (BVerfG 2015). Damit verändert sich die rechtliche Kontur des Privateigentums, das zugunsten der Kommunikationsgrundrechte eingeschränkt wird. Diese Entwicklung lässt sich wie folgt verallgemeinern (Kersten 2017a, 228–229): Wenn ein privater Eigentümer ein öffentliches Forum eröffnet, so wird sein analoges, aber auch sein virtuelles Hausrecht mit Blick auf die Kommunikationsfreiheiten der Nutzer*innen dieses öffentlichen Raums eingeschränkt. Es muss ein verhältnismäßiger Ausgleich zwischen der Eigentumsfreiheit einerseits und der Meinungs- und Ver-
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen
147
sammlungsfreiheit andererseits in jedem Einzelfall gefunden werden. Diese kommunikationspflichtige Transformation des Eigentums wird durch politische und vor allem aktivistische Augmented Reality einen weiteren Schub erhalten. So ist es beispielsweise möglich, dass die aktuellen Konflikte zwischen Kunstfreiheit (Artikel 5 Absatz 3 Satz 1 Grundgesetz) und Identitätspolitiken um Bilder und andere Kunstwerke in Museen (Kaube 2018; Rauterberg 2018) mittels des virtuellen Kommentierens und Bebilderns in Form von politisierter Augmented Reality im unmittelbaren räumlichen Kontext des Bildes bzw. Kunstwerks im Museum selbst ausgetragen werden. Weil Museen ein Public Forum eröffnet haben, können sie sich insofern grundsätzlich nicht auf ihr virtuelles Hausrecht berufen, um diese virtuellen Kommunikationsformen kategorisch auszuschließen. Vielmehr sehen sich private und öffentliche Museen gerade herausgefordert, die darin liegende politische, aber auch rechtliche Realitätsverschiebung aktiv mitzugestalten. So erweist sich die Rechtsordnung für mediale Realitätsverschiebungen durch Augmented Reality prinzipiell offen.
3 Virtual Reality: Virtuelle Simulationen des Politischen Während Augmented Reality die analoge Lebenswelt virtuell überformt, simuliert Virtual Reality virtuelle Lebenswelten, die sich einerseits von der analogen Welt unterscheiden, zugleich aber auch mit dieser verbunden sind. Diese Verbindung wird vor allem dadurch geschaffen, dass es sich bei Virtual Reality um eine kommunikative Interaktionsform handelt, die durch immersives, unmittelbar körperliches Erleben von Personen geprägt ist (Kelly 2016, 211–217, 226–227, 229; Bailenson 2018, 1–7, 46, 249; Volland 2018, 201–207). Welche rechtlichen Realitätsverschiebungen vollziehen sich hier, wenn sich diese virtuellen Simulationen im politischen Raum entfalten? Um diese Frage zu beantworten, soll im Folgenden zwischen der grundrechtlichen (3.1.) und der staatsorganisatorischen (3.2.) Sphäre des Politischen unterschieden werden.
3.1 Grundrechtliche Sphäre des Politischen: Virtuelle Versammlungsfreiheit Auch im virtuellen Raum beginnt jede Politik mit der Meinungs- und Versammlungsfreiheit. Menschen finden sich zusammen, um gemeinsam etwas politisch zu tun, gemeinsam eine politische Meinung zu entwickeln, zu demonstrieren,
148
Jens Kersten
um Politik zu diskutieren, zu kritisieren und zu beeinflussen. Dies können sie auch als Avatare in virtuellen Räumen. Virtual Reality erleichtert die politische Versammlung von Menschen, die in der analogen Welt räumlich weit voneinander entfernt sind. Welche zentrale Bedeutung Medien und Infrastrukturen gerade für die politische Arbeit spielen, haben schon Karl Marx und Friedrich Engels im Manifest der Kommunistischen Partei mit Blick auf Eisenbahninfrastrukturen beschrieben: Es sind die „wachsenden Kommunikationsmittel, die von der großen Industrie erzeugt werden und die Arbeiter der verschiedenen Lokalitäten miteinander in Verbindung setzen“ (Marx und Engels 1984 [1848], 55). Hier fallen 1848 bereits die zentralen Begriffe, die unser soziales und politisches Denken bis heute bestimmen: „Kommunikationsmittel“, „große Industrie“ und „in Verbindung setzen“ – also Vernetzung. Auch politische Versammlungen in der Virtual Reality bewegen sich in diesem begrifflichen Dreiklang, und gehen zugleich darüber hinaus, indem sie dem Politischen einen vollkommen neuen, virtuellen Raum eröffnen, der körperlich erlebbar ist. Das Verfassungsrecht ist sich aber gegenwärtig noch unschlüssig, ob es diese Realitätsverschiebung nachvollziehen möchte: Die wohl (noch) herrschende Meinung unter Verfassungsrechtlerinnen und Verfassungsrechtlern hat keine Schwierigkeiten, Bürger*innen, die im virtuellen Raum politisch aktiv werden, die Meinungsfreiheit zuzusprechen. Sie zweifelt jedoch daran, ob man das Versammlungsrecht im virtuellen Raum wahrnehmen kann: Die Versammlungsfreiheit – so das Argument – erfordere es, mit seinem Körper für die eigene Meinung einzustehen (Kingreen und Poscher 2018, 228): Das sei bei einer Versammlung im analogen Raum gewährleistet, nicht aber bei einer Zusammenkunft in der virtuellen Lebenswelt. Diese im Verfassungsrecht noch vorherrschende Auffassung verdient jedoch keine Zustimmung (Kersten 2017c, 198): Schon die klassische Auslegung des Artikel 8 Absatz 1 Grundgesetz nach Wortlaut und Zweck zeigt, dass eine Erstreckung der Versammlungsfreiheit in den virtuellen Raum und damit eine medial begründete rechtliche Realitätsverschiebung problemlos möglich ist. Artikel 8 Absatz 1 Grundgesetz lautet: „Alle Deutschen haben das Recht, sich ohne Anmeldung oder Erlaubnis friedlich und ohne Waffen zu versammeln.“ Eine Versammlung ist nach der klassischen Rechtsprechung des Bundesverfassungsgerichts eine Zusammenkunft von mehreren Personen, die zur Verfolgung eines gemeinsamen Zwecks innerlich verbunden sind (BVerfG 1985, 342–343). Nach der jüngeren Rechtsprechung des Bundesverfassungsgerichts sind Versammlungen „örtliche Zusammenkünfte mehrerer Personen zur gemeinschaftlichen, auf die Teilhabe an der öffentlichen Meinungsbildung gerichteten Erörterung oder Kundgebung“ (BVerfG 2002 [2001], 104; ferner BVerfG 2011, 250). Doch aus der definitorischen Anforderung einer „örtlichen Zusammenkunft“ ergibt sich keineswegs zwangsläufig, dass
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen
149
sich der Ort der gemeinsamen Versammlung notwendigerweise in der analogen Welt befinden müsste. Es kann auch ein virtueller Raum gewählt werden. Bisher haben sich Menschen in der Regel im öffentlichen Straßenraum versammelt. Dies bedeutet allerdings nicht, dass der grundrechtliche Schutz des Artikels 8 Absatz 1 Grundgesetz allein auf diese tradierten Versammlungsorte und zugleich auch auf die überkommenen Versammlungsformen der analogen Welt beschränkt wäre. Vielmehr betont das Bundesverfassungsgericht in ständiger Rechtsprechung: Die Versammlungsfreiheit ist als „Ausdruck gemeinschaftlicher, auf Kommunikation angelegter Entfaltung“ (BVerfG 1985, 343; ferner BVerfG 2002 [2001], 104) geschützt. Es unterstreicht darüber hinaus auch die Offenheit des durch Artikel 8 Absatz 1 Grundgesetz vermittelten Schutzes für vollkommen neue Formen des Sich-Versammelns (BVerfG 1985, 343). Dieser kommunikative Sinn- und Handlungszusammenhang kann aber gerade auch durch das gemeinschaftliche SichVersammeln verwirklicht werden, wenn Bürger*innen als Avatare im virtuellen Raum zu einem gemeinsamen politischen Zweck verbunden sind. Damit ist der Schutz der Versammlungsfreiheit nicht auf physische Zusammenkünfte in der analogen Welt beschränkt. Vielmehr erstreckt sich die Gewährleistung des Artikel 8 Absatz 1 Grundgesetz auch auf Versammlungen in der virtuellen Lebenswelt. Die damit verbundene Realitätsverschiebung des Rechts ist ohne eine Rechtsänderung durch Verfassungsauslegung möglich. Diese Realitätsverschiebung sollte auch für die oben zitierte herrschende Meinung nachvollziehbar sein, die hinsichtlich der Versammlungsfreiheit auf die körperliche Präsenz der Büger*innen abstellt. Denn eine solche körperliche Präsenz wird ja gerade auch im virtuellen Raum hergestellt. Wir sind mit unserem Avatar körperlich verbunden. Virtual Reality ist ein immersives, interaktives körperliches Erlebnis. Dies führt uns hinsichtlich der Gewährleistung der Versammlungsfreiheit, aber auch darüber hinaus vor Augen, dass eine strikte Unterscheidung zwischen analoger und virtueller Realität und somit zwischen nur analogen oder nur virtuellen Grundrechtsgewährleistungen in der „nächsten Gesellschaft“ keinen Sinn (mehr) macht. Mit dieser grundrechtlichen Realitätsverschiebung sind jedoch keineswegs alle rechtlichen Probleme „gelöst“, sondern es stellen sich – ganz im Gegenteil – vollkommen neue Herausforderungen. Diese lassen sich beispielhaft an der Frage erörtern, welche Anforderungen an den Grundrechtsträger in der Virtual Reality zu stellen sind. Dies mag zunächst verblüffen, da selbstverständlich alle Büger*innen das Grundrecht der Versammlungsfreiheit im analogen und eben auch im virtuellen Raum wahrnehmen können. Bei der Inanspruchnahme der Versammlungsfreiheit im analogen Raum ist die Beantwortung dieser Frage problemlos möglich: Die Büger*innen, die körperlich anwesend sind, werden durch Artikel 8 Absatz 1 Grundgesetz geschützt. Dies ist im virtuellen Raum zwar grundsätzlich genauso. Nur weiß man in der virtuellen Lebenswelt unter
150
Jens Kersten
Umständen nicht genau, wer überhaupt „wirklich“ anwesend ist (Scheiner 2018, 55). Unsere Avatare müssen kein getreues Abbild unserer selbst sein. Dies ist in erster Linie kein Problem des sogenannten „Vermummungsverbots“, das von den Versammlungsgesetzen für Versammlungen in der analogen Lebenswelt vorgesehen ist (vgl. beispielsweise § 17a Absatz 2 Versammlungsgesetz). Denn grundsätzlich wird das Recht, sich auch „vermummt“ zu versammeln, durch Artikel 8 Absatz 1 Grundgesetz geschützt und bedarf angesichts des aktuellen Bedeutungswandels von Anonymität in der analogen und erst recht in der virtuellen Welt einer vollkommen neuen, liberalisierenden Bewertung (Kersten 2017c). Doch das Problem der Grundrechtssubjektivität stellt sich in der virtuellen Lebenswelt noch grundlegender, da wir hier auch Avataren begegnen, hinter denen kein menschliches Subjekt, sondern Künstliche Intelligenzen stehen, ohne dass wir dies in der kommunikativen Interaktion ohne weiteres erkennen können. Auch wenn nicht von vornherein ausgeschlossen ist, dass nichtmenschliche Entitäten und damit auch Avatare einer Künstlichen Intelligenz über Grundrechtsschutz verfügen können (Kersten 2017b, 2019, 444–450): Prinzipiell müssen Grundrechtsträger als solche zu erkennen sein oder sich als solche zu erkennen geben. Dies führt zu einem strukturellen Grundproblem der virtuellen Lebenswelt, das weit über die Grundrechtsgewährleistung hinausgeht: Wann müssen menschliche Personen und nichtmenschliche Entitäten in der virtuellen Lebenswelt unterscheidbar sein? Eine solche Unterscheidung ist beispielsweise für die Gewährleistung der Konsistenz zwischenmenschlicher Interaktion nach Artikel 22 Absatz 1 Datenschutzgrundverordnung in der virtuellen Lebenswelt notwendig. Nach dieser Regelung hat jede Person das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Dies bedeutet beispielsweise für das Arbeitsrecht: Menschen und Roboter können in der analogen Lebenswelt und menschliche und „nichtmenschliche“ Avatare in der virtuellen Lebenswelt durchaus zusammenarbeiten, wenn eine ausdrückliche Einwilligung des betroffenen menschlichen Arbeitnehmers vorliegt (Artikel 22 Absatz 2 Buchstabe c Datenschutzgrundverordnung; Giesen 2018). Dies erfordert aber zugleich, dass hinsichtlich der Kompetenz, rechtlich verbindliche Entscheidungen für Menschen zu treffen, Menschen und Maschinen nicht nur in der analogen, sondern insbesondere auch in der virtuellen Arbeitswelt prinzipiell unterscheidbar sein müssen (grundsätzlich Martini 2017b, 1020; Lenzen 2018, 230). Ein solcher humaner Vorbehalt gilt grundsätzlich auch für die Inanspruchnahme des Grundrechtsschutzes: Wer für sich und seinen Avatar die Versammlungsfreiheit in der Virtual Reality in Anspruch nehmen möchte, muss sich
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen
151
zumindest (derzeit) als menschlicher Akteur ausweisen, selbst wenn er seine personelle Identität angesichts der sich aktuell wandelnden Bedeutung von Anonymität nicht notwendigerweise vollkommen offenlegen muss. So bildet die humane Selbstlegitimation – „Ich bin ein Mensch“/„Ich bin kein Roboter“ – gegenwärtig (noch) die Basis des Grundrechtsschutzes. Damit geht nicht automatisch eine flächendeckende Kennzeichnungspflicht für nichtmenschliche Akteure in der virtuellen Kommunikation einher, deren rechtliche und faktische Durchsetzungsmöglichkeiten fraglich sind. Ein virtuelles Verwirrspiel um richtige und falsche Kennzeichnungen des (Nicht-)Humanen wäre die wahrscheinliche Folge einer umfassenden Kennzeichnungspflicht für Roboter und Künstliche Intelligenzen. Ob ein humaner Vorbehalt für die Inanspruchnahme von Grundrechten und auch für das rechtserhebliche Entscheiden in einer virtuellen Lebenswelt, die zunehmend von subsymbolisch trainierter Künstlicher Intelligenz geprägt sein wird, wirklich eine Zukunft hat, ist mehr als nur zweifelhaft (Kersten 2019, 444–450). Doch wir machen mit diesem humanen Vorbehalt nur unsere ersten tastenden Schritte in die „nächste Gesellschaft“, deren Verfassung große Gestaltungsspielräume für weitere Realitätsverschiebungen lässt.
3.2 Staatliche Sphäre des Politischen: Virtualität der drei Gewalten Die drei Gewalten – Legislative, Exekutive und Judikative (Artikel 20 Absatz 2 und 3 Grundgesetz) – werden auch in der „nächsten Gesellschaft“ nicht vollständig von der analogen in die virtuelle Lebenswelt wechseln; oder vorsichtiger formuliert: Dies erscheint aus heutiger Perspektive jedenfalls schwer vorstellbar. Ungeachtet dessen könn(t)en die drei Gewalten aber schon heute – wenn auch in sehr unterschiedlichem Maß – Virtual Reality nutzen, um ihre verfassungsrechtlichen Funktionen zu erfüllen.
3.2.1 Exekutive Die Exekutive – Regierung und Verwaltung – setzt bereits Virtual Reality für die Erfüllung ihrer Aufgaben ein: Militär und Polizei verwenden Virtual Reality für Trainingszwecke sowie für die psychologische Bewältigung von Traumata, die sich nach militärischen und polizeilichen Einsätzen entwickeln können (Bailenson 2018, 41–42, 136–149, 251–252; zu Recht ambivalent Lanier 2018, 295–298). Mit pädagogischer Zielsetzung kann Virtual Reality in staatlichen Schulen, Universitäten und Museen genutzt werden (Bailenson 2018, 42; Kohle
152
Jens Kersten
2018; Volland 2018, 167). Ein weites Anwendungsfeld eröffnet sich im Planungsrecht und hier vor allem in der Öffentlichkeitsbeteiligung, wenn etwa die ökologischen Folgen von Planungen im Städtebau oder von Infrastrukturen, Straßen, Bahnhöfen und Flughäfen aufgezeigt und für die Bürger- und die Behördenbeteiligung aufbereitet werden. Virtual Reality vermag hier, Planungsalternativen einschließlich der jeweiligen ökologischen Folgen zu veranschaulichen. In diesem Zusammenhang können Manipulationen durch die Standardisierung und Offenlegung der verwendeten Software vorgebeugt werden. Sollte es trotzdem zu Planungsfehlern kommen, lassen sich diese nach einem entsprechenden Planmonitoring korrigieren. Im Grundsatz sind im Rahmen der Exekutive auch sehr weitgehende Virtualisierungsstrategien denkbar. Das Konzept von Electronic Government (eGovernment) lässt sich zu Virtual Government (vGovernment) weiterentwickeln. Realitätsverschiebungen von Bürokratien aus der analogen in die virtuelle Lebenswelt sind ebenso denkbar wie Behörden und Rathäuser in der Virtual Reality. Allerdings gestalten sich die Aufgaben der Exekutive für unsere Gesellschaft mit der Gewährleistung von physischer und sozialer Sicherheit, von Daseinsvorsorge, Infrastrukturen und Umweltschutz so umfassend, dass Regierung und Verwaltung auch in Zukunft sowohl in der analogen als auch in der virtuellen Welt präsent sein müssen. Soweit sich die Exekutive aber in der Virtual Reality entfaltet, stellen sich auch hier die beiden zentralen Fragen, die uns bereits im Kontext der virtuellen Versammlungsfreiheit mit Blick auf die Erkennbarkeit und die rechtsverbindlichen Entscheidungskompetenzen Künstlicher Intelligenzen beschäftigt haben (3.1.). Inwieweit muss der Staat – also erstens – in der Virtual Reality erkennbar sein? Wenn staatliche Verwaltungen in der Virtual Reality aktiv werden, haben sie sich auch prinzipiell als staatliche Akteure zu erkennen zu geben. Dies ist insbesondere dann der Fall, wenn die Polizei für Sicherheit in der virtuellen Lebenswelt sorgen soll (Ingold 2017a). Das Bundesverfassungsgericht hat in seiner Entscheidung zu Online-Durchsuchungen vom 27. Februar 2008 der Verwaltung einen relativ großen Spielraum im Hinblick auf ein anonymes bzw. verdecktes Auftreten in der Netzkommunikation gelassen (BVerfG 2008, 340–346). Doch dies ist zu Recht auf Kritik gestoßen. Die Kompetenzen von Beamtinnen und Beamten, in der digitalen Kommunikation und in der Virtual Reality offen, anonym oder verdeckt zu agieren, müssen gesetzlich geregelt werden. Dabei ist vor allem dem Persönlichkeitsrecht der Büger*innen Rechnung zu tragen, das insbesondere das Recht auf informelle Selbstbestimmung (BVerfG 1984 [1983], 41–45) sowie das Recht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme (BVerfG 2008, 302–306) umfasst. Inwieweit darf der Staat – zweitens – in der Virtual Reality seine rechtsverbindlichen Entscheidungskompetenzen durch Künstliche Intelligenzen
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen
153
wahrnehmen? Müssen im virtuellen Rathaus hinter den Avataren „reale“ Menschen stehen oder dürfen auch Künstliche Intelligenzen den Staat repräsentieren? Weitgehend unproblematisch können Künstliche Intelligenzen zunächst in die Beratung für Bürgerinnen und Bürgern durch die Verwaltung einbezogen werden (Martini 2017a, 453). Allerdings ist die geltende Rechtsordnung sehr zurückhaltend, wenn es darum geht, dass Künstliche Intelligenzen rechtsverbindliche Entscheidungen gegenüber den Bürgerinnen und Bürgern treffen: Ein Verwaltungsakt kann vollständig durch automatische Einrichtungen erlassen werden, sofern dies durch Rechtsvorschrift zugelassen ist und weder ein Ermessen noch ein Beurteilungsspielraum besteht (§ 35a Verwaltungsverfahrensgesetz). Mit diesem humanen Vorbehalt für die wertungsbedürftige Ausfüllung von Beurteilungsspielräumen und die Alternativen wägende Ermessensausübung will das Verwaltungsverfahrensgesetz eine restriktiv vorbeugende Regelung treffen, um dem Persönlichkeitsrecht der Büger*innen zu genügen (Martini und Nink 2017, 2). Doch auch hier wird die normative Kraft der Kommunikationstechnik- und Medienentwicklung weiteren Veränderungsdruck auslösen. Denn subsymbolisch trainierte Künstliche Intelligenzen können vor allem eines: Muster und Strukturen erkennen (Ramge 2018, 43–49, 61). Gerade dies prägt aber auch die Ausfüllung verwaltungsrechtlicher Beurteilungsspielräume und die Ermessenausübung der Verwaltung. Vor diesem Hintergrund ist es wahrscheinlich, dass Künstliche Intelligenzen insbesondere in der Massenverwaltung zunächst lernend parallel zur menschlichen Sachbearbeitung mitlaufen und diese ab einen bestimmten Punkt vollkommen eigenständig übernehmen. Hinsichtlich atypischer Fallgestaltungen könnte man an einem humanen Entscheidungsvorbehalt festhalten oder an hybride Entscheidungsverfahren von menschlicher Sachbearbeitung und Künstlicher Intelligenz denken. Auf diese Weise würde die enge Verbindung der Entwicklung von Künstlicher Intelligenz und Virtual Reality (Kelly 2016, 229–230) nach einer entsprechenden Rechtsänderung die Möglichkeit eröffnen, auch einem intelligenten nichtmenschlichen Avatar in der virtuellen Behörde rechtsverbindliche Entscheidungskompetenzen gegenüber Bürgerinnen und Bürgern zu übertragen. Mit anderen Worten: Die normative Kraft der Kommunikationstechnik- und Medienentwicklung wird hier eher früher als später zu weiteren rechtlichen Realitätsverschiebungen führen.
3.2.2 Judikative Die Judikative steht der Anwendung von Virtual Reality im Vergleich zur Exekutive sehr viel reservierter gegenüber. Die Frage, ob und inwiefern Virtual Reality in der gerichtlichen Beweiserhebung eingesetzt werden kann bzw.
154
Jens Kersten
sollte, wird vor allem in den USA prozessrechtlich kritisch hinterfragt: Ist Virtual Reality nicht „too real“ – also „zu real“ – für Geschworene und Richter*innen, wenn es beispielsweise um einen virtuell rekonstruierten Tatort geht (Feigenson 2006; ferner Joseph 1996)? Virtual Reality vermittelt eine körperlich umfassende Erfahrung. Sie könnte deshalb überschießende Realitätserlebnisse generieren, ja eine vollkommen eigenständige Realität für das Gericht erzeugen, die mit der Realität am Tatort zur Tatzeit überhaupt nichts zu tun hat. Darüber hinaus wird die virtuelle Rekonstruktion eines Tatorts regelmäßig auch auf Zeugenaussagen beruhen, die selbst wiederum selektiv und ungenau sind, wenn nicht sogar schlicht falsch sein können. Diese Unsicherheit bildet Virtual Reality aber gerade nicht ab. Schließlich bleibt die virtuelle Realität selektiv, weil beispielsweise Temperaturen, Gerüche und andere Sinneseindrücke nicht oder jedenfalls nicht vollständig abgebildet werden. Der gerichtliche Streit um die Würdigung von einzelnen Zeugenaussagen würde sich in eine prozessuale Auseinandersetzung um die „Realität“ des virtuellen Beweises verlagern. Was wäre damit gegenüber einer auf dem Grundsatz der Unmittelbarkeit der Beweiswürdigung beruhenden Tatsachenfeststellung im Gerichtsverfahren gewonnen? Nicht wirklich viel. Damit scheidet die Einführung von Virtual Reality in ein Gerichtsverfahren allerdings nicht vollkommen aus. Es bliebe die Möglichkeit, Virtual Reality im Rahmen des Sachverständigenbeweises in eine Verhandlung einzubringen. Der Sachverständigenbeweis ist immer dann angezeigt, wenn der Richterin oder dem Richter die notwendige Sachkunde für die Einschätzung eines Sachverhalts fehlt (BGH 2015, 1602). Bereits heute werden Computersimulationen von Sachverständigen, die der Richterin bzw. dem Richter auch die Simulationstechnik erläutern, als Grundlage für die gerichtliche Würdigung von Verkehrsunfall- oder Brandhergängen im Prozess verwendet (OLG Hamm 2004; OLG Jena 2012 [2011]; OLG München 2016). Einen Schritt weiter führt die grundsätzliche Frage, ob Gerichte insgesamt in der Virtual Reality verhandeln könnten. In einer virtuellen Gerichtsbarkeit würden die Parteien und die Richter*innen als Avatare in einem virtuellen Gerichtssaal tagen, um beispielsweise Zeit und Raum, Personal und Kosten zu sparen. Allerdings ist dies gegenwärtig nicht möglich. Gerichtsverfahren finden in einem analogen Gerichtssaal statt, der über Öffentlichkeit, Mündlichkeit und Unmittelbarkeit der Anschauung der Beweise die mediale Grundlage für das Urteil im Namen des Volkes schafft. Die Gerichtsverfassung hält grundsätzlich an dieser analogen Medienordnung fest und lässt Ton- und Filmaufnahmen nur ausnahmsweise zu (§ 169 Gerichtsverfassungsgesetz; § 17a Bundesverfassungsgerichtsgesetz). Darüber hinaus erlaubt die Zivilprozessordnung die Verhandlung im Wege der Bild- und Tonübertragung, wenn sich Parteien, Prozessvertreter, Zeugen oder Sachverständige an einem anderen Ort aufhalten (§ 128a Zivilpro-
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen
155
zessordnung). Dabei ist die Verhandlung bzw. Vernehmung zeitgleich in Bild und Ton an diesem Ort und in dem eigentlichen Gerichtssaal zu übertragen; und diese Übertragung darf nicht aufgezeichnet werden, um den analogen Inbegriff der Hauptverhandlung nicht medial zu gefährden. Die Strafprozessordnung kennt eine ähnliche Regelung, um beispielsweise Zeugenschutz zu gewährleisten, wobei hier allerdings eine Aufzeichnung zur Beweissicherung möglich ist (§ 247a Absatz 1 Strafprozessordnung). Das Prozessrecht erweist sich damit bisher medial als nur sehr eingeschränkt lernfähig, um die Rechte der Bürger*innen zu schützen und effektiven Rechtsschutz zu gewährleisten. Zugleich ist es aber auch nicht von vornherein kategorisch ausgeschlossen, Mündlichkeit und Unmittelbarkeit einer Gerichtsverhandlung im virtuellen Raum herzustellen, gerade wenn es allein um Rechts- und nicht um Sach- und Beweisfragen geht. Wenn sich das Prozessrecht auf den Weg zum virtuellen Gerichtssaal begeben möchte, würde dieser zunächst über die freiwillige Gestaltung virtueller Streitbeilegung im ziviloder wirtschaftsrechtlichen Kontext führen, um Erfahrungen mit dieser Form der Realitätsverschiebung zu sammeln.
3.2.3 Legislative Bleibt die Legislative – der Deutsche Bundestag – und damit das in unserer Verfassungsordnung einzig demokratisch unmittelbar durch das Volk in Form von Wahlen legitimierte Staatsorgan (Artikel 38 Grundgesetz). Die demokratische Repräsentation des Volkes im Parlament beruht ebenfalls auf einer Medienverfassung – konkreter: auf einem Medienmix, in dem sich die einzelnen Schritte der Medienentwicklung ergänzen und überlagern: die durch analoge und digitale Medien sowie Rundfunk und Fernsehen geprägte demokratische Öffentlichkeit (Artikel 5 Absatz 1, Artikel 8 Absatz 1, Artikel 9 Absatz 1, Artikel 21 Absatz 1 Grundgesetz), die Stimmabgabe auf papierenen Wahlzetteln (Artikel 38 Absatz 1 Grundgesetz), die öffentliche Stimmmauszählung und Feststellung des Wahlergebnisses (Artikel 20 Absatz 1 – Absatz 3 Grundgesetz), die Konstitution des neu gewählten Bundestags im Parlamentsgebäude (Artikel 39 Absatz 2 Grundgesetz), das gesprochene Wort im öffentlichen Plenum des Bundestags (Artikel 42 Absatz 1 Grundgesetz) in Form der freien Rede und Gegenrede (§ 28, § 33 Geschäftsordnung des Deutschen Bundestags) und das wahrheitsgetreue geschriebene Wort (Artikel 42 Absatz 2 Grundgesetz) in Form von stenografischen Plenarprotokollen in Verbindung mit parlamentarischen Drucksachen. Die Medienverfassung der parlamentarischen Repräsentation wurde ursprünglich und wird bis heute durch das gesprochene und geschriebene Wort geprägt. Sie hat jedoch zugleich auch medial dazugelernt und sich für neue Medienent-
156
Jens Kersten
wicklungen geöffnet: für Zeitungen und Presse im neunzehnten Jahrhundert, für den Rundfunk ab den 1920er Jahren, für das Fernsehen ab den 1950er Jahren und – entgegen vieler anderslautender Diagnosen – auch für die sozialen Medien und das Web 2.0 (Kersten 2016, 2017a, 159–188). Es muss also am Maßstab des Grundgesetzes immer wieder darüber entschieden werden, ob neue Kommunikationstechniken in die Medienverfassung der demokratischen Repräsentation integriert werden können oder ob an dem überkommenen Medieneinsatz festzuhalten ist, um die demokratische Funktion des Parlaments zu gewährleisten. So hat das Bundesverfassungsgericht beispielsweise entschieden, dass Onlinewahlen zum Deutschen Bundestag (derzeit) verfassungsrechtlich nicht möglich sind, weil sie gegen den ungeschriebenen Verfassungsgrundsatz der Öffentlichkeit und Nachvollziehbarkeit der Wahl verstoßen, den die Karlsruher Richter*innen aus dem Demokratie-, Rechtsstaats- und Republikprinzip (Art. 20 Abs. 1–3 GG) hergeleitet haben (BVerfG 2010 [2009]): Wir Bürger*innen müssen diesen zentralen demokratischen Legitimationsakt unseres politischen Gemeinwesens selbst nachvollziehen können. Demgegenüber bereichert die Einführung von Online-Petitionen den parlamentarischen Prozess (Artikel 17 Grundgesetz), indem sie die demokratische Teilhabe von Bürgerinnen und Bürgern an der Rechtsetzung fördern (Kersten 2016, 330–331). Deshalb lautet auch die entscheidende Frage hinsichtlich Virtual Reality, ob und – wenn ja – welchen funktionalen Anschluss diese Kommunikationstechnik an die repräsentative Demokratie gewinnen kann. Bei der Bestimmung der Möglichkeiten und Grenzen eines virtuellen Parlamentarismus mag zunächst ein Gedankenexperiment weiterhelfen, das an das Modell des „direkten Parlamentarismus“ (Plaum 2013, 148–153) anknüpft: Wir stellen uns ein Parlament in der Virtual Reality vor, in dem alle Bürger*innen als Avatare anwesend sein können, um – gegebenenfalls per Zufall ausgewählt – das Wort zu ergreifen und mit abzustimmen. Wäre das demokratischer als die Repräsentation des Volkes durch die Anwesenheit der – aktuell – 709 Abgeordneten im Reichstagsgebäude? Doch das ist nicht der Fall. Denn die parlamentarische Repräsentation des Volkes zielt – wie sie in Artikel 20 Absatz 2 und Artikel 38 Absatz 1 Grundgesetz verfassungsrechtlich vorgesehen ist – nicht auf die reale Spiegelung des realen Volkes in einem realen Parlament. Vielmehr geht es in der parlamentarischen Demokratie des Grundgesetzes um die virtuelle Repräsentation des ganzen Volkes in einem realen Parlamentsgebäude, das die demokratische Institution des Parlaments symbolisiert, also die verfassungsrechtliche Vermittlung zwischen dem unmittelbar gewählten einzelnen Abgeordneten, dem parlamentarischen Plenum und der Repräsentation des ganzen Volkes. Mit anderen Worten: Die demokratische Repräsentation im Parlament beruht gerade auf der Nichtidentität von realem Volk und parlamentarischem Plenum. Deshalb wird auch einer Versammlung potentiell aller
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen
157
Bürger*innen als Avatare in der Virtual Reality gerade keine demokratische Repräsentation des Volkes gelingen. Der Versuch, das reale Volk virtuell zu versammeln, scheitert bereits faktisch: Schon aufgrund regelmäßiger Ausbildungsund Arbeitszeiten verfügen die meisten Bürger*innen nicht über die Zeit, sich dauerhaft in einem virtuellen Repräsentationsraum aufzuhalten, zu diskutieren und abzustimmen. Schon das würde zu einer eklatanten Verzerrung des demokratischen Prozesses führen, von dem dadurch eröffneten unmittelbaren Einfluss von Interessenverbänden und Lobbyisten auf den demokratischen Diskussions- und Entscheidungsprozess ganz zu schweigen. Dies bedeutet: Eine demokratische Repräsentation des realen Volkes in der Virtual Reality wird faktisch, politisch und rechtlich nicht gelingen. Dies heißt jedoch nicht, dass sich Virtual Reality nicht in die Medienverfassung der demokratischen Repräsentation im Parlament integrieren ließe. Virtual Reality könnte beispielsweise die Möglichkeit von Mehrfachpräsenzen der Abgeordneten eröffnen: Mandatsträger*innen könnten mittels Virtual Reality beispielsweise gleichzeitig im Plenum und in einem Ausschuss des Bundestags anwesend sein oder im Plenum des Bundestags in Berlin, bei der Europäischen Union in Brüssel und bei der UN in New York. Im Gegensatz hierzu wird aber mit Hinweis auf die digitale und virtuelle Medienentwicklung für ein Prinzip der physischen Anwesenheit der Abgeordneten im Bundestag geworben, um die demokratische Repräsentation des Volkes im Parlament für die Bürger*innen anschaulicher und erlebbarer zu gestalten (Schönberger 2016). Doch so verständlich dieses Anliegen verfassungspolitischer Anschaulichkeit zur Stärkung der demokratischen Integration der Bürger*innen auch sein mag: Die Forderung der Präsenz realer Abgeordnetenkörper im Parlament kann sich medial nicht von einem Repräsentationsverständnis lösen, das sich (noch) ganz „im Schatten des Königs“ bewegt (Manow 2015). Die demokratische Repräsentation geht aber im Verfassungsstaat über die revolutionäre Sukzession vom politischen Körper des gestürzten Königs zum politischen Körper des souveränen Volkes und seines Parlaments hinaus. Ohne seinen revolutionären Ursprung in der amerikanischen und französischen Revolution zu verleugnen, entfaltet der Verfassungsstaat den demokratischen Willen des Volkes in verfassungsrechtlichen Verfahren: „Demokratien sind nicht repräsentativ, sondern expressiv“ (Möllers 2008, 28; ferner 2013, 132–134). Die Pointe dieses demokratischen Expressionismus besteht im Verfassungsstaat jedoch gerade darin, dass seine zentrale politische Ausdruckform in der parlamentarischen Repräsentation des Volkes liegt. Diese ist jedoch nicht (mehr) Ausdruck einer Körperpolitik, die das monarchische Ancien Régime prägte, sondern eine verfassungsförmige und deshalb körperlose Verfahrenspolitik, die den demokratischen Willen der Bürger*innen entfaltet. Es kommt für die demokratische Repräsentation des ganzen
158
Jens Kersten
Volkes im Deutschen Bundestag im Sinn des Artikel 38 Absatz 1 Satz 2 Grundgesetz folglich nicht auf die körperliche Präsenz der 709 Abgeordneten an, sondern auf die Entfaltung des demokratischen Willens des Volkes in Form der parlamentarischen Verfahren, die das Grundgesetz, das Abgeordnetengesetz und die Geschäftsordnung des Deutschen Bundestags vorsehen. Albert Ingold (2017b, 530–533) hat dies auf die treffende Formel gebracht, dass es der demokratischen Repräsentation des Volkes nicht auf das „Präsens einer Präsenz“ von Abgeordneten im Plenarsaal, sondern auf die „Präsenz eines Präsens“ ankommt, also auf die verfahrensrechtliche Entfaltung (Präsenz) des demokratischen Willens des Volkes (Präsens). Bei der demokratischen Repräsentation handele es sich – so Ingold (2017b, 532) – „um einen prozedural-performativ zu vergegenwärtigenden und erlebbaren Prozess“, der sich – in Anknüpfung an Ingolfur Blühdorns Demokratietheorie (2013, 177–178) – durch seinen simulativen Charakter auszeichne. Dieses Verständnis demokratischer Repräsentation erweist sich insbesondere auch für eine dynamische Kommunikationstechnik- und Medienentwicklung als unmittelbar anschlussfähig. Es reflektiert damit den Grundgedanken, dass insbesondere die repräsentative Demokratie nicht den Anschluss an die gesellschaftliche Kommunikation und damit an den gesellschaftlichen Mediengebrauch verlieren darf, sondern aus jedem Medienwandel neue demokratische Legitimationspotenziale schöpfen kann und muss, um die demokratische Funktionsfähigkeit parlamentarischer Repräsentation zu stärken. Dies entspricht auch dem Befund, dass die aktuelle Medienverfassung des parlamentarischen Regierungssystems durch einen Medienmix gekennzeichnet ist, in dem sich inzwischen eine Vielzahl analoger, digitaler und virtueller Kommunikationsformen ergänzen und überlagern. In diese Medienverfassung kann sich auch Virtual Reality einpassen, beispielsweise in Form virtueller Mehrfachpräsenzen von Abgeordneten. Diese Frage nach einem virtuellen Parlament hat sich unmittelbar zu Beginn der Corona-Krise im März 2020 gestellt: Der Bundestag besteht aus 709 Abgeordneten, die zu Plenardebatten und Ausschusssitzungen im Reichstagsgebäude zusammenkommen. Dabei kann aufgrund der räumlichen Gegebenheiten das Distanzgebot von 1,5 Metern nicht eingehalten werden, um Infektionen zu vermeiden. Wie kann unter diesen Umständen die Funktionsfähigkeit des Parlaments in der Pandemie gewährleistet werden? Der Bundestag behalf sich zunächst rein praktisch, indem er seine Beschlussfähigkeit auf ein Viertel seiner Abgeordneten herabsetzte (§ 126a Absatz 1 Geschäftsordnung des Deutschen Bundestages). Auf dieser Grundlage haben die Fraktionsvorsitzenden vereinbart, dass jede Fraktion nur so viele Abgeordnete in das Plenum entsendet, dass die Mehrheitsverhältnisse gewahrt sind (sogenanntes Pairing-Verfahren; vgl. C. Schönberger und S. Schönberger 2020). Auf diese Weise wurde ein informelles Notparlament geschaffen, das gegebenenfalls aus 177 Abgeordneten besteht, während 532 Abgeordnete frei-
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen
159
willig oder aufgrund von Fraktionsdisziplin auf ihre Mandatsausübung verzichten. Dies ist jedoch keine Praxis, die auf Dauer mit der Gewährleistung des freien Mandats und des demokratischen Repräsentationsprinzips (Artikel 38 Absatz 1 Satz 2 GG) vereinbar ist. Deshalb hat Bundestagspräsident Wolfgang Schäuble in der Corona-Krise vorgeschlagen, entweder ein Notparlament ausdrücklich im Grundgesetz zu verankern oder über Formen eines virtuellen Parlamentarismus nachzudenken (Roßmann und Mascolo 2020). Doch wenn man bereits ist, auch nur einfachste Kommunikationstechniken für die Gestaltung von Parlamentssitzungen zu verwenden, kann man getrost auf die verfassungspolitisch zweifelhafte Installierung eines Notparlaments verzichten. Dies hat das britische Unterhaus gezeigt, indem es in der Corona-Krise in Form einer medialen „Hybrid-Sitzung“ zusammenkam (Buchsteiner 2020): In der ersten Prime Minister’s Question Time nach der Osterpause 2020 waren im Unterhaus „nur“ Außenminister Dominic Raab, der den an Covid-19 erkrankten britischen Premierminister Boris Johnson vertrat, der Oppositionsführer Keir Starmer sowie der Speaker und etwa 20 weitere Abgeordnete körperlich anwesend, die in entsprechenden Abständen im Parlamentssaal verteilt saßen. Die meisten Abgeordneten waren aus ihren Privatwohnungen per Videokonferenz zugeschaltet und auf einem großen Bildschirm im Parlament zu sehen. Solche medialen „Hybrid-Sitzungen“ wären auch im Deutschen Bundestag möglich. Zwar geht die Staatsrechtslehre und Staatspraxis bisher überwiegend davon aus, dass die Abgeordneten körperlich im Plenarsaal anwesend sein müssen (Deutscher Bundestag-Wissenschaftliche Dienste 2020, 3). Verfassungsrechtlich zwingend ist diese Auffassung aber nicht. Wenn das Grundgesetz von dem „Zusammentritt“ (Artikel 39 Absatz 1 Satz 2 und Absatz 2 GG) und den „Sitzungen“ des Bundestags (Artikel 39 Absatz 3, Artikel 42 Absatz 1 Satz 3 und Absatz 3 Grundgesetz) spricht, ist dies von seinem Wortlaut hinreichend offen, um hierunter auch die „virtuelle“ Anwesenheit von Abgeordneten zu verstehen. Die gleiche mediale Offenheit prägt auch die öffentliche Verhandlung (Artikel 42 Absatz 1 Satz 1 GG) oder die Äußerung im Bundestag oder in einem seiner Ausschüsse (Artikel 46 Absatz 1 Satz 1 GG). Auch die Verwendung des Begriffs des „Saals“ in der Geschäftsordnung des Deutschen Bundestages lässt sich in das Konzept einer medialen „Hybrid-Sitzung“ einpassen. Wenn die Redner/innen von den dafür bestimmten Saalmikrofonen oder vom Rednerpult aus sprechen sollen (§ 34 Geschäftsordnung des Deutschen Bundestages), schließt dies die Möglichkeit ein, sich über eine Video- oder digitale Bildübetragung im Saal zu äußern. Das „Rednerpult“ lässt sich ebenfalls virtuell oder gegebenenfalls sogar symbolisch verstehen. Ein „Saalverweis“ kann auch im Rahmen einer Video- oder digitalen Bildübertragung problemlos erfolgen (§ 38 Absatz 1 Satz 1 Geschäftsordnung des Deutschen Bundestages). Das Glei-
160
Jens Kersten
che gilt für eine Abstimmung per Handzeichen bzw. durch Aufstehen oder Sitzenbleiben (§ 48 Absatz 1 Geschäftsordnung des Deutschen Bundestages). Nur komplexere Abstimmungsverfahren wie die geheime Stimmabgabe (§ 49 Geschäftsordnung des Deutschen Bundestages), die namentliche Abstimmung (§ 52 Geschäftsordnung des Deutschen Bundestages) oder der „Hammelsprung“ (§ 51 Absatz 2 Geschäftsordnung des Deutschen Bundestages) müssten virtuell ausgestaltet und entsprechend rechtlich neu geregelt werden, weil sie mit den „Wahlzellen“, der „Türzählung“ und der Sammlung von „Abstimmungskarten“ in „Wahlurnen“ durch analoge Abstimmungsmedien geprägt sind. Diesen Weg in Richtung eines „Virtuellen Parlamentarismus“ sollte der Deutsche Bundestag auch über die Corona-Krise hinaus konsequent weitergehen. Anders als die Wissenschaftlichen Dienste des Deutschen Bundestages (2020, 4–5) meinen, ist dafür auch keine Änderung des Grundgesetzes, sondern „nur“ eine Anpassung der Geschäftsordnung notwendig. So hat der Deutsche Bundestag eine weitgehende „Virtualisierung“ der Arbeit von Bundestagsauschüssen in der CoronaKrise allein durch die Änderung seiner Geschäftsordnung ermöglicht: An Ausschusssitzungen und -beratungen können Abgeordnete über elektronische Kommunikationsmittel teilnehmen (§ 126a Absatz 2 Geschäftsordnung des Deutschen Bundestages). Darüber hinaus kann mittels elektronischer Kommunikationsmedien eine Beschlussfassung in Ausschüssen erfolgen (§ 126a Absatz 3 GOBT) und die Öffentlichkeit von Ausschusssitzungen hergestellt werden (§ 126a Absatz 4 Geschäftsordnung des Deutschen Bundestages). Hieran lässt sich auch für die technische und rechtliche Ausgestaltung eines virtuellen Plenums anknüpfen.
4 Fazit Die Rechts- und Verfassungsordnung reguliert das Recht und seine Medien, indem sie entweder normativ lernt oder an einem bestimmten Medienstand normativ festhält. Dabei werden die rechtlichen Möglichkeiten und Grenzen der Verwendung von Augmented und Virtual Reality teilweise auch schlicht durch die normative Kraft des Faktischen bestimmt, die sich in der Kommunikationstechnik- und Medienentwicklung besonders dynamisch entfaltet. Auf diese medialen Dynamiken kann und muss die Rechtsordnung gerade auch im politischen Verfassungsprozess durch die Realitätsverschiebung von Rechtsfiguren und Rechtsinstituten reagieren. Diesen medialen Lernprozess kann die Rechts- und Verfassungsordnung vollkommen problemlos gestalten, weil Rechtsfiguren und Rechtsinstitute selbst einen normativ-konstruktiven Charakter aufweisen, der immer auch durch eine bestimmte Medienverfassung geprägt wird. Deshalb steht die Verfassungs-
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen
161
und Rechtsordnung neuen Medienentwicklungen grundsätzlich offen gegenüber, selbst wenn sie im Einzelfall an einer überkommenen Medienkonstellation festhalten muss, um die Funktionsfähigkeit von Rechtsfiguren und Rechtsinstituten zu gewährleisten. Mit Blick auf die verfassungsrechtliche Dimension von Augmented und Virtual Reality ist am Beispiel der Versammlungsfreiheit zunächst deutlich geworden, dass sich die Verfassungsordnung im Interesse einer möglichst effektiven Grund- und Freiheitsentwicklung auf sehr weitgehende rechtliche Realitätsverschiebungen einlässt. Demgegenüber gestaltet sich der mediale Lernprozess im Staatsorganisationsrecht sehr viel komplexer und differenzierter: Im Rahmen der Exekutive bestehen breite Möglichkeiten für den Einsatz und die Verwendung von Virtual Reality. Im Rahmen der Judikative und der Legislative deuten sich jedenfalls erste Möglichkeiten für mediale Realitätsverschiebungen durch Virtual Reality an.
Literatur Andreas, Michael, Dawid Kasprowicz und Stefan Rieger. „Unterwachen und Schlafen: Einleitung“. Unterwachen und Schlafen: Anthropophile Medien nach dem Interface. Hg. Michael Andreas, Dawid Kasprowicz und Stefan Rieger. Lüneburg: meson press, 2018. 7–31. Baecker, Dirk. Studien zur nächsten Gesellschaft. Frankfurt a.M.: Suhrkamp, 2007. Baecker, Dirk. 4.0 oder Die Lücke die der Rechner lässt. Berlin: Merve, 2018. Bailenson, Jeremy. Experience On Demand. What Virtual Reality is, How It Works, And What It Can Do. New York, London: W. W. Norton, 2018. Benjamin, Walter. Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. 5. Auflage. Berlin: Suhrkamp, 2017 [1936]. BGH (Bundesgerichtshof). „Urteil vom 24. Februar 2015 – VI ZR 106/13“. Neue Juristische Wochenschrift 68.22 (2015): 1601–1603. Blühdorn, Ingolfur. Simulative Demokratie. Neue Politik nach der postdemokratischen Wende. Berlin: Suhrkamp, 2013. Buchsteiner, Jochen. „Deutsches Vorbild“. Frankfurter Allgemeine Zeitung, Nr. 95. (23. April 2020): 3. BVerfG (Bundesverfassungsgericht). „Beschluss vom 15. Dezember 1983 – 1 BvR 209, 269, 362, 420, 440, 484/83“. Entscheidungen des Bundesverfassungsgerichts. Hg. Mitglieder des Bundesverfassungsgerichts. Band 65. Tübingen: Mohr Siebeck, 1984. 1–71. BVerfG (Bundesverfassungsgericht). „Beschluss vom 14. Mai 1985 – 1 BvR 233, 341/81“. Entscheidungen des Bundesverfassungsgerichts. Hg. Mitglieder des Bundesverfassungsgerichts. Band 69. Tübingen: Mohr Siebeck, 1985. 315–372. BVerfG (Bundesverfassungsgericht). „Beschluss vom 24. Oktober 2001 – 1 BvR 1190/90, 2173/ 93, 433/96“. Entscheidungen des Bundesverfassungsgerichts. Hg. Mitglieder des Bundesverfassungsgerichts. Band 104. Tübingen: Mohr Siebeck, 2002. 92–126.
162
Jens Kersten
BVerfG (Bundesverfassungsgericht). „Urteil vom 27. Februar 2008 – 1 BvR 370, 595/07“. Entscheidungen des Bundesverfassungsgerichts. Hg. Mitglieder des Bundesverfassungsgerichts. Band 120. Tübingen: Mohr Siebeck, 2008. 274–350. BVerfG (Bundesverfassungsgericht). „Urteil vom 3. März 2009 – 2 BvC 3, 4/07“. Entscheidungen des Bundesverfassungsgerichts. Hg. Mitglieder des Bundesverfassungsgerichts. Band 123. Tübingen: Mohr Siebeck, 2010. 39–88. BVerfG (Bundesverfassungsgericht). „Urteil vom 22. Februar 2011 – 1 BvR 699/06“. Entscheidungen des Bundesverfassungsgerichts. Hg. Mitglieder des Bundesverfassungsgerichts. Band 128. Tübingen: Mohr Siebeck, 2011. 226–278. BVerfG (Bundesverfassungsgericht). „Beschluss vom 18. Juli 2015 – 1 BvQ 25/15“. Neue Juristische Wochenschrift 68.34 (2015): 2485–2486. Deutscher Bundestag-Wissenschaftliche Dienste. Virtuelles Parlament. Verfassungsrechtliche Bewertung und mögliche Grundgesetzänderung. WD 3-3000-084/20. Berlin: Deutscher Bundestag, 31. März 2020. Feigenson, Neal. „Too Real? The Future of Virtual Reality Evidence“. Law & Policy 28.2 (2006): 271–293. Foucault, Michel. Überwachen und Strafen. Die Geburt des Gefängnisses. Frankfurt a.M.: Suhrkamp, 1976. Giesen, Richard. „Robotik und Arbeitsrecht“. Rechtswissenschaft 9.4 (2018), 431–452. Hilgert, Felix, und Philipp Sümmermann. „Hausverbot für Pokémons? Abwehr virtueller Gegenstände auf Privatgrundstücken. Eine erste Analyse der möglichen Anspruchsgrundlagen“. Computer und Recht 32.9 (2016): 580–586. Ingold, Albert. „‚Polizei 2.0‘: Grenzen der behördlichen Öffentlichkeitsarbeit in sozialen Netzwerken“. Verwaltungsarchiv 108.2 (2017a): 240–265. Ingold, Albert. „Digitalisierung demokratischer Öffentlichkeiten“. Der Staat 56.4 (2017b): 491–533. Jacobs, Steffen, Benjamin Lotz und Frank Maschmann. „No-Go für Pokémon Go? – Abwehransprüche von Betriebsinhabern gegen Betreiber von augmented-reality-Software“. BetriebsBerater 71.49 (2016): 2997–2999. Jellinek, Georg. Allgemeine Staatslehre. 3. Auflage. Berlin: Häring, 1914. Joseph, Gregory P. „Virtual Reality Evidence“. Boston University Journal of Sciences & Technology Law 212 (1996): 1–28. Kaube, Jürgen. „Ist das Kunst oder muss das weg?“. Frankfurter Allgemeine Zeitung, Nr. 28 (2. Februar 2018): 9. Kelly, Kevin. The Inevitable. Understanding the 12 Technological Forces That will Shape Our Future. New York: Penguin, 2016. Kersten, Jens. „IT und Demokratie“. Innovationen im Recht. Hg. Wolfgang Hoffmann-Riem. Baden-Baden: Nomos, 2016. 305–336. Kersten, Jens. Schwarmdemokratie. Der digitale Wandel des liberalen Verfassungsstaats. Tübingen: Mohr Siebeck, 2017a. Kersten, Jens. „Relative Rechtssubjektivität. Über autonome Automaten und emergente Schwärme“. Zeitschrift für Rechtssoziologie 37.1 (2017b): 8–25. Kersten, Jens. „Anonymität in der liberalen Demokratie“. Juristische Schulung 57.3 (2017c): 193–203. Kersten, Jens. „KI-Kunst – Künstliche Intelligenz und künstlerische Freiheit“. Territorialität und Personalität. Festschrift für Moris Lehner zum 70. Geburtstag. Hg. Roland Ismer,
Realitätsverschiebungen: Politische und verfassungsrechtliche Dimensionen
163
Ekkehart Reimer, Alexander Rust und Christian Waldhoff. Köln: Otto Schmidt, 2019. 437–452. Kingreen, Thorsten und Ralf Poscher. Grundrechte. Staatsrecht II. 34. Auflage. Heidelberg: C. F. Müller, 2018. Kohle, Hubertus. Museen digital. Eine Gedächtnisinstitution sucht den Anschluss an die Zukunft. Heidelberg: Heidelberg University Publishing, 2018. Lanier, Jaron. Anbruch einer neuen Zeit. Wie Virtual Reality unser Leben und unsere Gesellschaft verändert. Hamburg: Hoffmann und Campe, 2018. Latour, Bruno. Das Parlament der Dinge. Für eine politische Ökologie. Frankfurt a.M.: Suhrkamp, 2010. Lenzen, Manuela. Künstliche Intelligenz. Was sie kann & was uns erwartet. 2. Auflage. München: C. H. Beck, 2018. Luhmann, Niklas. Rechtssoziologie. 3. Auflage. Opladen: Westdeutscher Verlag, 1987. Manow, Philip. Im Schatten des Königs. Die politische Anatomie demokratischer Repräsentation. 2. Auflage. Frankfurt a.M.: Suhrkamp, 2015. Martini, Mario. „Transformation der Verwaltung durch Digitalisierung“. Die Öffentliche Verwaltung 70.11 (2017a): 444–455. Martini, Mario. „Algorithmen als Herausforderung für die Rechtsordnung“. JuristenZeitung 72.21 (2017b): 1017–1025. Martini, Mario, und David Nink. „Wenn Maschinen entscheiden . . . – vollautomatisierte Verwaltungsverfahren und der Persönlichkeitsschutz“. Neue Zeitschrift für Verwaltungsrecht – Extra 36.10 (2017): 1–14. Marx, Karl, und Friedrich Engels. Manifest der Kommunistischen Partei. 50. Auflage. Berlin: Dietz, 1984 [1848]. Metz, Markus und Georg Seeßlen. Schnittstelle Körper. Berlin: Matthes & Seitz, 2018. Möllers, Christoph. Demokratie – Zumutungen und Versprechen. Berlin: Wagenbach 2008. Möllers, Christoph. „Drei Dogmen der etatistischen Demokratietheorie“. Postnationale Demokratie, Postdemokratie, Neoetatismus. Wandel klassischer Demokratievorstellungen in der Rechtswissenschaft. Hg. Hans Michael Heinig und Jörg Philipp Terhechte. Tübingen: Mohr Siebeck, 2013. 131–135. Münkler, Laura. „Metaphern im Recht. Zur Bedeutung organischer Vorstellungen von Staat und Recht“. Der Staat 55.2 (2016): 181–211. OLG (Oberlandesgericht) Hamm. „Urteil vom 9. Dezember 2004 – 21 U 58/04“. BeckRechtsprechung 2004, 30347437. OLG (Oberlandesgericht) Jena. „Urteil vom 30. November 2011 – 7 U 178/10“. BeckRechtsprechung 2012, 4774. OLG (Oberlandesgericht) München. „Urteil vom 13. Mai 2016 – 10 U 4529/15“. BeckRechtsprechung 2016, 10166. Plaum, Wätzold. Die Wiki-Revolution. Absturz und Neustart der westlichen Demokratie. Berlin: Rotbuch, 2013. Prütting, Jens, und Maren Wilke. „Pokémon GO – Ein rechtlich bedenkliches Vergnügen. Datenschutz- und haftungsrechtliche Analyse“. Kommunikation und Recht 19.9 (2016): 545–550. Ramge, Thomas. Mensch und Maschine. Wie künstliche Intelligenz und Roboter unser Leben verändern. 4. Auflage. Stuttgart: Reclam, 2018. Rauterberg, Hanno. Wie frei ist die Kunst? Der neue Kulturkampf und die Krise des Liberalismus. Berlin: Suhrkamp, 2018.
164
Jens Kersten
Rieger, Stefan. Die Enden des Körpers. Versuch einer negativen Prothetik. Wiesbaden: Springer, 2019. Roßmann, Robert, und Georg Mascolo. „Ein Rettungspaket für den Bundestag“. Süddeutsche Zeitung (3. April 2020). https://www.sueddeutsche.de/politik/ corona-bundestag-schaeuble-1.4867460 (7. April 2020). Scheiner, Bruce. Click Here to Kill Everybody. Security and Survival in a Hyper-connected World. New York: W. W. Norton, 2018. Schönberger, Christoph. „Vom Verschwinden der Anwesenheit in der Demokratie. Präsenz als bedrohtes Fundament von Wahlrecht, Parteienrecht und Parlamentsrecht“. JuristenZeitung 71.10 (2016): 486–494. Schönberger, Christoph, und Sophie Schönberger. „Regiert bald ein Notausschuss?“. Frankfurter Allgemeine Zeitung, Nr. 73 (26. März 2020): 9. Siehr, Angelika. Das Recht am öffentlichen Raum. Theorie des öffentlichen Raumes und die räumliche Dimension der Freiheit. Tübingen: Mohr Siebeck, 2016. Söbbing Thomas. „Pokémon Go und seine rechtlichen Implikationen. Was tun gegen störende Pokéstops?“. MultiMedia und Recht 19.11 (2016): 719–723. Solmecke, Christian, und Sibel Kocatepe. „Google Glass – Der Gläserne Mensch 2.0. Die neueste technische Errungenschaft – ein Fluch oder eine Herausforderung?“. Zeitschrift für Datenschutz 4.1 (2014): 22–27. Tinnefeld, Robert. „Zur Verantwortung des Spieleanbieters für reale Störungen durch virtuelles Spiel – oder: Wie wird man die Pokémon wieder los?“. Kommunikation und Recht 19.9 (2016): 551–556. Vismann, Cornelia. Medien der Rechtsprechung. Frankfurt a.M.: Fischer, 2011. Vismann, Cornelia. Das Recht und seine Mittel. Ausgewählte Schriften. Frankfurt a.M., 2012. Volland, Holger. Die kreative Macht der Maschinen. Warum Künstliche Intelligenzen bestimmen, was wir morgen fühlen und denken. Weinheim, Basel: Beltz, 2018.
Jens Schröter
Virtualisierungen der Umwelt: Augmented Reality Eine der wichtigsten aktuellen Formen, in der die Lebensumwelt virtualisiert erscheint, ist die sogenannte Augmented Reality (AR): „This paper surveys the field of Augmented Reality, in which 3-D virtual objects are integrated into a 3-D real environment in real time.“ (Azuma 1997, 355). Augmented Reality bedeutet also: In Echtzeit werden digital generierte Informationen auf die Ansichten realer Objekte vor Ort überlagert.1 In Abschnitt 1) wird die AR historisch von der ‚Virtual Reality‘ (VR) differenziert. In 2) werden einige Anwendungen der AR dargestellt und problematisiert. In 3) folgt ein knappes Fazit.
1 AR und VR Am besten kann die AR dadurch konturiert werden, indem der Unterschied zur VR herausgestellt wird.2 Der Grundgedanke der VR war, eine immersive, ggf. durch entsprechende Display- und Interaktionstechniken der*die Benutzer*in mehr oder weniger umschließende, simulierte Umgebung zu schaffen, in der jene*r Benutzer*in nichts mehr von der ihn*sie eigentlich umgebenden Außenwelt mitbekommt.3 Demgegenüber ist die Idee der AR, Elemente simulierter mit Elementen realer Umgebung zu verbinden. Dadurch soll die Realitätswahrnehmung ‚verbessert‘ (augmented) werden, z. B. indem bestimmte Arten von bildlicher, schriftlicher oder akustischer Information auf das Bild des Realraums überlagert werden – eine Überlagerung, die sich idealer an die sich je verändernde Wahl des Wahrnehmungsausschnitts des gegebenen Ortes anpasst und daher immer in Echtzeit sein muss. Insofern es also darum geht, audio-visuell 1 Vgl. zu einigen der informatischen Hintergründe: Bimber und Raskar 2005 und Haller et al. 2007. Die kultur- und medienwissenschaftliche Debatte zu AR ist klein, vgl. Fahle 2006: Fahle bezieht sich wesentlich auf ein spezielles AR-Projekt an der Bauhaus Universität Weimar und dessen bildtheoretische Implikationen. Vgl. auch Manovich 2006: Manovich wiederum behandelt AR nur als Untermenge seiner Beschäftigung mit dem ‚augmented space‘ und erwähnt die hier diskutierte Nutzung von Smartphones eher am Rande. 2 Vgl. Milgram et al. 1994 zur Einordnung von AR und VR auf ein Kontinuum verschiedener ‚Mixed Realities‘. 3 Vgl. zum Folgenden detaillierter Schröter 2004a, auf 166–168 finden sich Anmerkungen zur Genealogie des Begriffs des ‚Virtuellen‘, die für den vorliegenden Aufsatz maßgeblich sind. Open Access. © 2021 Jens Schröter, publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz. https://doi.org/10.1515/9783110638127-010
166
Jens Schröter
dargestellte Informationen mit dem gerade gegebenen Umraum am gerade gegebenen Ort zu verbinden, sind AR-Applikationen geradezu prototypische Beispiele für orts- und situationsbezogene Medienprozesse. Im Folgenden seien einige knappe Hinweise zur Archäologie der AR gegeben, die einerseits zeigen, dass das Konzept (aus guten Gründen) schon am Anfang jener Entwicklung angelegt war, die aber andererseits am Ende der 1980er Jahre zunächst in den Diskurs zur VR mündete. Einer der Namen, die immer wieder genannt werden, wenn es um die Geschichte von VR geht, ist Ivan Sutherland (vgl. Schröter 2007). Das liegt erstens daran, dass er 1966 seinen Aufsatz „The Ultimate Display“ veröffentlichte, in dem er eine ultimative Visualisierungstechnologie visionierte, deren Bilder ununterscheidbar von der Realität wären – man sieht mithin, woher die Szenarien z. B. von The Matrix (Wachowski 1999) kommen (vgl. Sutherland 2007). Sutherland beschreibt sozusagen die finale Bildumwelt. Auch in der Theoriebildung der 1990er Jahre wurden diese Vorstellungen perpetuiert, so schrieb Elena Esposito noch 1995: „In einem vollendend [sic] gelungenen Projekt virtueller Wirklichkeit soll der Realitätseffekt so wirkungsvoll sein, dass die Objekte nicht mehr von den Objekten der von der Maschine unabhängigen ‚realen Wirklichkeit‘ unterschieden werden können.“ (187). Aber Sutherland war nicht nur der erste ‚Visionär‘ der VR. Zweitens und wichtiger hat er wirkliche technische Entwicklungen zu der Genealogie von AR wie VR beigesteuert – insbesondere das am Anfang der 1990er Jahre als ‚Datenbrille‘ geradezu zur Ikone der VR aufgestiegene Head Mounted Display (HMD). Abb. 1 zeigt ein typisches Bild der Zeit.
Abb. 1: ‚Datenbrille‘ als typische Darstellung von VR, ca. Anfang der 1990er Jahre.
Virtualisierungen der Umwelt: Augmented Reality
167
Sutherland und seine Mitarbeiter entwickeln bis 1968 das erste HMD. Ihre Arbeit wird 1969 in einem Aufsatz mit dem Titel A Head-mounted Three Dimensional Display publiziert. Die ersten Abschnitte umreißen die Grundidee: The fundamental idea behind the three-dimensional display is to present the user with a perspective image which changes as he moves. [. . .] The image presented by the threedimensional display must change in exactly the way that the image of a real object would change for similar motions of the user’s head. [. . .] Our objective in this project has been to surround the user with displayed three-dimensional information. (Sutherland 1968, 757)
Zunächst klingt das alles nach VR: Die*der Benutzer*in wird von Information environmental ‚umgeben‘ und die ständige Neuberechnung des Bildes – abhängig von der Bewegung der*des Nutzers*Nutzerin – führt dazu, dass sich die virtuelle Umgebung für die Wahrnehmung auf dieselbe Weise verändert wie es beim Anblick realer Objekte der Fall wäre. (Natürlich ging es zu der Zeit dieses Artikels um einfache Wireframe-Grafiken.) Doch was bei der Einordnung dieses ersten Textes in die Genealogie der VR manchmal übersehen wird, ist, dass Sutherlands HMD halbdurchlässig war und so die Überlagerung der ComputerBilder mit den Bildern des Realraums erlaubte: Half-silvered mirrors in the prisms through which the user looks allow him to see both the images from the cathode ray tubes and objects in the room simultaneously. Thus displayed material can be made either to hang disembodied in space or to coincide with maps, desk tops, walls, or the keys of a typewriter. (Sutherland 1968, 759)
D. h. Sutherland hatte bei der Entwicklung des HMD gar nicht das Ziel, einen (den*die Betrachter*in abschottenden) immersiven Raum zu schaffen. Das HMD war als ein Interface konzipiert, welches die sinnfällige und komplexitätsreduzierte Präsentation von Information (z. B. für die wissenschaftliche Visualisierung oder militärische Zwecke – siehe die „maps“, die Sutherland nennt) ermöglichen sollte. HMDs sollten eher zur Effizienzsteigerung des Subjektes dienen.4 In diesem Sinne ist er gerade kein Vorläufer der illusionistisch-eskapistisch gedachten VR der frühen neunziger Jahre. Für diesen Diskurs ein Beispiel: Jaron Lanier wird oft als Erfinder des Begriffs Virtual Reality dargestellt und galt lange als der VR-Guru (vgl. Hayward 1993, 198–200). Er stellte mit seiner Firma VPL auch die ersten kommerziell erhältlichen VR-Systeme (Markennamen: EyePhone und DataGlove) her. In Laniers Auffassung wird die virtuelle Umgebung trotz des sonst immer beschworenen Realismus’ keineswegs von
4 Vgl. z. B. HMDs als spezielle Displays für Kampfpiloten: Furness 1986.
168
Jens Schröter
vorneherein auf eine realistische Wiedergabe realer Szenerien und realer Körper festgelegt. Wozu auch? Eine VR zu schaffen, die die äußere Wirklichkeit einfach verdoppelt, ist sinnlos. Also fordert Lanier die Fiktionalisierung der VR. Es stehe, so Lanier, ein ganzes Spektrum von Möglichkeiten zur Verfügung, welches auch die Selbstrepräsentation des*der Users*in als fiktionale Figur einräumt. In der VR, so führt Lanier aus, „könnte [man] ohne weiteres ein Gebirge sein oder eine Galaxie oder ein Kieselstein auf dem Boden“ (1991, 72). So wird, jedenfalls im Prinzip, auch eine freie Fiktionalisierung des eigenen Körpers möglich – auch wenn unklar bleibt, was es genau heißen soll, eine ‚Galaxie zu sein‘. Lanier unterstreicht mehrfach den widerspenstigen Charakter der materiellen und körperlichen Welt: „Das Tragische an der physischen Wirklichkeit ist, dass sie zwingend ist“ (1991, 81). Laniers Diskurs zeigt ziemlich deutlich, was die Attraktion der VR als andere Welt, in die man gleichsam flüchten zu können glaubte, ausmachte. Es schien möglich, das Gefängnis der physischen Realität zu verlassen. Vielleicht ist es kein Zufall, dass solche Vorstellungen um 1990 florierten. 1989/90 endete der Kalte Krieg, das ‚Ende der Utopien‘ wurde verkündet – und so stießen utopische Aufladungen der neuen Computertechnologien in jenes Vakuum. Diese utopischen Aufladungen sind genau das, was heute in den Science and TechnologyStudies, bei Jasanoff oder bei Kirby, als sozio-technisches Imaginäres bezeichnet wird (vgl. Kirby 2010; Jasanoff und Kim 2015). So bemerkte Bernhard Waldenfels: „Es könnte sein, daß die ‚alteuropäischen‘ Geschichtsillusionen nach ihrem Niedergang abgelöst werden durch technologische Allmachtsphantasien aus der Neuen Welt.“ (1998, 197). Die in der VR angeblich mögliche Befreiung vom eigenen Körper führt Lanier zu der den utopischen Stellenwert verdeutlichenden These, dass die VR „die absolute Aufhebung von Klassen- und Rassenunterschieden und allen anderen vorgeschobenen Formen [bedeutet], da alle Formen veränderlich sind.“ (1991, 83). Auch dies ist nach 1989 lesbar als eine verschobene Wiederkehr der ansonsten obsolet gewordenen Sozialutopien, die gerade die Überwindung von sozialer Ungerechtigkeit und Rassismus versprochen hatten. Es dürfte kaum noch überraschen, dass sich VR (zumindest in dieser starken Form) nie etabliert hat, auch wenn sich gegenwärtig mit Techniken wie der Oculus Rift ein gewisses Comeback der VR anzubahnen scheint. So ist die Erzeugung eines auch nur einigermaßen überzeugend wirkenden virtuellen BildTon-Raums technisch schwierig, die Simulation der Tasterfahrung (etwa durch ‚Datenhandschuhe‘) ist umständlich und aufwendig, die VR-Wahrnehmung stößt auf Probleme wie den Konflikt zwischen audiovisueller und propriozeptiver Wahrnehmung (‚Simulatorkrankheit‘) und kollektive Rezeptionsprozesse sind behindert. Vor allem aber ist ihre eskapistische Funktion kaum mit den Funktionalitätsimperativen der globalen kapitalistischen Weltordnung nach
Virtualisierungen der Umwelt: Augmented Reality
169
1989/90 vereinbar (wie das auch für Drogen gilt). Wenn VR-ähnliche environments heute genutzt werden, dann in Simulatoren, um Subjekte zu trainieren und für spezifische Aufgaben zu optimieren. Dabei geht es gerade nicht darum, die Welt durch eine VR zu ersetzen, sondern vielmehr, die Welt mithilfe virtueller Räume zu beherrschen und zu kontrollieren. Unsere hochtechnische HochrisikoKultur (Flugzeuge, Atomkraftwerke etc.) benötigt solche „control environments“ (Ellis 1991, 327), um überhaupt operieren zu können (vgl. Schröter 2004b). Doch dass die schon bei Sutherland angelegte Möglichkeit der AR, also einer Überlagerung des virtuellen Raums mit dem realen Ort, heute – von den Trainingssimulatoren abgesehen – immer wichtiger wird, verwundert nicht. Während die VR (zumindest in ihrer phantasmatischen Form) die Flucht aus dieser Welt erlauben soll, dient die AR dazu, sie mit Informationen anzureichern, d. h. zu funktionalisieren und zu optimieren. Daher ist sie heute viel wichtiger – und ihre Durchsetzung letztlich ein Zeichen dafür, dass neue Medien in der Regel nicht (oder nicht nur) die Welt fundamental verändern, sondern in die dominanten Strukturen integriert werden, um sie z. B. zu beschleunigen und dadurch z. B. Produktivitätsvorteile in der kapitalistischen Konkurrenz zu erzeugen (Was nicht heißt, dass die neuen technischen Verfahren nicht auch zu Verschiebungen, Störungen und Konflikten führen.).
2 Insbesondere der Ausbreitung der Smartphones ist es zu verdanken, dass wir jetzt alle die Welt in Echtzeit mit Daten und Informationen überlagern können. Einen schönen Überblick über mehr als 50 AR-Apps für das iPhone liefert die Website Iphoness mit dem Artikel 50 + Best Augmented Reality iPhone Applications (Ci 2019). Bei diesen zukunftsweisenden Anwendungen wird die Kamera des iPhones genutzt, um das Bild des Ortes auf dem Display sichtbar zu machen und in Echtzeit mit Informationen zu überlagern. Man kann an dieser Website grob und heuristisch drei verschiedene Kategorien von AR-Anwendungen unterscheiden: 1. Orts-optimierende Applikationen (Informationsanreicherung); 2. Orts-ludische Applikationen (Spiel) und 3. Orts-ästhetische Applikationen (Gestaltung). Im Folgenden sollen diese verschiedenen Formen und ihre Implikationen diskutiert werden.
170
Jens Schröter
2.1 Orts-optimierende Applikationen Wie Abb. 2 zeigt, sind viele der Apps für die Zulieferung geographischer Information gedacht. Es geht darum, sich in einer gegebenen Umgebung besser orientieren zu können, indem GPS-Daten, das Bild eines Kompasses etc., dem Ort in Echtzeit überlagert werden. Ganz praktische Anwendungen können dazugehören: So kann man den Ort, an dem man sein Auto geparkt hat, taggen, um so leicht zum Auto zurückzufinden (Wobei für eine solche Funktion eigentlich keine Bildüberlagerung notwendig ist.). D. h. der Raum wird funktionalisiert, um Zeitersparnis zu erzielen. Damit kann die AR dazu dienen, die Figur des
Abb. 2: Ausschnitt des Artikels 50 + Best Augmented Reality iPhone Applications: Orts-optimierende Applikationen.
Virtualisierungen der Umwelt: Augmented Reality
171
Flaneurs, wie sie sich in der Moderne in der Literatur von Baudelaire, Benjamin u. a. herausgebildet hat, auszustreichen. Wenn die „Minimaldefinition“ gilt, „daß der Flaneur richtungs- und ziellos durch die Großstadt streift“ (Neumeyer 1999, 17),5 dann kann er mit einer ‚Poetik des Nichts-Tuns‘ in Verbindung gebracht werden.6 Und insofern das ‚richtungs- und ziellose Herumstreifen‘ auch eine Verweigerung von Effizienz und Funktionalität ist, kann AR als Technologie der Effizienzsteigerung des Subjekts verstanden werden.7 Außerdem bedeutet die Möglichkeit der Orientierung notwendig zugleich, dass die Position der Nutzer*in bekannt sein muss und – wie Skandale darum gezeigt haben – auch von den Smartphones gespeichert werden kann: „The close connection between surveillance/monitoring and assistance/augmentation is one of the key characteristics of the high-tech society.“ (Manovich 2006, 222). Die Optimierung des sich bewegenden Subjekts ist also eine doppelte: Nicht nur wird die Bewegung selbst effizient gemacht, sondern es fallen potentiell auch Bewegungsprofile an, die weniger einer politischen Überwachung als einer kommerziellen Verwertung zugeführt werden dürften. Zugleich können Hintergrund-Informationen aus Datenbanken wie z.B. Wikipedia mit dem Bild überlagert werden; es geht also darum, die Umgebung mit Bedeutung aufzuladen. So heißt es in dem Artikel 50 + Best Augmented Reality iPhone Applications zu Wikitude: „[A]nother cool augmented iPhone application that helps you explore your surroundings effectively on your phone“ (Ci 2019). So praktisch das ist, es bleibt durchaus die Frage, wie man diese Operationalisierung der Umgebung durch ihre Überlagerung mit virtuellen Informationsräumen einstufen soll. Ein Paper mit dem schönen Titel 7 Things You Should Know About Augmented Reality (Educause Learning Initiative 2005) diskutiert den didaktischen Einsatz von AR und spricht dabei ganz offen aus, dass eine der Möglichkeiten der AR ist, das Lernen auf den Alltag auszudehnen, gewissermaßen alles in Weiterbildung zu verwandeln. Hierin kann man ein Element der von Deleuze beschriebenen kontrollgesellschaftlichen Ordnung sehen, in der „die permanente Weiterbildung tendenziell die Schule [. . .] und die kontinuierliche Kontrolle das Examen“ (Deleuze 1990, 257) ablöst. Ähnlich, wie dank der geomedialen Apps z. B. keine Zeit bei der Suche nach dem Auto verloren werden soll, wird die Freizeit selbst zum Weiterbildungsraum: Beide Male geht es darum, Subjekte und ihr
5 Vgl. ein schönes Beispiel bei Bergman: „Wir streiften absichtslos durch die Stadt, verliefen uns, fanden uns wieder zurecht, verliefen uns erneut.“ (1987, 197). 6 Vgl. Fuest 2008, insbesondere Kapitel III. 7 Im Grunde kann die Archäologie der Effizienzsteigerung durch ‚Augmentierung‘ bis zu Douglas Engelbarts Programm einer ‚Augmentation of Human Intellect‘ durch den gezielten Einsatz von Computern zurückverfolgt werden; vgl. Engelbart 1962.
172
Jens Schröter
Handeln zu optimieren. Dabei kann zumindest die Frage aufgeworfen werden, ob die Überlagerung der Dinge durch Informationen nicht auch den Interpretationsspielraum einschränkt und zu einer Homogenisierung der Dingerfahrung beiträgt. Durch Ausbreitung von AR-Apps auf Smartphones könnte sich also auch eine homogenisierte Interpretation der Dinge ausbreiten – gleichsam als globale semantische Matrix, die Teil der Globalisierungsprozesse ist.
2.2 Orts-ludische Applikationen Ein großer Teil der Apps in dem Artikel 50 + Best Augmented Reality iPhone Applications sind Spiele. Dabei wird das Bild des Ortes in Echtzeit mit Spielfiguren oder Ähnlichem überlagert, in einer genannten Applikation kann man durch das iPhone auf seine Füße sehen und es wird das Bild eines Fußballs überlagert, die App erkennt die Füße und man kann den virtuellen Ball vor sich her kicken (Abb. 3). Solche Casual Games sind ideale Werkzeuge des Zeitvertreibs, z. B. beim Warten oder auf dem Weg zur Arbeit und tragen als solche zur Operationalisierung der immer stärker geforderten Mobilität bei. Bei Spielen geht es offenkundig nicht darum, wie in den in 2.1) genannten Anwendungen, die außerhalb befindliche Realität mit Informationen anzureichern, um sie zu funktionalisieren, sondern darum, den (meist) bekannten Umraum zum Setting der Spiele selbst zu machen. So ersetzt nicht ein virtuelles Spiel-Bild den Blick auf die Außenwelt, vielmehr kann diese neu erfahrbar gemacht werden. Ein geradezu kindliches Vergnügen an der Neuentdeckung der Welt wird eröffnet. Ein gewisser Harald Ebert von Nintendo bemerkt genau in diesem Sinn: „Da wird der eigene Wohnzimmertisch zum Videospiel-Level.“ (Ebert 2011) Zugleich erfordert der Umgang mit den AR-Spielen unter Umständen auch eine unablässige Bewegung des Körpers, um die Konsole zu bewegen, damit immer neue Abschnitte des Realraums sichtbar und überlagert werden. Die steigende Beliebtheit von AR-Spielen – oder vielmehr AR-‚Spielereien‘ – scheint Ausdruck einer stetigen (demographischen) Erweiterung der Computerspiel-Kultur zu sein: Ihren vorläufigen Höhepunkt dürfte dies mit Pokemon Go erreicht haben. So ist zu beobachten, dass Computerspiele immer breitere Bevölkerungsschichten ansprechen und der Stereotyp der ‚Hardcore-Gamer*in‘ mittlerweile eher die Ausnahme denn die Regel bildet (vgl. Newman 2004). Gerade der Siegeszug der sogenannten Casual Games – Jesper Juul spricht zurecht von einer „Casual Revolution“ (vgl. Juul 2010) – markiert hier einen wichtigen Entwicklungsschritt, der nicht zuletzt auch vom Erfolg der Nintendo Wii (mit ihren neuen Interface-Möglichkeiten) mitgetragen wurde. Wenn z. B. mehr unterwegs
Virtualisierungen der Umwelt: Augmented Reality
173
Abb. 3: Ausschnitt der in dem Artikel 50 + Best Augmented Reality iPhone Applications gezeigten Orts-ludischen Applikationen.
gespielt wird, liegt der Reiz des AR-Spielens gerade darin, den jeweiligen Ort, an dem man sich befindet, spielerisch zu nutzen. Es bleibt abzuwarten, ob Nintendo auch mit dem 3DS neue Spielergruppen zu erschließen vermag.8 Der interessante Kontrast der hier diskutierten Anwendungen zu 2.1) ist jedenfalls, dass es nicht um eine Optimierung, sondern um eine Ludisierung des Orts in Echtzeit geht.
8 Mit Dank an Benjamin Beil.
174
Jens Schröter
2.3 Orts-ästhetische Applikationen Schließlich wird auf der genannten Website über die besten AR-Apps für das iPhone eine App genannt, die nicht recht zu den bisherigen beiden Kategorien passen will (Abb. 4).
Abb. 4: Ausschnitt des Artikels 50 + Best Augmented Reality iPhone Applications: Orts-ästhetische Applikation.
Bei diesem Programm namens Ikea Place des schwedischen Möbelhauses Ikea geht es darum, die Bilder des Ortes in Echtzeit mit Abbildungen von Möbelstücken zu überlagern und in diesem Sinne gestaltend auf die eigene Umgebung zuzugreifen. Daher wurde der Begriff der ‚Orts-ästhetischen Applikation‘ vorgeschlagen, selbst wenn es sich nicht im engeren Sinne um eine künstlerische Anwendung handelt – obwohl es solche natürlich gibt (s. u.). Die AR-Anwendung reduziert also die Ängste (und erneut: den Zeitverbrauch), die mit dem Möbeleinkauf einhergehen können, insofern sie vorab zu testen erlaubt, ob sich ein Möbelstück in die heimische Umgebung einfügen wird. Sieht man einmal von der sich so anzeigenden Schwäche visueller Vorstellungskraft ab, ist erneut eine optimierende Funktion der AR-Applikation unübersehbar. Sie funktioniert gewissermaßen als neue Form des Katalogs, die die im Katalog isoliert präsentierten Waren zu situieren erlaubt und so eine bessere Abschätzung ermöglicht, ob das evtl. zu erwerbende Objekt sich in die übergreifende Gestaltung des eigenen Wohnraums einfügt. Der Katalog beginnt
Virtualisierungen der Umwelt: Augmented Reality
175
den Realraum zu überlagern. Zunächst soll also der Warenkauf erleichtert werden. Offenkundig implizieren derartige Anwendungen eine Ästhetisierung, da Fragen nach dem Preis, der Verarbeitung etc. eines Möbelstücks zugunsten der Frage danach zurücktreten, ob das Objekt im Umraum der eigenen Wohnung ästhetisch ‚funktioniert‘. Insofern zeigt sich hier auch eine – im Sinne Bourdieus – soziale Segmentierung, die nicht ganz überraschend ist. Nutzer*innen, die sich ein iPhone leisten können, können meistens auch die Frage nach den Kosten eines Möbelstücks zugunsten ihrer Selbststilisierung zurückstellen. Zugleich ist diese Selbststilisierung, z. B. durch eine ‚stimmige‘ Einrichtung, eine Option des Differenzgewinns bzw. der ‚Individualisierung‘ gegenüber anderen. Insofern ist diese AR-Applikation eine Selbsttechnologie (Foucault) für die ästhetizistische Individualitätsproduktion postmoderner Konsumenten. Die Differenzproduktion ist für die Markt- und Markendiversifizierung essentiell, weil für die Konsument*innen der Anschluss an bestimmte Gestaltungsweisen als ‚Selbstsein‘ erscheint und so gerade den Eindruck einer Heteronomie durch eine ‚Kulturindustrie‘ (Adorno/Horkheimer) umgehen kann – was übrigens auch für Apple selbst gelten dürfte. Insofern AR-Applikationen den Ort in Echtzeit zum permanenten Gestaltungsfeld dieser schein-autonomen Differenzpraxis machen, sind sie eine Herrschaftstechnologie. Aber es gibt auch andere ästhetisierende Praktiken. So können AR-Verfahren tatsächlich ein Ansatzpunkt für künstlerische Praktiken sein. Auch für Smartphones gibt es AR-Kunstprojekte. Diese Bilder dokumentieren ein Projekt, das am 9. Oktober 2010 durchgeführt wurde (Abb. 5 und 6). Besucher*innen mit den entsprechenden Smartphones und AR-Software (Wikipedia contributors 2019) können im MoMA an einer virtuellen und inoffiziellen Ausstellung teilnehmen: The virtual exhibition will occupy the space inside the MoMA building using Augmented Reality technology. The show will not be visible to regular visitors of the MoMA, but those who are using a mobile phone application called „Layar Augmented Reality browser“ on their iPhone or Android smartphones, will see numerous additional works on each of the floors. (Veenhof 2010)
D. h. mit AR wird der Raum des MoMAs gewissermaßen besetzt und die autoritative Selektion der Werke und die Narration ihrer Anordnung unterlaufen, durchbrochen und so verschoben. Das kann durchaus als subversiver Angriff auf die hegemoniale Funktion des MoMAs verstanden werden (Allerdings kann die AR-Ausstellung ebenso als Anerkennung der hegemonialen Rolle des MoMA gewertet werden.). Hier deuten sich kritische Potentiale einer AR-Kunst an, die die stabilisierten räumlichen Strukturen neuen Deutungs- und Wahrnehmungsweisen öffnet.
176
Jens Schröter
Abb. 5 und 6: Augmented Reality Art Invasion 2010, http://www.sndrv.nl/moma/.
3 Fazit E8s zeigt sich, dass mit der AR ein wichtiger Bereich von Bildumwelten angesprochen ist, welcher eine große Bandbreite von kontrollgesellschaftlichen Optimierungen, Ludisierungen und Ästhetisierungen erlaubt, aber auch kritische Potentiale enthält. Bildumwelten, besonders in Simulatoren oder eben in optimierenden AR-Anwendungen, haben Funktionen der Kontrolle, aber die Vielfalt der Anwendungen lässt sich wohl nicht darauf reduzieren. Die genauen Einsatzformen konkret in ihrer Situierung zu untersuchen – dies ist bei AR per definitionem unumgänglich -, ist eine zentrale Aufgabe der (medienethnographischen) Erforschung situierter Medien. Eine Medienästhetik der AR (oder der AR als eine Form einer generelleren ‚Mixed Reality‘ [vgl. Milgram et al. 1994]) hätte systematisch darzulegen, wie auditiv und visuell virtuelle und reale Räume und Objekte aufeinander bezogen werden und welche Parameter dabei ausschlaggebend
Virtualisierungen der Umwelt: Augmented Reality
177
Abb. 5 und 6 (fortgesetzt)
sind (vgl. Schröter 2018). Sie könnte dadurch auch beschreiben, welche Bewegungspfade, Interaktionsweisen und Wahrnehmungspotentiale für die potentiellen Betrachter*innen und Benutzer*innen dabei auf welche Weise ermöglicht oder verstellt werden. Die Frage nach der Differenz von Realem und Virtuellem muss heute zur Frage nach den medienästhetischen Strategien ihrer Verbindung sowie deren politischen Implikationen weiterentwickelt werden.
178
Jens Schröter
Literatur Azuma, Ronald T. „A Survey of Augmented Reality“. Presence: Teleoperators and Virtual Environments 6.4 (1997): 355–385. Bergman, Ingmar. Mein Leben. Hamburg: Hoffmann und Campe Verlag, 1987. Bimber, Oliver, und Ramesh Raskar. Spatial Augmented Reality. Merging Real and Virtual Worlds. Wellesley, MA: A K Peters, 2005. Ci. 50+ Best Augmented Reality iPhone Apps. http://www.iphoneness.com/iphone-apps/ best-augmented-reality-iphone-applications/ (29. März 2019). Deleuze, Gilles. „Postskriptum über die Kontrollgesellschaften“. Unterhandlungen 1972–1990. Frankfurt a.M.: Springer, 1990. 254–262. Ebert, Harald. Sonstiges: Expertenrunde zum 3DS-Launch. http://www.planet3ds.de/artikel/ 9-expertenrunde-zum-3ds-launch.html. 2011 (29. März 2019). EDUCAUSE Learning Initiative. 7 Things You Should Know About Augmented Reality. https:// library.educause.edu/resources/2005/10/7-things-you-should-know-about-augmented-re ality. ELI 7 Things You Should Know 2005 (29. März2019). Ellis, Stephen R. „Nature and Origins of Virtual Environments. A Bibliographical Essay“. Computing Systems in Engineering 2.4 (1991): 321–347. Engelbart, Douglas C. Augmenting Human Intellect: A Conceptual Framework. http://sloan. stanford.edu/mousesite/EngelbartPapers/B5_F18_ConceptFrameworkInd.html. 1962 (29. März2019). Esposito, Elena. „Illusion und Virtualität. Kommunikative Veränderungen der Fiktion“. Soziologie und Künstliche Intelligenz. Produkte und Probleme einer Hochtechnologie. Hg. Werner Rammert. Frankfurt a.M., New York: Campus Verlag, 1995. 187–216. Fahle, Oliver. „Augmented Reality – Das partizipierende Auge“. Das Spiel mit dem Medium. Partizipation – Immersion – Interaktion. Zur Teilhabe an den Medien von Kunst bis Computerspiel. Hg. Britta Neitzel und Rolf F. Nohr. Marburg: Schüren, 2006. 91–103. Fuest, Leonhard. Poetik des Nicht(s)tuns. Verweigerungsstrategien in der Literatur seit 1800. München: Wilhelm Fink, 2008. Furness, Thomas. „The Supercockpit and its Human Factors Challenges“. Proceedings of the 30th Annual Meeting of the Human Factors Society (1986): 48–52. Haller, Michael, Mark Billinghurst und Bruce Thomas. Emerging Technologies of Augmented Reality. Interfaces and Design. Hershey, PA: Idea Group Inc., 2007. Hayward, Philip. „Situating Cyberspace. The Popularisation of Virtual Reality“. Future Visions. New Technologies of the Screen. Hg. Philip Hayward und Tana Wollen. London: British Film Institute Press, 1993. 180–204. Jasanoff, Sheila, und Sang-Hyum Kim. Dreamscapes of Modernity. Sociotechnical Imaginaries and the Fabrication of Power. Chicago, London: University of Chicago Press, 2015. Juul, Jasper. A Casual Revolution. Reinventing Video Games and Their Players. Cambridge, MA: MIT Press, 2010. Kirby, David. „The Future is Now. Diegetic Prototypes and the Role of Popular Films in Generating Real-world Technological Development“. Social Studies of Science 40.1 (2010): 41–70. Lanier, Jaron. „Was heißt ‚virtuelle Realität? Ein Interview mit Jaron Lanier“. Cyberspace. Ausflüge in virtuelle Wirklichkeiten. Hg. Manfred Waffender. Reinbek bei Hamburg: Rowohlt, 1991. 67–89.
Virtualisierungen der Umwelt: Augmented Reality
179
Manovich, Lev. „The Poetics of Augmented Space“. Visual Communication 5.2 (2006): 219–240. Milgram, Paul, Haruo Takemura Akira Utsumi und Fumio Kishino. „Augmented Reality: A Class of Displays on the Reality-Virtuality Continuum“. Proceedings of SPIE 2351.1 (1994): 282–292. Neumeyer, Harald. Der Flaneur. Konzeptionen der Moderne. Würzburg: Könighausen und Neumann, 1999. Newman, James. Videogames. London, New York: Routledge, 2004. Schröter, Jens. Das Netz und die Virtuelle Realität. Zur Selbstprogrammierung der Gesellschaft durch die universelle Maschine. Bielefeld: transcript, 2004a. Schröter, Jens. „Computer/Simulation. Kopie ohne Original oder das Original kontrollierende Kopie“. OriginalKopie – Praktiken des Sekundären. Hg. Gisela Fehrmann, Erika Linz, Eckhard Schumacher und Brigitte Weingart. Köln: DuMont, 2004b. 139–155. Schröter, Jens. „Von grafischen, multimedialen, ultimativen und operativen Displays. Zur Arbeit Ivan E. Sutherlands“. Display II: Digital. Navigationen. Zeitschrift für Medien- und Kulturwissenschaften 7.2. (2007): 33–48. Schröter, Jens. „Atmosphäre und Interferenz“. Zur Ästhetik medialer Räume. Mediale Räume. Hg. Stephan Günzel. Berlin: Kadmos, 2018. 111–121. Sutherland, Ivan. „A Head-mounted Three Dimensional Display“. AFIPS Conference Proceedings 33.1 (1968): 757–764. Sutherland, Ivan. „Das ultimative Display“. Display II: Digital. Navigationen. Zeitschrift für Medien- und Kulturwissenschaften 7.2 (2007): 29–32 (übersetzt von Nicola Glaubitz und Jens Schröter). The Matrix. Reg. Lana und Lilly Wachowski. Warner Bros, 1999. Veenhof, Sander. MoMA, Details. http://www.sndrv.nl/moma/?page=details, 2010 (29. März 2019). Waldenfels, Bernhard. „Ein menschlicher Traum für Wachende. Zur Natürlichkeit und Künstlichkeit der Erfahrung“. Grenzen der Normalisierung. Studien zur Phänomenologie des Fremden 2. Frankfurt a.M.: Suhrkamp, 1998. 196–213. Wikipedia contributors. Layar. https://en.wikipedia.org/w/index.php?title=Layar&oldid= 849693898. Wikipedia, The Free Encyclopedia, 10. Juli 2018 (29. März 2019).
Abbildungen ߓ‚Datenbrille‛ als typische Darstellung von VR, ca. Anfang der 1990er Jahre. ߓAusschnitt des Artikels 50+ Best Augmented Reality iPhone Applications: Ortsoptimierende Applikationen. Abb. 3 ߓAusschnitt der in dem Artikel 50+ Best Augmented Reality iPhone Applications gezeigten Orts-ludischen Applikationen. Abb. 4 ߓAusschnitt des Artikels 50+ Best Augmented Reality iPhone Applications: Ortsästhetische Applikation. Abb. 5 und 6ߓAugmented Reality Art Invasion 2010, http://www.sndrv.nl/moma/ (29. März 2019). Abb. 1 Abb. 2
Inge Hinterwaldner
Irritierende Artefakte: Wie sich die handlungsbezogene Virtualität in Modellen zeigt Insbesondere in der sich seit etwa 2012 vollziehenden zweiten Welle der Diskussion und Entwicklung von virtueller Realität (die erste vollzog sich etwa Mitte der 1990er Jahre) werden diese immersiven Techniken als Instanzen gewürdigt, die es erlauben, sich von der Außenwelt immer besser abzukapseln. Ich folge französischen Denkern darin, dass das Virtuelle jenseits des rein Technischen steht und keinen Gegensatz zum Realen bildet. Mit Blick auf Modelle, und hier insbesondere auf Architekturmodelle, binde ich die Virtualität nicht an die Optik, wie es die Filmwissenschaftlerin Anne Friedberg unter Herleitung historischer Traditionen einleuchtend unternimmt, und auch nicht an eine (technologische) Medienspezifik (Friedberg 2006, 8–9). Vielmehr versuche ich, das Virtuelle als etwas (Daseinsweise in Modellen) vorzustellen, das implizit Handlungsangebote zu unterbreiten vermag. Damit rücke ich das Virtuelle in die Nähe der Affordanzen, dem Praxigenen. Dieses aktionsbezogene Virtuelle der Artefakte erfährt im Umgang eine Aktualisierung. Dabei kann der Fall eintreten, dass der Umgang nicht zum Modelltypus passt. Es kann fernerhin dazu kommen, dass die modellhaften Artefakte dergestalt ausfallen, dass sich das Handlungsangebot daran so stark verschiebt, dass man hierfür erst einmal eine neue Funktionalität finden müsste. Darum veranlassen die im Folgenden vorgestellten architektonischen und künstlerischen Beispiele von Peter Eisenman, Mario Botta, Pierre Huyghe und Florian Dombois zunächst zum Schmunzeln und oder zum Ärgern. Materielle Umsetzungen von architektonischen Konfigurationen, die zuvor auf Papier oder im Computer vorlagen, sind an sich wahrlich nichts Ungewöhnliches – warum stechen diese heraus? Sie dienen hier dazu, Darstellungskonventionen als handlungsbezogen perspektiviert zu konnotieren. Wenn dem so ist, lohnt es auch bei digitalen 3D-Rekonstruktionen – die vermeintlich verzerrungsfrei abbilden – darauf zu achten, wie sich die Handlungsperspektivierung als virtuelle Instanz auswirkt.
1 Provozierende Modellierungen Zunächst stelle ich die vier architektonischen bzw. künstlerischen Beispiele kurz vor, um danach drei Argumentationslinien zu verfolgen, die in eine Open Access. © 2021 Inge Hinterwaldner, publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz. https://doi.org/10.1515/9783110638127-011
182
Inge Hinterwaldner
ähnliche Richtung weisen und eine Diskussion digitaler Rekonstruktion vorbereiten.
1.1 Gebaute Axonometrie – Peter Eisenman Einen prominenten Beitrag zum Nachdenken über die Projektion in 3D-Gebilden leistet der US-amerikanische Architekt Peter Eisenman im Rahmen seines entworfenen, aber letztlich nicht gebauten Projekts House X (1975–1978). Abbildung 1 zeigt eine axonometrische Projektionsdarstellung des Gebäudes auf Papier. Die Axonometrie ist eine im Ingenieurwesen schon länger, in der Architektur insbesondere seit den 1920er Jahren beliebte und übliche Darstellungsweise für Entwurfsgegenstände. Es handelt sich um ein Verfahren der darstellenden Geometrie, Körper in einer Zeichenebene wiederzugeben. Axonometrische Diagramme sind sachlich insofern, als es sich um eine distanzierende Projektionsart handelt, bei der Betrachter_innen nie im Bild stehen (Schneider 1981). Auch bei Eisenmans dreidimensionalen axonometrischem Konstrukt (Abb. 2) ist folglich kein Blickpunkt in Bezug auf die Architektur gegeben (denn es wird weniger Raum dargestellt als Maßverhältnisse unverzerrt ablesbar gemacht), sondern nur in Bezug auf die Darstellung der Architektur. Eisenman transferiert diese Projektionsart in den lebensweltlichen dreidimensionalen Raum.1 Zweifellos wird ein Blatt mit einer Zeichnung auch in die Hand genommen, gedreht und seitlich betrachtet. Dadurch bekommt man aber keine zusätzlichen Details offenbart, die bei einem frontalen Zublick nicht auch prinzipiell schon vorhanden wären. Das Objekt des House X zeigt sich von einem bestimmten Blickwinkel aus der Zeichnung entsprechend (Abb. 2), aber von allen anderen Seiten (Abb. 3) präsentiert es notwendigerweise zusätzliche Informationen zum Bau. Damit ergibt sich eine Spannung zur angewandten zeichnerischen Projektionslogik, die gerade Räumlichkeit suggerieren bzw. zwischen 2D und 3D vermitteln sollte und – in den Realraum transferiert – ihre Aufgabe verliert und eine neue Bestimmung erhalten müsste. Über eine mathematische Transformation kippte Eisenman alle Vertikalen um 45 Grad in dieselbe Richtung. Damit tritt es auch in ein Spannungsverhältnis mit dem angedachten Bau, den es – einer Anamorphose nicht unähnlich – nur unter einem einzigen Blickwinkel normgerecht zu repräsentieren vermag. Bei der Papiervariante der Axonometrie ist dieser Blick-
1 Es sei erwähnt, dass der Informatiker Gershon Elber vom Technion in Haifa eine Herausforderung darin fand, die Zeichnungen Eschers mit Hilfe von 3D-Druckern als dreidimensionale Konstrukte zu realisieren. Vgl. Elber undat.
Irritierende Artefakte
183
Abb. 1: Peter Eisenman: House X, 1975–1978. Axonometrische Zeichnung des Schemas H. Quelle: Eisenman 1983, 159, Abb. 209.
Abb. 2: Peter Eisenman: House X, 1975–1978. Axonometrisches Modell des Schemas H. Ansicht von Nordost. Quelle: Eisenman 1983, 163, Abb. 211.
184
Inge Hinterwaldner
Abb. 3: Peter Eisenman: House X, 1975–1978. Axonometrisches Modell des Schemas H. Ansicht von Norden. Quelle: Eisenman 1983, 164, Abb. 213.
winkel bereits ‚eingebaut‘, beim axonometrischen dreidimensionalen Objekt auch, aber als Objekt im Raum erlaubt es zudem allseitige Zublicke. Hier werden ein Einsehen und ein Eingriff eher vereitelt, man hat die Entzerrung nur, wenn man sich auf einen Blickpunkt diszipliniert, der in der Zeichnung schon inkorporiert wäre. Damit wäre der Vorzug der dreidimensionalen Darstellung karikiert. Ein wenig begeisterter Kritiker – der den Blick aus der Vogelperspektive verinnerlicht hat – schrieb dazu: „Looking down to this helpless model, which resembles a crab squashed on a beach, one can only admire Eisenman’s success at this task [of leaving architecture with no task but to symbolize impotence]“ (Pommer 1981, 10). Es wäre auch möglich zu sagen, dass sich für die Betrachter_innen die Frage stellt, ob es sich um ein schiefes Modell eines orthogonalen Entwurfs oder um ein ‚normales‘ Modell eines schiefen Hauses handelt. Die inhärente Ambiguität in axonometrischen Zeichnungen nahm sich Eisenman im Projekt El Even Odd (1980) explizit vor. Ein Würfel, dem ein würfelförmiges Achtel fehlt, dient ihm als ‚L‘-förmiger Baukörper, den er in vier Varianten auf Weisen verzerrt, dass er axonometrisch immer noch exakt gleich repräsentiert werden kann. Bei geeigneter Wahl der Projektionsrichtung, so der Architekt Daniel Lordick, kann man der Axonometrie nicht ansehen, ob das Objekt gerade (‚even‘) oder schief (‚odd‘)
Irritierende Artefakte
185
ist (Lordick 2005, 142–143). Eisenmans Modell von House X erntete Kritik, denn es entspricht als Gesamtkonfiguration keiner Norm und funktioniert nur als einseitig betrachtetes, seine ‚konzeptuelle Essenz‘ ist die Zeichnung. Oder es thematisiert die Kontingenz der Normierung. Mit ihm legt er indirekt nahe, dass auch 3D-Gebilde Projektionslogiken beinhalten, d. h., dass sie nicht per se ‚verzerrungsfrei‘ sind. Eisenmans Objekt zählt heute zu den berühmtesten Architekturmodellen des zwanzigsten Jahrhunderts.
1.2 Gebauter Aufriss – Mario Botta Das nächste Beispiel stammt vom Schweizer Architekten Mario Botta. Sein S. Carlo alle Quattro Fontane (Abb. 4) bezieht sich auf einen historischen Bau, nämlich auf die 1638–1641 erbaute gleichnamige Kirche des Barockarchitekten Francesco Borromini (1599–1667). Zu dessen 400. Geburtstag erstellte Botta in Kollaboration mit der Università della Svizzera Italiana im Jahre 1999 ein – ja was? Das Ringen um Kategorien ist den Kommentaren deutlich zu entnehmen. In seiner eher literarischen Besprechung nennt der Architekt Emanuele Saurwein das Monument einen „Schauspieler“, ein „geklontes Phantom“, ein „Spektrum“ und „Gespenst“, ein „Scheinbild“ oder „Schatten eines Schattens“ (Saurwein 2001). Auch der Philosoph Nicola Emery findet eine ganze Reihe von Begrifflichkeiten dafür: „Bild“, „großes Simulakrum“, „traumähnliches und enigmatisches Ornament“ oder „Repräsentation-Modell-Kunstgriff“ (Emery 1999). Für den Kunsthistoriker Rolando Bellini ist es ein „Artefakt in Lebensgröße“, ein „exzentrischer Replikant“ und ein „gigantischer hölzerner Querschnitt“ (Bellini 2000, 15, 33 und 41). Laut dem Architekten selbst sei das Gebäude wie eine szenografische Konstruktion (Botta 1999, 14), oder ein „non-finito“ bzw. „Fragment“.2 Andernorts spricht man von einer Darstellung einer Sektion aus Holz, die sich wie eine „Architektur und Szenografie, wie eine Skulptur und Installation“ darbiete (Sala und Cappellato 2003, 151). Was wurde 1999 am See von Lugano eigentlich gebaut? Man errichtete einen in Holz ausgeführten Querschnitt durch die Schmalseite der römischen Kirche in Originalgröße des Gotteshauses und mit einer für Modelle nicht unty-
2 Die Rede vom Fragment erstaunt, denn der Schnitt passierte im Computermodell, er ist in der Ausführung aber ein additiv Gebauter. Damit markiert diese Vorgehensweise den Gegenpol etwa zum splitting des Künstlers Gordon Matta-Clark, der mit seinen building cuts bestehende Bausubstanz zerschneidet.
186
Inge Hinterwaldner
Abb. 4: Mario Botta: S. Carlo alle Quattro Fontane, 1999. Quelle: Cappellato 1999, 241.
pischen Schichtbauweise – man könnte auch sagen: einer gröberen horizontalen Auflösung (Von Moos 1999, 36). Obwohl es im ersten Moment so aussieht, als würde Botta einen historischen Aufriss bauen, entnahm er die Rauminformationen den neuesten Datenerhebungstechniken. Unter der Leitung von Alessandro Sartor von der Università la Sapienza in Rom wurde 1998 über die Fernerkundungstechnik der Fotogrammetrie (Bildmessung) eine virtuelle dreidimensionale Rekonstruktion von S. Carlino erstellt und daraus ein Holzmodell im Maßstab 1:33 produziert. Letzteres wiederum bildete den Ausgangspunkt für Bottas Bau, den der Architekt selber auch als ‚Holzmodell‘ bezeichnet und der mit seinen über 33 Metern Höhe und je 22 Metern Breite und Tiefe die Originalgröße aufwies. Für die einzelnen 4,5 cm starken zu profilierenden Holzplanken fertigte man über 36.000 Umrisszeichnungen an und druckte sie auf insgesamt 15 km Papier aus (Saurwein 2001, 22–23). Zuvor
Irritierende Artefakte
187
jedoch wurde ein kleineres Modell in der Technik des Lamined Object Manifacturing (LOM) zu Testzwecken gefertigt (Vgl. Bellini 2000, 19).3 Als Tribut an die urbane Lage der in eine Häuserfront integrierten Barockkirche sieht man die Ausblendung der angrenzenden Gebäude als homogenen dunklen Block, quasi als ‚unbestimmt‘ markiert. Dieser Kubus ist bis zur Höhe des Kuppelansatzes hochgezogen. Da die Dachbekrönung auch im Original freisteht und damit Information zur außenseitigen Gestaltung gegeben ist, wurde auch die Holz(re)konstruktion ab der Kuppel innen und außen ausgeführt. Dies entspricht dem Modus des ‚einsamen Modells‘. Zwar ist es hier im Realraum integriert, aber dennoch in den See hinausgesetzt und damit von allem anderen abgesetzt. Als Tribut zur Aufrisszeichnung, bei der häufig die Mauerstärke schraffiert oder eingedunkelt repräsentiert ist, erfolgt an der Schnittstelle die Einschwärzung des ansonsten naturbelassenen Holzes. Auf dem Boden der Plattform vor dem Holzbau ist ebenso in Schwarz die fehlende zweite Hälfte des Baus als Grundriss angedeutet. Anders als in den meisten reproduzierten Schnitten entschloss sich Botta, das Gebäude mittig über die kurze Achse zu teilen, obwohl die Längsachse mehr Informationen zur römischen Kirche offenbart hätte. Dazu schreibt Carlo Bertelli: Un taglio sulla lunghezza avrebbe dato sicuramente maggiori informazioni, che è il motivo per cui furono eseguiti i rilievi settecenteschi, ma qui lo scopo era un altro. La metà dell’interno della chiesa di legno si vede ora da molto lontano, e così la conca dell’abside si apre verso uno spazio infinito. Di conseguenza la profondità della chiesa aumenta ben al di là della costruzione presa a modello. (Bertelli 1999, 23)
Ein großes Modell könnte viele Details haben, aber in Bottas Modellbau ist dies nicht der Fall, ohnehin wurde es eher auf Fernwirkung hin konzipiert. „A Lugano una cosa [sezione di un edificio] vista su un foglio stampato è diventata una realtà per metà uguale a quella vera – una follia“ (Panza di Biumo 1999). Die Verrücktheit bestand im Verrücken von Darstellungskonventionen. Dies führte zu Empörung, Verstörung oder zur Anerkennung einer unterstellten Subversion. Bottas Arbeit als ‚skulptural‘ oder ‚installativ‘ zu bezeichnen, bedeutet, es tendenziell aus der Domäne des architektonisch Modellhaften – des Angewandten – hinauszukomplimentieren und in den Bereich der freien bildenden
3 Dabei handelt es sich um ein Verfahren des rapid prototyping, bei der das Objekt schichtweise aus Papier aufgebaut wird, indem man die einzelnen Scheiben der Kontur nach ausschneidet.
188
Inge Hinterwaldner
Künsten zu verschieben.4 Die hier vorgeführten Verbindungen von Bildlichem und Modellhaftem folgt den Konventionen nicht hinreichend. Ein Aspekt war mit der Fernwirkung angesprochen und dieser beinhaltet teils schon den zweiten, nämlich, dass sich das Konstrukt qua seiner aus der Nähe unübersichtlichen Größe dem umgestalterischen Zugriff entzieht. Manche Eigenschaften des Hilfskonstrukts des Aufrisses bzw. Querschnitts, der die Geometrie der Fläche, das Maß anstatt des Raums darlegt, wurden effektiv räumlich gebaut. Da sich Botta bei der Größe am effektiven Vorgängerbau und nicht an papierenen Orthogonalplänen orientierte, wird dies für eine Inspektion der Maße unübersichtlich. Hier kann man nicht einfach den Kopf bewegen und alles von allen Winkeln her besehen, wie etwa bei einem handlichen Konstrukt. Kleinere dreidimensionale Modelle vermitteln noch die Idee, dass die Darstellung ‚angeschnitten‘ ist, um den Blick auf das Innere freizugeben, um eine Einsicht zu gewähren. Wenn dies aber in Originalgröße gebaut ist, fühlt es sich nicht mehr als kognitiv-heuristischer Schachzug in der bildlichen Darstellung an, sondern als ein versehrtes Gebäude, das an einer Seite keinen Abschluss besitzt, wobei aber weniger die Offenheit der Konche frappiert als die surreale Präzision des vertikalen Schnittes ungeachtet aller Diversität der baulichen Elemente. So kommen der Standpunkt der Betrachter_innen und notgedrungen deren Bodenverhaftetheit stärker zum Tragen. An die Stelle einer Übersicht tritt die Beeindruckung.
1.3 Aufgeführtes Kantenmodell – Pierre Huyghe Das dritte Beispiel stammt vom französischen Künstler Pierre Huyghe. Er bedient sich in This is not a time for dreaming (2004) eines – für die Thematisierung eines Schaffensprozesses – ungewöhnlichen Formats: eines Marionettentheaterspiels. Um genau zu sein, ist es das Format des filmisch aufgezeichneten Puppenspiels. Huyghe greift das Carpenter Center von Le Corbusier im Harvard Campus auf, indem er die Entstehungsgeschichte entlang einer ganzen Typologie von Entwurfsartefakten auffädelt. Dadurch, dass Huyghe an die Abfolge von Modellen auch jeweils Handlungen knüpft, suggeriert er dessen Darlegung eines Entwurfszusammenhangs. Das Theater – selbst eine Modellsituation – begünstigt eine Kondensierung der Herstellungsprozesse in Form von bildlichen Artefakten als Symbole für Entwurfsstadien. Diese eingängigen visuellen Pointen erklären sich möglicherweise daraus, dass für alle Elemente im Bühnenstück galt, dass sie als
4 In diesem Zusammenhang wird öfters das Nur-sich-selbst-Zeigen des Holzbaus hervorgehoben, vgl. z. B. Minazzi 2000, 53 und 59.
Irritierende Artefakte
189
filmisches Motiv taugen mussten. In Huyghes Film zeigen sich die architektonischen Artefakte als frei flottierend, sich unentwegt transformierend, sich errichtend (vgl. Hinterwaldner 2017). Sie mussten nicht nur fotogen, sondern bewegtbild-adäquat sein. Für die zeitbasierte Inszenierung wurden die gezeigten Modelle extra modular gefertigt. In Abb. 5 sehen wir ein Kanten- oder Drahtgittermodell neben dem träumenden Le Corbusier. Es erscheint zunächst wie eine leichte Zeichnung am Boden, die sich aber erstaunlicherweise aufrichtet, die obersten Stockwerke zuerst entfaltend. Die architektonischen Teile geben sich nacheinander zu erkennen. Um diesen Effekt zu erzielen, legte Huyghe Wert darauf, das schwarze Gestänge aus unterschiedlichen Teilen fertigen zu lassen. Dies alles schilderte er den Verantwortlichen des Requisitenbaus detailreich am Telefon. Durch diese Maßnahme konnte man die Teile auch unabhängig voneinander zu unterschiedlichen Zeiten hochziehen. Huyghe überführt dieses Konstrukt über die vierte Dimension der Zeit von einer Art Plan (2D) in ein Kantenmodell (3D). Die Genese der Architektur(skizze) als Entfaltungsprozess zu präsentieren, als ein In-die-Höhe-Wachsen, aber die oberen Stockwerke allen anderen voran – ist weit realitätsferner als es im Film erscheint. Die Projektion eines Kantenmodells ist nämlich keine Faltung eines gebauten Drahtgestänges. Beim Kollabieren auf zwei Dimensionen passiert nicht, wofür die flächige diagrammatische Darstellung prädestiniert wäre, nämlich die vertikale Dimension wegzulassen. Bringt man das Kantenmodell über eine Projektion in zwei Raumdimensionen, ergäbe sich nie
Abb. 5: Pierre Huyghe: This is not a time for dreaming, 2004. Still vom Kapitel IV: Le Corbusier träumt ein Drahtgittermodell. Mit freundlicher Genehmigung des Künstlers.
190
Inge Hinterwaldner
diese Ansicht auf dem Boden in Huyghes Bühnenspiel, weil sich die Längen der Stäbe des materiellen Gestänges nicht verkürzen, sondern in voller Länge liegen bleiben, aber dank der beweglich konstruierten Gelenke die Lage zueinander ändern können, sodass die Ansammlung auch (relativ) flach am Boden liegen kann.
1.4 Gebaute Billboards – Florian Dombois Das vierte und letzte Exempel geht auf den deutschen Künstler Florian Dombois zurück. Er realisierte ein „Kunst am Bau“-Projekt am 2010–2014 rekonstruierten Stadtschloss Potsdam, in das der Landtag Brandenburg einzog. Für den Herrenhof der Anlage konzipierte Dombois zwei Pavillons, die auf die Rasenflächen gesetzt wurden. Der Titel der Arbeit, Zugabe (2014), spiegelt auf mehrfache Weise die Logik des Rekonstruktionsbaus, bei der der Architekt Peter Kulka die Außenmaße des alten preußischen Stadtschlosses (1662–1674 im Stile des Frühbarocks erbaut und 1744–1752 von Georg Wenzeslaus von Knobelsdorff in den Rokoko überführt) beibehielt, dessen historische Außenfassaden imitierte sowie erhalten gebliebene Originalsubstanz integrierte, aber eine spätmoderne Innenraumgestaltung dahinter setzte. Auch hatte das Gebäude gewachsenen Raumanforderungen zu genügen, die es nötig machten, dass der Innenhof etwas verkleinert wurde. „Hier werden die Fassadenflächen gestaucht. Dabei entsteht im Innenhof eine Art Modellsituation. Das Haus wird zum Architekturmodell seiner selbst“ (Dombois 2012, 1). Für Dombois stellte dies ein Faszinosum dar und es kam ihm als Ausgangspunkt entgegen, mit der Kulissenarchitektur als ‚Material‘ zu arbeiten. Die Pavillons (Abb. 6) wurden nicht räumlich-vollplastisch gebaut, sondern bestehen aus bemalten Aluminiumflächen, die im rechten Winkel zueinander gestellt wurden. Als Motiv zeigen die Pavillons die fotografische Reproduktion des Zentralovals der Tafelrunde von Sanssouci. Somit gelang es dem Künstler, der Winterresidenz von Friedrich II. mit seiner Zugabe eine Verlängerung zu dessen nahe gelegener prachtvollen Sommerresidenz Sanssouci (1745–1747) herzustellen, den derselbe Architekt Knobelsdorff verantwortete. Die Künstlerin Annette Paul würdigt Dombois’ Kühnheit, „einen fast heiligen Raum zu zerschneiden, das Oval im Marmorsaal, das Herzstück von Friedrichs Tafelrunde. Und das mit einem Kreuz. Das ist schon gewagt“ (Jäger 2012, unpag.). Professionelle Aufnahmen des Ovals von außen, aus leichter Untersicht mittig von der zentralen Treppe aus menschlicher Augenhöhe, wurden in eine hochauflösende Datei (mit 20.000 × 20.000 Pixeln) zusammengeführt (Dombois 2017). Zwei Theatermaler sollten nun alle insgesamt acht Flächen der Pavillons mit diesem einen Motiv bemalen. Durch die unterschiedlichen Größen der Pavillons, die Spiegelung in
Irritierende Artefakte
191
Abb. 6: Florian Dombois: Zugabe, 2014. Detail. Fotografie der Autorin, Juni 2017.
Vorder- und Rückseite, die bis auf einen Fall erfolgte Eliminierung des Schriftzuges „Sanssouci“ (denn – so der Künstler: die Pavillons sind eben nicht „Sanssouci“: „es gibt das motiv insgesamt 8 mal, aber keines ist doppelt. denn die schmalseite ist gestaucht, die rückseite gespiegelt und der zweite pavillion ja kleiner. das ‚sans souci‘ hatte ich gelöscht. aber dann habe ich es doch genau einmal platziert, schön mittig zerschnitten.“ [Dombois 2017]) und durch den Umstand, dass die Pavillons eine Breitseite und eine Schmalseite aufweisen, wurde erforderlich, dass Dombois für jede dieser Malereien eine individuelle Vorlage digital erstellte. Ausdrucke dessen dienten den Malern als Orientierung. Wichtig war Dombois dabei, die Materialität der Darstellung erkennbar werden zu lassen, sodass man mit der Annäherung an die Pavillons zunächst eine Fotoästhetik erkennt, in einem Abstand von etwa fünf Metern eine Malerei und nahe am Objekt dann auch handwerkliche Verfertigung mit Unterzeichnung ausmachen kann. Beim Maler Franz Gertsch konnte er sich abschauen, wie ein malerisch zu evozierender Fotorealismus zu bewerkstelligen ist, und wandte auf seine gestaucht-gespiegelten Fotovorlagen diverse Malfilter im Programm Photoshop an, um den beauftragten Malern zu verdeutlichen, was eigentlich nachgeahmt werden soll: Nicht Sanssouci sollte gemalt werden, sondern das Foto davon: „wir malen fuji“ (Dombois 2017, unpag.), so Dombois.
192
Inge Hinterwaldner
Die Größe der beiden Pavillons erlaubt, dass man sich durch die freigelassenen Durchgänge hindurchzwängen kann. Man nähert sich an und geht im nächsten Schritt praktisch nahtlos dazu über, sich zu entfernen. Anders ausgedrückt: Wenn man hineingeht, ist man schon wieder draußen. Die besondere Bauweise schafft keinen Innenraum. Dombois, bewandert in den Konstruktionstechniken von digitalen Welten und im Speziellen von Google Earth, betont die Basisoperation der Darstellung, die er übernimmt und für den Realraum anpasst: In der computerbasierten Modellierung „werden sämtliche plastische Körper als Volumen realisiert, über die eine zweidimensionale Textur gezogen wird“ (Dombois 2015, 11). Diese Renderingtechnik, bei der zweidimensionale Bilder über dreidimensionale Umgebungen als Texturen einer Fläche im Raum eingebunden werden, nennt sich billboarding. Die Billboards oder Z-Sprites richten sich nach dem ‚Blick‘-Winkel der virtuellen Kamera aus, um die Illusion des Gesamteindrucks – insbesondere bei Vegetation – zu erhöhen. Da dieses Rotieren beim Kameraschwenk aus der Nähe in aller Regel ungewollt ersichtlich wird, findet diese sparsame Lösung bevorzugt für den Mittel- und Hintergrund Anwendung (Bohnenberger undat.). In Zugabe wird die technische Lösung der Hintergrundsbefüllung nun zum Hauptgegenstand und soll zudem noch ‚begehbar‘ sein, was sonst nur in der Entfernung für die Sichtbarkeit gedacht war. Im Innenhof des Schlosses gibt es keine Fernsicht und seine gebauten double billboards drehen sich auch nicht. Leicht hätte man dieses Verhalten auch mit einer servil-huldigenden Geste in Verbindung bringen können, als würden sogar die Bauten es verhindern wollen, dem vorbeischreitenden Souverän ihre Rückseite zu zeigen. Wohl bedacht platzierte Dombois die Pavillons auf eine Weise, die den Übergang vom absolutistischen Herrschertum, auf das die Fassaden noch alludieren, hin zum demokratischen Parlament, das gegenwärtig das Innenleben ausmacht, vermitteln. Damit galt es eine zentralistische absolutistische Situation zu verhindern, die einer politischen Logik zuspielte, wo alles auf einen Punkt hin zentriert wäre. Daher sind die Pavillons von keinem Punkt aus ohne optischen Bruch zu sehen. Dombois ließ den Grundriss am Boden als Platten aus Postaer Sandstein auslegen und in einer leichten Erhöhung die Mauerteile des Ovals in Sanssouci andeuten. Damit ergibt sich eine Parallele wie Differenz zu Bottas San Carlo alle Quattro Fontane, der in Anspielung auf die Zeichenkonventionen den Grundriss schwarz am Boden aufmalte, was mit der Schwärzung im Aufriss korrespondiert und mit der effektiven dreidimensionalen Ausführung kontrastiert. Dombois führte die Pavillons als ca. zehn Zentimeter tiefe, aber komplett ebene Flächen aus, die von der Bausubstanz der Zweidimensionalität nur wegen ihrer Anordnung überkreuz (und der Illusionsmalerei) entfliehen. Diese Flächigkeit kontrastiert mit dem Horizontalrelief des Grundrisses.
Irritierende Artefakte
193
2 Argumentationslinien 2.1 Subversion der Darstellungslogik und daran etablierter Handlungstraditionen Welche Handhabungen möchte man an den Architekturmodellen vornehmen? Warum stellt sich bei den künstlerischen Beispielen eine Irritation ein? Die künstlerischen Beispiele weisen eine jeweils ungewohnte Verschmelzung von Darstellungs- und Funktionskonventionen auf. Wenn man die jeweiligen Rahmen verschiebt, führt dies in aller Regel zu tendenziell negativen Einschätzungen, wohl weil diese Hybride sich nicht einfach einordnen lassen. Ihnen gingen die Umgangsformen verloren, die ursprünglich mit der jeweiligen Darstellungsnorm gegeben waren und ihnen Daseinsberechtigung garantierten. Eine Darstellungskonvention als Schräggestelltes (Eisenman), Abgehacktes (Botta), Flachgelegtes (Huyghe) und Dimensionsreduziert-Überkreuzgestecktes (Dombois) effektiv zu bauen, entledigt sich scheinbar der Nützlichkeit und produziert eine Kuriosität, etwa vergleichbar mit dem realweltlichen Antreffen von typischen Merkmalen und Artefakten aus der digitalen Domäne wie Verpixelungen (Kelly Goeller, Pixel Pour, 2008), Polygonisierung (Brody Condon, 650 Polygon John Carmac, 2004) oder Namensbeschriftungen bzw. Tagging (Aram Bartholl, WoW, 2006–2009). Die Aufrisspläne (Abb. 7) von Dombois stilisieren die Pavillons als Invasion der Critter. Eine Anspielung auf die Interventionen des französischen Street Art-Künstlers Invader, der seit 1998 die reale Welt mit Figuren aus dem Arcade-Spiel Space Invader (1978) bzw. Pac-Man (1980) versieht, ist dahingehend durchaus stimmig, dass genuine Formen der computerbasierten Welten in die Realwelt katapultiert werden. Während die Importe aus der digitalen Domäne in die reale Welt in der Medienkunstszene als ‚Rematerialisierungen‘, ‚Rückwärts-(Re)Mediatisierungen‘5
5 Der Ausdruck ‚backwards mediation‘ ist ein synthetischer Begriff, der eine kritische Debatte rund um den vom Künstler James Bridle 2011 ins Leben gerufenen Terminus ‚New Aesthetics‘ zusammenfasst. Ungeachtet aller möglicher philosophischer Konnotationen sollte dieser Ausdruck lediglich dazu dienen, seiner Tumblr-Sammlung an digital-informierten Artefakten ein Motto zu verleihen. Die von Bridle damit bezeichneten und zusammengetragenen Phänomene verkörpern laut den Medientheoretikern Jay David Bolter und Richard Grusin nichts anderes als ihr eigenes funktionales Konzept der Remediatisierung, wobei für Grusin Bridles Form der „remediation“ eine aufgeplusterte Variante sei, die nirgendwohin führe (vgl. Grusin 2012; Bolter und Grusin 1999). Dies kommentierend, spricht die Kunsthistorikerin Katja Kwastek von einer „backwards mediation, from the digital back to the analogue, from the virtual back to the physical, abstracting a visual language from its technological conditions“ (Kwastek 2015, 75). Es wird Bridles technologisch-digital informierte Ästhetik durchaus Relevanz zuerkannt, aber das Gemeinte decke schon ein anderer Begriff ab, den Kim Cascone 2002 in die Musikologie eingeführt hat, nämlich
194
Inge Hinterwaldner
Abb. 7: Florian Dombois: Zugabe, 2014. Positionierung der Pavillons im Aufriss. Zeichnung aus der Phase 1 des Wettbewerbs, 2012. Quelle: Mit freundlicher Genehmigung des Künstlers.
oder ‚postdigital‘ bezeichnet werden, fehlt meines Wissens die Begrifflichkeit für die Überführung aus der zweidimensionalen Domäne. ‚Verräumlichung‘ allein kann die Irritation noch nicht erklären. Die gezeigten Beispiele referieren alle auf existierende Bauten oder sind zumindest post factum entstanden. Sind es deren Rekonstruktionen? Genau genommen sind es Bauten nicht nach, sondern von Plänen bzw. Darstellungskonventionen. Die Architekten und Künstler haben eine selbst gewählte Vorlage bewusst ‚wörtlich‘ bzw. ‚bildlich‘ genommen und kamen zu Lösungen, die Zweidimensionalität verkörpern und dennoch keine unmittelbar zutage tretenden, üblichen Handlungsräume an ihnen eröffnen. Bei Eisenman könnte man nur manche der Längen messen, bei Bottas XXL-Modell ist man als Betrachter_in plötzlich miniaturisiert, wodurch ein Überblick nur mehr aus großer Entfernung gelingt und dann ist es mit dem bequemen Messen vorbei. Bei Huyghe lässt das flache Kantenmodell wie bei einem am Boden liegenden vielgliedrigen Mobile noch nichts erkennen, erst wenn es hochgezogen wird, entfaltet sich das wackelige Konstrukt. Bei Dombois’ Pavillons kann die konkave Räumlichkeit nur gesehen werden, nie aber funktioniert diese Illusion für beide zugleich. Die Irritation, die diese Beispiele hervorrufen mögen, zeigt, dass die Gestaltung der Modelle, die immer auch eine Umgangstradition mitführen, einen wesentlichen Einfluss darauf nehmen, was an ihnen sinnvoll getan werden kann. Sie verweigern sich durch ihren besonderen Brückenschlag zum Bildmaterial, auf dem sie basieren, manchen Umgangspraxen. In ihrer künstlerischen Attitüde verletzen sie kulturell gewachsene Regeln.
das ‚post-digital‘ (vgl. Cascone 2002). Das Post-Digitale betont nach dem Medientheoretiker Florian Cramer einen Desillusionismus und meint auch eine tiefe Verschränkung digitaler Technologie im Alltagsleben: „[. . .] today, digital technology is deeply embedded in ‚everyday life‘. It serves to emphasize that the ‚digital‘ is not as definite as we might assume: that it is no ‚virtual reality‘ distinct from our everyday world, but a constitutive part of it“ (Kwastek 2015, 79).
Irritierende Artefakte
195
2.2 Modelle als Affordanzen: poetogen und praxigen? Die vorgestellten architektonischen und künstlerischen Beispiele, bei denen sich eine räumliche Konfiguration mit der Logik der Axonometrie, des Aufrisses, der Aufführung und der Billboards mischt, scheinen sich gerade einem sinnvollen oder zumindest gewohnten Umgang zu sperren. Dafür bieten sie etwas Anderes. Sie erweisen sich als betont und bewusst fotogen oder im Falle von Huyghes Arbeit auch als telegen. Sie sind vielleicht sogar bildseriengemäß, denn sie alle bereiten potenziell eine Verblüffung rein dadurch, dass sie mehr als einen Blickpunkt erlauben, während die Darstellungslogiken, auf denen sie basieren, diese Varianz gerade suspendieren. Der Kulturwissenschaftler Ulrich Raulff deutet für das Wort ‚fotogen‘ den Übergang vom Bild(schöpfungsverfahren) auf den Referenten als ein prothetisches Wirkungsverhältnis an (Raulff 1986, 50, 53 und 56). Philipp Weiss führt dazu näher aus: ‚Fotogen‘, das bedeutete ursprünglich schlicht: mit Mitteln der Fotografie erzeugt, fotogeneriert. Fotogen aber meint nun den Referenten, der sich besonders gut eignet, fotografisch repräsentiert zu werden, der auf Fotos ‚gut kommt‘. [. . .] Nicht jeder ‚gutaussehende‘ Mensch ist auch fotogen, nicht jeder Fotogene überzeugt auch noch als unmittelbare Erscheinung oder filmische Reproduktion (telegen, besser cinegen) unsere Augen. Und diese Differenz bedeutet auch: ein Foto muss nach bestimmten Regeln hergestellt werden, um eine befriedigende oder erfüllende Repräsentation eines Subjektes zu schaffen. Es ist jetzt vielleicht an der Zeit zu fragen, wie das Foto das Feld des Visuellen bestimmt und was es tut [. . .] wenn es einen Körper repräsentiert. [meine Hervorhebung, I.H.]. (Weiss 2010, 101)
Analog ist hier zu fragen: Wie bestimmt eine 3D-Rekonstruktion das Feld der Handlungen und was tut sie, wenn sie Zu- und Eingriffe erlaubt? Wenn bildliche Projektionen auf den Visus ausgerichtet sind, ginge es nun darum, eine Regel zu suchen bzw. zu bestimmen, wie man verschiedene Dinge behandelt? Perspektiviert man Handlungen dadurch, dass man eine Konfiguration erstellt, die Zugangsbedingungen verkörpert und dadurch nur ganz bestimmte Eingriffe erlaubt (handlungsbezogene Grenzziehungen)? Braucht es dazu immer schon ein zwischengeschaltetes Interface? Wenn in Modellen als repräsentierende Werkzeuge Handlungen in den Vordergrund gestellt (antizipiert und optimiert) werden, geht es weniger um das ‚Fotogene‘ und mehr um das Operative. Wie wird ein Modell für ein zweckgebundenes, gezielt-erreichbar-abschließbares Handeln ‚poetogen‘ und für ein freieres Handeln zum Selbstzweck ‚praxigen‘?6 Braucht es dazu eine Tradition?
6 An dieser Stelle ein Dank an Michail Chatzidakis, der mich auf mögliche Fallstricke bei diesen Wortschöpfungen aufmerksam machte.
196
Inge Hinterwaldner
2.3 Möglichkeit statt Virtualität – philosophische Seinsweisen vertauscht Man könnte es aber auch so interpretieren, dass die Irritation dadurch zustande kommt, dass man die Vorlagen als Möglichkeiten realisierte und nicht als Virtualitäten aktualisierte. Was bedeutet das? Die Philosophen Gilles Deleuze, Pierre Lévy und Brian Massumi verstehen das Virtuelle als Seinsweise, die sich vom Möglichen, Potenziellen, Aktuellen absetzt, der aber durchaus eine Realität im Virtuell-Sein zuzugestehen ist. Das Virtuelle lasse sich nur induktiv über die Effekte seiner Aktualisierung erspüren. Es habe im Unterschied zum Digitalen ein Moment des flüchtigen Aufscheinens, lässt sich dennoch aber nicht direkt erblicken, sondern wird über die Variationsbreite seiner Ausprägungen und als deren Eingefaltetes evident. Weil die Topologie die Lehre der selbstvariierenden Deformation sei, sei sie laut Massumi der einzige Weg, über den sich die Imagination dem Virtuellen annähern könne. Andernfalls bleibt man allzuleicht bei anderen Daseinsweisen hängen: you miss the virtual unless you carry the images constructed in that medium to the point of topological transformation. If you fall short of the topological, you will still grasp the possible (the differences in content and form considered as organizable alternatives). You might even grasp the potential (the tension between materially superposed possibilities and the advent of the new). But never will you come close to the virtual. (Massumi 2002, 133–134)
Alle Künste und Technologien können ein Virtuelles eingeschlossen halten, was gegeben ist, wenn sie einen Nukleus der qualitativen differenziellen Transformation aufweisen. Man nehme dabei in Acht, das Diaphane des Virtuellen nicht mit dem Artifiziellen des Digitalen zu verwechseln: „Nothing is more destructive for the thinking and imaging of the virtual than equating it with the digital“ (Massumi 2002, 137). Das computerbasierte Technisch-Digitale verführe gerne zum fehlgeleiteten Fokus, da es in der Umsetzung des Möglichen so mächtig sei. Für Lévy ist das Mögliche ein vollständig vorgefertigtes Latentes, das parat steht, um in die Realität gebracht zu werden (was auch ein Automat vollbringen könnte). Im Unterschied dazu benötigt die Umsetzung des Virtuellen eine kreative Leistung, bringt neue Qualitäten und Ideen hervor, die sich abermals ans Virtuelle zurückspeisen können. „Unlike the possible, which is static and already constituted, the virtual is a kind of problematic complex, the knot of tendencies or forces that accompanies a situation, event, object, or entity, and which invokes a process of resolution: actualization. This problematic complex belongs to the entity in question and even constitutes one of its primary dimensions“ (Lévy 1998, 24). Und weiter schreibt er: „The virtual [. . .] is a
Irritierende Artefakte
197
fecund and powerful mode of being that expands the process of creation, opens up the future, injects a core of meaning beneath the platitude of immediate physical presence“ (Lévy 1998, 16). Wenn nun die Aktualisierung des Virtuellen einen Akt der Problemlösung darstellt, welches Problem wollen die architektonischen und künstlerischen Beispiele lösen? Keines, so die These. Aus meiner Sicht wurde hier tatsächlich keine Lösung eines Problems in Angriff genommen, obwohl die diskutierten Artefakte der Domäne der Modelle zuordenbar sind, welche für Problemlösungsstrategien prädestiniert wären. Stattdessen entschieden sich die Kunstschaffenden bewusst, dem Seinsmodus der Möglichkeit Ausdruck zu verschaffen, wofür man auch im Mimetischen einen Anhaltspunkt finden könnte (Sie haben die Vorlagen als Möglichkeiten wiedererkennbar realisiert.): So schreibt Lévy: „The real resembles the possible. The actual, however, in no way resembles the virtual. It responds to it“ (Lévy 1998, 25).
3 Akademische Modellierungen Digitale Rekonstruktionen reihe ich in die Traditionslinie der Modelle. Sie sind insofern komplementär zu den besprochenen Beispielen, als sie Analoges in die digitale Domäne bringen. Das kapselt sie aber nicht vom Virtuellen ab. Im Gegenteil, man darf die wichtige epistemische Frage der Handlungsperspektivierung, welche die 3D-Rekonstruktionen leisten und die nichts anderes sind als die Spezifik des Virtuellen, nicht vergessen. Die Präsentation neuer Handlungsgelegenheiten (Verschiebung wie Skalierung, Beschleunigung etc.) aber sei wiederum ein erster Grad an Virtualisierung. Die Virtualisierung sei nach Lévy die umgekehrte Bewegung der Aktualisierung (Lévy 1998, 26). Massumi nennt diese Bewegung, die über eine Aktualisierung hinausgeht und sie anreichert „Deactualization“ (Massumi 2002, 136).
3.1 Epistemologische Kategorie der Computermodelle als Komposite Im Jahr 2014 präsentierte der Systembiologe Sol Efroni von der Bar Ilan University in Israel auf der Konferenz „From in vitro to in vivo“ in Lüneburg das Ergebnis eines Kraftaktes (Efroni 2014; Efroni et al. 2007). Er hatte 400 Publikationen zum Thema der Thymus-Lymphozyten auf Ergebnisse abgeklopft. Die Forscher führten die kleinen Bausteine des verstreuten Wissens über die T-Zellen über so genannte animierte state charts als ausführbare ‚Geschichten‘
198
Inge Hinterwaldner
zusammen. Mittels einer Zoomfunktion ließen sich Metadaten abfragen und Vorgänge auf unterschiedlichen Beschreibungsebenen einsehen. Es stellte sich dabei heraus, dass keine Publikation die Dimension der Zeit berücksichtigte, was dadurch sofort ins Auge sprang, weil alle diese Erkenntnisse in eine einzige interaktive, zeitbasierte Simulation integriert werden sollten. Diese Zusammenführung gelang laut Efroni weitestgehend. Lediglich einige wenige Vorschläge divergierten derart vom restlichen Corpus, dass sie nicht integriert werden konnten und ergo unplausibel waren. Diese Schlussfolgerung trat in der Forschungsgruppe „Medienkulturen der Computersimulation“ sodann die Diskussion los, wie man aufgrund dieser Argumentation Computersimulationen einzuschätzen hat: als eine Art Übersichtsartikel, der programmtechnisch ausgeführt wird (‚review article that is running‘); oder gar als eine neue epistemologische Kategorie zwischen Theorie und Experiment? Mit Blick auf die 3D-Rekonstruktionen von Gebäuden scheint sich zuweilen Vergleichbares einstellen zu können. Zum einen mündet eine faszinierende Vielfalt an Quellen in eine Architekturrekonstruktion, die ihr mehr ‚Substanz‘ und Bewusstsein dafür, was fehlt, sowie einen besonderen Stellenwert verleiht, denn zum anderen taucht die Idee des Experiments auch in diesem Anwendungsfeld auf. Hierzu zitiere ich Heike Messemer, die 2014 in Bezug auf die digitalen Visualisierungen schrieb: Während der Arbeit an solchen digitalen Visualisierungen ergeben sich für die Wissenschaftler immer wieder neue Fragen: Lücken in den Quellen, widersprüchliche Aussagen in Überlieferungen oder neue bauphysikalische Befunde gilt es in digitale Visualisierungen erkenntnisorientiert einzubringen. Hypothesen können erprobt und wieder verworfen werden, frühere Interpretationen relativiert oder bestätigt werden. Denn ein Modell birgt den nicht zu unterschätzenden Vorteil, Überlegungen und Ideen bildhaft zu veranschaulichen. Ob eine Hypothese funktioniert oder nicht, ist in der Verbildlichung oft leichter zu erkennen als allein in der schriftlichen Reflexion. (Messemer 2014, 15)
Auch ließen Severin Todt und Kollegen 2009 verlauten: „Erstmals stand den Historikern damit [mit den digitalen Ansichten eines groben 3D-Modells] eine visuelle Möglichkeit zur Verfügung, historische Daten einer Richtigkeitsprüfung zu unterziehen“ (Todt et al. 2009, 124). Laut der Architekturhistorikerin Diane Favro ermuntern die ‚Rekreationen‘ als Wissensrepräsentationen auf diversen Ebenen eine Benutzung. Somit funktionieren sie wie Laboratorien, in denen Spezialist_innen gegenstandsbezogene Annahmen zerlegen und austesten können (Favro 2006, 327). Wenn dem so ist und weil computerbasierte geometrische Modelle keine Simulationen (verstanden als gerechnete kybernetisch-formalisierte Dynamik) sind, scheint mir stärker noch als die Kulturtechnik der Computersimulation
Irritierende Artefakte
199
die Logik der Assemblage, des Clusterns, des Komposits für diesen bemerkenswerten Status ausschlaggebend zu sein, die aber weniger der Geste des paritätisch-kombinatorischen Nebeneinander und mehr jener des verzahnenden Ineinander entspricht. Möglicherweise liegt es daran, dass eine zunächst fragile Anhäufung an Mutmaßungen, Partialkonsistenzen und interdisziplinären Zugriffen das Potenzial akkumuliert, um irgendwann als eine ‚Instanz‘ wahrgenommen werden zu können. Der Wissenschaftstheoretiker Ian Hacking spricht in diesem Zusammenhang von „robusten Fugungen“: „Die Fugung zwischen Theorie, Phänomenologie, schematischem Modell und Geräten ist dann robust, wenn bei Versuchen der Wiederholung eines Experiments keine Schwierigkeiten auftreten und wenn andere Forschergruppen mit neuen Geräten, neuem latentem Wissen und anderer Experimentierkultur auf keine neuen Widerstände von Gewicht stoßen“ (Hacking 1999, 113; vgl. ferner Hinterwaldner und Buschhaus 2006). Auf diese Weise könne, so Hacking, aus einem ‚vorläufigen Haltepunkt‘ ein ‚bleibender Bezugspunkt‘ werden. Differenzierter schildert William Wimsatt diese Wende im Forschungsprozess, an der das epistemische Ding vom zu Stabilisierenden ins zu Verteidigende umschwenkt, das gar als Instanz des Abgleichs für alle später dazukommenden Daten dient (Wimsatt 1994, 214–215). ‚Robust‘, ‚stabil‘ oder ‚solide‘ wird eine Entität genannt, die sich dadurch plausibel herauskristallisiert, sodass es gelingt, unterschiedlichste dafür evidenzstiftende Elemente zusammenzufügen. Der Fugungsmodus ist nicht ein Konzept des Einflusses, sondern der Konfluenz. Freilich ist die Idee des Zusammenfließens, der Synthese, angesichts der Notwendigkeit, bei einer VR-Rekonstruktion viele Weichen vorab definieren zu müssen, nicht unterkomplex anzulegen. Wenn man bedenkt, was alles Berücksichtigung findet, kommen die vielen verschiedenen Filter zum Vorschein, durch die man auf das zu Rekonstruierende zublickt und zugreift. Je nach Zielsetzung und Fragestellung, je nach Gewissheitsgrad der Unterlagen, je nach Zielpublikum, je nach Fachkultur und der darin prävalenten ‚professional vision‘ (um mit dem Linguisten Charles Goodwin zu sprechen), wird das zu Rekonstruierende anders dargestellt. Laut Favro nehmen die unterschiedlichen disziplinären Präferenzen im Schauen in der Art, der Präsentation und dem Status von Illustrationen in der jeweiligen Fachkultur ihren Ausgang. Kunsthistoriker_innen würden aus ihrer Erfahrung gerne am Architekturmodell ‚hochfliegen‘, um Details wie Giebelreliefs auf Augenhöhe zu studieren und sie dann gemäß den Blickwinkeln zu rekonstruieren, die über Fotografien belegt sind. Die Altphilolog_innen hingegen wollen nachvollziehen, wie es sich anfühlt, auf der antiken Rednerbühne gegenüber dem Senatsgebäude der Stadt Rom zu stehen (Favro 2006, 333 und Fußnote 61). Die Bauforscher_innen verfolgen „üblicherweise die Absicht, ein dreidimensionales Objekt in seinem Bestand
200
Inge Hinterwaldner
verformungsgerecht zu dokumentieren und seine konstruktiven Zusammenhänge und bauhistorische Entwicklung aufzuzeigen. Das Modellierungsanliegen von Vermessungskundlern hingegen liegt vorrangig in einer möglichst exakten Wiedergabe der Objektgeometrie und seiner Oberflächen“ (Verstegen 2007, 10). Architekt_innen bevorzugen normalerweise einen unverstellten Blick auf das Gebäude, haben aber durchaus eine Affinität für „Wege-, Blick- und Lichtführung“ (Breitling 2012, 28). Archäolog_innen fokussieren mehr auf den gesicherten Einzelbefund und halten sich „bei der Raumdarstellung eher zurück“ (Breitling 2012, 28), interessieren sich jedoch auch für den jeweiligen Nutzungszusammenhang. Modelle verkörpern Interessen, Sichtweisen und Strategien, aber auch – so die These – Virtualität in Bezug auf die Handlungsweisen. Unter diesem Vorzeichen ist es fast utopisch, dass es gelingt, in eine einzige digitale Rekonstruktion alle disziplinären Vorlieben zu integrieren. Gelingt dies trotz alledem, hat man es – epistemologisch – mit einer besonders robust gefugten Entität zu tun. Derselben Herausforderung wird auch Efroni gegenübergestanden haben, weswegen er imstande gewesen sein müsste, in seiner Simulation auch mehrere Beschreibungsebenen zu integrieren. Sollte man von einer Einheitlichkeit im Zugang auf das (so) nicht mehr existierende und daher digital rekonstruierte Gebäude absehen? Wäre es – in Anbetracht der verschiedenen beteiligten Disziplinen und deren spezifischen Blicke (Goodwin 1994; Styhre 2010) – wünschenswert, dass Modelle als Wissensobjekte mannigfaltige Zugänge erlauben? Wäre denkbar, dass die Kunsthistorikerin Sarada Natarajan ihre experimentelle Methodik der ausdifferenzierten Herangehensweisen im Prinzip auch in virtuo ausführen könnte? Natarajan definierte bei ihrer Feldforschung in Ravana ki Khai, der Höhle 14 in Ellora, Indien, bestimmte Rollen, um sich wiederholt derselben Höhle zu nähern. Sie ging jeden Tag bewusst mit einer anderen Haltung, Aufgabenstellung samt entsprechenden Instrumenten, in die Höhle: einmal als Fotografin, beim zweiten Mal als Zeichnerin, dann als Vermessende (mit Maßstab und mit Körpergröße), als sprechend Beschreibende und schließlich als schriftlich Notierende. Der Untersuchungsgegenstand zeigte sich aufgrund der Fokusverschiebungen auf unterschiedliche Weise und ließ sich auf vielfältige Weise befragen (Natarajan 2017). Dieses Phänomen könnte man mit dem Philosophen Ludwig Wittgenstein diskutieren, für den das Denken zur Wahrnehmung hinzutritt, wenn der Sinneseindruck mal als dieses und mal als jenes interpretiert wird, d. h., wenn man die Änderung wie eine Wahrnehmung beschreibt, „ganz als hätte sich der Gegenstand vor meinen Augen gewandelt“ (Wittgenstein 1984a, § 476), wobei sich aber unbegreiflicherweise „nichts geändert hat, und sich doch Alles geändert hat“ (Wittgenstein 1984b, § 474). Für Wittgenstein
Irritierende Artefakte
201
zeigt sich „das Beteiligtsein des Denkens genau beim Wechsel des Aspektes, just in dem Augenblick, in dem sich das wirkliche Umkippen vollzieht, denn diesem Umschalten entspricht ja keinerlei Pendant in einem ‚Umkippen der Zeichnung selbst‘ [. . .]“ (Krämer 2009, 116). Dies führt zurück zur Frage nach epistemischen Dimensionen dieser hochkomplexen, spannenden und spannungsgeladenen digitalen Wissensräume. Passiert es automatisch, dass für jede Disziplin, die an eine 3D-Rekonstruktion Fragen heranträgt, oder für jede Forscher_in, das Modell sich anders zeigt? Oder kann man diese Fähigkeit beim Modellbau forcieren?
3.2 Auf der Suche nach Kategorien für digitale 3D-Rekonstruktionen Sehr grundlegend gilt für Modelle, dass sie manche Eigenschaften des Originals aufweisen, darüber hinaus aber noch Merkmale besitzen, die sie damit nicht teilen (vgl. Verstegen 2007, 9). Im Kontext der digitalen Rekonstruktion von Kulturgütern ist naheliegend, dass genuin für das Modell bleibt, wie mit ihm umgegangen werden kann. Die Suche nach handlungsbezogenen Vorbildern bei digitalen Rekonstruktionen und – das hängt damit zusammen – auf welche Weisen das computer-basierte Modell aufgefasst wird, ist im Gange. Anleihen werden zunächst bei bekannten Konzepten genommen. In einschlägigen Publikationen liest man beispielsweise, das 3D-Modell sei als browsebares Interface (Apollonio et al. 2013, 43) aufzufassen, oder als natürlicher visueller Index zu historischen bzw. künstlerischen Informationen, die durch so genannte ‚hot spots‘ (Baracchini et al. 2004, 149) zugänglich gemacht werden; oder als Instanz, in die neue Erkenntnisse zügig ‚eingepflegt‘ werden können (Verstegen 2007), oder „als Zugangsoberfläche zu verschiedenen Datenbanken, Managementsystemen, als Findbuch für Inventare und Aktenbeständen etc.“ (Breitling 2012, 31). Fasst man die Modelle als gestaltete Artefakte auf, die einerseits aspektiv sind und andererseits nicht zuletzt dadurch Affordanzen (intentionsgesättigte Handlungsangebote) bieten, so könnte man obige Aussagen dahingehend zusammenfassen, dass sie – im Unterschied zur Architektur selbst – primär eine Schnittelle sind, die Informationen motivisch-situativ in den dreidimensionalen Raum abrufbar einbettet. Manche gehen sogar so weit zu sagen, ein wissenschaftlicher Nutzen sei erst über die Metadaten gegeben, die die zugrundeliegenden Thesen nachvollziehbar werden lassen. Dafür steht der Begriff der ‚transparenten Grundlagenforschung‘ (Engel und Guminski 2016, 80). Diese Transparenz scheint jedoch beinahe das ikonische Komposit als Zusammengeführtes zum Verschwinden zu bringen,
202
Inge Hinterwaldner
wenn es das Bild nur als Durchgangsportal nutzt. Bei vielen datenbankbasierten Arbeiten stehen die Bilder nicht im erwarteten Nahverhältnis zu den gewählten Interventionsstrategien. Der Mediengestalter Andrew Polaine charakterisiert den Typus an Interaktivität, der hier zugange ist, als einen, bei dem das Bild – in diesem Fall die am Monitor ausgegebene virtuelle 3D-Rekonstruktion – als ‚Durchgang‘ zum eigentlichen Inhalt verstanden wird. Was die ‚Interaktivitätals-Schleuse‘ anbelangt, formulierte er pointiert: „This ignores the experience of the moment of interaction and relegates it to a mechanism of control at best and something to be mastered and ‚got through‘ at worst“ (Polaine 2004, 733). Der russisch-amerikanische Künstler und Medientheoretiker Lev Manovich diskutiert Bilder, die sowohl eine operative als auch eine repräsentierende Komponente besitzen und unterscheidet zwischen ‚Bild-Interface‘ (image-interface) und ‚Bild-Instrument‘ (image-instrument). Während man das Bild-Interface dafür nutzt, im Computer etwas zu bewirken, wird das BildInstrument dafür eingesetzt, in die Realität zu affizieren (Manovich 2001, 183). Ob man dies wirklich so genau separieren kann, sei an dieser Stelle dahingestellt. Jedoch scheinen etliche der oben zitierten Charakterisierungen die Rekonstruktion als Bild-Interface aufzufassen. Während das Paradigma der Human-Computer Interaction als Gestaltungsdomäne der Schnittstelle zunächst zu einem Desktopcomputer – heute auch zu mobileren Geräten – hinlänglich bekannt ist, scheint es hier jedoch schon stärker um ein architektur- bzw. bauspezifisches Setting zu gehen, als nur um eine multifunktionale Schnittstelle zum Rechner. Auch dafür gibt es einen etablierten Ansatz: Für den Ingenieur Hamed S. Alavi und Kolleg_innen besteht die Gestaltung der Human-Building Interaction (HBI) darin, den Bewohner_innen interaktive Gelegenheiten zu bieten, die physikalischen, räumlichen und sozialen Auswirkungen ihrer gebauten Umgebung zu formen (Alavi et al. 2016). Beim Versuch, dieses Konzept auf die digitalen Rekonstruktionen zu übertragen, und damit mit HCI zusammenzuführen, ist darauf zu achten, dass die Gestaltung der Human-DigitalBuilding Interaction (HDBI) weniger das Bewohnen und mehr das Explorieren im Fokus haben wird. Es ginge jedoch auch um motivbezogene – d. h. auf Bauten hin orientierte – Umgangsweisen. Welche Handlungen will man an den Architekturmodellen vornehmen (bzw. als Gestalter_innen daran vornehmen lassen), die man an der Architektur selber nicht vornehmen kann? In der Palette des Vollführbaren scheint das Virtuelle auf. Kann man es gestalten? Ist das dasselbe wie ‚virtualisieren‘? Wo trifft sich das Virtuelle mit dem Interaktionsdesign?
Irritierende Artefakte
203
Literatur Alavi, Hamed S., Denis Lalanne, Julien Nembrini, Elizabeth Churchill, David Kirk und Wendy Moncur. „Future of Human-Building Interaction“. Proceedings of the 2016 CHI Conference Extended Abstracts on Human Factors in Computing Systems (CHI EA ’16) (2016). 3408–3414. Apollonio, Fabrizio I., Marco Gaiani und Zixiang Sun. „3D modeling and data enrichment in digital reconstruction of architectural heritage“. International archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XL-5/W2, XXIV International CIPA Symposium, Strasbourg 2.–6. September 2013, (2013). 43–48. Baracchini, Clara, Anntonio Brogi, Marco Callieri, Lucia Capitani, Paolo Cignoni, Andrea Fasano, Claudio Montani, C. Nenci, R.P. Novello, Pingi, Paolo, Federico Ponchio und Roberto Scopigno. „Digital reconstruction of the Arrigo VII funerary complex“. 5th International Symposium on Virtual Reality, Archaeology and cultural Heritage (VAST) (2004). 145–154. Bellini, Rolando. „Ifetecne del San Carlino sul lago di Lugano“. Mario Botta per Borromini: il San Carlino sul lago di Lugano. Hg. Ders. und Fabio Minazzi. Varese: Edizioni Agorà, 2000. 11–49. Bertelli, Carlo. „Francesco Mario ‚Bottomini‘, ovvero Borromini sul lago“. Borromini sul lago. Mario Botta: La rappresentazione lignea del San Carlo alle Quattro Fontane a Lugano. Ausst.Kat. Museo Cantonale d’Arte, 4. September – 14. November 1999. Hg. Gabriele Cappellato. Genf, Mailand, Mendrisio: Skira, Accademia di architettura, 1999. 21–23. Bohnenberger, Marcel. Billboarding. http://mbohnenberger.com/billboarding.html (9. Juni 2017). Bolter, David und Richard Grusin. Remediation. Understanding New Media. Cambridge, MA: MIT Press, 1999. Botta, Mario. „Appunti sulla rappresentazione lignea del San Carlino a Lugano“. Borromini sul lago. Mario Botta: La rappresentazione lignea del San Carlo alle Quattro Fontane a Lugano. Ausst.Kat. Museo Cantonale d’Arte, 4. September – 14. November 1999. Hg. von Gabriele Cappellato. Genf, Mailand, Mendrisio: Skira und Accademia di architettura, 1999. 13–19. Breitling, Stefan. „Raum und Zeit im digitalen 4D-Modell – Virtuelle Architekturen als dynamische Wissensräume“. Elektronische Medien & Kunst, Kultur, Historie, Proceedings. Hg. Bienert, Andreas, Frank Weckend und James Hemsley. Berlin 7.–9. November 2012 (EVA 2012). Berlin: Staatliche Museen zu Berlin und Gesellschaft zur Förderung Angewandter Informatik e.V., 2012. 26–32. Cappellato, Gabriele (Hg.). Borromini sul lago. Mario Botta: La rappresentazione lignea del San Carlo alle Quattro Fontane a Lugano. Ausst.Kat. Museo Cantonale d’Arte, 4. September – 14. November 1999. Genf, Mailand und Mendrisio: Skira und Accademia di architettura, 1999. Cascone, Kim. „The Aesthetics of Failure: ‚Post-Digital‘ Tendencies in Contemporary Computer Music“. Computer Music Journal 24.4 (2002). 12–18. Dombois, Florian. Zugabe. Konzeptbeschreibung, 2012. Dombois, Florian. „Zugabe. Auszug aus der Bewerbung zum Wettbewerb“. Kunst am Bau für den Landtag Brandenburg, Potsdam. Hg. Landtag Brandenburg. Potsdam, 2015. 11–13. Dombois, Florian. Persönliche E-Mailkorrespondenz, 4. Juni 2017.
204
Inge Hinterwaldner
Efroni, Sol. „Compiling and Running Biological Observations as 3D Computer Experimentation“. Vortrag, 21. Juni 2014 auf der Konferenz From in vitro to in silico. Computer Simulation in the Life Sciences. MECS, Lüneburg. Efroni, Sol, David Harel und Irun R. Cohen. „Emergent Dynamics of Thymocyte Development and Lineage Determination“. PLoS Computational Biology 3.1 (2007) e13. https://doi.org/ 10.1371/journal.pcbi.0030013 (20. April 2019). Eisenman, Peter. House X. New York: Rizzoli, 1983. Elber, Gershon. Escher for Real. http://www.cs.technion.ac.il/~gershon/EscherForReal/ (4. Mai 2014). Emery, Nicola. „Volontà d’arte“. Borromini sul lago. Mario Botta: La rappresentazione lignea del San Carlo alle Quattro Fontane a Lugano. Ausst.Kat. Museo Cantonale d’Arte, 4. September – 14. November 1999. Hg. von Gabriele Cappellato. Genf, Mailand, Mendrisio: Skira und Accademia di architettura, 1999. 39–43. Engel, Ute und Karin Guminski. „Die Kammerkapelle der Kurfürstin in 3D“. Akademie Aktuell 2 (2016). 77–81. Favro, Diane. „In the eyes of the beholder. Virtual Reality re-creations and academia“. Imaging ancient Rome. Documentation, visualization, imagination. Hg. von Lothar Haselberger und John Humphrey. Proceedings of the 3rd Williams Symposium on Classical Architecture, Rom 20.–23. Mai 2004; zugleich Journal of Roman Archaeology Band? (2006). 321–334. Friedberg, Anne. The Virtual Window. From Alberti to Microsoft. Cambridge, MA und London: MIT Press, 2006. Goodwin, Charles. „Professional Vision“. American Anthropologist 96.3 (1994). 606–633. Grusin, Richard. „The ‚new aesthetic‘ is Just the Latest Name for Remediation, All Dressed Up with Nowhere to Go“. Twitter, 18. April 2012. https://twitter.com/rgrusin/status/ 192622844860047361 [20. 04.2019]. Hacking, Ian. Was heißt ‚soziale Konstruktion‘?. Frankfurt am Main: Fischer TB, 1999. Hinterwaldner, Inge und Markus Buschhaus. „Zwischen Picture und Image. Überlegungen zu einem komplementären Kompositbegriff“. The Picture’s Image. Wissenschaftliche Visualisierung als Komposit. Hg. dies. und ders. München: Fink, 2006. 9–19. Hinterwaldner, Inge. „Künstlerisches und architektonisches Entwerfen – ‚not a time for dreaming‘?“.). Bildlichkeit im Zeitalter der Modellierung. Operative Artefakte in Entwurfsprozessen der Architektur und des Ingenieurwesens. Hg. Ammon, Sabine und dies. München: Fink, 2017. 315–345. Jäger, Heidi. „Sanssouci, zerschnitten“. Potsdamer Neueste Nachrichten. 6. September 2012. http://www.pnn.de/potsdam-kultur/678649/ (29. Mai 2017). Krämer, Sybille. „Operative Bildlichkeit. Von der >Grammatologie< zu einer >Diagrammatologie